УДК 34
Шаимов Х.
кандидат юридических наук, старший преподаватель Туркменский государственный институт финансов (г. Ашхабад, Туркменистан)
НЕОБХОДИМОСТЬ ПОВЫШЕНИЯ ОТВЕТСТВЕННОСТИ НАРУШИТЕЛЕЙ ДЛЯ ЗАЩИТЫ СУБЪЕКТОВ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Аннотация: в этой работе мы представляем обзор подходов, направленных на моделирование ответственности систем искусственного интеллекта, обсуждаем их преимущества и недостатки для решения различных аспектов понятия ответственности, а также представляем пробелы в исследованиях и пути продвижения вперед.
Ключевые слова: моделирование ответственности, фактическая ответственность, искусственный интеллект, автономные системы.
В литературе по искусственному интеллекту, посвященной моделированию реальной ответственности, выделяются следующие методологические точки зрения.
Событийно-ориентированная ответственность: Эта концепция, основанная на работах Халперна, Шоклера и Халперна, использует причинно-следственные модели для установления связи между цепочкой материализованных событий в окружающей среде в качестве основы для понимания того, какие конкретные события привели к определенному результату. Эта точка зрения рассматривает ответственность как меру причинно-следственной связи в том смысле, что некоторые конкретные события ответственны за результат (или другие события) в той мере, в какой результат фактически зависит от событий, т.е. результат не был бы реализован, если бы событие не произошло. Этот взгляд на ответственность может быть применен к
системам искусственного интеллекта, если рассматривать решения/действия систем искусственного интеллекта как события.
Ответственность, ориентированная на агентов: Эта точка зрения, основанная на буллинге, Язданпанах и Дастани, рассматривает коалиционные способности в стратегических условиях как основу для видения групп агентов, ответственных за результат в мультиагентной среде. Эта точка зрения основывается на философском учении Братмана о том, что группы могут намеренно действовать в направлении достижения коллективных целей, следовательно, могут считаться ответственными и, соответственно, отчитываться за свое коллективное поведение. Это понятие ответственности отражает взаимодействие между системами искусственного интеллекта с учетом их коллективных способностей, общих знаний и коммуникации.
Проблема множества рук в системах искусственного интеллекта. Возложение ответственности на коллективы в многоагентных условиях поднимает вопрос о том, как связать ответственность на коллективном уровне с отдельными лицами в рамках коллектива. В конце концов, то, что вышло из коллектива, было результатом объединения индивидуальных действий и решений. В политической и моральной философии эта проблема известна как проблема множества участников. Когда для достижения результата задействовано много участников (т.е. множество агентов), определить причинно-следственный или стратегический вклад непросто.
По мере того, как инструменты ИИ постепенно внедряются в общество, их решения становятся этически и нормативно нагруженными, поскольку они могут привести к нежелательным последствиям. Следовательно, важно систематически и поддающимся проверке образом реагировать на проблему большого количества рук в системах ИИ. Ключом к обеспечению надежности таких систем искусственного интеллекта является определение того, как и в какой степени каждый отдельный агент, участвовавший в процессе коллективного принятия решений, несет ответственность за результат. Абрахам и Ван Хис подчеркивают, что метод решения проблемы многодетности и
возложения ответственности на отдельных лиц должен учитывать три основных аспекта этого понятия:
(1) выявление причинно-следственного влияния агентов внутри коллектива на результат,
(2) учет норм, которых придерживались или нарушали агенты, нормативного характера рассматриваемого результата и установленных правил в окружающей среде, и
(3) рассмотрение того, как эпистемологические аспекты влияют на коллективную способность вызвать результат или избежать его, и, в свою очередь, на их частичную ответственность за него.
Как уже обсуждалось, модели, позволяющие рассуждать о реальной ответственности, являются ключевыми для автономных систем искусственного интеллекта и могут быть использованы для обеспечения надежного внедрения систем искусственного интеллекта в общество. Кроме того, в качестве будущих направлений мы рассматриваем применимость реальных моделей ответственности в смежных областях, таких как планирование с использованием искусственного интеллекта, путем предоставления задач ответственным группам, способным их выполнить. Такие модели ответственности также могут быть использованы для обеспечения законности систем искусственного интеллекта путем возложения ответственности на агентов, которые могли бы избежать ущерба, исходя из эпистемологических, нормативных и мотивационных соображений. Наконец, модели реальной ответственности могут быть использованы для проектирования и разработки адаптивных систем искусственного интеллекта, например, с использованием степени виновности в качестве основы для оценки сожалений/наград при обучении с подкреплением.
Поскольку системы искусственного интеллекта все больше внедряются в наше общество, мы утверждаем, что в качестве средства поддержки этичного и ориентированного на человека ИИ необходимо разработать точные модели для обоснования ответственности систем искусственного интеллекта.
СПИСОК ЛИТЕРАТУРЫ:
1. Бенджамин Р. (2021) Система выбора для ответственного использования искусственного интеллекта;
2. Стилго Дж. (2020) Воз является движущей силой инноваций. Новые технологии и государство сотрудничества.
Shayymov H.
Turkmen State Institute of Finance (Ashgabat, Turkmenistan)
NEED TO INCREASE RESPONSIBILITY OF VIOLATORS TO PROTECT SUBJECTS OF ARTIFICIAL INTELLIGENCE
Abstract: in this work, we present an overview of approaches that aim at modelling responsibility of AI systems, discuss their advantages and shortcomings to deal with various aspects of the notion of responsibility, and present research gaps and ways forward.
Keywords: responsibility modelling, actual responsibility, AI systems, autonomous systems.