Научная статья на тему 'РЕФ. СТ.: СУТРОП М. ПРОБЛЕМЫ СОГЛАСОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА С ЧЕЛОВЕЧЕСКИМИ ЦЕННОСТЯМИ'

РЕФ. СТ.: СУТРОП М. ПРОБЛЕМЫ СОГЛАСОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА С ЧЕЛОВЕЧЕСКИМИ ЦЕННОСТЯМИ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
182
55
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ (ИИ) / ОБЩИЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ (ОИИ) / ЭТИКА ИИ / МОРАЛЬНЫЙ АГЕНТ / МОРАЛЬНЫЕ ПРИНЦИПЫ / СУПЕР[ИСКУСТВЕННЫЙ]ИНТЕЛЛЕКТ (СИИ) / ЦЕННОСТИ / СГЛАЖИВАНИЕ ЦЕННОСТЕЙ / ПЛЮРАЛИЗМ ЦЕННОСТЕЙ
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «РЕФ. СТ.: СУТРОП М. ПРОБЛЕМЫ СОГЛАСОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА С ЧЕЛОВЕЧЕСКИМИ ЦЕННОСТЯМИ»

Реф. ст. : СУТРОП М. ПРОБЛЕМЫ СОГЛАСОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА С ЧЕЛОВЕЧЕСКИМИ ЦЕННОСТЯМИ.

SUTROP M. Challenges of Aligning Artificial Intelligence with Human Values // Acta Baltica historiae et philosophiae scientiarum. - Tallinn, 2020. - Vol. 8, N 2. - P. 54-72.

Ключевые слова: искусственный интеллект (ИИ); общий искусственный интеллект (ОИИ)1; этика ИИ; моральный агент; моральные принципы; супер[искуcственyый]интеллект (СИИ); ценности; сглаживание ценностей; плюрализм ценностей.

Для цитирования: Гранин Р.С. [Реф.] // Социальные и гуманитарные науки. Отечественная и зарубежная литература. Сер. 3: Философия. -2021. - № 3. - С. 95-98 Реф. ст. : Sutrop M. Challenges of Aligning Artificial Intelligence with Human Values // Acta Baltica historiae et philosophiae scientiarum. - Tallinn, 2020. - Vol. 8, N 2. - P. 54-72.

Автор статьи - Маргит Сутроп - профессор практической философии в Институте философии и семиотики Тартуского университета, а также научный сотрудник Хельсинкской коллегии перспективных исследований при Хельсинкском университете (с. 72).

1 Общий искусственный интеллект (также сильный ИИ или полный ИИ) -это гипотетический интеллект компьютерной программы, способной понять или изучить любую интеллектуальную задачу, которую может выполнить человек. Это основная цель некоторых исследований в области искусственного интеллекта и общая тема в научной фантастике и исследованиях будущего. Некоторые научные источники резервируют термин «сильный ИИ» для компьютерных программ, которые будут обладать опытом чувствительности, самосознания и сознания. В отличие от сильного ИИ, слабый ИИ (также называемый узкий ИИ) не предназначен для выполнения человеческого типа познавательных способностей и симуляции личности, а ограничивается использованием программного обеспечения для обучения или выполнения конкретных заранее поставленных задач.

В своей статье Сутроп пишет, что поскольку системы искусственного интеллекта (ИИ) становятся все более автономными и вскоре смогут самостоятельно принимать решения о том, что делать, исследователи ИИ начали говорить о необходимости согласования ИИ с человеческими ценностями. «Проблема согласования ценностей» ИИ сталкивается с двумя проблемами - техническими и нормативными, - которые взаимосвязаны. Техническая проблема связана с вопросом о том, как закодировать человеческие ценности в искусственном интеллекте. Нормативная проблема связана с двумя вопросами: «Каким ценностям или чьим ценностям должен соответствовать искусственный интеллект?». Автора беспокоит то, что разработчики ИИ недооценивают сложность ответа на нормативный вопрос. Они надеются, что человек сможет легко определить цели, которые действительно желательны, и что они, -создатели ИИ, - смогут сосредоточиться на разработке этих целей. Но как решить, какие цели или ценности внедрять в ИИ, учитывая, что существует множество ценностей и моральных принципов и, что повседневная человеческая жизнь полна моральных разногласий?

Сутроп показывает, что, хотя нереально прийти к соглашению о том, чего мы, люди, на самом деле хотим, поскольку ценим разные вещи и преследуем разные цели, возможно, удастся договориться о том, чего мы не хотим (учитывая вероятность того, что разум, отличный от нашего собственного или даже превосходящий его, может быть создан). Автор выступает за плюрализм (а не за релятивизм!), который совместим с объективизмом. Несмотря на то, что не существует однозначно наилучшего решения для каждой моральной проблемы, все же возможно определить, какие ответы неверны (с. 54).

Быстрое развитие искусственного интеллекта позволило получить широкий спектр полезных приложений в различных сферах жизни, от здравоохранения до безопасности и управления. Навыки, которые раньше считались исключительно «человеческими», теперь решаются с помощью подхода в области машинного обучения. По мере того, как ИИ становится все более мощным, все больше внимания уделяется способам максимизации его общественной пользы. Растущие возможности искусственного интеллекта и машинного обучения, а также разработка бесчисленного множества новых приложений также заставляют переоценить про-

Реф. ст. : Сутроп М. Проблемы согласования искусственного интеллекта с человеческими ценностями

блему доверия и рисков, связанных с ИИ. ИИ может представлять собой угрозу для человечества либо из-за его злонамеренного использования людьми, либо из-за непредвиденных последствий, либо автономных действий самой искусственной системы.

В совместном отчете «Злонамеренное использование ИИ: прогнозирование, предотвращение и смягчение последствий» (2018), выпущенном ведущими исследовательскими центрами ИИ в Великобритании и США, недавно был проанализирован спектр потенциальных угроз безопасности от злонамеренного использования технологий ИИ, где прямо было заявлено, что, если в ближайшее время не будут разработаны адекватные средства защиты, ИИ будет угрожать нашей цифровой, физической и политической безопасности (с. 55).

В настоящее время системы искусственного интеллекта в узком смысле предназначены для решения конкретных задач, таких как распознавание речи, лиц или объектов, спам-фильтры или автономное вождение, и они не способны ставить собственные цели или выбирать наилучшие способы действий в разных областях. Исследователи прогнозируют, что ИИ превзойдет людей в переводе языков к 2024 г., написании школьных сочинений к 2026 г., вождении грузовиков к 2027 г., работе хирургом к 2053 г.; они считают, что существует 50%-ная вероятность того, что ИИ превзойдет людей по всем задачам в течение 45 лет и автоматизирует все человеческие рабочие места в течение 120 лет. Поскольку роботы становятся все более автономными и способными принимать решения самостоятельно, возрастает риск того, что люди потеряют контроль над системами ИИ. Американские специалисты Венделл Уоллах и Колин Аллен предположили, что по мере того, как роботы будут брать на себя все большую ответственность, они должны быть запрограммированы на способность принимать моральные решения ради нашей собственной безопасности (там же).

Далее автор пишет, что хорошо, что исследователи в принципе понимают важность того, чтобы сильный ИИ соответствовал человеческим ценностям. Однако поскольку термин «ценность» функционирует как некая абстракция, в действительности может возникнуть проблема, заключающаяся в том, что ИИ не обязательно будет действовать морально, но потенциально также будет удовлетворять аморальные человеческие предпочтения, прикрывае-

мые их «полезностью». Таким образом, чтобы обеспечить этичность ИИ, нужно заставить его следовать моральным принципам или обрести моральные ценности.

В ходе соответствующих дискуссий возник вопрос, существуют ли универсальные ценности или ИИ должен считаться с культурными различиями. Маргит Сутроп в своих выступлениях последовательно отстаивает идею, что плюрализм ценностей может уравновесить, как моральные разногласия, вызванные разнообразием ценностей, так и объективность этики, признав, что не существует однозначно правильных ответов на моральные вопросы. Моральная двусмысленность не обязательно подразумевает релятивизм. Принятие множественности ценностей не должно приводить к идее их относительности. С этим поможет справиться введение «запрещенных» или «аморальных» нравственных принципов (физиологических, психологических, социальных, культурных или интеллектуальных). Таким образом, согласование ценностей должно начинаться с поиска согласия по отрицательным ценностям, т.е. тому, чего человечество не хочет и не готово потерять.

Множественность ценностей и объективность могут быть объединены, если признать, что существует множество моральных принципов, с помощью которых можно обосновывать и оценивать моральные ценности. Функция морали заключается в удовлетворении основных человеческих потребностей, которые разделяются большинством. Разные моральные теории могут предпочесть разные базовые принципы, в соответствии с которыми можно жить нравственной жизнью. Тем не менее существует меньше вариантов выбора в отношении того, что является морально неправильным (а значит их проще все указать), и поэтому мы должны стремиться к соглашению относительно того, что является явно аморальным (с. 69).

Р.С. Гранин*

* Гранин Роман Сергеевич - кандидат философских наук, старший научный сотрудник отдела философии Института научной информации по общественным наукам РАН.

i Надоели баннеры? Вы всегда можете отключить рекламу.