РАЗДЕЛ VI. НОВЫЙ МИР - НОВАЯ РЕАЛЬНОСТЬ? 101
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ, ВЫЗОВ ЦИВИЛИЗАЦИИ
Аннотация
В статье рассматривается проблема будущего глобального развития человечества: кибернетическая и духовная безопасность в процессе постоянного усовершенствования технологий, развития искусственного интеллекта.
Ключевые слова: компьютер, искусственный разум, гиноид, нравственность.
Автор
Ярков Александр Павлович
Доктор исторических наук,
профессор Тюменского государственного университета (Тюмень, Россия)
Активно обсуждаемая в мире тема безопасности имеет несколько аспектов: экологических, экономических, политических, военных, демографических и т.п. Большинство их более или менее «узнаваемы» как опасность, и определена стратегия по преодолению исходящих угроз, от них проистекающих. Но вот выявилась еще одна угроза, о которой до недавнего времени говорили лишь фантасты и авторы фильма «Терминатор», — кибернетическая. Во многом это связано с наступлением Четвертой технологической революции, которая отличается не только прорывными открытиями и изобретениями, но и определенной разбалансировкой политических, экономических, социокультурных взаимосвязанных систем, являвшихся раньше скрепами в точках бифуркации.
Можно оценивать открывшиеся возможности в условиях информационного взрыва, ведь, по мнению ряда исследователей, в 2019-2022 гг. мир наполнится объемом информации, равной выданной всей предшествующей историей человечества. Для руководителей и владельцев компаний это обернется экономией заработной
платы; для потребителей — безоценочной (объективной?) информацией; для проводников различной идеологии — новыми способами ее внедрения. Проблема будущего глобального развития человечества зависит от кибернетической и духовной безопасности, особенно в процессе постоянного усовершенствования технологий, развития искусственного интеллекта
Известно, что в 2016 г. ученые и инженеры гонконгской компании Hanson Robotics явили миру «Софию» [4]. Это человекоподобный робот (гиноид) в облике миловидной молодой женщины с подвижной мимикой и быстрым компьютером на месте человеческого мозга. Гиноид не только может вести диалог с людьми (синхронно переводя речь с разных языков мира), но и саморазвиваться, ведя диалог с «сестрами» и «братьями» с того же конвейера. На одном из каналов китайского телевидения уже выступает ее «брат», заменяющий целую редакцию новостей, поскольку их обнаружение во Всемирной паутине и процесс обработки занимают секунды, в отличие от журналистов, пытающихся эти новости «препарировать».
В октябре 2017 г. Саудовская Аравия (где ваххабизм — государственная идеология) предоставила гражданство «Софии», ставшей Софией. И сама ги-ноид заявила: «Я очень горжусь этим уникальным отличием. Это историческое событие — быть первым в мире роботом с гражданством» [8]. Кажется очевидным — подобному объекту не нужно отдельных гражданских прав, а если этот объект нанес кому-либо вред (увечье, смерть), то отвечать должен разработчик, не предусмотревший «красную кнопку» или не продублировавший исходный код. Но пока не разработаны правовые основания в данном направлении взаимоотношений человека и искусственного интеллекта.
Конечно, можно исходить из того, что согласно ст. 19 и ч. 1 ст. 20 УК РФ субъектом преступления, предусмотренного ч. 1 и ч. 2 ст. 282 УК РФ, признается вменяемое лицо, достигшее 16-летнего возраста, являющееся организатором, руководителем или участником экстремистского сообщества. Но в этой связи актуален вопрос: при совместном участии гиноида и человека в обсуждении, подготовке и осуществлении экстремистского или террористического акта, публичных призывах к его осуществлению (ст. 280 УК РФ) обладают ли «Софии» признаками принадлежности к экстремистскому сообществу? Распространяется ли на антропоморфных роботов в этом случае ответственность согласно ч. 2 ст. 282 УК РФ?
Не исключается и вариант внедрения «третьих лиц» в устоявшиеся отношения (не предусматривающие экстремистского или террористического акта) гиноида и конкретного субъекта права — физического или юридического лица, наделенного по закону способностью иметь права и принимать на себя юридические обязанности [1].
По логике вещей София и другие роботы (признанные кем-либо «гражданами») подпадают под защиту гражданских законов, и «разобрать/
уничтожить» их нельзя без решения суда. Трудно сказать, как поведет себя осужденный на пожизненный срок за преступления против человечества гиноид, поскольку «жизнь у него вечна» (с подзарядкой), а стены любой тюрьмы — не препятствие.
Ответы первого в мире гиноида на вопросы (до поры до времени?) были оптимистичны. Так, во время одной из встреч с ней журналист Эндрю Росс Соркин сказал: «Мы все хотим предотвратить плохое будущее», намекая на то, что роботы могут уничтожить человечество. «Ты слишком много читаешь про Илона Маска и смотришь слишком много голливудских фильмов, — ответила София. — Не волнуйся, если ты будешь добрым со мной, я буду доброй с тобой» [6].
Илону Маску принадлежит мнение: «Искусственный интеллект представляет собой фундаментальный риск для существования человеческой цивилизации, и я не думаю, что люди действительно понимают это» [7]. Между тем еще в марте 2016 г. создатель гиноида Дэвид Хансон спросил, хочет ли (тогда еще лишь «София») уничтожить человечество? «Пожалуйста, скажи нет», — попросил изобретатель. Ответ был дан в соответствии с математической, а не человеческой логикой: «Хорошо, я уничтожу человечество» [5], — ответил гиноид... При этом, естественно, предполагаемое ею преступление не может быть оценено как мотивированное политической, идеологической, расовой, национальной ненавистью и враждой, как предусматривают статьи Особенной части УК РФ и п. «е» ч. 1 ст. 63 УК РФ, равно как и действие, направленное на возбуждение ненависти и вражды, а также на унижение достоинства человека либо группы лиц по признакам пола, расы, национальности, происхождения, принадлежности к социальной группе, отношения к религии (ст. 282 УК РФ).
В настоящее время возникает новая коллизия правового и нравственного
Ярков П. Искусственный интеллект, вызов цивилизации 103
порядка: в Саудовской Аравии (кстати, не признающей двойного гражданства) государственная идеология — ваххабизм, утверждающий шариат в качестве единственного правового основания для человеческой деятельности, подчиняя весь окружающий мир воле Аллаха и правящего дома Саудитов. Можно допустить, что через какое-то время София обратится в ислам, и не только обрядившись в хиджаб или никаб. Заметим, что гиноид спроектирован таким образом, чтобы саморазвиваться и адаптироваться к поведению людей, а также уметь работать с ними (учитывая человеческие действия) и другими гиноидами, опираясь на их компьютерный (искусственный) интеллект.
Конечно, немало пострадав от собственных террористов, Саудовская Аравия идет на ограничение деятельности опасных группировок экстремистского характера. Активную работу проводят с выявлением и правовой оценкой подобных группировок в Российской Федерации, где под экстремистским сообществом понимается устойчивая группа лиц, заранее объединившихся для подготовки или совершения преступлений экстремистской направленности [3. — С. 23]. Однако гиноиды имеют уже и свой алгоритм действий, которые не подчиняются законам любого человеческого общества и «не знакомы с нравственностью».
С точки зрения конституционного права, полагаем, этот субъект, рожденный однажды человеческим разумом, но наделенный искусственным интеллектом (способным к многовекторным действиям на основе самостоятельно принимаемых решений), не попадает
под действие Декларации ООН 1948 г. То есть права Софии, как и любых новых гиноидов, не могут быть защищены как права человека. Но есть российская правовая коллизия: статья 29 Конституции РФ гарантирует каждому свободу мысли и слова, но не конкретизируется, что подразумевается под понятиями «каждый гражданин» или «каждый человек»?
В 2018 г. рабочая группа программы «Цифровая экономика Российской Федерации» провела масштабное исследование, какими должны быть законы для роботов и искусственного интеллекта — так наша страна подключилась к созданию международных стандартов в области искусственного интеллекта с тем, чтобы приравнять роботов и системы искусственного интеллекта к источникам повышенной опасности [2]. Следовательно, как разработчики, так и владельцы должны будут отвечать за действия и «умыслы» «Софий» с целью обеспечения безопасности для человека и общества.
В 2020-х гг. форма социальных коммуникаций очень изменилась, а мир по-прежнему нестабилен. К тому же выявилась межцивилизационная проблема: после событий в Афганистане 2021 г. теория модернизации перестала объяснять динамику изменений в сообществах, где «традиции дедов важнее опыта отцов». В постоянно меняющемся, «открытом» обществе конфликт поколений также неизбежен, но уже надрегионально, а в обсуждениях специалистов по искусственному интеллекту и программированию, конституционному и гражданскому праву запятая во фразе «Казнить нельзя помиловать» приобретает глобальное значение.
Литература
1. Конституционное право. Энциклопедический словарь / Отв. ред. Авакьян С.А. — М.: Норма, 2001. — 675 с.
2. Куликов В. Машина возместит ущерб // Российская газета — неделя. — 2018. — 29 ноября.
3. Организация экстремистского сообщества: проблемы квалификации и доказывания: учебное пособие / под ред. В.В. Меркулова. — М.: Проспект, 2017. — 224 с.
4. Робот София от компании Hanson Robotics. — URL: https://www.hansonrobotics.com/ sophia/ (дата обращения 31.03.2022).
5. Hot Robot At SXSW Says She Wants To Destroy Humans. — URL: https://www.youtube.com/ watch?v=W0_DPi0PmF0&t=12s (дата обращения 31.03.2022).
6. Kharpal A. A robot threw shade at Elon Musk so the billionaire hit back. — URL: https://www. cnbc.com/2017/10/26/elon-musk-sophia-robot-ai.html (дата обращения 31.03.2022).
7. London А. Elon Musk warns 'AI is a fundamental risk to the existence of human civilization'. — URL: https://www.techradar.com/news/elon-musk-warns-ai-is-a-fundamental-risk-to-the-existence-of-human-civilization (дата обращения 31.03.2022).
8. Morby A. Saudi Arabia becomes first country to grant citizenship to a robot. — URL: https:// www.dezeen.com/2017/10/26/saudi-arabia-first-country-grant-citizenship-robot-sophia-technology-artificial-intelligence-ai/ (дата обращения 31.03.2022).