Лапшин В. Ф. / Lapshin V. F.
Оригинальная статья
УДК 343.34
DOI: 10.35750/2713-0622-2022-4-374-385
Технология искусственного интеллекта как потенциальная угроза для охраняемой уголовным законом общественной безопасности
Валерий Федорович Лапшин
Югорский государственный университет (Ханты-Мансийск, Россия) [email protected]
ORCID: 0000-0001-8549-6305
Аннотация
Введение. Государства на современном этапе анонсируют необходимость активного развития научных исследований в области искусственного интеллекта, создания соответствующих технологий с последующим повсеместным внедрением во все сферы деятельности человека. Некоторыми первыми лицами ведущих стран объявлена прямая зависимость качества обеспечения национальной безопасности от уровня развития и использования технологий искусственного интеллекта. В то же время официально никто не обозначает те глобальные риски, которые несет в себе искусственный интеллект, имеющий возможность принимать и претворять в жизнь решения, не подконтрольные человеку. По этой причине до настоящего времени не сформированы правовые механизмы нивелирования угроз, которые порождаются деятельностью по созданию полностью автономного искусственного интеллекта.
Цель. Настоящее исследование проведено для обозначения глобальных рисков, основу которых формирует неконтролируемое развитие и распространение технологии искусственного интеллекта, а также обоснования необходимости установить уголовную ответственность за отдельные действия в области разработки технологий искусственного интеллекта.
Методология, методы и методики исследования. В процессе исследования применялись различные общенаучные и частнонаучные методы, которые традиционно используются в гуманитарных науках. Так, диалектический и формально-логический методы обеспечили всесторонность изучения искусственного интеллекта, позволившую установить не только положительные результаты его внедрения, но и значительные риски для общества, которые видятся в неконтролируемом распространении искусственного разума. В числе частнонаучных методов настоящего исследования значатся системно-структурный, сравнительно-правовой методы, опрос, метод экспертных оценок и др.
Результаты. Исследованием определено, что в среднесрочной перспективе будет создан полноценный аналог естественного интеллекта, имеющий возможности самостоятельного аналитического мышления и обучения. В складывающихся условиях это не исключает полного или частичного уничтожения населения планеты. Введение реальной юридической ответственности, прежде всего уголовной, за создание «автономного разума» не планируется ни в международном, ни в национальном праве, что порождает незащищенность отношений в сфере общественной безопасности.
Научная новизна. По итогам исследования обоснована общественная опасность неконтролируемого распространения в мире технологий искусственного интеллекта и предложено установление уголовной ответственности за совершение соответствующих деяний по аналогии с запретом на создание и распространение оружия массового поражения.
Практическая значимость. Сформулированные предложения могут быть учтены при подготовке законопроектов о внесении изменений и дополнений в действующий уголовный закон о преступлениях против общественной безопасности, а также против мира и безопасности человечества.
© Лапшин В. Ф., 2022
Ключевые слова
искусственный интеллект, естественный интеллект, человеческий интеллект, угроза общественной безопасности, правовое регулирование
Для цитирования: Лапшин, В. Ф. (2022). Технология искусственного интеллекта как потенциальная угроза для охраняемой уголовным законом общественной безопасности. Российский девиантологический журнал, 2(4), 374-385. doi: 10.35750/2713-0622-2022-4-374-385.
Original paper
Artificial intelligence technology as a potential threat to public security protected by criminal law
Valeriy F. Lapshin
Yugra State University (Khanty-Mansiysk, Russia)
ORCID: 0000-0001-8549-6305
Abstract
Introduction. States at the present stage announce the need for active development of scientific research in the field of artificial intelligence, the creation of appropriate technologies with subsequent widespread introduction in all areas of human activity. Some first persons of leading countries declare a direct dependence of the quality of ensuring national security on the level of development and use of artificial intelligence technologies. At the same time, no one officially indicates the global risks of artificial intelligence, which has the ability to make and implement decisions beyond human control. For this reason, so far no legal mechanisms have been formed to level the threats posed by the activities to create a fully autonomous artificial intelligence.
Objective. The present study was conducted to outline the global risks, the basis of which is formed by the uncontrolled development and spread of artificial intelligence technology, as well as the rationale for the need to criminalize certain actions in the development of artificial intelligence technologies.
Research methodology, methods and techniques. In the process of research a variety of general scientific and private scientific methods were used, which are traditionally used in the humanities. Thus, dialectical and formal-logical methods provided a comprehensive study of artificial intelligence, which allowed to establish not only the positive results of its implementation, but also significant risks for society, which are seen in the uncontrolled spread of artificial intelligence. Among the private scientific methods of this study are system-structural, comparative-legal methods, survey, method of expert evaluations and others.
Results. The study determined that in the medium term there will be created a full-fledged analogue of natural intelligence, with the capabilities of independent analytical thinking and learning. In a changing environment this does not exclude complete or partial destruction of the population of the planet. The introduction of real legal responsibility, primarily criminal, for the creation of «autonomous intelligence» is not planned either in international or in national law, which generates insecurity of relations in the field of public safety.
Scientific novelty. The study substantiates the social danger of uncontrolled spread of artificial intelligence technologies in the world and proposes the establishment of criminal responsibility for the commission of these acts by analogy with the prohibition on the creation and proliferation of weapons of mass destruction.
Practical significance. The formulated proposals may be taken into account in the preparation of bills on amendments and additions to the existing criminal law on crimes against public safety, as well as against the peace and security of mankind.
Keywords
artificial intelligence, natural intelligence, human intelligence, threat to public safety, legal regulation
For citation: Lapshin, V. F. (2022). Artificial intelligence technology as a potential threat to public security protected by criminal law. Russian Journal of Deviant Behavior, 2(4), 374-385. doi: 10.35750/2713-0622-2022-4-374-385.
Лапшин В. Ф. / Lapshin V. F.
Введение
В настоящее время искусственный интеллект и ней-росети воспринимаются во всем мире как масштабное технологическое явление. Каждое государство признает необходимость самого широкого внедрения указанных технологий во все сферы экономики и управления. Передовые державы мира указывают на лидерство в области создания и применения искусственного интеллекта в качестве приоритетного направления не только своих экономических интересов, но и обеспечения национальной безопасности в целом. Это отражено в национальном праве некоторых стран -в нормативных актах стратегического характера. Так, в распоряжении президента США от 11 февраля 2019 г. подчеркивается, что искусственный интеллект выступает стимулом для роста американской экономики, укрепляет экономическую и национальную безопасность и улучшает качество жизни населения страны. Исходя из этого, сохранение неизменного лидерства в области искусственного интеллекта является одной из основных задач США (Maintaining American Leadership in Artificial Intelligence, 2019).
Власти Китайской Народной Республики не так категоричны в своих официальных заявлениях относительно искусственного интеллекта. Данная технология рассматривается в КНР как наиболее эффективное средство для захвата новых рынков во всем мире и успешного ведения конкурентной борьбы (Ковачич, 2020).
Президент России в одном из своих выступлений обратил внимание на опасность отставания от иных государств мирового сообщества в применении искусственного интеллекта. Монополия в данной области может обеспечить государству власть над всем миром (Путин: монополист в сфере искусственного интеллекта может стать властелином мира, 2019). Очевидно, по этой причине в России одним из стратегических направлений развития является цифровая трансформация общества, ключевое место в которой занимает изменение системы государственного и муниципального управления1.
Такие заявления полностью подтверждаются аналитическими данными об инвестициях в деятельность хозяйствующих субъектов, представляющих сектор цифровой экономики. Так, в 2011 г. в мире было заключено 67 сделок, по результатам которых общий объем инвестиций в разработку технологий искусственного интеллекта и нейросетей составил 282 млн долларов США, но уже в 2015 г. количество сделок возросло до 387, а объем инвестиций составил 2 млрд 380 млн долларов США, показав рост более чем на 800 %. За 2020 г. инвестиции в развитие технологий искусственного интеллекта со-
ставили 67,9 млрд долларов США, т. е. около четверти доходной части бюджета России, спланированной на 2021 г. (Объем инвестиций в технологии искусственного интеллекта достиг почти $68 млрд., 2021).
Таким образом, все экономические и политические факторы позволяют утверждать, что искусственный интеллект стал самым популярным явлением, с которым связываются возможности дальнейшего развития общества, если не всего человечества. Полагаю, подобная популярность искусственного интеллекта связана с возможностями многократного увеличения производительности труда и освобождения человека от выполнения не только рутинных однообразных задач, но и от решения сложных вопросов, требующих глубокого анализа и значительных умственных затрат. В то же время возможности искусственного интеллекта в области причинения вреда общественной безопасности как отдельного государства, так и всего человечества также масштабны. Однако это обстоятельство не учитывается официальными представителями стран мирового сообщества, которые находятся в состоянии «гонки на опережение», опасаясь за свои частные интересы в области технологического развития.
Обзор литературы
В объем реферативной базы настоящего исследования включены работы российских и зарубежных авторов относительно потенциальных возможностей развития искусственного интеллекта и перспективных результатов его повсеместного внедрения. В ходе исследования были проанализированы статистические данные об интенсивности научно-практических исследований в области искусственного интеллекта и высоких технологий, а также о динамике объемов инвестирования в эту сферу деятельности. Дополнительно изучалось мнение практиков - представителей высокотехнологичных компаний, являющихся резидентами «Сколково».
Методология, методы и материалы исследования
Метод анализа и наблюдения позволил выявить современные тенденции научных исследований и разработок в области искусственного интеллекта и их последующего внедрения в различные отрасли национальных экономик стран международного сообщества, а также в социальную, культурную, правовую и иные сферы жизнедеятельности. Метод прогнозирования на основе исследованных данных о ежегодных объемах инвестиций в мире, которые направляются на развитие исследований в области искусственного интеллек-
1 Распоряжение Правительства РФ от 22.10.2021 № 2998-р «Об утверждении стратегического направления в области цифровой трансформации государственного управления» (2021). Официальный интернет-портал правовой информации. URL: http://pravo.gov.ru (дата обращения: 15.11.2022).
та и внедрение высоких технологий, позволил сделать вывод об увеличении числа практико-ориентирован-ных разработок искусственного интеллекта в целях его совершенствования и создания полноценного аналога естественного интеллекта, которым пока обладает только человек.
Диалектический метод познания обеспечил возможность обоснования не только положительных характеристик высокотехнологичных средств использования, но и серьезных угроз для общества, которые несет повсеместное распространение искусственного интеллекта и его качественное совершенствование. Возможное в перспективе превосходство искусственного интеллекта над человеком может создать условия для возникновения гуманитарной катастрофы.
ЧЧ
Передовые державы мира указывают на лидерство в области создания и применения искусственного
интеллекта в качестве приоритетного направления не только своих экономических интересов, но и обеспечения национальной безопасности в целом
и
Метод сравнительного правоведения позволил выявить пробелы в законодательстве многих стран в части регламентации определения искусственного интеллекта, регулирования правил безопасности его внедрения в повседневную жизнь, а также отсутствия перспектив установления уголовной ответственности за вред, который причиняется в результате использования / деятельности высокотехнологичного оборудования, оснащенного искусственным интеллектом.
Методы опроса и экспертных оценок обеспечили подтверждение практикующими специалистами необходимости установления строгих юридических пределов возможного применения искусственного интеллекта, пределов его совершенствования, а также установления круга лиц, которые должны привлекаться в том числе и к уголовной ответственности за
причинение вреда вследствие использования высокотехнологичного автономно функционирующего оборудования.
Результаты исследования
Итоговым результатом исследования является вывод, что искусственный интеллект содержит потенциальную угрозу для всего человечества, для предотвращения которой необходимо установить запрет на его дальнейшие разработки. На уровне и международного, и национального права целесообразно признать технологии искусственного интеллекта, способного функционировать независимо от сознания и воли человека, разновидностью оружия массового уничтожения, установив уголовную ответственность за их разработку и использование. Человек же должен решить для себя крупную этическую проблему - осознать, что стремление к отказу от мыслительной деятельности, принятия решений и возложения на себя ответственности за их реализацию ради комфортной (беззаботной и безответственной) жизни приведет к его гибели.
Обсуждение результатов исследования
Начиная со второй половины ХХ в., человек сталкивается с проблемой необходимости осмысления большого массива разнородной информации, поступающей из различных источников. Анализ полученной информации предполагает принятие одного из множества альтернативных решений, а также возложение на себя ответственности за правильность принятого решения, высокую ценность (эффективность, значимость и т. п.) полученных от его реализации результатов. Отсюда фактическая невозможность для человека оценить весь объем поступающих ему данных, страх принятия неправильного решения, опасение ответственности за негативные последствия, допущенные вследствие ошибочности выбора, могут рассматриваться в качестве главных причин и мотивов развития технологий искусственного интеллекта.
Феномен искусственного интеллекта заключается еще и в его высочайшей универсальности: наверное, уже нет такой сферы деятельности, в которой не применяется или не может применяться искусственный интеллект. Сюда входит не только сфера производства, оказания услуг и т. п., но и область творческой деятельности человека. К настоящему времени искусственный интеллект может создавать «продукты» живописи, музыки, имеет широкие возможности определения степени формальной оригинальности литературных и иных произведений (рукописей). Наибольшая степень распространения технологий искусственного интеллекта в данный момент наблюдается в сфере банковского обслуживания (кредитование, финансовая безопасность), на транспорте (высокоавтоматизированные транспортные средства, робомобили), в медицине
Лапшин В. Ф. / Lapshin V. F.
(диагностика, прогнозирование развития заболеваний, оперирование) и др.
Распространение искусственного интеллекта уже касается таких сфер умственной деятельности человека, которые, как представляется, исключают любую возможность использования математических алгоритмов не поддающихся рациональной оценке явлений и характеристик. Здесь речь идет о правосудии. Российское законодательство в настоящее время исключает возможность применения «электронного судьи» для принятия решений по рассматриваемым делам, однако в отечественной науке уже высказываются предложения о применении электронных алгоритмов при квалификации преступлений (Яни, 2019), а также по вынесению обвинительных приговоров, по которым вид и размер (срок) наказания устанавливаются искусственным интеллектом (Маклудова, 2019, с. 140).
Подобная практика встречается в ряде зарубежных государств. Так, правосудие в некоторых штатах США осуществляется с использованием специализированных программ, с помощью которых судья определяет уголовное наказание, подлежащее назначению по конкретному делу. Оценка таких решений «электронного судьи» неоднозначна: в практике американского правосудия уже имеются факты обжалования решений по назначению уголовных наказаний, справедливость которых судьи обосновать не могут. Исследователи указывают на значительное количество подобных иррациональных приговоров (Бирюков, 2019, с. 81-82; Роботы в законе. Должен ли искусственный интеллект отвечать за свои проступки, 2018), что, как представляется, будет рассматриваться лишь в качестве необходимости для совершенствования программ электронного правосудия, но не отказа от их применения в настоящем и будущем.
Для того чтобы иметь представление о юридической сущности искусственного интеллекта, равно как и об особенностях установления ответственности за последствия его применения, необходимо обратиться к его определению. Как это ни парадоксально, но в современном мире нет общепризнанного, в том числе нормативно закрепленного определения категории «искусственный интеллект», что не мешает использовать его не только в научной литературе, но и в официальных документах стратегического значения. Преимущественно, под искусственным интеллектом в научной литературе предлагается понимать: а) систему, которая способна имитировать интеллектуальную деятельность человека; б) самостоятельную отрасль кибернетической науки; в) набор математических алгоритмов и метапроцедур.
В законе США об искусственном интеллекте 2017 г. дается следующее определение: искусственный ин-
теллект - это любые искусственные системы, которые выполняют задачи в различных непредсказуемых обстоятельствах, без значительного контроля со стороны людей, или которые могут извлечь уроки из своего опыта и улучшить свою работу (Future of Artificial Intelligence Act of 2017, 2017). В Национальной стратегии развития искусственного интеллекта до 2030 г. последний определяется как комплекс технологических решений, позволяющий имитировать функции человека, получать результат, сопоставимый с результатами деятельности человека2. Исходя из этого, можно заключить, что не существует точного представления об искусственном интеллекте.
ЧЧ
Уже сегодня созданы прецеденты наделения робота правосубъектностью, объем которой в сущности сравним с правосубъектностью физического лица
ьь
В современной научной литературе сформулировано несколько вариантов определения искусственного интеллекта как объекта правового регулирования. Прежде всего, искусственный интеллект предлагается рассматривать как объект авторского права, приравняв его к разновидности программы для ЭВМ. Иные исследователи указывают, что получивший некую автономию и ослабление контроля со стороны человека искусственный интеллект должен рассматриваться в качестве источника повышенной опасности, например по аналогии с животными.
Некоторые исследователи акцентируют внимание не на сущности искусственного интеллекта, а на результатах его деятельности, которые способны повлечь не только положительные, но и отрицательные (вредоносные, общественно опасные) последствия. Вопрос
2 Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» (2019). Собрание законодательства РФ, № 41, ст. 5700.
об ответственности в таких случаях предлагается рассматривать по правилам ответственности юридических лиц, наделив искусственный интеллект самостоятельной правосубъектностью.
Уже сегодня созданы прецеденты наделения робота правосубъектностью, объем которой в сущности сравним с правосубъектностью физического лица. Так, робот София в 2017 г. признан гражданином Саудовской Аравии, а робот Мирэй получил статус резидента в Японии. Власти Южной Кореи в 2008 г. приняли Закон «О содействии развитию и распространению умных роботов», в соответствии с которым «умный робот» признается субъектом права и участником цифровых правоотношений в обществе. Таким образом, в современном мире предметы неживой природы, снабженные технологиями искусственного интеллекта, постепенно становятся обладателями прав, которые человек должен воспринимать и соблюдать.
Представляется, что в действительности признание правосубъектности любого (даже самого уникального) робота следует рассматривать в качестве одного из видов юридической фикции. В условиях начальной стадии развития цифровых средств, способных кардинально повысить уровень производительности труда и обеспечить значительный рост благосостояния и жизненного комфорта населения, законодатель не стремится к установлению уголовной ответственности лиц, непосредственно обеспечивающих цифровой прогресс, побочным эффектом деятельности которых является причинение вреда жизни, здоровью, имущественным интересам личности: а) программистов;
б) производителей высокотехнологичных средств;
в) пользователей средств, обеспеченных искусственным интеллектом. В противном случае реализация мер уголовной ответственности в отношении перечисленных лиц может снизить скорость совершенствования технологий искусственного интеллекта и их внедрения в сферу практического применения.
Интересные решения об установлении ответственности за вред, причиненный искусственным интеллектом, наблюдаются в области применения высокотехнологичных транспортных средств. Степень распространенности беспилотных транспортных средств в настоящее время незначительна, но уже имеют место случаи причинения вреда жизни и здоровью человеку такими видами транспорта, хотя к уголовной ответственности за эти деяния никто привлечен не был.
Идея повсеместного внедрения искусственного интеллекта заключается в «устранении человеческого фактора»3, т. е. нежелательности (а в перспективе и недопустимости) вмешательства человека в работу
«умной» машины. Однако с учетом невозможности исключения причинения вреда охраняемым уголовным законом общественным отношениям в результате «самостоятельной» деятельности искусственного интеллекта беспилотного транспортного средства возникает потребность определения субъекта, несущего ответственность за последствия транспортных аварий и катастроф.
Российская практика реализации уголовной ответственности еще не знает случаев привлечения к ответственности за совершение указанных преступлений лиц, которые не управляли автомобилем или иным транспортным средством, потому что для этого требуется установить конкретного виновного в совершении преступления. Учитывая положения действующих нормативных актов стратегического значения в совокупности с существующими особенностями производства и эксплуатации высокотехнологичных продуктов, объединяющих в себе не только конструкционные решения, но и сложное программное обеспечение, становится очевидной невозможность использования традиционного алгоритма определения субъекта состава транспортного преступления в случаях, когда авария или катастрофа происходят с участием иных высокоавтоматизированных транспортных средств (далее -ВАТС). На основании анализа возможных вариантов развития причинно-следственной связи полагаю, что круг субъектов уголовной ответственности гипотетически может быть представлен следующими лицами:
- водитель, находящийся на борту ВАТС, который в случае возникновения угрозы дорожно-транспортного происшествия обязан перевести транспортное средство в режим ручного управления и предотвратить причинение вреда объектам уголовно-правовой охраны;
- водитель, который управляет ВАТС дистанционно;
- собственник ВАТС;
- производитель ВАТС;
- разработчик технологии искусственного интеллекта и иного программного обеспечения, внедренного в систему управления ВАТС;
- лицо, осуществившее несанкционированные изменения в программном обеспечении ВАТС и (или) информационно-телекоммуникационных средствах транспортной инфраструктуры.
В теории уголовного права высказаны различные мнения относительно решения данной проблемы. Так, А. И. Коробеев и А. И. Чучаев полагают, что субъектом транспортного преступления, совершенного с использованием беспилотного транспортного средства,
3 Концепция обеспечения безопасности дорожного движения с участием беспилотных транспортных средств на дорогах общего пользования, утв. Распоряжением Правительства РФ от 25.03.2020 № 724-р (2020). Собрание законодательства РФ, № 13, ст. 1995.
Лапшин В. Ф. / Lapshin V. F.
могут признаваться лица, обладающие специальными юридически значимыми признаками. К таковым авторы относят: а) разработчиков программного обеспечения - «персонифицированных разработчиков» «конкретной компьютерной программы» для «конкретного БСТ»; б) лиц, контролирующих безопасную эксплуатацию указанных в п. 1 программ; в) владельцев беспилотных транспортных средств, на которых возложены обязанности осуществления текущего контроля за безопасными условиями эксплуатации данных единиц транспорта; г) лиц, непосредственно находящихся в беспилотном транспортном средстве и осуществляющих контроль за безопасностью его эксплуатации (Ко-робеев, Чучаев, 2018, с. 128).
Рассуждая о субъекте состава транспортного преступления, совершенного в условиях эксплуатации ВАТС, И. Н. Мосечкин считает, что в зависимости от фактических обстоятельств происшествия таковыми можно будет признать: 1) действовавшего умышленно или по неосторожности производителя программного обеспечения, если соответствующая программа приняла неправильное решение, в результате чего был причинен вред охраняемым уголовным законом общественным отношениям; 2) производителя или продавца ВАТС, оснащенного искусственным интеллектом, при условии их осведомленности о наличии технических, программных и иных дефектов в производимом / реализуемом транспортном средстве; 3) водителя, оператора и иного пользователя ВАТС, но с учетом степени автоматизации транспортного средства; 4) «иных лиц», осуществивших несанкционированное вмешательство в работу программного обеспечения ВАТС (Мосечкин, 2020, с. 48-51).
Не дифференцируя юридическую ответственность за вред, причиняемый «роботами с искусственным интеллектом», В. А. Лаптев предлагает решение данной проблемы, учитывая степень зависимости действий робота от человека. На этом основании автор выделяет три этапа формирования ответственности, а именно: 1) ответственность за действия робота несет оператор или производитель (ближайшая перспектива); 2) производитель будет нести субсидиарную ответственность вместе с роботом, действиями которого причинен вред (среднесрочная перспектива, которая характеризуется наделением робота правосубъектностью); 3) робот за свои действия будет нести «киберфизическую юридическую ответственность», которая будет выполнять и регулятивную, и охранительную функции (долгосрочная перспектива) (Лаптев, 2019, с. 99).
Некоторые исследователи ставят вопрос об ответственности за причинение вреда, наступившего в результате ДТП или иного чрезвычайного происшествия с беспилотным транспортным средством, более радикально. Например, Hin-Yan Liu в одной из своих научных работ задается вопросом о принципиальной
возможности в таких случаях вести речь как об уголовной, так и об иных видах ответственности. Характеризуя ответственность как неизбежную реакцию общества и государства на причинение вреда от действия, которое совершается в условиях существования свободы выбора у субъекта, автор обращает внимание, что в указанных ситуациях такая свобода исключается. Человек, выполняющий функции традиционного водителя, при управлении беспилотным транспортным средством отсутствует, а программист, разработавший цифровое обеспечение для беспилотного управления транспортным средством, по объективным причинам лишен возможности влияния на функционирование программного обеспечения при движении ВАТС. Идея о признании беспилотного транспортного средства субъектом ответственности воспринимается критически, поскольку последнее действовало в соответствии с узаконенными алгоритмами движения, которые были ранее прописаны в бортовом программном обеспечении. Следовательно, и действия ВАТС, повлекшие причинение вреда, не могут рассматриваться в качестве незаконных. Все это приводит к необходимости смириться с мыслью о неизбежности аварий и катастроф с участием ВАТС, за которые никто не может быть привлечен к ответственности (Liu, Hin-Yan, 2017).
Таким образом, мнения ученых о субъекте ответственности за транспортные преступления, средством совершения которых является ВАТС и (или) искусственный интеллект, существенно различаются. Получить эмпирические данные по данному предмету исследования в настоящее время невозможно, поскольку отечественная следственно-судебная практика еще не имеет прецедентов по вопросам определения лица, подлежащего ответственности за транспортное преступление, которое совершено в условиях использования высокотехнологичного автомобиля или иного транспортного (беспилотного) средства. Для решения указанной проблемы будет полезным узнать мнение представителей предприятий, которые осуществляют разработку высоких технологий и их внедрение в производственную сферу.
Так, топ-менеджеры компаний-резидентов Инновационного центра «Сколково» по-разному видят возможности реализации ответственности за вред, причиненный техническим средством, действия которого определяются технологиями искусственного интеллекта. Руководитель направления Технопарка «Сколково» С. Ф. Поплавский считает, что технические средства, способные осуществлять «интеллектуальную деятельность», в основу которой положена предиктивная аналитика (аналитика, результатом которой является указание на события, которые произойдут в будущем), не способны в принципе совершать действия, не подконтрольные человеку. Эти нейросетевые технические средства и устройства не являются самообучаемыми,
а потому предлагают итоговые решения на основе предиктивного анализа только в соответствии с правилами и алгоритмами, прописанными в программном обеспечении, которое используется при работе с входными данными (Бояркин, 2020; Брускин, 2017, с. 136). Таким образом, машинное обучение основано на использовании различных разделов Data Science, а «умное» техническое устройство принимает решение так, как его обучили «дата-сентисты», т. е. разработчики специального программного обеспечения. Отсюда, по мнению С. Ф. Поплавского, некорректно ставить вопрос о возложении ответственности за действия, совершаемые неодушевленным высокотехнологичным средством. За причинение вреда действиями последнего должен нести ответственность только человек - автор специализированного программного обеспечения.
11
Нейронная сеть, интегрированная в любое техническое устройство, является в настоящее время новым алгоритмом (средством), обеспечивающим принятие решения, прогнозирование которого становится возможным на основе полученной указанным устройством информации
Н
Такую позицию в целом разделяет генеральный директор ANP Ceges Technology Г. С. Цедилкин, осуществляющий руководство разработками в области «Цифрового зрения» и предоставлением комплексных услуг по информационной безопасности. Нейронная сеть, интегрированная в любое техническое устройство, является в настоящее время новым алгоритмом (средством), обеспечивающим принятие решения, прогнозирование которого становится возможным на основе полученной указанным устройством информации. В связи с этим можно заключить, что «машина принимает решение, но не думает». Поэтому в случае причинения вреда в результате использования высокотехнологичного средства ответственность за наступление негативных последствий должен нести производитель, нарушивший в процессе производства правила
техники безопасности и (или) не исключивший все негативные варианты развития событий при функционировании своей продукции.
Несколько иначе видит решение данной проблемы генеральный директор ООО «Интеллоджик» С. Ю. Сорокин. Производимые компанией изделия медицинского назначения могут быть использованы только при условии получения регистрационного удостоверения Росздравнадзора. Получение официальных документов, на основании которых высокотехнологичный продукт, включающий в себя и программное обеспечение, признается безопасным для использования в соответствии с заявленным назначением, снимает ответственность с производителя за вред, который в действительности может быть причинен не в результате использования медицинского изделия, на которое получено регистрационное удостоверение, а в результате неправильного обращения работника медучреждения с этим изделием. Поэтому ответственность за подобный вред следует возлагать исключительно на пользователя высокотехнологичных продуктов, прошедших все необходимые процедуры допуска к эксплуатации.
Наконец, по мнению генерального директора компаний «ОКБ «АТМ Грузовые дроны» и «НоуегсигБ» А. В. Атаманова, ответственность за вред, причиненный при использовании транспортного средства, оснащенного технологиями искусственного интеллекта, должны нести в равной степени и производитель, и эксплуатант. В каждом конкретном случае необходимо устанавливать не только факт причинения вреда, но и причину, по которой произошла авария или катастрофа. В современных условиях производства и эксплуатации беспилотных транспортных средств вполне возможно установить не только причину, но и конкретных лиц, которые изготавливали соответствующий узел ВАТС или писали определенный фрагмент программного обеспечения, сбой работы которых привел к наступлению тяжких последствий. Аналогичным образом можно установить и вину пользователя беспилотного транспортного средства, если авария произошла вследствие нарушения им правил эксплуатации. При учете тяжести наступивших последствий уголовную ответственность при определенных условиях можно распространить не только на отдельное физическое лицо, но и в целом на компанию-разработчика ВАТС.
Несмотря на различие мнений в определении лица, подлежащего уголовной ответственности за совершение транспортного преступления с участием транспортного средства, оснащенного технологиями искусственного интеллекта, все опрошенные резиденты «Сколково» указали на важность нормативно-правового обеспечения разработки, производства и использования продуктов с искусственным интеллектом. Особую важность представляет вопрос об ответствен-
Лапшин В. Ф. / Lapshin V. F.
ности за действия искусственного интеллекта, о лице, которое может привлекаться к ответственности за указанные действия и наступившие после их совершения негативные последствия, и пределах этой ответственности. Решение данной проблемы даст понимание возможностей (прав) разработчиков и производителей высокотехнологичных товаров, а также рисков, которые они несут в случае выпуска некачественной продукции и (или) нарушения технологии производства, приводящих к причинению физического, имущественного или иного вреда.
Анализ действующего уголовного законодательства позволяет исключить утверждение о наличии пробела в части привлечения к ответственности лиц, использующих технологии искусственного интеллекта для совершения преступления. Ни одна из «умных машин» в настоящее время не способна совершить действие, находящееся за пределами сознания и контроля человека. Таким образом, искусственный интеллект пока определяется как средство совершения преступления, а предусмотренные уголовным законом нормы об ответственности за посягательства:
а) на общественную безопасность (ст. 216 УК РФ);
б) транспортную безопасность (ст. 263-2711 УК РФ);
в) в сфере компьютерной информации (гл. 28 УК РФ);
г) в крайнем случае, неосторожные преступления против жизни и здоровья личности (гл. 16 УК РФ) или здоровья населения (ст. 238 УК РФ), -
вполне применимы и к совершению преступлений с использованием технологий искусственного интеллекта. По этой причине уже высказываемые в теории уголовного права предложения, касающиеся включения в УК РФ специальной нормы об ответственности за использование искусственного интеллекта в преступных целях или введения квалифицирующего признака соответствующего содержания, вряд ли можно признать оправданными.
Однако такое положение в области уголовно-правовой оценки вредных последствий, наступивших в результате применения и использования технологий искусственного интеллекта, очень скоро потребует корректировки. Искусственный интеллект пока еще представляет собой последовательность выполнения таких функций, как: а) восприятие; б) анализ; в) прогнозирование (выбор наилучшего варианта из уже известных и зафиксированных в базе данных). Называть последовательность выполнения данных функций «интеллектом», по моему мнению, преждевременно и примитивно. Искусственный интеллект должен представлять собой аналог функционирования деятельности человеческого мозга - естественного интеллекта. Этот вывод можно подтвердить многочисленными примерами, когда модели, существующие в естественной среде, впоследствии использовались для получения технических (искусственных) моделей. Крыло птицы стало
первым объектом исследований в целях построения искусственного летательного аппарата; обтекаемые формы морских животных послужили прототипом для создания современных подводных лодок, и т. п.
Общеизвестно, что природа в процессе естественного отбора оставляет все самое совершенное для конкретной среды обитания, тогда как менее приспособленные особи погибают в борьбе за существование (Дарвин (пер. с англ.), 2017, с. 105 и далее). По оценкам специалистов Института высшей нервной деятельности и нейрофизиологии Российской академии наук, в настоящее время аналога мозга человека не существует, а современный «искусственный интеллект» представляет набор операций и алгоритмов, которые не позволяют признать механизм «думающим». Реше-
11
Ни одна из «умных машин» в настоящее время не способна совершить действие,
находящееся за пределами сознания и контроля человека
и
ния, формируемые искусственным интеллектом, являются продуктом деятельности программиста, который уже заложил на этапе написания программы для «умного робота» все возможные варианты решений. В сравнении с естественным интеллектом диапазон для анализа, осуществляемого искусственным интеллектом, крайне узок.
Кроме того, спецификой деятельности мозга является сохранение всей полученной в течение жизни информации, которая не уничтожается, а переосмысливается и адаптируется к новым условиям. Данный процесс непрерывен и сопровождается нарастанием мозговой ткани. Внешним проявлением этого процесса является самообучение человека и наличие у него способности принятия ранее неизвестных (нестандартных) решений. С возрастом человек, как правило, сокращает информационный поток, вследствие чего
процесс нарастания мозговой ткани останавливается, начинается процесс старения, сопровождающийся угасанием интеллектуальных возможностей.
С учетом темпов развития технологий искусственного интеллекта представители Института высшей нервной деятельности и нейрофизиологии РАН прогнозируют в течение ближайших 20-30 лет создание полного аналога человеческого мозга, т. е. объекта неживой природы, способного полностью воспроизводить перечисленные характеристики мозга человека. Таким образом, уже в обозримом будущем мышление будет иметь место не только в высшей нервной деятельности человека, но и за его пределами.
Основной для мышления является нейронная сеть, элементарные частицы (нервные клетки) которой находятся в постоянном взаимодействии друг с другом. Качество нейронной сети пропорционально количеству межклеточных связей, а не самих клеток. Сегодня уже существует теоретическая возможность создания искусственной нейронной сети - основы для мышления, которое будет выступать аналогом человеческого.
Создание полноценного интеллекта приведет к принципиальным изменениям в обществе. Их прогнозирование невозможно, поскольку человечество никогда не имело подобных результатов прогресса. Действительно, современные технические средства многократно превосходят по своим характеристикам (показателям, ресурсам и т. п.) биологические аналоги, но без контроля и управления со стороны человека они лишаются всех своих полезных свойств и возможностей.
Искусственному интеллекту будущего человек не понадобится ни для управления, ни для контроля. В современной нейробиологии не решена проблема определения содержания таких категорий, как «сознание» и «воля», что означает невозможность привития данных качеств искусственному интеллекту. Сознание человека в течение жизни формирует не поддающиеся математической оценке категории «хорошо / плохо»; «полезно / вредно», «опасно / безопасно» и др. Эти же установки передаются младшему поколению от представителей старшего поколения в процессе воспитания, а потому в обществе в целом выстроена система общественных ценностей, основанных, прежде всего, на нормах морали и нравственности. Подобные оценки и установки шаблонно привить искусственному интеллекту невозможно, а потому, чем будет руководствоваться «умная машина» будущего, вряд ли кто-то сможет определить и спрогнозировать. В этом заклю-
чается большая угроза для человека, так как искусственный интеллект на определенном этапе развития может прийти к вполне рациональному для себя выводу, что человек, будучи менее совершенным существом, создает препятствия для «умной машины».
Данная угроза, возникновение которой в будущем нельзя исключать, уже стала предметом международного обсуждения и регламентации. Принято уже несколько международных нормативных актов, определяющих принципы создания и использования искусственного интеллекта. Многие из них затрагивают вопросы безопасности использования технологий искусственного интеллекта, но не определяют предела для развития данных технологий (Бегишев, Хисамова, 2021, с. 166-192). Принципы безопасности создания и использования искусственного интеллекта носят общий характер, а потому в процессе развития возможностей искусственного интеллекта, его самообучаемости и совершенствования нельзя исключать возможность их толкования «умной машиной» в ущерб человечеству.
Выводы
Признавая наличие реальной опасности, исходящей от искусственного интеллекта, следует констатировать, что человек за его действия нести ответственность не будет, поскольку они явно выйдут за пределы его сознания и воли, что исключает возможность установления вины. Такие действия если и будут уголовно наказуемыми, то только по специальным правилам, в соответствии с которыми искусственный интеллект будет наделен правами и обязанностями особенного субъекта правоотношений, способного нести уголовную ответственность. Но подобное решение будет носить сугубо формальный характер и не обеспечит ни воздаяния за причиненный вред, ни предупреждения совершения новых преступлений.
Самообучаемость, бесконтрольность и независимость искусственного интеллекта обеспечат его превосходство над человеком и выведут его поступки за пределы оценки общественной опасности и противоправности, которая устанавливается в отношениях между людьми. В дальнейшем человечество или погибнет как менее совершенное социальное объединение по сравнению с «обществом роботов», или будет продолжать жить на условиях (не правовых), сравнимых с условиями существования современных представителей дикой природы, т. е. в рамках, определенных искусственным интеллектом.
Список литературы
Бегишев, И. Р., Хисамова, З. И. (2021). Искусственный интеллект и уголовный закон: монография. Москва: Проспект. Бирюков, П. Н. (2019). Искусственный интеллект и «предсказанное правосудие»: зарубежный опыт. Lex Russica, 11, 79-87.
Бояркин, А. (2020). Предиктивная аналитика: польза, инструменты и примеры. URL: https://sales-generator.ru/ blog/prediktivnaya-analitika/#3 (дата обращения: 15.11.2022).
Лапшин В. Ф. / Lapshin V. F.
Брускин, С. Н. (2017). Модели и инструменты предиктивной аналитики для цифровой корпорации. Вестник РЭУ им. Г. В. Плеханова, 5, 135-139.
Дарвин, Ч. (2017). Происхождение видов путем естественного отбора, или Сохранение благоприятных рас в борьбе за жизнь (пер. с англ. К. А. Тимирязев, М. А. Мензбир, А. П. Павлов, И. А. Петровский). Москва: АСТ.
Ковачич, Л. (2020). Китайский опыт развития отрасли искусственного интеллекта: стратегический подход. Московский центр Карнеги. URL: https://carnegieendowment.org/2020/07/07/ru-pub-82172 (дата обращения: 11.11.2022).
Коробеев, А. И., Чучаев, А. И. (2018). Беспилотные транспортные средства, оснащенные системами искусственного интеллекта: проблемы правового регулирования. Азиатско-Тихоокеанский регион: экономика, политика и право, 3(20), 117-132.
Лаптев, В. А. (2019). Понятие искусственного интеллекта и юридическая ответственность за его работу. Право. Журнал Высшей школы экономики, 2, 79-102.
Маклудова, А. М. (2019). Робот в судейской мантии: возможности и проблемы. Устойчивое развитие науки и образования, 11, 138-142.
Мосечкин, И. Н. (2020). Искусственный интеллект в уголовном праве: перспективы совершенствования охраны и регулирования: монография. Киров: Вятский государственный университет.
Объем инвестиций в технологии искусственного интеллекта достиг почти $68 млрд. (2021). URL: https://tass.ru/ ekonomika/10835935 (дата обращения: 10.11.2021).
Путин: монополист в сфере искусственного интеллекта может стать властелином мира (2019). URL: https:// tass.ru/ekonomika/6489864 (дата обращения: 31.10.2021).
Роботы в законе. Должен ли искусственный интеллект отвечать за свои проступки (2018). URL: https://issek.hse. ru/news/227178200.html (дата обращения: 11.11.2022).
Яни, П. С. (2019). О кибернетизации процесса квалификации преступлений. Законность, 12, 42-45.
Future of Artificial Intelligence Act of 2017 (2017). URL: https://www.congress.gov/bill/115th-congress/senate-bill/2217/ text (дата обращения: 11.11.2022).
Liu, Hin-Yan (2017). Irresponsibilities, inequalities and injustice for autonomous vehicles. Ethics and Information Technology. Ethics and Information Technology, 19, 193-207.
Maintaining American Leadership in Artificial Intelligence (2019). A Presidential Document by the Executive Office of the President on 02/14/2019. URL: https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintain-ing-american-leadership-in-artificial-intelligence (дата обращения: 11.08.2022).
References
Begishev, I. R., Hisamova, Z. I. (2021). Iskusstvennyj intellekt i ugolovnyj zakon: monografiya. Moskow: Prospekt.
Biryukov, P. N. (2019). Iskusstvennyj intellekt i «predskazannoe pravosudie»: zarubezhnyj opyt. Lex Russica, 11, 79-87.
Boyarkin, A. (2020). Prediktivnaya analitika: pol'za, instrumenty i primery. URL: https://sales-generator.ru/blog/predik-tivnaya-analitika/#3 (data obrashcheniya: 15.11.2022).
Bruskin, S. N. (2017). Modeli i instrumenty prediktivnoj analitiki dlya cifrovoj korporacii. Vestnik REU im. G. V. Plekha-nova, 5, 135-139.
Darvin, Ch. (2017). Proiskhozhdenie vidovputyom estestvennogo otbora, ili Sohranenie blagopriyatnyh ras v bor'be za zhizn (per. s angl. K. A. Timiryazev, M. A. Menzbir, A. P. Pavlov, I. A. Petrovskij). Moskow: AST.
Kovachich, L. (2020). Kitajskij opyt razvitiya otrasli iskusstvennogo intellekta: strategicheskij podhod. Moskovskij centr Kar-negi. URL: https://carnegieendowment.org/2020/07/07/ru-pub-82172 (data obrashcheniya: 11.11.2022).
Korobeev, A. I., Chuchaev, A. I. (2018). Bespilotnye transportnye sredstva, osnashchyonnye sistemami iskusstvennogo intellekta: problemy pravovogo regulirovaniya. Aziatsko-Tihookeanskij region: ekonomika, politika ipravo, 3(20), 117-132.
Laptev, V. A. (2019). Ponyatie iskusstvennogo intellekta i yuridicheskaya otvetstvennost' za ego rabotu. Pravo. Zhurnal Vysshej shkoly ekonomiki, 2, 79-102.
Makludova, A. M. (2019). Robot v sudejskoj mantii: vozmozhnosti i problemy. Ustojchivoe razvitie nauki i obrazovaniya, 11, 138-142.
Mosechkin, I. N. (2020). Iskusstvennyj intellekt v ugolovnomprave:perspektivy sovershenstvovaniya ohrany i regulirovaniya: monografiya. Kirov: Vyatskij gosudarstvennyj universitet.
Ob'yom investicij v tekhnologii iskusstvennogo intellekta dostig pochti $68 mlrd. (2021). URL: https://tass.ru/ekonomi-ka/10835935 (data obrashcheniya: 10.11.2021).
Putin: monopolist v sfere iskusstvennogo intellekta mozhet stat' vlastelinom mira (2019). URL: https://tass.ru/ekonomi-ka/6489864 (data obrashcheniya: 31.10.2021).
Roboty v zakone. Dolzhen li iskusstvennyj intellekt otvechat' za svoi prostupki (2018). URL: https://issek.hse.ru/ news/227178200.html (data obrashcheniya: 11.11.2022).
Yani, P. S. (2019). O kibernetizacii processa kvalifikacii prestuplenij. Zakonnost', 12, 42-45.
Future of Artificial Intelligence Act of 2017 (2017). URL: https://www.congress.gov/bill/115th-congress/senate-bill/2217/ text (дата обращения: 11.11.2022).
Liu, Hin-Yan (2017). Irresponsibilities, inequalities and injustice for autonomous vehicles. Ethics and Information Technology. Ethics and Information Technology, 19, 193-207.
Maintaining American Leadership in Artificial Intelligence (2019). A Presidential Document by the Executive Office of the President on 02/14/2019. URL: https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintain-ing-american-leadership-in-artificial-intelligence (дата обращения: 11.08.2022).
Информация об авторе:
Валерий Федорович Лапшин - доктор юридических наук, доцент, проректор по научной работе.
About the author:
Valeriy F. Lapshin - Doctor Sci. (jurid.), Associate Professor, Vice-Rector for Research.
Автор заявляет об отсутствии конфликта интересов. The author declare no conflicts of interests.
Поступила в редакцию 01.09.2022 Одобрена после рецензирования 02.11.2022 Опубликована 29.12.2022
Submitted September 1, 2022
Approved after reviewing November 2, 2022
Accepted December 29, 2022