Научная статья на тему 'Проблемы внедрения искусственного интелекта и цифровых технологий в современную правовую систему'

Проблемы внедрения искусственного интелекта и цифровых технологий в современную правовую систему Текст научной статьи по специальности «Право»

CC BY
482
124
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Auditorium
Область наук
Ключевые слова
НЕЙРОННЫЕ СЕТИ / СИСТЕМА / ЭЛЕМЕНТ / ПРАВОСУБЪЕКТНОСТЬ / ЭЛЕКТРОННОЕ ЛИЦО / АНТРОПОМОРФНОЕ ТЕЛО / КИБЕРСУБЪЕКТЫ / КИБЕРФИЗИЧЕСКАЯ СИСТЕМА / УРОВЕНЬ / ВЫДЕЛЕНИЕ / ФУНКЦИЯ / ФОРМА ВИНЫ / Neural networks / system / element / legal entity / electronic person / anthropomorphic body / cyber objects / cyberphysical / system / level / selection / function / fault form.

Аннотация научной статьи по праву, автор научной работы — В. В. Гордиенко, Р. В. Глаголев

В статье исследуется проблема подхода к внедрению в социальные системы искусственного интеллекта, в том числе регламентация деятельности, направленной на использование и создание искусственного интеллекта, а также разработку концептуальных средств, предназначенных для определения искусственного интеллекта согласно научным и общепризнанным теориям. Дана оценка существующей доктрине в подходе осознания статуса таких систем в тех отношениях, которые создают и прекращают правовые нормы. Огромная роль в исследовании отводится возможности доказательств вины и юридической состоятельности признания личностного статуса искусственного интеллекта. Проведен ключевой анализ предложений исследователей, направленных на признание соответствия искусственного интеллекта полному диапазону правовых норм, которые применимы к человеку как полноценному субъекту общества. Кроме того, исследуется ответственность разработчиков и рационализаторов систем, созданных на основе нейронных сетей, если такие разработки причиняют вред третьим лицам.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — В. В. Гордиенко, Р. В. Глаголев

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PROBLEMS OF INTRODUCING ARTIFICIAL INTELLECTS AND DIGITAL TECHNOLOGIES INTO THE MODERN LEGAL SYSTEM

This article is intended to study the problem of the approach to the introduction of artificial intelligence into social systems, including regulation aimed at the use and introduction of artificial intelligence, as well as the development of conceptual tools designed to determine artificial intelligence according to scientific and generally recognized theories, as well as assessment of existing theories and approaches to awareness of the status of artificial intelligence in relations creating and terminating legal norms. A huge role in the study is devoted to the possibility of evidence of legal insolvency of recognition of the personal status of artificial intelligence, a key analysis of researchers "proposals to correspond artificial intelligence directly to the full range of legal norms, which are applicable to man, as a full-fledged subject of society was carried out.In addition, the responsibility of developers and innovators of systems based on neural networks is subject to analysis if such developments cause harm to third parties.

Текст научной работы на тему «Проблемы внедрения искусственного интелекта и цифровых технологий в современную правовую систему»

УДК 130.2: 001

ПРОБЛЕМЫ ВНЕДРЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЕКТА И ЦИФРОВЫХ ТЕХНОЛОГИЙ В СОВРЕМЕННУЮ ПРАВОВУЮ СИСТЕМУ

© 2020 В. В. Гордиенко1, Р. В. Глаголев2

1 канд. техн. наук, доцент кафедры информационной безопасности

e-mail: vika.gordienko.1973@ mail.ru

2 канд. с.-х. наук, доцент кафедры информационной безопасности

e-mail: r.glagolev1974@yandex.ru

Курский государственный университет

В статье исследуется проблема подхода к внедрению в социальные системы искусственного интеллекта, в том числе регламентация деятельности, направленной на использование и создание искусственного интеллекта, а также разработку концептуальных средств, предназначенных для определения искусственного интеллекта согласно научным и общепризнанным теориям. Дана оценка существующей доктрине в подходе осознания статуса таких систем в тех отношениях, которые создают и прекращают правовые нормы. Огромная роль в исследовании отводится возможности доказательств вины и юридической состоятельности признания личностного статуса искусственного интеллекта. Проведен ключевой анализ предложений исследователей, направленных на признание соответствия искусственного интеллекта полному диапазону правовых норм, которые применимы к человеку как полноценному субъекту общества. Кроме того, исследуется ответственность разработчиков и рационализаторов систем, созданных на основе нейронных сетей, если такие разработки причиняют вред третьим лицам.

Ключевые слова: нейронные сети, система, элемент, правосубъектность, электронное лицо, антропоморфное тело, киберсубъекты, киберфизическая система, уровень, выделение, функция, форма вины.

В связи с развитием новых технологий, основанных на изучении нейронных сетей и формировании исследований разработок, посвященных искусственному интеллекту, появляется проблемный вопрос юридического толкования данного явления, а именно -основ и условий существования искусственного интеллекта при вхождении в социальные системы, в основном в гражданское общество и жизнедеятельность людей. Развитие технического прогресса в области нейронных систем повлекло отставание основного толкования норм теории права в регулировании некоторых вопросов, связанных с этикой, безопасностью, правосубъектностью, юридической ответственностью при совершении преступных деяний.

В техническом понимании термин «искусственный интеллект» - это элемент, работающий на основе автоматического и программного управления, алгоритмы которого не задаются заранее, а генерируются внутренне самой системой, руководствуясь описаниями, заданными в виде шагов и действий, основываясь на информации из внешней среды. Создатели систем искусственного интеллекта называют два направления, в широком и узком смысле характеризующие виды подобных систем. В узком смысле понимаются голосовые помощники при поиске информации в компьютерных системах, а в широком смысле это системы, обладающие познавательной способностью, которые не ограничены в своих действиях. Принимая во внимание, что подобные нейронные системы обладают свойствами самостоятельности и независимости, способностью к моделированию, распознаванию образов и принятию определенных самостоятельных решений, искусственный интеллект - это исполнительное устройство либо несколько

исполнительных устройств, имеющих им инфраструктуру, как централизованную, так и децентрализованную.

В связи с этим появилась неизбежность обстоятельного анализа работы авторов и изобретателей программного обеспечения, деятельность которых направлена на создание роботов, а также лиц, участвующих в их наладке и внедрении в производство, в использовании и утилизации. Некоторые регуляции предпринимаются законодателями и научной общественностью ряда государств, способными внести ясность в проблематику правовых взаимоотношений между обществом и искусственным интеллектом. Пионерами в этих исследованиях явились южнокорейские ученые, нормативно закрепившие такие положения, как уставы и инструкции, имеющие направленность на регулирование взаимоотношений в сфере нейронных систем («Правовое регулирование автономных систем в Южной Корее» (2012), «Корейское право развития искусственного интеллекта роботов» (2005), «Этический устав роботов» (2007) [1]. В соответствии с этими доктринами ученые предложили ввести ответственность для создателей систем такого класса с подробным перечнем разработанных санкций для тех, кто осуществляет контроль над деятельностью роботов и кто непосредственно участвует в их производстве, разработке, использовании и уничтожении. Основная мысль ученых состоит в том, что если технический прогресс продвинется по предсказанному сценарию, то такие технические инновации могут быть представлены как мыслящие человекоподобные роботы, применение которых влечет возможность признания последних личностями, способными нести ответственность за свои поступки, либо отрицания такого факта, как ответственность робота. При этом исследователи этого вопроса ставят под сомнение возможность изменить все существующее законодательство с целью охватывания роли таких систем в мировом сообществе.

Юридический статус электронной системы на основе искусственного интеллекта не может быть одинаков, поэтому, для того чтобы оценить роль подобных систем в обществе, необходимо произвести анализ их функционирования. Как полагают ученные, правовой статус будут иметь различные по диапазону права и меры ответственности. В связи с тем, что нет возможности сравнить работу банкомата или систему «умный дом» и робота, предназначенного для военных действий, то и нельзя представить, что некоторые из них могут быть признаны самостоятельными и независимыми киберсубъектами в социуме, если подобные системы будут зависеть от функций и разновидностей программного обеспечения, в них заложенного, с тем ограничением, что они должны обладать определенным правовым статусом.

В 2016 г. была предпринята попытка представить общественности концепцию закона о робототехнике, подготовленную главой совета директоров российской компании Mail.ru и основателем компании Grishin Robotics Д. Гришиным, который, ссылаясь на то, что роботы, ввиду отсутствия эмоционально-психологического аспекта, не могут быть полноценными субъектами права, заявил, что их правовое положение будет рассматриваться в предложенной доктрине как положение, сходное с правами животных. Однако они могут быть наделены правосубъектностью, исходя из того, что они, как объекты права, обладают способностью к осуществлению разнообразных действий, в чем и сходны с животными. Кроме того, Д. Гришиным предложена необходимость создания единого международного реестра роботов с описанием их деятельности и полномочий, а также установления юридической ответственности, возлагаемой на разработчиков, деятельность которых способна причинять ущерб человеку, обществу или государству [1].

Принимая во внимание труд Г. Кельзена «Чистое учение о праве», в соответствии с которым субъект права, имеющий своим содержанием определенное поведение, выступает как самостоятельное единство совокупности правовых норм, устанавливающих юридические обязанности, и имеет субъективные права, субъект

права рассматривается не как реальность, созданная природой, а как формируемая юридическая структура, представленная для описания фактически релевантных составов [Там же].

Так как созданные на основе искусственного интеллекта системы являются, в сущности, множественностью юридически значимых прав и обязанностей, можно выработать определение «электронного лица», которое в будущем будет рассматриваться как самостоятельный субъект права. Если «электронное лицо», являясь носителем искусственного интеллекта, способно обладать разумом, граничащим с разумом человека, и являться целостной системой, принимающей осознанные решения и выполняющей спектр самостоятельных действий, которые не зависят от программы, в него внедренной создателем машины, и заложенного в нем алгоритма, то в силу этого он наделяется определенными правами и обязанностями.

Термин «электронное лицо» и доктрины использования его в обществе подлежат обсуждению в Европейском союзе. К тому же формулировкой определения заинтересовался комитет Европарламента по правовым вопросам, который разработал проект доклада о позиции «электронного лица» в мировом сообществе. В проекте доклада указываются важные атрибуты, способные определить роботов как индивидуально-определенную систему, обладающую признаками разумности, такими как умение рассчитывать данные и даже способность адаптировать свое поведение в определенной сложившейся обстановке. Присутствие физической поддержки, при наличии установленных датчиков, способствующих контакту с окружающим миром, целостность и самостоятельность являются важным и обязательным определением системы, получившей название «электронное лицо». По мнению авторов доклада, возможность постановки вопроса о его правах лежит в основе разработки средств, которые позволят проанализировать границы сознания искусственного интеллекта, что и обоснует вероятность постановки вопроса о правах и обязанностях вышеназванного лица [2]. Важным является и то, что применять этот статус следует всегда, когда роботы лично принимают решения, изъявляя при этом свою волю, и когда процесс их функционирования тесно взаимосвязан с третьими лицами. Только те роботы, к созданию которых применялись самые высокотехнологические процессы, а соответственно, и более высокоразвитые, должны иметь статус электронного лица с приоритетом правосубъектности. При этом подвергается сомнению то обстоятельство, что только человек несет ответственность за акты действия механизмов.

Термин «искусственный интеллект» широко применяется во многих литературных и научных произведениях, но ни одного упоминания о нем не содержится в нормативных документах, несмотря на то что управляемая искусственным интеллектом техника уже обладает обучаемостью и способна самостоятельно совершать действия как без поддержки оператора, так и без его непосредственного контроля. Существующие компьютерные системы, сходные по своей сути и действующие на основе опыта их действий в похожих ситуациях, позволяющих им принимать решения, опираясь на имеющийся опыт, способны не обучаться, а обновляться, что разительно отличает их от систем, созданных на основе нейронных сетей. Для контроля и анализа обстоятельств, связанных с робототехникой и искусственным интеллектом, в России планируется в течение двух лет ввести специальную должность действующих уполномоченных лиц на уровне вице-премьера или советника президента или наделить такими функциями уже существующих должностных лиц, расширив им рамки полномочий.

По заказу рабочей группы «Нормативное регулирование» национальной программы «Цифровая экономика» в настоящее время проводится исследование в сфере киберфизических систем («умные» города, современный транспорт и интернет

вещей) юридической фирмой Dentons, авторы которого рекомендуют в течение двух-пяти лет создать в России Федеральное агентство робототехники и искусственного интеллекта. Исследование, осуществляемое на основе данных, проведенных на рынке робототехники и искусственного интеллекта, позволило прийти к выводу, что создаваемое агентство должно иметь полномочия, направленные на контроль и надзор на вышеуказанном рынке, также в его компетенции должны входить проведение учета и разработка документации, позволяющей лицензировать роботов, осуществлять мониторинг отрасли, создавать политику дальнейшего развития индустрии в этой области и проводить подсчет статистики данных на уровне международных отношений. Именно в этом исследовании и содержится требование о целесообразности обязательного внедрения для роботов повышенной общественной опасности вспомогательных функций управления и дополнительных требований, таких как отмена действия, переход в аварийный режим и даже создание «черного» ящика или красной кнопки. Предложено разработать массив дополнительных функций вплоть до самоуничтожения системы, если последняя напрямую имеет угрозу причинения вреда. Предложенные меры безопасности требуют принятия решения на уровне законодательного регулирования, особенно в том смысле, когда речь идет о реагировании изменившихся общественных отношений, связанных с деятельностью представителей преступности, эксплуатирующих в своих целях достижения в сфере науки и техники. При общем отставании в вопросах регулирования сферы робототехники на сегодняшний день нет нормативно-правовых актов и отдельных норм права, способных регулировать функционирование роботов и лиц, осуществляющих управление ими. Такая же картина сложилась в науке уголовного права, ведь в составах преступлений отсутствуют нормы, связанные с совершением общественно опасных деяний при использовании искусственного интеллекта, а также систем, построенных на основе нейронных сетей. Физическое лицо является единственным субъектом преступления, признаваемым российским уголовным законодательством, однако это не означает, что возможно привлечь к уголовной ответственности виновных лиц, поскольку на современном этапе развития высокотехнологических систем все еще отражается взаимосвязь любой технической инновации с деятельностью человека. Аналогичная проблематика наблюдается не только в российском, но и зарубежном законодательстве и не отражена пока в международных актах. Связана она не столько с вопросом о привлечении к уголовной ответственности, сколько с пробелами, возникшими в законодательном регулировании в целом, и образуется там, где речь заходит о применении искусственного интеллекта. Зарубежные исследователи отметили тот факт, что «развитие систем, созданных на основе искусственного интеллекта, влечет необходимость реструктуризации всей правовой системы, связанной с увеличением интенсивности использования норм, посвященных искусственному интеллекту, если последний влечет рост вероятности противоправных действий» [3].

Учитывая объективные признаки, характерные для признания общественно опасного деяния преступлением, необходимо принять во внимание требование, предъявляемое ст. 8 Уголовного кодекса РФ (далее УК РФ) от 13.06.1996 № 63-Ф31, где основанием наступления уголовной ответственности является совершение определенным лицом такого деяния, которое содержит все признаки состава преступления, предусмотренного УК РФ. Таким образом, для определения возможности возложить уголовную ответственность на искусственный интеллект существует обязанность определить способность такой системы совершать общественно опасные действия или бездействие в принципе, а уже затем подводить итог о признании или непризнании систем, созданных на основе искусственного

интеллекта, субъектом преступления. Объективно системы, созданные на основе искусственного интеллекта, могут представлять общественную опасность и причинять вред общественным отношениям как полностью, так и частично. Общественную опасность может представлять собой транспортное средство с беспилотным управлением, которое посягает на общественные отношения, при нарушении правил его эксплуатации, связанных с безопасностью дорожного движения, в случае нарушения соответствующих правил. Аналогичным образом действует и нейронная сеть, которая запрограммирована для взлома компьютерной системы, и именно она причиняет вред общественным отношениям в зависимости от содержания электронной информации, в ней находящейся. Такие действия наносят вред отношениям в сфере компьютерной информации, либо причиняют вред правам собственника, либо наносят урон конституционным правам граждан [4].

В то время как объективные признаки состава преступления относительно легко переносятся с физических лиц на искусственный интеллект, сложность представляет определение субъективной противоправности деяния. Здесь можно согласиться с зарубежными исследователями, утверждающими, что неизмеримо сложнее осуществить перенос установленных признаков субъективной стороны на нейронные сети. Формы и виды вины, существующие в российском уголовном праве и рассчитанные применительно к физическому лицу, в значительной мере не охватывают совершенные искусственным интеллектом деяния. Однако в определенном смысле такие деяния напоминают небрежность. Примером этому могут быть действие механизма на производстве, причинившего смерть обслуживающему его персоналу, определив его как угрозу, и действия медицинского устройства, совершившего ошибку при установлении диагноза больному. Такие примеры имеются в практике и влекут схожесть с формой вины в виде небрежности. Поскольку системы не могут спрогнозировать возможное наступление общественно опасных последствий своих действий или бездействия, но при необходимой осмотрительности должны и могут предвидеть наступление вреда, здесь просматривается указание на признаки легкомыслия. На легкомыслие указывает такой пример, когда транспортное беспилотное средство вследствие каких-то причин самостоятельно превышает скорость, тем самым причинив ущерб или смерть. Здесь признак вины в виде легкомыслия проявляется в том, что была возможность предвидеть наступление общественно опасного последствия, но нежелание без достаточных на то оснований устранения ошибок или ремонта попадает под признаки вышеуказанной формы вины [5].

Для определения прямого или косвенного умысла, согласно ст. 25 УК РФ, требуются осознание лицом, совершившим деяние общественной опасности, своих действий и предвидение наступления вредных последствий, а также желание их наступления, либо же субъект должен относиться к наступлению таких последствий с безразличием. Может ли система, созданная на основе нейронных систем, предвидеть или прогнозировать наступление последствий от своих действий? Условно допустимо, что в зависимости от заложенного в нее программного обеспечения, конечно, может, но вот относиться безразлично либо испытывать симпатию, сочувствие или интерес, -конечно, нет. Соответственно, наличие прямого или косвенного умысла применительно к искусственному интеллекту пока остаётся открытым. Также нельзя забывать и о том, что принцип создания систем на основе искусственного интеллекта призван служить для облегчения деятельности человека, и в самом программном обеспечении лежит принцип недопущения наступления вреда от деятельности таких систем. Однако разрабатываемая для нужд вооруженных сил беспилотная техника, которая создана уже с целью выведения врага из состояния боеспособности, должна иметь целью причинение вреда и наступление вредных последствий. Именно это требование и лежит

в основе ее создания, а не только желание допущения или недопущения таких последствий. Таким образом, деятельность военной техники с беспилотной формой управления в отношении противоположной стороны может рассматриваться как действия, совершаемые с прямой или косвенной формой вины. Относительно ответственности производителя искусственного интеллекта имеется необходимость понимания, что разработчики вышеуказанных систем обязаны внедрять в такие разработки программы ограничений и программы контроля функций системы, а также программы, ограничивающие самостоятельное обучение нейронных систем, программного обеспечения, позволяющего исключить ошибки при возникновении опасных ситуаций для человека. Такие системы должны проходить тестирование в особом режиме, порядок которого должен быть разработан и четко регламентирован. Если же создатели искусственного интеллекта пренебрегают требованиями, указанными выше, лица, ответственные за такие действия или бездействие, могут признаваться виновными при наличии в их действиях формы вины как с умыслом, так и по неосторожности; соответственно, производители несут ответственность и попадают под действие соответствующего состава преступления [6].

Таким образом, проведенное исследование позволяет сформировать определенные выводы о необходимости внести поправки в уголовное законодательство, добавив в него нормы, влекущие ответственность для систем, созданных на основе искусственного интеллекта, в связи с тем, что уже имели место общественно опасные деяния, напрямую связанные с самообучаемыми программными продуктами. Также существует возможность признания общественной опасности и нанесения вреда общественным отношениям, которую объективно может причинять деятельность искусственного интеллекта. Так как требования объективной стороны преступления можно перенести на системы, созданные на основе нейронных сетей, то введение в обиход термина «антропоморфное тело» позволит фундаментально расширить перечень составов преступлений. При определении формы вины противоправные деяния, совершенные искусственным интеллектом, с учетом отсутствия в его поведении элементов проявления воли, существенно отличающихся от деятельности и проявления воли человеком, можно охарактеризовать как преступления, совершенные в форме небрежности. Однако в настоящее время искусственный интеллект не обладает массивом программного обеспечения, способного мотивировать робота на эмоции, сходные с человеческими, поэтому только в будущем можно будет делать выводы о наличии в поведении искусственного разума субъективной противоправности [6]. В исчерпывающий перечень субъектов преступлений, совершенных при помощи искусственного интеллекта, пока включены только такие лица, как разработчики, проектировщики, рационализаторы и лица, вводящие подобные системы в эксплуатацию. Сами же системы искусственного интеллекта могут иметь правовой статус при наличии у них подобного человеческому изъявления воли, поэтому введение терминов (по аналогии с международными предложениями) «электронное лицо, «антропоморфное тело» и других может внести обоснованность при квалификации преступлений, однако полностью перенести ответственность на искусственный интеллект не представляется возможным, так как четко прослеживается влияние и обязанность человека наделять такие системы определенным функционалом. Именно в обязанность физического лица входит устранение поломок и соблюдение правил технической эксплуатации робототехники.

Библиографический список

1. Архипов В.В., Наумов В.Б. Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике // Труды СПИИРАН. 2017. № 6 (55). С. 46-62.

2. Бугаков И.А., Царьков А.Н. О когнитивном моделировании, искусственном интеллекте и психике роботов // Известия Института инженерной физики. 2018. № 48. С. 101-106; Ведомости. 2018. URL: https://www.vedomosti.ru/technology news/2018/05/08/768916-bespilotnik-uber-sbil (дата обращения: 26.02.2020).

3. Елхов Г.А. Искусственный интеллект и проблема моделирования его самосознания // Молодой ученый. 2014. № 16. С. 200-202.

4. Мосечкин И.Н. Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления // Вестник СПбГУ. Серия 14. Право. 2019. №3. URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-i-ugolovnaya-otvetstvennost-problemy-stanovleniya-novogo-vida-subekta-prestupleniya (дата обращения: 26.02.2020)

5. Крыжевич Л.С., Сизов А.С. Электронное противоборство с использованием беспилотных летательных аппаратов // Инновации в информационно-аналитических системах. 2014. №3. URL: https://cyberleninka.ru/article/n/elektronnoe-protivoborstvo-s-ispolzovaniem-bespilotnyh-letatelnyh-apparatov (дата обращения: 26.02.2020).

6. Малышкин А.В. «Интегрирование искусственного интеллекта в общественную жизнь; некоторые этические и правовые проблемы» // Вестник СПбГУ. Серия 14. Право. 2019. №3. URL: https://cyberleninka.ru/article/n/integrirovanie-iskusstvennogo-intellekta-v-obschestvennuyu-zhizn-nekotorye-eticheskie-i-pravovye-problemy (дата обращения: 26.02.2020).

i Надоели баннеры? Вы всегда можете отключить рекламу.