Библиографический список
1. Крижанич Ю. Политика. М., 1965.
2. Последнее слово умирающего русского мальчика Маркела в романе «Братья Карамазовы». Ф. М. Достоевский. Собрание сочинений в 15 томах. Л., 1991. Том 9.
3. Skok P. Etimologijski rjecnik hrvatskoga ili srpskoga jezika. Zagreb: Jugoslavenska akademija znanosti i umjetnosti, 1973. Kn. 3.
4. История правовых учений России. X-XXI вв. : учебник : в 3 томах / под ред. В. В. Сорокина и А. А. Васильева. М., 2014.
УДК 34.096 ББК 67.0
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВО: ПРОБЛЕМЫ, ПЕРСПЕКТИВЫ
А. А. Васильев, Ю. В. Печатнова
Алтайский государственный университет (Барнаул, Россия)
В современном научном пространстве становятся популярными исследования искусственного интеллекта и, как следствие, нарастают споры о перспективах и рисках его более широкого применения. Стремительное развитие цифровых технологий вызывает острую необходимость расширения границ сферы правового регулирования и появления в ней новых сегментов. На сегодняшний день развитие цифровых технологий демонстрирует продолжительную тенденцию к снижению охранительных способностей существующих правовых институтов, что обостряет конфликт между преимуществами современных технологий и действующим законодательством. В этой связи актуальным видится изучение понятия искусственного интеллекта, его появления в качестве самостоятельного научного направления, а также правовых рисков использования искусственного интеллекта и путей их преодоления.
Социальная и практическая значимость исследования заключается в поиске оптимального правового регулирования, что, в свою очередь, будет способствовать беспрепятственному внедрению новейших технологий, являющихся катализатором экономического роста и способствующих развитию цифровой экономики.
Ключевые слова: цифровые технологии, цифровое право, искусственный интеллект, правовые риски, цифровая экономика.
ARTIFICIAL INTELLIGENCE AND LAW: PROBLEMS AND PROSPECTS
A. A. Vasiliev, Y. V. Pechatnova
Altai State University (Barnaul, Russia)
In the modern scientific space, artificial intelligence researches are becoming popular and, as the result, disputes about the prospects and risks of its wider use are growing. The rapid development of digital technologies causes the urgent need of expansion the boundaries in the sphere of legal regulation and emergence new segments in it. Today, the development of digital technologies demonstrates the long-term tendency to reduce the protective abilities of existing legal institutions, which aggravates the conflict between the advantages of modern technologies and current legislation. In this regard, it seems relevant to
study the concept of artificial intelligence, its appearance as an independent scientific field, as well as the legal risks of using artificial intelligence and ways to overcome them.
The social and practical significance of the study lies in the search for optimal legal regulation, which, in turn, will facilitate the unhindered introduction of the latest technologies, which are the catalyst for economic growth and contribute to the development of the digital economy.
Keywords: digital technologies, digital law, artificial intelligence, legal risks, digital economy.
Doi: https://doi.org/10.14258/ralj(2020)2.3
Цифровые технологии постепенно становятся неотделимой частью современной жизни. Несмотря на то, что родоначальником теории искусственного интеллекта нередко называют испанского философа и математика Раймонда Луллия, который в XIII в. предпринимал попытки создания механического устройства для решения сложных задач, появление искусственного интеллекта как научного явления произошло только во второй половине ХХ в. [1].
Важную роль в развитии теории искусственного интеллекта сыграли публикации Алана Тьюринга, в которых обсуждались проблемы создания устройств, способных самостоятельно решать различные задачи. В частности, Алан Тьюринг впервые предложил считать интеллектуальной такую машину, которую испытатель в процессе общения с ней не сможет отличить от человека [2, c. 11].
Знаковым событием в развитии искусственного интеллекта стала американская рабочая конференция, состоявшаяся в 1956 г. в университете Дартмута, с участием Джона Маккарти (автор термина «Artificial Intelligence»), Марвина Ли Минского, Аллена Ньюэлла, Герберта Саймона, Клода Шеннона, Алана Тьюринга, и других, которых по праву называют основателями сферы искусственного разума [2, c. 11].
В качестве «даты рождения» искусственного интеллекта как научного направления в советской России О. Е. Масленникова и И. В. Попова обозначают 1954 г., когда под руководством профессора А. А. Ляпунова начал работу семинар «Автоматы и мышление» [3].
Впервые термин «Artificial Intelligence» был предложен англоязычной публике. В научной литературе отмечается, что русский перевод данного термина — «Искусственный интеллект» — не является аутентичным. Слово «intelligence» означает «умение рассуждать разумно», для понятия «интеллект» имеется отдельный английский аналог — «intellect». В этой связи Е. В. Бобровская отмечает, что в довольно неудачно русском переводе данный термин приобрел слегка фантастическую антропоморфную окраску [1].
Следует отметить, что, действительно, сравнение искусственного интеллекта и человеческого интеллекта с научной точки зрения некорректно. Когнитивные способности искусственного интеллекта весьма ограничены в сравнении с человеческими функциями мозга.
Несмотря на то, что искусственная нейронная сеть построена по принципу функционирования биологических нервных клеток живого организма, она состоит из входного слоя; одного или нескольких скрытых слоев и одного выходного слоя нейронов. Таким образом, наиболее совершенные искусственные нейронные сети имеют пять-шесть слоев. Человеческий мозг содержит миллиарды нейронов с миллиардным количеством связей. Также в искусственных нейросетях слои нейронов срабатывают по очереди, последовательно; в человеческом мозге обмен информацией между нейронами идет параллельно и асинхронно.
Таким образом, любые претензии на антиутопичное порабощение человека искусственным интеллектом несостоятельны по причине того, что искусственная нейросеть всегда будет подобием, не способным повторить оригинала.
Итак, искусственные нейронные сети являются максимально упрощенной моделью созданного миллионами лет эволюции человеческого мозга. Однако проще — не значит хуже. Обученная под конкретную задачу искусственная нейросеть может легко превзойти человека.
Бесспорным преимуществом искусственного интеллекта является способность молниеносной обработки неограниченного числа данных, техника превращения этих данных в цифру, обработка этой цифры методами статистики и дискретной вычислительной математики и получение ответа в интуитивно понятном для человека виде.
Легальное определение понятия «искусственный интеллект» закреплено в Национальной стратегии развития искусственного интеллекта на период до 2030 г. (далее — Национальная стратегия), утвержденной Указом Президента Российской Федерации от 10.10.2019 № 490.
Согласно Национальной стратегии, искусственный интеллект — это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений [4].
На сегодняшний день правовое регулирование использования искусственного интеллекта базируется на программных документах и экспериментальных режимах.
Вместе с тем стремительное усовершенствование способностей искусственного интеллекта в отсутствие должного правового регулирования цифровой сферы порождает новые правовые риски и угрозы [5, с. 137-148].
М. П. Поляков и А. Ю. Смолин отмечают, что очарование технологией — это основной идеологический контекст современной реальности, но очарование это — далеко не безопасная и безобидная штука. «У нас есть опасение, что «идеология-технология» нацелена на то, чтобы незаметно поменять ключевой планетарный код — «со слова на цифру» [6, с. 245-249].
Важно отметить, что ключевым отличием искусственного интеллекта от других высокотехнологичных машин является «автономность», которая подразумевает возможность эволюционирования и самосовершенствования от запрограммированной управляемой машины к полуавтономной и даже полностью автономной сложной системе, способной к самостоятельным действиям.
Соответственно, искусственный интеллект может генерировать результаты, которые не охватывались замыслом разработчика, но стали возможны благодаря внедрению в программу способности к анализу и сопоставлению неограниченного объема данных.
Таким образом, развитие цифровых технологий, с одной стороны, обеспечивает самодостаточность, конкурентоспособность и национальную безопасность государства, но с другой стороны, создает следующие правовые риски.
Во-первых, риск несанкционированного доступа к личным данным пользователей интернет-сети и, как следствие, нарушения режима персональных данных, права на неприкосновенность частной жизни, на тайну переписки и других конституционных личных прав [7, с. 30-43].
Причем возможности искусственного интеллекта не ограничиваются возможностями сканирования информации, размещенной пользователями в сети Интернет. Так, способность искусственного интеллекта генерировать смешанные реальности стирает границы «истины» и бросает вызов восприятию интернет-пользователей, которые оказываются в фейковой реальности.
При этом с каждым годом усложняется техническая возможность разоблачения дезинформации, поскольку технологии искусственного интеллекта позволяют создавать практически не отличимую от реальности фальсифицированную информацию, подкрепленную синтетическими фейковыми фотографиями, аудио- и видеозаписями [2, с. 39]. Такие цифровые продукты могут перерасти в мощнейшее пропагандистское оружие.
Во-вторых, риск развития и совершенствования киберпреступности, эффективную борьбу с которой не всегда удается вести в условиях действующего уголовно-правового регулирования и оперативно-разыскных возможностей сотрудников правоохранительных органов [8, с. 461-476].
В-третьих, риск нелегального использования цифровой валюты и возрастающего объема судебных споров, связанных с ее оборотом. Так, в результате анализа правоприменительной практики можно сделать вывод о том, что, как правило, криптовалюта не признается объектом гражданского права и находится вне поля правового регулирования. Поэтому лица, использующие криптовалю-ту в качестве средства платежа, на сегодняшний день совершенно не защищены от злоупотребления со стороны контрагента [9].
Таким образом, использование искусственного интеллекта предполагает преобразование правового регулирования всех отраслей права.
Вместе с тем динамика роста цифровых технологий весьма положительна, а перспективы развития искусственного интеллекта достаточно устойчивы. В этой связи элементарное средство игнорирования цифровых технологий в целях исключения правовых рисков, вызванных ими, невозможно. Иначе государство будет вынуждено утратить свою конкурентоспособность на мировом рынке и спуститься вниз по общемировой социальной лестнице.
Итак, развитие цифровых технологий демонстрирует продолжительную тенденцию к снижению охранительных способностей существующих правовых институтов, что обостряет конфликт между преимуществами современных технологий и действующим законодательством. В этой связи обозначенная диспропорция требует найти баланс и взвешенный подход к правовому регулированию цифровой сферы.
Сложность представляет тот факт, что в онлайн-пространстве отсутствуют границы национального и зарубежного. Соответственно, эффективность работы национальных правоохранительных органов без тесного взаимодействия с международными организациями значительно снижается.
Таким образом, преодоление правовых рисков предполагает разработку новых форм открытой и осознанной публичной дискуссии, новых законодательных механизмов и установление международного сотрудничества, позволяющего более эффективно решать насущные задачи.
Ввиду того, что применение искусственных нейронных сетей — необратимый процесс, видится, что законодатель может предложить новый «контракт безопасности». Предыдущий «контракт» базировался на том, что главные угрозы обществу несут внешние враги, а поэтому государство может обеспечить безопасность граждан в условиях неприкосновенности их частной жизни. В новом социальном контракте государство должно донести до граждан, что в цифровом турбулентном мире нет внутренних и внешних врагов.
В этих условиях государство может обеспечить безопасность лишь тех граждан и организаций, которые добровольно пойдут на смягчение стандартов (например, неприкосновенности частной жизни и личной тайны) в пределах, необходимых для соблюдения требований международной и национальной безопасности.
Вместе с тем предусматривая ограничения в праве, следует учитывать, что они должны быть сформулированы с максимальной степенью точности и отражать ответы на вопросы, когда, как и кем могут использоваться указанные изъятия из правового режима.
В этой связи интересно мнение Маршалла Маклюена, который полагает, что интернет и конфиденциальность — несовместимые понятия. По его мнению, решающую роль в утрате охранительных способностей института неприкосновенности частной жизни сыграла урбанизация.
Данные антропологов и лингвистов свидетельствуют о том, что в большинстве традиционных обществ отсутствует само понятие приватности. Так, урбанизация есть порождение технологического процесса не только в средствах производства, но и в системах человеческого общежития.
Первоначально с расцветом урбанизации и при непродолжительном отсутствии развитых средств коммуникации гражданам приходилось «платить» за приватность менее тесными социальными связями и чувством одиночества.
Вместе с тем Маршалл Маклюен отмечает, что повсеместное распространение телевидения, а вслед за ним потокового видео повернет историю вспять и человечество опять окажется жителями «одной глобальной деревни», в которой с конфиденциальностью будет покончено [10, с 61].
Таким образом, внимание законодателя должно быть сосредоточено на следующих правовых рисках, возникающих в связи с использованием искусственного интеллекта. Во-первых, искусственный интеллект может достичь непреднамеренных результатов, влекущих правонарушения или преступления. Во-вторых, искусственный интеллект способен генерировать фальсифицированную информацию, конструирующую альтернативную реальность и служащую мощным пропагандистским оружием. В-третьих, действующим законодательством не проработан вопрос об ошибках при программировании и их последствиях (некачественный код или неверный алгоритм).
Правовой риск получения искусственным интеллектом доступа к неограниченному количеству данных может быть предотвращен путем проведения периодического информационного аудита системы и удаления излишних пользовательских данных, в том числе персональных данных тех лиц, которые не подпадают под определенные критерии.
Правовой риск генерации фальсифицированной информации следует предотвратить путем введения двухкомпонентной системы, которая включает личные неприкосновенные данные и личные машиночитаемые данные. Так, информация должна собираться мониторинговой системой и сразу же переводиться в кодируемый машиночитаемый вид. Таким образом, доступ к любой информации получает только машина, считывая код программирования, при этом считываемая информация не верифицируется в понятной для человека форме. Следовательно, операторы платформы будут значительно ограничены в возможности преднамеренной фальсификации данных.
Правовой риск программирования с ошибкой в коде должен быть устранен совместными действиями юристов и IT-специалистов.
В целом, в целях оптимального правового регулирования использования искусственного интеллекта разработчики, исследователи и лица, финансирующие исследования в сфере искусственного интеллекта, а также в смежных областях, должны исходить из презумпции опасности искусственного интеллекта, подразумевая, что созданная или создаваемая технология искусственного интеллекта является опасной для человека, пока не доказано иного.
Библиографический список
1. Боровская Е. В., Давыдова Н. А. Основы искусственного интеллекта: учеб. пособие. URL: https:// rucont.ru/efd/443263 (дата обращения: 06.05.2020).
2. Ларина Е. С., Овчинский В. С. Искусственный интеллект. Большие данные. Преступность. М., 2018.
3. Масленникова О. Е., Попова И. В. Основы искусственного интеллекта: учеб. пособие. URL: https://elibrary.ru/item.asp?id=19598580 (дата обращения: 06.05.2020).
4. О развитии искусственного интеллекта в Российской Федерации: указ Президента Российской Федерации от 10.10.2019 № 490. URL: http://www.kremlin.rU/acts/bank/44731/page/1 (дата обращения: 06.05.2020).
5. Войниканис Е. А., Семенова Е. В., Тюляев Г. С. Искусственный интеллект и право: вызовы и возможности самообучающихся алгоритмов // Гражданское право. Гражданский процесс. 2018. № 4.
6. Поляков М. П., Смолин А. Ю. Цифровые технологии на службе правосудия: идеологические предпосылки и технические перспективы // Юридическая наука и практика: Вестник Нижегородской академии МВД России. 2018. № 2 (42).
7. Соснин К. А. Правовое регулирование Больших данных: зарубежный и отечественный опыт // Журнал Суда по интеллектуальным правам. 2019.
8. Мосечкин И. Н. Искусственный интеллект и уголовная ответственность: проблемы становления нового вида субъекта преступления // Вестник СПбГУ. Право. 2019. Т. 10. Вып. 3.
9. Решение № 2-160 / 2017 2-160 / 2017 ~ M-129/2017 M-129/2017 от 26.04.2017 по делу № 2-160 / 2017. URL: https://sudact.ru/regular/doc/qlE6zawJCy6l/ (дата обращения: 06.05.2020).
10. Маклюен М. Понимание медиа: внешнее расширение человека. М., 2003.
11. Joshua A. T., The Human Element: The Under-Thorized and Underutilized Component Vital to Fostering Blockchain Development, (2019). URL: htts://scholarlycommons.law.wlu.edu/wlufac/537 (дата обращения: 06.05.2020).