Научная статья на тему 'О СОВРЕМЕННЫХ УГРОЗАХ НЕКОНТРОЛИРУЕМОГО РАСПРОСТРАНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ И МИРЕ'

О СОВРЕМЕННЫХ УГРОЗАХ НЕКОНТРОЛИРУЕМОГО РАСПРОСТРАНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ И МИРЕ Текст научной статьи по специальности «Право»

CC BY
422
66
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ (ИИ) / ЭТИКА ИИ / БЕЗОПАСНОСТЬ ПРИМЕНЕНИЯ ИИ / КОНТРОЛЬ НАД ИИ / СКРЫТЫЕ УГРОЗЫ ИИ / ЗАКОНОДАТЕЛЬСТВО ДЛЯ ИИ / БЕСПИЛОТНЫЙ ТРАНСПОРТ / МЕЖДУНАРОДНОЕ ГУМАНИТАРНОЕ ПРАВО (МГП) / СРЕДСТВА И СПОСОБЫ ВЕДЕНИЯ СОВРЕМЕННОЙ ВОЙНЫ / ЗАПРЕЩЕННЫЕ СРЕДСТВА ВЕДЕНИЯ ВОЙНЫ / АВТОМАТИЗИРОВАННЫЕ СИСТЕМЫ ВООРУЖЕНИЙ(АСВ) / СМЕРТОНОСНЫЕ АВТОМАТИЗИРОВАННЫЕ СИСТЕМЫ ВООРУЖЕНИЙ(САС) / БОЕВЫЕ РОБОТЫ / САМОУПРАВЛЯЮЩИЕСЯ ДРОНЫ

Аннотация научной статьи по праву, автор научной работы — Владимирова З.В.

Об опасностях внедрения искусственного интеллекта - далее ИИ, как массовая безработица из-за замены людей машинами, использование беспилотного транспорта на дорогах, применении автоматизированных систем вооружений (АСВ), смертоносных автоматизированных систем вооружений (САС) и других опасностях внедрения ИИ. Автор поднимает вопросы о возможном урегулировании применения ИИ в зонах боевых действий, идентификации автономных вооружений с помощью международных Конвенций и предотвращении ущерба, нанесенного самоуправляющимися боевыми дронами. Необходимость регулирования ИИ доказывается на основании изучения резолюций Европарламента, докладов Комиссии и Совета ЕС, Азиломарских принципов ИИ, Национальной Стратегии развития ИИ-2030 в России.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «О СОВРЕМЕННЫХ УГРОЗАХ НЕКОНТРОЛИРУЕМОГО РАСПРОСТРАНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РОССИИ И МИРЕ»

З.В. Владимирова

О СОВРЕМЕННЫХ УГРОЗАХ НЕКОНТРОЛИРУЕМОГО РАСПРОСТРАНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

В РОССИИ И МИРЕ

Об опасностях внедрения искусственного интеллекта - далее ИИ, как массовая безработица из-за замены людей машинами, использование беспилотного транспорта на дорогах, применении автоматизированных систем вооружений (АСВ), смертоносных автоматизированных систем вооружений (САС) и других опасностях внедрения ИИ. Автор поднимает вопросы о возможном урегулировании применения ИИ в зонах боевых действий, идентификации автономных вооружений с помощью международных Конвенций и предотвращении ущерба, нанесенного самоуправляющимися боевыми дронами. Необходимость регулирования ИИ доказывается на основании изучения резолюций Европарламента, докладов Комиссии и Совета ЕС, Азиломарских принципов ИИ, Национальной Стратегии развития ИИ-2030 в России.

Ключевые слова: искусственный интеллект (ИИ), этика ИИ, безопасность применения ИИ, контроль над ИИ, скрытые угрозы ИИ, законодательство для ИИ, беспилотный транспорт, международное гуманитарное право (МГП), средства и способы ведения современной войны, запрещенные средства ведения войны, автоматизированные системы вооружений(АСВ), смертоносные автоматизированные системы воору-жений(САС), боевые роботы, самоуправляющиеся дроны.

Об опасностях внедрения искусственного интеллекта - далее ИИ, как массовая безработица из-за замены людей машинами, применении автоматизированных систем вооружений - АСВ, смертоносных автоматизированных систем вооружений - САС и других опасностях внедрения ИИ недавно открыто рассуждало международное сообщество на пленарном заседании 75-й сессии Генеральной Ассамблеи ООН в 2020 году [9]. Члены ООН от разных стран справедливо заметили, что широкое внедрение ИИ в производственном секторе может стать фатальным для ряда профессий, как водители, операторы станков с ЧПУ, специалисты по персоналу, юристы, врачи, преподаватели и операторы саИ-центров. Об усилении разрыва между богатыми и бедными, цифровой диктатуре государства и полиции, манипулировании мировым общественным мнением, гонке вооружений заявил президент России и В.Путин, выступая на пленарном заседании 75-й сессии Генеральной Ассамблеи ООН. Путин подчеркнул, что пандемия коронавируса стала кардинально новой проблемой и эксперты пока не оценили масштабы ее последствий. В то же время пандемия «заострила ряд упомянутых выше этических, технологических и гуманитарных тем». «Но, как и любые другие инновации, цифровые технологии имеют тенденцию к неуправляемому распространению и так же, как и обычное оружие, могут попасть в руки разного рода радикалов и экстремистов не только в зонах региональных конфликтов, но и во вполне благополучных странах, порождая огромные риски», — отметил В.Путин[9]. По его мнению, многие люди опасаются, что технологии ИИ ставят под угрозу базовые человеческие права: право на частную жизнь, собственность и безопасность. «Мы должны учиться использовать новые технологии во благо человечеству, найти правильный баланс между стимулами к развитию ИИ и оправданными ограничительными мерами, совместными усилиями прийти к согласию в сфере регулирования, которое исключило бы потенциальные угрозы, причем с точки зрения не только военной, технологической безопасности, но и традиций, права, морали человеческого общения», — констатировал Президент России В.Путин [9].

Статья в Нью-Йорк Таймс «Являются ли роботы-убийцы будущим войны?» начинается с небольшого наброска возможного скорого будущего. Российский военный робот [1] воспринимает случайный удар эстонских пограничников, как начало атаки, и открывает огонь на поражение. Через долю секунды в ответ стреляет дрон с эстонской стороны. На поле боя остается с десяток убитых и раненых с обеих сторон. Человеческая неуклюжесть и немедленная реакция машины поставили мир на грань войны Россия-НАТО

© З.В. Владимирова, 2021.

Научный руководитель: Мансуров Гафур Закирович - доцент кафедры гражданского права, доктор юридических наук, профессор, магистрант РАНХиГС - Уральский филиал, Россия.

[16]. Стремительная роботизация поля боя происходит на наших глазах. Ведущие державы уже потеряли монополию на неё. Беспилотники стран Третьего Мира, сделанные из палок, отходов и палёных микросхем стали головной болью для лучших армий мира в зонах локальных конфликтов. Распространение в мире ракетных технологий и появление гиперзвукового оружия диктуют невозможные для психики человека скорости принятия решений. Или ты обеспечил наведение на цель и открытие огня за миллисекунды — или проиграл. За эти же доли мгновения нужно успеть понять, не является ли решение о поражении цели ошибочным. Пока что это в основном касается оборонительных систем. Но уже сейчас существует острейшая потребность в автоматизированном поиске и поражении целей до того, как они успеют выстрелить первыми. К примеру, российская перспективная боевая ИИ система «Сигма-20385, способная превращать эскадры кораблей в рой дронов под контролем нейросети, способна сделать это в доли секунды. Кто победил, а кто получил снаряд и сгорел, в современном бою решают доли мгновения. Автоматизация с её невозможной для человеческой психики скоростью реакции, даёт огромный перевес тем, кто рискнёт сделать на неё ставку. Спрос на новейшие автономные боевые системы рождается в это самое время. Великобритания и Израиль уже применяют новые ракетные комплексы «Бримстоун» и «Гарпия НГ», способные часами барражировать на заданном участке, автоматически определяя и поражая цели. Американское агентство DARPA в рамках программы CODE разрабатывает координируемый оператором рой боевых дронов высокой степени автономности, способных к импровизации и перестройке внутри общей задачи [16].

Убийство человека - зло по определению, говорит один из основополагающих принципов современной цивилизации. Убийца - всегда убийца. Он несет ответственность за смерть человека. А кто несет ответственность за убийство человека роботом, решение, которое принимается автономно самой машиной? К примеру, военные командиры или командиры повстанцев отправили робота в определенный сектор. Программисты разработали компьютерные алгоритмы определения целей и применения оружия. Но на "спусковой крючок" машина-убийца нажимает сама по себе [10]. Она Сама Решает - без эмоций, без обладания понятиями гуманности или жалости, просто электронным мозгом. В теории, тщательно проработанные и протестированные алгоритмы оставляют дронам куда меньше шансов на ошибку, чем живому человеку с его слабостями, усталостью и «тараканами» в голове [18]. 25 февраля 2020 года Министерство обороны США, заявило, что что американские военные официально утвердили этические принципы использования ИИ в военных целях. Рекомендации по этому вопросу разрабатывались группой ученых и экспертов в течение 15 месяцев и были переданы министру обороны Марку Эсперу осенью 2019 года. Еще несколько месяцев над этим рекомендациям мыслили военные - и вот наконец родились эти самые 5 принципов. В общей сложности их пять: ответственность, соразмерность, понятность, надежность и управляемость. Ответственность предполагает, что разработчики боевого ИИ должны быть осторожными и здравомыслящими. Под соразмерностью понимают уменьшение «неумышленной предвзятости» роботов — имеется в виду, что робот не должен пытаться принимать решения за пределами своей зоны ответственности. Понятность — это прозрачность скриптов и алгоритмов ИИ, чтобы не получилось «чёрного ящика», с неизвестным, происходящим внутри него. Надёжность — самый очевидный принцип. Он подразумевает постоянные испытания и проверки. А управляемость значит, что финальное решение всегда будет оставаться за человеком [16].

Разговоры о машинах-убийцах идут уже не первый год. Международная гражданская кампания" Stop robot killer " в августе 2018 года достигла разработки на уровне ООН принципов предотвращения выдачи лицензий на боевые машины для убийства. «Мы сосредоточились на двух вещах, которые должны оставаться под человеческим контролем. Речь идет о выявлении и подборе целей, а затем применении против них оружия» - Мэри Уорхэм, координатор кампании Stop Killer Robot. В 2015 году 1000 мировых экспертов в области ИИ и робототехники во главе с Илоном Маском, Стивом Возняком и Стивеном Хо-кингом подписали открытое письмо. В нем выражалось опасение, что машины-убийцы станут "Калашниковыми будущего" с точки зрения доступности шансов стать мишенью робота-убийцы, как и Сара Коннор из "Терминатора"[19].

На данном этапе возможностей международного гуманитарного права - МГП недостаточно для эффективного регулирования автономных систем вооружений - АСВ. Существующие нормы четко не описывают понятие оружия массового поражения, виды оружия, связанные с ним, и нет четких правил об ответственности за их действия и причиненный ими ущерб [18]. За основу в определении меры ответственности обычно берется устаревший "Дополнительный Протокол к Женевским Конвенциям от 12 августа 1949 года, касающийся защиты жертв международных вооруженных конфликтов (Протокол I)" от 08.06.77. Статья 91 - Ответственность [2]. «Сторона, находящаяся в конфликте, которая нарушает положения Конвенций или настоящего Протокола, должна возместить причиненные убытки, если к тому есть основание». В состав более современной Конвенции хотелось бы включить норму, приравнивающую АСВ к вооруженным силам воюющего государства. И при инциденте с жертвами, случившимся по причине

недоработок или ошибок ИИ в составе АСВ, требовать от создателей АСВ с ИИ в рамках международного гуманитарного права - МГП, возмещения всех видов убытков в рамках воюющих государств. Также, необходимо доработать Конвенции о запрещении или ограничении применения конкретных видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие 1980 года которая бы закрепляла понятие АСВ, его легальное применение, и определяла субьек-тов, несущих ответственность за действия АСВ [3].

Исторический опыт показывает, что серьезные усилия со стороны государств запретить тот или иной вид оружия, в результате применения которого образовались огромные потери живой силы, разрушение гражданских объектов и ненужные страдания гражданского населения, были предприняты сразу же после использования такого оружия для военных целей, в результате которого мировое сообщество убеждалось на практике, насколько к серьезным последствиям это приводит. Так обстояло дело с химическим и биологическим оружием [11]. Подобные проблемы своеобразным образом решают и 23 Азиломарских Принципа ИИ, Монреальская Декларация об ответственном развитии ИИ, модельная Конвенция по робототехнике и ИИ РФ и т. д. [8].

Справедливости ради следует отметить, что нынешний уровень развития компьютерных систем ИИ не создает острой проблемы" сдерживания " ИИ, как потенциальной угрозы для человечества. Но искусственный «сверхинтеллект» или «суперинтеллект» может появиться довольно скоро. В этих условиях принятие Азиломарских принципов ИИ в январе 2017 г. на конференции в Азиломаре, США стало первым и весьма значимым шагом ответственного подхода человечества к разработке ИИ и робототехники. Однако экзистенциальные риски такого быстрого развития ИИ очевидны. Среди ключевых моментов этого документа стоит отметить:

- принцип "полезного" финансирования, который заключается в инвестировании в исследования полезного использования ИИ в поиске решений наиболее насущных проблем;

- принцип "научно-политической связи", который предусматривает конструктивное и полезное взаимодействие между исследователями ИИ и регуляторами ИИ;

- принцип "безопасности" и "прозрачности", а также Программирование ИИ на основе принципов человеческой морали. Отдельно выделены риски, что подразумевает создание мер по их ограничению [8].

Таким образом, разработчики систем ИИ играют ключевую роль в формировании моральных последствий использования ИИ, злоупотребления ИИ и действий ИИ; у них есть возможность и обязанность влиять на эти последствия. Азиломарские принципы ИИ провозглашают строго антропоцентрический подход: «Люди должны сами выбирать, как использовать системы ИИ для достижения своих целей и должны ли они вообще их использовать» [10].

В долгосрочной перспективе принцип «супер интеллекта» провозглашается только под бдительным контролем и только для того, чтобы служить широко распространенным этическим идеалам и на благо всего человечества, а также необходимость минимизировать возможные риски использования систем с ИИ, которые все еще находятся на стадии прогнозирования. Стоит отметить, что принципы были подписаны не только учеными, обеспокоенными проблемами этики и морали, такими как С. Хокинг и Р. Курцвейл, но и экспертами в области информатики, а также крупнейшими ИТ-предпринимателями, такими как И. Маск и Б. Гейтс [10].

В соответствии с резолюцией Европейского парламента: "человечество еще только осознает суть опасностей ИИ и создает согласованность и регулирование в области применения робототехнических систем, при условии соблюдения основных прав идентичности, защиты информации, принципов пропорциональности, необходимости и ответственности" [8].

По мнению католической церкви и Папы Франциска, сегодняшние времена - это "Перекресток времен", похожий на те, когда был изобретен паровой двигатель, электричество или печать. Теперь наступает «время ИИ», где важные решения часто принимаются совместно и человеком, и алгоритмом. Отношения между ними требуют дальнейших научных исследований, поскольку не всегда легко "предсказать все последствия" и "распределить обязанности", и проблема остается остро актуальной. На Ватиканском семинаре на тему "Искусственный интеллект: этика, закон, здоровье" в 2020 году Папа Франциск высказался так: «Технологии, населяющие современную «цифровую галактику», являются даром Божьим, но их нельзя назвать «нейтральными инструментами»: по своей природе они заходят так далеко, что «размывают границы, которые до сих пор считались хорошо различимыми: между неорганической и органической материей, между реальным и виртуальным, между стабильными субъектами и событиями в непрерывном отношении друг с другом». «Из цифровых следов в Интернете алгоритмы извлекают данные, которые позволяют контролировать образ мыслей и социальные привычки в коммерческих или политических целях, часто без нашего ведома. Такая асимметрия, - когда немногие знают о нас всё, а мы о них не знаем ничего,

- отупляет критическое мышление и тормозит сознательное осуществление свободы. Непомерно усиливается неравенство, а знания и богатства накапливаются в нескольких руках, что чревато серьёзным риском для демократического общества». Таким образом, ИИ - это дар, но он нуждается в алгорэтике [15].

К 2021 году на дорогах мира начинают появляться автономные транспортные средства. Таким образом, правительства и законодательные органы быстро сталкиваются с необходимостью обеспечить, чтобы их законы о дорожном движении и другие законы и правила, касающиеся автомобилей и транспортных средств, оставались актуальными. Поскольку автономные транспортные средства работают бок о бок с людьми, проблемы, возникающие при самостоятельном вождении автомобилей, могут иметь смертельные последствия. Выводы доклада показывают, что 24 страны и региона приняли разрешительные законы для автономной эксплуатации транспортных средств, и еще восемь в настоящее время обсуждают возможность эксплуатации автономных транспортных средств. Во многих европейских странах, таких как Бельгия, Эстония, Германия, Финляндия, Венгрия и другие, действуют законы, позволяющие проводить испытания автономных транспортных средств на их дорогах. Франция выразила стремление сыграть важную роль в разработке автономных транспортных средств с упором на безопасность. Кроме того, в некоторых странах, таких как Соединенные Штаты, существует система, в которой центральное или федеральное правительство регулирует некоторые аспекты транспортных средств и эксплуатации транспортных средств, в то время как государственные, региональные, провинциальные или местные органы власти имеют полномочия регулировать другие аспекты. Это приводит к созданию сложной нормативно-правовой среды [10].

Законы, касающиеся данных, имеют большое значение для ИИ, поскольку эти законы могут повлиять на использование и развитие систем ИИ. Согласно отчету, в 31 стране и регионе действуют запретительные законы, ограничивающие обмен данными и обмен ими без предварительного согласия или с другими ограничениями. В 2018 году Европейский союз ввел Общие правила защиты данных (GDPR), которые, в свою очередь, обязали государства-члены придерживаться запретительного подхода к регулированию конфиденциальности и использования данных [14]. 27 стран, упомянутых в докладе, являются государствами-членами Европейского союза и должны соблюдать GDPR. Кроме того, Соединенное Королевство, Бразилия и различные штаты Соединенных Штатов приняли ограничительные законы о конфиденциальности данных, при этом Соединенные Штаты рассматривают такие правила и регулирование на федеральном уровне. В ближайшие годы следует ожидать, что все больше стран будут создавать законы для регулирования данных, и нам придется посмотреть, как это повлияет на использование и возможное регулирование ИИ [11]. Отметим, что создание комфортных условий для развития ИИ со стороны государственных ведомств во многих странах сейчас является важным фактором успешного развития технологий. Например, в Китае еще летом 2017 года был принят «План развития технологий ИИ следующего поколения». Он является одной из самых продвинутых подобных стратегий, которая включает в себя инициативы, цели исследований и разработок в этой сфере, рекомендации местным органам власти, ключевые показатели эффективности и задачи развития ИИ в разрезе до 2030 года. Одной из важных задач является создание правовых и этических норм в этой сфере, а также обеспечение безопасности систем ИИ [11].

Работы по созданию стратегий и регулированию ИИ ведутся и в Европе. Европейским союзом (ЕС) в апреле 2018 года был принят 20-страничный документ, в котором излагается подход ЕС к ИИ. На уровне Совета Европы Европейская комиссия по эффективности правосудия (CEPEJ) приняла Европейскую этическую хартию об использовании ИИ в судебных системах и смежных областях [17].

Хотя этическое и ответственное использование ИИ продолжает оставаться горячей темой для обсуждения, ни в одной стране или регионе не было разработано специального законодательства или нормативных актов в отношении этического использования ИИ или любых вопросов, касающихся предвзятости в применении или разработке систем ИИ [17].

Европейский союз, Соединенное Королевство, Сингапур, Австралия и Германия активно рассматривают такое регулирование и продвинулись в обсуждении этой темы. Однако пока ни в одной стране не действуют конкретные законы, касающиеся этичного и ответственного ИИ. Время покажет, будут ли компании осуществлять самоконтроль или правительства вмешаются в более формальное регулирование. И нет никакой законодательной или нормативной деятельности в отношении преднамеренного злонамеренного использования ИИ. Как только первый крупный инцидент станет новостью, мы ожидаем увидеть больше дискуссий и регулирования вокруг этого. Довольно интересно, что многие страны обеспокоены потенциальным использованием ИИ для создания автономного оружия (АСВ). 13 стран продвинулись на определенном уровне в обсуждении ограничений на использование смертоносных автономных систем вооружения (САС), при этом Бельгия уже приняла законодательство о предотвращении применения или разработки САС [17].

В России, как и в других странах, пока не имеется специального законодательного регулирования для технологий ИИ. Вопрос о вмешательстве регуляторов для установления баланса между интересами

индустрии ИИ и общества часто подразумевает обращение к инструментам «мягкого» права, в том числе созданию сводов этики. Президент России В.Путин в 2019 году утвердил Национальную стратегию развития искусственного интеллекта (ИИ) до 2030 года. «В целях обеспечения ускоренного развития ИИ в РФ, проведения научных исследований в области ИИ, повышения доступности информации и вычислительных ресурсов для пользователей, совершенствования системы подготовки кадров в этой области постановляю утвердить прилагаемую Национальную стратегию развития ИИ на период до 2030 года», - говорится в Указе главы государства [4].

Важно учитывать, что целый ряд вышеназванных проблем требует законодательного решения. Опасность, связанная с ИИ, лежит в его способности принимать решения высокого качества - то есть такие, которые могут повлиять на большое количество различных процессов или даже целых групп людей. Тем более, что ИИ - законодательно неурегулированная молодая мировая отрасль экономики, и у России практически равные условия на старте регулирования с другими странами. Правовое регулирование должно оцениваться с точки зрения содействия демократическому развитию и справедливого распределения преимуществ использования ИИ. А так как будущие технологии ИИ и их последствия невозможно предугадать с абсолютной ясностью, то правовую политику необходимо будет постоянно пересматривать в контексте наблюдаемых социальных проблем и данных, полученных в результате исследований [13].

Также, с течением времени будет завершена и основная концепция (свод принципов), которая станет основой правового регулирования области ИИ, кибер-физических систем, нейронных сетей, основанных на ней, а также роботов и объектов робототехники. При этом скорость создания новых продуктов и решений в области ИИ растет в геометрической прогрессии. В этой ситуации подготовка специальной области права под новый тип отношений, в который входит ИИ, становится необходимостью для всех государств, включая РФ [12].

Библиографический список

1.ГОСТ Р 60.0.2.1-2016 «Роботы и робототехнические устройства. Общие требования по безопасности» / Утверждён и введён в действие Приказом Федерального агентства по техническому регулированию и метрологии от 29.11.2016 № 1843-ст. - М.: Стандартинформ, 2016.

2. Дополнительный протокол к Женевским конвенциям от 12 августа 1949 года, касающийся защиты жертв международных вооруженных конфликтов. (Протокол I) (с изменениями и дополнениями).1977.8 июня. // [Электронный ресурс] URL: https://constitution.garant.ru/act/right/megdunar/2540377/(дата обращения: 28.08.2021).

3.Конвенция о запрещении или ограничении применения конкретных видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие. Указ Президиума Верховного Совета СССР от 2 июня 1982 года N 7248-X. 1982. 2 июня. // [Электронный ресурс] URL: https://docs.cntd.ru/document/1901225/(дата обращения: 28.08.2021).

4.Национальная стратегия развития искусственного интеллекта на период до 2030 года. Указ Президента РФ от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации".2019. 14 октября. // [Электронный ресурс] URL: //https://www.garant.ru/products/ipo/prime/doc/72738946/(дата обращения: 28.08.2021).

5.Распоряжение Правительства РФ от 28.07.2017 № 1632-р «Цифровая экономика Российской Федерации» // Официальный интернет-портал правовой информации [Электронный ресурс] URL: http://www.pravo.gov.ru (дата обращения: 28.08.2021).

6.Указ Президента РФ от 1 декабря 2016 г. № 642 «О Стратегии научно-технологического развития Российской Федерации» // Официальный интернет-портал правовой информации // [Электронный ресурс] URL: http://www.pravo.gov.ru (дата обращения: 28.08.2021).

7.Резолюция Парламентской Ассамблеи Совета Европы от 23.04.2015 № 2051 (2015) «Дроны и целенаправленные убийства: необходимость соблюдения прав человека и международного права» [Resolution of the Parliamentary Assembly of the Council of Europe № 2051 (2015) of 23.04.2015 «Drones and targeted killings: the need to uphold human rights and international law»] // [Электронный ресурс] URL: http://assembly.coe.int/nw/xml/XRef/Xref-DocDetails. (дата обращения: 28.08.2021).

8. Asilomar AI Principles. 2017. // [Электронный ресурс] URL: https://futureoflife.org/ai-principles/7cn-re-loaded=1/.(дата обращения: 28.08.2021).

9. Владимир Путин выступил с видеообращением на пленарном заседании юбилейной, 75-й сессии Генеральной Ассамблеи Организации Объединённых Наций.//Президент России. 2020. 22 сентября. // [Электронный ресурс] URL:http://www.kremlin.ru/events/president/news/64074. (дата обращения: 28.08.2021).

10. Войниканис Е.А., Семенова Е.В., Тюляев Г.С. Искусственный интеллект и право: вызовы и возможности самообучающихся алгоритмов // Вестник Воронежского государственного университета. Серия: Право. 2018. № 4 (35). С. 137-148.

11.Кашкин С.Ю. Искусственный интеллект и робототехника: возможность вторжения в права человека ... И правовое регулирование этих процессов в ЕС и мире. //Сравнительно-правовые исследования МГЮА. 2019. №7. С.151-152.

12. Морхат П.М. Искусственный интеллект: правовой взгляд / Институт государственно-конфессиональных отношений и права. М.: Буки Веди, 2017. С. 14-35.

13. Морхат П. М. Право и искусственный интеллект / под ред. И. В. Понкина. М. : ЮнитиДана, 2018. С. 306—

401.

14. Незнамов А. Законы робототехники. Как регулировать искусственный интеллект /А. Незнамов // Forbes. 2018.16 янв. // [Электронный ресурс] URL: https://www.forbes.ru/tehnologii/355757-zakony-robototehniki-kak-regulirovat-iskusstvennyy-intellekt. (дата обращения: 28.08.2021).

15. Папа: ИИ - это дар, но он нуждается в алгорэтике // Vatican News. 2020. 28 февраля. // [Электронный ресурс] URL: https://www.vaticannews.va/ru/pope/news/2020-02/papa-ii-eto-dar-no-nuzhdaetsya-v-algoretike.html. (дата обращения: 28.08.2021).

16. Пентагон принял пять принципов искусственного интеллекта//Телеграмм-канал: warhead.su.2020. 28 февраля. // [Электронный ресурс] URL: https://warhead.su/2020/02/28/pentagon-prinyal-pyat-printsipov-iskusstvennogo-intellekta.(дата обращения: 28.08.2021).

17. Развитие искусственного интеллекта в странах мира: США, Китай, Великобритания. // [Электронный ресурс] URL:// http://d-russia.ru/razvitie-iskusstvennogo-inteUekta-v-stranah-mira-ssha-kitaj-velikobritaniya.html. (дата обращения: 28.08.2021).

18. Смирнова А.Н. Прогрессивное развитие норм международного гуманитарного права о запрещенных методах и средствах ведения войны: дис.канд.юрид.наук: 12.00.10 // [Электронный ресурс]: URL://Российская государственная библиотека - режим доступа: https://www.rsl.ru. (дата обращения: 28.08.2021).

19. Цуканова Е.Ю. Правовые аспекты ответственности за причинение вреда роботом с искусственным интеллектом / Е.Ю. Цуканова, О.Р. Скопенко // Вопросы российского и международного права. 2018. Т. 8, № 4А. С. 42-48.

ВЛАДИМИРОВА ЗОЯ ВЛАДИМИРОВНА - магистрант РАНХиГС - Уральский филиал, Россия.

i Надоели баннеры? Вы всегда можете отключить рекламу.