Научная статья на тему 'Характеристика виктимологических проблем, обусловленных развитием технологий искусственного интеллекта, способствующих росту жертв неблагоприятных условий социализации'

Характеристика виктимологических проблем, обусловленных развитием технологий искусственного интеллекта, способствующих росту жертв неблагоприятных условий социализации Текст научной статьи по специальности «Право»

CC BY
0
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Виктимология
ВАК
Область наук
Ключевые слова
искусственный интеллект / виктимологические проблемы / риски / угрозы / уязвимости / процессы виктимизации / жертвы / гражданское общество / цифровизация / профилактика / совершенствование законодательства / artificial intelligence / victimological problems / risks / threats / vulnerabilities / victimization processes / victims / civil society / digitalization / prevention / improvement of legislation

Аннотация научной статьи по праву, автор научной работы — Кобец П.Н.

Актуальность рассматриваемой проблематики обусловлена тем, что рост новых технологий с одной стороны, порождает ряд новых возможностей чтобы улучшить качество жизни, при этом подвергая серьезным рискам современное общество. Проявление этих рисков существенно возрастает с использованием технологий искусственного интеллекта, которые быстро внедряются в связи с высокой технократизацией многих сфер его жизнедеятельности современного цифрового общества. В этой связи предметом исследования выступили потенциальные риски, возникающие в результате внедрения этих технологий. Целью стало исследование влияния процессов связанных с внедрением технологий искусственного интеллекта на социум, анализ причинного комплекса, способствующего превращению населения в процессе их использования в жертвы неблагоприятных условий социализации, а также внесение предложений, направленных на минимизацию виктимности граждан. Методологическая основа заключается в проведенном анализе наиболее опасных рисков и уязвимостей в процессе внедрения технологий искусственного интеллекта, их причинного комплекса с последующей экстраполяцией в будущем обозначенных негативных тенденций. Результаты исследования свидетельствуют о том, что возможности от причиненного вреда в процессе внедрения данных технологий могут порождать, как совершенно просчитанные угрозы, так и ряд новых рисков и уязвимостей, которые по мнению отдельных экспертов являются маловероятными, однако масштаб причиненного вреда от которых может быть существенным. Автором вынесена на широкое научное обсуждение совершенно новая проблематика, обладающая межотраслевым характером, которая связанна с виктимологическими аспектами внедрения технологий искусственного интеллекта. Основной акцент делается на необходимости обеспечения защиты жертв возникающих после внедрения новых технологий обеспечения защиты жертв возникающих после внедрения новых технологий. Автором акцентируется нообразным рискам и угрозам будет подвергаться все больше людей, соответственно их внедрение выступает в качестве одного из факторов виктимизации общества. В этой связи необходимо прибегнуть к жесткой правовой регламентации общественных отношений, связанных с технологиями искусственного интеллекта. Область внедрения результатов данного исследования такова, что полученные выводы возможно использовать при разработке программных мероприятий по противодействию угроз внедрения искусственного интеллекта, способствующих превращению населения в жертв неблагоприятных условий социализации.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Characteristics of Victimological Problems Caused by the Development of Artificial Intelligence Technologies that Contribute to the Growth of Victims of Unfavorable Socialization Conditions

The relevance of the issue under consideration is due to the fact that the growth of new technologies, on the one hand, gives rise to a number of new opportunities to improve the quality of life, while exposing modern society to serious risks. The manifestation of these risks increases significantly with the use of artificial intelligence technologies, which are rapidly being implemented due to the high technocratization of many spheres of life in modern digital society. In this regard, the subject of the study was the potential risks arising from the introduction of these technologies. The goal was to study the impact of processes associated with the introduction of artificial intelligence technologies on society, to analyze the causal complex that contributes to the transformation of the population in the process of their use into victims of unfavorable conditions of socialization, as well as to make proposals aimed at minimizing the victimization of citizens. The methodological basis lies in the analysis of the most dangerous risks and vulnerabilities in the process of introducing artificial intelligence technologies, their causal complex, followed by extrapolation in the future of the identified negative trends. The results of the study indicate that the potential for harm caused during the implementation of these technologies can give rise to both completely calculated threats and a number of new risks and vulnerabilities, which, according to some experts, are unlikely, but the scale of the harm caused from which may be significant. The author has submitted for wide scientific discussion a completely new problem of an intersectoral nature, which is associated with the victimological aspects of the introduction of artificial intelligence technologies. The main emphasis is on the need to ensure the protection of victims arising after the introduction of new technologies. The author focuses on the fact that in the process of using the technologies under consideration, more and more people will be exposed to various risks and threats; accordingly, their implementation acts as one of the factors in the victimization of society. In this regard, it is necessary to resort to strict legal regulation of social relations related to artificial intelligence technologies. The area of implementation of the results of this research is such that the findings can be used in the development of program measures to counter the threats of the introduction of artificial intelligence, which contribute to the transformation of the population into victims of unfavorable conditions of socialization.

Текст научной работы на тему «Характеристика виктимологических проблем, обусловленных развитием технологий искусственного интеллекта, способствующих росту жертв неблагоприятных условий социализации»

ВИКТИМОЛОГИЯ ЦИФРОВОЙ ПРЕСТУПНОСТИ

и^у

Научная статья УДК 343 . 988

DOI: 10.47475/2411-0590-2024-11-1-13-24

Характеристика виктимологических проблем, обусловленных развитием технологий искусственного интеллекта, способствующих росту жертв неблагоприятных условий социализации

Петр Николаевич Кобец

Всероссийский научно-исследовательский институт МВД России, Москва, Россия pkobets37@rambler.ru

https://orcid.org/0000-0001-6527-3788

Аннотация. Актуальность рассматриваемой проблематики обусловлена тем, что рост новых технологий с одной стороны, порождает ряд новых возможностей чтобы улучшить качество жизни, при этом подвергая серьезным рискам современное общество. Проявление этих рисков существенно возрастает с использованием технологий искусственного интеллекта, которые быстро внедряются в связи с высокой технократиза-цией многих сфер его жизнедеятельности современного цифрового общества. В этой связи предметом исследования выступили потенциальные риски, возникающие в результате внедрения этих технологий . Целью стало исследование влияния процессов связанных с внедрением технологий искусственного интеллекта на социум, анализ причинного комплекса, способствующего превращению населения в процессе их использования в жертвы неблагоприятных условий социализации, а также внесение предложений, направленных на минимизацию виктимности граждан . Методологическая основа заключается в проведенном анализе наиболее опасных рисков и уязвимостей в процессе внедрения технологий искусственного интеллекта, их причинного комплекса с последующей экстраполяцией в будущем обозначенных негативных тенденций Результаты исследования свидетельствуют о том, что возможности от причиненного вреда в процессе внедрения данных технологий могут порождать, как совершенно просчитанные угрозы, так и ряд новых рисков и уязвимостей, которые по мнению отдельных экспертов являются маловероятными, однако масштаб причиненного вреда от которых может быть существенным . Автором вынесена на широкое научное обсуждение совершенно новая проблематика, обладающая межотраслевым характером, которая связанна с виктимологическими аспектами внедрения технологий искусственного интеллекта. Основной акцент делается на необходимости обеспечения защиты жертв возникающих после внедрения новых технологий обеспечения защиты жертв возникающих после внедрения новых технологий Автором акцентируется

© П . Н . Кобец

внимание на том, что в процессе использования рассматриваемых технологий разнообразным рискам и угрозам будет подвергаться все больше людей, соответственно их внедрение выступает в качестве одного из факторов виктимизации общества. В этой связи необходимо прибегнуть к жесткой правовой регламентации общественных отношений, связанных с технологиями искусственного интеллекта . Область внедрения результатов данного исследования такова, что полученные выводы возможно использовать при разработке программных мероприятий по противодействию угроз внедрения искусственного интеллекта, способствующих превращению населения в жертв неблагоприятных условий социализации

Ключевые слова: искусственный интеллект, виктимологические проблемы, риски, угрозы, уязвимости, процессы виктимизации, жертвы, гражданское общество, циф-ровизация, профилактика, совершенствование законодательства

Для цитирования: Кобец П . Н . Характеристика виктимологических проблем, обусловленных развитием технологий искусственного интеллекта, способствующих росту жертв неблагоприятных условий социализации // Виктимология . 2024. Т. 11, № 1 . С . 13-24. DOI: 10.47475/2411-0590-2024-11-1-13-24

Research article

Characteristics of Victimological Problems Caused by the Development of Artificial Intelligence Technologies that Contribute to the Growth of Victims of Unfavorable Socialization Conditions

Petr N. Kobets

National Research Institute of the Ministry of Interior of the Russian Federation, Moscow, Russia pkobets37@rambler.ru (g https://orcid.org/0000-0001-6527-3788

Abstract. The relevance of the issue under consideration is due to the fact that the growth of new technologies, on the one hand, gives rise to a number of new opportunities to improve the quality of life, while exposing modern society to serious risks . The manifestation of these risks increases significantly with the use of artificial intelligence technologies, which are rapidly being implemented due to the high technocratization of many spheres of life in modern digital society. In this regard, the subject of the study was the potential risks arising from the introduction of these technologies . The goal was to study the impact of processes associated with the introduction of artificial intelligence technologies on society, to analyze the causal complex that contributes to the transformation of the population in the process of their use into victims of unfavorable conditions of socialization, as well as to make proposals aimed at minimizing the victimization of citizens . The methodological basis lies in the analysis of the most dangerous risks and vulnerabilities in the process of introducing artificial intelligence technologies, their causal complex, followed by extrapolation in the future of the identified negative trends The results of the study indicate that the potential for harm caused during the implementation of these technologies can give rise to both completely calculated threats and a number of new risks and vulnerabilities, which, according to some experts, are unlikely, but the scale of the harm caused from which may be significant The author has submitted for wide scientific discussion a completely new problem of an intersectoral nature, which is associated with the victimological aspects of the introduction of artificial intelligence

technologies . The main emphasis is on the need to ensure the protection of victims arising after the introduction of new technologies . The author focuses on the fact that in the process of using the technologies under consideration, more and more people will be exposed to various risks and threats; accordingly, their implementation acts as one of the factors in the victimization of society. In this regard, it is necessary to resort to strict legal regulation of social relations related to artificial intelligence technologies . The area of implementation of the results of this research is such that the findings can be used in the development of program measures to counter the threats of the introduction of artificial intelligence, which contribute to the transformation of the population into victims of unfavorable conditions of socialization .

Keywords: artificial intelligence, victimological problems, risks, threats, vulnerabilities, victimization processes, victims, civil society, digitalization, prevention, improvement of legislation

For citation: Kobets PN . Characteristics of Victimological Problems Caused by the Development of Artificial Intelligence Technologies Hhat Contribute to the Growth of Victims of Unfavorable Socialization Conditions . Viktimologiya [Victimology] . 2024;11(1):13-24 . (In Russ .) DOI: 10.47475/2411-0590-2024-11-1-13-24

Введение

В настоящее время со стороны отечественных и зарубежных ученых все больше внимания уделяется проблематике анализа виктимной безопасности современного общества [13, с . 335] . И это не случайно, поскольку процессы, связанные с широкой цифровизацией и ростом информационных технологий в первой четверти XXI столетия, существенно увеличивают риски стать жертвой различных преступных посягательств в указанной сфере И как справедливо отмечают в своих работах ведущие отечественные виктимологии, в частности А . В . Майоров, «виктимологические исследования нацелены на обнаружение тех критериев, которые могут облегчить распознавание потенциальной жертвы задолго до противоправного деяния, создавая реальную возможность предупреждения негативных последствий» [14, с . 9] . И поскольку в процессе развития современных технологий влечет за собой не только множество новых возможностей по развитию экономического сектора, но также способствует возникновению разного рода угроз в сфере социальной . В этой связи, необходимость выявления перспективных угроз, которые возникнут в процессе развития технологий искусственного интеллекта, а также мер по направленных на их снижение, выступает в качестве одной из актуальных задач современного

цифрового общества . И чтобы потенциальным рискам и угрозам в рассматриваемой сфере было оказано адекватное противодействие необходим не только их анализ, но и своевременное выявление тенденций, оказывающих влияние на их развитие вместе с предложениями по их нейтрализации . Именно по этой причине в качестве научного исследования автором был избран механизм неактивного причинного комплекса, возникающего в результате внедрения технологий искусственного интеллекта, активно воздействующего на общество, и обуславливающего появление многочисленных жертв, а также внесение предложений, направленных на минимизацию возникающих последствий

Постановка проблемы

Виктимологические аспекты, обусловленные развитием технологий искусственного интеллекта, являются совершенно новой проблемой виктимологической науки, которые ранее не исследовались . Мониторинг различных источников отечественной и зарубежной литературы в сфере технологий искусственного интеллекта позволяет утверждать о том, что большинство публикаций по данной проблематике освещают лишь успехи достигнутые в результате использования данных технологий, а также радужные перспективы в процессе их использования

в будущем, обходя стороной потенциальные уязвимости, а также многочисленные риски, которые неизбежны после повсеместного их внедрения . О возможных угрозах в процессе использования рассматриваемых технологий конечно же отмечается в работах отдельных экспертов, но они, по их мнению, не настолько серьезны, чтобы оказывать существенное воздействие на социум . Как полагает автор, это не совсем так, поскольку активное внедрение технологий искусственного интеллекта, ввиду имеющихся объективных причин выступит в качестве решающих факторов, способствующих превращению населения в жертвы неблагоприятных условий социализации . Совершенно очевидно, что эти технологии являются источниками не только очевидных и просчитываемых рисков, и уяз-вимостей, но также и принципиально новых угроз, которые эксперты, как правило, не рассматривают вовсе, тогда как причиненный вред от них может являться весьма существенным . Из сказанного следует, что вопросы связанные с обеспечением безопасности социума в процессе внедрения технологий искусственного интеллекта пересекаются с исследованием виктимологических аспектов данной проблематики, и в первую очередь с уязвимостью, как отдельных категорий граждан, так и целых групп современного цифрового общества. Более того, важно отметить, что виктимологическая проблематика робототехники использующей рассматриваемые технологии обладает двойственным характером, потому, как жертвами ее внедрения могут быть как человек, так и сама робототехника .

Описание исследования

Совершенно очевидно, что центральной составляющей виктимологическо-го мониторинга последствий внедрения технологий искусственного интеллекта является жертва, дискуссии относительно понятия которой в теории виктимо-логической науки остаются актуальными и сегодня [15, с . 55] . Между тем автор полагает, что нет необходимости основательно включаться в эту дискуссию,

важно лишь отметить, что относительно данного понятия существуют разные позиции, в своей основе укладывающиеся в рамках узкого и широкого подхода к ее пониманию . Широким пониманием жертв охватываются потенциальные и реальные потерпевшие от внедрения рассматриваемых технологий, а именно общество, физические и юридические лица Все дело в том, что использование анализируемых технологий минимизирует трудовую деятельность людей и увеличивает использование робототехники, которая возможно в дальнейшем будет активно самообучаться, общаться между собой, принимая самостоятельные решения, тем самым приближая риски возникновения нежелательных последствий для людей, которые будут не только минимальными в виде потери репутации организаций, но и максимальными, связанными с катастрофами техногенного характера, остановкой производства и др . В этой связи возможно предположить, что процессы внедрения технологий искусственного интеллекта скорее всего следует рассматривать в качестве важнейшего из группы факторов, связанных с дальнейшей виктимизации общества, поскольку неурегулированность правоотношений в рассматриваемой области, только добавит возможности наступления опасных рисков для всего общества

Многие реальные угрозы внедрения рассматриваемых технологий не выставляются напоказ . Так, в частности ряд экспериментов, связанных с организацией совместной деятельности людей и искусственного интеллекта закончились безуспешно . Например, в 2017 г. представителям соцсети Facebook* пришлось остановить эксперименты по использованию систем, работающих на основе рассматриваемых технологий, в связи с тем, что чат-ботами стали передаваться друг другу в целях общения между собой, послания на языке, который специалисты в последствии так и не смогли расшифровать . Поэтому данный проект под названием Facebook* Artificial Intelligence Research — FAIR экстренно пришлось

закрыть1 . Первоначально в обозначенной программе чат-ботов — машин-роботов предполагалось использовать, чтобы они вели общение с людьми И так все и было до определенного времени, однако в какой-то момент чат-боты переключились и начали вести переписку между собой используя английский язык, но через некоторое время стали общаться на созданном ими самими в процессе усовершенствования программного обеспечения непонятном для людей языке Прекращение указанного эксперимента в дальнейшем объяснялось экспертами, большими опасениями, которые были вызваны тем, что самостоятельное общение между чат-ботами могло выйти из-под контроля следивших за данным экспериментом экспертов сферы высоких технологий, и машины бы стали работать автономно от человека2.

В то же время относительно возникновения опасений о возможных серьезных рисках использования данных систем в отдаленном будущем, то, как полагают отечественные эксперты — специалисты в сфере нейронных сетей, когда компьютерные системы будут обладать супербольшой мощностью и у них не будет органов чувств, как у человека, то окружающая действительность ими будут восприниматься совершенно иначе, чем это происходит у людей А в целях общения между собой, машины также изобретут и свой индивидуальный язык совершенно не похожий на наш . Кроме того, совершенные компьютерные системы будущего вполне очевидно могут обладать и во всех отношениях другим мышлением, чем человек И поэтому наши с ними интересы могут не пересекаться ни в чем. Соответственно мы будем параллельно существовать, не взаимодействуя друг с другом3.

1 Inside Facebook's artificial intelligence lab // Popular Science. URL: https://www. popsci. com/ facebook-ai/ (дата обращения: 15.12. 2023) .

2 Facebook заблокировал ботов: роботы стали общаться между собой на новом языке // Москва 24 . URL: https://www. m24. ru/articles/tehno logii/04082017/148209 (дата обращения: 15. 12.2023) .

3 Малых В . О чем говорят машины: почему чат-боты пока не опасны для человечества // РБК.

URL: https://www. rbc . ru/opinions/technology_and_me

Как отмечают отечественные эксперты помимо «бунта роботов» существует еще немало негативных последствий в процессе использования новых технологий [1; 2; 3; 4; 5; 6; 7; 8; 9; 12; 23] . Учитывая нарастающие тенденции, относящиеся к возможным сокращениям среднего класса, необходимо принять во внимание, что процессы, связанные с развитием новейших технологий, вполне могут повлечь за собой высокую концентрацию материальных благ и капитала, которые окажутся в распоряжении меньшей части населения . Проведенные экспертами исследования по данной проблеме свидетельствуют о том, что широкое внедрение автоматизированного производства уже способствовало массовым сокращениям во многих странах, что вылилось в появление миллионов безработных. Так в частности, внедрение в экономическую и производственную сферу данных технологий окажет существенное воздействие на трансформацию рынка труда, при этом автоматизировав много рабочих мест. А «по оценкам аналитиков Oxford Economics, уже к 2030 г. 20 млн рабочих мест в мире заменят роботы, всего с 2000 г. в ходе роботизации производства произошло сокращение порядка 1,7 млн рабочих мест»4 . Согласно последним исследованиям, выполненным специалистами Всемирного экономического форума, к 2025 г. использование роботов приведет к тому, что ими будет занято около трети традиционных рабочих профессий . Введение одного робота приводит к сокращению до 1,6 рабочих мест. Безработными к 2025 г. вследствие внедрения робототехники могут оказаться порядка 85 млн сотрудников средних и крупных предпри-

5

ятий по всему миру .

dia/04/08/2017/598453329a7947214bab8e50 (дата обращения: 15. 12. 2023) .

4 Мосеев В .Эволюция промышленных роботов: будущее за роботами (collaborative robot) // VK Cloud . URL: https://cloud .vk . com/blog/bezljudnye-zavody-pochti-da-ne-sovsem (дата обращения: 15.12. 2023).

5 Пешкова И . Рынок труда на историческом переломе: К 2025 г. роботы выгонят на улицу 85 млн людей // CNews . URL: https://www. cnews . ru/news/ top/2020-10-22_rynok_truda_na_istoricheskom?ysclid =lpi1a66otk964887906 (дата обращения: 15. 12.2023) .

Немаловажная угроза исходит и от проблематики, связанной с исчезновением профессий в процессе развития технологий искусственного интеллекта . К примеру, в ближайшей перспективе с развитием беспилотного транспорта не потребуется много водителей . Уже сегодня в Великобритании и Китае эксплуатируются беспилотные такси и запускается грузовой автотранспорт на автомагистралях. Все меньше будет требоваться переводчиков, бухгалтеров, журналистов, копирайтеров, диспетчеров, продавцов, аналитиков младшего и среднего звена, сотрудников банковской сферы, а также специалистов иных профессий, деятельность которых основана на шаблонных процессах, которую легко автоматизировать . В дальнейшей перспективе не испытают потери собственной востребованности специалисты тех профессий, которые заложены на человеческих качествах эмпатии и эмоциональности, это касается врачей, преподавателей, психологов, работников творческих профессий, адвокатов, социальных работников, маркетологов1.

Вполне очевидно, что процессы, связанные с широким внедрением роботизации на основе технологий искусственного интеллекта, приведут к необходимости введения обязательных фондов, которые бы компенсировали затраты по переобучению работников, повышению их квалификационных категорий . Также необходимо будет вносить многочисленные изменения в систему не только среднего, но и всех остальных видов образования, и привлечения в нее большего числа специалистов, владеющих в совершенстве 1Т-технологиями. В этой связи также потребуется решить вопросы по совершенствованию законодательства в рассматриваемой сфере

Один из таких потенциальных рисков обусловлен заменой человеческого труда, трудом роботов в связи с интеллектуализацией труда, превращающего людей

1 Какие профессии первыми заменит искусственный интеллект // Клерк, ру. URL: https:// www. klerk . ru/buh/articles/570297/ (дата обращения: 15.12.2023) .

в механизмы . В результате многие рабочие профессии невозможны без серьезных интеллектуальных усилий, что, вне всякого сомнения, приводит к физическому и нравственному истощению работников . В результате население планеты начинает больше болеть психическими заболеваниями и теряет интерес к жизни. Серьезным изменениям будут подвержены и семейные ценности, вследствие развития индустрии секс-роботов, которые способствуют изменению отношения к традиционным институтам брака [20, с . 51] .

Преступные элементы, в частности киберпреступники, также стремятся к активному освоению информационных технологий, поэтому современное общество должно понимать, что большинству серьезным открытиям всегда сопутствовали такие же риски и угрозы, которые будут и у искусственного интеллекта И чем большими возможностями обладают новейшие технологии, тем больше угроз может исходить от их использования . Поэтому в целях совершенствования безопасности в сфере использования новых технологий все потенциальные риски, возникающие вокруг них необходимо адекватно оценивать и только после этого вести разговор об активном применении робототехники . Данное утверждение в том числе относится и к приближающемуся активному использованию рассматриваемых технологий [16, с . 29] .

Активное внедрение робототехники в жизнедеятельность общества в новом тысячелетии способствовало росту смертности, связанной с ошибками и сбоями в работе этих машин, что в свою очередь только повышает важность и значимость проблематики усиления мер ответственности лиц, которые виновны в причинении вреда человеку робототехникой2 . В том случае если законодатели наделят искусственный интеллект правосубъектностью, и робототехника будет выступать в качестве субъекта правоотношений, ее

2 Хижняк Н . 10 случаев с роботами, убившими людей // Hi-News . ru . URL: https://hi-news . ru/robots/ 10-sluchaev-s-robotami-ubivshimi-lyudej. html (дата обращения: 15. 12. 2023) .

разработчики, производители, владельцы не будут нести никакой юридической ответственности за различные сбои, которые и подвергают угрозам общество . В такой ситуации отсутствие ответственности обозначенных лиц будет и дальше способствовать сокращению затрат на безопасность этой робототехники и росту преступных проявлений в рассматриваемой сфере [10, с . 35] .

Развитие рассматриваемых технологий также может оказывать воздействие и в процессе частной жизни человека, нарушая право на ее неприкосновенность . Большинство людей пользуются разнообразными соцсетями, не подозревая, что одновременно происходит сбор информационных данных которые в дальнейшем используются при создании наших профилей [17; 21; 22], и как и кем она может быть использована в последствии пока что сложно предположить . В частности, серьезную опасность в результате обозначенных проблем может представлять дегуманизация разума человека, обусловленная внедрением робототехники и тем самым снижая важность саморазвития людей, постепенно превращая их в более слабый вид

Как полагают некоторые ученые, в настоящий момент в ситуации связанной с возникновением рисков в процессе внедрения искусственного интеллекта складывается такое положение дел, при котором, разработчики новых технологий стремятся только изобрести сверхинтеллектуальный продукт наделив его возможностями, над которыми человечеству не просто будет осуществлять контроль В дальнейшем их мало интересует, что могут возникнуть сопутствующие угрозы, которые будут исходить от деятельности технических устройств При этом мировое сообщество даже не обладает, как внятными философскими концепциями, так и необходимым комплексом нормативно-правового регулирования их деятельности . Однако, подобное будет продолжаться до тех пор, пока робототехника, не станет причинять массовый смертельный вред человечеству (например, беспилотный транспорт) . Хотя по логике вещей,

обществу следовало бы обратиться к разработке общих правил безопасности использования данных технологий

В результате проведенного исследования становится очевидно, что технологии искусственного интеллекта обладают потенциалом самостоятельного приема решений, которые несут в себе огромные риски В то же время несмотря на эффективность данных технологий это не разумные существа, они не имеют каких-то моральных и этических ограничений, как и моральных барьеров . Являясь техническим, программным продуктом они, не обладая злым умыслом могут привести к уничтожению человечества [19, с . 65] . Внедрение данных систем неизбежно будет способствовать: сокращению рабочих мест; сопровождаться ростом безработицы; активностью киберпреступни-ков и собственно ростом киберпреступле-ний; а также появлением их новых форм и видов; возрастанием правовых проблем ответственности, с которыми будет меняться деликтное и контрактное законодательство; возрастанием степени недоверия и этических проблем, связанных с интегрированием искусственного интеллекта в жизнь общества; ростом неравенства в обществе и др

Таким образом, использование искусственного интеллекта потребует решать различные технические, правоохранительные, социальные и самое главное правовые проблемы . Поэтому в настоящее время важно разрабатывать специальные международные и национальные нормы права, которые бы регулировали проблематику использования технологий искусственного интеллекта и робототехники . Между тем таких норм немного даже в законодательстве в ведущих мировых державах, занимающиеся внедрением данных технологий По большей части это обусловлено тем, что в интересы этих государств не входит воспрепятствование инновационному развитию технологиям искусственного интеллекта, поскольку международная конкуренция в рассматриваемой сфере с каждым годом только увеличивается . Поэтому большинство этих стран стремятся к тому,

чтобы нормы мягкого права превалировали над нормами традиционного правого регулирования

Между тем минимизация возникновения рисков связанных с использованием новых технологий невозможна без радикальных преобразований в законодательной области поэтому необходимо совершенствование правового регулирования общественных отношений в рассматриваемой сфере [11, с . 115] . Сегодня важно решить проблему, связанную с ответственностью сложных роботов — в медицинской сфере, беспилотных технологиях и др . Нужно на законодательном уровне решить кто и к каким видам ответственности будет привлекаться в случае причинения вреда роботами, их производители, разработчики, программисты, владельцы, арендаторы В такой ситуации, когда разные группы лиц участвовали в разработке, производстве, отладке, программировании, использовании роботов, чрезвычайно сложно будет определить, кто станет субъектом юридической ответственности в случае причинения вреда роботом И даже если ответственность будет солидарной, установление причинно-следственной связи между человеком и роботом, и ее определение будет крайне сложным процессом, что, вне всякого сомнения, только осложнит работу правоохранительной и судебной систем, и без того испытывающих серьезную перегрузку

Заключение

Таким образом, рассматриваемые технологии несут много рисков и угроз поэтому необходимо развивать правовое регулирование, направленное на защиту интересов как в целом всего общества, так и отдельных субъектов правоотношений . В процессе исследования автор попытался прояснить имеющиеся пустоты традиционной правовой картины в жизни общества возникающие в процессе развития цифровизации общества . Развитие новых моделей в сфере правового регулирования технологий искусственного интеллекта должно полностью соответствовать процессам развития этих технологий, и может в чем-то их превышать тем

самым предупреждая возможность потенциальных угроз и уязвимостей . По данной позиции можно согласиться с рядом отечественных экспертов, утверждающих о том, что «в процессе развития новых общественных отношений право должно не столько закреплять уже сложившиеся социальные нормы, сколько предвосхищать их» [18, с . 19] . В ближайшей перспективе развитие технологий искусственного интеллекта, которые становится неотъемлемым элементом современного цифрового общества, может достигнуть такой степени развития, что порождаемые ими риски будут выступать в качестве серьезных угроз, связанных с превращением населения в жертвы неблагоприятных условий социализации, что в свою очередь вполне может негативно влиять и на основы государственного строя

В своих исследованиях некоторые отечественные правоведы уже начинают определять принципы по правовому регулированию общественных отношений технологий искусственного интеллекта, при этом в первую очередь выделяя: необходимость выстраивания баланса интересов владельца, пользователя, изготовителя и изобретателя этих технологий, совместно с поиском оптимальных моделей, стимулирующих механизмы по ограничению возможных рисков в процессе их функционирования; важность внедрения обязательного страхования, которое позволит нивелировать многие из обозначенных выше угроз; необходимость проработки возможности по наделению в дальнейшей перспективе робототехники использующей технологии искусственного интеллекта специальной правосубъектностью; важность разработки способов ответственности рассматриваемой робототехники [12, с . 173] . Возникновение многих потенциальных рисков в рассматриваемой сфере, в обязательном порядке потребует от властей иметь необходимый инструментарий, чтобы адекватно противодействовать возникающим угрозам, и в качестве одной из наиболее эффективных мер воздействия может выступить именно формирующееся национальное

законодательство в области регулирования общественных отношений, связанных с технологиями искусственного интеллекта . Чтобы минимизировать наступление угроз от внедрения технологий искусственного интеллекта в дальнейшем

важно продолжать совершенствование законодательного регулирования общественных отношений в сфере использования рассматриваемых технологий, извлекая пользу и делая необходимые выводы

* Американская компания Meta, которой принадлежат соцсети Facebook и Instagram, признана экстремистской на территории РФ (решение Тверского суда Москвы от 21.03.2022).

Список источников

1 . Бегишев И . Р. Автономная робототехника в системе уголовно-правовых отношений . Москва : Блок-Принт, 2023 . 160 с . EDN: TDYDDA.

2 . Бегишев И . Р. , Берсей Д . Д . Генезис криминальной социальной инженерии // Цифровые технологии и право : сборник научных трудов II Международной научно-практической конференции : в 6 томах (Казань, 22 сентября 2023 г.) . Казань : Познание, 2023. С . 24-34. EDN: ECJPDW.

3 . Бегишев И . Р. Уголовная ответственность за создание и (или) распространение роботов, предназначенных для целей совершения преступлений // Северо-Кавказский юридический вестник. 2021. № 2 . С . 140-148. DOI: https://doi.org/10.22394/2074-7306-2021-1-2-140-148 EDN: NZONZN .

4 . Бегишев И . Р. Уголовная ответственность за создание, распространение или использование автономных вооружённых роботов // Вестник Московского государственного областного университета . Серия: Юриспруденция . 2021. № 2 . С . 84-93. DOI: https://doi . org/10. 18384/23106794-2021-2-84-93 EDN: YYBTLM .

5 . Бегишев И .Р. Правовая терминология в сфере технологий искусственного интеллекта и робототехники // Безопасность бизнеса . 2021. № 2 . С . 10-14 . DOI: https://doi . org/10. 18572/20723644-2021-2-10-14 EDN: XFLLJV.

6 . Бегишев И . Р. Пределы уголовно-правового регулирования робототехники // Вестник Санкт-Петербургского университета . Право . 2021 . Т. 12, № 3 . С . 522-543 . DOI: https://doi . org/10.21638/spbu14.2021.303 EDN: TTRIWK .

7 . Бегишев И . Р. Уголовно-правовое регулирование робототехники: результаты социологического исследования // Социально-политические науки . 2021. Т. 11, № 4 . С . 82-91 . DOI: https:// doi. org/10.33693/2223-0092-2021-11-4-82-91 EDN: SYTGYT.

8 . Бегишев И . Р. Уголовно-правовые средства обеспечения безопасного производства и эксплуатации роботов // Проблемы экономики и юридической практики . 2021 . Т. 17, № 4. С . 175-179. EDN: VKCUXW.

9. Galkin D . V. Social Robots: Approaches and Conceptions in the Perspective of the Humanities Research // Journal of Siberian Federal University. Humanities and Social Sciences . 2014 . Vol . 7, No . 6 . P. 908-923. EDN: SEWOFJ .

10 . Кобец П . Н . Искусственный интеллект: современные подходы по формированию понятийного аппарата и регулированию правоотношений в рассматриваемой сфере // Вестник Самарского юридического института . 2023 . № 5 (56) . С . 30-37. DOI: https://doi. org/10. 37523/ SUI .2023.56.5 .004

11 . Кобец П .Н . Совершенствование правового регулирования в сфере использования технологий искусственного интеллекта // Философия права . 2023 . № 3 (106) . С . 112-118 .

12 . Матанцев Д . А . Перспективы деликтной ответственности роботов-агентов // Аграрное и земельное право . 2021. № 9 (201) . С . 170-174. DOI: https://doi . org/10,47643/1815-1329_2021_9_170

13 . Майоров А . В . Соотношение уровня безопасности и виктимности личности // Мир науки, культуры, образования . 2013 . № 4 (41) . С . 334-336.

14 . Майоров А . В . Виктимная безопасность общества в современных условиях // Вестник Прикамского социального института. 2023. № 1 (94) . С . 8-16.

15 . Майоров А . В . Концепция виктимологического противодействия преступности // Проблемы права . 2014 . № 2 . С . 54-57.

16 . Мун Д . В ., Попета В . В . Немного об искусственном интеллекте: неоднозначные // Социальные новации и социальные науки . 2021. № 2 (4) . С . 26-37. DOI: https://doi .org/10.31249/ snsn/2021 .02 .02

17 . Никитин Е . В . Проблемы противодействия технологиям социальной инженерии как элементу преступной деятельности // Виктимология . 2023. Т. 10, № 4 . С . 485-491. DOI: https:// doi. org/10.47475/2411-0590-2023-10-4-485-491 EDN: PMZOVL .

18 . Попова А . В . Новые субъекты информационного общества и общества знания: к вопросу о нормативном правовом регулировании // Журнал российского права . 2018 . № 11 (263) . С . 14-24 . DOI: https://doi. org/10 ,12737/art_2018_11_2 EDN: YSTVOD .

19. Силкина О . Ю ., Зарипова Р. С . Тенденции в развитии искусственного интеллекта // Информационные технологии в строительных, социальных и экономических системах . 2020. № 3 (21) . С . 63-65 .

20 . Талапина Э . В . Права человека в Интернете // Журнал российского права . 2019. № 2 (266) . С . 41-54.

21 . Унукович А . С . Социальная инженерия и кибербезопасноть: виктимологический аспект // Психопедагогика в правоохранительных органах . 2021. Т. 26, № 3 . С . 346-351. DOI: https://doi . org/10.24412/1999-6241-2021-386-346-351 EDN: VPKZVU.

22 . Черецких А. В . Противодействие негативным методам социальной инженерии // Виктимология . 2023. Т. 10, № 4 . С . 474-484. DOI: https://doi.org/10.47475/2411-0590-2023-10-4-474-484 EDN: JYCREI .

23 . Sundurov F. R ., Begishev I . R ., Khisamova Z. I . [et al .]. Criminal Aspects of Robotics Applications // Cuestiones Políticas . 2021. Vol . 39, No. 68 . P. 596-611 . DOI: https://doi .org/10.46398/ cuestpol.3968.38 EDN: CVVNFT.

1 . Begishev IR . Autonomous robotics in the system of criminal-legal relations. Moscow: Blok-Print, 2023. 160 p . (In Russ .) EDN: TDYDDA .

2 . Begishev IR, Bersei DD . Genesis of criminal social engineering : collection of scientific papers of the II International Scientific and Practical Conference Cifrovye tekhnologii i pravo [Digital technologies and law]: in 6 volumes, Kazan, September 22, 2023 . Kazan: Publishing House "Poznanie", 2023:24-34. (In Russ .) EDN: ECJPDW.

3 . Begishev IR . Criminal liability for the creation and (or) distribution of robots designed for the purpose of committing crimes . Severo-Kavkazskij yuridicheskij vestnik [North Caucasus Legal Bulletin]. 2021;(2):140-148. (In Russ .) DOI: https://doi . org/10.22394/2074-7306-2021-1-2-140-148 EDN: NZONZN .

4 . Begishev IR . Criminal responsibility for the creation, distribution or use of autonomous armed robots . Vestnik Moskovskogo gosudarstvennogo oblastnogo universiteta. Seriya: Yurisprudenciya [Bulletin of Moscow State Regional University. Series: Jurisprudence]. 2021;(2):84-93. (In Russ .) DOI: https://doi . org/10.18384/2310-6794-2021-2-84-93 EDN: YYBTLM .

5 . Begishev IR . Legal terminology in the sphere of artificial intelligence technologies and robotics . Bezopasnost' biznesa [Business Security] . 2021;(2):10-14 . (In Russ .) DOI: https://doi.org/10. 18572/20723644-2021-2-10-14 EDN: XFLLJV.

6 . Begishev IR . Limits of criminal-legal regulation of robotics . Vestnik Sankt-Peterburgskogo universiteta. Pravo [Bulletin of St . Petersburg University. Law] . 2021;12(3):522-543 . (In Russ .) DOI: https://doi. org/10.21638/spbu14.2021.303 EDN: TTRIWK.

References

7 . Begishev IR . Criminal-legal regulation of robotics: the results of sociological research . Social'no-politicheskie nauki [Socio-political sciences]. 2021;11(4):82-91 . (In Russ .) DOI: https://doi . org/10.33693/2223-0092-2021-11-4-82-91 EDN: SYTGYT.

8 . Begishev IR . Criminal-legal means of ensuring safe production and operation of robots . Problemy ekonomiki iyuridicheskojpraktiki [Problems of economics and legal practice] . 2021;17(4):175-179. (In Russ .) EDN: VKCUXW.

9. Galkin DV. Social Robots: Approaches and Conceptions in the Perspective of the Humanities Research . Journal of Siberian Federal University. Humanities and Social Sciences . 2014;7(6):908-923 . EDN: SEWOFJ.

10 . Kobets PN . Artificial intelligence: modern approaches to the formation of a conceptual apparatus and regulation of legal relations in the area under consideration . Vestnik Samarskogo yuridicheskogo instituta [Bulletin of the Samara Legal Institute] . 2023;(5):30-37. (In Russ .) DOI: https:// doi. org/10 ,37523/SUI .2023 .56.5 .004

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

11 . Kobets PN . Improving legal regulation in the field of using artificial intelligence technologies . Filosofiya prava [Philosophy of Law], 2023;(3):112-118 . (In Russ .)

12 . Matantsev DA . Prospects for tort liability of robot agents . Agrarnoe i zemel'noepravo [Agricultural and land law] . 2021;(9):170-174. (In Russ .) DOI: https://doi. org/10,47643/1815-1329_2021_9_170

13 . Mayorov AV. Correlation between the level of security and victimization of an individual . Mir nauki, kul'tury, obrazovaniya [World of science, culture, education] . 2013;(4):334-336. (In Russ .)

14 . Mayorov AV. Victim security of society in modern conditions . Vestnik Prikamskogo social'nogo institute [Bulletin of the Prikamsky Social Institute] . 2023;(1):8-16 . (In Russ .)

15 . Mayorov AV. The concept of victimological counteraction to crime . Problemy prava [Problems of law] . 2014;(2):54-57. (In Russ .)

16 . Moon DV, Popeta VV. A little about artificial intelligence: ambiguous . Social'nye novacii i social'nye nauki [Social innovations and social sciences]. 2021;(2(4):26-37. (In Russ .) DOI: https://doi . org/10,31249/snsn/2021.02 .02

17 Nikitin EV Problems of countering social engineering technologies as an element of criminal activity. Viktimologiya [Victimology] . 2023;10(4):485-491 . (In Russ .) DOI: https://doi . org/10.47475/2411-0590-2023-10-4-485-491 EDN: PMZOVL .

18 . Popova AV. New subjects of the information society and knowledge society: on the issue of normative legal regulation . Zhurnal rossijskogoprava [Journal of Russian Law] . 2018;(11):14-24 . (In Russ .) DOI: https://doi . org/10. 12737/art_2018_11_2 EDN: YSTVOD .

19. Silkina OYu, Zaripova RS . Trends in the development of artificial intelligence . Informacionnye tekhnologii vstroitel'nyh, social'nyh i ekonomicheskih sistemah [Information technologies in construction, social and economic systems]. 2020;(3):63-65 . (In Russ .)

20 . Talapina EV. Human rights on the Internet . Zhurnal rossijskogo prava [Journal of Russian Law]. 2019;(2):41-54. (In Russ .)

21 . Unukovich AS . Social engineering and cyber security: victimization aspect. Psihopedagogika vpravoohranitel'nyh organah [Psychopedagogy in law enforcement agencies] . 2021;26(3):346-351 . (In Russ .) DOI: https://doi . org/10.24412/1999-6241-2021-386-346-351 EDN: VPKZVU.

22 . Cheretskikh AV. Counteraction to negative methods of social engineering. Viktimologiya [Victimology] . 2023;10(4):474-484. (In Russ .) DOI: https://doi. org/10.47475/2411-0590-2023-10-4-474-484 EDN: JYCREI .

23 . Sundurov FR, Begishev IR, Khisamova ZI . [et al .] . Criminal Aspects of Robotics Applications . Cuestiones Políticas. 2021;39(68):596-611.DOI: https://doi . org/10,46398/cuestpol .3968.38 EDN: CVVNFT.

ИНФОРМАЦИЯ ОБ АВТОРЕ Кобец Петр Николаевич

Доктор юридических наук, профессор, главный научный сотрудник, Всероссийский научно-исследовательский институт МВД России.

121069, Москва, ул. Поварская, д. 25, стр. 1.

pkobets37@rambler.ru

https://orcid.org/0000-0001-6527-3788

КОНФЛИКТ ИНТЕРЕСОВ

Конфликт интересов отсутствует.

INFORMATION ABOUT THE AUTHOR Petr N. Kobets

Doctor of Law Sciences, Professor, Chief Researcher, All-Russia Scientific-research Institute of the Russian Ministry of Internal Affairs Address.

25 Povarskaya str., building 1, Moscow 121069, Russia.

pkobets37@rambler.ru

https://orcid.org/0000-0001-6527-3788

CONFLICT OF INTEREST

There is no conflict of interest.

Дата поступления статьи / Received: 16.12.2023.

Дата рецензирования статьи / Revised: 20.01.2024.

Дата принятия статьи к публикации / Accepted: 29.03.2024.

i Надоели баннеры? Вы всегда можете отключить рекламу.