Научная статья на тему 'Технологии искусственного интеллекта в преступной деятельности: новые угрозы и вызовы'

Технологии искусственного интеллекта в преступной деятельности: новые угрозы и вызовы Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
0
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / современные технологии / ChatGPT / правонарушения / преступная деятельность / правоохранительная деятельность / artifi cial intelligence / modern technologies / ChatGPT / off enses / criminal activity / law enforcement activity

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Осипенко Анатолий Леонидович

Рассматриваются интенсивно развивающиеся технологии искусственного интеллекта. Анализируются реальные и прогнозируемые угрозы их применения преступным сообществом. Исследуются возможности технологий генеративного искусственного интеллекта. Выявляются перспективные направления использования искусственного интеллекта в правоохранительной деятельности.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Artifi cial intelligence technologies in criminal activity: new threats and challenges

Intensively developing artifi cial intelligence technologies are considered. The real and predicted threats of the use of artifi cial intelligence by the criminal community are analyzed. The possibilities of generative artifi cial intelligence technologies are being explored. Promising areas for the use of artifi cial intelligence in law enforcement are identifi ed.

Текст научной работы на тему «Технологии искусственного интеллекта в преступной деятельности: новые угрозы и вызовы»

Осипенко Анатолий Леонидович

Технологии искусственного интеллекта в преступной деятельности: новые угрозы и вызовы

Рассматриваются интенсивно развивающиеся технологии искусственного интеллекта. Анализируются реальные и прогнозируемые угрозы их применения преступным сообществом. Исследуются возможности технологий генеративного искусственного интеллекта. Выявляются перспективные направления использования искусственного интеллекта в правоохранительной деятельности.

Ключевые слова: искусственный интеллект, современные технологии, ChatGPT, правонарушения, преступная деятельность, правоохранительная деятельность.

Artificial intelligence technologies in criminal activity: new threats and challenges

Intensively developing artificial intelligence technologies are considered. The real and predicted threats of the use of artificial intelligence by the criminal community are analyzed. The possibilities of generative artificial intelligence technologies are being explored. Promising areas for the use of artificial intelligence in law enforcement are identified.

Keywords: artificial intelligence, modern technologies, ChatGPT, offenses, criminal activity, law enforcement activity.

Криминальный мир в современных условиях проходит этап глубоких трансформаций: существенно повышаются его организованность и профессионализм, кардинально меняется характер транснациональной деятельности, интенсивно адаптируются к решению широкого спектра криминальных задач технологические достижения, массово переносятся в теневые области киберпространства традиционные виды преступной деятельности, совершенствуются формы организационного построения и взаимодействия криминальных образований, методов управления ими и поддержания коммуникации внутри них. Важнейшим фактором данных процессов становится использование криминалом новейших информационных технологий, в первую очередь технологий искусственного интеллекта. Все это требует адекватного реагирования со стороны правоохранительных органов, адаптации их деятельности к особым условиям цифровой реальности.

На фоне значительного увеличения количества преступлений, совершенных с использованием информационных технологий1, Прези-

1 По итогам 2022 г. в России выявлено более 522 тыс. преступлений, совершаемых с использованием информационно-телекоммуникационных технологий, что составляет 22% от общего количества уголовно наказуемых правонарушений, причем 71% уголовных дел, возбужденных по фактам таких преступлений, приостановлены, поскольку лицо, подлежащее привлечению в качестве обвиняемого, не установлено. Причиной этого МВД России называет от-

дент Российской Федерации В.В. Путин в марте 2023 г. на расширенном заседании коллегии МВД России борьбу с такими преступлениями обозначил в качестве одного из безусловных приоритетов работы правоохранительных органов2. В государственных программных документах «Научно-технологическое развитие Российской Федерации» и «Национальная стратегия развития искусственного интеллекта до 2030 года» в перечне наиболее значимых технологий, задающих темпы перехода к информационному обществу, названы анализ больших данных, нейротехнологии и искусственный интеллект, квантовые технологии, Интернет вещей, компоненты робототехники и сенсорика, технологии беспроводной связи, виртуальной и дополненной реальности. Центральное место среди них занимают интенсивно развивающиеся технологии искусственного интеллекта (далее - ИИ). В Национальной стратегии развития искусственного интеллекта ИИ определяется как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач

сутствие «достаточных оперативных возможностей как по документированию фактов преступной деятельности, так и по раскрытию совершенных преступлений» [1].

2 См.: Официальный сайт Президента Российской Федерации. Расширенное заседание коллегии МВД России.

URL: http://kremlin.ru/events/president/news/70744 (дата обращения: 21.09.2023).

15

результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека» [2]. Ключевыми с учетом эффективности соответствующих алгоритмов сегодня являются системы ИИ на базе искусственных нейронных сетей, основанные на процессах машинного обучения. Нейронные сети самостоятельно обучаются на больших массивах исходных данных, а после обучения способны решать определенные интеллектуальные задачи и выдавать верный результат при входных данных, не использовавшихся в обучении. Технологии использования нейронных сетей постоянно совершенствуются, в результате чего повышается сложность решаемых интеллектуальных задач, расширяется спектр специфических предметных областей, в которых они демонстрируют высокую эффективность.

Разумеется, возможности современных технологий ИИ не остаются без внимания преступного мира. Их разработка носит децентрализованный характер, многие из них распространяются с открытым исходным кодом, что существенно облегчает криминалу доступ к ним. Реальные и прогнозируемые угрозы применения ИИ преступностью уже нашли отражение в научных работах [3]. На начальном этапе внедрение технологий ИИ было характерно для высокоорганизованных криминальных сообществ (таких, как торговцы оружием, наркокартели и т.п.)3. В последнее время все чаще фиксируется их применение в самых различных видах преступной деятельности для достижения конкретного преступного результата (взлом компьютерной системы, организация DDoS-атаки и т.п.) за счет доступа по схеме «преступление как услуга». Известны факты применения ИИ для создания вредоносных программ, совершенствования мошеннических схем в финансовой сфере, подключения ботов с целью продажи наркотиков в социальных сетях, генерации фальшивого контента в конкурентной и политической борьбе и т.п.

Стоит согласиться с тем, что основной угрозой в анализируемой сфере является возможность «целенаправленного комплексного воздействия на психику больших целевых групп с целью получения конкретных дивидендов за счет психологического управления целевыми аудиториями. Благодаря развитию технологий ИИ данная угроза уже стала существенным фактором, оказывающим непосредственное влияние на повседневную реальность» [5].

3 Так, в планировании наркотрафика делается ставка на транспортировку с помощью роботов и беспилотных транспортных средств, управляемых ИИ [4].

В крайне обострившейся международной обстановке многие политические субъекты, приобретающие ярко выраженный криминальный характер, могут добиваться своих целей по подрыву международной информационно-психологической стабильности через применение технологий ИИ при информационно-психологическом воздействии на массовое сознание, манипулировании общественным мнением, распространении пропаганды [6]. В социальных сетях с этой целью все чаще применяются чат-боты, которые вполне достоверно имитируют действия пользователей сетей, генерируют и распространяют в широкой аудитории сообщения, пропагандирующие экстремистские идеи, содержащие криминальные установки и призывы к деструктивной активности. Кроме того, на основе анализа больших данных ИИ способен прогнозировать развитие событий при конкретных целевых психологических воздействиях на аудиторию, выявлять наиболее эффективные направления и способы их применения для решения поставленных задач, разрабатывать на этой основе стратегию реализации криминальных информационно-психологических операций.

Особое распространение получает применение методов психологического манипулирования в мошеннических схемах, призванных с использованием ложной информации, которая выдается за достоверную, побудить жертву к совершению поступков (выдаче персональных данных, передаче денежных средств) в интересах манипулятора. Такие методы принято называть методами социальной инженерии4. В последнее время появляются данные об использовании технологий ИИ для совершенствования указанных схем [5]. При этом за счет анализа данных из интернет-источников могут составляться индивидуальные психологические портреты целевых жертв, выявляться их наиболее уязвимые места и с учетом этого определяться наиболее эффективные методы психологического воздействия5. Добавим,

4 Методы социальной инженерии - это совокупность психологических приемов, технических действий по применению программных средств, технологий в процессе подготовки, непосредственного совершения и сокрытия преступления, направленных на оказание психологического воздействия на сознание и поведение людей, создание условий, необходимых для дистанционного хищения чужого имущества [7].

5 Так, специалисты компании йагМгасе связывают зафиксированное в 2023 г. резкое увеличение атак с использованием социальной инженерии по электронной почте,

при которых пользователи получают мошеннические письма, практически неотличимые от настоящих сообщений, с применением мошенниками ИИ-технологий. В частности, по их мнению, на это указывает присутствие в письмах фраз, составленных с использованием «сложных лингвистических методов» [8].

16

что ИИ может применяться мошенниками для формирования и маскировки под официальные фиктивных профилей в социальных сетях, с которых рассылаются сообщения потенциальным жертвам.

Усиление воздействия происходит и за счет применения так называемых дипфейков (англ. deepfake), которые представляют собой видео-и аудиофрагменты, содержащие результаты синтеза изображения и голоса конкретного человека, осуществленного с применением ИИ. Такие материалы способны легко ввести целевую аудиторию в заблуждение6. Прогнозируется, что по мере развития технологий сфальсифицированные с применением ИИ аудио- и видеозаписи будут практически неотличимы от реальных [10]. Повысятся качество и доступность соответствующих приложений, что приведет к взрывному росту попыток использования дипфейков в противоправной деятельности.

Эксперты также предупреждают о новых рисках, список которых будет расширяться, в том числе за счет количественно и качественно новых форм воздействия на индивидуальное и общественное сознание. Особым направлением криминального использования технологий ИИ становится организация атак на компьютерные системы, в том числе управляемые ИИ (например, роботизированные самообучающиеся транспортные системы), с целью перехвата контроля над ними [11]. Есть сообщения о планировании маскировки убийств под несчастные случаи в результате сбоя в управляемых компьютерами медицинских комплексах [12].

Исследователи выделяют несколько основных направлений применения технологий ИИ в организации кибератак [6]: а) масштабирование с существенным увеличением мощности кибератак, скорости и продолжительности их воздействия; б) повышение автономности и эффективности вредоносного программного обеспечения; в) поиск уязвимостей в атакуемых системах, получение данных об их структуре, анализ целевой среды, определение оптимального метода проникновения в нее и получения максимального негативного эффекта; г) повышение скрытности кибератак; д) усиление направленности атак для поражения конкретных целей при минимизации нежелательных последствий; е) повышение мощности и

6 Широкую известность в 2019 г. получило использование преступниками голосового дипфейка, «когда управляющий директор британской энергетической компании, получив звонок от якобы главы материнской компании в Германии (была синтезирована речь главы компании), перевел преступникам 243 тыс. долл.» [9].

продолжительности DDoS-атак; ж) определение оптимальной стратегии атаки.

Очередной импульс повышению интереса криминала к использованию ИИ придало появление в 2022 г. в широком доступе технологий генеративного ИИ, формирующих новые данные на основе шаблонов и структур, полученных в результате обобщения известных данных при обучении ИИ. Контент при этом генерируется в различных формах представления данных (текст, изображение, музыка и т.п.). Широкое распространение получила разработанная в компании OpenAI7 модель ИИ ChatGPT - большая языковая модель (LLM), основанная на архитектуре генеративного предварительно обученного преобразователя (Generative Pretrained Transformer - GPT). Разработчики ChatGPT ставили цель создать мощную языковую модель ИИ, способную справляться с широким спектром задач обработки естественного языка, включая понимание языка, генерацию текста, машинный перевод и анализ данных. Система ChatGPT с помощью нейронной сети обучена на внушительном массиве текстовых данных8, настроена на генерацию чат-ботом релевантных диалоговых «человекоподобных» ответов на запросы пользователей и допускает настройку для решения конкретных задач, отвечающих уникальным потребностям пользователей в различных сферах деятельности9. Глубокое обучение позволяет ChatGPT выявлять закономерности и взаимосвязи между словами и фразами на естественном языке, что обеспечивает эффективность формирования последовательных и реалистичных ответов в диалоге с человеком. Одним из наиболее важных качеств ChatGPT является способность определять контекст в текстовом диалоге, что существенно повышает релевантность ответов.

В настоящее время ChatGPT признан одним из наиболее эффективных инструментов с широким арсеналом приложений, предназначенных для решения задач обработки естественного языка, таких как генерация текста и понимание языка, и выдающих результаты, в высокой степени схожие с получаемыми человеком10. В кратчайшие сроки ChatGPT «за-

7 Компания OpenAI основана И. Маском и С. Альтманом в 2015 г. для исследований в области ИИ.

8 Набор данных содержал более 45 терабайт текста [13].

9 Формируя соответствующие запросы, можно получить в ответ литературное произведение, статью или реферат на заданную тему, базовый программный код, сформировать резюме статьи, составить алгоритм оптимальных действий для достижения обозначенной цели и т.п.

10 Компания Microsoft в январе 2023 г. объявила об инвестировании 10 млрд долл. в ChatGPT и вскоре представила результаты интеграции возможностей чат-бота в при-

17

воевал огромную популярность и стал самым быстрорастущим потребительским приложением с более чем 1,5 миллиардами посещений в месяц. В настоящее время он входит в число 20 лучших веб-сайтов мира» [14]. В то же время принадлежащая Google исследовательская лаборатория DeepMind уже заявила, что ее следующая LLM Gemini будет превосходить по своим возможностям модель ChatGPT [15]. О новой версии LLM Ernie 3.5, более мощной, чем ChatGPT, «по комплексным показателям способностей», заявила и китайская компания Baidu [16]. Отечественные производители также предлагают аналогичные модели ИИ (уже появились мультимодальная версия нейросе-ти GigaChat от Сбера и нейросеть YaLM 2.01 от Яндекса, которую интегрируют в сервисы «Поиск», «Алиса», «Почта»). Дальнейшее развитие предполагает интеграцию ChatGPT с системами распознавания голоса и изображения, что обеспечит более интерактивный и динамичный диалоговый интерфейс.

В то же время нельзя не заметить, что результаты применения технологий ИИ нередко приводят к ошибочным выводам об их «всемогуществе». Важно понимать, что этим технологиям присущи существенные ограничения, на которые мы уже указывали ранее [17]: зависимость эффективности функционирования от качества исходных правил и данных, закладываемых на начальном этапе; непрозрачность применяемых алгоритмов, отсутствие способов представления причинно-следственных связей и логических выводов; неспособность к интеграции абстрактных знаний; исходная установка на решение задач в стабильном мире с заранее определенными правилами.

Кроме того, у ChatGPT есть собственные ограничения, снижающие эффективность его применения:

1. ИИ выдает ответы, которые считает наиболее достоверными с учетом информации, вводившейся при обучении нейронной сети. При этом могут образовываться ошибки, или так называемые «галлюцинации»: в качестве верных выдаются ложные данные, не соответствующие действительности, вводящие пользователя в заблуждение. Эта проблема со временем усугубляется в результате устаревания массива данных, на котором производилось обучение нейросети.

2. Правильность ответа, формируемого ChatGPT, в значительной степени зависит от

ложения компании, в частности в поисковую систему Bing. О выпуске собственных языковых моделей ИИ объявили и другие компании (Alphabet, Amazon, Nvidia и др.).

формулировки вопроса и уточняющих подсказок. Соответственно, для получения качественных ответов оператор должен обладать определенными навыками [18].

3. ChatGPT наделен алгоритмической предвзятостью: на начальной стадии в модели и исходных данных могут быть заложены предрассудки, сказывающиеся на правильности сгенерированного контента и снижении доверия к нему.

4. Отсутствие прозрачности процессов принятия решений и предоставления информации приводит к тому, что результаты, выдаваемые ChatGPT, нередко довольно трудно интерпретировать и объяснять [19].

Таким образом, как инструмент для решения конкретных задач описанные технологии ИИ полезны только в том случае, когда четко определена и опробована область их применения и учтены все ограничения. Так, они не могут полностью заменить экспертные, аналитические и поисковые системы, поскольку выдают не точный, а наиболее вероятный результат, полностью зависящий от качества заложенных первоначальных данных. Системы на основе больших языковых моделей не способны определить и обосновать правильность своего ответа, соответствие его реальности (например, составленный с использованием ChatGPT правовой документ может ссылаться на нормы, отсутствующие в законе, а научная статья - на работы несуществующих ученых).

Несмотря на отмеченные ограничения, ChatGPT активно используется в противоправной деятельности, прежде всего в социальной инженерии для автоматизации подготовки фи-шинговых писем с учетом особенностей целевой аудитории. При этом тексты более точно имитируют стилистику конкретных субъектов и для потенциальных жертв выглядят достаточно достоверно и убедительно. Более того, с использованием ChatGPT может быть организован диалог с жертвой, в ходе которого стратегия психологического манипулирования уточняется с учетом ее эмоционального состояния и содержания ответов. Высокую эффективность ChatGPT обеспечивает при распространении дезинформации, генерировании фальшивых новостей, дискредитирующих противника, формировании отклоняющегося поведения.

ChatGPT может использоваться преступниками, не имеющими глубоких технических знаний, для автоматизированной генерации вредоносных программ на различных языках программирования, а для опытных хакеров открываются возможности создавать особо

18

сложное кибероружие нового поколения, применение которого чревато серьезными последствиями: «оно будет обладать гораздо большей степенью "инвазивности", точности, сможет вызывать лишь необходимые эффекты или же целый каскад эффектов, надолго парализовать работу ведомства или предприятия, скрытно находясь в системе и осуществляя длительное воздействие, приводя к систематическим сбоям в работе» [6].

ChatGPT способен собрать и обобщить информацию об особенностях объекта преступления и тем самым значительно ускорить процесс планирования преступных действий на этапе их подготовки. По данным отчета Европола, подготовленного в 2023 г., преступник, не обладающий специальными знаниями, может получить подробные инструкции о наиболее эффективных способах совершения различных видов преступлений - «начиная от того, как проникнуть в чужой дом, заканчивая терроризмом, киберпреступностью и сексуальным насилием над детьми» [20]. Причем при составлении рекомендаций будут учтены особые условия, обозначенные в запросе. Наконец, преступники могут применять эти технологии «для создания ложной информации, которая потенциально может быть использована для манипулирования расследованиями и создания ложных доказательств» [18].

Особую опасность использование ChatGPT приобретает в сочетании с технологиями deepfake и OSINT11 на основе анализа больших данных. По оценке специалистов Европола, интеграция ИИ с различными сервисами может «открыть совершенно новое измерение потенциальных приложений». Так, предсказывается появление мультимодальных систем ИИ, которые объединят диалоговые чат-боты с системами создания синтетических медиа с убедительными дипфейками, а также с системами, обладающими сенсорными способностями (зрение, слух); ожидается размещение «темных LLM» в Даркнете и предоставление оплачиваемых услуг специализированных чат-ботов для достижения противоправных целей [20].

11 Технологии OSINT (от англ. Open Source Intelligence -разведка на основе открытых источников информации) -это технологии сбора и анализа информации из открытых источников (СМИ, Интернет, социальные сети, базы данных, другие общедоступные источники), которые применяются в различных областях, в том числе в правоохранительной деятельности (в первую очередь для выявления и раскрытия преступлений и лиц, их совершающих). Для доступа к важным сведениям при этом не требуется применять процедуру получения судебных решений либо иных разрешающих документов.

Осознавая высочайшую опасность угроз, возникающих в связи с использованием технологий ИИ криминалом, постоянное расширение их спектра, повышение доступности мощных моделей и отсутствие особых требований к используемому ими оборудованию, правительства многих стран, международные организации и крупные корпорации требуют наложения ограничений на развитие и применение указанных технологий. Так, специалисты из OpenAI заявляют, что «в ближайшие годы "суперинтеллект" (AGI)12 станет гораздо более мощным, чем любые другие технологии, с которыми человечеству приходилось сталкиваться ранее» [22]. С учетом потенциальных угроз для человечества они видят необходимость в координации действий правительств крупнейших стран, компаний и организаций, которые будут способствовать плавной интеграции AGI в гражданское общество, и призывают создать международный наблюдательный орган (по образцу МАГАТЭ), который будет контролировать развитие ИИ (проводить аудит, проверять на соответствие стандартам безопасности, накладывать ограничения и т.д.).

Отдельные государства и международные организации уже предпринимают шаги по разработке правовых норм, регламентирующих требования к использованию систем ИИ. В июле 2023 г. Генеральный секретарь ООН А. Гутерриш призвал к созданию глобального органа по надзору за регулированием ИИ, а Европарламент установил стандарт, в соответствии с которым будут строго запрещены системы ИИ с неприемлемым уровнем риска для безопасности людей, включая системы, использующие скрытые или целенаправленно манипулятивные техники, эксплуатирующие «уязвимости» людей, применяемые для социального скоринга (классификации людей на основе их социального поведения, социально-экономического статуса, личных характеристик) [23]. Ограничено использование систем ИИ в таких видах полицейской деятельности, как удаленное биометрическое распознавание в общедоступных местах в режиме реального времени (с единственным исключением для правоохранительных органов в случае расследования тяжких преступлений после получения судебного разрешения); прогнозирующие полицейские системы (основанные на про-

12 Исследователи из Microsoft определяют ИИ общего назначения (AGI) как «систему, способную рассуждать на уровне человеческого разума, планировать действия и учиться как люди, а в некоторых случаях быстрее и эффективнее», и считают, что разработка GPT-4 стала значительным шагом на пути к его созданию [21].

19

филировании, местоположении или прошлом криминальном поведении); системы распознавания эмоций (в правоохранительных органах, пограничных службах, на рабочих местах, в учебных заведениях); неизбирательное извлечение биометрических данных из социальных сетей или видеозаписей с камер видеонаблюдения для создания баз данных распознавания лиц. В то же время нельзя исключать, что именно в названных направлениях организованная преступность сосредоточит поиск вариантов реализации новых криминальных схем.

Практически всегда запаздывающую реакцию законодателя в сфере регулирования информационных технологий в данном случае дополнительно сдерживают различные труднопреодолимые факторы. Так, регулирование ИИ явно не может осуществляться в отдельных государствах «лоскутным методом», без участия всех основных заинтересованных сторон. Но с учетом напряженности международной обстановки нет уверенности в том, что в обозначенной сфере удастся достичь значимых договоренностей. При этом в интенсивном развитии ИИ заинтересованы очень разные силы, нередко имеющие противоположные интересы и преследующие самые разные цели (в том числе военные, криминальные и террористические), и вполне предсказуемо, что соответствующие технологии будут и далее распространяться неуправляемо и независимо от границ.

Полагаем, что названные обстоятельства должны побуждать к активному поиску путей эффективного реагирования правоохранительной системы на использование криминалом технологий ИИ, а также применения данных технологий в противодействии преступности. В этом отношении одной из важнейших задач является разработка для системы противодействия информационным операциям эффективных средств, обеспечивающих своевременное выявление признаков таких операций. Принимая во внимание тот факт, что когнитивных возможностей человека по анализу и осмыслению огромного массива информации в глобальной медиасфере явно недостаточно, специалисты утверждают, что при разработке указанной системы следует использовать технологии ИИ, обеспечивающие своевременное реагирование на признаки готовящихся информационных операций, в том числе опровержение планируемых к распространению фейк-новостей [5]. По данным Роскомнадзора, ИИ уже можно использовать для проверки фактов и автоматического выявления дезинформации в Интернете за счет применения имеющихся технологий об-

наружения дипфейков, определения контекста происходящего на видео, автоматизации мониторинга и модерации контента, распознавания лиц и эмоций, извлечения смысла из текста, проверки фактов, распознавания символики, извлечения и анализа метаданных, поддержки различных решений при информационных атаках [24]. Такие технологии могут быть адаптированы для поиска оперативно значимой информации о преступлениях в Даркнете, который представляет собой развивающуюся систему обеспечения анонимной активности пользователей, функционирующую на основе использования обширной и сложно структурированной сети веб-сайтов, не индексируемых традиционными поисковыми системами.

Перспективным представляется использование возможностей технологий ИИ при выявлении и расследовании преступлений, в первую очередь связанных с использованием телекоммуникационных сетей, для их мониторинга и диагностики на предмет выявления как скрытых, зашифрованных, так и открыто размещаемых данных, содержащих, например, признаки или призывы к осуществлению экстремистских действий либо обосновывающие или оправдывающие необходимость их совершения [25-27].

Важно определиться с тем, какое место технологии ИИ занимают, в том числе в перспективе, в доказывании по уголовному делу: стоит ли «воспринимать их исключительно как инструмент, с помощью которого можно получить те или иные имеющие значение для уголовного дела сведения, которые могут быть облечены в форму доказательств, или же мы можем говорить о том, что меняется сама природа доказывания в уголовном процессе и оно из сферы человеческого познания трансформируется в сферу машинного познания, где человеку отводится роль лишь фиксатора его результатов в конкретном правоприменительном решении» [28].

С учетом утверждения создателей ChatGPT о том, что ИИ превзойдет в компетентности большинство людей-экспертов в профессиональных областях, нельзя оставлять без внимания возможности, предоставляемые такими моделями ИИ для раскрытия и расследования преступлений. Системы на их основе, обученные на специализированных данных, следует внедрять для обобщения огромных массивов информации об особенностях определенных видов преступлений и использовать для формирования рабочих версий и алгоритмов рекомендуемых действий следователя в конкретных следственных ситуациях. В определенных случаях они

20

помогут выявить скрытые взаимосвязи фигурантов и событий по уголовному делу, сформировать подлежащие проверке следственные версии, которые при обычном подходе скорее всего могли бы остаться незамеченными, определить потенциальных подозреваемых, помочь в установлении причинно-следственных связей.

Кроме того, подобные системы могут быть полезны для выявления неявных повторяющихся закономерностей, учитываемых в криминалистических характеристиках различных видов преступной деятельности, для формирования типового портрета потенциального преступника, прогностического моделирования и прогнозирования проблемных ситуаций в расследовании. Они могут быть задействованы и для выявления скрытых связей между различными уголовными делами, проверки выдвигаемых версий, анализа их достоверности, сопоставления установленных обстоятельств по делу и показаний свидетелей с целью обнаружения противоречий, указывающих на ошибки в расследовании, формирования рекомендаций по его организации, уточнению плана действий следователя.

Аналитическая обработка на основе ИИ материалов множества уголовных дел позволит определять наиболее эффективные стратегии расследования, моделировать потенциальные результаты их реализации и на этой основе принимать соответствующие решения. Как уже отмечалось выше, нейросети нередко выдают искаженную информацию или даже генерируют данные о вымышленных событиях, однако подготовленные ими отчеты могут быть полезны в аналитической работе. Кроме того, при условии достижения высокого уровня достоверности получаемых ответов подобная система может использоваться для консультирования начинающих сотрудников, не обладающих достаточным опытом, обучения их на основе обобщенных знаний и установленных закономерностей. При этом опытными специалистами должны выявляться неточности в предлагаемых решениях, потенциальные риски и составляться рекомендации разработчикам систем для их устранения.

С учетом возможностей, предоставляемых новыми информационно-аналитическими технологиями, у сотрудников правоохранительных органов необходимо формировать компетенции использования программного обеспечения, позволяющего при расследовании преступлений: идентифицировать подозреваемых, свидетелей, разыскиваемых лиц по широкому спектру признаков (лицо, голос, походка, рисунок вен

на руках, микромоторика мышц, поведенческие признаки и др.); обобщать криминалистически значимые данные о конкретных лицах (об их физическом состоянии, маршрутах перемещений, конкретном местоположении, покупках и финансовых транзакциях, интересах, устойчивых связях, способах общения, периодичности и продолжительности сеансов связи), формировать на этой основе досье на таких лиц; определять роли отдельных участников, получать информацию о распределении обязанностей в преступных группах; выделять в информационных потоках сведения о представляющих оперативный интерес фактах, обстоятельствах, связях, зависимостях, а также признаки, свидетельствующие о скрываемой криминальной активности [17]. Часть полученных данных, находящихся в открытом доступе, при должном оформлении может быть использована в доказывании.

Для эффективного противодействия использованию технологий ИИ в преступной деятельности, очевидно, следует обеспечить и должный уровень уголовно-правового регулирования соответствующих общественных отношений. В то же время, полагаем, высказываемые отдельными исследователями предложения о дополнении ч. 1 ст. 63 УК РФ пунктом «совершение преступления с использованием искусственного интеллекта или технологий, созданных на его основе» [29] пока следует признать преждевременными. Это связано, в частности, со сложностью и отсутствием общепризнанного понятия данного явления [30].

Подводя итоги, следует отметить, что можно не верить в грядущее всемогущество ИИ, однако недооценивать особые вызовы и угрозы, которые он в своем текущем состоянии порождает в области противодействия преступности, пренебрегать возможностями, которые благодаря ему возникают у правоохранительных органов, недопустимо. Постоянное расширение использования технологий ИИ создает принципиально новые условия работы с оперативно значимой информацией, их необходимо активно осваивать оперативным сотрудникам и следователям. В то же время внедрение технологий ИИ в оперативно-служебную деятельность правоохранительных органов должно сопровождаться реализацией мер обеспечивающего характера (совершенствование правовой базы с целью создания условий для доступа к массивам данных из различных систем; улучшение материально-технического обеспечения; обновление системы подготовки, переподготовки и повышения квалификации кадров, привлечение опыта и ресурсов бизнес-сообщества).

21

1. Мухаметшина Е., Солопов М. МВД расширяет перечень мероприятий для документирования преступлений с использованием информтехнологий [Электронный ресурс]. URL: https://www.vedomosti.ru/society/ articles/2023/08/16/990319-mvd-rasshiryaet-perechen-operativno-rozisknih-meropriyatii-dlya-dokumentirovaniya-kiberprestuplenii (дата обращения: 21.09.2023).

2. О развитии искусственного интеллекта в Российской Федерации [Электронный ресурс]: указ Президента РФ от 10 окт. 2019 г. № 490. URL: http://publication.pravo.gov.ru/ Document/View/0001201910110003?index=2&ra ngeSize=1 (дата обращения: 23.10.2023).

3. King Т., Aggarwal N., Taddeo M. Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions [Электронный ресурс] // SciEngEthics. 2019. URL: https:// doi.org/10.1007/s11948-018-00081-0 (дата обращения: 23.10.2023).

4. Mackey T., Kalyanam J., Katsuki T., Lanckriet G. Machine learning to detect prescription opioid abuse promotion and access via Twitter [Электронный ресурс] // American Journal of Public Health. 2017. 107(12). URL: https://doi.org/10.2105/AJPH.2017.303994 (дата обращения: 23.10.2023).

5. Михалевич Е.А., Урумов А.О. Проблемы злонамеренного использования искусственного интеллекта в контексте международной информационно-психологической безопасности на круглом столе в Дипломатической академии МИД РФ // Пролог: журнал о праве. 2021. № 4. С. 109-123.

6. Себекин С.А. Угрозы международной информационной безопасности в эпоху Индустрии 4.0 [Электронный ресурс]. URL: https://russiancouncil. ru/activity/policybriefs/ugrozy-mezhdunarodnoy-informatsionnoy-bezopasnosti-v-epokhu-industrii-4-0/(дата обращения: 23.10.2023).

7. Старостенко Н.И. Понятие и виды методов социальной инженерии, применяемых при совершении преступлений в сфере информационно-телекоммуникационных технологий // Юридическая наука и практика: Вестник Нижегородской академии МВД России. 2023. № 1(61). С. 152-159.

8. Novel social engineering attacks soar 135% amid uptake of generative AI [Электронный ресурс]. URL: https://www.itpro.com/

1. Mukhametshina E., Solopov M. Ministry of Internal Affairs expands the list of measures for documenting crimes using information technologies [Web resource]. URL: https://www. vedomosti.ru/society/articles/2023/08/16/990319-mvd-rasshiryaet-perechen-operativno-rozisknih-meropriyatii-dlya-dokumentirovaniya-kiberprestuplenii (date of access: 21.09.2023).

2. On the development of artificial intelligence in the Russian Federation [Web resource]: decree of the President of the Russian Federation d.d. Oct. 10, 2019 No. 490. URL: http://publication.pravo. gov. ru/Document/View/0001201910110003?inde x=2&rangeSize=1 (date of access: 23.10.2023).

3. King T, Aggarwal N., Taddeo M. Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions [Web resource] // SciEngEthics. 2019. URL: https://doi. org/10.1007/s11948-018-00081-0 (date of access: 23.10.2023).

4. Mackey T., Kalyanam J., Katsuki T., Lanckriet G. Machine learning to detect prescription opioid abuse promotion and access via Twitter [Web resource] // American Journal of Public Health. 2017. 107(12). URL: https:// doi.org/10.2105/AJPH.2017.303994 (date of access: 23.10.2023).

5. Mikhalevich E.A., Urumov A.O. Problems of the malicious use of artificial intelligence in the context of international psychological security at the round table in the Diplomatic MFA RF Academy // Prologue: a magazine about law. 2021. No. 4. P. 109-123.

6. Sebekin S.A. Threats to international information security in the era of Industry 4.0 [Web resource]. URL: https://russiancouncil.ru/ activity/policybriefs/ugrozy-mezhdunarodnoy-informatsionnoy-bezopasnosti-v-epokhu-industrii-4-0/ (date of access: 23.10.2023).

7. Starostenko N.I. The concept and types of social engineering methods used in the commission of crimes in the field of information and telecommunication technologiess // Legal science and practice: Bulletin of Nizhny Novgorod Academy of the Ministry of Internal Affairs of Russia. 2023. No. 1(61). P. 152-159.

8. Novel social engineering attacks soar 135% amid uptake of generative AI [Web resource]. URL: https://www.itpro.com/technology/artificial-intelligence-ai/370366/social-engineering-attacks-generative-ai-soar-135 (date of access: 23.10.2023).

22

technology/artificial-intelligence-ai/370366/social-engineering-attacks-generative-ai-soar-135 (дата обращения: 23.10.2023).

9. Лексютина Я. В. Злонамеренное использование дипфейков: риски информационно-психологической безопасности Японии // Японские исследования. 2021. № 3. С. 90-101.

10. Bendel O. The synthetization of human voices [Электронный ресурс] // AI and Society. 2019. Vol. 34. Iss. 1. URL:https://doi.org/10.1007/s00146-017-0748-x (дата обращения: 17.10.2023).

11. Пашенцев Е.Н. Злонамеренное использование искусственного интеллекта: новые угрозы для международной информационно-психологической безопасности и пути их нейтрализации // Государственное управление. Электронный вестник. 2019. № 76.

12. Вепрев С.Б., Нестерович С.А. О некоторых криминальных направлениях в использовании искусственного интеллекта // Вестник науки. 2019. № 6(15). Т. 2.

13. GPT Evolution [Электронный ресурс]. URL: https://medium.com/the-techlife/evolution-of-openais-gpt-models-8148e6214ee7 (дата обращения: 23.10.2023).

14. ChatGPT показывает первое с момента запуска снижение трафика [Электронный ресурс]. URL: https://dsmedia.pro/analytics/ chatgpt-pokazyvaet-pervoe-s-momenta-zapuska-snizhenie-trafika (дата обращения: 23.10.2023).

15. DeepMind утверждает, что их следующий чат-бот будет конкурировать с ChatGPT [Электронный ресурс]. URL: https:// dsmedia.pro/news/deepmind-utverzhdaet-chto-ih-sledujuschij-chat-bot-budet-konkurirovat-s-chatgpt (дата обращения: 23.10.2023).

16. Baidu заявляет, что ее новый ИИ по некоторым показателям превзошел ChatGPT [Электронный ресурс]. URL: https://dsmedia. pro/news/baidu-zajavljaet-chto-ee-novyj-ii-po-nekotorym-pokazateljam-prevzoshel-chatgpt (дата обращения: 23.10.2023).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

17. Осипенко А.Л Оперативно-розыскная деятельность в информационном обществе: адаптация к условиям цифровой реальности // Научный вестник Омской академии МВД России. 2019. № 4.

18. Ларина Е., Овчинский В. ChatGPT и борьба с преступностью: влияние генеративных моделей ИИ на криминалистику и оперативно-розыскную деятельность [Электронный ресурс] // Завтра. 2023. 22 мая. URL: https://

9. Leksyutina Ya.V. Malicious use of deepfakes: Risks for Japan's information and psychological security // Japanese Studies in Russia. 2021. No. 3. P. 90-101.

10. Bendel O. The synthetization of human voices [Web resource] // AI and Society. 2019. Vol. 34. Iss. 1. URL: https://doi.org/10.1007/ s00146-017-0748-x (date of access: 17.10.2023).

11. Pashentsev E.N. Malicious use of artificial intelligence: new threats to international information and psychological security and ways to neutralize them // Public Administration. Electronic newsletter. 2019. No. 76.

12. Veprev S.B., Nesterovich S.A. On some criminal trends in the use of artificial intelligence // Bulletin of science. 2019. No. 6(15). Vol. 2.

13. GPT Evolution [Web resource]. URL: https:// medium.com/the-techlife/evolution-of-openais-gpt-models-8148e6214ee7 (date of access: 23.10.2023).

14. ChatGPT shows the first decrease in traffic since its launch [Web resource]. URL: https:// dsmedia.pro/analytics/chatgpt-pokazyvaet-pervoe-s-momenta-zapuska-snizhenie-trafika (date of access: 23.10.2023).

15. DeepMind says their next chatbot will compete with ChatGPT [Web resource]. URL: https://dsmedia.pro/news/deepmind-utverzhdaet-chto-ih-sledujuschij-chat-bot-budet-konkurirovat-s-chatgpt (date of access: 23.10.2023).

16. Baidu claims that its new AI has surpassed ChatGPT in some respects [Web resource]. URL: https://dsmedia.pro/news/baidu-zajavljaet-chto-ee-novyj-ii-po-nekotorym-pokazateljam-prevzoshel-chatgpt (date of access: 23.10.2023).

17. Osipenko A.L. Crime detection in an information society: Adaptation to the conditions of digital reality // Scientific bulletin of the Omsk Academy of the Ministry of Internal Affairs of Russia. 2019. No. 4.

18. Larina E., Ovchinsky V. ChatGPT and the fight against crime: the influence of generative AI models on forensics and operational investigative activities [Web resource] // Tomorrow. 2023. May 22. URL: https://zavtra.ru/blogs/chatgpt_i_bor_ ba_s_prestupnost_yu (date of access: 23.10.2023).

19. ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope [Web resource] // Internet of Things and Cyber-Physical Systems. 2023. Vol. 3. URL: https://doi. org/10.1016/j.iotcps.2023.04.003 (date of access: 23.10.2023).

23

zavtra.ru/blogs/chatgpt_i_bor_ba_s_prestupnost_ yu (дата обращения: 23.10.2023).

19. ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope [Электронный ресурс] // Internet of Things and Cyber-Physical Systems. 2023. Vol. 3. URL: https://doi. org/10.1016/j.iotcps.2023.04.003 (дата обращения: 23.10.2023).

20. Europol. ChatGPT - the impact of Large Language Models on Law Enforcement [Электронный ресурс]. URL: https://www.europol. europa.eu/publications-events/publications/ chatgpt-impact-of-large-language-models-law-enforcement (дата обращения: 17.10.2023).

21. Sparks of Artificial General Intelligence: Early experiments with GPT-4 [Электронный ресурс] // Microsoft Research. Apr. 2023. URL: https://arxiv.org/pdf/2303.12712.pdf (дата обращения: 23.10.2023).

22. Governance of superintelligence [Электронный ресурс]. URL: https://openai.com/blog/ governance-of-superintelligence (дата обращения: 23.10.2023).

23. Европарламент установил первый в мире стандарт для систем ИИ [Электронный ресурс] // Securitylab.ru. 2023. 12 мая. URL: https://www.securitylab.ru/news/538130.php (дата обращения: 23.10.2023).

24. РКН хочет использовать искусственный интеллект для борьбы с дезинформацией в Интернете [Электронный ресурс]. URL: https:// www.gazeta.ru/tech/news/2023/04/24/20269003. shtml (дата обращения: 23.10.2023).

25. Тишутина И.В. Частная криминалистическая теория преодоления противодействия расследованию: трансформация в условиях цифровизации // Известия Тульского государственного университета. Экономические и юридические науки. 2021. № 2.

26. Сретенцев Д.Н., Волкова Д. Р. Перспективы внедрения искусственного интеллекта в сферу расследования преступлений // Российский следователь. 2021. № 11.

27. Климова Я.А. Искусственный интеллект и цифровые доказательства в расследовании преступлений, совершенных с использованием современных информационно-коммуникационных технологий // Вестник Волгоградской академии МВД России. 2023. № 1(64).

28. Спиридонов М.С. Технологии искусственного интеллекта в уголовно-процес-

20. Europol. ChatGPT - the impact of Large Language Models on Law Enforcement [Web resource]. URL: https://www.europol.europa.eu/ publications-events/publications/chatgpt-impact-of-large-language-models-law-enforcement (date of access: 17.10.2023).

21. Sparks of Artificial General Intelligence: Early experiments with GPT-4 [Web resource] // Microsoft Research. Apr. 2023. URL: https:// arxiv.org/pdf/2303.12712.pdf (date of access: 23.10.2023).

22. Governance of superintelligence [Web resource]. URL: https://openai.com/blog/governance-of-superintelligence (date of access: 23.10.2023).

23. The European Parliament established the world's first standard for AI systems [Web resource] // Securitylab.ru. 2023. May 12. URL: https://www.securitylab.ru/news/538130.php (date of access: 23.10.2023).

24. RKN wants to use artificial intelligence to combat disinformation on the Internet [Web resource]. URL: https://www.gazeta.ru/tech/ news/2023/04/24/20269003. shtml (date of access: 23.10.2023).

25. Tishutina I.V. Private criminalistic theory of overcoming counteraction to investigation: transformation in the conditions of digitalization // News of Tula State University. Economic and legal sciences. 2021. No. 2.

26. Sretentsev D.N., Volkova D.R. Prospects for the introduction of artificial intelligence systems in crime investigation // Russian investigator. 2021. No. 11.

27. Klimova Y.A. Artificial intelligence and digital evidences while investigating crimes committed through the use of modern information and communication technologies // Bulletin of the Volgograd Academy of the Ministry of Internal Affairs of Russia. 2023. No. 1(64).

28. Spiridonov M.S. Artificial intelligence technologies in criminal procedural proving [Web resource] // Journal of Digital Technologies and Law. 2023. No. 2. URL: https://cyberleninka.ru/ article/n/tehnologii-iskusstvennogo-intellekta-v-ugolovno-protsessualnom-dokazyvanii (date of access: 01.11.2023).

29. ArkhiptsevI.N., SarychevA.V., MotuzovA.V. On the issue of legal support for the prevention of crimes committed using artificial intelligence and technologies created on its basis in the Russian Federation // Legal Concept = Legal paradigm. 2022. Vol. 21, No. 2.

24

суальном доказывании [Электронный ресурс] // Journal of Digital Technologies and Law. 2023. № 2. URL: https://cyberleninka.ru/article/n/ tehnologii-iskusstvennogo-intellekta-v-ugolovno-protsessualnom-dokazyvanii (дата обращения: 01.11.2023).

29. Архипцев И.Н., Сарычев А.В., Мотузов А.В. К вопросу о правовом обеспечении предупреждения преступлений, совершаемых с использованием искусственного интеллекта и технологий, созданных на его основе в Российской Федерации // Legal Concept = Правовая парадигма. 2022. Т. 21, № 2.

30. Аверинская С.А., Севостьянова А.А. Создание искусственного интеллекта с целью злонамеренного использования в уголовном праве Российской Федерации // Закон и право. 2019. № 2.

30. Averinskaya S.A., Sevostyanova A.A. On the legal support for the prevention of crimes committed using artificial intelligence and technologies created on its basis in the Russian Federation // Statute and law. 2019. No. 2.

СВЕДЕНИЯ ОБ АВТОРЕ

Осипенко Анатолий Леонидович, доктор юридических наук, профессор, заместитель начальника Краснодарского университета МВД России по научной работе; тел.: +78612584050.

INFORMATION ABOUT AUTHOR

A.L. Osipenko, Doctor of Sciences in Jurisprudence, Professor, Deputy Chief on Scientific Work, Krasnodar University of the Ministry of the Interior of Russia; ph.: +78612584050.

25

i Надоели баннеры? Вы всегда можете отключить рекламу.