УДК 343.34 : 004 ББК 67.408
Карпика Анатолий Григорьевич Karpika Anatoly Grigoryevich
доцент кафедры информационного обеспечения органов внутренних дел Ростовского юридического института МВД России кандидат технических наук, доцент.
Associate Professor, Department of Informational Supply of the Law Enforcement Bodies, the Rostov Law Institute of the Ministry of Internal Affairs of Russia, PhD in Engineering, Associate Professor.
АКТУАЛЬНЫЕ ВОПРОСЫ СОВЕРШЕНСТВОВАНИЯ ПРАВОВОГО И ТЕХНИЧЕСКОГО ОБЕСПЕЧЕНИЯ ПРОТИВОДЕЙСТВИЯ ПРЕСТУПЛЕНИЯМ, СОВЕРШАЕМЫМ С ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Topical issues of improving legal and technical support for countering crimes committed with the use of artificial intelligence technologies
В статье проанализированы возможности использования технологий искусственного интеллекта при подготовке и совершении преступлений. Предложены меры, направленные на совершенствование правового и технического обеспечения деятельности сотрудников органов внутренних дел по противодействию преступлениям с использованием указанных технологий.
Ключевые слова: искусственный интеллект, машинное обучение, дипфейк, правовое обеспечение, техническое обеспечение, правоохранительная деятельность.
Возможности технологий, основанных на искусственном интеллекте (ИИ) и машинном обучении (МО) в последние годы резко возросли, при этом доступность программного обеспечения, не требующего специальных знаний по его применению, значительно расширили область его применения от решения полезных задач до использования в преступных целях.
Среди наиболее заметных областей применения технологии искусственного интеллекта выделяются следующие: персональные помощники; биометрическая идентификация; поиск маршрутов; языковый перевод; управление производственными процессами.
По мере расширения возможностей и развертывания технологий искусственного интеллекта растут и риски их криминального использования как в области «чистых» информационных технологий, например в сфере кибербезопасности, так и в областях, использующих информационные технологии в качестве вспомогательного инструмента,
The article analyzes the possibilities of using artificial intelligence technologies during the preparation and commission of crimes. The authors propose measures aimed at improving the legal and technical support for the activities of law enforcement officers to combat crimes committed with the use of these technologies.
Keywords: artificial intelligence, machine learning, deepfake, legal groundwork, technical support, law enforcement activities.
повышающего их эффективность. Одни угрозы возникают, как продолжение «традиционной» преступной деятельности новыми средствами, другие же являются новыми, не имеющими аналогов ранее.
Начиная с 2010 года научным сообществом предпринимаются попытки выявить и классифицировать потенциальные угрозы, исходящие от преступных действий, совершаемых с помощью технологий искусственного интеллекта и машинного обучения.
Искусственный интеллект. Искусственный интеллект - общий термин, охватывающий широкий спектр усилий по компьютерному воспроизведению сложных человеческих способностей, таких как использование языка, видение и автономные действия. Большинство попыток искусственного интеллекта являются дискретными и решают конкретные, четко определенные задачи.
Термин «общий искусственный интеллект» используется для обозначения единой
интегрированной системы, способной решать множество различных задач одновременно, в том числе тех, с которыми она никогда раньше не сталкивалась. Несмотря на широкое использование данного термина в массовой культуре (литература, кинематограф), в настоящее время ее полноценное использование остается в перспективе, несмотря на наличие конкретных приложений, позволяющих машинам «видеть» и «общаться» с человеком на естественном языке.
Машинное обучение - множество технологий ИИ, методы которого основаны на обнаружении закономерностей в данных («снизу вверх»), а не на явном указании того, как выполнять задачу («сверху вниз»). Иными словами, имеющиеся в распоряжении данные позволяют «открыть» методы их обработки, а не наоборот. Методы машинного обучения, в первую очередь, являются статистическими и требуют больших вычислительных ресурсов и больших объемов данных. Поскольку критерии принятия решений изучаются, а не разрабатываются целенаправленно, их часто бывает трудно понять, особенно когда модели являются сложными. Это привело к критике систем машинного обучения как непрозрачных «черных ящиков», а также к активным исследованиям, чтобы сделать их интерпретируемыми и объяснимыми [1].
Различают контролируемое и неконтролируемое машинное обучение. При контролируемом МО системе во время обучения явно сообщаются правильные ответы (так называемые «ярлыки»). Например, классификатору изображений могут быть предоставлены фотографии животных с этикетками, указывающими их наименование, с целью научить систему их различать.
При неконтролируемом обучении системе явно не сообщают правильные ответы, а ищут с ее помощью потенциально представляющие интерес шаблоны, неявные связи различных данных, или объединения данных в имеющихся немаркированных наборах данных.
Учитывая все это, можно сделать вывод о том, что потенциал использования технологий ИИ достаточно велик, в том числе и в качестве инструмента для совершения преступлений либо непосредственно, либо опосредовано для обеспечения совершения преступных действий.
Проведенный анализ публикаций в зарубежных источниках [2-4] позволил выявить ряд направлений использования ИИ в преступных целях:
1. Прогнозирование поведения людей (бизнес процессов организаций) с целью обнаружения и использования неявных, или скрываемых уязвимостей.
2. Создание поддельного (фейкового) контента для использования в целях шантажа или подрыва деловой репутации.
3. Совершение действий, которые преступники лично не могут или не хотят совершать сами по причинам опасности, личных физических данных, скорости реакции.
4. Уклонение от раскрытия, или преследования за уже совершенные преступления.
5. Хищение «цифровой» личности жертвы с целью получения доступа к ее личным активам.
Степень достижения успеха злоумышленников в указанных либо других направлениях может значительно возрасти в результате двух факторов: использования технологий ИИ и того, насколько жертва преступления интегрирована в вычислительную среду.
Анализ результатов исследования, опубликованных в журнале Crime Science [5] позволил определить наиболее вероятные способы использования ИИ преступным сообществом в течение следующих 15 лет.
Их полная классификация в зависимости от вреда, который они могут причинить, потенциальной преступной выгоды или выгоды, того, насколько легко их будет выполнить и насколько сложно будет их пресечь может стать темой отдельного научного исследования. Приведем предварительные результаты проведенного анализа.
Во-первых, в виду высокой социальной опасности, целесообразно обратить внимание на использованием ИИ в беспилотных аппаратах (летательных, либо перемещающихся по земле, или воде), которые могут использоваться в террористических целях и быть оснащены системами наблюдения, вооружением, либо взрывчатыми веществами.
Во-вторых следует выделить производство «поддельного контента», который потенциально сложно быстро обнаружить и нейтрализовать. Спектр использования достаточно широк - от дискредитации конкретной личности
(организации) до хищения денежных средств путем выдачи себя за другую личность, например во время онлайн видео общения.
В последнем случае помимо несомненного ущерба интересам конкретной личности (организации) ожидаемо присутствует и косвенный ущерб, связанный с неизбежным формированием недоверия общества к аудио и визуальным свидетельствам, в том числе тем, которые потенциально могут быть использованы в качестве вещественных доказательств.
В-третьих - группа преступлений, связанных с продвижением и распространением товаров и услуг, якобы содержащих технологии ИИ. При этом, наибольшую опасность представляет их внедрение в системы безопасности, финансовые инструменты, системы управления технологическими процессами, мобильными средствами транспортировки и передвижения.
Проанализируем более подробно технологию создания убедительного искусственного контента основанную на ИИ, получившую название «deepfake» («дипфейк»).
Ее опасность вследствие преступного использования заключается в том, что люди в силу своей природы склонны верить в первую очередь собственным органам чувств, вследствие чего аудио и видео свидетельства традиционно представляются нам наиболее убедительными (в том числе при проведении расследования и судебном разбирательстве).
Сравнительно недавние разработки в области машинного обучения, в частности с использованием генеративной состязательной сети (GAN), значительно расширили возможности для создания поддельного контента. В настоящее время достигнуто убедительное олицетворение целей по фиксированному сценарию, и ожидается, что за этим последуют интерактивные олицетворения, позволяющие поддерживать диалог с использованием поддельной личности.
Генеративная состязательная сеть машинного обучения состоит из двух различных систем машинного обучения, которые постоянно соревнуются между собой с целью улучшения изучения поставленной задачи.
Генератор учится создавать выходные данные, а другой (дискриминатор) учится находить недостатки в его выходных данных. По мере того, как каждая сторона улучшается,
другая вынуждена улучшать результат своей работы, чтобы компенсировать достижения «соперника», чему способствует то, что дискриминатор отправляет генератору обнаруженные недостатки. Сети GAN в значительной степени ответственны за увеличение способности создавать убедительный «дипфейк» контент.
Воспроизведение искусственного контента от имени другого лица фактически сопоставимо с кражей личности и с нашей точки зрения вполне может быть юридически определено и признано в определенных условиях одним из наиболее опасных видов преступлений.
Так, по данным, приведенным в докладе «Обнаружение Deepfake видео с использованием рекуррентных нейронных сетей» исследователи отметили «некоторый успех в алгоритмическом обнаружении имитации», но при этом признали, что в ближайшее время гарантированного распознавания достичь не удастся. Причиной этого, по нашему мнению, стал неуклонный рост в последние 10 лет возможностей ИИ и алгоритмов машинного обучения, связанных с созданием реалистичных аудио и видео фейков. При этом технологии их обнаружения находятся в начальном состоянии и требуют серьезных инвестиций.
Кроме того, имеющиеся технологические достижения в области технологий ИИ на фоне перевода работы организаций и сотрудников на удаленную работу усилили зависимость результатов их деятельности от видеосвязи.
Так, растущее число видео и звуковых фрагментов с образцами голоса руководителей и рядовых сотрудников, доступных в сети Интернет, либо собираемых с помощью «слепых обзвонов», предоставляет преступникам достаточный объем данных, на основе которых можно проводить машинное обучение алгоритмов создания «фейковых реалистичных моделей личностей», которые затем могут использоваться для оказания влияния на бизнес процессы путем манипулирования сотрудниками и руководителями. Для убедительной имитации видео разработан ряд программных решений, например, созданная Вашингтонским университетом технология «картографирования рта» может использоваться для имитации движения рта человека во время речи с предельной точностью.
На фоне потенциальной доступности значительных объемов личной информации в Интернете и вследствие периодических утечек персональных данных клиентов различных организаций, преступники вкладывают средства в технологии, позволяющие использовать эту тенденцию. Вследствие чего можно сделать вывод о том, что новые и перспективные методы социальной инженерии, использующие реалистичные аудио и видео подделки, способны коренным образом изменить ландшафт киберугроз и стать не только технически осуществимыми, но экономически оправданными для преступных организаций любого масштаба.
В этой связи, очевидным является тезис, согласно которому массовое их применение в преступных целях является вопросом времени.
Новые продукты и услуги «дипфейк» появляются в DarkWeb. Эксперты предупреждают, что киберпреступники все чаще делятся, разрабатывают и внедряют технологии deep-fake для обхода биометрической защиты, а также в преступлениях, включая шантаж, кражу личных данных, атаки на основе социальной инженерии и многое другое.
В отчете 2020 г. «The Business of Fraud: Deepfakes, Fraud's Next Frontier Recorded Future» [6] предсказывается рост числа дип-фейков среди злоумышленников, резкий рост предложения технологий и услуг дипфейк в Dark Web - первый признак того, что готовится новая волна преступлений с широким кругом целей и интересов.
В настоящее время, по словам исследователей, дискуссии между злоумышленниками о продуктах и технологиях дипфейк в основном сосредоточены на англоязычных и русскоязычных криминальных форумах, но связанные темы также обсуждались на форумах на турецком, испанском и китайском языках.
Согласно опубликованному отчету [6], большая часть разговоров на этих подпольных форумах сосредоточена на практических рекомендациях и передовых методах, которые явно демонстрируют усилия по оттачиванию инструментов «дипфейка» в киберпреступно-сти. «Наиболее распространенные темы, связанные с «дипфейками», на форумах включали услуги (редактирование видео и изображений), практические методы и уроки, запросы о передовых методах, обмен бесплатными
загрузками программного обеспечения и генераторами фотографий, общий интерес к дип-фейкам и объявления о достижениях в технологиях deepfake».
Таким образом, следует констатировать тот факт, что технологии и инструменты создания дипфейков превратились в товар через растущее число сообществ, компьютерных приложений и сервисов, кроме этого, онлайн-при-сутствие дипфейков быстро расширяется. Это глобальное явление, поддерживаемое значительной аудиторией на различных специализированных веб-сайтах.
Для сдерживания этого явления и поэтапного перехода от сдерживания к активному противодействию со стороны правоохранительных органов предлагается комплексный подход к решению этой социально-правовой задачи.
1. В области права:
- разработать и внести в Гражданский кодекс Российской Федерации понятие «поддельное цифровое изображение личности»;
- внести в Уголовный Кодекс Российской Федерации определение «использование поддельного цифрового изображения личности без ее согласия»;
- установить административную и уголовную ответственность за «использование поддельного цифрового изображения личности без ее согласия».
2. В области криминалистического исследования, обнаружения и противодействия появляющимся дипфейкам осуществлять:
- выявление уязвимостей технологии с целью их последующей эксплуатации;
- определение цифровой целостности изображения. У каждой фотографической камеры есть свой характерный почерк. Информация об этом присутствует в метаданных файла. Если была добавлена часть фотографии, сделанной на другом аппарате, то технология искусственного интеллекта способна по особенностям пикселей, артефактам сжатия и другим характеристикам определить, что две ее части сделаны в разное время, а для их объединения использовалась графическая программа;
- определение физической целостности. Выявление в изображении явных нарушений законов физики (например, соседние объекты отбрасывают тени от разных источников света);
- определение семантической целостности. Обстоятельства реального видео или изображения должны соответствовать здравому смыслу и проверяемым фактам;
- анализ частоты морганий глаз. В большинстве случаев в открытом доступе сложно найти фотографии человека в момент моргания, так что нейронной сети может оказаться не на чем учиться генерировать подобные кадры.
Кроме этого можно обнаружить неестественные искажения лица и несоответствия положений головы, не характерные для конкретного человека выражений лица и мимики.
Литература
1. Лейлани Х. Гилпин, Дэвид Бау. Объясняющие пояснения: обзор интерпретируемости машинного обучения. URL: https://ieee-xplore.ieee.org/document/8631448.
2. Hern, A. Новый генератор поддельного текста ИИ может быть слишком опасным для выпуска, говорят создатели. URL: https://www. theguardian.com.
3. Хаббард Б. Apple и Google призвали отказаться от саудовского приложения, которое позволяет мужчинам отслеживать женщин. URL: https://www.theguardian.com.
4. Калуди Н., Ли Дж. (2020). Пейзаж кибе-ругроз на основе ИИ. ACM Computing Surveys. URL: https://www.researchgate.net/ publication/ 339081899
5. Колдуэлл М., Эндрюс Дж. Т. А., Танай Т., Гриффин Л.Д. Преступления будущего с использованием ИИ. URL: https://crimescien-cejournal.biomedcentral.com/articles/10.1186/ s40163-020-00123-8.
6. Бизнес мошенничества: дипфейки, новые рубежи мошенничества. URL: https://www. recordedfuture.com/deepfakes-frauds-next-frontier.
В заключение хотелось бы отметить, что использование технологий искусственного интеллекта вообще и машинного обучения в частности в преступных целях, несомненно, относится к новым вызовам обществу и правоохранительным органам, что стимулирует необходимость дальнейшего развития правового и технического обеспечения деятельности сотрудников полиции в области раскрытия и расследования преступлений, совершенных с использованием технологии искусственного интеллекта.
Bibliography
1. Leilani H. Gilpin, David Bowie. Explanatory explanations: an overview of the interpret-ability of machine learning. URL: https://ieee-xplore.ieee.org/document/8631448.
2. Chern A.A new fake text generator And may be too dangerous to release, the creators say. URL: https://www.theguardian.com.
3. Hubbard B. Apple and Google urged to abandon the Saudi application that allows men to track women. URL: https://www.theguardian.com.
4. Kaludi N., Lee J. (2020). The landscape of cyber threats based on AI. ACM Computing Surveys. URL: https://www.researchgate.net/ publication/339081899.
5. Caldwell M., Andrews J. T.A., Tanai T., Griffin L.D. Crimes of the future using AI. URL: https://crimesciencejournal.biomedcentral.com/ articles/10.1186/s40163-020-00123-8.
6. The business of fraud: deepfakes, new frontiers of fraud. URL: https://www.recordedfuture. com/deepfakes-frauds-next-frontier.