Научная статья на тему 'ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРАВООХРАНИТЕЛЬНОЙ ДЕЯТЕЛЬНОСТИ'

ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРАВООХРАНИТЕЛЬНОЙ ДЕЯТЕЛЬНОСТИ Текст научной статьи по специальности «Право»

CC BY
29
6
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Endless light in science
Область наук
Ключевые слова
искусственный интеллект / правоприменение / риски / возможности / этика / конфиденциальность / предвзятость / технология / информация

Аннотация научной статьи по праву, автор научной работы — Джуламанов Сабыржан Серикович, Кунакбаев Жанбулат Жанкуатович

В статье представлены результаты исследования по возможности применения искусственного интеллекта в правоохранительной деятельности, в таких сферах как: распознавание лиц, прогнозирование преступности, сокращение бумажной волокиты, интеллектуальный обмен знаниями об инцидентах, помощь в расследовании преступлений с использованием алгоритмов искусственного интеллекта. Были выделены этические и юридические аспекты использования искусственного интеллекта в правоохранительной деятельности, с акцентом на такие аспекты, как предвзятость и дискриминация, проблемы конфиденциальности, подотчетность и прозрачность, осознанное согласие. В заключение следует отметить, что, хотя перспективы использования искусственного интеллекта в правоохранительных органах многообещающи, риски, связанные с ним, требуют тщательного рассмотрения, регулирования и надзора.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРАВООХРАНИТЕЛЬНОЙ ДЕЯТЕЛЬНОСТИ»

УДК 34.06

ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ПРАВООХРАНИТЕЛЬНОЙ ДЕЯТЕЛЬНОСТИ

ДЖУЛАМАНОВ САБЫРЖАН СЕРИКОВИЧ

Старший преподаватель кафедры «Юриспруденции», Казахстанский университет инновационных и телекоммуникационных систем, г.Уральск, Республика Казахстан

КУНАКБАЕВ ЖАНБУЛАТ ЖАНКУАТОВИЧ

Старший преподаватель кафедры «Юриспруденции», Казахстанский университет инновационных и телекоммуникационных систем, г.Уральск, Республика Казахстан

Аннотация. В статье представлены результаты исследования по возможности применения искусственного интеллекта в правоохранительной деятельности, в таких сферах как: распознавание лиц, прогнозирование преступности, сокращение бумажной волокиты, интеллектуальный обмен знаниями об инцидентах, помощь в расследовании преступлений с использованием алгоритмов искусственного интеллекта. Были выделены этические и юридические аспекты использования искусственного интеллекта в правоохранительной деятельности, с акцентом на такие аспекты, как предвзятость и дискриминация, проблемы конфиденциальности, подотчетность и прозрачность, осознанное согласие. В заключение следует отметить, что, хотя перспективы использования искусственного интеллекта в правоохранительных органах многообещающи, риски, связанные с ним, требуют тщательного рассмотрения, регулирования и надзора.

Ключевые слова: искусственный интеллект; правоприменение; риски; возможности; этика; конфиденциальность; предвзятость; технология; информация

Искусственный интеллект (далее - ИИ) и робототехника стали доминирующей силой в современном мире, привлекая нас своим потенциалом для решения серьезных социальных проблем. Растущее мастерство искусственного интеллекта в автономном выявлении подозрительной активности сигнализирует о начале новой эры интеллектуальной полицейской деятельности. В некоторых регионах технологии уже превосходят человеческие в обнаружении такой активности. Когда такие передовые методы работы полиции окажутся эффективными, правоохранительным органам следует рассмотреть возможность их внедрения.

Интеграция искусственного интеллекта и робототехники в правоохранительную деятельность имеет свои преимущества и проблемы, которые требуют тщательной стратегии и распределения ресурсов. В связи с этим искусственный интеллект и робототехника вполне способны преобразить правоохранительные органы, повысив эффективность сбора, анализа и обработки информации.

Можно даже предположить, что с увеличением количества датчиков и ростом объема больших данных правоохранительные органы вскоре начнут в значительной степени полагаться на искусственный интеллект и робототехнику в борьбе с преступностью, например, китайские власти активизировали борьбу с преступлениями с использованием искусственного интеллекта в связи с резким ростом увеличение числа правонарушений в этих двух секторах. Расследование экономических и киберинцидентов уже предполагает обработку больших объемов данных. По их словам, сотрудникам уже сейчас сложно без помощи цифровых помощников собирать и анализировать все необходимые доказательства, особенно криптоактивы. Обработка ИИ электромагнитных волн от WiFi-роутера позволяет заглянуть в жилое помещение, практически не оставляя следов.

Одной из главных задач, которую необходимо решить, без сомнения, является принятие решения о том, какие системы ИИ следует регулировать. Очевидно, что некоторые системы

ОФ "Международный научно-исследовательский центр "Endless Light in Science"

ИИ, например, используемые в критически важной инфраструктуре, должны регулироваться. Однако существуют и другие системы, например, используемые в сфере развлечений или маркетинга, где решение гораздо менее очевидно. Еще одна задача - решить, как регулировать системы искусственного интеллекта. Существует целый ряд различных подходов, которые можно было бы использовать, таких как установление стандартов для разработки и использования систем искусственного интеллекта или создание новых законов для регулирования воздушного пространства.

Подходы к регулированию ИИ: Регулирование ИИ - сложная и быстро меняющаяся область. Единого ответа нет, и правильный подход будет отличаться в зависимости от конкретного применения ИИ. Однако об этом стоит подумать уже сегодня, пока ИИ не стал слишком популярным. Европа представила модели будущего европейского законодательства, регулирующего искусственный интеллект (ИИ). 8 декабря 2023 года представители Европейского парламента и Европейского совета в предварительном порядке согласовали текст Закона об искусственном интеллекте.

Законодательство направлено на установление формы управления системами искусственного интеллекта, основанной на семи требованиях: ИИ должен быть обучен работе с надежными данными и соответствовать конкретным требованиям; технология должна использоваться безопасным образом с соблюдением конфиденциальности лиц, чьи данные она обрабатывает; она должна быть прозрачной, чтобы люди могли использовать ее в своих целях, подвергаются ли они автоматизированному принятию решений, и гарантировать, что распознавание лиц и другие технологии биометрической идентификации не могут быть использованы для определения политических взглядов людей; чтобы он был законным и использовался в соответствии со всеми применимыми законами, включая законодательство о защите данных; чтобы он был защищен от кибератак; чтобы он соответствовал действующим нормативным актам; и чтобы он использовался экономно, чтобы не заменять процессы принятия решений человеком по умолчанию.

По данным Bloomberg, по состоянию на январь 2024 года в США не существует федерального законодательства в области искусственного интеллекта. На государственном и местном уровнях начинают появляться законы, ассоциации адвокатов в некоторых штатах разрабатывают этические рекомендации для юристов, использующих эту технологию, а суды борются с последствиями применения искусственного интеллекта для авторских прав.

«Меры по созданию искусственного интеллекта» были опубликованы Управлением киберпространства Китая 13 июля 2023 года и вступают в силу с 15 августа 2023 года. Меры в отношении генеративного ИИ применяются к «использованию технологии генеративного ИИ, то есть алгоритмов, моделей или других правил, для предоставления услуг по созданию текста, изображений, звука, видео и других услуг по созданию контента в Китае». Это положение будет применяться к местной китайской компании, которая подает заявку, и к иностранным поставщикам услуг генеративного ИИ, предлагающим услуги генеративного ИИ широкой общественности в Китае. Важно отметить, что мера "Меры для генеративного ИИ" -это мера для сервиса генеративного ИИ, предоставляемого населению, а не коммерческим организациям, использующим сервис генеративного ИИ.

Компания NTechLab (Россия) разработала технологию распознавания лиц FindFace SDK, которая обеспечивает идентификацию людей в местах большого скопления народа. Технология находит лица на фото или видео, затем создает шаблон и сравнивает его с данными в базе данных. Применение FindFace SDK привело к задержанию более 180 нарушителей во время проведения Чемпионата мира по футболу в 2018 году. Технология используется только в крупных городах России, таких как Москва, Санкт-Петербург, Казань, а ее применение ограничивается правилами, регулирующими обработку персональных данных и обеспечивающими конфиденциальность и безопасность граждан.

Одним из самых популярных применений технологий искусственного интеллекта является распознавание лиц. Такие программы позволяют сотрудникам правоохранительных

ОФ "Международный научно-исследовательский центр "Endless Light in Science"

органов идентифицировать людей с высокой степенью точности, освобождая их от необходимости вручную сверять документы с различными базами данных. Помимо записи фактического изображения, большинство этих программ также собирают биометрические данные. Биометрическая информация позволяет проводить более точную идентификацию. Технология распознавания лиц имеет свои сложности, но она может быть дополнена биометрической информацией для повышения точности идентификации.

Благодаря значительным достижениям последних лет, технология распознавания лиц теперь может использоваться в режиме реального времени. Например, технология распознавания лиц в режиме реального времени позволяет сравнивать записи с камер видеонаблюдения со списками известных и разыскиваемых преступников. Поскольку технология распознавания лиц работает в режиме реального времени, полиция может прибыть на место происшествия в течение нескольких минут, если программа обнаружит совпадение. Конечно, существует серьезная проблема предвзятости в распознавании лиц, и это связано с искажениями в наборах данных, которые мы передаем системе для обучения. Ожидается, что по мере совершенствования этих наборов данных и использования различных данных для обучения машин они будут становиться все лучше.

Распознавание лиц - это широко используемое приложение искусственного интеллекта, позволяющее правоохранительным органам с поразительной точностью идентифицировать людей без необходимости ручной проверки по нескольким базам данных. Эти системы не только фиксируют изображения, но и собирают биометрические данные, повышая точность идентификации. Хотя технология распознавания лиц сталкивается с определенными трудностями, ее интеграция с биометрическими данными может повысить ее эффективность.

Технология распознавания лиц используется правоохранительными органами несколькими способами, включая:

- помощь в установлении местонахождения разыскиваемых лиц;

- уменьшение количества ложных срабатываний при идентификации лиц по фотографиям;

- выявление жертв дорожно-транспортных происшествий, находящихся без сознания;

- ретроспективную проверку личности человека и сопоставление с существующими базами данных.

Такие технологии, как распознавание лиц в режиме реального времени, позволяют сравнивать видеозапись с камер видеонаблюдения с базами данных известных или разыскиваемых преступников, что позволяет полиции быстро реагировать в случае обнаружения совпадения. Однако существуют обоснованные опасения по поводу присущих распознаванию лиц искажений, которые проистекают из искажений в наборах данных, используемых для обучения этих систем. Поскольку эти наборы данных становятся все более разнообразными и всеобъемлющими, ожидается, что точность и объективность технологии распознавания лиц повысится.

Программы искусственного интеллекта способны анализировать невообразимые объемы данных, например, с камер видеонаблюдения. Помимо поиска лиц, программное обеспечение также может определять тенденции, поведение и другие взаимосвязи гораздо быстрее, чем человек. Технологии намного превосходят возможности человека, когда речь заходит об объеме данных, которые необходимо проанализировать. В то время как анализ является основой всех приложений ИИ, машинное обучение позволяет программному обеспечению делать выводы, аналогичные человеческим. Основываясь на этих результатах, ИИ может предсказывать будущее. Этот процесс может показаться простым, но машинное обучение требует времени и нескольких итераций, прежде чем алгоритм придет к значимым выводам.

Сотрудникам правоохранительных органов по всему миру приходится иметь дело с большим количеством документов. Создание и обновление досье по делам отвлекает сотрудников от работы и может поставить под угрозу безопасность граждан. Сокращение количества сообщений о преступлениях также может быть проблематичным, поскольку они

ОФ "Международный научно-исследовательский центр "Endless Light in Science"

часто являются основой для успешного раскрытия преступления. Искусственный интеллект может помочь в этом, автоматически собирая необходимые данные и тем самым сводя к минимуму время, затрачиваемое сотрудниками на составление отчетов. Сотрудникам, возможно, придется просмотреть и прокомментировать собранные данные, но это, скорее всего, займет гораздо меньше времени, чем если бы они выполнили весь процесс вручную. Запись данных с помощью технологий искусственного интеллекта и последующая проверка фактов не только экономят время. Это также сводит к минимуму вероятность человеческой ошибки или предвзятости в отчете.

В прошлом отчеты полиции о происшествиях пылились в архивах, где различные департаменты хранили бумажные копии отчетов о преступлениях и расследованиях. Технология искусственного интеллекта в сочетании с программным обеспечением для совместной работы упрощает обмен информацией между департаментами и агентствами. Обмен информацией часто означает доступ к различным базам данных и сравнение их содержимого. Это может занять часы или даже дни у одного сотрудника или даже группы сотрудников. С другой стороны, искусственный интеллект может легко сопоставлять содержимое нескольких баз данных и делиться своими выводами. По крайней мере, компьютеры способны эффективно выполнять задачи, которые люди считают скучными или монотонными, например, сортировать стопку файлов.

Сотрудники не только получают доступ к большему количеству информации, но и имеют помощника, который может обрабатывать огромные объемы данных и делать на их основе выводы, похожие на человеческие. Эта технология используется в улучшенных больших языковых моделях (Lms), таких как project Notebook LM от Google. Таким образом, такой разумный обмен знаниями приносит пользу всем вовлеченным правоохранительным органам.

Системы, основанные на искусственном интеллекте, могут имитировать реальность и проводить виртуальные тренинги для сотрудников полиции. Сотрудники получают возможность отрабатывать навыки принятия важных решений, что позволяет им быстрее реагировать и лучше ориентироваться в ситуации. Кроме того, процесс объединения искусственного интеллекта с виртуальной реальностью позволит сотрудникам отрабатывать множество реалистичных сценариев в абсолютно безопасной, но регулируемой среде. С другой стороны, искусственный интеллект может сыграть важную роль в создании персонализированных, адаптивных программ обучения для сотрудников правоохранительных органов.

Системы искусственного интеллекта, использующие алгоритмы машинного обучения, могут проводить анализ эффективности работы сотрудников, выявлять области, требующие улучшения, и, наконец, создавать учебные модули, соответствующие потребностям сотрудников. Они предоставят четкий индивидуальный план обучения сотрудников в зависимости от их когнитивных потребностей. Это приведет к индивидуальному развитию сотрудников, что приведет к повышению эффективности обучения, поскольку они будут сосредоточены на обучении. кроме того, системы, основанные на искусственном интеллекте, обеспечивают обратную связь и оценку в режиме реального времени, что позволит сотрудникам отслеживать свой прогресс и постоянно совершенствовать свои навыки, а не ждать окончания обучения и оценки в конце года.

Решения, принимаемые ИИ, так же объективны, как и данные, которые они получают: у ИИ нет предварительных чувств или мнений, поэтому их не волнует, если они предвзяты. Например, я могу судить о двух людях по тому, как они одеты, но компьютерная программа не заметит разницы. Последствия для конфиденциальности: способность искусственного интеллекта отслеживать, хранить и анализировать огромные объемы данных может привести к возникновению очень важной проблемы, связанной с нарушением конфиденциальности человека. Например, технология распознавания лиц может быть использована без разрешения и превратиться в несанкционированную слежку.

ОФ "Международный научно-исследовательский центр "Endless Light in Science"

Чрезмерная зависимость от ИИ может снизить ценность человеческой интуиции, принятия решений и контроля. Машинам, несмотря на их потенциал, не хватает моральных ценностей и понимания контекста, как это делают люди. Как и все технологические решения, системы искусственного интеллекта могут быть взломаныили дестабилизированы. В связи с этим возникает проблема целостности данных и возможности передачи ложной информации машине, чтобы ввести в заблуждение правоохранительные органы.

Мир переживает эпоху преступлений и терроризма с использованием ИИ. Преступные группировки, особенно те, которые используют всю мощь квантовых вычислений, могут создать серьезные проблемы. Потенциальное незаконное использование ИИ: кибератаки, утечка учетных данных, фейковые новости, подделка лиц, методика синтеза изображения или голоса, основанная на искусственном интеллекте(ёеерГаке). Незаконным использованием, чреватым социальными волнениями, особенно во время выборов, могут стать видеоролики, снятые с помощью искусственного интеллекта с участием кандидатов по серьезным вопросам.

В конце концов, кому нужен ненадежный сотрудник правоохранительных органов? Точно так же, как отсутствие информации о безопасности может повлиять на целостность вашей точки доступа, любые ошибки в алгоритме или в обучающих данных могут привести к высокому риску принятия несправедливых решений.

Важно подчеркнуть, что системы с поддержкой искусственного интеллекта, используемые в правоохранительных органах, должны работать в соответствии с этическими принципами. Системы искусственного интеллекта должны обеспечивать баланс между индивидуальными правами и коллективной безопасностью.

Криминалистические технологии также должны быть частью этических и правовых норм. Необходимы тщательные междисциплинарные исследования, чтобы понять возможности и ограничения применения искусственного интеллекта в правоохранительных органах и создать базу знаний, достаточную для того, чтобы законодатели и практики правоохранительных органов могли принимать решения, основанные на фактических данных.

Итак, заключение после того, как в предыдущих разделах я рассказал об этом правоохранительным органам, я понял, что мы могли бы использовать искусственный интеллект в различных областях правоохранительной деятельности, таких как распознавание лиц, прогнозирование преступности, сокращение бумажной волокиты, интеллектуальный обмен информацией о происшествиях и т.д. использование алгоритмов искусственного интеллекта и повышение эффективности обучения сотрудников правоохранительных органов.

Кроме того, существует несколько потенциальных рисков, связанных с ИИ, включая непредвзятое принятие решений, проблемы конфиденциальности, чрезмерную зависимость от технологий, потенциальное неправильное толкование, уязвимости в системе безопасности, смену работы, подотчетность и прозрачность, возможность злоупотреблений, подрыв доверия, юридические и этические последствия, предвзятость и дискриминацию, конфиденциальность, подотчетность и прозрачность и осознанное согласие должны быть сосредоточены на этике искусственного интеллекта. Хотя перспективы того, что искусственный интеллект эффективные вычисления могут дать системе уголовного правосудия, очень привлекательны, они сопряжены с определенными рисками, о которых мы также должны помнить, в том числе обеспечивать надлежащее регулирование и охрану правопорядка.

Внедрение систем распознавания лиц непременно вызывает вопросы, касающиеся защиты прав и законных интересов граждан от произвольного и несанкционированного контроля за их жизнью и поведением, а также других угроз, связанных с незаконным вмешательством в личную жизнь. В связи с этим следует стремиться к достижению баланса между интересами государства в области обеспечения общественной безопасности и интересами личности, в частности, предотвращению злоупотреблений вмешательства в личную жизнь со стороны государства

СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ:

1. И. Готлиб. По цифрам: Шесть вопросов по ИИ для штатных юристов в 2024 году // Bloomberg Law [Электронный ресурс] - Режим доступа: https://news.bloomberglaw.com/business-and-practice/by-the-numbers-six-ai-questions-for-in-house-counsel-in-2024 (Дата обращения: 10.01.2024).

2. Гундаров, А.В.Международный опыт организации информационно-аналитической деятельности в правоохранительной системе /А.В. Гундаров, Т.С. Колесова, А.В. Максименко // ЮП. - 2017. - №1(80). - С.163-168.

3. Радемахер Т. Искусственный интеллект и правоохранительная деятельность // Регулирование искусственного интеллекта. - 2020. - С. 225-254.

4. А. Гамврос, Э. Яу (Гонконг) и С. Чонг. Китай завершает разработку закона о генеративном ИИ // Отчет о защите данных. - 2023 [Электронный ресурс] - Режим доступа: https://www.dataprotectionreport.com/2023/07/china-finalises-its-generative-ai-regulation/ (Дата обращения: 22.08.2023).

5. Садыков, М.Б. Внедрение автономных систем в Объединенных Арабских Эмиратах на примере полиции Дубая: правовые и технические аспекты / М.Б. Садыков // Технологии ХХ1 века в юриспруденции: сб. ст. междунар. конфер. - 2022. - С. 162-173.

6. Бартнек, С. Проблемы конфиденциальности в ИИ. В кн.: Введение в этику в робототехнике и ИИ. Краткие сведения Спрингера по этике [Электронный ресурс] / К. Бартнек, К. Лютге, А. Вагнер, С. Уэлш // Springer, Cham. - 2021. - С. 61-70. - Режим доступа: https://doi.org/10.1007/978-3-030-51110-4_8 (Дата обращения: 11.12.2023).

7. Чао, В. Справедливость, подотчетность и прозрачность: заметки об алгоритмическом принятии решений в уголовном правосудии / В. Чао // Международный юридический журнал в контексте. - 2019. - №2(15). - С. 126-139.

8. Рассел С. Искусственный интеллект. Современный подход / С. Рассел, П. Норвиг. — 2-е изд. — Москва : Вильямс, 2018. — 1408 с.

9. Финн В.К. Искусственный интеллект: методология, применения, философия / В.К. Финн. — Москва : Красанд, 2018. — 448 с.

i Надоели баннеры? Вы всегда можете отключить рекламу.