Научная статья на тему 'ТЕХНОЛОГИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ПРАВОВЫЕ И СОЦИАЛЬНЫЕ АСПЕКТЫ ВНЕДРЕНИЯ, ПРОБЛЕМА ДОВЕРИЯ'

ТЕХНОЛОГИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ПРАВОВЫЕ И СОЦИАЛЬНЫЕ АСПЕКТЫ ВНЕДРЕНИЯ, ПРОБЛЕМА ДОВЕРИЯ Текст научной статьи по специальности «Право»

CC BY
32
8
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
цифровая трансформация / искусственный интеллект / цифровое право / безопасность личности / информационная безопасность / утечка информации / digital transformation / artificial intelligence / digital law / personal security / information security / information leakage

Аннотация научной статьи по праву, автор научной работы — Малёшина Людмила Михайловна

Актуальность темы обусловлена востребованностью технологии искусственного интеллекта, являющегося одним из главных направлений цифровой трансформации. Выявлен высокий спрос на «умные» технологии при недостаточном уровне знаний в данной области. Определены факторы, вызывающие негативное отношение к инновациям. Анализ тенденций позволил определить необходимость развития нормативно-правовой базы, обеспечивающей внедрение технологии, отвечающей требованиям безопасности и эффективности.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Artificial intelligence technology: legal and social aspects of implementation, trust problem

The relevance of the topic is due to the demand for artificial intelligence technology, which is one of the main directions of digital transformation. A high demand for "smart" technologies was revealed with an insufficient level of knowledge in this area. The factors causing a negative attitude towards innovations are determined. Trend analysis identified the need to develop a regulatory framework that ensures the implementation of technology that meets safety and efficiency requirements.

Текст научной работы на тему «ТЕХНОЛОГИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ПРАВОВЫЕ И СОЦИАЛЬНЫЕ АСПЕКТЫ ВНЕДРЕНИЯ, ПРОБЛЕМА ДОВЕРИЯ»

DOI 10.47643/1815-1337_2023_9_139 УДК 340:004.8

ТЕХНОЛОГИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ПРАВОВЫЕ И СОЦИАЛЬНЫЕ АСПЕКТЫ ВНЕДРЕНИЯ, ПРОБЛЕМА ДОВЕРИЯ

Artificial intelligence technology: legal and social aspects of implementation, trust problem

МАЛЁШИНА Людмила Михайловна,

кандидат технических наук, доцент,

доцент кафедры «Правовое обеспечение государственного управления и экономики», Российский университет транспорта (МИИТ). 127994, Россия, г. Москва, ул. Образцова, д. 9, стр. 9. E-mail: docentglm@gmail.com;

MALESHINA Lyudmila Mikhailovna,

PhD of technical sciences, Associate Professor, Associate Professor

of the Department "Legal Support of Public Administration and Economics",

Russian University of transport.

127994, Moscow, Obrastsova str., 9, bld. 9, Russia.

E-mail: docentglm@gmail.com

Краткая аннотация. Актуальность темы обусловлена востребованностью технологии искусственного интеллекта, являющегося одним из главных направлений цифровой трансформации. Выявлен высокий спрос на «умные» технологии при недостаточном уровне знаний в данной области. Определены факторы, вызывающие негативное отношение к инновациям. Анализ тенденций позволил определить необходимость развития нормативно-правовой базы, обеспечивающей внедрение технологии, отвечающей требованиям безопасности и эффективности.

Abstract. The relevance of the topic is due to the demand for artificial intelligence technology, which is one of the main directions of digital transformation. A high demand for "smart" technologies was revealed with an insufficient level of knowledge in this area. The factors causing a negative attitude towards innovations are determined. Trend analysis identified the need to develop a regulatory framework that ensures the implementation of technology that meets safety and efficiency requirements.

Ключевые слова: цифровая трансформация, искусственный интеллект, цифровое право, безопасность личности, информационная безопасность, утечка информации.

Keywords: digital transformation, artificial intelligence, digital law, personal security, information security, information leakage.

Для цитирования: Малешина Л.М. Технология искусственного интеллекта: правовые и социальные аспекты внедрения, проблема доверия //Право и государство: теория и практика. 2023. № 9(225). С. 139-142. http://doi.org/10.47643/1815-1337_2023_9_139.

For citation: Maleshina L.M. Artificial intelligence technology: legal and social aspects of implementation, trust problem // Law and state: theory and practice. 2023. No. 9(225). pp. 139-142. http://doi.org/10.47643/1815-1337_2023_9_139.

Статья поступила в редакцию: 20.07.2023

Проникновение технологий искусственного интеллекта (далее - ИИ) в различные сферы жизни общества способно изменить социальную реальность не только жителей отдельных стран, наиболее развитых в научно-технологическом плане, но и всего мира. Для развития ИИ, создания преимуществ, ускорения инновационных изменений разрабатываются национальные программы и стратегии. Китай одним из первых утвердил «План развития искусственного интеллекта [нового] поколения» (2017). В этом важном документе изложен план проектирования, в котором представлен национальный подход к разработке технологий и приложений ИИ, а также поставлены общие цели до 2030 года. В России «Национальная стратегия развития искусственного интеллекта на период до 2030 года» была утверждена Указом Президента РФ от 10 октября 2019 г. № 490, а в соответствии с ней был разработан федеральный проект «Искусственный интеллект».

Технология искусственного интеллекта основана на принципе имитации когнитивной деятельности человека для решения задач от самых простых до самых сложных [1]. Разработчики в этой области добиваются успехов в имитации таких действий, как обучение, рассуждение и восприятие, а в повседневную жизнь внедрены «умные» видеокамеры, способные распознавать документы, идентифицировать личность в режиме реального времени [2]. Системы визуальной навигации нашли применение как при беспилотном управлении транспортными средствами [3], так и в алгоритмах движения человекообразных роботов [4].

В 2022 г. искусственный интеллект стал мейнстримом благодаря широкому знакомству с генеративными предварительно обученными преобразователями (Generative Pre-Training Transformer), самым популярным из которых являлось приложение ChatGPT от американской компании, занимающейся исследованиями и внедрением ИИ - OpenAI. Широкое увлечение ChatGPT сделало его синонимом искусственного интеллекта в сознании многих пользователей, но данный продукт в настоящее время является лишь одним из способов использования технологии ИИ.

Примеров использования ИИ множество, но при этом остаются актуальными ряд вопросов: 1) Готовы ли мы к повсеместному внедрению искусственного интеллекта, передаче ему функций человека? 2) Можно ли возложить на ИИ принятие решений, связанных с жизнью человека? 3) Как отразиться внедрение систем ИИ на востребованности на рынке труда специалистов различного профиля?

Особое внимание со стороны государственных и коммерческих организаций к мнению граждан к искусственному интеллекту обусловлено тем, что именно доверие населения является важнейшим условием, определяющим возможность применения технологий ИИ в различных сферах.

Одним из вариантов использования ИИ являются системы беспилотных автомобилей, которые проходят испытания в разных странах на заранее определенных и ограниченных маршрутах. Но дорожно-транспортные происшествия (далее - ДТП) являются одной из ключевых проблем тех, кто разрабатывает и использует данную технологию. На сегодняшний день зарегистрированы не только мелкие аварии с участием беспилотных транспортных средств, но и ДТП со смертельным исходом [3, 5]. При этом актуальным остается вопрос «Кто несет ответственность за аварию с участием транспортного средства, управляемого ИИ?». Специалисты проходят к выводу, что «для каждого уровня автоматизации следует определить свой субъект, который будет нести уголовную ответственность» [5]. При этом эксперты сходятся во мнении, что ответственность за аварию должна нести компания, отвечающая за проектирование или производство беспилотного автомобиля, если транспортное средство содержит дефект.

Отметим, что острым моментом при внедрении технологии ИИ является угроза снижения занятости населения, а следовательно ухудшение экономического положения людей. Поскольку многие отрасли стремятся автоматизировать рабочие функции с помощью интеллектуального оборудования, то существует опасение, что люди будут вытеснены со своих рабочих мест. Например, беспилотные транспортные средства могут устранить необходимость в такси и программах совместного использования автомобилей, в это же время производители могут заменить человеческий труд машинами, что сделает навыки людей устаревшими.

Еще в 2020 году компания «Ромир» совместно с международным исследовательским сообществом GlobalNR изучили отношение граждан 10 стран к автомобилям без водителей: Индия стала лидером по индексу одобрения (71%) беспилотных систем, а жители Великобритании в наименьшей степени поддержали данную технологию (27%). И только треть опрошенных россиян высказались за внедрение беспилотных технологий.

В 2022 году большинство россиян, опрошенных всероссийским центром изучения общественного мнения (ВЦИОМ), по заказу аналитического центра при правительстве РФ, к распространению технологий искусственного интеллекта относятся положительно или нейтрально, при этом только 36% смогли дать определение ИИ. Участвовавшие в опросе, декларировали повышение уровня распространенности применения технологий ИИ в различных сферах (рис. 1), а также высокую готовность личного использования сервисов на основе ИИ и получения знаний в данной области (52%).

Системы видеонаблкдения Робототехника В вооружении и военной технике Приложения для вызова такси Приложения для онлайн-заказов Приложения для обработки фотографий Медицина Логистика Служба го^ержки клиентов Финансовая сфера ЖКХ

0% 20% 40 % 50% В0% 100%

Рис. 1. Сферы распространенности применения технологий ИИ (на основе ответов россиян, принявших участие в опросах ВЦИОМ)

В настоящее время россияне не готовы доверить системам, управляемых ИИ, принятие конечных решений в различных сферах. Например, 74% респондентов считают допустимым использование ИИ при оказании медицинских услуг только в роли помощника, а решение оставляют за человеком. Также 59% россиян выступают против замены водителей технологией ИИ при управлении транспортными средствами на дорогах общего пользования. Недоверие к инновациям со стороны россиян вызвано негативными последствиями от их внедрения, такими как риск принятия ошибочных решений (54%), нарушение личного пространства, хищения персональных данных (62%).

В тоже время статистический анализ данных аналитических отчетов экспертно-аналитического центра группы компаний InfoWatch позволил сделать вывод, что именно персонал компаний является виновником инцидентов информационной безопасности, допуская утечки конфиденциальной информации (рис. 2). Отметим, что с 2018 года в России растет доля утечек информации по вине внешних нарушителей, но вместе с тем все сложнее проводить исследования по вектору воздействия. В 2022 году значительно уменьшилось количество сведений, позволяющих идентифицировать утечки, при том, что за период 2017-2021 гг. доля неопределенных случаев не превышала 5% (URL: https://www.infowatch.ru/analytics/). Доля таких утечек в России за 2022 год составила 80,4%, при этом, по мнению аналитиков InfoWatch, доступ к конфиденциальным данным получили хаке-

ры во многих случаях с возможным участием персонала компаний.

Внешний нарушитель ■ Внутренний нарушитель Неопределенный вектор атаки

100,0% 35

90, оя

2017 г.. 2017 г.. 2018 г., 201S г, 2019 г.. 2019 г, 2020 г.. 2020 г.. 2021 г.. 2021 г., 2022 г.. 2022 г.. Мир Россия Мир Россия Мир Россия Мир Россия Мир Россия Мир Россия

Рис. 2. Распределение утечек по вектору воздействия, 2017 - 2022 гг.

Для реализации угроз информационной безопасности злоумышленники используют вредоносное программное обеспечение в сочетании с эксплуатацией уязвимостей и методами социальной инженерии. По аналитическим данным российской компании Positive Technologies в 2022 году доля инцидентов с использованием социальной инженерии в атаках на частных лиц увеличилась с 88% до 93% относительно 2021 года, а в 16% успешных атак, направленных на организации, нарушителям удалось получить доступ к корпоративным информационным системам и ресурсам с помощью компрометации учетных данных. Почти в 9 из 10 успешных атак на организации, в которых использовалась социальная инженерия, злоумышленники отправляли вредоносные письма по электронной почте (URL: https://www.ptsecurity.com/ru-ru/research/analytics/).

По мнению автора внедрение технологий искусственного интеллекта для обработки информационных ресурсов позволит уменьшить число сотрудников, имеющих доступ к конфиденциальной информации и соответственного уменьшить объём утечек. Но при этом нужно учесть, что и системы ИИ могут иметь уязвимости, присущие современному программному обеспечению [6] и быть атакованы нарушителями информационной безопасности. Для уменьшения возможного ущерба от успешной реализации угроз можно использовать систему адаптивной системы защиты информации, алгоритмы раннего обнаружения вредоносной активности, но в настоящее время одним из ключевых направлений в защите от кибератак является использование искусственного интеллекта.

Таким образом, проведенный анализ, показал, что технологии искусственного интеллекта востребованы как при обработке больших объемов данных, содержащих в том числе информацию ограниченного доступа, так и при защите информационных систем от кибератак.

В мире достигнут определенный прогресс в направлении создания и применения технологий искусственного интеллекта, это лишь вопрос времени, когда системы ИИ станут повсеместным явлением. Но при всех преимуществах ИИ, у него есть препятствие для развития и внедрения, а именно сам человек, который выражает недоверие к новым технологиям и не обладает необходимыми знаниями. Зачастую у пользователей информационных систем происходит путаница понятий искусственный интеллект и робототехника. Заметим, что программы без ИИ выполняют определенную последовательность инструкций, а системы ИИ, имитируя человеческий разум, способны обучаться. Система образования должна помочь в формировании компетенций в области прорывных цифровых технологий, таких как интернет вещей, искусственный интеллект, виртуальная реальность, беспроводная связь, дополненная реальность. Внедрение инновационных технологий является следствием «цифровой трансформации», определенной в [7] как «внедрение в деятельность организации цифровых инструментов, направленных на реинжиниринг их бизнес-процессов и существенное повышение их эффективности, создание качественно новых продуктов и процессов».

В России сделаны серьезные шаги для обеспечения доверия к системам искусственного интеллекта со стороны потребителей их результатов, разработан государственный стандарт 59276-2020 «Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения», который вступил в силу 1 марта 2021 г. В системах ИИ должно быть устранено максимальное количество факторов, способных привести к снижению их надежности. Способы обеспечения доверия на всех стадиях жизненного цикла данных систем должны дополнять друг друга, так как каждый из них обладает как преимуществами, так и недостатками. Для повышения эффективности использования систем ИИ при решении прикладных задач 1 марта 2021 г. введен также стандарт 59277-2020 «Системы искусственного интеллекта. Классификация систем искусственного интеллекта», отражающий основные особенности данных систем, помогающий определить направления их стандартизации. Согласно Национальной стратегия развития искусственного интеллекта до 2030 года к 2024 г. должен существенно повыситься уровень участия

российских специалистов в международном обмене знаниями, их вклад в создание открытых библиотек ИИ. А к 2030 г. должно быть разработано программное обеспечение, в котором используются технологии ИИ, для решения задач в различных сферах деятельности.

Таким образом, исследование выявило проблемы и перспективы развития технологий ИИ. Представленный анализ показал, что общество в целом положительно относится к внедрению систем искусственного интеллекта, недоверие же вызвано опасением за качество решения задач, возложенных на ИИ, в том числе в области информационной безопасности. В работе предложено передать функции по обработке информации ограниченного доступа системам ИИ, так как было выявлено, что именно инсайдеры является основным каналом утечки данных. В свою очередь технологии ИИ могут помочь в защите от кибератак, уменьшить возможный ущерб за счет сокращения времени обнаружения информационных угроз и реагирования на них. Поэтому одной из важных задач является развитие нормативно-правовой базы, обеспечивающей внедрение инновационных технологий, отвечающих требованиям безопасности и эффективности.

Библиография:

1. Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») // Собрание законодательства РФ. 14.10.2019 г. № 41. ст. 5700.

2. Петров А. А. Новейшие инструменты четвертой промышленной революции и цифровые механизмы контроля и управления обществом // Chronos. -2020. - № 8(47). - С. 24-34.

3. Малешина Л. М., Хорошева А. В. Внедрение интеллектуальных транспортных технологий как инструмент повышения безопасности транспортной среды // Транспортное право и безопасность. - 2022. - № 2(42). - С. 164-172.

4. Жмудь В. А., Носек Я., Димитров Л. Введение в робототехнику // Автоматика и программная инженерия. -2019. - № 4(30). - С. 34-49.

5. Цирит О. А., Татьянина А. Н. О некоторых вопросах уголовной ответственности за ДТП с участием беспилотного автомобиля // Вопросы российской юстиции. - 2019. - № 4. - С. 461-471.

6. Habibu T., Sam A. E. Assessment of vulnerabilities of the biometric template protection mechanism. International Journal of Advanced Technology and Engineering Exploration. - 2018. - Vol. 5 (45). - Р. 243-254.

7. Приказ Минцифры России от 28.02.2022 № 143 «Об утверждении методик расчета показателей федеральных проектов национальной программы "Цифровая экономика Российской Федерации" и признании утратившими силу некоторых приказов Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации об утверждении методик расчета показателей федеральных проектов национальной программы "Цифровая экономика Российской Федерации"» // Федеральная служба государственной статистики. URL: https://rosstat.gov.ru/storage/mediabank/MET110002.pdf (дата обращения 17.07.2023).

References:

1. Decree of the President of the Russian Federation of October 10, 2019 No. 490 "On the development of artificial intelligence in the Russian Federation" (together with the "National strategy for the development of artificial intelligence for the period until 2030") // Collected Legislation of the Russian Federation. October 14, 2019 No. 41. art. 5700.

2. Petrov A. A. The latest tools of the fourth industrial revolution and digital mechanisms of control and management of society // Chronos. - 2020. - No. 8(47). - Р. 2434.

3. Maleshina L. M., Khorosheva A. V. Introduction of intelligent transport technologies as a tool to improve the safety of the transport environment // Transport Law and Security. - 2022. - No. 2(42). - Р. 164-172.

4. Zhmud V. A., Nosek Ya., Dimitrov L. Introduction to robotics // Automation and software engineering. -2019. - No. 4(30). - Р. 34-49.

5. Tsirit O. A., Tatyanina A. N. On some issues of criminal liability for road accidents involving an unmanned vehicle // Issues of Russian Justice. - 2019. - No. 4. - Р.

461-471.

6. 6. Habibu T., Sam A. E. Assessment of vulnerabilities of the biometric template protection mechanism. International Journal of Advanced Technology and Engineering Exploration. - 2018. - Vol. 5 (45). - Р. 243-254.

7. Order of the Ministry of Digital Development of Russia No. 143 dated February 28, 2022 "On approval of methods for calculating indicators of federal projects of the national program "Digital Economy of the Russian Federation" and invalidating some orders of the Ministry of Digital Development, Communications and Mass Media of the Russian Federation on approval of methods for calculating indicators of federal projects national program "Digital Economy of the Russian Federation" // Federal State Statistics Service. URL: https://rosstat.gov.ru/storage/mediabank/MET110002.pdf (Accessed 07/17/2023).

i Надоели баннеры? Вы всегда можете отключить рекламу.