Научная статья на тему 'ПРЕДОТВРАЩЕНИЕ УЩЕРБА ПОТРЕБИТЕЛЕЙ ОТ ИСПОЛЬЗОВАНИЯ ИНСТРУМЕНТОВ ЦИФРОВИЗАЦИИ: МЕТОДОЛОГИЧЕСКИЕ ОСНОВЫ ФОРМИРОВАНИЯ ЭТИКИ ПРИМЕНЕНИЯ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА'

ПРЕДОТВРАЩЕНИЕ УЩЕРБА ПОТРЕБИТЕЛЕЙ ОТ ИСПОЛЬЗОВАНИЯ ИНСТРУМЕНТОВ ЦИФРОВИЗАЦИИ: МЕТОДОЛОГИЧЕСКИЕ ОСНОВЫ ФОРМИРОВАНИЯ ЭТИКИ ПРИМЕНЕНИЯ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
121
36
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЭТИКА ЦИФРОВЫХ ТЕХНОЛОГИЙ / ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / ИНФОРМАЦИОННОЕ ОБЩЕСТВО / РАЗВИТИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ДЛЯ УПРАВЛЕНИЯ / ЦИФРОВЫЕ ПРОДУКТЫ / ЦИФРОВОЕ ГОСУДАРСТВО / УПРАВЛЕНИЕ ПРОДУКТОМ / ЭТИКА ЦИФРОВОЙ ЭКОНОМИКИ / ИСПОЛЬЗОВАНИЕ ДАННЫХ / УПРАВЛЕНИЕ НА ДАННЫХ / БАЗА ЗНАНИЙ / ТАКСОНОМИЯ ЦИФРОВОЙ ЭКОНОМИКИ / ИНЦИДЕНТЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / ЦИФРОВАЯ ТРАНСФОРМАЦИЯ / ЦИФРОВАЯ КУЛЬТУРА

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Прохоров Юрий Николаевич

Развитие цифровой экономики, информационного общества и датацентричного государства ставит новые проблемы и задачи, связанные с этичным использованием данных при разработке и развитии цифровых продуктов, применении цифровых технологий, в первую очередь при создании и применении систем искусственного интеллекта в различных сферах и отраслях национальной экономики и государственного управления. Вопросам этичного использования данных и алгоритмов искусственного интеллекта все большее внимание уделяется в зарубежных станах, с высоким уровнем цифровой зрелости, определенные шаги и исследования в этой сфере проводятся и в России. Важным является гармонизация нормативно-правовых актов, юридических аспектов с фактической практикой развития цифровых продуктов и сервисов. Для всестороннего анализа необходимо форсирование базы знаний о практике и инцидентах, возникающих в ходе использования накопленных данных и функционирования искусственного интеллекта, для всестороннего экспертного, правового, технологического анализа, общественного обсуждения и формирования соответствующей общественно-государственной позиции по данной проблеме, развития цифровой культуры и этики, с целью определения допустимой обработки и персонификации данных, долгосрочного их хранения, информационной безопасности, анализа и решения этические проблем, возникающие при работе с данными и цифровыми технологиями.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PREVENTION OF DAMAGE TO CONSUMERS FROM THE USE OF DIGITALIZATION TOOLS: METHODOLOGICAL FOUNDATIONS FOR THE FORMATION OF ETHICS FOR THE USE OF ARTIFICIAL INTELLIGENCE SYSTEMS

The development of the digital economy, the information society and the data-centric state poses new problems and challenges related to the ethical use of data in the development and development of digital products, the use of digital technologies, primarily in the creation and application of artificial intelligence systems in various fields and sectors of the national economy and public management. The issues of the ethical use of data and artificial intelligence algorithms are increasingly being paid attention in foreign countries with a high level of digital maturity; certain steps and research in this area are also being carried out in Russia. It is important to harmonize legal acts, legal aspects with the actual practice of developing digital products and services. For a comprehensive analysis, it is necessary to boost the knowledge base about practices and incidents that arise during the use of accumulated data and the functioning of artificial intelligence, for a comprehensive expert, legal, technological analysis, public discussion and the formation of an appropriate public and state position on this issue, the development of digital culture and ethics, in order to determine the permissible processing and personalization of data, their long-term storage, information security, analysis and solution of ethical problems that arise when working with data and digital technologies.

Текст научной работы на тему «ПРЕДОТВРАЩЕНИЕ УЩЕРБА ПОТРЕБИТЕЛЕЙ ОТ ИСПОЛЬЗОВАНИЯ ИНСТРУМЕНТОВ ЦИФРОВИЗАЦИИ: МЕТОДОЛОГИЧЕСКИЕ ОСНОВЫ ФОРМИРОВАНИЯ ЭТИКИ ПРИМЕНЕНИЯ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА»

Предотвращение ущерба потребителей от использования инструментов цифровизации: методологические основы формирования этики применения систем искусственного интеллекта

Прохоров Юрий Николаевич,

к.э.н., доцент кафедры финансового менеджмента и финансового права Московского городского университета управления Правительства Москвы им. Ю.М. Лужкова E-mail: proyuri@mail.ru

Развитие цифровой экономики, информационного общества и датацентричного государства ставит новые проблемы и задачи, связанные с этичным использованием данных при разработке и развитии цифровых продуктов, применении цифровых технологий, в первую очередь при создании и применении систем искусственного интеллекта в различных сферах и отраслях национальной экономики и государственного управления. Вопросам этичного использования данных и алгоритмов искусственного интеллекта все большее внимание уделяется в зарубежных станах, с высоким уровнем цифровой зрелости, определенные шаги и исследования в этой сфере проводятся и в России. Важным является гармонизация нормативно-правовых актов, юридических аспектов с фактической практикой развития цифровых продуктов и сервисов. Для всестороннего анализа необходимо форсирование базы знаний о практике и инцидентах, возникающих в ходе использования накопленных данных и функционирования искусственного интеллекта, для всестороннего экспертного, правового, технологического анализа, общественного обсуждения и формирования соответствующей общественно-государственной позиции по данной проблеме, развития цифровой культуры и этики, с целью определения допустимой обработки и персонификации данных, долгосрочного их хранения, информационной безопасности, анализа и решения этические проблем, возникающие при работе с данными и цифровыми технологиями.

Ключевые слова: этика цифровых технологий, этика искусственного интеллекта, информационное общество, развитие искусственного интеллекта для управления, цифровые продукты, цифровое государство, управление продуктом, этика цифровой экономики, использование данных, управление на данных, база знаний, таксономия цифровой экономики, инциденты искусственного интеллекта, цифровая трансформация, цифровая культура.

Проблема этики при работе с данными, различными электронными сервисами и системами искусственного интеллекта неизбежно возникает в условиях формирования цифровой экономики и «датацентричного государства», что в определенной степени определяет уровень цифровой зрелости общества и граждан.

В процессе перехода к цифровой экономике, глобальной информатизации и цифровизации эксперты отмечают проблему накопления огромного объема данных и «цифровых следов», формируемых и гражданами, и организациями в ходе осуществления хозяйственной деятельности, и государственными органами в рамках выполнения своих функций. Еще никогда в истории участники экономических и социально-политических процессов не имели подобного аналитического потенциала на основе накопленных или доступных объемов больших данных (big data).

При этом необходимо отметить, что подобный процесс накопления данных происходит «лавинообразно», и скорость их формирования и накопления на данный момент превышает скорость реакции общества и государства на этот процесс, и многие его аспекты на сегодняшний день остаются либо вне сложившегося правового поля, либо недостаточно проработаны и осознаны, что требует определенной реакции на изменение такого положения.

Для понимания масштабов этих процессов, отметим, что число пользователей Интернет в России составляет порядка 130 млн.чел. (на 4 квартал 2022 г.) [1], а число пользователей на федеральном портале госуслуг в первом полугодии 2022 года составило 97,5 млн чел, при этом мобильным приложением государственных услуг пользуется свыше 70 млн.чел, а активная ежедневная аудитория пользователей госуслуг - не менее 9,5 млн чел.[2] При этом число пользователей жителей Москвы, региона-лидера цифровизации, на городском портале региональных госуслуг (mos.ru) уже в 2021 году составило более 14 млн.чел. и превысило численность постоянно проживающих в городе [3].

Объем интернет-экономики России в 2022 увеличился на 24% в сравнении с 2021 годом и по оценкам экспертов, достигает 11,8 трлн рублей [4]. В то же время экономический эффект от внедрения искусственного интеллекта в России по самым скромным оценкам превысил 300 миллиардов рублей [5].

В условиях развития процессов цифровой трансформации и цифровизации экономики особую актуальность имеют процессы сбора, обработ-

сз о

со £

m Р сг

СТ1 А

ки и анализа больших данных, в первую очередь -персональных данных граждан, в том числе этические аспекты их использования.

И для бизнеса, и для государства работа с большими данными и персональными данными пользователей необходима в первую очередь для осуществления аналитики и «машинного обучения» (machine learning) алгоритмов нейронных сетей информационных систем, развития элементов и систем искусственного интеллекта (ИИ, Artificial intelligence, AI). Для оценки уровня цифровой зрелости и развитости этики общества в вопросах цифрового развития необходимо проанализировать сложившиеся термины и определения, связанные с этими процессами.

Исходя из широко известной международной модели компании Gartner [6], уровень развития цифрового управления в Российской Федерации к настоящему времени можно оценить как «открытое» и «датацентричное», имеющее определённые признаки и того, и другого уровня. При этом существует неравномерное цифровое развитие отдельных регионов и отраслей - некоторые уже фактически «датацентричные», а некоторые еще только приближаются к этому уровню развития, что следует из рейтинга цифровой зрелости субъектов РФ, представленного Минцифры России [7].

Следствием этого является тот факт, что вопросам этики в цифровом обществе на уровне всего государства, субъектов Российской Федерации, наукой и обществом уделяется еще недостаточно внимания.

Поскольку искусственный интеллект становится ключевой цифровой технологией и неотъемлемой частью ИТ-продуктов, возникла проблема осмысления, разработки и применения этических принципов в этой сфере.

Под этикой в области искусственного интеллекта (далее - ИИ) рассматривается совокупность ценностей, принципов и методик (практик), основанных на общепринятых и соответствующих ожиданию общества стандартах позитивного (правильного) и негативного (неправильного) поведения при разработке, внедрении и использовании технологий ИИ [8, с. 5].

Таким образом, этические принципы в цифровых технологиях относятся именно к их применению человеком, а не этике алгоритмов как таковых.

В аналитических исследованиях Центра развития руководителей и команд цифровой трансформации ВШГУ РАНХиГС авторы приводят пять ключевых тезисов об «этичном ИИ» [9, с. 120]:

1. Этика ИИ как дисциплина - это область прикладной этики и направление философии, которые изучают этические вопросы, связанные с разработкой, внедрением и использованием ИИ; этика ] ИИ как практика - это поведение человека и вза-= имодействие людей между собой в контексте вое просов использования ИИ на всех этапах жизнен-Я ного цикла.

° 2. Доверие к системам ИИ - важнейшее условие ¡в их применения при решении ответственных задач

обработки данных. Основные компоненты доверенного ИИ - проверяемость (объяснимость), управляемость, стабильность, отказоустойчивость, безопасность и робастность.

3. Значительную часть компонентов доверенного ИИ можно считать реализацией человекоцен-тричного подхода к его разработке и внедрению; это относится и к трем группам принципов (прозрачность, надежность, человекоцентричность), на которых строится современный ИИ.

4. Объяснимость и прозрачность ИИ подразумевает среди прочего, что пользователю понятно объяснили, с каким типом интерфейса он общается в данный момент: с человеком, с человеком, которому ассистирует ИИ, или только с ИИ. В частности, этот аспект актуален для массовых государственных сервисов, в которых используются чат-боты и голосовые помощники (например, для записи к врачу).

5. Этические принципы создания и применения ИИ в России затрагиваются в таких документах, как Национальная стратегия развития искусственного интеллекта на период до 2030 года, федеральный проект «Искусственный интеллект» национальной программы «Цифровая экономика Российской Федерации», Концепция регулирования технологий ИИ и робототехники до 2024 года.

Основной этической проблемой общества в условиях цифровой экономики является дилемма между безопасностью и приватностью с одной стороны, и открытостью и доступностью данных для их сбора, обработки и анализа с другой стороны. По сути, речь идет о балансе интересов между приватностью жизни граждан, интересов и прав социальных групп общества, и созданием цифровых сервисов (как государством, так и бизнесом), основанных на использовании данных, в первую очередь - персональных данных граждан России.

В современных условиях дополнительной проблемой является защита персональных данных граждан России и размещение их на ресурсах российской юрисдикции, предотвращения неправомерного их использования в условиях санкци-онного давления ряда государств и организаций.

Тем самым, ключевой проблемой являются риски и этетические вопросы при работе с персональными данными граждан, при сборе и хранении персональных данных, обработки данных системами искусственного интеллекта, использование систем видеонаблюдения, хранении историй поисковых запросов и платежей в интернете. Данные, даже в деперсонифицированном виде, могут давать дополнительно информацию о гражданине, роде его занятий, родственниках, окружающей его среде и так далее, в первую очередь за счет сложных корреляционно-регрессионных моделей на основании цифровых следов, которые человек самостоятельно осознать, как правило, не может.

Высокая ценность персональных данных может создавать риски и нарушения в этой сфере, в первую очередь - со стороны крупных коммерческих компаний (корпораций), и недостаточная их защи-

та - в силу юридическои и технологической сложности - со стороны малого бизнеса.

С нормативно-правовой точки зрения пользователи имеют право управлять собираемыми о них данными. В частности, Федеральный закон от 27.07.2006 № 152-ФЗ «О персональных данных» помимо права отозвать согласие на обработку данных гарантирует человеку право получать информацию о том, какие данные о нем обрабатываются, с какой целью и как это делается. Кроме того, закреплено право требовать у оператора уточнения своих персональных данных, их блокирования или уничтожения «в случае, если персональные данные являются неполными, устаревшими, неточными, незаконно полученными или не являются необходимыми для заявленной цели обработки». Операторы должны реагировать на запросы. Однако закон не требует от них принимать какие-то специальные меры, чтобы пользователям было проще реализовать права, связанные с управлением данными. Когда осведомленность о правах низкая, а практические механизмы реализации прав не ясны, людям, за редкими исключениями, просто не приходит в голову попытаться ими воспользоваться. А возможные инструменты управления этими данными не знакомы пользователям, либо к настоящему времени практически отсутствуют. Из отечественных примеров крупных платформ такой инструментарий в личном кабинете пользователям предлагает лишь «Яндекс» [10].

В странах с высоким уровнем развития цифровой экономики и соответствующим уровнем развития цифровой зрелости все больше внимания уделяется исследованиям практики развития цифровых технологий, этических и правовых аспектов их использования.

Примером подобных исследований в США может служить изданный в сентябре 2022 года Федеральной торговой комиссией (FTC) отчёт по «тёмным паттернам» (digital dark patterns) [11], то есть методам проектирования пользовательских интерфейсов цифровых продуктов, которые используются в попытке склонить пользователя к действиям, которые он считает нежелательными. Так, незаметная для пользователя опция в форме отправки данных может приводить к покупке ненужной дополнительной услуги или передаче пользовательских данных. Намеренно скрытая (хотя и формально доступная) за многочисленными действиями пользователя кнопка отключения сервиса или информационных рассылок также является примером «тёмного паттерна». Наличие подобного исследования показывает попытку на государственном уровне исследовать и упорядочить подобные методы в рамках определенной таксономии.

Также в сентябре 2022 года опубликован проект Директивы ЕС об особенностях применения вне-договорной гражданской ответственности к системам искусственного интеллекта [12]. После оценки регуляторного воздействия нескольких вариантов Директивы выбран вариант, предусматривающий на первом этапе проведение ограниченной гармо-

низации гражданского права стран ЕС, а затем на следующем этапе оценить необходимость более серьёзных изменений.

В течение двух лет после вступления Директивы в силу (период транспозиции) странам ЕС необходимо будет внести в своё национальное законодательство изменения: ввести новые процессуальные гарантии истребования доказательств, а также установить опровержимые презумпции, облегчающие доказывание состава гражданского правонарушения истцу, предъявляющему иск разработчикам или эксплуатантам систем искусственного интеллекта (ИИ) повышенной опасности (high-risk AI). До истечения пяти лет по окончании периода транспозиции (то есть в течение семи лет после вступления Директивы в силу) после Евро-комиссия должна будет оценить, насколько эффективна принятая Директива, и нужно ли в дополнение к описанным выше правилам об ответственности при наличии вины также гармонизировать в странах ЕС правовые режимы ответственности для отдельных сценариев применения искусственного интеллекта.

Отдельным документом Европейская комиссия опубликовала «Этические рекомендации по использованию искусственного интеллекта и данных в преподавании и обучении для учителей». В них рассматривается применение искусственного интеллекта в школах, его вспомогательная роль для учителей и учащихся и возможность решения административных задач в образовательных учреждениях. В дальнейшем Еврокомиссия планирует опубликовать серию статей об искусственном интеллекте в образовании и провести онлайн-курс для учителей по этой теме на Европейской платформе школьного образования (ESEP) [13].

В Великобритании Управление комиссара по информации (Information Commissioner's Office) выпустило руководство по искусственному интеллекту и защите данных [14]. В преамбуле документа указывается: «Инновации, возможности и потенциальная ценность искусственного интеллекта для общества понятны для тех, кто читает это руководство. При этом очевиден ряд рисков, связанных с использованием технологий, которые перекладывают обработку персональных данных на сложные компьютерные системы с зачастую непрозрачными подходами и алгоритмами». В документе даны практические советы, которые помогут организациям снизить риски, возникающие в сфере защиты данных при применении технологий искусственного интеллекта.

На сегодняшний день ключевыми документами, регулирующими этические вопросы цифровых технологий, и в частности, искусственного интеллекта, за рубежом являются:

• Promoting the Use of Trustworthy Artificial

Intelligence in the Federal Government (США);

• Ethical Principles for Artificial Intelligence (США);

• Principles for Artificial Intelligence Ethics for the

Intelligence Community (США);

• A guide to using artificial intelligence in the public

sector (Великобритания);

C3

о

CD £

m Р cr

CT1 А

IE

Q. в

oj oj

Understating artificial intelligence ethics and safety (Великобритания); Civill Law Rules on Robotics (ЕС); Artificial Intelligence at the service of citizens (Италия);

Responcible use of AI (Канада); AI Ethics Framework (Австралия); AI ethics and governance body of knowledge (Сингапур);

Social principles of Human-centric AI (Япония); Robot Ethics Chapter (Республика Южная Корея);

• Ethics guidelines for intelligent artificial society (Республика Южная Корея). С учётом опыта развития глобальных цифровых продуктов, нормативно-правового регулирования зарубежных государств с высоким уровнем «цифровой зрелости», а также накопленного отечественного опыта реализации проектов национальной программы «Цифровая экономика Российской Федерации» в России разработан «Кодекс этики использования данных» [15], устанавливающий общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере искусственного интеллекта (акторам) в своей деятельности, а также механизмы реализации его положений.

Кодекс содержит шесть ключевых принципов и распространяется на отношения, связанные с этическими аспектами создания (проектирования, конструирования, пилотирования), внедрения и использования технологий искусственного интеллекта на всех этапах жизненного цикла, которые в настоящее время не урегулированы законодательством Российской Федерации или актами технического регулирования. Рекомендации кодекса рассчитаны на системы искусственного интеллекта, применяемые исключительно в гражданских (не военных) целях.

Кодекс призван способствовать решению следующих задач:

1. Предоставлять заинтересованным сторонам рекомендации для принятия этического решения относительно создания и использования ИИ;

2. Снизить риски неэтичного использования ИИ, нарушающего права и интересы гражданина;

3. Установить гибкое регулирование вопросов примирения технологий ИИ;

4. Создать платформу взаимодействия заинтересованных сторон (государства, науки, общества, бизнеса) по вопросам этики ИИ через механизмы саморегулирования.

Однако на сегодняшний день кодекс носит рекомендательный характер и не имеет статуса официального нормативно-правового акта. При этом он предполагает ведение реестра ответственных и добросовестных участников1, что, безусловно,

1 На конец 2022 года к Кодексу присоседилось более 100 участников, включая крупные ИТ-компании, вузы, общественные организации и органы государственного управления нескольких субъектов РФ.

способствует саморегуляции этой сферы профессиональной детальности.

Многие негативные последствия и риски, связанные с использованием данных и цифровых технологий, могут быть связаны, в первую очередь, с характеристиками наборов данных для искусственного интеллекта. Ложные корреляции и статистические аномалии в обучающих наборах данных могут привести к тому, что модели искусственного интеллекта не будут обобщаться. Субъективность наборов данных и неточные представления об истинности данных могут привести к моделям искусственного интеллекта с вводящими в заблуждение результатами и высокорисковыми действиями при практическом их использовании.

Учитывая критическую важность полноты и качества данных для разработки аналитических систем, прогностических алгоритмов и моделей, а также обучения искусственного интеллекта, представляется важным и актуальным иметь базу знаний о реальных кейсах этических проблем и инцидентов, связанных с использованием цифровых технологий в целом и искусственного интеллекта в частности.

Источниками контента для такой исследовательской и аналитической базы знаний могут выступать:

• Аналитические работы и научные публикации исследователей, высших учебных заведений, бизнес-организаций, работающих в сфере информационных технологий, включая глоссарии аналитических докладов, сводов знаний, образовательных программ, книг и др.;

• Нормативно-правовые акты РФ, международные и национальные стандарты, программные документы в сфере цифровой экономики и трансформации;

• Средства массовой информации, медиа и интернет-ресурсы (в том числе - социальные сети, тематические порталы и другие цифровые источники);

• Техническая документация на информационные продукты;

• Материалы общественных организаций и профессиональных сообществ, в том числе функционирующих на принципах open source;

• Программные выступления руководителей исполнительных, законодательных и других органов власти.

База знаний об инцидентах цифровых технологий может обеспечить разработчиков систем, государственных регуляторов и других заинтересованных сторон сведениями о проблемах, причиненного в реальном мире, в первую очередь - при использовании систем искусственного интеллекта. База инцидентов должна собираться через открытые источники профессиональным сообществом и быть направлена на изучение практического опыта для предотвращения потенциально неблагоприятных последствий использования цифровых технологий, а также для совершенствования

нормативно-правовой базы, развития цифровой культуры общества.

Этические аспекты использования цифровых технологий важно рассматривать как для ситуаций, связанных с непосредственным влиянием на человека, так и точки зрения принципов, ограничений и логики, закладываемых в самообучаемые алгоритмы систем искусственного интеллекта, находящих все большее применение в государственном управлении и отраслях национальной экономики России.

В подобной базе знаний необходимо предусмотреть гибкую таксономию и набор классификационных признаков, позволяющих наиболее точно описывать домен (предметную область), суть инцидента и проблемы.

Доменная структура и таксономия «этических инцидентов в цифровых технологиях» должна формировать массив структурированных знаний о проблемах в применении цифровых технологий:

• по отраслям и сферам применения данных или искусственного интеллекта;

• по применяемым моделям данных и технологиям их анализа;

• по времени (датам) событий, их продолжительности;

• по характеру ущерба или риска (персональный, социальный, финансовый и др.)

• по виду ущерба (потенциальному и фактическому, материальному и нематериальному и т.д.)

Степень ущерба для реального сектора экономики и физических лиц по инцидентам искусственного интеллекта и другим цифровым технологиям также может иметь определенную градацию с точки зрения последствий его возникновения: ничтожный, незначительный, умеренный, средний (существенный), высокий (значительный), катастрофический, неизвестный (неопределенный).

Классификация участников инцидентов может включать такие роли как: владелец продукта, разработчик, оператор (провайдер), пострадавшие лица (стороны), количество инцидентов с данным цифровым продуктом.

Пространственная визуализация зафиксированных инцидентов на картографической основе позволит наглядно локализовать инциденты, поставить задачи по их анализу и систематизировать с учетом географических факторов возникновения проблемы.

Функциональные требования к базе знаний должны включать:

• Формирование структуры описания термина тезауруса, с использованием для каждого термина определений из разных доменов, создание актуальных и валидированных экспертным сообществом определений терминов по ключевым областям предметной области.

• Построение «карты терминов» в различных контекстах, с наглядной визуализированной демонстрацией взаимосвязи терминов и понятий, совершенствование таксономии тезауруса

базы знаний, с учетом государственной политики РФ в сфере цифровых технологий и искусственного интеллекта

• Формирование и аналитическая поддержка рабочих групп экспертов по анализу инцидентов и пополнению информационных источников;

• Возможность создания открытой экспертной площадки для сбора обратной связи по вопросам и инцидентам развития цифровых технологий, продуктов, а также валидации экспертных позиций, с возможностью организации общественных обсуждений.

Анализ идентифицированных и систематизированных проблем цифровых технологий, в первую очередь связанных с технологиями искусственного интеллекта, позволит заложить основу изучения и регулирования ответственности искусственного интеллекта в цифровой экономике, в особо «чувствительных» отраслях, где человек, очевидно, будет чаще всего непосредственно встречаться с действиями искусственного интеллекта, таких как транспорт, медицина, образование, финансы и многие другие.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Одним из результатов подобной аналитической и исследовательской работы может стать разработка стандартов разработки «этичных» систем анализа данных и искусственного интеллекта, а также придание «кодексам цифровой этики» и «кодексу использования данных» официальных нормативных статусов в правовом поле.

Реализация треков исследований этических аспектов создания и применения цифровых технологий в учебно-образовательных, нормативно-правовых, экспертно-технологических аспектах позволит повысить качество и культуру работы с данными, имеющими ведущую роль в разработке и оценке моделей искусственного интеллекта и других цифровых технологий.

Таким образом, государству, бизнес-сообществу, науке и гражданскому обществу необходимо адаптироваться к реалиям цифровой экономики, определять уровень допустимой обработки и персонификации данных, долгосрочного их хранения, информационной безопасности, совместно анализировать и решать этические проблемы, возникающие при работе с данными и цифровыми технологиями.

Литература

1. РИА Новости: Чернышенко назвал число интернет-пользователей в России. [Электронный ресурс]. Режим доступа: https://ria. ш/20220928/ро^а!е1М819992787.тт1 Дата обращения: 26.02.2023

2. ТАСС: Число пользователей «Госуслуг» выросло за I полугодие 2022 года до 97,5 млн. [Электронный ресурс]. Режим доступа: https:// tass.ru/ekonomika/15286447 Дата обращения: 26.02.2023

3. «Вести»: на mos.ru стало больше пользователей, чем жителей в Москве. [Электрон-

сз о

со £

т Р сг

СТ1 А ш

Q. в

ем ем

ный ресурс]. Режим доступа: https://www.ves-ti.ru/hitech/article/2588052 Дата обращения: 26.02.2023

4. ТАСС: В РАЭК прогнозируют рост объема интернет-экономики РФ в 2022 году до 11,8 трлн рублей. [Электронный ресурс]. Режим доступа: https://tass.ru/ekonomika/16568089 Дата обращения: 26.02.2023

5. «Прайм»: Мишустин оценил экономический эффект от внедрения искусственного интеллекта [Электронный ресурс]. Режим доступа: https://1prime.ru/state_regula-tion/20221201/839021973.html Дата обращения: 26.02.2023

6. Archer G., Di Maio A., Howard R. Introducing the Gartner Digital Government Maturity Model. Published: 22 September 2015 (ID: G00291003) [Электронный ресурс]. Режим доступа: https:// www.gartner.com/en/documents/3135317 Дата обращения: 26.02.2023

7. Экспертный центр D-russia.ru (Digital Russia): Составлен новый рейтинг цифровой зрелости регионов. [Электронный ресурс]. Режим доступа: https://d-russia.ru/sostavlen-novyj-rejting-cifrovoj-zrelosti-regionov.html Дата обращения: 26.02.2023

8. Этика в области искусственного интеллекта -от дискуссии к научному обоснованию и практическому применению: аналитический доклад / А.В. Абрамова, А.Г. Игнатьев, М.С. Панова; Московский государственный институт международных отношений (университет) Министерства иностранных дел Российской Федерации, Центр искусственного интеллекта (MGIMO Center for AI); XIII Конвент Российской ассоциации международных исследований (РАМИ) (Москва, 14-16 октября 2021 г.). - Москва: МГИМО-Университет, 2021. - 24 с [с. 5]

9. Этика и «цифра»: от проблем к решениям / под ред. Е.Г. Потаповой, М.С. Шклярук. - М.: РАН-ХиГС, 2021. - 184 [с. 120]

10. Теплякова Д., Шепелева О. Управление персональными данными: тестируем инструмент «Яндекса» [Электронный ресурс]. Режим доступа: https://cdto.ranepa.ru/sum-of-tech/materi-als/91 Дата обращения: 26.02.2023

11. Federal Trade Commission: FTC issues illuminating report on digital dark patterns [Электронный ресурс]. Режим доступа: https://www.ftc. gov/business-guidance/blog/2022/09/ftc-issues-illuminating-report-digital-dark-patterns Дата обращения: 26.02.2023

12. European Commission: Proposal for a Directive on adapting non contractual civil liability rules to artificial intelligence [Электронный ресурс]. Режим доступа: https://commission.europa.eu/docu-ment/f9ac0daf-baa3-4371 -a760-810414ce4823_ en Дата обращения: 26.02.2023

13. European Commission: The Commission publishes guidelines to help teachers address misconceptions about Artificial Intelligence and promote its ethical use [Электронный ресурс]. Режим

доступа https://ec.europa.eu/commission/press-corner/detail/en/IP_22_6338 Дата обращения: 26.02.2023

14. ICO: Guidance on AI and data protection [Электронный ресурс]. Режим доступа https://ico.org. uk/for-organisations/guide-to-data-protection/key-dp-themes/guidance-on-ai-and-data-protection/ Дата обращения: 26.02.2023

15. Кодекс этики в сфере искусственного интеллекта [Электронный ресурс]. Режим доступа https://ethics.a-ai.ru/ Дата обращения: 26.02.2023

PREVENTION OF DAMAGE TO CONSUMERS FROM THE USE OF DIGITALIZATION TOOLS: METHODOLOGICAL FOUNDATIONS FOR THE FORMATION OF ETHICS FOR THE USE OF ARTIFICIAL INTELLIGENCE SYSTEMS

Prokhorov Yu.N.

Moscow City University of Management of the Government of Moscow Yu.M. Luzhkov

The development of the digital economy, the information society and the data-centric state poses new problems and challenges related to the ethical use of data in the development and development of digital products, the use of digital technologies, primarily in the creation and application of artificial intelligence systems in various fields and sectors of the national economy and public management. The issues of the ethical use of data and artificial intelligence algorithms are increasingly being paid attention in foreign countries with a high level of digital maturity; certain steps and research in this area are also being carried out in Russia. It is important to harmonize legal acts, legal aspects with the actual practice of developing digital products and services. For a comprehensive analysis, it is necessary to boost the knowledge base about practices and incidents that arise during the use of accumulated data and the functioning of artificial intelligence, for a comprehensive expert, legal, technological analysis, public discussion and the formation of an appropriate public and state position on this issue, the development of digital culture and ethics, in order to determine the permissible processing and personalization of data, their long-term storage, information security, analysis and solution of ethical problems that arise when working with data and digital technologies.

Keywords Ethics of digital technologies, ethics of artificial intelligence, information society, development of artificial intelligence for management, digital products, digital state, product management, ethics of digital economy, use of data, data governance, knowledge base, digital economy taxonomy, artificial intelligence incidents, digital transformation, digital culture.

References

1. RIA Novosti: Chernyshenko named the number of Internet users in Russia. [Electronic resource]. Access mode: https://ria. ru/20220928/polzovateli-1819992787.html Date of access: 02/26/2023

2. TASS: The number of users of "Gosuslug" increased in the first half of 2022 to 97.5 million [Electronic resource]. Access mode: https://tass.ru/ekonomika/15286447 Date of access: 02/26/2023

3. Vesti: more users on mos.ru than residents in Moscow. [Electronic resource]. Access mode: https://www.vesti.ru/hitech/arti-cle/2588052 Date of access: 02/26/2023

4. TASS: RAEC predicts the growth of the Internet economy of the Russian Federation in 2022 to 11.8 trillion rubles. [Electronic resource]. Access mode: https://tass.ru/ekonomika/16568089 Date of access: 02/26/2023

5. "Prime": Mishustin estimated the economic effect of the introduction of artificial intelligence [Electronic resource]. Access mode: https://1prime.ru/state_regulation/20221201/839021973. html Date of access: 02/26/2023

6. Archer G., Di Maio A., Howard R. Introducing the Gartner Digital Government Maturity Model. Published: 22 September 2015 (ID:

G00291003) [Electronic resource]. Access mode: https://www. gartner.com/en/documents/3135317 Accessed: 02/26/2023

7. Expert center D-russia.ru (Digital Russia): A new rating of digital maturity of regions has been compiled. [Electronic resource]. Access mode: https://d-russia.ru/sostavlen-novyj-rejting-cifrovoj-zrelosti-regionov.html Date of access: 02/26/2023

8. Ethics in the field of artificial intelligence - from discussion to scientific justification and practical application: analytical report / A.V. Abramova, A.G. Ignatiev, M.S. Panova; Moscow State Institute of International Relations (University) of the Ministry of Foreign Affairs of the Russian Federation, Center for Artificial Intelligence (MGIMO Center for AI); XIII Convention of the Russian Association for International Studies (RAMI) (Moscow, October 14-16, 2021). - Moscow: MGIMO-University, 2021. - 24 p. [p.5]

9. Ethics and "figure": from problems to solutions / ed. E.G. Pota-pova, M.S. Shklyaruk. - M.: RANEPA, 2021. - 184 [p. 120]

10. Teplyakova D., Shepeleva O. Personal data management: testing the Yandex tool [Electronic resource]. Access mode: https://cdto.ranepa.ru/sum-of-tech/materials/91 Date of access: 02/26/2023

11. Federal Trade Commission: FTC issues illuminating report on digital dark patterns [Electronic resource]. Access Mode: https:// www.ftc.gov/business-guidance/blog/2022/09/ftc-issues-illuminating-report-digital-dark-patterns Accessed: 02/26/2023

12. European Commission: Proposal for a Directive on adapting non contractual civil liability rules to artificial intelligence [Electronic resource]. Access mode: https://commission.europa.eu/ document/f9ac0daf-baa3-4371 -a760-810414ce4823_en Date of access: 26.02.2023

13. European Commission: The Commission publishes guidelines to help teachers address misconceptions about Artificial Intelligence and promote its ethical use [Electronic resource]. Access mode https://ec.europa.eu/commission/presscorner/detail/en/ IP_22_6338 Date of access: 26.02.2023

14. ICO: Guidance on AI and data protection [Electronic resource]. Access mode https://ico.org.uk/for-organisations/guide-to-da-ta-protection/key-dp-themes/guidance-on-ai-and-data-protec-tion/ Accessed: 26.02.2023

15. Code of ethics in the field of artificial intelligence [Electronic resource]. Access mode https://ethics.a-ai.ru/ Date of access: 26.02.2023

i Надоели баннеры? Вы всегда можете отключить рекламу.