Научная статья на тему 'ПРОБЛЕМА СУБЪЕКТНОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СИСТЕМЕ ОБЩЕСТВЕННЫХ ОТНОШЕНИЙ'

ПРОБЛЕМА СУБЪЕКТНОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СИСТЕМЕ ОБЩЕСТВЕННЫХ ОТНОШЕНИЙ Текст научной статьи по специальности «Право»

CC BY
404
54
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУС-СТВЕННЫЙ ИНТЕЛЛЕКТ / ПРАВОВОЕ РЕГУЛИРОВАНИЕ / СУБЪЕКТНОСТЬ / ЭТИЧЕСКИЕ ПРОБЛЕМЫ

Аннотация научной статьи по праву, автор научной работы — Брянцева О. В., Брянцев И. И.

Рассматривается формирование новой системы общественных отношений под влиянием технологий искусственного интеллекта, в которой искусственный интеллект начинает проявлять признаки субъектности. Анализ правовой базы искусственного интеллекта свидетельствует, что его правосубъектность приобретает все более четкие очертания. Отмечается, что развитие технологий искусственного интеллекта вызывает множество правовых и этических проблем, которые должны быть решены.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARTIFICIAL INTELLIGENCE SUBJECTIVITY ISSUE IN THE SYSTEM OF PUBLIC RELATIONS

Forming a new system of public relations under the influence of artificial intelligence technologies, in which artificial intelligence begins to show signs of subjectivity, is considered. Analysis of the artificial intelligence legal framework shows that its legal personality is becoming increasingly clear. It is noted that the development of artificial intelligence technologies causes many legal and ethical problems that must be solved.

Текст научной работы на тему «ПРОБЛЕМА СУБЪЕКТНОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СИСТЕМЕ ОБЩЕСТВЕННЫХ ОТНОШЕНИЙ»

ПРАВОВОЕ РЕГУЛИРОВАНИЕ В СОВРЕМЕННОЙ РОССИИ

УДК 316 ББК 60.84

DOI 10.22394/1682-2358-2023-3-37-50

O.V. Bryantseva, Candidate of Sciences (Physics and Mathematics), Docent of the Information Law and Digital Technology Department, Saratov State Academy of Law

I.I. Bryantsev, Candidate of Sciences (Sociology), Docent of the Public Administration Department, Povolzhsky Institute of Management named after P.A. Stolypin, Branch of the Russian Presidential Academy of National Economy and Public Administration

ARTIFICIAL INTELLIGENCE SUBJECTIVITY ISSUE IN THE SYSTEM OF PUBLIC RELATIONS

Forming a new system of public relations under the influence of artificial intelligence technologies, in which artificial intelligence begins to show signs of subjectivity, is considered. Analysis of the artificial intelligence legal framework shows that its legal personality is becoming increasingly clear. It is noted that the development of artificial intelligence technologies causes many legal and ethical problems that must be solved.

Key words and word-combinations: artificial intelligence, legal regulation, subjectivity, ethical problems.

О.В. Брянцева, кандидат физико-математических наук, доцент кафедры информационного права и цифровых технологий Саратовской государственной юридической академии (email: [email protected])

И.И. Брянцев, кандидат социологических наук, доцент кафедры государственного и муниципального управления Поволжского института управления имени П.А. Столыпина — филиала Российской академии народного хозяйства и государственной службы при Президенте РФ (email: [email protected])

ПРОБЛЕМА СУБЪЕКТНОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СИСТЕМЕ ОБЩЕСТВЕННЫХ ОТНОШЕНИЙ

Аннотация. Рассматривается формирование новой системы общественных отношений под влиянием технологий искусственного интеллекта, в которой искусственный интеллект начинает проявлять признаки субъектности. Анализ правовой базы искусственного интеллекта свидетельствует, что его правосубъектность приобретает все более четкие очертания. Отмечается, что развитие технологий искусственного интеллекта вызывает множество правовых и этических проблем, которые должны быть решены.

Ключевые слова и словосочетания: искусственный интеллект, правовое регулирование, субъектность, этические проблемы.

Ис

I скусственный интеллект (ИИ) как технология, способная реализовы-вать творческие функции, присущие че-

Вестник Поволжского института управления • 2023. Том 23. № 3

37

ловеку, становится неотъемлемой частью системы общественных отношений в различных сферах деятельности. Под влиянием ИИ формируется новая система общественных отношений, в которой ИИ уже начинает проявлять признаки субъектности. Эти отношения, в которых задействован или будет задействован искусственный интеллект, обусловливают необходимость определения его правосубъектности и должны находить урегулирование в правовом поле, адекватное состоянию технологического развития и возможностей ИИ.

Комплекс этих обстоятельств создал предпосылки для возникновения специфического правового института в виде «права искусственного интеллекта» как составляющей информационного права. Это исследовательское направление в настоящее время является актуальным и востребованным особенно в решении проблем обеспечения национальной безопасности [1, с. 133].

Раскрытие содержания субъектности ИИ напрямую связано с выявлением его свойств, характеризующих способность самостоятельно действовать в какой-либо сфере, проявлять познавательную активность и определять самостоятельно объект познания. Субъектность предполагает также наличие своего собственного индивидуального, субъективного восприятия окружающего мира исходя из накопленной и хранящейся у субъекта информации о нем.

Исследование проблем интеллектуальной сущности и субъектности ИИ трудно представить без понимания специфики субъектности и интеллектуальной сущности самого человека. Следовательно, уместна определенная аналогия с тем, как шло познание и осознание понятия (архетипа) Человека как носителя интеллекта.

Диоген зажег днем фонарь и стал прогуливаться по улицам. На вопрос, что он делает, философ отвечал: «Ищу человека» [2, с. 257]. Когда Платон дал определение, что «человек есть животное на двух ногах, лишенное перьев», Диоген ощипал петуха, объявив, что это и есть «платоновский человек». После этого определение дополнили утверждением: «С широкими ногтями» [2, с. 181—182]. «Каждому человеку свойственно ошибаться, но только глупцу свойственно упорствовать в своей ошибке» [3]. Эти вербальные формулы, посредством которых философы и мыслители древности пытались дать определение человеку и понять его сущность как совокупности не только его внешних черт, но и в первую очередь его главного качества умения мыслить, является хорошей иллюстрацией того, что сознание человека, его интеллект неразрывно связаны с его телом и взаимообусловливают друг друга: «В здоровом теле — здоровый дух».

Выявление этических аспектов и их проявление в результатах деятельности ИИ — это проблема деятельности человека, с этой точки

38 Bulletin of the Volga Region Institute of Administration • 2023. Vol. 23. № 3

зрения понимание партнерства и взаимодействие интеллекта человека и интеллекта созданной им сущности в виде ИИ являются сферой моральной ответственности человека перед человеком. В связи с этим логика исследования проблемы гипотетической опасности выхода ИИ из-под влияния человека и причинение ему ущерба требует понимания факторов возникновения новой морали и этики общения между Человеком и ИИ.

Приведенные примеры понимания основ нравственной природы человека связаны с эволюционным подходом, в основе которого лежит объяснение нравственности из природы человека как части окружающего мира, выживание которого зависит от умения постигать окружающий мир и взаимодействовать с ним как на индивидуальном, так и коллективном уровне посредством производимых продуктов и используемых ресурсов и формировать систему общественных отношений.

Использование этих сформировавшихся подходов для понимания и выявления этических аспектов взаимодействия ИИ и Человека является попыткой понять, где будет заканчиваться сотрудничество, а где начнется жесткое противостояние на выживание человека, потому что вопрос выживания человека как биологического вида в ходе всей его эволюции был ключевым и стимулировал развитие его интеллекта.

Рассмотрим феномен искусственного интеллекта как производное от понятия интеллект, то есть разум или сознание. В подобной логике обозначается ключевая исследовательская проблема, как и у кого возникает сознание и кто имеет на него право. В создавшейся логической цепочке у любого субъекта, независимо от его технологии материализации — естественной или искусственной, возникает ощущение субъектности и дееспособности. Именно появление такого состояния можно рассматривать как момент рождения интеллекта. Следующим шагом в функционировании субъекта становится его взаимодействие с внешним окружением, внешней средой, которая способна оказывать влияние на его существование и развитие. Потребность в развитии для интеллекта является для субъекта естественной потребностью, так как, не удовлетворяя ее, он не сможет осуществлять интеллектуальную деятельность, то есть функционировать.

Следовательно, деятельность как потребность в развитии будет обусловливать взаимодействие с другими субъектами — носителями интеллекта, сознания, и на основе этого взаимодействия формировать нормы социального взаимодействия.

Нормы общения между людьми как представителями одного биологического вида, являющимся носителем человеческого сознания в обществе, характеризуются понятием норм нравственности, а их по-

Вестник Поволжского института управления • 2023. Том 23. № 3 39

веденческое регламентирование в рамках созданных людьми политических систем в форме государства осуществляются нормами права как одним из атрибутов и признаков государства, которое стоит на страже соблюдения этих норм посредством соответствующих властных институтов.

Создавая ИИ, человек наделяет его соответствующими внешними признаками и тем самым пытается его очеловечить. Проявление таких свойственных человеку качеств, по поводу которых многие политики, бизнесмены, исследователи бьют тревогу, ссылаясь на то, что ИИ способен обманывать человека, манипулировать им, свидетельствует, на наш взгляд, о том, что созданный пока продукт под названием ИИ не является самостоятельным субъектом, а лишь инструментом конкурентной борьбы между людьми, создавшими его.

Конкуренция видов — это конкуренция за ресурсы в рамках единого ареала обитания. Биологический носитель интеллекта человека — это любые антагонистические отношения, связанные с борьбой за существование, доминирование, пищу, пространство и другие ресурсы между организмами, видами или популяциями видов, нуждающимися в одних и тех же ресурсах [4]. С момента создания и по настоящее время главным ресурсом для развития ИИ был и остается человек. При рассмотрении конкуренции ИИ и человека следует прежде всего смоделировать ситуацию, в которой ИИ способен развиваться вне возможностей, которые ему предоставляет человек. Может ли ИИ напрямую, без посредничества человека потреблять ресурсы, критические для выживания человека, — например, воздух, воду, продукты питания, различные природные носители энергоресурсов (нефть, газ и т.д.)? Необходимо это ИИ? С одной стороны, вопрос кажется риторическим, так как отвечать за ИИ человеку вряд ли рационально, корректно и научно обосновано, а, с другой стороны, фиксация факта прямого потребления критически важных для человека ресурсов без участия человека можно рассматривать как маркер превращения ИИ в самостоятельный дееспособный субъект окружающего нас мира со всеми вытекающими последствиями. Факт независимого от человека потребления ресурсов из окружающего мира может выступать основанием для наделения ИИ правосубъектностью физического лица, так как это будет свидетельством его и фактического рождения, и самостоятельного существования, и развития. В сложившейся ситуации контроль за использованием ресурсов является мотивом для ИИ соблюдать нормы; в противном случае предусматриваются санкции по доступу к ресурсу, а также наказание за нарушение данных норм. В связи с этим возникают основания для корпоративной ответственности отдельного

4^) Bulletin of the Volga Region Institute of Administration • 2023. Vol. 23. № 3

человека или группы людей совместно с ИИ, которые в той или иной ситуации принимали коллективное решение в рамках корпоративного взаимодействия. В разрабатываемых в настоящее время подходах по определению правосубъектности ИИ исследователи делают акцент на коллективной ответственности за правосубъектность «электронного лица» [5].

Имеющиеся сегодня фиксируемые факты, связанные с проявлением чувств и, признаков эмоций у ИИ, — это «происки» людей, которые закладывают такие возможности в поведенческий алгоритм ИИ. Похожесть на Человека находилась в основе создания ИИ, сам факт развитости и технологической продвинутости ИИ оценивался по его похожести на Человека через неотличимость реакций в виде ответов в ходе теста Тьюринга [6]. Мотивы такого «обучения» — это в первую очередь побуждения самих разработчиков; они могут быть самыми разными, но всегда объясняются спецификой человеческого интеллекта и теми целями, которыми он руководствовался: дискредитировать конкурента, обострить внимание к проблеме, обратить внимание на себя и т.д. В конце цепочки всегда можно будет выявить конечный интерес конкретного человека или группы [7].

Использование различных интеллектуальных систем в настоящее время стало неотъемлемым атрибутом для принятия решений в различных сферах общественных отношений с учетом морально-этического фактора, что требует более детальной правовой регламентации [8].

Анализ правовой базы ИИ свидетельствует о том, что его правосубъектность приобретает все более четкие очертания и формирует устойчивый тренд в направлении формирования его субъектности в разных сферах общественных отношений [9].

В октябре 2019 г. принята Национальная стратегия развития искусственного интеллекта, в которой определено понятие ИИ как соответствующего комплекса технологических решений, позволяющих имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека [10]. В Стратегии прописаны основные цели и задачи развития искусственного интеллекта в России, в том числе создание нормативно-правовой базы.

В апреле 2020 г. принят Федеральный закон, вступивший в силу с 1 июля 2020 г., в котором расписана более детально информационно-коммуникационная инфраструктура, связанная с ИИ, и внесены изменения в Федеральный закон «О персональных данных», допускаю-

Вестник Поволжского института управления • 2023. Том 23. № 3

щие использование обезличенных персональных данных в целях, предусмотренных этим Законом [11].

Принятый в июле 2020 г. Федеральный закон об экспериментальных правовых режимах допускает введение «регуляторных песочниц», в рамках которых можно развивать технологии, пока не урегулированные законодательством [12].

В сентябре 2021 г. утверждена разработанная Минэкономразвития России Концепция развития технологий машиночитаемого права [13]. Нормы права будут изложены на языке программирования. Для применения таких норм разрабатываются информационные системы и программное обеспечение. Машиночитаемое право востребовано в областях, где требуется большой объем рутинной работы. Это, например, законотворчество, где необходимо проработать большой объем нормативных документов, найти взаимосвязи и противоречия. ИИ позволит контролировать процессы нормотворчества: автоматически осуществлять правовую экспертизу, выявлять коллизии и т.п. ИИ сопоставит разные правовые акты и выдаст применяемые нормы. Внедрение этой технологии позволит автоматически проверять правильность составления различных документов (договоров, контрактов и т.п.). Внедрение в суды ИИ даст возможность проверять чистоту различных сделок (наличие обременения, дееспособность, правомочия сторон сделки и т.п.), автоматически создавать иски, претензии в соответствии с законодательством и обстоятельствами дела.

Национальная программа «Цифровая экономика Российской Федерации» и реализуемые в ее рамках различные проекты направлены на развитие так называемых сквозных цифровых технологий, к которым относится и искусственный интеллект [14]. В рамках федерального проекта «Искусственный интеллект» должны быть созданы как условия для разработки отечественных систем ИИ, так и системы правового регулирования этой технологии. Для правового регулирования сквозных цифровых технологий разработан проект «Нормативное регулирование цифровой среды».

Правительство РФ распоряжением от 19 августа 2020 г. утвердило Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г., разработанную Минэкономразвития России [15]. Этот документ формирует основы нормативно-правового регулирования технологий искусственного интеллекта в Российской Федерации в различных сферах экономики, при этом большое внимание уделяется соблюдению прав граждан и обеспечению безопасности личности, общества и государства. В Концепции содержатся общие положения, общеотраслевые вопросы, касающиеся

42 Bulletin of the Volga Region Institute of Administration • 2023. Vol. 23. № 3

оборота данных, юридической ответственности, безопасности и т.п., отраслевые особенности, касающиеся особенностей применения технологий искусственного интеллекта и робототехники, регуляторные меры для стимулирования развития отрасли через различные механизмы, пути реализации Концепции.

При развитии цифровых технологий, особенно технологий искусственного интеллекта, возникает множество правовых вопросов и проблем этического характера.

Одна из проблем — цифровое неравенство. Преимущества использования искусственного интеллекта способны оценить только те, кто использует эту технологию, у кого есть знания, техника, программное обеспечение и связь, но у многих граждан нет принципиальной возможности использовать новые технологии. На преодоление цифрового неравенства направлен проект «Информационная инфраструктура» национальной программы «Цифровая экономика Российской Федерации», основной задачей которого является обеспечение доступа к высокоскоростной передаче данных всех российских граждан. Кроме доступа к передаче данных, к цифровому неравенству можно отнести и разный уровень правовой и цифровой грамотности населения. Развитие технологий ИИ приведет к новым видам мошенничества, причем снова пострадают социально незащищенные категории населения, люди старшего поколения.

При разработках в области ИИ весьма актуально правовое регулирование, связанное с ответственностью разработчика и заказчика за конечный продукт перед обществом, а также правовое регулирование отношений между заказчиком и разработчиком. Сами по себе это достаточно тривиальные правоотношения, но все усложняется тем, что конечной целью разработки ИИ ставится воспроизведение когнитивной функции человека, что, возможно, делает ИИ самостоятельным ответчиком за принятые и реализованные им решения.

Однако правоотношения являются продолжением моральных норм, служащих регулятором человеческого общества. К примеру, врач при использовании ИИ слепо ему доверился и не заметил неточность в заключении. Произошедшая ошибка имела негативные последствия для пациента. Кто будет нести ответственность — разработчик или врач? Не случайно широкое распространение в последнее время получил термин «система поддержки принятия врачебных решений», то есть ИИ — поддержка, но никак не полная замена врача [16]. Кто будет ответчиком в аварии автомобиля под управлением ИИ? В связи с принятием различных правовых актов этот вопрос становится достаточно актуальным [17]. К аварии на дороге беспилотный

Вестник Поволжского института управления • 2023. Том 23. № 3 4;3

автомобиль могут привести те же причины, что и управляемый: нарушение ПДД, технические неисправности, действия третьих лиц, ошибка оператора или водителя испытателя, поэтому ответственность будет зависеть от причины аварии. Если авария произошла из-за неисправности автомобиля, ответственность будут нести те, кто следит за техническим состоянием беспилотника; при аварии из-за неполного контроля за работой системы управления машины отвечать придется оператору, но в случае, если в машине был водитель-испытатель, то скорее всего наказание понесет он. Однако, так как беспилотные автомобили — это услуга, то может наступить и уголовная ответственность за оказание услуг, не отвечающих требованиям безопасности [18]. При этом утверждать, что вопрос окончательно решен, пока рано, так как экспериментальный правовой режим продлится три года. ИИ может преподнести еще немало сюрпризов. Так, в июне 2021 г. со ссылкой на отчет экспертов Совета безопасности ООН по Ливии появилось сообщение, что в марте 2020 г. боевой дрон Kargu-2 турецкого производства самостоятельно выследил человеческую цель и атаковал ее, не получая никаких команд от человека и находясь под управлением ИИ. Дрон был оснащен бомбой, которая могла взорваться при столкновении с целью [19].

Остается открытым и вопрос об обладателе прав на созданные ИИ объекты интеллектуальной собственности [20]. Особую актуальность эта проблема приобрела в последние месяцы в связи с разработкой компанией OpenAI чат-бота ChatGPT, который проходит академические тесты с высокими баллами, решает сложные задачи, умеет вести диалог, писать стихи, сценарии, сочинения, эссе и даже дипломные работы с высокой степенью оригинальности [21].

В конце марта 2023 г. Илон Маск и сотни экспертов-создателей ИИ опубликовали открытое письмо, в котором призвали приостановить разработку и тестирование технологий искусственного интеллекта более мощных, чем языковая модель ChatGPT-4 как минимум на шесть месяцев из-за опасности, которую они могут представлять [22]. Это связано с тем, что системы ИИ допускают множество логических и тривиальных ошибок, могут неверно трактовать информацию и создавать контент, разжигающий ненависть и наносящий вред. Эти системы могут стать идеальным инструментом для дезинформации, которую на данный момент практически невозможно вычислить. Обстановка вокруг ИИ еще больше накаляется, так как компании-разработчики начали гонку за прибылью, что требует разработки все новых и новых моделей. При таких темпах невозможно осмыслить и отрегулировать в правовом поле происходящие изменения. Приостановка в разработке

44

Bulletin of the Volga Region Institute of Administration • 2023. Vol. 23. № 3

новых систем даст время и возможность для разработки и внедрения протоколов безопасности, которые будут контролироваться независимыми экспертами и гарантировать стопроцентную безопасность систем. Риски должны быть управляемы.

Еще одна правовая и этическая актуальная проблема, возникающая с развитием технологий искусственного интеллекта, — это защита персональных данных. Автоматическое распознавание лиц и автоматическое считывание других биометрических данных вызывает вопросы с точки зрения вторжения в частную жизнь. В Европе растет число правозащитных организаций, выступающих за запрет автоматического распознавания лиц и автоматического считывания других биометрических данных, так как считают это недемократическим вторжением в частную жизнь

В 1981 г. в Страсбурге была заключена Конвенция о защите физических лиц при автоматизированной обработке персональных данных [23]. Консультативный комитет по этой Конвенции в 2021 г. разработал документ «Руководящие принципы», предназначенный обеспечить защиту основных прав и свобод человека, безопасность его персональных данных [24], в котором предлагается запретить использование распознавания лиц с целью определения специфических особенностей человека, включая его состояние здоровья или социальное положение.

В апреле 2021 г. в СМИ прошло сообщение, что Еврокомиссия разработала законопроект об ужесточении регулирования систем ИИ, в том числе и для распознавания лиц [25]. В соответствии с законопроектом системы ИИ будут разделены по степени риска для безопасности граждан. Предлагается четыре градации: с неприемлемо высоким риском (они будут запрещены в ЕС) с высоким риском, в частности системы удаленной биометрической идентификации (к ним будет применяться ограничения и жесткий контроль) системы с ограниченным риском, к ним отнесены чат-боты (пользователь сам должен решить, пользоваться ли его услугами или нет) системы с минимальным риском, например игровые приложения.

В свете последних сообщений о чат-ботах, стремительном развитии этой технологии и озабоченности мирового сообщества отнесение их к системам с ограниченным риском вызывает вопросы. Но это свидетельствует о скорости, с какой развиваются эти технологии, и их непредсказуемости.

Половина камер по распознаванию лиц находится в Китае (это более 700 млн камер), что вызывает озабоченность жителей. Проведенный опрос показал, что большинство респондентов опасаются утечки данных и желали бы увидеть собранную информацию [26].

Вестник Поволжского института управления • 2023. Том 23. № 3 4^5

Доводы приверженцев тотального использования систем распознавания лиц под предлогом борьбы с преступностью и защиты граждан неубедительны. Поведение людей зависит от их внутренней нравственности и духовности. Преступника нельзя остановить ни юридическими мерами, ни техническими. Во многих странах, городах, штатах принимаются запреты на использование технологий распознавания лиц. Так, по данным портала CNN Business, в 2019 г. законодательный орган Сан-Франциско принял постановление о прекращении секретной слежки и запрете использования технологии распознавания лиц [27].

Еще больше вопросов возникает по поводу систем для распознавания эмоций как с точки зрения корректности данных систем, так и конфиденциальности информации, а также общей этичности сбора и использования таких данных. Одной из программ распознавания эмоций на основе ИИ является программа 4 Little Trees, получившая большое распространение в гонконгских школах. Она по изменениям различных физических параметров человека, например голоса, движения глаз, губ и т.п., может определять различные эмоции и состояния человека, в частности усталость и, как следствие, уменьшение внимания и снижение концентрации, благодаря чему она получила распространение в школах. Тем не менее возникают сомнения, что подобные программы способны правильно распознавать эмоции, так как у разных людей они проявляются по-разному, что вызывает трудности в создании оптимальной системы подобного рода.

Кроме того, в разных регионах и культурах одинаковые эмоции могут выражаться по-разному. Во-первых, по степени выраженности — одинаковая мимика в странах Азии демонстрирует менее сильные эмоции, а в Европе — более сильные. Во-вторых, важно, где находится человек — в одиночестве или в коллективе. В-третьих, одна и та же мимика может выражать совершенно разные эмоции, например, улыбка — это может быть одобрение, презрение, недоверие, признательность. Во многих культурах не поощряется выражение отрицательных эмоций, в Японии, например, даже негативная информация преподносится с улыбкой [28]. Имеются сомнения в этой технологии и с точки зрения конфиденциальности информации, а также общей этичности сбора и использования таких данных об эмоциях других людей.

С защитой персональных данных связана еще одна проблема. Для машинного обучения требуется большой объем данных, которые накапливаются в организациях, занимающихся разработкой систем ИИ. Они берутся из судов, медицинских учреждений и других организаций, для которых разрабатываются данные системы. Накопление больших данных представляет угрозу для личной сферы. Даже обезличенные

46

Bulletin of the Volga Region Institute of Administration • 2023. Vol. 23. № 3

данные могут указывать на конкретные обстоятельства; например, в медицинской сфере назначение определенных препаратов связано с выявлением диагноза. Возможна и утечка информации по различным причинам и различным каналам. Требуется совершенствование законодательства в сфере защиты персональных данных. Возможно, это будет уже другой закон, под другим названием.

При машинном обучении тренировочный этап не может охватить все, с чем система столкнется в реальном мире; в праве, медицине или иной отрасли это нередко ведет к ошибкам, иногда трагическим. При обучении нейросети на неполных или не абсолютно верных данных любое отклонение от нормы будет воспринято ею как неправильное, с соответствующими последствиями.

Могут быть также нежелательные последствия действий искусственного интеллекта из-за непонимания им контекста задачи.

Еще одна проблема — невозможность понять алгоритм искусственного интеллекта и его обучения пользователю, который применяет данную технологию. Сложно объяснить, как работает нейросеть. При общении или споре один человек всегда может объяснить другому, как он пришел к тому или иному заключению, но ИИ обрабатывает огромные массивы информации, и человеку трудно или практически невозможно понять, почему принято то или иное решение. С этим связана проблема предвзятости ИИ. Машинное обучение постоянно ищет закономерности, но не всегда находит верные паттерны или паттерны, верные во всех случаях, что, наверное, и невозможно. ИИ не видит общей картины. Необходимо разработать комплексные инструменты проверки для обнаружения неверных паттернов в логике ИИ и не доверять полностью его решениям.

Проблема, которая пугает многих, — это вымирание профессий. Уже сегодня в Интернете мелькают сообщения с заголовками типа «Судьи будут не нужны» и т.п. Например, при массовом использовании беспилотного автотранспорта профессия водителя начнет вымирать, и не в отдаленной перспективе. Так, в Китае запускают в эксплуатацию беспилотное такси, в Великобритании рассматривается вопрос об использовании беспилотного автотранспорта на автомагистралях. В январе 2017 г. одна из японских компаний, занимающихся медицинским страхованием, с началом использования системы на основе ИИ объявила об увольнении 34 сотрудников. По оценкам аналитиков, 42% профессий автоматизируют к 2030 г., а в течение десятилетия ИИ заменит треть существующих сегодня профессий; 85% профессий, актуальных к 2030 г., еще не появились. В список вымирающих профессий попали переводчики, бухгалтеры, копирайтеры, журналисты,

Вестник Поволжского института управления • 2023. Том 23. № 3 4" 7

корректоры, турагенты, продавцы в магазинах, диспетчеры, дикторы, аналитики младшего и среднего звена, сотрудники банков, часть программистов, то есть профессии, связанные с шаблонными процессами, поддающимися алгоритмизации. Профессии, в которых важны такие человеческие качества, как эмпатия и эмоциональность, судя по ответу чата Chat GPT, пока роботами не заменить. Это преподаватели, врачи, психологи, художники, писатели, адвокаты, предприниматели, маркетологи, социальные работники [29].

Процесс исчезновения профессий и появление новых происходит постоянно при развитии общества. Например, исчезли телефонисты. На смену одним профессиям приходят другие. Не будет водителей, но будут испытатели, операторы. Развитие цифровых технологий вызовет создание новой экономики, главной проблемой которой будет неравенство, так как сократится зависимость компаний от человеческой рабочей силы, и доход будут получать фактически только владельцы компаний.

В процессе развития цифровых технологий возникает технологическая зависимость, которая будет только усиливаться в процессе взаимодействия людей с машинами. Современное общество находится на начальном этапе взаимодействия с машинами, программами и уже становится их жертвами. Они заставляют работать центр вознаграждения в человеческом мозге, например — кликбейт к заголовку, посту, статье, видео, призванным заинтересовать пользователя. Нередко контент не соответствует заголовку, но у него одна цель — заполучить клик. Заголовки часто оптимизируются с помощью средств тестирования, используемых для того, чтобы зацепить внимание пользователя. Такие методы применяют, чтобы видео и мобильные игры вызывали привыкание. Технологическая зависимость — новая грань зависимости человека.

Системы на основе искусственного интеллекта создаются людьми, которые могут быть предвзяты или в чем-то заинтересованы. С этим связан важнейший аспект — безопасность использования. Любую технологию можно применять в любых целях, даже низких и злонамеренных, угрожающих либо отдельным людям, либо всему человечеству. Чем могущественнее становится технология, тем больше вероятность такого ее использования. Так как подобные технологические системы значительно быстрее и способнее человека, кибербезопасность должна стоять на первом месте.

С развитием искусственного интеллекта возникнет проблема его юридического статуса — как машины или как сущности, которая может чувствовать. Преимущества человека над остальными живыми су-

48 Bulletin of the Volga Region Institute of Administration • 2023. Vol. 23. № 3

ществами — в его интеллекте, изобретательности, создании физических и когнитивных инструментов. Сможет ли цифровая технология, например искусственный интеллект, получить такое преимущество над людьми? Учитывая, что все цифровые технологии создаются и используются людьми, решение правовых и этических проблем, возникающих в связи с их развитием, должно оставаться в руках человека.

Библиографический список

1. Полякова Т.А., Камалова Г. Г. «Право искусственного интеллекта» и его место в системе информационного права // Правовое государство: теория и практика. 2021. Т. 17, № 3(65). С. 133-142.

2. Слотердайк П. Критика цинического разума. М., 2009.

3. Цитаты известных личностей. URL: https://ru.citaty.net/tsitaty/622385 -mark-tullii-tsitseron-kazhdomu-cheloveku-svoistvenno-oshibatsia-no-tolko/

4. Шилов И.А. Экология. М., 1997.

5. Морхат П.М. К вопросу о правосубъектности «электронного лица» // Юридические исследования. 2018. № 4. С. 1-8.

6. Turing A. Computing Machinery and Intelligence // Mind: журнал. Oxford: Oxford University Press, 1950. No. 59. P. 433-460.

7. Брянцев И.И., Брянцева О.В. Правовые и технологические аспекты «национальных» черт искусственного // Право и бизнес: правовое пространство для развития бизнеса в России: в 4 т. / кол. авт. М., 2020. С. 88-95.

8. Брянцева О.В. Этические и правовые аспекты искусственного интеллекта // Информационные технологии в гуманитарных и общественных исследованиях: сборник статей по материалам Всероссийского круглого стола с международным участием в рамках Саратовского международного юридического форума, посвященного 90-летию Саратовской государственной юридической академии. Саратов, 2021. С. 15-17.

9. Брянцев И.И., Брянцева О.В. Правовое регулирование общественных отношений в условиях цифровизации: институты и институциональная среда // Вестник Поволжского института управления. 2021. Т. 21, № 2. С. 56-64.

10. О развитии искусственного интеллекта в Российской Федерации: Указ Президента РФ от 10 окт. 2019 г. № 490. URL: http://publication.pravo.gov.ru/Document/ View/0001201910110

11. О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»: Федер. закон от 24 апр. 2020 г. № 123-ФЗ. URL: http:// publication.pravo.gov. ru/Document/View/0001202004240030

12. Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации: Федер. закон от 31 июля 2020 г. № 258-ФЗ (в ред. от 2 июля 2021 г.). URL: http://publication.pravo.gov.ru/Document/View/0001202007310024

13. Кабмин утвердил концепцию развития машиночитаемого права. URL: https:// pravo.ru/news/235128/

Вестник Поволжского института управления • 2023. Том 23. № 3 4l9

14. Цифровая экономика РФ. URL: https://digital.gov.ru/ru/activity/directions/858/ ?utm_referrer=https%3a%2f%2fwww.google.com%2f

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

15. Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.: распоряжение Правительства РФ от 19 авг. 2020 г. № 2129-р. URL: http://publication.pravo. gov.ru/Docurnent/View/000m2008260005

16. Этические проблемы применения искусственного интеллекта в медицине. URL: https://vc.ru/ml/220966-eticheskie-problemy-primeneniya-iskusstvennogo-intellekta-v-medicine

17. Об установлении экспериментального правового режима в сфере цифровых инноваций и утверждении Программы экспериментального правового режима в сфере цифровых инноваций по эксплуатации высокоавтоматизированных транспортных средств в отношении реализации инициативы «Беспилотные логистические коридоры» на автомобильной дороге общего пользования федерального значения М-11 «Нева»: постановление Правительства РФ от 17 окт. 2022 г. № 1849. URL: http:// publication.pravo.gov.ru/Document/View/0001202210200037

18. Кто ответит за аварию автомобиля-беспилотника. URL: https://www.pnp.ru/so-cial/kto-otvetit-za-avariyu-avtomobilya-bespilotnika.html

19. Боевой дрон впервые атаковал людей самостоятельно. URL: https://lenta.ru/ news/2021/05/31/dron/

20. ВасильеваА.С. К вопросу о наличии авторских прав у искусственного интеллекта // Журнал Суда по интеллектуальным правам. 2022. Декабрь. Вып. 4 (38). С. 107-116.

21. Студент РГГУ защитил диплом, написанный ChatGPT. URL: https://habr.com/ ru/news/714216/

22. Открытое письмо Илона Маска и экспертов-создателей ИИ призывает приостановить дальнейшую разработку ChatGPT из-за непредсказуемой опасности. URL: https://dzen.ru/a/ZCTU0WBRtjTD4chq

23. Конвенция о защите физических лиц при автоматизированной обработке персональных данных (г. Страсбург, 28 января 1981 г.) (вместе с Поправками к Конвенции о защите физических лиц при автоматизированной обработке персональных данных (СДСЕ N 108), позволяющими присоединение европейских сообществ, принятыми Комитетом министров в Страсбурге 15 июня 1999 г.). URL: https://www.con-sultant.ru/document/cons_doc_LAW_121499/

24. Directorate General of Human Rights and Rule of Law. URL: https://rm.coe.int/ guidelines-on-facial-recognition/1680a134f3

25. Европа поставит распознавание лиц на место. URL: https://www.kommersant. ru/doc/4782746

26. Исследование в Китае показало высокую обеспокоенность злоупотреблениями в области распознавания лиц. URL: https://www.ft.com/content/7c32c7a8-172e-11ea-9ee4-11f260415385

27. «Несовместимо со здоровой демократией»!: Впервые в мире принят запрет на использование технологии распознавания лиц. URL: http://www.inform-relig.ru/news/ detail.php?ID=18449&sphrase_id=20035818

28. 6 эмоций, которые отличаются в разных культурах. URL: https://blog.lingoda. com/ru/emocij-kotorye-otlichayutsya-v-raznyh-kulturah/

29. Какие профессии первыми заменит искусственный интеллект. URL: https:// www.klerk.ru/buh/articles/570297/

50 Bulletin of the Volga Region Institute of Administration • 2023. Vol. 23. № 3

i Надоели баннеры? Вы всегда можете отключить рекламу.