ХАДДУР Зейн Алабдин,
Аспирант Юридического факультета финансового университета при Правительстве Российской Федерации, e-mail: [email protected]
Научный руководитель: ДЕМЧЕНКО Максим Владимирович,
кандидат юридических наук, доцент Департамента правового регулирования экономической деятельности Финансового университета при Правительстве Российской Федерации,
e-mail: [email protected]
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПРАВА ЧЕЛОВЕКА: ЮРИДИЧЕСКАЯ И ЭТИЧЕСКАЯ ОТВЕТСТВЕННОСТЬ ЗА УЩЕРБ, ПРИЧИНЕННЫЙ ТЕХНОЛОГИЯМИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Аннотация. Искусственный интеллект произвел революцию в нашем образе жизни и работе, преобразовав отрасли и предоставив новые возможности для инноваций. Однако широкое использование искусственного интеллекта также вызывает опасения по поводу его влияния на права человека. В настоящей научной статье исследуются правовые аспекты относительно искусственного интеллекта и вопросы прав человека, юридическая и этическая ответственность за ущерб, причиненный технологиями искусственного интеллекта, и роль, которую играет искусственный интеллект в формировании нашей повседневной жизни.
Ключевые слова: искусственный интеллект, технологии искусственного интеллекта, права человека, юридическая ответственность, этическая ответственность, ущерб.
KHADDOUR Zen AlAbdin,
Postgraduate Student, Faculty of Law, Financial University under the Government of the Russian Federation Scientific Advisor
Supervisor:
DEMCHENCKO Maksim Vladimirovich,
PhD in Law, Associate Professor, Department of Legal Regulation of Economic Activity, Financial University under the Government of the Russian Federation
ARTIFICIAL INTELLIGENCE AND HUMAN RIGHTS: LEGAL AND ETHICAL LIABILITY FOR DAMAGE CAUSED BY ARTIFICIAL INTELLIGENCE TECHNOLOGIES
Annotation. Artificial intelligence has revolutionized the way we live and work, transforming industries and providing new opportunities for innovation. However, the widespread use of artificial intelligence also raises concerns about its impact on human rights. This research paper explores the legal aspects of artificial intelligence and human rights issues, legal and ethical liability for damages caused by artificial intelligence technologies, and the role that artificial intelligence plays in shaping our daily lives.
Key words: Artificial Intelligence, artificial intelligence technologies, human rights, legal responsibility, ethical responsibility, damage.
DOI: 10.24412/2224-9133-2023-3-18-23 NIION: 2021-0079-3/23-135 MOSURED: 77/27-025-2023-03-135
Введение:
Искусственный интеллект может принести значительную пользу обществу, но также вызывает обеспокоенность по поводу потенциального негативного воздействия на права человека.
Использование технологий искусственного интеллекта стало повсеместным в современном обществе, оно облегчает повседневную жизнь миллионов людей во всем мире - инновации, происходящие в медицине, образовании, экономике, транспорте и т. д. благодаря использованию искусственного интеллекта, впечатляют и меняют жизнь. От персональных помощников, таких как Siri и А1еха, до более сложных систем искусственного интеллекта используемых в беспилотные средства транспорта, искусственный интеллект растет, и его влияние на нашу жизнь также растет, в то же время он создает реальную угрозу неприкосновенности частной жизни людей и нарушает законы о конфиденциальности.
Технологии искусственного интеллекта могут помочь в принятии обоснованных и эффективных решений, а также снизить затраты на производство. Однако в то же время, это может также привести к необоснованным, дискриминационным или расистским выводам, или к решению, ошибочно принимаемому за точное, так как они, как правило, автоматические и основываются на количественных показателях.
В это связи, растущее использование технологий искусственного интеллекта поднимает важные вопросы о конфиденциальности, дискриминации и ответственности в случае ущерба, причиняемого такими интеллектуальными системами, которые так или иначе контролируют жизнь миллионов людей во всем мире.
В США, Европейском Союзе и других странах растет обеспокоенность по поводу использование правительств и крупные технологические компании технологии искусственного интеллекта, чтобы вторгаться в жизнь граждан и собирать информацию об их поведении, что является явным нарушением прав человека. Искусственный интеллект упрощает для правительств ограничение права на неприкосновенность частной жизни, свободу собраний, свободу передвижения и свободу прессы. В дополнение к этому, этические последствия более широкого использования систем искусственного интеллекта и то, как они пересекаются с основными правами человека, в настоящее время неоспоримы. Таким образом, при разработке и внедрении технологий искусственного интеллекта следует руководствоваться этическими и юридическими принципами, которые способствуют уважению прав человека и обеспечивают ответственность за любые негативные последствия.
Искусственный интеллект и права человека
Несомненно, приложения и технологии искусственного интеллекта оказывают как позитивное, так и негативное влияние на жизнь людей, облегчая повседневные задачи, и в то же время, они создают угрозу их конфиденциальности и безопасности, особенно когда крупные технологические компании злоупотребляют технологии искусственного интеллекта для сбора данных своих клиентов, в других случаях роботы и системы искусственного интеллекта продемонстрировали расистское или дискриминационное поведение, что вызывает все большую озабоченность в нашем обществе. Поэтому важно, чтобы компании, разрабатывающие эти жизненно важные технологии, решали проблемы, связанные с поведением этих роботов и систем искусственного интеллекта, и работали над устранением подобных проблем, кроме того, законодатели должны обеспечивать правовые рамки для решения этих вопросов.
Искусственный интеллект может быть полезным источником информации, поскольку он упрощает процесс доступа к информации для людей. Однако в дополнение к полезному аспекту использование технологии искусственного интеллекта существует неоспоримый негативный аспект, заключающийся в негативном влиянии искусственного интеллекта на повседневную жизнь людей, в сферах, связанных с неприкосновенностью частной жизни, дискриминацией, и создает угрозу их основным правам в некоторые случаи.
Дискриминация и предвзятость являются одними из самых больших проблем, связанных с искусственным интеллектом. Это может произойти, когда алгоритмы искусственного интеллекта обучаются на предвзятых данных или, когда они используют такие характеристики, как раса, пол или возраст для принятия решений. Это может негативно сказаться на правах человека, особенно, на праве на недискриминацию. Предвзятость машинного обучения, также известная как предвзятость алгоритма или предвзятость искусственного интеллекта, относится к тенденции алгоритмов отражать человеческие предубеждения. Это явление возникает когда алгоритм выдает систематически предвзятые результаты из-за ошибочных предположений о процессе машинного обучения. [1]
Такого рода дискриминация и предвзятое поведение в системах искусственного интеллекта были замечены, например, в октябре 2019 года. Исследователи обнаружили, что алгоритм, используемый для более чем 200 миллионов человек в больницах США, чтобы предсказать, каким пациентам, вероятно, потребуется дополнительная медицинская помощь, в значительной
степени отдавал предпочтение светлокожим пациентам над темнокожими.
Возможно, наиболее ярким примером предвзятости искусственного интеллекта является алгоритм COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), используемый в судебных системах США для прогнозирования вероятности того, что подсудимый станет рецидивистом.
Благодаря использованным данным, выбранной модели и процессу создания алгоритма в целом модель предсказала в два раза больше ложных срабатываний по рецидиву для темнокожих правонарушителей (45%), чем для белокожих (23%). [2]
В области конфиденциальности становится более очевидным противоречие между преимуществами технологии искусственного интеллекта и рисками для прав человека. Причина в том, что искусственный интеллект может иметь серьезные последствия для конфиденциальности, особенно если он используется для сбора и обработки личных данных. Это могут быть системы распознавания лиц, распознавания голоса и другие биометрические технологии. Эти технологии вызывают обеспокоенность по поводу права на неприкосновенность частной жизни, права на защиту данных и права на свободу от слежки.
Искусственный интеллект является мощным активом, но также может представлять угрозу конфиденциальности и безопасности данных, риск несанкционированного доступа или использования персональных данных. Системы искусственного интеллекта требуют доступа к огромным объемам данных, и эти данные могут включать в себя очень важную информацию, такую как медицинские записи, финансовую информа ц ию и даже биометрические данные, такие как отпечатки пальцев или данные распознавания лиц. Эта информация может быть ценной для хакеров и киберпреступников, и существует риск ее неправомерного использования.
Для решения проблем, связанных с искусственным интеллектом и конфиденциальностью данных, некоторые страны начали принимать законы о защите, регулирующие использование персональных данных системами искусственного интеллекта.
Например, Европейский Союз, приняв свою стратег и ю искусственного интеллекта, сделал несколько значительных шагов вперед в организации экспертной группы высокого уровня, которая опубликовала свой первый план действий в феврале 2019 года, направленный на продвижение над е жного искусственного интеллекта с помощью этических принципов, политики и инвестиционные рекомендации. [3]
Юридиче с кая и этическая ответственность за ущерб, причиненный технологиями искусственного интеллекта
С разви т ием технологий искусственного интеллекта и по мере того, как искусственный интеллект становится все более распространенным в обществе, все более актуальным становится ряд правовых и этических вопросов, связанных с ответственностью за ущерб, причиненный технологиями искусственного интеллекта.
Проблем а правовой и этической ответственно с ти за ущерб, причиняемый системами искусственного интеллекта, активно обсуждается в юриди ч еской и научной общественности и тесно связана с вопросом определения природы и сущно с ти искусственного интеллекта. Это философский вопрос, который имеет полярные мнения о том, как искусственный интеллект рассматривается с юридической точки зрения.
Вопрос ю ридической и этической ответственности за ущерб, причиненный искусственным интеллектом, становится более важным в эпоху беспилотных автомобилей и роботов-хирургов, а также использования искусственного интеллекта в управлении дорожным движением, поскольку ошибки, которые совершают системы искусст в енного интеллекта, могут привести к гибели людей, что случалось уже неоднократно. Например, в 2018 году беспилотный автомобиль сбил насмерть 49-летнюю женщину, потому что он не б ы л запрограммирован на обнаружение пешеходов. [4]
Эта авария далеко не отдельный или единичный случай, а скоре закономерность. В 2022 компании производящие самоуправляемые автомобили в США сообщили о почти 400 авариях с участием таких автомобилей за 11 месяцев. [5] Эти цифры вызывают тревогу, особенно, в связи с отсут с твием правовых норм, определяющих юридиче с кую и этическую ответственность в таких авариях.
С этической точки зрения ведутся жаркие споры о том, кто должен нести ответственность за любо й ущерб, причиненный беспилотными автомоб и лями и технологиями искусственного интеллекта в целом. Некоторые утверждают, что произво д ители этих технологий должны нести ответственность, поскольку они имеют наибольший контроль над проектированием и программированием этих систем. Другие утверждают, что ответственность должны нести производители, операто р ы транспортных средств (например, компании по совместному использованию транспортных средств) и лица, использующие технологию.
С практической точки зрения может быть сложно возложить вину за ущерб, причиненный беспилотными автомобилями и технологиями
искусственного интеллекта, поскольку существует множество факторов, которые могут способствовать авариям. Однако важно, чтобы производители, операторы и отдельные лица предпринимали шаги для сведения к минимуму риска несчастных случаев, например, путем разработки более безопасных и надежных технологий, которые помогут обеспечить надлежащее обучение и поддержку операторов, а также соблюдать установленные правила и нормы безопасности.
Вопрос этической ответственности за ущерб, причиненный беспилотными автомобилями и технологиями искусственного интеллекта, сложен и многогранен. Поскольку эти технологии продолжают развиваться и становятся все более распространенными, важно, чтобы политики, лидеры отрасли и отдельные лица работали вместе, чтобы обеспечить их безопасное и ответственное использование.
С юридической точки зрения, существует три подхода к тому, как искусственный интеллект воспринимается [6]. Эти подходы так или иначе определяют правовой статус искусственного интеллекта.
Первый подход - искусственный интеллект как объект права: некоторые эксперты утверждают, что искусственный интеллект не является по-настоящему разумным, а является инструментом, выполняющим задачи. Он основан на алгоритмах и не имеет оснований иметь юридический статус. Таким образом, системы искусственного интеллекта рассматривают как объект гражданских правоотношений. При таком понимании, технологии искусственного интеллекта подчиняются правовому режиму вещей. Эта точка зрения больше соответствует действующей правовой базе, которая обычно рассматривает искусственный интеллект как инструмент, а не как предмет.
Второй подход - искусственный интеллект как субъект права: согласно этому подходу, системы искусственного интеллекта рассматриваются исключительно как субъект правоотношений. При таком понимании, системы искусственного интеллекта будут рассматриваться как обладающие правосубъектностью и обладающие правами и обязанностями.
Эта точка зрения потребует значительного сдвига в юридическом мышлении и поставит ряд сложных вопросов о том, как возложить ответственность на искусственный интеллект.
Третий подход объединяет первые два подхода, рассматривая технологию искусственного интеллекта как объект и субъект гражданско-правовых отношений одновременно. Такой подход предполагает, что неавтономным или частично автономным искусственным интеллектом следует считать инструменты, контролируемые субъек-
тами гражданско-правовых отношений (производителями, разработчиками, собственниками).
Юридическая ответственность за ущерб, причиненный технологиями искусственного интеллекта, согласно этому подходу, лежит на разработчиках и владельцах систем искусственного интеллекта. Другая позиция также предполагает определение уровня автономии, которым обладает система искусственного интеллекта, причинившая ущерб, для установления лица, ответственного за действие или бездействие системы искусственного интеллекта, причинившей ущерб.
С юридической точки зрения вопрос ответственности за ущерб, причиненный системами искусственного интеллекта, все еще является развивающейся отраслью права, единого подхода к определению юридической ответственности не существует, она определяется исходя из конкретных обстоятельств каждого дела.
В целом ответственность за ущерб, причиненный системой искусственного интеллекта, может возникнуть в соответствии с различными правовыми доктринами, включая деликтное право, договорное право и право интеллектуальной собственности. Например, в соответствии с деликтным правом сторона может быть привлечена к ответственности за ущерб, причиненный ее небрежностью, безрассудством или умышленным нарушением. Договорное право также может вступить в силу, если стороны заключили соглашения, в которых распределяются риски и ответственность за ущерб, причиненный искусственным интеллектом.
Существует острая необходимость в современной правовой базе и стандартах для решения уникальных вызовах, связанных с искусственным интеллектом, некоторые страны уже ввели правила, регулирующие технологии искусственного интеллекта. В 2012 году Европейская комиссия представила проект Robolaw, целью которого является изучение того, как новые технологии в области биоробототехники (включая искусственный интеллект) влияют на национальную и европейскую правовые системы. Наиболее важным результатом проекта RoboLaw стало «Руководство по регулированию робототехники», его целью является создание прочной правовой базы для развития робототехнических технологий в Европе. [7]
На международном уровне, в статье 12 Конвенции Организации Объединенных Наций об использовании электронных сообщений в международных договорах [8] говорится, что лицо, запрограммировавшее компьютерную систему, или лицо, от имени которого она была запрограммирована, будь то физическое или юридическое
лицо, должен нести ответственность за ущерб и действия, порожденные компьютерной системой.
Заключение:
Искусственный интеллект может как укреплять, так и нарушать права человека, и для того, чтобы сделать искусственный интеллект более полезным, не создавая при этом угрозы правам человека, должен быть набор этических и юридических руководящих принципов, охватывающих темы, связанные с прозрачностью, конфиденциальностью, безопасностью и дискриминацие.
Правовые нормы для определения ответственности за ущерб, причиненный искусственным интеллектом, все еще развиваются и, вероятно, будут продолжать развиваться по мере того, как технологии искусственного интеллекта станут более изощренными и широко распространенными. Поэтому, должна быть разработана нормативно-правовая база. Кроме того,
большое значение здесь имеет международное сотрудничество, и его следует усилить.
Вопросы ответственности необходимо будет решать за пределами национальных границ. Международное сотрудничество будет необходимо для создания согласованных рамок ответственности и обеспечения подотчетности в разных юрисдикциях.
Таким образом, юридическая и этическая ответственность за ущерб, причиненный технологиями искусственного интеллекта, является сложной и быстро развивающейся темой. Потребуются четкие стандарты и руководящие принципы для обеспечения того, чтобы ответственные стороны несли ответственность за любой ущерб, причиненный искусственным интеллектом, а также для продвижения инноваций и разработки полезных технологий искусственного интеллекта.
Список литературы:
[1] Z. larkin, AI Bias - What Is It and How to Avoid It? November 16, 2022 https://levity.ai/blog/ai-bias-how-to-avoid
[2] Real-life Examples of Discriminating Artificial Intelligence, Datatronhttps://datatron.com/real-life-examples-of-discriminating-artificial-intelligence/
[3] E.K. Mpinga , N.K.Z Bukonda, S. Qailouli, P. Chastonay, Dove press, February 2022 Artificial Intelligence and Human Rights: Are There Signs of an Emerging Discipline? A Systematic Review. https:// www.dovepress.com/artificial-intelligence-and-human-rights-are-there-signs-of-an-emergin-peer-reviewed-fulltext-article-JMDH
[4] Self-driving Uber car that hit and killed woman did not recognize that pedestrians jaywalk, NBCNews, https://www.nbcnews.com/tech/tech-news/self-driving-uber-car-hit-killed-woman-did-not-recognize-n 1079281
[5] Nearly 400 car crashes in 11 months involved automated tech, companies tell regulators, 15.06.2022, NPR https://www.npr.org/2022/06/15/1105252793/nearly-400-car-crashes-in-11-months-involved-auto-mated-tech-companies-tell-regul
[6] R. Maydanyk, N. R. Maidanyk, M. Veylkanova, Liability for damage caused using artificial intelligence technologies, June 2021 https://www.researchgate.net/publication/353488165_Liability_for_damage_ caused_using_artificial_intelligence_technologies
[7] P Cerka, J. Grigiene, G. Sirbikyte, Liability for damage caused by artificial intelligence, Computer Law & Security Review, June 2015.
https://www.sciencedirect.com/science/article/abs/pii/S026736491500062X
[8] United Nations Convention on the Use of Electronic Communications in International Contracts (New York 2005).
https://uncitral.un.org/en/texts/ecommerce/conventions/electronic_communications
Spisok literatury:
[1] Z. larkin, AI Bias - What Is It and How to Avoid It? November 16, 2022 https://levity.ai/blog/ai-bias-how-to-avoid
[2] Real-life Examples of Discriminating Artificial Intelligence, Datatronhttps://datatron.com/real-life-ex-amples-of-discriminating-artificial-intelligence/
[3] E.K. Mpinga, N.K.Z Bukonda, S. Qailouli, P. Chastonay, Dove press, February 2022 Artificial Intelligence and Human Rights: Are There Signs of an Emerging Discipline? A Systematic Review. https://www. dovepress.com/artificial-intelligence-and-human-rights-are-there-signs-of-an-emergin-peer-reviewed-full-text-article-JMDH
[4] Self-driving Uber car that hit and killed woman did not recognize that pedestrians jaywalk, NBC-News, https://www.nbcnews.com/tech/tech-news/self-driving-uber-car-hit-killed-woman-did-not-recog-nize-n1079281
[5] Nearly 400 car crashes in 11 months involved automated tech, companies tell regulators, 15.06.2022, NPR https://www.npr.org/2022/06/15/1105252793/nearly-400-car-crashes-in-11 -months-involved-automat-ed-tech-companies-tell-regul
[6] R. Maydanyk, N. R. Maidanyk, M. Veylkanova, Liability for damage caused using artificial intelligence technologies, June 2021 https://www.researchgate.net/publication/353488165_Liability_for_damage_ caused_using_artificial_intelligence_technologies
[7] P Cerka, J. Grigiene, G. Sirbikyte, Liability for damage caused by artificial intelligence, Computer Law & Security Review, June 2015.
https://www.sciencedirect.com/science/article/abs/pii/S026736491500062X
[8] United Nations Convention on the Use of Electronic Communications in International Contracts (New York 2005).
https://uncitral.un.org/en/texts/ecommerce/conventions/electronic_communications
vsmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm.