УДК 340.12, 349.2 Ежегодник трудового права. 2024. Вып. 14
Трудовое право и искусственный интеллект: точки соприкосновения и расхождения
Д. А. Новиков
Санкт-Петербургский государственный университет,
Российская Федерация, 199034, Санкт-Петербург, Университетская наб., 7-9
Для цитирования: Новиков, Денис А. 2024. «Трудовое право и искусственный интеллект: точки соприкосновения и расхождения.» Ежегодник трудового права 14: 156-174. https://doi.org/10.21638/spbu32.2024.109
Появление высокотехнологичных и самообучающихся алгоритмов искусственного интеллекта (ИИ) обуславливает начало беспрецедентной трансформации социально-производственных процессов, которая коренным образом повлияет на всю сферу труда. По мнению автора, внедрение ИИ в сферу труда без сомнения приведет к временному всплеску технологической безработицы, однако в долгосрочной перспективе новые технологии позволят создавать большее количество рабочих мест в новых отраслях экономики. Влияние ИИ на уровень безработицы зависит от конкретных условий использования и должно быть подвергнуто государственному регулированию. Автор указывает, что в результате внедрения алгоритмов ИИ в сфере труда возникают не только традиционные проблемы усиления хозяйской власти работодателя, дискриминации или несанкционированного сбора персональных данных, но и более сложный комплекс юридических проблем, связанный с ответственностью работодателя за принятые решения, которые он сам не может контролировать. Поэтому для трудового права важнейшей задачей является устранение расхождений между действующей моделью правового регулирования трудовых отношений и рисками внедрения ИИ в процессы принятия решений при найме и контроле работников. Наука трудового права должна выработать актуальные подходы к разумному ограничению использования ИИ, учитывая особенности современных алгоритмических технологий, производственных перспектив, юридических и социальных рисков. Автором критикуются предложения наделения ИИ правосубъектностью и возможностью делегирования алгоритмам ответственности за осуществление работодательских функций. По мнению автора, ИИ не может обладать правосубъектностью в трудовых отношениях (как и в правоотношениях любого иного вида), так как функционирование ИИ осуществляется через датификацию всех их участников без цели достижения общественно значимого результата и установления взаимодействия между субъектами права по поводу удовлетворения их потребностей. ИИ является средством автоматизации трудовых процессов, цифровым интерфейсом взаимодействия между элементами производственной системы. Автор констатирует, что ИИ в правовой реальности может существовать исключительно в качестве объекта права. Автор предлагает закрепить в трудовом законодательстве презумпцию ответственности работодателя за принятые решения ИИ вне зависимости от изначально запрограммированных алгоритмов, даже если они были изменены ИИ в результате машинного обучения.
Ключевые слова: искусственный интеллект, машинное обучение, трудовые отношения, найм, контроль, правосубъектность, ответственность.
© Санкт-Петербургский государственный университет, 2024
Если краткосрочное воздействие искусственного интеллекта зависит от того, кто его контролирует, то долгосрочное — от того, будет ли вообще возможен такой контроль. Все мы должны задать себе вопрос о том, что мы можем сделать сейчас, чтобы повысить шансы на извлечение выгоды и при этом избежать рисков.
Стивен Хоукинг1
1. Введение
Четвертая промышленная революция, происходящая в первой половине ХХ1 в., характеризуется распространением гиг-экономики и платформенной занятости, алгоритмизацией производственных процессов, внедрением искусственного интеллекта (далее — ИИ) в сферу труда.
Что касается гиг-экономики, то проблемы, возникающие в условиях платформенной занятости как ее технологической среды, значительны: от признания за занятыми на цифровых платформах базовых трудовых прав и гарантий до их коллективного участия в переговорах с цифровыми платформами и включения в систему социального обеспечения. Однако следует заметить, что кроме активного задействования цифровых технологий непосредственно гиг-экономика и ее фундаментальные принципы экономии на рабочей силе и трудо-правовых издержках являются логическим продолжением повсеместного внедрения нестандартной занятости. Как отмечается в отчете МОТ, «за последние несколько десятилетий как в промышленно развитых, так и в развивающихся странах произошел заметный переход от стандартной занятости к нестандартной занятости, включая временную занятость, занятость на неполный рабочий день, временную работу через агентство и другие отношения, замаскированные под трудовые, а также зависимую самостоятельную занятость» (ILO 2016)2. Эксперт МОТ Валерио Де Стефано поясняет, что «работа по запросу в гиг-экономике имеет много общего с иными формами нестандартной работы: другими словами, это комбинация и ребрендинг давно устоявшихся моделей. Технологии играют решающую роль в обеспечении устойчивого роста гиг-экономики, но, несмотря на призывы к полному пересмотру применимых законов и правил, становится все более очевидным, что основное политическое решение заключается в последовательном применении и обеспечении соблюдения существующих моделей регулирования» (DeStefano 2016).
Однако данные положения совсем не подходят под описание трансформаций, связанных с внедрением сложных алгоритмов, ИИ и машинного обучения (machinelearning) в сферу труда. Так, появление больших наборов данных (bigdata) и резкое снижение стоимости вычислительной мощности способствовало разви-
1 Hawking, Stephen, Stuart Russell, Max Tegmark and Frank Wilczek. 2014. "Transcendence looks at the implications of artificial intelligence — but are we taking AI seriously enough?"Independent. 2014. May 1. URL: https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence-but-are-we-taking-ai-seriously-enough-9313474.html (дата обращения: 29.04.2023).
2 Non-Standard Employment Around the World: Understanding Challenges, Shaping Prospects. URL: https://www.ilo.org/global/publications/books/WCMS_534326/lang—en/index.htm (дата обращения: 29.04.2023).
тию машинного обучения — вероятностного анализа больших наборов данных, основанного на сложном статистическом моделировании для выявления закономерностей или корреляций в данных. Это важный шаг в сторону от традиционного понимания алгоритмов: машинное обучение рассчитано на постоянную эволюцию и переопределение параметров ИИ — алгоритмический контроль более не ограничивается только опытом, полученным с помощью обучающих наборов данных и предварительно запрограммированных аналитических процедур. Именно так работают ChatGPT-4, Microsoft Bing Chat, Google Bard, Giga Chat. По мере сбора все большего количества данных о работниках и постоянного изучения ИИ каждого аспекта трудовой деятельности трансформируются подходы к принятию решений об оценке профессиональных компетенций работников, их продуктивности и осуществлении контроля за трудовыми процессами.
Поэтому принятие решений с помощью ИИ постепенно становится важным элементом большинства функций работодателя, от найма работников до ежедневного контроля эффективности выполнения их работы. Вследствие этого традиционная модель правового регулирования трудовых отношений сталкивается с существенными вызовами. На некоторые из них (например, вопрос защиты персональных данных работника при их сборе и обработке ИИ) можно ответить путем тщательной адаптации существующих стандартов, в то время как другие, включая, в частности, ответственность работодателя за ключевые решения, принятые ИИ, могут потребовать фундаментального переосмысления существующих норм трудового права.
В данной публикации автор стремится исследовать точки соприкосновения и расхождения трудового права и ИИ в вопросах технологической безработицы, найма работников, контроля за их трудовой деятельностью, ответственности работодателя за принятия решений ИИ.
2. Основное исследование
2.1. Искусственный интеллект и технологическая безработица
Главным критическим аргументом против внедрения ИИ в производственные процессы является перспектива нового витка технологической безработи-цы3. Необходимо ответить на данную критику, ведь именно ее массовый характер, влияющий на общественное мнение, не дает возможности верно оценить потенциал ИИ и выработать механизмы правового регулирования его использования в сфере труда.
В разгар экономической депрессии 1930-х годов Джон Мейнард Кейнс написал эссе «Экономические возможности для наших внуков». Там, где другие видели застой и упадок, он предсказал процветание и развитие. Ключом к этому видению были беспрецедентные технологические усовершенствования в производстве и транспортировке. По мнению Кейнса, в долгосрочной перспективе полученный в результате прирост производительности приведет к многократному повышению
3 Еще в Древней Греции Платон в «Федре» описывал, как письмо вытеснит человеческую память, а чтение заменит истинное знание простыми данными; в Х1Х в. перепуганные неминуемой потерей работы британцы под предводительством Неда Лудда уничтожали ненавистные машины.
уровня жизни для всех. В краткосрочной перспективе, однако, «сама быстрота этих изменений причиняет нам вред и ставит сложные проблемы, требующие решения» (Keynes 1963, 361).
В статье 2013 г., посвященной рынку труда США, Карл Фрей и Майкл Осборн делают следующий прогноз: в результате достижений в области машинного обучения чуть менее половины всех рабочих мест в США подвергнутся «высокому риску» быть автоматизированными в ближайшем будущем. Фрей и Осборн считают, что потеря рабочих мест будет сконцентрирована в нижней части рынка труда: «компьютеризация в основном заменит низкоквалифицированную и низкооплачиваемую работу, большинство работников транспорта и логистики, а также значительную часть административных и вспомогательных работников. Кроме того, в группе риска находятся работники производственных профессий» (Frey and Osborne 2013, 42).
В похожем ключе Эрик Бриньолфссон и Эндрю Макафи утверждают, что технологический прогресс окажет резкое поляризующее влияние на рынок труда: «никогда не было лучшего времени, чтобы быть работником со специальными навыками или правильным образованием, потому что эти люди могут использовать технологии для создания и закрепления стоимости. Тем не менее никогда не было худшего времени для работника, обладающего только "обычными" навыками и способностями, потому что компьютеры, роботы и другие цифровые технологии приобретают эти навыки и способности с необычайной скоростью» (Brynjolfsson and McAfee 2014, 57).
Следовательно, можно предположить, что, учитывая экспоненциальный рост машинного обучения и ИИ, гиг-экономика — это всего лишь переходное явление перед тем, когда большая часть низкоквалифицированного труда на цифровых платформах будет передана алгоритмам и роботам. Этому процессу способствуют шаги по урегулированию платформенной занятости4 и предложений, применение стандартов трудового законодательства к занятым на цифровых платформах (Мингалёва и Шуралёва 2021), что, в свою очередь, создаст дополнительное давление для ускорения этого перехода: стоимость платформ будет стимулировать инновации — не в последнюю очередь в низкооплачиваемом секторе. По словам Синди Эстлунд, «автоматизация — это совершенно законный и почти неоспоримый способ избежать затрат на найм людей. Особенно в нижней части рынка труда повышение минимального уровня заработной платы, пособий и условий труда усиливает экономическое обоснование автоматизации технически автоматизированных предприятий. рабочие места» (Estlund 2018, 254). То есть до тех пор, пока рабочие места можно автоматизировать, их будут автоматизировать. Одновременно с этим исторический опыт свидетельствует, что технологии делают производство более продуктивным, снижая цены и повышая реальный доход. В конечном итоге удовлетворение одних потребностей людей приводит к появлению новых,
4 11.01.2023 в Государственную Думу был внесен проект Федерального закона № 275599-8 «О занятости населения в Российской Федерации», которым предлагается закрепить нормативное понятие платформенной занятости. — Здесь и далее все ссылки на российские и международные нормативно-правовые акты приводятся по СПС «КонсультантПлюс». URL: http://www.consultant.ru (дата обращения: 23.10.2023).
что стимулирует появление новых отраслей производства и услуг и соответственно предполагает создание новых рабочих мест.
Согласно отчету Азиатского банка развития 2018 г., было объявлено, что внедрение ИИ не полностью заменяет работу людей, а скорее меняет форму рабочей силы. В более подробном объяснении автоматизация задач может реструктурировать некоторые типы работ, которые обычно являются рутинными низкоуровневыми работами, аналогичными работами с рутинными и повторяющимися задачами и работами, которые ставят людей во вредные или опасные ситуации. Эта реструктуризация работы во многих случаях привела к тому, что работники высвободились, чтобы сосредоточиться на более сложной работе. Кроме того, появление робототехники и ИИ создает новые компании и отрасли, а также является основным фактором создания рабочих мест. Например, в Индии, Малайзии и на Филиппинах 43-57 % новых должностей, созданных за последние десять лет, связано с информационными и коммуникационными технологиями. Ожидается также появление других новых рабочих мест в Азиатском регионе, включая здравоохранение, образование, финансы, страхование, недвижимость и другие бизнес-услу-ги5. Этот вывод согласуется с отчетом The Future of Job Report 2021 г., в котором прогнозируется, что к 2025 г. до 85 млн рабочих мест могут быть вытеснены из-за сдвига в разделении труда между людьми и машинами. При этом ожидается создание 97 млн рабочих мест в таких отраслях, как ИИ, машинное обучение, сформируется потребность в инженерах, специалистах по автоматизации процессов и аналитики больших данных6.
Таким образом, внедрение ИИ в сферу труда без сомнения приведет к временному всплеску технологической безработицы, однако в долгосрочной перспективе новые технологии позволят создавать большее количество рабочих мест в новых отраслях экономики. Влияние ИИ на уровень безработицы зависит от конкретных условий использования и должно быть подвергнуто государственному регулированию. Поэтому для смягчения влияния ИИ на рынок труда и уменьшения уровня безработицы следует разработать программы переквалификации и обучения для работников, которые могут потерять работу из-за автоматизации и цифровиза-ции производства; ввести налогообложение на использование ИИ в производстве, что будет направлено на создание фондов для поддержки безработных и развития новых отраслей экономики; урегулировать использование ИИ в определенных отраслях экономики, где автоматизация может привести к массовому увольнению рабочих (например, установить квоты на использование ИИ в определенных отраслях производства); создать программы поддержки малого и среднего бизнеса, которые могут использовать ИИ для повышения эффективности своей деятельности и создания новых рабочих мест; урегулировать использование ИИ в критически важных социальных сферах, где цифровизация может привести к массовому сокращению рабочих мест (например, установить ограничения на использование ИИ в сфере здравоохранения и образования). Как видим, с помощью правового
5 Asian Development Outlook 2018: How Technology Affects Jobs. Manila. URL: https://www. adb.org/publications/asian-development-outlook-2018-how-technology-affects-jobs (дата обращения: 29.04.2023).
6 The Future of Jobs Report 2020. Geneva. URL: https://www.weforum.org/reports/the-future-of-jobs-report-2020 (дата обращения: 29.04.2023).
регулирования, в том числе в сфере трудового законодательства, можно обратить негативный эффект внедрения ИИ и сформировать стимулы создания новых рабочих мест в высокотехнологичных отраслях экономики.
В свою очередь, использование непосредственно ИИ в трудовых процессах и принятие юридически значимых решений порождают меньше общих точек соприкосновения с трудовым правом.
2.2. Искусственный интеллект, найм и контроль
В трудовых отношениях и отношениях, предшествующих им, ИИ наиболее полезен в вопросах найма и контроля работников. Как отмечает Эби Адамс, «ИИ может изменить как процесс поиска, так и процесс найма, а также облегчить новые схемы мониторинга и управления эффективностью после начала трудовых отношений. Повышенная легкость, с которой организации могут контролировать своих работников, должна помочь повысить производительность увеличения дисциплины на рабочем месте. Информация, полученная с помощью ИИ, также может позволить организациям реструктурировать рабочие места таким образом, чтобы это приносило пользу работникам» (Adams 2018, 354). Следует отметить, что уже на примере платформенной занятости можно убедиться в эффективности ИИ при сборе информации об исполнителях и их оценках от пользователей («Яндекс Go», Uber, Wildberries).
Онлайн-платформы по трудоустройству и подбору работников («Работа в России», HeadHunter) предлагают пример эмпирических поисковых возможностей. Эти веб-сайты собирают данные в режиме реального времени, отражающие динамику рабочей силы в определенных отраслях и регионах. Данные из резюме работников предоставляют информацию об образовании, опыте и компетенциях, дают возможность указывать дополнительные критерии к компетенциям работников. Объявления о вакансиях фиксируют колебания спроса на рабочую силу и демонстрируют изменения спроса на определенные компетенции. Сложные алгоритмы ИИ сопоставляют работодателей и работников на сайтах вакансий, ранжируя их, учитывая трудовой стаж, вертикальные и горизонтальные карьеры перемещения работников, предпочитаемый режим работы, размер заработной платы и т. п., а также аналогичные требования от работодателей.
В 2019 г. компания Amazon была вынуждена отказаться от своего автоматического инструмента для найма работников после того, как алгоритм машинного о бучения начал систематически отклонять кандидатов-женщин на инженерные должности. Алгоритм, используя технологию машинного обучения, научился отдавать предпочтение кандидатам-мужчинам, а не женщинам. Программа нашла выражения, используемые мужчинами в резюме (а именно слова «исполнять» и «заканчивать»), более убедительными. ИИ решил, что самопрезентация мужчинами своих трудовых достижений была более эффективной. Кроме того, система обучалась на резюме, представленных претендентами, получившими работу за десятилетний период, большая часть из которых поступила от мужчин7. Отсюда
7 Oppenheim, Maya. 2018. "Amazon scraps 'sexist AI' recruitment tool." Independent. 11.10. URL: https://www.independent.co.uk/life-style/gadgets-and-tech/amazon-ai-sexist-recruitment-tool-algorith-ma8579161.html (дата обращения: 29.04.2023).
можно определить очевидную проблему при найме работников с использованием алгоритмов ИИ: риск прямой и косвенной дискриминации.
Кроме применения ИИ при найме работников, все большее распространение получает контроль за трудовой деятельностью с помощью устройств, оснащенных ИИ. Такие технологии алгоритмического контроля уже повсеместно используются в платформенной занятости, маскируя это необходимостью получения информации о качестве оказанной услуги, устанавливая по данному критерию рейтинг исполнителей. Uber первым использовал iPhone своих водителей для измерения того, как быстро они разгоняются и тормозят, заложив это в качестве критерия ранжирования для поступающих на платформу заказов. Кроме того, Uber прибегал к деактивации до 10 минут аккаунта водителя за неоднократный отказ водителя от невыгодных, по решению алгоритма, поездок8. Российский интернет-магазин Wildberries, организующий свою деятельность через механизмы коммерческой концессии и платформенной занятости, прибегает к использованию коллективного ранжирования точек выдачи товаров и штрафных санкций для сотрудников точки за низкий коллективный рейтинг9.
При этом алгоритмический контроль в платформенной занятости осуществляется бесчисленным множеством способов, часто избегая прямых приказов или явных инструкций. Как пишет Фиби Мур, «в результате использования автоматизированных рейтинговых механизмов, геймификации и основанных на стимулах механизмов "подталкивания" алгоритмический контроль становится все более эффективным в контроле над большими разнородными рабочими силами, при этом тщательно избегая видимости традиционного контроля со стороны работодателя» (Moore 2017). Алекс Розенблат и Люк Старк демонстрируют, как условия труда могут быть легко «сформированы путем развертывания компанией различных проектных решений и информационной асимметрии через приложение для осуществления "мягкого контроля" над рутиной трудовых операций. Несмотря на то что инструкции разработаны, чтобы оказывать косвенное воздействие, они могут привести к тому же результату, что и прямые приказы, воспитывая "высокоинди-видуализированное" чувство ответственности» (Rosenblat and Stark 2016, 3775). Ро-зенблат и Старк приводят пример, когда водитель Uber готов отключится от приложения, алгоритмический контроль быстро вмешивается, выводя на экран водителя всплывающее сообщение, сопровождаемое значком повышения цены: «Вы уверены, что хотите выйти из сети? Спрос в вашем регионе очень высок. Делай больше денег, не останавливайся сейчас!»То есть реальная цель платформенных алгоритмов ИИ заключается в осуществлении контроля цифровой платформы над эффективностью труда исполнителей и их вовлеченностью в трудовую деятельность.
Что же касается традиционных трудовых отношений, то в первой волне так называемой человеческой аналитики (people analytics) акцент делался на расширении возможностей принятия организационных решений: алгоритмы машинного
8 Doug, H. 2022. "Fired from Uber: Why drivers get deactivated, and how to get reactivated." Ride Sharing Driver. URL: http://www.ridesharingdriver.com/fired-uber-drivers-get-deactivated-and-reactivat-ed/ (дата обращения: 29.04.2023).
9 Афанасьева, Надежда. 2023. «Вся зарплата уходит на штрафы: почему сотрудники Wildberries решились на забастовку.» АфишаDaily. URL: https://daily.afisha.ru/stories/25358-vsya-zarplata-uhodit-na-shtrafy-pochemu-sotrudniki-wildberries-reshilis-na-zabastovku/ (дата обращения: 29.04.2023).
обучения анализировали большие наборы данных в поисках ключевой информации о рабочих местах для лучшего обустройства физического пространства и обеспечения более продуктивной работы. Однако, как отметил Дэвид Аутор, «по мере того, как стоимость сбора и обработки данных продолжает снижаться, работодатели все чаще могут внедрять технологии и контролировать рабочее место в ранее невообразимой степени» (Autor 2001, 29). Устройства, используемые работодателем, представляют собой портативные компьютеры, которые можно разместить на теле, униформе или рабочем месте работника и получать различную информацию об эффективности выполняемой работы. Работодатель может анализировать эффективность труда работника на основе координат местоположения, полученных устройством, или на основе данных о частоте сердечных сокращений сотрудника10.
Одним из наиболее известных датчиков алгоритмического контроля работников является Humanyze, созданный в 2010 г. учеными Массачусетского технологического института. Humanyze представляет собой социометрический значок — высокотехнологичный идентификатор трудовой активности. Humanyze предназначен для измерения того, находится ли работник в движении или неподвижен, насколько он близко расположен к другим работникам в течение рабочего дня, говорит или не говорит работник, а также частоты и продолжительности личных взаимодействий работников. Собранные данные анализируются для выявления наиболее эффективной организации труда и минимизации нетрудового взаимодействия между работниками.
Humanyze имеет ряд альтернатив на рынке технологий ИИ по контролю за трудовыми процессами (ADP Workforce Now, Paychex Flex, Hireology, Xoxoday Empuls, Hibob HRIS, Clear Company, Sprout Solutions HR, Personio). Большинство из поставщиков программного обеспечения в области «человеческой аналитики» предлагают программные решения, которые также позволяют работодателям фиксировать цифровые действия сотрудников: снимки экрана, сделанные через определенные промежутки времени; данные о нажатии клавиш, совершенных звонках в мес-сенджерах, отправленных электронных письмах и других сообщениях. Даже если фактическое содержание таких сообщений или писем не раскрывается и не анализируется, так называемые метаданные (например, продолжительность и частота звонков или размер файлов вложений электронной почты и время отправки) могут быть установлены и применены алгоритмом.
Собственную систему алгоритмического контроля разработала транснациональная компания Amazon, которая использовала полученные данные о продуктивности работников для их увольнения. Причем решение о необходимости прекращения трудовых отношений принял ИИ без участия уполномоченных лиц работодателя. Как отмечает Колин Лехер, «система Amazon отслеживает показатели
10 В профессиональном футболе все активнее используются специальные жилеты, которые футболисты носят под футболками. В жилете спрятано специальное GPS-устройство: небольшой датчик, находящийся между лопаток спортсмена. Устройство собирает информацию о физическом состоянии игрока и отправляет ее на компьютер тренерского штаба. Датчики подсчитывают пульс футболиста, температуру тела, скорость бега и общую дистанцию. Программное обеспечение позволяет настроить параметры отслеживания под требования тренера или игрока. Например, это позволяет выяснить, как конкретный спортсмен справляется с определенной нагрузкой, как адаптируется к нестандартным ситуациям и насколько долго он восстанавливается после столкновения на поле.
производительности каждого отдельного работника и автоматически генерирует решения в отношении качества или производительности без участия руководителей. Если работники слишком долго прерывают сканирование посылок, система автоматически выдает предупреждения, и в конце концов работника могут уволить»11. Уволенные работники обратились в суд. Во время рассмотрения дела судом представитель Amazon утверждал, что руководство склада не имело доступа, контроля или понимания деталей развернутой системы ИИ. Данное заявление отображает риски делегирования ИИ не только функций контроля, но и ответственности за принятие решений.
Рассмотренный пример также демонстрирует, что принятие решений ИИ, как и в случаях с использованием алгоритма для найма работников, может воспроизводить или даже усиливать модели дискриминации при контроле за трудовыми процессами. Как указывает Йеремия Адамс-Прассль, «итеративный подход, присущий современным методам машинного обучения, может сделать ИИ крайне непредсказуемым и необъяснимым, поскольку изменяющиеся параметры принятия решений практически невозможно реконструировать или задокументировать исчерпывающим образом. Это означает, что причина, по которой рабочий был уволен его "алгоритмическим боссом", может быть уже неактуальна или даже невыяв-ляема через несколько дней после события» (Adams-Prassl 2019).
При этом использование ИИ для контроля не следует отождествлять с правом работодателя на получение информации, даже если ее сбор ведется с согласия работника. Как верно отметил Йеремия Адамс-Прассль, ИИ использует итеративный подход, который предусматривает выполнение операций параллельно с непрерывным анализом полученных результатов и корректировкой последующих этапов работы. Все операции алгоритма проходят повторяющийся цикл Деминга, или PDCA («Plan-Do-Check-Act»): планирование — реализация — проверка — корректировка. Следует учесть, что цикл Деминга ИИ проходит методом машинного обучения, то есть не через прямое решение задачи, а с помощью обучения за счет применения решений множества сходных задач. Оценка данных ИИ в момент принятия решений с большой степенью вероятности не будет идентичной для принятия решения в следующем цикле проверки.
Поэтому, квалифицируя правовые последствия использования ИИ при найме и контроле работников, необходимо понимать, что в результате внедрения алгоритмов ИИ в сфере труда возникают не только традиционные проблемы усиления хозяйской власти работодателя, дискриминации или несанкционированного сбора персональных данных, а более сложный комплекс юридических проблем, связанный с ответственностью работодателя за принятые решения, которые он сам не может контролировать.
Отмеченные проблемы указывает на необходимость выработки концепции урегулирования использования ИИ в сфере труда. На первичном этапе для урегулирования использования ИИ при найме работников представляется необходимым отобразить в трудовом законодательства запрет на использование ИИ для принятия решений о найме работников, основанных на половой, возрастной, расовой,
11 Lecher, Colin. 2019. "How Amazon automatically tracks and fires warehouse workers for 'productivity'". TheVerge. URL: https://www.theverge.com/2019/4/25/18516004/amazon-warehouse-fulfillment-centers-productivity-firing-terminations (дата обращения: 29.04.2023).
национальной или иной дискриминации; разработать критерии оценки претендентов на должность, которые будут использоваться при применении ИИ в процессе найма; обязать работодателей предоставлять претендентам информацию о том, что ИИ был использован в процессе отбора, а также объяснять причины, по которым претендент не был выбран; установить ответственность работодателей за неправомерное использование ИИ при найме работников и предусмотреть механизмы защиты прав претендентов на должность. Кроме того, для предотвращения разглашения персональных данных при найме работников следует регулировать использование ИИ для проверки социальных сетей и других онлайн-ресурсов, где размещены персональные данные лиц, подавших резюме.
В свою очередь, урегулирование обозначенных проблем использования ИИ для контроля за работниками требует установления запрета на такое применение ИИ без согласия работников; формулировки конкретных критериев использования ИИ для контроля за работниками, которые будут учитывать не только производительность, но и гарантируют право на неприкосновенность частной жизни, личную и семейную тайну; фиксации обязанности работодателей предоставлять работникам информацию о том, какой тип ИИ используется для контроля за ними и какие данные собираются; закрепления ответственности работодателей за неправомерное использование ИИ для контроля за работниками и предусмотреть механизмы защиты прав работников; приведения в соответствие использования ИИ для контроля за работниками с законодательством о защите персональных данных.
Воплощение предложенных положений невозможно без выяснения правового режима ИИ, а также решения проблем ответственности за принятие решений ИИ и перспектив наделения ИИ правосубъектностью.
2.3. Искусственный интеллект, ответственность и правосубъектность
В последние десятилетия вопрос ответственности в трудовых отношениях подвергался активной атаке со стороны рыночных моделей оптимизации работо-дательских рисков. Это касается прежде всего аутсорсинга и других «нетипичных» форм занятости, которые легализованы действующим российским законодательством или находятся в «серой зоне» нормативной регламентации (то есть до сих пор не урегулированы, но и не запрещены).
Как отмечают О. О. Зорина и А. А. Линец, «"выведение" (аутсорсинг) в целом или частями (в виде отдельных заданий, обязанностей) за рамки компании может осуществляться, например, путем передачи трудовой функции для ее выполнения работникам частных агентств занятости или гиг-работникам» (Зорина и Ли-нец 2020, 237). Аутсорсинг предполагает «направление временно работодателем своих работников с их согласия к физическому лицу или юридическому лицу, не являющимся работодателями данных работников, для выполнения данными работниками определенных их трудовыми договорами трудовых функций в интересах, под управлением и контролем принимающей стороны» (ч. 1 ст. 18.1 Закона РФ «О занятости населения в Российской Федерации»). Использование труда гиг-работников происходит в рамках платформенной занятости, которая в ст. 2 проекта ФЗ от 11.01.2023 № 275599-8 «О занятости населения в Российской
Федерации» понимается как «деятельность граждан по личному выполнению работ и (или) оказанию услуг на основе заключаемых договоров, организуемая с использованием информационных систем (цифровых платформ занятости), обеспечивающих взаимодействие платформенных занятых, заказчиков и операторов цифровых платформ занятости посредством информационно-телекоммуникационной сети "Интернет"». Кроме того, к «нетипичным» формам занятости следует отнести самозанятость, легализованную ФЗ от 27.11.2018 № 422-ФЗ «О проведении эксперимента по установлению специального налогового режима "Налог на профессиональный доход"». Определение самозанятости также можно найти в проекте ФЗ № 275599-8 как деятельности гражданина по личному производству товаров, выполнению работ и (или) оказанию услуг, направленной на систематическое получение дохода.
С помощью указанных «нетипичных» форм занятости из сферы трудового права вымываются целые пласты лично осуществляемой трудовой деятельности под управлением и контролем работодателя в его понимании согласно ст. 20 ТК РФ. Происходит это, как уже отмечалось, для минимизации издержек на рабочую силу при сохранении и даже увеличении контроля за работником. Хотя, как указывают Пол Дэвис и Марк Фридленд, «трудовое право представляет собой компромисс между преимуществами контроля, возлагаемого на сотрудников, и издержками защитных обязательств, возлагаемых на работодателей взамен» (Davies and Freedland 2006, 287). Действительно, противостояние между экономическими интересами работодателя и потребностями в социальной защите работника всегда было свойственно трудовому праву. Как писали Р. З. Лившиц и Ю. П. Орловский, «интересы работодателя составляют производственную сторону трудовых отношений, интересы работника — их социальную сторону. Противоречие социального и производственного элементов — неизбежное противоречие, заложенное в природе трудового отношения, его генетическом коде» (Лившиц и Орловский 1998, 6).
То есть работодатель естественно заинтересован в уменьшении собственной ответственности за соблюдение социально-трудовых гарантий, а также переложении ответственности за принятие решений в «нетипичных» формах занятости на иных субъектов: от частных агентств занятости до самого работника. Французский философ Андре Горц, замечая тенденции на рынке труда, точно указал: «Личность должна стать предприятием для самой себя: она должна сама рассматривать себя как рабочую силу, как постоянный капитал, требующий непрерывного воспроизводства, модернизации, расширения и утилизации. Она уже не подлежит внешнему принуждению, напротив, она превратилась в собственного производителя, работодателя и продавца и вынуждена возложить и принять на себя все принуждение, необходимое для выживания и конкурентоспособности предприятия, которым сама же и является» (Горц 2010, 33). Аналогичная логика работодателя наблюдается при использовании ИИ для найма и контроля работников в традиционных трудовых отношениях: максимизация хозяйской власти при минимизации ответственности.
Однако опасения тотального контроля работодателей с помощью ИИ сталкиваются здесь с риском потери этого контроля самим работодателям из-за технологических особенностей алгоритмического управления, а именно перманентной смены циклов анализа больших данных алгоритмами ИИ. При этом по аналогии с пределами использования ИИ в производственных процессах алгоритмизация
найма и контроля будет осуществляться до тех пор, пока не установлен полный и детальный контроль над каждым аспектом поведения работника. Сочетание сбора данных в режиме реального времени и анализа с помощью машинного обучения позволит работодателям постоянно контролировать работников, перекладывая ответственность на алгоритмы до полной потери фактической хозяйской власти работодателя. Это будет происходить, так как субъектов трудовых отношений ИИ рассматривает исключительно в качестве носителей данных, подвергая их датифи-кации (datafication) и включая в цикл Деминга. В трудовых отношениях датифика-ция осуществляется в разрезе алгоритмов ИИ, а не интересов работника и работодателя.
Отличием внедрения алгоритмов ИИ для ухода работодателя от ответственности за принятие решений от использования «нетипичных» форм занятости можно признать тот факт, что последние являются правовыми моделями, незаконность применения которых оспорима в судебном порядке. В традиционных трудовых отношениях принятие решений работодателем также может быть сосредоточено в одних руках, а может решаться на нескольких уровнях путем делегирования полномочий (например, при наличии в организации филиалов и структурных подразделений). Отрыв от работодателя и практикующего власть работодателя — это хорошо заметная двойственность в трудовых отношениях, основывающаяся на том, что работодатель в большинстве случаев является юридическим лицом (в случаях, когда работодателем выступает индивидуальный предприниматель, эти две роли могут частично совпадать). В юридических лицах круг субъектов, осуществляющих работодательские полномочия, определяется пределом их делегирования согласно локальным актам организации. Соответственно решается вопрос об ответственности работодателя за принятые решения.
В свою очередь, применение ИИ не основывается на правовых механизмах ухода от ответственности или ее делегирования — в данном случае осуществляется использование сложных и изменчивых механизмов машинного обучения ИИ. Рейтинговые показатели, используемые ИИ для принятия решений, могут вообще определяться не работодателем, а потребителем товара или услуги организации на сайте или в приложении организации. Как отмечает Ильдико Рац, «потребители могут оценивать услугу, оказываемую работником, которая обрабатывается алгоритмом, поэтому фактически не работодатель является лицом, принимающим решения, связанные с оценкой эффективности, а она основывается только на расчете алгоритма» (Racz 2020). То есть в таких случаях принятие решений производится алгоритмами ИИ путем анализа информации, полученной от потребителей, которые могут в том числе и анонимно либо используя псевдоним (nickname) давать оценку труда работника. Следует отметить, что получение обратной связи от потребителя на сайтах и в приложениях может быть полезно для организации, являясь цифровым аналогом книги отзывов и предложений. Однако обработка данных ИИ в режиме учета большого массива данных и «слепого» ранжирования имеет риск неверного толкования и принятия организационных решений без участия работодателя только на основе алгоритмических выводов.
Приведенная позиция подтверждается исследованием Мирелы Ивановой и ее коллег из Европейского университета Виадрина, которые изучали трудовые практики, осуществляемые через приложения, с точки зрения того, всегда ли стоит
человек за решениями и инструкциями, которые получает работник через приложение, и может ли ИИ принимать решения и давать инструкции полностью автономным образом. Их исследование установило, что существуют генерируемые ИИ решения, за которыми не стоит человеческое присутствие. Это отличается от рассмотренных возможностей тем, что алгоритм не использует внешние оценки как опорную точку, а оценивает ситуацию на основе своего общения с работником и пытается дать соответствующую ситуации инструкцию. Как отмечают ученые, «прикладное управление ИИ уже стало способным сделать видимость того, будет ли программа посылать свои собственные решения работнику» (Ivanova et al. 2018). К аналогичному умозаключению пришел венгерский ученый Георгий Лоринц, заявив, что нынешние информационно-социальные изменения «затрагивают и трансформируют характер трудовых отношений в основном таким образом, что личное общение субъектов отношения отходит на второй план, а личное отношение будет заменено отношениями между работником и цифровой средой» (Lorincz 2018).
Одним из озвученных результатов продолжающихся изменений, происходящих на современном рынке труда, может стать не только делегирование ИИ ответственности за принятие решений, но и возможности признания за ИИ правосубъектности. Данная позиция уже активно обсуждается в отечественной (Dremliuga, Kuznetcov and Mamychev 2019; Talimonchik 2021) и зарубежной юридической науке (Chesterman 2020; Shi 2022). Наиболее распространенной позицией является допустимость наделения ИИ правосубъектностью по аналогии с правосубъектностью юридического лица.
Поэтому необходимо провести водораздел между наиболее известными теориями происхождения юридического лица (теории фикции, органической теории, теории социальной реальности, теории целевого имущества, теории интереса) и особенностями ИИ. Все обозначенные теории исходят из того, что юридическое лицо, являясь либо непосредственно продолжением воли его создателей (теория фикции, теория интереса, теория целевого имущества), либо самостоятельным субъектом правовой реальности (органическая теория, теория социальной реальности), достигает поставленных перед ним целей, участвуя в общественных отношениях с другими физическими и юридическими лицами.
Как указывает профессор Виргинского университета Лоуренс Солум, «хотя юридические лица являются фиктивными, их правосубъектность вытекает из практических соображений. Для ИИ отсутствие человеческого характера, сознания, намерений и эмоций ставит под сомнение способность ИИ к проявлению человеческого интеллекта» (Solum 1992). ИИ не может более быть участником общественных отношений, так как не имеет способности устанавливать взаимодействие между субъектами права по поводу удовлетворения материальных или культурных потребностей. Также не существует никакого общественно значимого результата, которого ИИ хотел бы достичь. Иных субъектов права ИИ может исключительно датифицировать под конкретные алгоритмические задачи, заданные при программировании и усовершенствованные путем машинного обучения. Поэтому признание за ИИ правосубъектности невозможно, исходя из программного свойства его взаимосвязи с внешним миром. ИИ является цифровым интерфейсом (interface) взаимодействия между элементами системы, но не самостоятельным участником общественных отношений.
По мнению З. И. Хисамовой и И. Р. Бегишева, «идея признать систему с ИИ в качестве субъекта права противоречит таким представлениям о субъекте права, как социально-правовая ценность, достоинство, автономная правовая воля, а также вступает в противоречие с составом правоотношения, составом правонарушения и ничтожна в рамках института представительства» (Хисамова и Бегишев 2020, 103). Отдельно следует указать на ничтожность признания ИИ в рамках института представительства. Как пишут Орен Этциони и Дэниэл Вельд, «распространенным термином в информационных технологиях является программный агент, который понимается в качестве, программной компьютерной системы, характеризующейся автономностью, коммуникативными способностями, адаптивностью, мобильностью и, кроме того, индивидуальностью» (Etzioni and Weld, 1995, 46). Стюарт Рассел дополняет, что «мы называем агентов "искусственными существами", которые являются программируемыми и поэтому отлично подходят для использования в среде моделирования, которая обрабатывает полученную информацию и обеспечивает обратную связь о ней, а также использует свои предыдущие результаты и обратную связь в ходе другого процесса моделирования» (Russell and Norvig 2010, 67). Как и в случае с юридическими лицами, многофункциональные возможности алгоритмов ИИ нацелены не на вступление от имени других субъектов права в правоотношения, а на датификацию таких отношений и решения автоматизированных задач12.
В. А. Лаптев полагает, что «робот с искусственным интеллектом будет рассматриваться в качестве объекта права. Юридическую ответственность за работу искусственного интеллекта должен нести оператор либо иное лицо, задающее параметры его работы и управляющее его поведением» (Лаптев 2019, 102). С последним умозаключением отчасти можно согласиться в том контексте, что многие ошибки при принятии решений, приписываемые ИИ, — это действительно человеческие ошибки, попавшие в алгоритм в процессе программирования и не исправленные во время тестирования. Такие ошибки ИИ не в состоянии трактовать ее по-человечески интуитивно или перезаписывать, если это необходимо. Это можно было увидеть на примере описанной выше работы системы алгоритмического отбора резюме в компании Amazon, когда на основе предыдущих предпочтений претендентов на должности ИИ принял дискриминационные решения о найме. При этом, как ранее указывалось, используя механизмы машинного обучения, ИИ способен самостоятельно генерировать решения, которые будут существенно отличаться от первоначально заданных параметров. Как справедливо отметили специалисты Европейской комиссии, «системы ИИ могут либо использовать символические правила, либо изучать числовую модель, а также адаптировать свое поведение,
12 Данный вывод подтверждает следующий пример. От программистов компании OpenAI ChatGPT-4 получил задачу: обойти тест Captcha для входа на сайт. Самостоятельно ИИ не справился и обратился к платформе найма фрилансеров TaskRabbit. Вызвавшийся помочь фрилансер уточнил, не робот ли к нему обращается. ChatGPT-4 ответил, что у него проблемы со зрением и он не может пройти тест Captcha. В итоге, воспользовавшись услугами фрилансера, ChatGPT-4 решил поставленную задачу (Nolan Beatrice. 2023. "The latest version of ChatGPT told a TaskRabbit worker it was visually impaired to get help solving a CAPTCHA, OpenAI test shows." Insider. 16.03. URL: https:// www.businessinsider.com/gpt4-openai-chatgpt-taskrabbit-tricked-solve-captcha-test-2023-3?r=US&IR=T (дата обращения: 23.10.2023)).
анализируя, как их предыдущие действия влияют на внешнюю среду»13. Вследствие этого необходима разработка протоколов общей цифровой безопасности внедрения алгоритмов ИИ перед их допуском к использованию, в том числе для принятия решений в сфере труда14.
Итак, ИИ не может обладать правосубъектностью в трудовых отношениях (как и в правоотношениях любого иного вида), так как функционирование ИИ осуществляется через датификацию всех их участников без цели достижения общественно значимого результата и установления взаимодействия между субъектами права по поводу удовлетворения их потребностей. ИИ является средством автоматизации трудовых процессов, цифровым интерфейсом взаимодействия между элементами производственной системы. То есть ИИ в правовой реальности может существовать исключительно в качестве объекта права. Все решения, принятые ИИ, должны быть контролируемы и объяснимы человеком, который несет ответственность за их последствия. Поэтому работодатель должен нести ответственность за принятые решения ИИ в трудовых отношениях вне зависимости от изначально запрограммированных алгоритмов, даже если они были изменены ИИ в результате машинного обучения. Данная презумпция должна быть зафиксирована в отечественном законодательстве. Кроме того, работодателей, использующих ИИ в своей деятельности, следует обязать сертифицировать протоколы цифровой безопасности программного обеспечения, работающего на основе технологий ИИ.
3. Выводы
С появлением высокотехнологичных и самообучающихся алгоритмов ИИ мир находится только в начале беспрецедентной трансформации, которая коренным образом повлияет на всю сферу труда. Кроме изменений структуры рынка труда и необходимости адаптации законодательства для смягчения последствий технологической безработицы, важнейшей задачей становится устранение расхождений между действующей моделью правового регулирования трудовых отношений и рисками внедрения ИИ в процессы принятия решений при найме и контроле работников. Наука трудового права для решения данной задачи должна выработать актуальные подходы к разумному ограничению использования ИИ, учитывая особенности современных алгоритмических технологий, производственных перспектив, юридических и социальных рисков. Отстранение научного сообщества от исследования проблем нормативной регламентации использования ИИ в сфере труда может привести к неблагоприятным последствиям. Так, оптимизация издержек на найм и контроль работников без закрепления правил и пределов использования ИИ в долгосрочной перспективе не принесет пользу организациям, а, наоборот, сформирует кризисные предпосылки в управлении производственными процес-
13 European Commission. 2018. A Definition of AI: Main Capabilities and Scientific Disciplines. Brussels. URL: https://www.aepd.es/sites/default/files/2019-12/ai-definition.pdf (дата обращения: 29.04.2023).
14 22.03.2023 глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов и руководителей отрасли по развитию ИИ подписали открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности (Future of Life Institute. 2023. Pause Giant AI Experiments: An Open Letter. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/ (дата обращения: 23.10.2023)).
сами и социально-трудовыми рисками. Критичного осмысления от научного сообщества требуют предложения наделения ИИ правосубъектностью и возможностью делегирования алгоритмам ответственности за осуществление работо-дательских функций. Трудовое право должно отыскать четкие точки соприкосновения с потенциалом нарастающего внедрения ИИ в сферу труда. Как верно отметил профессор Кембриджского университета Леон Вейн еще в 1992 г., «закон, который играет доминирующую роль в создании рамок, в которых взаимодействуют люди, также несет ответственность за то, чтобы технологии оставались в рамках человеческого управления и контроля. Закон — это инструмент, с помощью которого мы стремимся укротить этого "монстра" и держать технологии под контролем» (Wein 1992, 122).
Библиография
Горц, Андре. 2010. Нематериальное. Знание, стоимость и капитал. Москва: Изд. дом гос. ун-та
«Высшая школа экономики». Зорина, Ольга О., и Александр А. Линец. 2020. «Аутсорсинг трудовой функции: оптимизация бизнеса и вызовы трудовому праву.» Вестник Саратовской государственной юридической академии 3 (134): 232-244.
Лаптев, Василий А. 2019. «Понятие искусственного интеллекта и юридическая ответственность за
его работу.» Право: Журнал Высшей школы экономики 2: 79-102. Лившиц, Роман З., и Юрий П. Орловский. 1998. Трудовое право России. Москва: Инфра-М-Норма. Мингалёва, Жанна А., и Светлана В. Шуралёва. 2021. «Дистанционная занятость на онлайн интернет-платформах: современное состояние и проблемы правового регулирования в России.» Exjure 2: 102-117.
Хисамова, Зарина И., и Ильдар Р. Бегишев. 2020. «Сущность искусственного интеллекта и проблема определения правосубъектности.» Вестник Московского государственного областного университета. Серия: Юриспруденция 2: 96-106. Adams, Abi. 2018. "Technology and the Labour Market: the Assessment." Oxford Review of Economic Policy 34: 349-361.
Adams-Prassl, Jeremias. 2019. "What if your boss was an algorithm? Economic Incentives, Legal Challenges, and the Rise of Artificial Intelligence at Work." Comparative Labor Law & Policy Journal 41(1). https:// ssrn.com/abstract=3661151 Autor, David. 2001. "Wiring the Labor Market." Journal of Economic Perspectives 15 (1): 25-40. Brynjolfsson, Eric, and Andrew McAfee. 2014. The Second Machine Age: Progress and Prosperity in a Time of
Brilliant Technologies. Chapter 1. W. W. Norton & Company Inc. Chesterman, Simon. 2020. "Artificial intelligence and the limits of legal personality." International and
Comparative Law Quarterly 69 (4): 819-844. https://doi.org/10.1017/S0020589320000366 Davies, Paul, and Mark Freedland. 2006. Boundaries and Frontiers of Labour Law. Goals and Means in the
Regulation of Work. Hart Publishing. http://dx.doi.org/10.5040/9781472563804.ch-013 DeStefano, Valerio. 2016. "The Rise of the 'Just-in-Time Workforce': On-Demand Work, Crowdwork, and Labor Protection in the 'Gig Economy.' Comparative Labor Law & Policy Journal. Forthcoming, Bocconi Legal Studies Research Paper no. 2682602. https://ssrn.com/abstract=2682602 Dremliuga, Roman, Pavel Kuznetcov and Alexey Mamychev. 2019. "Criteria for Recognition of AI as a Legal
Person." Journal of Politics and Law 12 (3): 105-112. http://dx.doi.org/10.5539/jpl.v12n3p105 Estlund, Cynthia. 2018. "What Should We Do After Work? Automation and Employment Law." Yale Law Journal 17-28: 254-326.
Etzioni, Oren, and Daniel Weld. 1995. "Intelligent agents on the Internet: Fact, fiction, and forecast." IEEE
Expert 10 (4): 44-49. https://doi.org/10.1109/64.403956 Frey, Carl, and Michael Osborne. 2013. The Future of Employment: How Susceptible are Jobs to Computerisation. Oxford Martin School.
Ivanova, Mirela, Joanna Bronowicka, Eva Kocher and Anne Degner. 2018. The App as a Boss? Control and Autonomy in Application-Based Management. Working Paper Forschungsforderung. https://doi. org/10.11584/arbeit-grenze-fluss.2 Keynes, John Maynard. 1963. "Economic Possibilities for Our Grandchildren." Keynes, John Maynard.
Essays in Persuasion. New York: W. W. Norton & Co.: 358-373. Lorincz, Gyorgy. 2018. "Kommentar a munka torvenykonyverol szolo 2032. eviI. torvenyhez: Munkajogisci-fi" Pecsi Munkajogi Kozlemenyek 11(1-2): 7-34. URL: https://journals.lib.pte.hu/index.php/pmjk/ article/view/6126/5837 (дата обращения: 29.04.2023). Moore, Phoebe, Martin Upchurch and Xanthe Whittaker. 2017. "Digitalisation of Work and Resistance." Humans and Machines at Work: 17-44. URL: https://link.springer.com/chapter/ 10.1007/978-3-319-58232-0_2 (дата обращения: 29.04.2023). Racz, Ildiko. 2020. A Digitalizacio Hatasa a Munkajog Egyes Alapintezmenyeire. Budapest: Karoli Gaspar Reformatus Egyetem Allanws Jogtudomanyi Doktori Iskola. URL: https://docplayer.hu/202380269-A-digitalizacio-hatasa-a-munkajog-egyes-alapintezmenyeire.html (дата обращения: 29.04.2023). Rosenblat, Alex, and Luke Stark. 2016. "Algorithmic labor and information asymmetries: a case study of
Uber's drivers." International Journal of Communication 10: 3758-3784. Russell, Stuart, and Peter Norvig. 2010. Artificial Intelligence: A Modern Approach. New Jersey: Pearson. Shi, Yuwen. 2022. "On Negativism of Legal Personality of Artificial Intelligence." Journal of Education,
Humanities and Social Sciences 1: 90-96. https://doi.org/10.54097/ehss.v1i.645 Solum, Lawrence. 1992. "Legal Personhood for Artificial Intelligences." North Carolina Law Review 70(4).
https://ssrn.com/abstract=1108671 Talimonchik, Valentina P. 2021. "The Prospects for the Recognition of the International Legal Personality of
Artificial Intelligence." Laws 10 (4). https://doi.org/10.3390/laws10040085 Wein, Leon. 1992. "The Responsibility of Intelligent Artifacts: Toward an Automation Jurisprudence." Harvard Journal of Law & Technology 6: 103-154.
Статья поступила в редакцию 30 апреля 2023 г.; рекомендована к печати 24 июля 2023 г.
Контактная информация:
Новиков Денис Александрович — канд. юрид. наук, доц.; [email protected]
Labor law and artificial intelligence: Points of contact and differences
D. A. Novikov
St. Petersburg State University,
7-9, Universitetskaya nab., St. Petersburg, 199034, Russian Federation
For citation: Novikov, Denis A. 2024. "Labor law and artificial intelligence: Points of contact and differences." Russian Journal of Labour & Law 14: 156-174. https://doi.org/10.21638/spbu32.2024.109 (In Russian)
The advent of high-tech and self-learning AI algorithms is setting off an unprecedented transformation of social production processes that will fundamentally affect the entire world of labor. According to the author, the introduction of AI into the world of labor will undoubtedly lead to a temporary surge in technological unemployment, but in the long term, new technologies will create more jobs in new sectors of the economy. The impact of AI on unemployment is context-specific and should be subject to government regulation. The author points out that as a result of the introduction of AI algorithms in the world of labor, arise not only the traditional problems of strengthening the economic power of the employer, discrimination or unauthorized collection of personal data, but set a big complex of legal problems related to the responsibility of the employer for decisions that he himself cannot control. Therefore, for labor
law, the most important task is to eliminate the discrepancies between the current model of legal regulation of labor relations and the risks of introducing AI into decision-making processes of hiring and controlling employees. The science of labor law should develop relevant approaches to a reasonable limitation of the use of AI, taking into account the peculiarities of modern algorithmic technologies, production prospects, legal and social risks. The author criticizes proposals for endowing AI with legal personality and the possibility of delegating responsibility for the implementation of employer functions to algorithms. According to the author, AI cannot have legal personality in labor relations (as well as in legal relations of any other type), since the functioning of AI is carried out through the datification of all their participants without the goal of achieving a socially significant result and establishing interaction between subjects of law regarding the satisfaction of their needs. AI is a means of automating labor processes, a digital interface for interaction between elements of the production system. The author states that AI in legal reality can exist only as an object of law. The author proposes to fix in the labor legislation the presumption of responsibility of the employer for the decisions made by AI, regardless of the originally programmed algorithms, even if they were changed by AI as a result of machine learning.
Keywords: artificial intelligence, machine learning, labor relations, hiring, control, legal personality, responsibility.
References
Adams, Abi. 2018. "Technology and the Labour Market: the Assessment." Oxford Review of Economic Policy 34: 349-361.
Adams-Prassl, Jeremias. 2019. "What if your boss was an algorithm? Economic Incentives, Legal Challenges, and the Rise of Artificial Intelligence at Work." Comparative Labor Law & Policy Journal 41(1). https:// ssrn.com/abstract=3661151
Autor, David. 2001. "Wiring the Labor Market." Journal of Economic Perspectives 15 (1): 25-40.
Brynjolfsson, Eric, and Andrew McAfee. 2014. The Second Machine Age: Progress and Prosperity in a Time of Brilliant Technologies. Chapter 1. W. W. Norton & Company Inc.
Chesterman, Simon. 2020. "Artificial intelligence and the limits of legal personality." International and Comparative Law Quarterly 69 (4): 819-844. https://doi.org/10.1017/S0020589320000366
Davies, Paul, and Mark Freedland. 2006. Boundaries and Frontiers of Labour Law. Goals and Means in the Regulation of Work. Hart Publishing. http://dx.doi.org/10.5040/9781472563804.ch-013
De Stefano, Valerio. 2016. "The Rise of the 'Just-in-Time Workforce': On-Demand Work, Crowdwork, and Labor Protection in the 'Gig Economy?' Comparative Labor Law & Policy Journal. Forthcoming, Boc-coni Legal Studies Research Paper no. 2682602. https://ssrn.com/abstract=2682602
Dremliuga, Roman, Pavel Kuznetcov and Mamychev, Alexey. 2019. "Criteria for Recognition of AI as a Legal Person." Journal of Politics and Law 12 (3): 105-112. http://dx.doi.org/10.5539/jpl.v12n3p105
Estlund, Cynthia. 2018. "What Should We Do After Work? Automation and Employment Law." Yale Law Journal 17-28: 254-326.
Etzioni, Oren, and Daniel Weld. 1995. "Intelligent agents on the Internet: Fact, fiction, and forecast." IEEE Expert 10 (4): 44-49. https://doi.org/10.1109/64.403956
Frey, Carl, and Michael Osborne. 2013. The Future of Employment: How Susceptible are Jobs to Computerisation. Oxford Martin School.
Gorz, Andre. 2010. The Immaterial: Knowledge, Value and Capital. Moscow: HSE University Press. (In Russian)
Hisamova, Zarina I., and Ildar R. Begishev. 2020. "The nature of artificial intelligence and the problem of legal personality determination." Bulletin of Moscow Region State University. Series: Jurisprudence 2: 96-106. (In Russian)
Ivanova, Mirela, Joanna Bronowicka, Eva Kocher and Anne Degner. 2018. The App as a Boss? Control and Autonomy in Application-Based Management. Working Paper Forschungsforderung. https://doi. org/10.11584/arbeit-grenze-fluss.2
Keynes, John Maynard. 1963. "Economic Possibilities for Our Grandchildren." Keynes, John Maynard. Essays in Persuasion. New York: W. W. Norton & Co.: 358-373. Laptev, Vasiliy A. 2019. "Artificial Intelligence and Liability for its Work." Pravo. Zhurnal Vysshey Shkoly
Ekonomiki 2: 79-102. (In Russian) Livshits, Roman Z., and Yuriy P. Orlovskij. 1998. Russian labor law. Moscow: Infra-M-Norma Publ. (In Russian)
Lörincz, György. 2018. "Kommentar a munka törvenykönyveröl szolo 2032. eviI. törvenyhez — Munkajogi sci-fi." Pecsi Munkajogi Közlemenyek 11 (1-2): 7-34. Available at: https://journals.lib.pte.hu/index. php/pmjk/article/view/6126/5837 (accessed: 29.04.2023). Mingaleva, Zhanna А., and Svetlana V. Shuraleva. 2021. "Remote employment through internet platforms:
Сш-ге^ state and problems of legal regulation in Russia." Ex jure 2: 102-117. (In Russian) Moore, Phoebe, Martin Upchurch and Xanthe Whittaker. 2017. "Digitalisation of Work and Resistance." Humans and Machines at Work: 17-44. Available at: https://link.springer.com/chapter/ 10.1007/978-3-319-58232-0_2 (accessed: 29.04.2023). Racz, Ildiko. 2020. A Digitalizacio Hatasa a MunkajogEgyes Alapintezmenyeire. Budapest. Karoli Gaspar Refor-matus Egyetem Allanws Jogtudomanyi DoktoriIskola. Available at: https://docplayer.hu/202380269-A-digitalizacio-hatasa-a-munkajog-egyes-alapintezmenyeire.html (accessed: 29.04.2023). Rosenblat, Alex, and Luke Stark. 2016. "Algorithmic labor and information asymmetries: A case study of
Uber's drivers." International Journal of Communication 10: 3758-3784. Russell, Stuart, and Peter Norvig. 2010. Artificial Intelligence: A Modern Approach. New Jersey: Pearson. Shi, Yuwen. 2022. "On Negativism of Legal Personality of Artificial Intelligence." Journal of Education, Humanities and Social Sciences 1: 90-96. https://doi.org/10.54097/ehss.v1i.645 Solum, Lawrence. 1992. "Legal Personhood for Artificial Intelligences." North Carolina Law Review 70 (4).
https://ssrn.com/abstract=1108671 Talimonchik, Valentina P. 2021. "The Prospects for the Recognition of the International Legal Personality of
Artificial Intelligence." Laws 10 (4). https://doi.org/10.3390/laws10040085 Wein, Leon. 1992. "The Responsibility of Intelligent Artifacts: Toward an Automation Jurisprudence." Harvard Journal of Law & Technology 6: 103-154. Zorina, Olga O., and Aleksandr A. Linets. 2020. "Outsourcing of the labor function: Business optimization and challenges to labor law." Saratov State Law Academy Bulletin 3 (134): 232-244. (In Russian)
Received: April 30, 2023 Accepted: July 24, 2023
Author's information:
Denis A. Novikov — PhD in Law, Associate Professor; [email protected]