Научная статья на тему 'СОЦИАЛЬНЫЕ ПРАВА В УСЛОВИЯХ ЦИФРОВИЗАЦИИ'

СОЦИАЛЬНЫЕ ПРАВА В УСЛОВИЯХ ЦИФРОВИЗАЦИИ Текст научной статьи по специальности «Право»

CC BY
123
34
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
ДИСКРИМИНАЦИЯ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / АЛГОРИТМ / ПРАВО НА ТРУД / ПРАВО НА ОБРАЗОВАНИЕ

Аннотация научной статьи по праву, автор научной работы — Талапина Эльвира Владимировна

Цель. Исследовать теорию и практику реализации социальных прав (права на труд и права на образование) в условиях цифровизации, а именно при алгоритмической обработке данных. Выявить возможные «источники» дискриминации при использовании алгоритмов. Процедура и методы. Использовались методы компаративного анализа, системного анализа, моделирования. Результаты. Сделаны предложения по учёту рисков дискриминации при алгоритмической обработке данных, высказано пожелание по формированию правового регулирования юридического обоснования принятого решения и предоставлению возможностей его оспаривания. Теоретическая и/или практическая значимость. Результаты могут быть использованы в научно-исследовательских целях, в законодательной и правоприменительной практике.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SOCIAL RIGHTS IN A DIGITALIZED WORLD

Aim. To investigate the theory and practice of social rights (the right to work and the right to education) in the context of digitalisation, namely through algorithmic data processing. To identify possible «sources» of discrimination when algorithms are used. Metodology. The methods of comparative studies, system analysis and modeling were used. Results. Suggestions are made on taking into account the risks of discrimination in algorithmic data processing; the proposal to construe a legal regulation of legal justification of the decision and to give the opportunity to discuss it is expressed. Research implications. The results can be used for research purposes, as well as by legislators and law enforcement bodies.

Текст научной работы на тему «СОЦИАЛЬНЫЕ ПРАВА В УСЛОВИЯХ ЦИФРОВИЗАЦИИ»

УДК 342.7

DOI: 10.18384/2310-6794-2021-2-76-83

СОЦИАЛЬНЫЕ ПРАВА В УСЛОВИЯХ ЦИФРОВИЗАЦИИ

Талапина Э. В.

Институт государства и права РАН

119019, г. Москва, ул. Знаменка, д. 10, Российская Федерация Аннотация

Цель. Исследовать теорию и практику реализации социальных прав (права на труд и права на образование) в условиях цифровизации, а именно при алгоритмической обработке данных. Выявить возможные «источники» дискриминации при использовании алгоритмов. Процедура и методы. Использовались методы компаративного анализа, системного анализа, моделирования.

Результаты. Сделаны предложения по учёту рисков дискриминации при алгоритмической обработке данных, высказано пожелание по формированию правового регулирования юридического обоснования принятого решения и предоставлению возможностей его оспаривания. Теоретическая и/или практическая значимость. Результаты могут быть использованы в научно-исследовательских целях, в законодательной и правоприменительной практике.

Ключевые слова: дискриминация, искусственный интеллект, алгоритм, право на труд, право на образование

SOCIAL RIGHTS IN A DIGITALIZED WORLD

E. Talapina

Institute of State and Law of the Russian Academy of Sciences 10, Znamenka ul., Moscow, 119019, Russian Federation

Abstract

Aim. To investigate the theory and practice of social rights (the right to work and the right to education) in the context of digitalisation, namely through algorithmic data processing. To identify possible «sources» of discrimination when algorithms are used.

Metodology. The methods of comparative studies, system analysis and modeling were used. Results. Suggestions are made on taking into account the risks of discrimination in algorithmic data processing; the proposal to construe a legal regulation of legal justification of the decision and to give the opportunity to discuss it is expressed.

Research implications. The results can be used for research purposes, as well as by legislators and law enforcement bodies.

Keywords: discrimination, artificial intelligence, algorithm, right to work, right to education

Введение

С широким распространением цифровых технологий меняется реализация многих социальных прав, причём не только с т. зр. формы. Возникают новые риски и угрозы нарушений прав человека. Алгоритмическая обработка данных при принятии решений в сфере реализации социальных прав граждан способна привести к дискриминации. Особенно это показательно в сфере занятости населения и образования. Проблема не ограничивается явными, легко обнаруживаемыми нарушениями прав человека, которые связаны с использованием чувствительных данных. Современные технологии аналитики больших данных позволяют сделать из исходной информации непредсказуемый © CC BY Талапина Э. В., 2021.

вывод, поскольку чувствительные данные можно извлечь не напрямую, а путём сопоставления с другими данными. В таких технологических условиях и люди, и частные компании, и даже государство становятся всё более прозрачными, что посягает на устоявшееся понимание частной жизни и приватности, а также создаёт новые риски дискриминации в процессе реализации социальных прав граждан.

Принцип недискриминации в законодательстве и судебной практике

Принцип всеобщего равенства является главным принципом правового государства. Он проводится красной нитью во многих международных актах и национальных конституциях. Из принципа равенства выводится запрет дискриминации и право на недискриминацию. Право на недискриминацию имеет более узкое содержание и зависит от ряда условий, начиная с того, что государство может осуществлять совершенно осознанную политику дискриминации «во благо» (поддерживая инвалидов, например, и устанавливая квоты для их трудоустройства и приёма в вузы).

Дискриминировать означает различать. Если сказать то же самое на юридическом языке, то дискриминировать - обращаться с человеком неблагоприятным образом на запрещённом основании.

На уровне Совета Европы дискриминация запрещена ст. 14 Конвенции Совета Европы о защите прав человека и основных свобод. При этом она запрещает дискриминацию только в отношении тех прав и свобод, которые гарантированы в Конвенции и в Дополнительных протоколах к ней. В этом смысле ст. 14 Конвенции не является самостоятельной гарантией [1, с. 45]. Чтобы расширить действие ст. 14 и установить общий запрет дискриминации, 4.11.2000 г. был принят Протокол № 12 к Конвенции (который Россией подписан, но не ратифицирован). Однако странным образом этот общий запрет дискримина-

ции распространен только на отношения граждан с властью - «никто не может быть подвергнут дискриминации со стороны каких бы то ни было публичных властей».

Чтобы расширить этот запрет и распространить его на частный сектор, некоторые государства могут детализировать свое антидискриминационное законодательство. К примеру, по такому пути пошла Эстония. Поскольку закрепленная в Конституции Эстонии норма о недискриминации касается только взаимоотношений между государством и отдельными лицами (т. е. имеется в виду равенство перед законом), для преодоления дискриминации как в государственном, так и в частном секторе принят Общий закон о равном обращении - Equal Treatment Act1. Этот закон касается защиты лиц от дискриминации по признаку национальности (этнического происхождения), расы, цвета кожи, религии или других убеждений, возраста, инвалидности или сексуальной ориентации.

В объединенной Европе концепт равенства образует фундаментальный принцип права ЕС2. Как и многие другие принципы, равенство и недискриминация конкретизированы судебной практикой. Именно Судом ЕС дано общее понятие дискрими-нации3. Однако этот общий принцип равного обращения применим, только если конкретные запреты дискриминации не применяются. Схожая позиция у ЕСПЧ. Дискриминация, по мнению ЕСПЧ, означает различное обращение с лицами, находящимися в относительно аналогичных ситуациях, без объективной и разумной причины (Постановление ЕСПЧ по делу «Уиллис против Соединенного Королевства», жалоба № 36042/97).

1 Estonian Equal Treatment Act—RT I, 26 April 2017, 9. [Электронный ресурс]. URL: https://www.riigiteataja. ee/en/eli/503052017002/consolide (дата обращения: 06.05.2021).

2 CJCE, Angel Rodr/guez Caballero/Fondo de Garantfa Salarial, aft. C-442/00.

3 Case C-303/05, Advocaten voor de Werelt VZW v Leden van de Ministerraad (ECJ 3 May 2007), para. 56 (together with para. 46). With special regard to Art. 20 FRC: Case C-21/10, Károly Nagy v Mezogazdasági és Vidékfejlesztési Hivatal (ECJ 21 July 2011), para. 47.

Различное обращение является дискриминационным, если для него отсутствует объективная и разумная причина. Кроме того, различное обращение должно не только преследовать законную цель, но также соблюдать соразмерность между средствами и целью.

На нормативном уровне в Европейском Союзе Директива Совета 2000/43/ЕС от 29.06.2000 г. закрепила осуществление принципа равного обращения с лицами независимо от их расовой принадлежности или этнического происхождения и, в конкретном контексте занятости, Директива Совета 2000/78/ЕС от 27.01.2000 установила общие рамки равного обращения при трудоустройстве. Обе директивы предусматривают расширение сферы действия запрета на дискриминацию, с прямой на косвенную дискриминацию -даже использование нейтрального критерия или практики будет рассматриваться как дискриминация, если это может привести к возникновению конкретного неблагоприятного положения лиц, имеющих особые характеристики, если только такое положение, критерий или практика не обосновываются объективно законной целью и уместными и необходимыми для достижения этой цели средствами. Здесь заложено и перераспределение бремени доказывания. В судебных делах лицо, утверждающее, что оно является жертвой дискриминации, должно иметь возможность требовать от ответчика доказательства того, что он (ответчик) не нарушил принцип равенства. Само же лицо при этом представляет факты, позволяющие предположить наличие дискриминации. Таким образом, 2 безусловных достижения европейских директив - запрет косвенной дискриминации и перераспределение бремени доказывания по делам о дискриминации.

В законодательстве о равном обращении сосуществуют два различных определения косвенной дискриминации, которые имеют весьма различные последствия. Один из подходов основан на концепции непропорционального воздействия: если на пер-

вый взгляд нейтральная мера (т. е. мера, которая не проводит явной дискриминации между членами группы А и членами группы В) в действительности затрагивает гораздо большее количество членов такой группы, эта мера будет считаться подозрительной и может быть сохранена только в случае объективного и разумного обоснования этой меры. Такой подход к косвенной дискриминации принят Директивой 97/80 от 15.12.1997 о бремени доказывания в области равной оплаты труда и равных возможностей. Он основан на статистическом анализе воздействия такой, казалось бы, нейтральной меры, т. е. для принятия решения судья оценивает статистику.

Второй подход основан на идее о том, что некоторые меры, хотя и не основываются прямо на запрещённом критерии различия, тем не менее по своей природе могут благоприятствовать лицам, принадлежащим к той или иной конкретной категории охраняемых лиц. Здесь нет необходимости определять на статистическом уровне, действительно ли происходит непропорциональное воздействие в ущерб этой категории. Данный подход к косвенной дискриминации вдохновлен прецедентным правом ЕС о запрещении дискриминации по признаку национальности [3, р. 46].

Право на труд и дискриминация

Всеобщая декларация прав человека запрещает дискриминацию в связи с оплатой труда, которая должна быть равной за равный труд (ст. 23). Контекст дискриминации в области занятости получил широкое развитие в актах Международной организации труда, основополагающим актом которой является Конвенция о дискриминации в области труда и занятий 1958 г. (Конвенция 111). В её трактовке термин «дискриминация» включает:

а) всякое различие, недопущение или предпочтение, проводимое по признаку расы, цвета кожи, пола, религии, политических убеждений, национального происхождения или социальной принадлеж-

ности, приводящее к уничтожению или нарушению равенства возможностей или обращения в области труда и занятий;

Ь) всякое другое различие, недопущение или предпочтение, приводящее к уничтожению или нарушению равенства возможностей или обращения в области труда и занятий, определяемое соответствующим членом по консультации с представительными организациями предпринимателей и трудящихся, где таковые существуют, и с другими соответствующими органами.

Следует заметить, что разница в обработке данных не является дискриминацией. Приведём пример из практики Государственного совета Франции (высшей инстанции системы административных судов). Сразу несколько заявителей просили аннулировать правила плана деятельности от 25.09.2014 г. в пользу бывших военнослужащих вспомогательных войск (французская армия в Северной Африке 1954-1962 гг.) и их близких, в частности, по поводу предоставления резервированных должностей детям таких военнослужащих. Так, для получения рабочего места такими детьми не существует условия о возрасте, тогда как для всех остальных возраст занятия должности ограничен. Государственный Совет подтвердил, что разница между лицами в аналогичной ситуации является дискриминацией, если получение права не объясняется объективными и рациональными причинами, т. е. если не преследует цель публичной пользы или основано на объективных и рациональных причинах по отношению к целям закона. Но в данном случае, как раз ввиду специальной цели поддержки детей военнослужащих, дискриминации выявлено не было1.

Нетрудно заметить, что запреты дискриминации формулировались задолго до наступления цифровой эпохи. Это не означает, что они потеряли актуальность. Напротив, с распространением цифровых технологий необходимо исследовать новые риски в этой области. В частности, как

1 Госсовет Франции. 2019. № 418521.

расширяются возможности дискриминации при алгоритмической обработке данных в сфере занятости.

Такие практики уже активно используются частным сектором при подборе кандидатов на вакантные должности. Как правило, найм на работу основывается на отборе для алгоритма «лучших» параметров кандидатов, что в дальнейшем способно привести к дискриминации (если в качестве ориентира избраны лучшие работники с наиболее высокой зарплатой за определённый период, которые все оказались мужчинами, то женщины-претенденты будут отсекаться автоматически). Такой, казалось бы, нейтральный параметр, как место жительства, может косвенно указывать на национальность или расу (не секрет, что во многих городах мира существуют районы компактного проживания представителей отдельных национальностей). Адрес проживания может также свидетельствовать о социальном положении лица, его достатке. Сложность состоит ещё и в том, что механическое отсечение некоторых параметров не всегда приведёт к недискриминации (поскольку посредством обработки больших данных можно извлечь даже ту информацию, которая кандидатами не предоставлялась) [2, с. 87].

Ещё один канал для расширения дискриминационных практик - использование генетической информации работодателями. К счастью, данное направление довольно быстро снабдилось специальным законодательством, и большинство стран напрямую запретило работодателям использовать генетическую информацию о сотрудниках. Так, в законодательстве США (Genetic Information Nondiscrimination Act (GINA), 2008) с целью предотвращения генетической дискриминации на рабочем месте работодателям запрещено требовать прохождения генетического тестирования или принимать решения о найме, увольнении и пр. на основе генетической информации.

«Источники» дискриминации при использовании алгоритмов

Попытаемся ответить на вопрос «Как можно избежать дискриминации со стороны алгоритма?» Это собственно и покажет основные «источники» дискриминации.

Во-первых, важно не использовать при составлении алгоритма чувствительные параметры и характеристики, способные привести к дискриминации. Но это не так просто. Например, европейское законода-

Во-вторых, в алгоритме дискриминация может быть заложена на уровне определения целевой переменной и классифицирующей метки. Искусственный интеллект - это компьютер, обнаруживающий корреляции в наборах данных. Например, компания, разрабатывающая фильтр спа-ма, предоставляет компьютеру сообщения, помеченные людьми как спам. Эти помеченные сообщения являются обучающими данными. Компьютер должен обнаружить характеристики спамового сообщения. Набор выявленных корреляций называют моделью (или прогностической моделью). Сообщения, идентифицированные как спам, часто будут содержать, например, определённые фразы («массивная потеря веса», «миллион долларов выигрыша» и т. д.) или корреспондировать определенным 1Р-адресам.

Алгоритм машинного обучения черпает из соответствующих примеров (ранее выявленное мошенничество, спам, дефолты платежей, плохое состояние здоровья) атрибуты или действия (прокси), которые могут быть использованы для обнаружения желаемого качества или результата

тельство о защите данных допускает сбор и обработку данных расового или этнического характера, которые могут использоваться для борьбы с дискриминацией при условии соблюдения определённых ограничений. В то же время многие исследователи и практики высказываются против сбора таких данных, ибо они с тем же успехом могут использоваться для совершенно противоположных целей - дискриминации (табл. 1).

(целевая переменная). Целевая переменная представляет собой то, что ищет разработчик данных, в то время как классифицирующие метки делят все возможные значения этой целевой переменной на взаимоисключающие категории [6, р. 10-13]. От того, как выбрать эти классифицирующие метки, многое зависит. Например, хороший сотрудник - это тот, кто делает лучшие продажи, или тот, кто никогда не опаздывает на работу? Если компания решает, что сотрудник «хороший» по классу, потому что «редко опаздывает», то вполне вероятно, что люди, которые в среднем беднее и потому живут дальше от работы, будут поставлены в невыгодное положение (дискриминированы), даже если они справляются с работой лучше других сотрудников.

В-третьих, дискриминация может последовать из данных для обучения, если они основаны на предыдущей дискриминации. Иными словами, алгоритм будет воспроизводить дискриминацию (причём последовательно и системно), если обучающие данные её позволяли. Так, при поиске через Гугл деловых женских

Таблица 1 / Table 1

Основные риски и опасения, связанные со сбором данных по этническим группам / Main risks and concerns related to the collection of data on ethnic groups

1-й риск / опасность Воздействие плохой или недостаточной государственной политики

2-й риск / опасность Подстрекательство к этническим конфликтам и стигматизация

3-й риск / опасность Злоупотребление данными с целью дискриминации этнических групп

4-й риск / опасность Дискриминационное этническое профилирование государственными органами

5-й риск / опасность Нарушение конфиденциальности и правил защиты данных

Источник: [5, p. 272].

V8V

причесок поисковик показал в основном фотографии белых женщин со светлыми волосами, а при поиске неделовых причесок - фотографии темнокожих женщин. Гипотетически, если работодатель доверит искусственному интеллекту сканировать заявления о приеме на работу и разобраться с ними по критерию «непрофессиональный» вид, это может привести к юридически значимой расовой дискриминации.

Право на образование и риски дискриминации

Основным международным актом здесь является Конвенция ООН о борьбе с дискриминацией в области образования (принята 14.12.1960). Национальные государства, запрещая дискриминацию в области образования, имеют возможность детализировать это в своем законодательстве, либо пользоваться общим запретом дискриминации и принципом равенства. Приведем конкретные примеры того, как могут проявлять себя риски дискриминации в данной сфере.

На европейском уровне показательным является судебное дело D H. and Others v. the Czech Republic (2007 г.) в Европейском суде по правам человека1. Дело касалось систематического помещения учащихся из числа цыган в специальные учебные заведения для умственно отсталых. Этот факт был доказан статистически - путем приведения конкретных цифр, наглядно демонстрирующих верность утверждения о такой дискриминации. Это лишний раз доказывает, что для успешного применения статистического подхода к случаям дискриминации данные об этнической принадлежности должны собираться и предоставляться в распоряжение жертв дискриминации.

Если говорить об использовании алгоритмической обработки данных в образовании, вновь подтверждает себя тезис о повторе дискриминационных предвзя-тостей человека искусственным интел-

1 European Court of Human Rights (EctHR), D H. and Others v. the Czech Republic, Judgment (13 November 2007), paras. 46, 137, 164, 180, 187 and 188.

лектом. Данные для обучения могут быть предвзятыми, если они отражают дискриминационные человеческие решения. Так, для отбора в один из медицинских колледжей Великобритании, который регулярно получал больше заявок, чем имелось мест, было разработано программное обеспечение, помогающее сортировать заявки. Алгоритм был составлен на основе записей о приёме в колледж в предыдущие годы, когда абитуриентов отбирали в «ручном режиме», т. е. по сути была воспроизведена предшествующая система отбора. В итоге было установлено, что компьютер ставит в невыгодное положение женщин и лиц из числа мигрантов, что означает, что раньше лица, ответственные за отбор студентов, предвзято относились к этим категориям лиц. Программа не привнесла никакой новой предвзятости, а лишь повторила предвзятость, которая уже существовала в системе [4, р. 103-121].

Таким образом, система может учиться либо на основе предвзятых данных, либо на основе предвзятой выборки, но по большому счёту это неважно, поскольку в обоих случаях система будет воспроизводить предвзятость.

Другой аспект проблемы дискриминации связан с открытостью алгоритма и возможностью оспаривания принятых решений. Правда, на практике, даже если действует общее правило о доступности алгоритмов, этот доступ осуществляется в индивидуальном порядке в каждом конкретном случае. И далеко не всегда с положительным результатом. Так, во Франции подача заявок на поступление в вузы отныне производится только путём использования платформы Рагсоигеир, которая «сортирует» эти заявки в зависимости от их количества и необходимых качеств кандидатов в каждый вуз. Разумеется, многие абитуриенты остаются недовольны результатами такого отбора. Но попытки оспорить решение не всегда удаются. Например, административный трибунал Гваделупы (решение по Антильскому университету от 04.02.2019 дело № 1801094) постановил, что алгоритмическая обработка данных в вузах для от-

VV

бора кандидатур на платформе Рагсоигеир (сам алгоритм) не может передаваться профсоюзам студентов. Что, конечно, обнулило шансы на оспаривание принятых решений.

Не стоит упускать из виду и такой психологический феномен, как «смещение в сторону автоматизации» - он может привести к тому, что люди будут чрезмерно полагаться на системы поддержки принятия решений. Чем сложнее факторы, которые играют роль в принятии решения, тем больше человек склонен доверять автоматизированной системе, а не своим собственным суждениям [7, р. 134].

Заключение

Анализ, даже будучи проведённым применительно к отдельным сферам труда и образования, показывает глубину проблематики. Использование алгоритмов при

отборе кандидатов в области образования и труда способно повлечь дискриминационные последствия, а возможности бороться с такой дискриминацией ограничены. Очевидно, необходим целый комплекс правовых мер, включая правовые компоненты правил обучения алгоритмов с учётом возможных рисков дискриминации, правил разработки алгоритмов. Отдельного правового регулирования заслуживает юридическое обоснование решения, принятого алгоритмом, и предоставление возможностей его оспаривания. Это послужит своеобразной адаптацией к цифровым условиям запрета косвенной дискриминации и перераспределения бремени доказывания по делам о дискриминации, сформированных в европейских стандартах.

Статья поступила в редакцию 30.03.2021.

ЛИТЕРАТУРА

1. Бартенев Д. Г. Запрет дискриминации: практический обзор подходов Европейского суда по правам человека // Международное правосудие. 2019. № 1. С. 43-66.

2. Hacker Ph. The Ambivalence of Algorithms. Gauging the Legitimacy of Personalized Law // Bakhoum M., Conde Gallego B., Mackenrodt M.-O., Surblyté-Namaviciené G., eds. Personal Data in Competition, Consumer Protection and Intellectual Property Law. Berlin, 2018. 577 с .

3. Schutter De O. Prouver la discrimination // ERA Forum. 2003. Vol. 4. P. 45-54.

4. Tischbirek А. Artificial Intelligence and Discrimination: Discriminating Against Discriminatory Systems // Wischmeyer Th., Rademacher T. Regulating Artificial Intelligence. Springer, 2020. P. 103-121.

5. Van Caeneghem J. Legal Aspects of Ethnic Data Collection and Positive Action. The Roma Minority in Europe. Springer, 2019. 728 р.

6. Zuiderveen Borgesius F. Discrimination, intelligence artificielle et décisions algorithmiques: Etude à l'intention du Service anti-discrimination du Conseil de l'Europe, 2018. 51 р.

7. Hänold S. Profiling and Automated Decision-Making: Legal Implications and Shortcomings // Corrales M., Fenwick M., Forgo N., eds. Robotics, AI and the Future of Law. Springer, 2018. P. 123-153.

REFERENCES

1. Bartenev D. G. [The Prohibition of Discrimination: A Practical Review of the Approaches of the European Court of Human Rights]. In: Mezhdunarodnoepravosudie [International Justice], 2019, no. 1, pp. 43-66.

2. Hacker Ph. The Ambivalence of Algorithms. Gauging the Legitimacy of Personalized Law. In: Bakhoum M., Conde Gallego B., Mackenrodt M.-O., Surblyté-Namaviciené G., eds. Personal Data in Competition, Consumer Protection and Intellectual Property Law. Berlin, 2018. 577 с .

3. Schutter De O. Prouver la discrimination. In: ERA Forum, 2003, vol. 4, pp. 45-54.

4. Tischbirek А. Artificial Intelligence and Discrimination: Discriminating Against Discriminatory Systems. In: Wischmeyer Th., Rademacher T. Regulating Artificial Intelligence. Springer, 2020, pp. 103-121.

5. Van Caeneghem J. Legal Aspects of Ethnic Data Collection and Positive Action. The Roma Minority in Europe. Springer, 2019. 728 р.

6. Zuiderveen Borgesius F. Discrimination, intelligence artificielle et décisions algorithmiques: Etude à l'intention du Service anti-discrimination du Conseil de l'Europe, 2018. 51 р.

7. Hänold S. Profiling and Automated Decision-Making: Legal Implications and Shortcomings. In: Corrales M., Fenwick M., Forgo N., eds. Robotics, AI and the Future of Law. Springer, 2018, pp. 123-153.

ИНФОРМАЦИЯ ОБ АВТОРЕ

Талапина Эльвира Владимировна - доктор юридических наук, главный научный сотрудник Института государства и права РАН; e-mail: [email protected]

INFORMATION ABOUT THE AUTHOR

Elvira V. Talapina - Dr. Sci. (Law), Chief Researcher, Institute of State and Law of the Russian Academy of Sciences;

e-mail: [email protected]

ПРАВИЛЬНАЯ ССЫЛКА НА СТАТЬЮ

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Талапина Э. В. Социальные права в условиях цифровизации // Вестник Московского государственного областного университета. Серия: Юриспруденция. 2021. № 2. С. 76-83. DOI: 10.18384/2310-6794-2021-2-76-83

FOR CITATION

Talapina E. V. Social Rights in a Digitalized World. In: Bulletin of Moscow Region State University. Series: Jurisprudence, 2021, no. 2, рр. 76-83. DOI: 10.18384/2310-6794-2021-2-76-83

i Надоели баннеры? Вы всегда можете отключить рекламу.