УДК 179
DOI: 10.24412/2713-1033-2024-3-24-34
Е. А. Коваль
Средне-Волжский институт (филиал) ФГБОУ ВО «Всероссийский государственный университет юстиции (РПА Минюста России)», Национальный исследовательский Мордовский государственный университет им. Н. П. Огарева, Саранск, Россия, e-mail: [email protected]
ДАТАОПТИМИЗМ, ДАТАПЕССИМИЗМ И ДАТАРЕАЛИЗМ: ОБРАЗЫ МОРАЛЬНЫХ РИСКОВ В ОБРАЗАХ БУДУЩЕГО1
В условиях постоянного накопления больших данных и развития систем искусственного интеллекта появляются новые и трансформируются уже имеющиеся в социальном воображаемом образы будущего. Если в качестве ключевой технологии будущего представить большие данные, можно обозначить совокупность позитивных образов будущего как датаоптимизм, негативных - как датапессимизм и умеренных - как датареализм.
В качестве критерия оценки образов будущего можно использовать уровень моральных рисков, представляющих собой ситуации, в которых вероятность поступить «не по совести» возрастает. Признаками морального риска являются: эгоистические соображения, ситуация ценностно-нормативного конфликта, высокий уровень неопределенности последствий принятого решения.
Моральные риски в датаоптимистическом будущем связаны с высоким уровнем доверия технологиям, основанным на больших данных. В этом образе будущего за людьми сохраняются навыки определения ситуации ценностно-нормативного конфликта, но деформируются навыки принятия решений без опоры на предиктивную аналитику. Датапессимизм характеризуется моральными рисками, связанными с гиперподталкиванием к благу, определенному большими данными, но не самим человеком. В датапессимистическом будущем люди не доверяют технологиям, но подчиняются им, постепенно теряя мотивацию к нравственному совершенствованию. Датареализм, несмотря на формирование взвешенного отношения к большим данным и смежным технологиям, опасен для совести человека неопределенностью границ применения принципа предосторожности и ростом уровня неопределенности в целом.
1 Отдельные результаты исследования представлены в рамках доклада на XVI Международной научной конференции «Теоретическая и прикладная этика: традиции и перспективы-2024: Парадоксальность морали и моральные парадоксы: проблемы и решения» (Санкт-Петербург, 21-23 ноября 2024 г.).
Чем меньшие моральные риски несет образ будущего, тем более желательным он является, при условии, что такие риски не устраняются полностью.
Ключевые слова: большие данные, социальное воображаемое, позитивные и негативные образы будущего, моральные риски, совесть.
Благодарность: Исследование выполнено за счет гранта Российского научного фонда № 23-28-01288, «Этика больших данных: трансформация моральных норм и ценностей», https://rscf.ru/project/23-28-01288/.
Ссылка для цитирования: Коваль Е. А. Датаоптимизм, датапессимизм и датареализм: образы моральных рисков в образах будущего // Социальные нормы и практики. 2024. № 3. С. 24-34. DOI: 10.24412/2713-1033-2024-3-24-34.
E. A. Koval
Mid-Volga Institute (branch) «The All-Russian State University of Justice (RLA of the Ministry of Justice of Russia)», National Research Mordovia State University, Saransk, Russia, e-mail: [email protected]
DATAOPTIMISM, DATAPESSIMISM AND DATAREALISM: IMAGES OF MORAL RISKS IN IMAGES OF THE FUTURE1
In the context of the constant accumulation of big data and the development of artificial intelligence systems, new images of the future appear and existing ones in the social imaginary are transformed. If we imagine big data as the key technology of the future, we can designate the set of positive images of the future as dataoptimism, negative ones as datapessimism, and moderate ones as datarealism.
We use the concept of "moral risk" to compare different images of the future. Moral risk is a situation in which the probability of acting "not according to conscience" increases. The signs of moral risk are egoistic considerations, a situation of value-normative conflict, a high level of uncertainty of the consequences of actions.
Moral risks in dataoptimism are associated with a high level of trust in technologies based on big data. People retain the skills of identifying a situation of value-normative conflict, but lose the skills of independent decision-making in this image of the future. Datapessimism is characterized by moral risks associated with hyper-nudging toward a good defined by big data, but not by humans themselves. In datapessimism, people do not trust technology but submit to it, gradually losing motivation for moral improvement. Datarealism, despite the formation of a balanced attitude towards big data and related technologies, is dangerous for human conscience
1 The research materials were presented in a report at the XVI International Conference "Theoretical and Applied Ethics. The Paradoxes of Morality and Moral Paradoxes: Problems and Solutions" (Saint-Petersburg, 21-23 November, 2024).
primarily because the boundaries of the application of the precautionary principle are not defined.
The less moral risk a future image carries, the more desirable it is, provided that such risks are not eliminated entirely.
Keywords: big data, social imaginary, positive and negative images of the future, moral risks, conscience.
Acknowledgment: The study was supported by the Russian Science Foundation (RSF), project no. 23-28-01288, «Big Data ethics: moral norms and values transformation», https://rscf.ru/proj ect/23-28-01288/.
For citation: Koval E.A. (2024) Dataoptimism, datapessimism and daterealism: images of moral risks in images of the future. Social norms and practices. No. 3. P. 24-34. DOI: 10.24412/2713-1033-2024-3-24-34.
Введение
Ключевые технологии современности, к которым можно отнести тесно взаимосвязанные большие данные и искусственный интеллект (искусственный интеллект - руки и мозги больших данных) [Hasselbalch, 2021: 78], являются ключевыми параметрами конструирования особых образов будущего, циркулирующих в социальном воображаемом.
Можно сказать, что появление генеративных предобученных трансформеров (GPT), характеризующихся не только сложностью архитектуры модели, но и тем, что обучающая выборка представляет собой большие данные, позволило нам «подключаться» к социальному воображаемому, которое уже оформлено в виде текстов и изображений (не только, но преимущественно). В ответ на пользовательские промпты модель выдает результат, который встречается с наибольшей частотой и вероятностью в обучающей выборке, включая контекстуальные параметры. Как иронично отмечает В.Э. Карпов, «(самое "интеллектуальное" во всей этой механике - это нелинейные аппроксиматоры...)» [Карпов, 2023]. Однако в исследуемом контексте нас интересует как раз способность моделей такого типа извлекать из закодированного социального воображаемого наиболее встречающиеся в определенном контексте образы, в том числе, и образы будущего.
К. Касториадис отмечает, что «социальное воображаемое есть, прежде всего, творение значений и творение образов или фигур как их опорных элементов» [Касториадис, 2003]. Такое определение обязывает учитывать значимость символического в динамике существования социальной реальности и не позволяет игнорировать попадание в область символического образов, полученных от больших языковых моделей. В результате в текущем социальном воображаемом сосуществуют образы и символические значения, созданные людьми (не только авторами социальных теорий, но и самыми обычными людьми [Тейлор, 2017]) и опосредованно людьми, но непосредственно -искусственным интеллектом.
Сочетание в социальном воображаемом «естественных», «искусственных» и смешанных образов будущего обуславливает возможность выбора в качестве опорных параметров образа будущего взаимодействие человека с конкретными технологиями - большими данными и искусственным интеллектом (определенными его разновидностями). Ориентируясь на такие параметры, обозначим мировоззренческое основание позитивных образов будущего в мире больших данных как датаоптимизм, негативных образов - датапессимизм, умеренных - датареализм.
Уровень моральных рисков как критерий оценки образов будущего
Образы будущего оказывают существенное влияние на настоящее, особенно в ситуациях неопределенности и риска, предполагающего «индустриальные, т.е. техноэкономические, решения и оценки полезности» [Бек, 1994: 162]. «От того, какие образы будущего преимущественно поддерживаются в сознании граждан, во многом зависит понимание и решение значимых социальных проблем. Но для сопоставления различных образов будущего с точки зрения их полезности, правильности, справедливости необходимы четкие критерии. Одним из возможных критериев является уровень рисков, характерных для образов будущего» [Коваль, 2024: 329].
Под риском понимается «...возможная опасность неблагоприятного исхода какого-либо события; сочетание вероятности и последствий его наступления. Это характеристика ситуации, имеющей неопределенность исхода, при обязательном наличии неблагоприятных последствий, т. е. риск всегда означает вероятностный характер исхода, чаще всего - вероятность неблагоприятного результата (потерь)» [Мишаткина, Тищенко, 2019: 40]. Однако апелляция к рискам для анализа качества образа будущего предполагает, в первую очередь, оценку уровня технических, политических, экономических, экологических рисков. Гораздо реже внимание уделяется моральным рискам, вероятно, не в последнюю очередь потому, что данное понятие требует концептуализации и уточнения. В экономико-правовом контексте моральный риск (moral hazard) определяется как ситуация, в которой индивид не заинтересован вести себя добросовестно, поскольку издержки за недобросовестное поведение несет не он сам, а иное лицо (например, страховая компания). В этике под моральным или нравственным риском понимается ситуация моральной дилеммы, «серой зоны» или ценностно-нормативного конфликта, в которой появляется вероятность того, что человек не сможет удовлетворить экзистенциальную потребность поступать по совести, т.е. ему придется рисковать «собственной нравственной чистотой» [Прокофьев, 2016: 178]. Чем меньше сила воли морального субъекта и чем выше неопределенность жизненных ситуаций, в которые он попадает, тем выше уровень моральных рисков. Анализируя образы будущего, можно было бы сосредоточиться только на уровне неопределенности, на неоднозначности последствий поступков, совершаемых моральным субъектом. Однако сила воли, переведенная на язык потребности в нравственном совершенствовании, вполне может быть учтена в
структуре моральных рисков образов будущего, основанного на больших данных.
Итак, в качестве признаков ситуации морального риска далее будут рассматриваться: эгоистические соображения, включая «стремление к получению гарантий моральной незапятнанности» [Прокофьев, 2011: 137]; ценностно-нормативные конфликты; высокий уровень неопределенности последствий (особенно последствий для Другого) принятого моральным субъектом решения.
Датаоптимизм, датапессимизм, датареализм: особенности моральных рисков
Датаоптимизм - это мировоззренческий фундамент позитивных образов будущего, в котором ключевые решения принимаются на основе данных и специализированных инструментов для их обработки и анализа. В обществе датаоптимистов наблюдается высокий уровень доверия технологиям. Надежность прогностики, основанной на обработке больших данных, позволяет определять последствия поступков с высокой вероятностью. Как отмечает Д. Ланье, в технократическом будущем «нам даже не придется формулировать свои пожелания, потому что статистика облачных сервисов вычислит модель нашей личности настолько точно, что наши желания будут известны заранее» [Ланье, 2020: 22-23].
Датаоптимизм не избавляет от моральных рисков, поскольку несмотря на снижения уровня неопределенности последствий принимаемых решений, доверие и даже сверхдоверие данным приводит к ситуации, когда моральный субъект сохраняет способность определять ситуации ценностно-нормативных конфликтов, но постепенно утрачивает навыки самостоятельного принятия решений в подобных ситуациях.
Общество датапотимистов построено таким образом, что апелляция к автоматизированным решениям является социальной нормой. Навыкам этического принятия решений (ethical decision making) с опорой на аналитику данных обучают с раннего детства, поэтому формируется привычка обращаться к искусственному интеллекту, обученному на больших данных, с морально нагруженными запросами. При этом за моральным субъектом сохраняется право воспользоваться решением, предложенным машиной, или принять свое.
Субъективное представление о надежности решения, основанного на данных, которые для датаоптимиста объективны, доказательны, беспристрастны - сопровождается потребностью если не переложить полностью, то разделить ответственность за принятое решение с технологиями (или с разработчиками, собственниками, производителями технологий). Повторяемость ситуаций такого рода влечет за собой риски того, что индивидуальные моральные санкции (стыд, совесть) будут слабо задействованы в нравственной жизни личности и потребность в сохранении чистоты совести ослабнет.
Еще один вид моральных рисков, которые сопровождают датаоптимистические представления о будущем, связан с ростом качества
предсказаний вероятности возникновения ситуаций, влекущих причинение вреда Другому. Хорошо обоснованная незначительная вероятность и опора на автоматизированное решение может чаще приводить к решениям, делающим нормальную жизнь общества невозможной, особенно если речь идет о решениях, принимаемых представителями определенных профессий (врачи, учителя, сотрудники правоохранительных органов, водители, машинисты, летчики и др.). А.В. Прокофьев, анализируя данный вопрос, приходит к выводу о том, что абсолютистская этика запретов и этика прав человека плохо подходят для решения проблем, связанных с моральными рисками [Прокофьев, 2019: 7-10].
С точностью до наоборот, проблему представляет и навязывание машиной оценки возможного вреда как маловероятного. Р. Нозик, рассматривая данную проблему в контексте концепции естественных прав, задается вопросом: «Каков уровень, начиная с которого вероятность ущерба, нарушающего чьи-то права, сама является нарушением прав?» [Нозик, 2008]. С одной стороны, маловероятный ущерб не должен учитываться, но, с другой стороны, что делать, если вероятность причинения вреда рассчитывается для одних людей, а возможные неблагоприятные последствия коснутся совершенно других? Профессионал, вооруженный мощным прогностическим инструментом, обученным на больших данных, неизбежно попадет в ситуацию морального риска, поскольку в определенных ситуациях незнание вероятности возможного вреда Другому помогает принять более взвешенное решение.
Обозначенные моральные риски не часто становятся предметом обсуждения в контексте анализа технологических образов будущего. Преимущества, которые сулят технологии, основанные на данных, перевешивают угрозы и вызовы. По результатам опросов ВЦИОМ, большинство россиян являются технооптимистами1, хотя и признают необходимость человеческого контроля технологий на всех этапах их разработки и использования2. В целом, несмотря на широко обсуждаемые тренды человекоцентричности и социоцентричности, датаоптимистические сценарии образа будущего поддерживаются широкой общественностью, воспроизводятся, характеризуются разнообразием и поддержкой со стороны профессионального сообщества IT-специалистов.
Иные смысловые оттенки моральных рисков характерны для датапессимистических образов будущего. Датапессимизм связан с недоверием технологиям, но неизбежностью жить в «прозрачном» мире, где пространство приватного окончательно сливается с публичным, контроль становится тотальным и основанным на данных. Обычные бедные данными пользователи оказываются в паноптикуме, во внутреннем цилиндре которого располагаются богатые данными правительства и IT-гиганты. Люди не верят в качество и
1 Россияне сохраняют технооптимизм. И за счет него можно сформировать позитивный образ будущего. URL: https://www.kommersant.ru/doc/6760712 (дата обращения: 24.11.2024).
2 Этика искусственного интеллекта. URL: https://wtiom.ru/analytical-reviews/analiticheskii-obzor/ehtika-iskusstvennogo-intellekta-2 (дата обращения: 24.11.2024).
истинность решений, основанных на данных, но не имеют возможности либо, отчаявшись, не хотят поступать вопреки подсказкам машины.
Тоска по додатафицированному свободному непрозрачному прошлому может повлечь за собой риски, связанные с отсутствием мотивации к нравственному совершенствованию. Зачем брать на себя ответственность, если общество построено так, что гиперподталкивание к благу, определяемому машиной или, точнее, разработчиком или собственником, не оставляет пространства для свободного выбора? Отказ от ответственности, привычка самооправдания влекут за собой существенные моральные риски. Но не меньшие риски могут быть связаны и с протестными решениями, которые принимаются в пику решениям, основанным на данных. Машина ошибается, но не всегда.
Наиболее принципиальные отличия моральных рисков в датапессимистических образах будущего от тех, которые характерны для датаоптимизма, проявляются на уровне ценностно-нормативных конфликтов. Парадоксальным образом, сведение моральных рисков к нулю или близким к этому значениям негативным образом сказывается на потребности человека в сохранении чистой совести. Принятие правильного решения в неоднозначной ситуации, свобода выбора, означающая возможность выбора в пользу зла, -необходимые атрибуты своеобразной тренировки морального сознания.
Прозрачность датапессимистического общества сокращает пространство ценностно-нормативных конфликтов посредством сокращения количества и вариативности ситуаций, в которых может быть продемонстрировано ненормативное поведение. Моральные риски в этом случае связаны с уменьшением степеней свободы морального субъекта.
Датареализм занимает срединное положение между датаоптимизмом и датапессимизмом. Датареалистам удалось найти баланс интересов бедных и богатых данными. В основу разработки технологий, основанных на больших данных, положен фундаментальный принцип: «Человечность на входе -человечность на выходе». В датареалистических образах будущего технологии не получили статуса моральных агентов, поэтому ответственность за принимаемые решения, основанные на аналитике данных, несет всегда человек, преимущественно пользователь.
Взвешенное отношение к большим данным и генеративному искусственному интеллекту в датареализме основывается на восприятии решений, формулируемых машиной, как опосредованно человеческих. Машина несмотря на превосходящие человеческие способности к сбору, хранению, анализу данных, не способна выйти за пределы ценностно-нормативного пространства, в котором образуются данные. Нормы, которые выводятся из данных, это одновременно нормы, которые создаются людьми. Поэтому решение, основанное на данных, может восприниматься моральным субъектом как в определенной - пусть и очень малой степени - его решение.
В датареалистическом ключе мыслит один из ведущих визионеров -Теодор Нельсон, которому удалось продвинуть идеи повсеместного использования персональных компьютеров как универсальных инструментов
для достижения абсолютно любых целей, гипертекста, новых цифровых медиа и образа будущего, в котором технологии помогут обеспечить пусть не идеального, но изобилия, минуя крайности порабощения или уничтожения человечества [Nelson, 1974].
Наряду с принципом «человечность на входе - человечность на выходе» в датареалистическом будущем повсеместно применяется принцип «этика по замыслу» (ethics by design). Это, с одной стороны, помогает минимизировать вероятность причинения вреда человеку технологиями. Но, с другой стороны, обостряется проблема применения более универсального принципа предосторожности. Какая этика должна закладываться уже на этапе дизайна технологии? Каким образом это реализовать технически? Как определить наиболее приемлемые варианты моральных норм, которые ограничат вероятность причинения вреда моральной машиной (moral machine) из эксперимента MIT, но при этом не приведут к ситуации, когда она просто не тронется с места?
Можно предположить, что между двумя крайностями злоупотребления предосторожностью и ее недооценкой датареалисты смогут найти изящный путь, который позволит решить дилемму Коллингриджа [Collingridge, 1980] в отношении больших данных и датацентричного искусственного интеллекта. Сейчас, на этапе разработки обозначенных технологий, у нас еще нет достоверной информации о том, как ими эффективно управлять. Когда необходимая информация появится, контролировать технологии будет уже поздно. Пока для нас еще не настало поздно, в датареалистическом будущем остается пространство для поиска корректных способов регулирования технологий, основанных на данных.
Заключение
Учитывая вышесказанное, примем следующее допущение: чем меньшие моральные риски несет в себе образ будущего, тем в большей степени он желателен, при условии, что моральные риски не устраняются полностью. Цифровые технологии, основанные на данных, не сулят нам рая, но и сценарии погружения в цифровой ад не единственно возможные.
Исходя из данного допущения, наиболее перспективными с точки зрения оценки моральных рисков являются датареалистические образы будущего. Можно предположить, что оптимальной нормативно-этической программой для датареализма является контрактарианизм, поскольку позволяет учесть нюансы моральных рисков в ситуациях готовности идти на риск и навязывания рисков. Справедливые и ответственные решения, связанные с большими данными, предполагают согласие всех вовлеченных на определенные риски. Однако принципиальным становится вопрос обеспечения реального или хотя бы гипотетического консенсуса по поводу рисков, связанных с большими данными и датацентричным искусственным интеллектом. Каким образом в мире больших данных предоставить возможность высказаться всем заинтересованным лицам?
Г. Хассельбальх пишет о пространстве переговоров, где встречаются представители разных культур данных [Hasselbach, 2021]. Основная задача -организовать такое пространство, где могли бы попытаться договориться бедные и богатые данными о том, как организовать общество с приемлемым уровнем моральных рисков.
В качестве обозримой перспективы дальнейших исследований образов будущего, основанных на данных, можно обозначить необходимость анализа взаимодействия человека с искусственным Другим и формирования искусственной социальности [Резаев, Трегубова, 2019]. Хорошо известно предупреждение апостола Павла: «Не обманывайтесь: худые сообщества развращают добрые нравы» (1 Кор., 15:33). Однако оно было сформулировано в эпоху, когда искусственная социальность еще не появилась даже в самых смелых вариантах социального воображаемого. Будут ли сообщества в условиях искусственной социальности более «худыми» и опасными для чистой совести? По крайней мере, на текущий момент ответ на этот вопрос зависит исключительно от того, насколько «худыми» являются человеческие сообщества.
Список литературы (References)
1. Бек У. От индустриального общества к обществу риска // THESIS. 1994. Вып. 5. С. 161-168.
Beck U. (1994) From Industrual Society to the Risk Society. THESIS. Issue 5. P. 161-168. (In Russ.).
2. Карпов В.Э. Болталка GPT. От имитации диалога к имитации разумности // Доклад на исследовательском семинаре «Этические проблемы искусственного интеллекта» 25 мая 2023 года. URL: http://www.ethicsai.raai.org/lib/exe/fetch.php?media=karpov-gpt.pdf (дата обращения 24.11.2024).
Karpov V.E. (2023) GPT Chatter. From Dialogue Imitation to Intelligence Imitation. Report at the research seminar "Ethical Problems of Artificial Intelligence" on May 25, 2023. URL: http: //www.ethicsai .raai .org/lib/exe/fetch.php?media=karpov-gpt.pdf (accessed 24.11.2024). (In Russ.).
3. Касториадис К. Воображаемое установление общества. М.: Гнозис; Логос, 2003. URL: library.khpg.org/files/docs/1385716028.pdf (дата обращения: 24.11.2024).
Castoriadis C. (2003) The Imaginary Institution of Society. Moscow: Gnosis; Logos Publ. URL: library.khpg.org/files/docs/1385716028.pdf (accessed 24.11.2024). (In Russ.).
4. Коваль Е.А. Датаоптимизм, датапессимизм и датареализм: образы моральных рисков в образах будущего // XVI Международная конференция «Теоретическая и прикладная этика: Традиции и перспективы - 2024: Парадоксальность морали и моральные парадоксы: проблемы и решения». СПб.: Издательско-полиграфическая ассоциация высших учебных заведений, 2024. C. 328-330.
Koval E.A. (2024) Dataoptimism, datapessimism and datarealism: images of moral risks in images of the future. Proceedings of the XVI International Conference "Theoretical and Applied Ethics. The Paradoxes of Morality and Moral Paradoxes: Problems and Solutions " (Saint-Petersburg, 21-23 November, 2024). St Petersburg: Publishing and Printing Association of Higher Education Institutions. P. 328-330. (In Russ.).
5. Ланье Д. Кому принадлежит будущее? Мир, где за информацию платить будут вам. М.: Эксмо, 2020.
Lanier J. (2020) Who owns the Future? A World Where You will be paid for Information. Moscow: Eksmo Publ. (In Russ.).
6. Мишаткина Т., Тищенко П. Биобезопасность в обществе глобального экологического риска: этический аспект // Сахаровские чтения 2019 года: экологические проблемы XXI века: материалы 19-й международной научной конференции, 23-24 мая 2019 г., г. Минск, Республика Беларусь: в 3 ч. Минск: ИВЦ Минфина, 2019. Ч. 1. С. 39-42.
Mishatkina T., Tishchenko P. (2019) Biosafety in the society of global environmental risk: ethical aspect. Sakharov readings 2019: environmental problems of the XXI century: proceedings of the 19th International Scientific Conference, May 23-24, 2019, Minsk, Republic of Belarus: in 3 parts. Minsk: Information and Computing Center of the Ministry of Finance Publ. Part. 1. P. 39-42. (In Russ.).
7. Нозик Р. Анархия, государство и утопия / пер. с англ. Б. Пинскера; под ред. Ю. Кузнецова, А. Куряева. М.: ИРИСЭН, 2008. URL: https://skepdic.ru/wp-content/uploads/2013/05/4263Nozik. anarchy_state_utopia.pdf (дата обращения: 24.11.2024).
Nozick R. (2008) Anarchy, State and Utopia. Moscow: IRISEN Publ. URL: https://skepdic.ru/wp-content/uploads/2013/05/4263Nozik.anarchy_state_utopia. pdf (accessed 24.11.2024). (In Russ.).
8. Прокофьев А.В. Мораль, вероятность и риск // Философский журнал. 2019. Т. 12. № 2. С. 5-19. DOI 10.21146/2072-0726-2019-12-2-5-19.
Prokofyev A.V. (2019) Morality, probability, and risk. Philosophy Journal. Vol. 12. No. 2. P. 5-19. DOI 10.21146/2072-0726-2019-12-2-5-19. (In Russ.).
9. Прокофьев А.В. Самодостаточность и риск в морали (о некоторых истоках нравственного учения Л. Н. Толстого) // Известия Тульского государственного университета. Гуманитарные науки. 2016. № 2. С. 172-179.
Prokofyev A.V. (2016) Self-sufficiency and Risk in Morality (Some Sourcess of the Moral Teaching of Leo Tolstoy). Izvestiya Tula State University. Humanitarian sciences. No. 2. P. 172-179. (In Russ.).
10. Прокофьев А.В. Этика ненасилия как бегство от нравственного риска // Философия и культура. 2011. № 7. С. 137-149.
Prokofyev A.V. (2011) Non-violence ethics as an escape from the moral risk. Philosophy and Culture. No. 7. P. 137-149. (In Russ.).
11. Резаев А.В., Трегубова Н.Д. «Искусственный интеллект», «Онлайн-культура», «Искусственная социальность»: определение понятий // Мониторинг
общественного мнения: экономические и социальные перемены. 2019. № 6. С. 35-47. https://doi.org/10.14515/ monitoring.2019.6.03.
Rezaev A.V., Tregubova N.D. (2019) Artificial Intelligence, On-line Culture, Artificial Sociality: Definition of the Terms. Monitoring of Public Opinion: Economic and Social Changes. No. 6. P. 35-47. https://doi.org/10.14515/monitoring.2019.6.03. (In Russ.).
12. Тейлор Ч. Секулярный век. М.: ББИ, 2017.
Taylor Ch. (2017) A Secular Age. Moscow: BBE Publ. (In Russ.)
13. Collingridge D. (1980) The Social Control of Technology. New York: St. Martin's Press.
14. Hasselbalch G. (2021) Data Ethics of Power. A Human Approach in the Big Data and AI Era. Cheltenham, UK; Northampton, MA, USA: Edward Elgar Publ.
15. Nelson T. (1974) Computer Lib/Dream Machines. URL: https://archive.org/details/computer-lib-dream-machines/mode/2up (accessed 24.11.2024).
Сведения об авторе
Коваль Екатерина Александровна - доктор философских наук, профессор кафедры уголовного права и процесса Средне-Волжского института (филиала) Всероссийского государственного университета юстиции (РПА Минюста России), ведущий научный сотрудник Института корпоративного обучения и непрерывного образования, профессор кафедры всеобщей истории, политологии и регионоведения Национального исследовательского Мордовского государственного университета. Занимается изучением вопросов нормативности морали, права, религии. Автор более 170 научных и учебно-методических работ. E-mail: [email protected] https://orcid.org/0000-0003-0069-5335
About the author
Koval Ekaterina Alexandrovna - Doctor of Philosophical Sciences, professor of the Department of Criminal Law and Procedure of Middle-Volga Institute (branch) of Russian State University of Justice (RLA of the Ministry of Justice of Russia), leading researcher at the Institute of Corporate Training and Continuing Education, professor of the Department of General History, Political Science and Regional Studies of National Research Mordovia State University. Engaged in studying the problems of moral, law and religion normativity. The author of over 170 scientific and educational works.
E-mail: [email protected] https://orcid.org/0000-0003-0069-5335
Поступила 22.11.2024; одобрена после рецензирования 04.12.2024; принята к публикации 05.12.2024.
Submitted 22.11.2024; revised 04.12.2024; accepted 05.12.2024.