Научная статья на тему 'СОЦИАЛЬНЫЕ АСПЕКТЫ УПРАВЛЕНИЯ РИСКАМИ И ВОЗМОЖНОСТЯМИ ОПЕРЕЖАЮЩЕГО РАЗВИТИЯ НЕЙРОСЕТЕЙ'

СОЦИАЛЬНЫЕ АСПЕКТЫ УПРАВЛЕНИЯ РИСКАМИ И ВОЗМОЖНОСТЯМИ ОПЕРЕЖАЮЩЕГО РАЗВИТИЯ НЕЙРОСЕТЕЙ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
412
75
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ (ИИ) / НЕЙРОСЕТИ / CHATGPT / ВЫСШЕЕ ОБРАЗОВАНИЕ / УПРАВЛЕНИЕ РИСКАМИ

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Ладыжец Наталья Сергеевна

Искусственный интеллект все в большей степени становится объектом и аналитическим полем проблем современной социологии. Переход к генеративным нейросетям означает смену глобальной парадигмы, переход к индустрии 4.0 - к новой экономике, новым видам социальных коммуникаций и социальных отношений. Современный искусственный интеллект уже производит революции в медицине, образовании, маркетинге, военном деле, оказывает большое воздействие на поколение молодежи. Возникает новая терминология в описании алгократии, в разных странах формулируются запросы государственного регулирования применения и глубокого обучения нейросетей. Возможности и ограничения в использовании искусственного интеллекта не могут рассматриваться без внимания к социальным аспектам управления рисками и возможностями опережающего развития нейросетей. В предлагаемой статье эта задача аналитически рассматривается в проекции на современное высшее образование.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

SOCIAL ASPECTS OF MANAGING RISKS AND OPPORTUNITIES FOR ADVANCED DEVELOPMENT OF NEURAL NETWORKS

Artificial intelligence is increasingly becoming the object and analytical field of the problems of modern sociology. The transition to generative neural networks means a change in the global paradigm, a transition to industry 4.0 - to a new economy, new types of social communications and social relations. Modern artificial intelligence is already revolutionizing medicine, education, marketing, military affairs, and has a great impact on the youth generation. There is a new terminology in the description of algocracy; requests for state regulation of the use and deep learning of neural networks are formulated in different countries. Opportunities and limitations in the use of artificial intelligence cannot be considered without attention to the social aspects of risk management and opportunities for advanced development of neural networks. In the proposed article, this task is analytically considered in the projection on modern higher education.

Текст научной работы на тему «СОЦИАЛЬНЫЕ АСПЕКТЫ УПРАВЛЕНИЯ РИСКАМИ И ВОЗМОЖНОСТЯМИ ОПЕРЕЖАЮЩЕГО РАЗВИТИЯ НЕЙРОСЕТЕЙ»

СОЦИОЛОГИЯ. ПОЛИТОЛОГИЯ. МЕЖДУНАРОДНЫЕ ОТНОШЕНИЯ

УДК 316.334:378:004.8(045) Н.С. Ладыжец

СОЦИАЛЬНЫЕ АСПЕКТЫ УПРАВЛЕНИЯ РИСКАМИ И ВОЗМОЖНОСТЯМИ ОПЕРЕЖАЮЩЕГО РАЗВИТИЯ НЕЙРОСЕТЕЙ

Искусственный интеллект все в большей степени становится объектом и аналитическим полем проблем современной социологии. Переход к генеративным нейросетям означает смену глобальной парадигмы, переход к индустрии 4.0 - к новой экономике, новым видам социальных коммуникаций и социальных отношений. Современный искусственный интеллект уже производит революции в медицине, образовании, маркетинге, военном деле, оказывает большое воздействие на поколение молодежи. Возникает новая терминология в описании алгократии, в разных странах формулируются запросы государственного регулирования применения и глубокого обучения нейросетей. Возможности и ограничения в использовании искусственного интеллекта не могут рассматриваться без внимания к социальным аспектам управления рисками и возможностями опережающего развития нейросетей. В предлагаемой статье эта задача аналитически рассматривается в проекции на современное высшее образование.

Ключевые слова: искусственный интеллект (ИИ), нейросети, ChatGPT, высшее образование, управление рисками.

DOI: 10.35634/2587-9030-2023-7-2-189-197

Ссылка на статью:

Ладыжец Н.С. Социальные аспекты управления рисками и возможностями опережающего развития нейросетей // Вестн. Удм. ун-та. Социология. Политология. Международные отношения. 2023. Т. 7, вып. 2. С. 189-197. https://doi.org/10.35634/2587-9030-2023-7-2-189-197

Введение

Безусловным трюизмом является утверждение о том, что стремительный рост технологий порождает запросы на комплексный анализ социальных ресурсов, возникающих рисков и возможных следствий, точно так же, как и на социально-философское осмысление сущностных оснований происходящих изменений. Обратный запрос «социума» в направлении технологических инновационных разработок также присутствует, но значительно реже оказывается публичным, выражая конкурентные интересы крупного бизнеса, геополитически значимых правительств, элитарных групп, приобретая социальную значимость в периоды глобальных кризисов, либо формирования новых социальных трендов.

Бурное развитие в начале 21 столетия интернет-технологий и генеративных нейросетей, в совокупности с радикальными изменениями форматов социального взаимодействия в период пандемии COVID-19, а также в связи с нарастающими процессами деглобализации, децентрализации и дегуманизации, привели к переосмыслению уже существовавших идей рискогенности общества и возрастания неопределенности [1-8]. Смена глобальной парадигмы оказалась связана, прежде всего, с нейросе-тями, - с тем, что, отчасти метафорически проективно, принято называть приближением к генеративному искусственному интеллекту (ИИ), - демонстрирующими не только возможности самообучения на обширном массиве данных, но и оказывающими воздействие на изменение социальной среды и социальных отношений.

Практически любая технологическая новация, революционизирующая повседневность и обнаруживающая социальную значимость, изначально стереотипно приводила к неприятию, сопротивлению нововведениям, иногда разрушительным. Со временем доминирующие страхи и опасения сменялись освоением нового, адаптацией к возникающим ресурсам и возможностям, управлением нововведениями и снижением тревожности в отношении рискогенности социотехнической среды. Однако стремительное развитие генеративных нейросетей уже предъявляет очевидный разрыв шаблона. Человечество и сами разработчики впервые испугались ближайших результатов инновационных изысканий. И дело не только в том, что, «по мнению экономистов Goldman Sachs, до 300 миллионов рабочих мест с полной занятостью по всему миру могут быть каким-то образом автоматизированы с помощью новейшей волны искусственного интеллекта, породившей такие платформы, как ChatGPT»[9], и также не в том, что глобальные потрясения на рынке труда приведут к возможному росту занятости лишь в отдаленной и неопределенной

перспективе. Структурирование осознаваемых рисков выходит совершенно в другую плоскость, требующую безотлагательного и результативного регулирования, но не предоставляющую инструментов для такого целедостижения. Алармизм СМИ удерживает население в состоянии кумулятивного стресса, многократно усиливаемого «новостными» вбросами, со ссылками на ведущих программистов мирового уровня о том, что «способность искусственного интеллекта (ИИ) решать любые задачи грозит человечеству катастрофой, от которой оно вряд ли когда-то сможет оправиться» [10]; что уже появилась нейросеть ChaosGPT, намеренная уничтожить человечество [11]; что сингулярность как полное слияние человеческого и искусственного интеллекта ожидается к 2045 г., и будет иметь совершенно непредсказуемые следствия, включая завершение биологической эволюции человека [12].

Вопросы методологии: чем может быть полезна социология?

Все эти риски-следствия, несмотря на терминологическое обращение к алармизму, связаны с социумом и требуют комплексного анализа на своей социогуманитарной территории. Несколько лет назад рассуждения специалистов этих направлений по поводу интернет-технологий и искусственного интеллекта вызывали, преимущественно, глубокий скепсис прикладных математиков и программистов. Сегодня становятся очевидны потребности в критической оценке больших массивов данных, собранных и обработанных алгоритмами, в разработке новых идей, действий и видов деятельности без образцов, в организации работы смешанных групп, включающих сотрудников и роботизированную технику [13]. И это уже потребности управления в новой реальности и даже отчасти - управления новой реальностью.

Можно считать парадоксальным фактическое дистанцирование социологии от этих новых со-циотехнических вызовов, даже несмотря на то, что еще Б.Латур обратил внимание на появление нового гибридного мира, формируемого в результате воздействия искусственного интеллекта и интернета на повседневные практики людей [14]. Прояснение теоретико-методологических оснований анализа роли, места, функционала искусственного интеллекта в гибридной социальной среде, формируемых высокотехнологических ресурсов и рисков не только могут составить пул задач современной социологии, но и способствовать расширению ее дисциплинарных границ со смещением в направлении актуализации междисциплинарного социального знания.

Сегодня генеративные нейросети производят и оптимизируют тексты, изображения, аудио-, видео- и музыкальные форматы, презентации, маркетинговые стратегии, дизайнерские продукты, логистику, контроллинг, повышают точность медицинской диагностики - все это фрагменты и признаки еще не изученной гибридной социальной среды, в которой нейросети и генеративный искусственный интеллект приобретают социально-технологическую агентность, предполагающую целый ряд управленчески-координационных действий, новых аспектов анализа и практических рекомендаций. Также некоторые деструктивные «инновации» возникают на стыке различных областей, как это произошло, например, с множественными мошенническими разновидностями социального хакинга, представляющего атаку «на человеческую операционную систему, которая пытается использовать уязвимости в человеческой ОС, в основном связанные с авторитетом, доверием или страхом» [15], или в случае электорального социохакинга - создания алгоритмических копий социальных групп, позволяющих результативно воздействовать на мнение электората.

«По результатам опроса, проведенного среди 12 тыс. участников Всемирного экономического форума в Давосе в 2023 году, искусственный интеллект стал самой важной стратегической технологией» [16]. Не освоенность этих стратегий в образовании, прежде всего в высшем, привела к одновременности ажиотажного спроса, шока и запрета на применение в целом ряде стран размещенного в свободном доступе чат-бота ChatGPT [17].

Социальные аспекты управления рисками использования нейросетей в развитии высшего образования: опыт «экспертного интервью» с чат-ботом

В марте 2023 г. я в соавторстве с ChatGPT выступала с пленарным докладом в новосибирском академгородке на III Всероссийской научной конференции «От идеи - к практике: социогуманитарное знание в цифровой среде». Я - в течение 13 мин, ChatGPT - в течение 7. Комментарии, полученные

СОЦИОЛОГИЯ. ПОЛИТОЛОГИЯ. МЕЖДУНАРОДНЫЕ ОТНОШЕНИЯ

позже, свидетельствовали о том, что такого рода практики взаимно дополнительного изложения заявленной темы, с последующим сравнительным анализом содержания выступлений «докладчиков», ранее моим адресатам не встречались.

Вероятно, это не случайно, поскольку история нейросети, относимой к модификации генеративного ИИ, развивалась стремительно, если не сказать лавинообразно. В конце ноября 2022 г. корпорацией Open AI была выпущена версия языковой модели ChatGPT-3,5, всего через неделю собравшая 1 миллион восторженных пользователей [18], по достоинству оценивших результаты самообучения нейросети на основе больших массивов данных - способной поддерживать диалог, запоминать детали, ориентироваться и отвечать на запросы коммуникатора и генерировать разножанровые тексты. Однако уже через три месяца эту целевую аудиторию виртуальных пользователей ждал новый сюрприз, существенно усиливший инновационные возможности языковой модели. Ставший доступным в марте 2023 г. чат-бот ChatGPT-4 - также работал по запросу пользователей, но это была уже более надежная и генеративная мультимодальная модель, способная принимать входные данные как в виде текстов, так и изображений, и выдающая текстовые варианты в запрашиваемом жанре [19]. Шоковый результат впечатления аудитории определялся тем, что результативность программы, построенной на алгоритмах, приблизилась по показателям к продуктам экспертно-профессионального и академического сообществ, со значительным превосходством в быстродействии.

Такого рода расширенные возможности нейросети мгновенно нашли апробацию, в частности, в высшем образовании и различного рода креативных видах деятельности, предполагающих коммерческую реализацию, таких как подготовка разножанровых литературных текстов, написание картин и ряде других. Угрозы плагиата, нивелирования усилий образовательных и исследовательских результатов были восприняты настолько существенными, что привели к значительным ограничениям использования и даже запретам в высшей школе США, Индии, Франции и ряде других стран [20]. Целесообразность таких запретов изначально была проблематичной и обусловила ускоренное их послабление, поскольку отменить инновационные технологии в современной социотехнической среде со все возрастающим использованием ИИ, уже не получится. Это - реалии повседневности сегодняшнего и завтрашнего дня, требующие новых форматов взаимодействия самообучающихся на больших массивах данных роботизированных нейросетей и человека. В средине мая 2023 г. американские разработчики создали метод декодирования мыслей человека в слова, с передачей информации в обобщенном виде на основе снимков, сделанных томографом [21], вновь вернувший специалистов и общественность к обсуждению реальных и потенциальных рисков и угроз.

Опубликованные в апреле 2023 г. результаты исследования 160 преподавателей вузов, ДПО, ссузов и школ, а также 612 студентов вузов и ДПО, проведенного Сберуниверситетом и платформой GeekBrains с целью прояснения отношения к искусственному интеллекту в сфере образования, стали свидетельством того, что «в целом обе группы респондентов положительно относятся к внедрению ИИ в образовательный процесс. Так, среди преподавателей позитивную оценку высказали 51% респондентов, среди студентов - 77%. При этом среди последних доля скептиков по отношению к искусственному интеллекту в образовании в 2 раза выше. ... В целом, преподаватели видят больше возможностей ИИ в сфере образования, но сильнее опасаются за квалификацию студентов из-за неточной информации, которую может выдать искусственный интеллект. Такого мнения придерживаются 72% преподавателей и всего 35% студентов» [22]. В целом обе группы респондентов остаются в большей степени наблюдателями инновационных технологических изменений, поскольку доля апробировавших возможности генеративного интеллекта в образовательном процессе остается достаточно низкой.

Очевидно и то, что текстовый контент может быть результатом глубокого обучения на целенаправленно ограниченном массиве больших данных, также и с совершенно разными целями разработчиков, либо коммерческих заказчиков. На сегодняшний день основными проблемами высшей школы, ориентированной на внедрение технологий на основе нейросетей в официальный учебный процесс, остаются риски не распознавания заимствований - плагиата и снижения навыков критического мышления в определении недостоверности предоставляемой информации. В этой связи обеими группами преподавателей и студентов отмечается необходимость ускоренного обучения факт-чекингу, критическому мышлению [23] и другим инструментам разрешения зафиксированной проблемы.

Увеличение рисков и угроз актуализирует необходимость прояснения социальных аспектов управления рисками использования нейросетей в развитии высшего образования. В этой связи в каче-

стве исследовательского эксперимента можно рассмотреть текстовые результаты приближенных к экспертному формализованному интервью тематически связанных запросов самому чат-боту ChatGPT. Уточняя возможности управления социальными и образовательными рисками - следствиями опережающего развития ИИ, виртуальный «информант» на основе обобщения имеющегося массива обработки данных по этой проблеме подтверждает наличие таких рисков. В качестве одного из главных была определена возможность его использования в неправильных целях, например, для манипуляции общественным мнением или нарушения прав человека. Здесь в качестве решения проблемы было предложено создание этических кодексов, которые регулировали бы использование ИИ в социальной сфере.

«Помимо социальных рисков, использование ИИ также может привести к образовательным рискам. Один из таких рисков - это возможность замены учителей ИИ. Хотя ИИ может быть полезным инструментом для обучения, он не может заменить роль учителя в образовательном процессе. Поэтому для управления образовательными рисками необходимо определить, какие задачи могут быть решены с помощью ИИ, а какие должны оставаться в компетенции учителя.

Также важно обеспечить доступность ИИ в образовании для всех учеников, в том числе и для тех, у кого нет доступа к новым технологиям. Для этого нужно разработать специальные программы и инструменты, которые бы позволили обеспечить доступность ИИ в образовании для всех учеников.

Таким образом, использование ИИ в социальной и образовательной сферах может привести к определенным рискам. Для управления этими рисками необходимо разработать эффективные методы контроля и регулирования использования ИИ, а также определить, какие задачи могут быть решены с помощью ИИ, а какие должны оставаться в компетенции человека».

Признание рисков аргументируется тем, что нейронные сети, как и любая технология, не являются безопасными, и в этой связи социологии управления рисками опережающего развития нейронных сетей отводится важная роль.

«Это - наука, изучающая социальные и культурные аспекты использования нейронных сетей и разработку стратегий управления рисками, связанными с их использованием. Эта наука включает в себя анализ социальных, экономических, политических и технических факторов, которые могут влиять на безопасность и эффективность нейронных сетей.

Одним из основных рисков, связанных с нейронными сетями, является их способность к автономному принятию решений. Это может привести к ситуациям, когда нейронная сеть принимает неправильное решение, что может иметь серьезные последствия. Например, если нейронная сеть используется в медицинских целях, неправильное диагностирование может привести к неправильному лечению, что может нанести вред пациенту.

Другим риском является возможность злоупотребления нейронными сетями. Например, некоторые люди могут использовать нейронные сети для создания вредоносных программ или для мошенничества. Это может привести к утечкам данных или другим вредным последствиям.

Социология управления рисками опережающего развития нейронных сетей предлагает ряд стратегий, которые могут помочь управлять этими рисками. Например, можно использовать методы обучения с учителем, чтобы обеспечить более точное принятие решений нейронными сетями. Также можно использовать методы проверки и тестирования, чтобы обнаружить и исправить ошибки в работе нейронных сетей.

Кроме того, социология управления рисками опережающего развития нейронных сетей также предлагает разработку кодексов этики и нормативных документов, которые могут регулировать использование нейронных сетей в различных сферах. Такие документы могут установить стандарты безопасности и эффективности нейронных сетей и помочь предотвратить возможные риски».

Методология управления социальными рисками применения нейросетей в образовательном процессе университетов предлагает ряд стратегий, которые могут полезны в управлении этими рисками.

«Когда речь идет об использовании нейросетей в образовательном процессе университетов, социальные риски могут включать в себя такие проблемы, как нежелательное влияние на студентов, нарушение конфиденциальности данных и неравенство в доступе к обучению.

Одним из основных рисков применения нейросетей в образовательном процессе университетов является возможность нежелательного влияния на студентов. Например, нейросети могут оказывать слишком большое давление на студентов, что может привести к чрезмерной нагрузке и стрессу. Также

нейросети могут оказывать негативное влияние на межличностные отношения между студентами и преподавателями, что может привести к конфликтам или недоверию.

Другим риском является нарушение конфиденциальности данных. Например, если нейросети используются для сбора и анализа данных о студентах, то это может привести к утечкам персональной информации, что может быть опасно для студентов. Кроме того, нейросети могут получать доступ к конфиденциальным данным, которые могут быть использованы в незаконных целях.

Неравенство в доступе к обучению - это еще один риск применения нейросетей в образовательном процессе университетов. Например, если нейросети используются для оценки студентов, то это может привести к неравенству в доступе к образованию. Студенты, которые не имеют доступа к нейросетям, могут быть оставлены за бортом и не получить возможности для лучшего обучения».

Еще один модуль был связан с прояснением новых возможностей, предоставляемых использованием нейросетей в развитии университетского образования. В этой связи утверждается, что нейросети предлагают множество инструментов, полезных педагогам и студентам в обучении, а также улучшающих качество и эффективность образовательного процесса. Здесь были выделены: персона-лизация образования, улучшение качества обратной связи, улучшение качества преподавания, разработка новых курсов.

«Персонализация обучения

Одной из главных возможностей, которые предоставляют нейросети, является персонализация обучения. Нейросети позволяют анализировать данные о студентах и создавать индивидуальные программы обучения, которые учитывают специфические потребности каждого студента. Это помогает учителям и студентам улучшить качество образования и достичь лучших результатов.

Улучшение качества обратной связи

Нейросети могут значительно улучшить качество обратной связи, которую получают студенты. Например, нейросети могут анализировать ответы студентов на тесты и задания и предоставлять подробные отчеты о том, какие ошибки они совершили и что им необходимо улучшить. Это помогает студентам быстрее и более эффективно учиться.

Улучшение качества преподавания

Нейросети также могут помочь учителям улучшить качество своего преподавания. Например, нейросети могут анализировать данные о том, как студенты реагируют на различные методы преподавания и материалы и предоставлять рекомендации по улучшению преподавания. Это помогает учителям становиться более эффективными и успешными в своей работе.

Разработка новых курсов

Нейросети могут помочь университетам разрабатывать новые курсы, которые соответствуют потребностям и интересам студентов. Например, нейросети могут анализировать данные о том, какие курсы наиболее популярны среди студентов и предоставлять рекомендации по созданию новых курсов на основе этих данных. Это помогает университетам быть более эффективными в разработке курсов и привлекать больше студентов».

Однако наряду с положительными аспектами использования ИИ в высшем образовании, куда также была отнесена возможность автоматизации рутинных задач, таких, как проверка тестов и заданий, позволяющая педагогам сосредоточиться на разработке курсов и организации обучения, были названы и существующие проблемы.

«Одна из таких проблем - это возможность замены учителей ИИ. В некоторых случаях ИИ может предоставить более эффективное обучение, чем учителя, и это может привести к сокращению числа преподавателей. Это может стать проблемой не только для учителей, но и для студентов, которые могут потерять важные навыки социального взаимодействия.

Также использование ИИ в высшем образовании может привести к усилению различий между студентами. Хотя персонализация обучения может помочь студентам, у которых есть проблемы со стандартными программами, она также может создать дополнительные преимущества для студентов, которые уже имеют высокий уровень знаний и умений. Это может привести к усилению неравенства в образовании.

Наконец, использование ИИ в высшем образовании может создать проблемы с защитой данных. Использование ИИ требует сбора большого объема данных об обучающихся, что может привести к утечкам конфиденциальной информации. Это может привести к серьезным последствиям для студентов и университета в целом.

В целом использование ИИ в высшем образовании может привести к значительному улучшению качества образования и повышению его эффективности. Однако, чтобы извлечь максимальную выгоду из применения ИИ в образовании, необходимо учитывать социогуманитарные аспекты и разрабатывать стратегии, которые помогут минимизировать возможные проблемы».

Очевидно также и то, что социальные и гуманитарные науки играют важную роль в развитии искусственного интеллекта. Как уже говорилось, только на первый взгляд ИИ выглядит преимущественно технической областью, требующей знаний в области математики и программирования. Однако социальные и гуманитарные науки могут дополнить этот технический подход и дать ИИ более глубокое понимание человеческого поведения и социальных процессов.

«Первым и наиболее очевидным вкладом социальных и гуманитарных наук в развитие ИИ является разработка этических стандартов и нормативов. ИИ может иметь серьезные социальные последствия, и его использование должно быть ограничено таким образом, чтобы предотвратить нарушение прав и свобод людей. Социальные и гуманитарные науки могут помочь определить принципы и правила, которые будут управлять развитием ИИ.

Вторым вкладом социальных и гуманитарных наук в развитие ИИ является исследование социальных процессов и поведения людей, которые могут быть применены для улучшения ИИ. Так, социологи и психологи могут изучать, как люди принимают решения и взаимодействуют друг с другом, чтобы создать ИИ, который учитывает их поведение и реагирует на него. Это может привести к созданию ИИ, который более эффективно взаимодействует с людьми и учитывает их потребности.

Третьим вкладом социальных и гуманитарных наук в развитие ИИ является изучение культурных различий и языковых барьеров. ИИ должен быть способен работать с людьми из разных культур и говорить на разных языках. Социальные и гуманитарные науки могут помочь определить, какие культурные факторы влияют на взаимодействие между людьми и ИИ, и какие языковые особенности нужно учитывать при разработке ИИ».

Вместо Заключения

Завершая экспериментальное интервьюирование виртуального информанта логично было предложить предоставить текстовую информацию о том, что нужно рассказать Ученому совету университета про применение ИИ в учебном процессе. Характерно, что определив специфику предшествовавших запросов и ориентируясь на предложенную целевую аудиторию, чат-бот начал отвечать с прямого личного обращения.

«Уважаемые члены ученого совета университета, я хотел бы рассказать вам об использовании искусственного интеллекта (ИИ) в учебном процессе.

ИИ - это технология, которая позволяет компьютерам учиться на основе данных и анализировать информацию для принятия решений. В образовательном секторе ИИ может использоваться для улучшения качества обучения и обеспечения более эффективного управления учебным процессом.

Одной из главных преимуществ использования ИИ в учебном процессе является персонализация обучения. С помощью ИИ можно создавать индивидуальные программы обучения, адаптированные к специфическим потребностям и уровню знаний каждого студента. Это помогает достичь более высоких результатов в обучении и улучшить мотивацию студентов.

ИИ также может быть использован для автоматизации проверки заданий и выставления оценок. Это позволяет сократить время, затрачиваемое на рутинные задачи, и улучшить точность оценок. Кроме того, ИИ может быть использован для анализа данных о производительности студентов и помочь преподавателям оптимизировать учебный процесс и улучшить результаты обучения.

Также ИИ может быть использован для создания виртуальных ассистентов, которые могут помочь студентам получить ответы на вопросы и помочь им в решении задач. Это позволяет улучшить доступность образования и помочь студентам получить нужную информацию в любое время.

Однако необходимо учитывать ряд ограничений и проблем при использовании ИИ в учебном процессе, таких как ограниченность взаимодействия и необходимость обучения использованию технологии. Но с правильным подходом и обучением, ИИ может стать мощным инструментом для улучшения качества обучения и управления учебным процессом в университете.

В заключение, я хотел бы подчеркнуть, что использование ИИ в учебном процессе может помочь улучшить качество образования и развития студентов. Поэтому, рекомендуется дальнейшее изучение и внедрение этой технологии в учебный процесс университета.

СОЦИОЛОГИЯ. ПОЛИТОЛОГИЯ. МЕЖДУНАРОДНЫЕ ОТНОШЕНИЯ

Очевидно, что можно уже не удивляться метаморфозам и быстроте подстройки чат-бота ChatGPT, демонстрирующего определенную «агентность», с претензией на рационализированное и поучающее ораторское искусство. Вишенкой на торте экспертно-роботизированного виртуального анализа социальной и образовательной гибридной среды стала индульгенция руководству и профессорам университета, поскольку ИИ не может полностью заменить руководство университета и профессоров в университетских аудиториях.

«Хотя ИИ может помочь оптимизировать некоторые процессы и улучшить качество обучения, он не может полностью заменить человеческий фактор, который является необходимым для создания эффективной образовательной среды.

Преподаватель играет ключевую роль в учебном процессе, так как он может настроиться на потребности каждого студента, адаптировать учебный материал к разным уровням знаний и обеспечить индивидуальный подход к каждому студенту. Преподаватель также может мотивировать студентов и помочь им развить навыки, которые не могут быть развиты только с помощью ИИ».

СПИСОК ЛИТЕРАТУРЫ

1. Бауман З. Текучая модерность: взгляд из 2011 года. Лекция Зигмунта Баумана. // Электронная публикация: Центр гуманитарных технологий. 10.05.2011. URL: http://gtmarket.ru/laboratory/doc/4992.

2. Бауман З. Текучая современность / Пер. с англ. С. А. Комарова; под ред. Ю.В. Асочакова. СПб. [и др.]: Питер, 2008. 240 с.

3. Бек У. Общество риска. На пути к другому модерну/ Пер. с нем. В. Седельника и Н. Федоровой; Послесл. А. Филиппова. М.: Прогресс-Традиция, 2000. 384 с.

4. Бехманн Г. Современное общество: общество риска, информационное общество, общество знаний / Готтхард Бехманн; пер. с нем. А.Ю. Антоновского, Г.В. Гороховой, Д.В. Ефременко, В.В. Каганчук, С.В. Месяц. - М.: Логос, 2010. 248 с.

5. Гидденс Э. Последствия современности. Пер. с англ. Г.К. Ольховикова; Д.А. Кибальчича; вступ. Статья Т.А. Дмитриева. - М.: Изд. и консалт. группа «Праксис», 2011. 352 с.

6. Гидденс, Э. Устроение общества: Очерк теории структурации. М.: Академический Проект, 2005. 528 с.

7. Кастельс М. Информационная эпоха: экономика, общество и культура / Под науч. ред. О. И. Шкаратана. М.: ГУ ВШЭ, 2000. 608 с.

8. Урри Дж. Мобильности. М.: Праксис, 2012. 576 с.

9. Toh, M. 300 million jobs could be affected by latest wave of AI, says Goldman Sachs // Hong Kong CNN, Wed. March 29, 2023. URL: https://edition.cnn.com/2023/03/29/tech/chatgpt-ai-automation-jobs-impact-intl-hnk/in-dex.html?ref=upstract.com. (Accessed: 4 April 2023).

10. Шереметев, Е. The Times: судный день близок и развитие искусственного интеллекта полностью похоронит человечество // Подмосковье сегодня, 14 мая 2023. URL: https://mosregtoday.ru/news/science/the-times-sudnyj-den-bhzok-i-razvitie-iskusstvennogo-intellekta-polnostju-pohoronit-chelovechestvo/?utm_source=yxnews&utm_medium=desktop (дата обращения: 14.05.23).

11. Клименко, Г. Нейросеть ChaosGPT хочет уничтожить человечество // Onliner, 11 апреля 2023. URL: https://tech.onliner.by/2023/04/11/nejroset-chaosgpt-xochet-unichtozhit-chelovechestvo (дата обращения: 14.05.23).

12. Добрюха, А. Профессор-генетик Константин Крутовский: Мы стоим на пороге конца биологической эволюции человека // Комсомольская правда, 14 мая 2023. URL: https://www.kp.ru/daily/27502.5/4762426/ (дата обращения: 14.05.23).

13. Красильникова Ю. Через 10 лет спрос на гуманитариев резко возрастет // Хайтек, 20 февраля 2017 г. URL: https://hightech.fm/2017/02/20/liberal_arts (дата обращения: 14.05.23).

14. Глухих В.А., Елисеев С.М., Кирсанова Н.П. Искусственный интеллект как проблема современной социологии // Дискурс. 2022; 8(1):82-93. https://doi.org/10.32603/2412-8562-2022-8-1-82-93.

15. What is Social Hacking? // Redbot Security, January 16, 2023. URL: https://redbotsecurity.com/what-is-social-hack-ing. (Accessed: 14 May 2023).

16. Арбузова А. Стратегическая технология: перспективы и риски генеративного ИИ // РБК, 14.04.2023. URL: https://trends.rbc.ru/trends/industry/64380a4d9a7947a90164ccfe. (Accessed: 14 May 2023).

17. Sanders S. Rather than ban generative AI, universities must learn from the past // University World News, 2023, February 24. URL: https://www.universityworldnews.com/post.php?story=20230221075136410. (Accessed: 17.03.2023).

18. Раскина А. Все говорят про чат-бот ChatGPT, а Microsoft вкладывает миллиарды долларов. Почему? // ТАСС, 2023, 1 февраля. URL: https://tass.ru/tehnologii/16927187 (дата обращения: 12.02.2023).

19. GPT-4 // OpenAI, 2023, March 14. URL: https://openai.com/research/gpt-4. (Accessed: 17.03.2023).

20. Sanders, S. Rather than ban generative AI, universities must learn from the past // University World News, 2023, February 24. URL: https://www.universityworldnews.com/post.php?story=20230221075136410. (Accessed: 17.03.2023).

21. Васильев, С. ИИ научился читать мысли по данным томографии // Naked Science. 2 мая 2023. URL:https://na-ked-science.ru/article/biology/ii-chitaet-mysli-po-dannym-tomografii?ysclid=lim95fqaps969435606 (дата обращения: 14.05.23).

22. Как относятся преподаватели и студенты к внедрению искусственного интеллекта в образование? // Forbes Education, 04.04.2023. URL: https://naked-science.ru/article/biology/ii-chitaet-mysli-po-dannym-tomo-grafii?ysclid=lim95fqaps969435606 (дата обращения: 14.05.23).

23. Преподаватели и студенты видят позитивное влияние ИИ на образование // E-xecutive.ru, 5 апреля 2023 г. URL: https://www.e-xecutive.ru/sections/news-education/news/2096917-prepodavateli-i-studenty-vidyat-pozitivnoe-vliyanie-ii-na-obrazovanie?ysclid=lgar15jgtk511037761 (дата обращения: 14.05.23).

Поступила в редакцию 18.05.2023 Передана на рецензирование 19.05 2023 Рекомендована к печати 29.05.2023

Ладыжец Наталья Сергеевна, доктор философских наук, профессор, зав. кафедрой социологии ФГБОУ ВО «Удмуртский государственный университет» 426034, Россия, г. Ижевск, ул. Университетская, 1 E-mail: lns07@mail.ru

N.S. Ladyzhets

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

SOCIAL ASPECTS OF MANAGING RISKS AND OPPORTUNITIES FOR ADVANCED DEVELOPMENT OF NEURAL NETWORKS

DOI: 10.35634/2587-9030-2023-7-2-189-197

Artificial intelligence is increasingly becoming the object and analytical field of the problems of modern sociology. The transition to generative neural networks means a change in the global paradigm, a transition to industry 4.0 - to a new economy, new types of social communications and social relations. Modern artificial intelligence is already revolutionizing medicine, education, marketing, military affairs, and has a great impact on the youth generation. There is a new terminology in the description of algocracy; requests for state regulation of the use and deep learning of neural networks are formulated in different countries. Opportunities and limitations in the use of artificial intelligence cannot be considered without attention to the social aspects of risk management and opportunities for advanced development of neural networks. In the proposed article, this task is analytically considered in the projection on modern higher education.

Keywords: artificial intelligence, neural networks, ChatGPT, higher education, risk management.

REFERENCES

1. Bauman Z. Tekuchaja modernost': vzgljad iz 2011 goda. Lekcija Zigmunta Baumana. // Jelektronnaja publikacija: Centr gumanitarnyh tehnologij. 10.05.2011. URL: http://gtmarket.ru/laboratory/doc/4992.

2. Bauman Z. Tekuchaja sovremennost' / Per. s angl. S. A. Komarova; pod red. Ju. V. Asochakova. SPb. [i dr.]: Piter, 2008. 240 c.

3. Bek U. Obshhestvo riska. Na puti k drugomu modernu/ Per. s nem. V. Sedel'nika i N. Fedorovoj; Poslesl. A. Filippova. M.: Progress-Tradicija, 2000. 384 s.

4. Behmann G. Sovremennoe obshhestvo: obshhestvo riska, informacionnoe obshhestvo, obshhestvo znanij / Gotthard Behmann; per. s nem. A.Ju. Antonovskogo, G.V. Gorohovoj, D.V. Efremenko, V.V. Kaganchuk, S.V. Mesjac. M.: Logos, 2010. 248 s.

5. Giddens Je. Posledstvija sovremennosti. Per. s angl. G.K. Ol'hovikova; D.A. Kibal'chicha; vstup. Stat'ja T.A. Dmitrieva. - M.: Izd. i konsalt. gruppa «Praksis», 2011. 352 s.

6. Giddens, Je. Ustroenie obshhestva: Ocherk teorii strukturacii. M.: Akademicheskij Proekt, 2005. 528 s.

7. Kastel's M. Informacionnaja jepoha: jekonomika, obshhestvo i kul'tura / Pod nauch. red. O.I. Shkaratana. M.: GU VShJe, 2000. 608 s.

8. Urri Dzh. Mobil'nosti. M.: Praksis, 2012. 576 s.

9. Toh M. 300 million jobs could be affected by latest wave of AI, says Goldman Sachs // Hong Kong CNN, Wed. March 29, 2023. URL: https://edition.cnn.com/2023/03/29/tech/chatgpt-ai-automation-jobs-impact-intl-hnk/index.html ?ref=upstract.com. (Accessed: 4 April 2023).

10. Sheremetev E. The Times: sudnyj den' blizok i razvitie iskusstvennogo intellekta polnost'ju pohoronit chelovechestvo // Podmoskov'e segodnja, 14 maja 2023. URL: https://mosregtoday.ru/news/science/the-times-sudnyj-den-blizok-i-

СОЦИОЛОГИЯ. ПОЛИТОЛОГИЯ. МЕЖДУНАРОДНЫЕ ОТНОШЕНИЯ

razvitie-iskusstvennogo-intellekta-polnostju-pohoronit-chelovechestvo/?utm_source=yxnews&utm_medium=desk-top (data obrashhenija: 14.05.23).

11. Klimenko, G. Nejroset' ChaosGPT hochet unichtozhit' chelovechestvo // Onliner, 11 aprelja 2023. URL: https://tech.onliner.by/2023/04/11/nejroset-chaosgpt-xochet-unichtozhit-chelovechestvo (accessed: 14.05.23).

12. Dobrjuha, A. Professor-genetik Konstantin Krutovskij: My stoim na poroge konca biologicheskoj jevoljucii cheloveka // Komsomol'skaja pravda, 14 maja 2023. URL: https://www.kp.ru/daily/27502.5/4762426/ (accessed: 14.05.23).

13. Krasil'nikova, Ju. Cherez 10 let spros na gumanitariev rezko vozrastet // Hajtek, 20 fevralja 2017 g. URL: https://hightech.fm/2017/02/20/liberal_arts (data obrashhenija: 14.05.23).

14. Gluhih, V.A., Eliseev, S.M., Kirsanova, N.P. Iskusstvennyj intellekt kak problema sovremennoj sociologii // Diskurs. 2022; 8(1):82-93. https://doi.org/10.32603/2412-8562-2022-8-1-82-93.

15. What is Social Hacking? // Redbot Security, January 16, 2023. URL: https://redbotsecurity.com/what-is-social-hack-ing. (Accessed: 14 May 2023).

16. Arbuzova A. Strategicheskaja tehnologija: perspektivy i riski generativnogo II // RBK, 14.04.2023. URL: https://trends.rbc.ru/trends/industry/64380a4d9a7947a90164ccfe. (Accessed: 14 May 2023).

17. Sanders S. Rather than ban generative AI, universities must learn from the past // University World News, 2023, February 24. URL: https://www.universityworldnews.com/post.php?story=20230221075136410 (Accessed: 17.03.2023).

18. Raskina, A. Vse govorjat pro chat-bot ChatGPT, a Microsoft vkladyvaet milliardy dollarov. Pochemu? // TASS, 2023, 1 fevralja. URL: https://tass.ru/tehnologii/16927187 (data obrashhenija: 12.02.2023).

19. GPT-4 // OpenAI, 2023, March 14. URL: https://openai.com/research/gpt-4. (Accessed: 17.03.2023).

20. Sanders, S. Rather than ban generative AI, universities must learn from the past // University World News, 2023, February 24. URL: https://www.universityworldnews.com/post.php?stoiy=20230221075136410 (Accessed: 17.03.2023).

21. Vasil'ev, S. II nauchilsja chitat' mysli po dannym tomografii // Naked Science. 2 maja 2023. URL:https://naked-sci-ence.ru/article/biology/ii-chitaet-mysli-po-dannym-tomografii?ysclid=lim95fqaps969435606 (Accessed: 14.05.23).

22. Kak otnosjatsja prepodavateli i studenty k vnedreniju iskusstvennogo intellekta v obrazovanie? // Forbes Education, 04.04.2023. URL: https://naked-science.ru/article/biology/ii-chitaet-mysli-po-dannym-tomografii?ysclid=lim95fqaps 969435606 (Accessed: 14.05.23).

23. Prepodavateli i studenty vidjat pozitivnoe vlijanie II na obrazovanie // E-xecutive.ru, 5 aprelja 2023 g. URL: https://www.e-xecutive.ru/sections/news-education/news/2096917-prepodavateli-i-studenty-vidyat-pozitivnoe-vliyanie-ii-na-obrazovanie?ysclid=lgar15jgtk511037761 (Accessed: 14.05.23).

For citation:

Ladyzhets N.S. Social aspects of managing risks and opportunities for advanced development of neural networks // Bulletin of Udmurt University. Sociology. Political Science. International Relations. 2023. Vol. 7, iss. 2. P. 189-197.

https://doi.org/10.35634/2587-9030-2023-7-2-189-197 (In Russ.).

Received 18.05.2023 Submitted for review on 19.05.2023 Recommended for publication 29.05.2023

Ladyzhets N.S., Doctor of Philosophy, Professor, Head of Department of Sociology

Udmurt State University

Universitetskaya st., 1, Izhevsk, Russia, 426034

E-mail: lns07@mail.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.