Научная статья на тему 'ГЕНЕРАТИВНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ОБРАЗОВАТЕЛЬНОМ ПРОЦЕССЕ: ВЫЗОВЫ И ПЕРСПЕКТИВЫ'

ГЕНЕРАТИВНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ОБРАЗОВАТЕЛЬНОМ ПРОЦЕССЕ: ВЫЗОВЫ И ПЕРСПЕКТИВЫ Текст научной статьи по специальности «Науки об образовании»

CC BY
263
42
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
образование / цифровизация / искусственный интеллект (ИИ) / ChatGPT / критическое мышление / education / digitalization / artificial intelligence (AI) / ChatGPT / critical thinking

Аннотация научной статьи по наукам об образовании, автор научной работы — Жуков Андрей Дмитриевич

В статье анализируются коллизии, возникающие из-за использования генеративного искусственного интеллекта (ИИ), в частности ChatGPT, в современном обществе и образовательном процессе. Автор сравнивает ответы ChatGPT на вопрос об опасностях его использования с положениями трех кодексов киберэтики и приходит к выводу, что из десяти, предложенных «машинным интеллектом», девять находятся в корреляции с кодексами киберэтики: 4 ответа GPT присутствуют во всех трех этических сводах, созданных людьми, 3 – в двух «человеческих» кодексах, еще 2 – хотя бы в одном кодексе. Автор различает угрозы при использовании новых версий искусственного интеллекта в широком социальном плане и те, которые специфичны для системы образования. Оценивая перспективы применения ИИ в учебной практике, автор делает предположение, что обучающихся будут стимулировать самостоятельно маркировать задания, выполненные с использованием ИИ и без него. Постепенное формирование культуры использования ИИ в учебной практике (по аналогии с использованием фотографий без фильтра) позволит снизить остроту проблемы академического мошенничества. Но, помимо уточнения понятия плагиата и авторского права, системой образования востребовано уточненное понимание самостоятельной работы и творческой деятельности. Там, где проверка выполненного задания связана не с усвоенным объемом информации, а с развитой способностью критического мышления, радикально меняется роль личного общения студента с преподавателем в образовательном процессе.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

GENERATIVE ARTIFICIAL INTELLIGENCE IN THE EDUCATIONAL PROCESS: CHALLENGES AND PROSPECTS

The article analyzes collisions arising from the use of artificial intelligence (AI), in particular ChatGPT, in modern society and the educational process. The author compared ChatGPT's answers to the question about the dangers of its use with the provisions of three codes of cyber ethics and came to the conclusion that out of ten answers proposed by “machine intelligence”, nine have a correlation with codes of cyber ethics: 4 ChatGPT answers are present in all three codes of ethics created by people, 3 – in two “human” codes, another 2 – in at least one Code. The author distinguishes between threats when using new versions of artificial intelligence in a broad social sense and those that are specific to the education system. Assessing the prospects for using AI in educational practice, the author makes the assumption that students will be encouraged to independently mark tasks completed with and without AI. The gradual formation of a culture of using AI in educational practice (by analogy with the use of photographs without a filter) will reduce the severity of the problem of academic fraud. But, in addition to clarifying the concepts of plagiarism and copyright, the education system requires a more refined understanding of independent work and creative activity. Where the verification of a completed task is associated not with the acquired amount of information, but with the developed ability of critical thinking, the role of personal communication between the student and the teacher in the educational process radically changes.

Текст научной работы на тему «ГЕНЕРАТИВНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ОБРАЗОВАТЕЛЬНОМ ПРОЦЕССЕ: ВЫЗОВЫ И ПЕРСПЕКТИВЫ»

СУ ЕНЕРАТИВНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ОБРАЗОВАТЕЛЬНОМ ПРОЦЕССЕ: ВЫЗОВЫ И ПЕРСПЕКТИВЫ

УДК 378 1, 37014, 0048

http://doi.org/10.24412/1997-0803-2023-5115-66-75 А.Д. Жуков

Национальный исследовательский университет «Высшая школа экономики», Москва, Российская Федерация, e-mail: [email protected]

Аннотация: В статье анализируются коллизии, возникающие из-за использования генеративного искусственного интеллекта (ИИ), в частности ChatGPT, в современном обществе и образовательном процессе. Автор сравнивает ответы ChatGPT на вопрос об опасностях его использования с положениями трех кодексов киберэтики и приходит к выводу, что из десяти, предложенных «машинным интеллектом», девять находятся в корреляции с кодексами киберэтики: 4 ответа GPT присутствуют во всех трех этических сводах, созданных людьми, 3 - в двух «человеческих» кодексах, еще 2 - хотя бы в одном кодексе. Автор различает угрозы при использовании новых версий искусственного интеллекта в широком социальном плане и те, которые специфичны для системы образования. Оценивая перспективы применения ИИ в учебной практике, автор делает предположение, что обучающихся будут стимулировать самостоятельно маркировать задания, выполненные с использованием ИИ и без него. Постепенное формирование культуры использования ИИ в учебной практике (по аналогии с использованием фотографий без фильтра) позволит снизить остроту проблемы академического мошенничества. Но, помимо уточнения понятия плагиата и авторского права, системой образования востребовано уточненное понимание самостоятельной работы и творческой деятельности. Там, где проверка выполненного задания связана не с усвоенным объемом информации, а с развитой способностью критического мышления, радикально меняется роль личного общения студента с преподавателем в образовательном процессе.

Ключевые слова: образование, цифровизация, искусственный интеллект (ИИ), ChatGPT, критическое мышление.

Для цитирования: Жуков А. Д. Генеративный искусственный интеллект в образовательном процессе: вызовы и перспективы // Вестник Московского государственного университета культуры и искусств. 2023. №5 (115). С. 66-75. http://doi.org/10.24412/1997-0803-2023-5115-66-75

ЖУКОВ АНДРЕЙ ДМИТРИЕВИЧ - заместитель заведующего Центром медиапрактик, Национальный

исследовательский университет «Высшая школа экономики» ZHUKOV ANDREY DMITRIEVICH - Deputy Head of the Center for Media Practice, National Research University «Higher School of Economics»

GENERATIVE ARTIFICIAL INTELLIGENCE IN THE EDUCATIONAL PROCESS: CHALLENGES AND PROSPECTS

© Жуков А. Д., 2023

Andrey D. Zhukov

National Research University «Higher School of Economics», Moscow, Russian Federation, e-mail: [email protected]

Abstract: The article analyzes collisions arising from the use of artificial intelligence (AI), in particular ChatGPT, in modern society and the educational process. The author compared ChatGPT's answers to the question about the dangers of its use with the provisions of three codes of cyber ethics and came to the conclusion that out of ten answers proposed by "machine intelligence", nine have a correlation with codes of cyber ethics: 4 ChatGPT answers are present in all three codes of ethics created by people, 3 - in two "human" codes, another 2 - in at least one Code. The author distinguishes between threats when using new versions of artificial intelligence in a broad social sense and those that are specific to the education system. Assessing the prospects for using AI in educational practice, the author makes the assumption that students will be encouraged to independently mark tasks completed with and without AI. The gradual formation of a culture of using AI in educational practice (by analogy with the use of photographs without a filter) will reduce the severity of the problem of academic fraud. But, in addition to clarifying the concepts of plagiarism and copyright, the education system requires a more refined understanding of independent work and creative activity. Where the verification of a completed task is associated not with the acquired amount of information, but with the developed ability of critical thinking, the role of personal communication between the student and the teacher in the educational process radically changes.

Keywords: education, digitalization, artificial intelligence (AI), ChatGPT, critical thinking.

For citation: Zhukov A. D. Generative artificial intelligence in the educational process: challenges and prospects. The Bulletin of Moscow State University of Culture and Arts (Vestnik MGUKI). 2023, no. 5 (115), pp. 66-75. (In Russ.). http://doi.org/10.24412/1997-0803-2023-5115-66-75

Известный американский философ и педагог Джон Дьюи предложил концепцию непрерывного образования, позволяющего обществу постоянно переобучаться. Указанная концепция еще более актуальна в условиях, когда образование должно реагировать на изменения в постиндустриальном мире. Дьюи указывал, что все предшествующие образовательные системы фокусировались на трансляции опыта прошлого, но не готовили к вызовам будущего [2]. Эти образовательные системы веками пользовались традиционными средствами получения, обработки и трансляции информации. В какой мере развитие современных информационных технологий позволяет трансформировать образовательные системы? Как соотносятся в данном случае позитивное и негативное, достижения и риски?

То, что триггером трансформации российского образования последних лет стало широкое внедрение цифровых технологий, подтверждают официальные документы.

С 2019 года в России реализуется Федеральный проект «Цифровая образовательная среда», который «направлен на создание и внедрение в образовательных организациях цифровой образовательной среды, а также обеспечение реализации цифровой трансформации образования». В 2021 году разработан паспорт стратегии «Цифровая трансформация образования» и «Стратегии цифровой трансформации отрасли науки и высшего образования». Стратегия охватывает широкий перечень направлений, предусматривает внедрение новых высокотехнологичных образовательных решений, модернизацию образовательных программ. Стратегия цифровой трансформации включает пять направлений и семь проектов: «Датахаб»; «Архитектура цифровой трансформации»; «Цифровой университет»; «Единая сервисная платформа науки»; «Маркетплейс программного обеспечения и оборудования»; «Цифровое образование»; «Сервис хаб». Стратегия также

предусматривает семь индикаторов достижения целей для вузов [9].

Как указывают исследователи, цифровая трансформация образования является ступенью в триаде развития образования -оцифровка, цифровизация, трансформация. Первый этап - оцифровка - предполагает представление данных в цифровой форме. Второй этап - цифровизация - заключается в переходе на цифровые технологии с целью накопления и анализа больших данных для прогнозирования и оптимизации процессов. Наконец, третий этап - трансформация -«характеризуется наличием качественных, революционных изменений, заключающихся не только в отдельных цифровых преобразованиях, но и в принципиальном изменении структуры экономики», и, соответственно, системы образования [6]. В реализации указанной третьей фазы цифровой трансформации ключевой новацией последних лет стало использование новых систем искусственного интеллекта (ИИ), которые получили название «генеративный искусственный интеллект». И здесь стоит сделать экскурс в историю вопроса.

Под генеративным искусственным интеллектом обычно понимают такой тип машинного интеллекта, который обучен на больших массивах данных (базовых моделях) и способен создавать (генерировать) новый контент, включая разговоры, истории, изображения, видео и музыку.

В 2018 году была представлена первая нейронная сеть GPT (Generative Pre-trained Transformer). Это чат-бот с искусственным интеллектом, разработанный компанией OpenAI и способный работать в диалоговом режиме, поддерживающий запросы на естественных языках. Обученная на огромном количестве текстовых данных модель создает качественные и грамматически верные тексты на любую тему [11].

В основе модели GPT - создание продолжения текста, который есть у машины на основе того, что люди писали на миллиардах веб-страниц. Анализируя обучающую выбор-

ку, GPT ищет то, что «совпадает по смыслу» и создает ранжированный список слов с вероятностями. Отвечая на пользовательский запрос, GPT, по сути, выдает на основе уже написанного текста своего рода прогноз, каким будет следующее слово. При этом для продолжения он не всегда берет слово с наибольшей вероятностью, а в рандомный момент применяет тот или иной понижающий коэффициент, чтобы сделать итоговый текст более «творческим».

Уже первая версия модели GPT, обученная на текстовых данных из Интернета, была способна генерировать текст, почти неотличимый от написанного людьми. Каждая последующая версия модели обладает большим количеством параметров, улучшенным алгоритмом обучения и более широким набором данных, что позволяет генерировать более точные и сложные тексты. СРТ-2 вышла в 2019 году и превзошла свою предшественницу и по объему тренировочных текстов, и по числу параметров в 10 раз. Такой количественный рост привел к качественно новым навыкам: от сочинения длинных эссе со связным смыслом, до решения хитрых задачек, требующих зачатков построения картины мира.

В 2020 году ОрепА1 предоставила модель СРТ-3. Она была в 100 раз больше своей предшественницы по количеству параметров, и в 10 раз - по объему тренировочных текстовых данных. Она выбирает следующее слово по 175-миллиардным параметрам, а набор данных, на которых ее обучали, составляет 420 ГБ (от художественных книг до Википе-дии). Она могла выполнять широкий спектр задач, в том числе перевод с одного языка на другой, обобщение информации, давать ответы на вопросы и генерировать текст. Но главное - модель смогла сама обучиться математике [11].

В начале 2022 года появился GPT-3.5, главной новацией которого стала возможность дообучения машины буквально «на ходу», на основе обратной связи с живыми людьми.

14 марта 2023 года была выпущена модель GPT-4. Создатели воздержались от указания размера модели, ссылаясь на соображения конкурентной борьбы и безопасности. Заявили только, что <^РТ-4 более надёжен, креативен и способен обрабатывать гораздо более сложные инструкции, чем GPT-3.5». Сегодня GPT может генерировать текст, который имеет смысл, использует правильную грамматику и структуру предложений. Модели GPT также способны адаптироваться к различным стилям написания и форматам, таким как статьи, диалоги, отчеты и т. д.

При этом остается открытым вопрос о пределах самообучаемости GPT. Может ли уже на этом этапе GPT присвоить себе творческие способности человека, в данном случае применительно к сфере образования? И каковы границы и последствия такого прорыва?

Рассмотрим вопрос об угрозах использования новых версий искусственного интеллекта в более широком социальном плане, что, кстати, показывает, что ряд из этих угроз не имеет специфического характера, связанного с образовательной сферой.

Автор данной статьи задал вопрос ChatGPT-3.5 о том, какие проблемы видит сам искусственный интеллект в рамках его использования в образовании (https://chat-gpt.org/chat).

Приводим ответ машины:

«Использование искусственного интеллекта (ИИ) в образовании предоставляет множество возможностей, но также сопряжено с рядом рисков и проблем. Вот 10 из них:

1. Приватность и безопасность данных. Сбор, хранение и анализ больших объемов учебных данных может угрожать приватности студентов и учителей. Утечка личных данных может привести к серьезным последствиям.

2. Дискриминация и смещение. Алгоритмы ИИ могут быть предвзятыми и дискриминировать студентов на основе расы, пола или других характеристик. Это может усугубить неравенство в образовании.

3. Автоматизация и потеря рабочих мест. Внедрение ИИ может привести к автоматизации некоторых образовательных процессов, что может повлечь за собой потерю рабочих мест для преподавателей и других специалистов.

4. Соблазн манипулирования. Образовательные платформы могут использовать алгоритмы для манипуляции студентами с целью увеличения вовлеченности или продолжительности использования платформы, что может быть вредно для учебного процесса.

5. Ответственность и прозрачность. Решения, принимаемые ИИ, могут быть непонятными и непрозрачными. Это создает проблемы с установлением ответственности в случае ошибок или несправедливости.

6. Зависимость от технологии. Сильная зависимость от ИИ в образовании может сделать систему более уязвимой к сбоям и кибератакам, а также снизить навыки ручного решения задач.

7. Ограничение разнообразия учебных методик. Слишком интенсивное использование ИИ может ограничить разнообразие учебных методик и подходов, что может не соответствовать потребностям разных студентов.

8. Зависимость от крупных корпораций. Многие образовательные ИИ-системы разрабатываются и предоставляются крупными корпорациями, что может привести к зависимости образовательных учреждений от них.

9. Этика авторства и плагиата. Использование ИИ для создания и проверки учебных работ может поднимать вопросы об авторстве и плагиате.

10. Социальная изоляция. Переход к онлайн-образованию, поддерживаемому ИИ, может способствовать социальной изоляции студентов и отсутствию личного контакта с учителями и сверстниками.

Эти риски обязательно должны учитываться при разработке и внедрении ИИ в образование, чтобы обеспечить этичное и безопасное обучение для всех студентов».

Представлялось важным понять, насколько «мнение» ИИ оригинально, или оно, как и следовало ожидать, является компиляцией уже известного. С этой целью проведено сравнение ответов машинного интеллекта (Chat GPT) c «10 заповедями компьютерной этики» Института компьютерной этики (CEI), с положениями этических сводов Совета по архитектуре Интернета (ISC), с «Кодексом этики» Альянса в сфере ИИ. Выяснилось,

что ответы машинного интеллекта во многом повторяют те этические кодексы, которые выработаны людьми. В частности, по 5 ответам GPT находятся аналогии в «10 заповедях компьютерной этики» Института компьютерной этики [17], 6 ответов ИИ коррелируются с идеями Совета по архитектуре Интернета [12], 8 - с «Кодексом этики» Альянса в сфере ИИ [4]. При этом 4 ответа GPT присутствуют во всех трех этических сводах, созданных людьми, 3 - в двух «человеческих» кодексах, еще 2 - хотя бы в одном Кодексе (Таблица 1).

Еще более интересный результат получается при сравнении ответов ИИ с послед-

Chat GPT CEI ISC Альянс в сфере ИИ

Безопасность данных Не заглядывай в чужие компьютерные файлы. Не используй компьютер для воровства. Избегай небезопасных действий Безопасность работы с данными. Информационная безопасность.

Дискриминация и смещение Не используй компьютер для лжесвидетельства. Используй компьютер сознательно и уважительно по отношению к другим. Усердно трудись, предоставляй качественные услуги и развивай сферу безопасности. Недискриминация. Непричинение вреда. Ответственность.

Автоматизация и потеря рабочих мест Думай о социальных последствиях программы, которую ты написал. — Оценка рисков и гуманитарного воздействия.

Соблазн манипулирования Не используй компьютер во вред другим. Придерживайся соглашений, гласных и негласных. Давай разумные советы. Ответственное отношение.

Непонятные Максимальная

и непрозрачные решения ИИ прозрачность и правдивость в информировании.

Уязвимость от сбоев и кибератак — — Информационная безопасность.

Ограничение разнообразия учебных методик — Поощряй увеличение количества исследований. Риск-ориентированный подход.

Зависимость от корпораций-разработчиков ИИ — Избегай любого конфликта интересов. Поднадзорность СИИ человеку.

Этика авторства и плагиата Не присваивай плоды интеллектуального труда других Поступай честно, справедливо, ответственно, в рамках закона Идентификация ИИ в общении с человеком.

Социальная изоляция — — —

Таблица 1

ними научными публикациями на эту тему. В связи с тем, что авторы высказывают новые идеи, алгоритмы ИИ их пока не фиксируют и не воспроизводят.

В частности, Э. Нгуэн из Университета Оулу (Финляндия) [15] выделяет 4 принципа функционирования ИИ в образовании. Это 1) принцип управления и руководства, который включает этику данных, этику анализа обучения, вычислительную этику, человеческую этику; 2) принцип прозрачности данных и алгоритмов, а также - согласие владельцев данных с их доступностью и целями их использования; 3) принцип устойчивости и пропорциональности, предполагающий безопасность ИИ для окружающей среды, мировой экономики и общества (рынка труда, культуры и политики), а также - 4) принцип конфиденциальности, гарантирующий не только тайну той информации, которую предоставляет пользователь, но и тайну информации, собранной ИИ.

С. Сок из Университета Хаддерсфилда (Великобритания) фокусирует внимание на иных вопросах, куда входят ключевые вызовы использования ИИ в образовании. Это проблемы академической честности, риски использования неточной и вводящей в заблуждение информации (в том числе выдуманных цитат и даже статей), угроза чрезмерной зависимости человека от ИИ. Простота использования и доступность машинного интеллекта могут приводить к снижению критического мышления у обучающихся, неготовности принимать самостоятельные решения и снижению креативности [16].

Д. Мхланга из Университата Йоханесбур-га (ЮАР) выделяет 6 принципов этичного и ответственного использования ИИ [14]. Это прозрачность использования GPT, уважение к личной информации, точность информации, справедливость и недискриминация, осознание того, что ИИ не является заменой преподавателю, понимание ограничений ИИ и механизмов его работы.

Наиболее комплексно к описанию рисков ИИ подходит исследователь из Восточно-

Китайского педагогического университета Ш. Ли [13]. На основе исследования литературы и опроса и с использованием метода Delphi он моделирует иерархию этих рисков в современном мире:

• неготовность педагогики к технологиям ИИ;

• неправильное использование ресурсов ИИ;

• риск подотчетности ИИ;

• риск безопасности конфиденциальности;

• риск прозрачности;

• риск поддаться панике, когда боязнь неких негативных последствий тормозит внедрение инноваций;

• риск предвзятости;

• непонимание концепции ИИ.

Еще важнее, что исследователь приходит к выводу, что эти риски подвержены динамике. Лишь половина рисков воспринималась таковыми до 2015 года (риск безопасности конфиденциальности, риск прозрачности, риск подотчетности ИИ и риск предвзятости).

Очевидно, что по мере развития и использования ИИ риски могут трансформироваться: исчезают одни и возникают другие. При этом обратим внимание на то, что большинство опасностей, на которые указывает сам искусственный интеллект, связаны с возможностью корыстного использования или обмана на почве новых технологий. Не сам ИИ, а мошенники, не сам ИИ, а крупные корпорации и платформы могут использовать нашу работу с новыми технологиями в своих целях. Что касается кибератак, манипулирования посредством фейковых новостей, то это также не является специфическими угрозами для системы образования.

На сегодняшний день хорошо известны примеры эффективного использования технологий ИИ для замены рутинных действий человека. Так было и раньше, когда новая техника заменяла людей в исполнении рутинных и формальных действий, вплоть до управленческих. И сфера образования в данном случае

не оригинальна. В частности, искусственный интеллект способствует автоматизации рутинных задач педагога (создание шаблонов учебных курсов и отдельных занятий) [10]. ИИ успешно помогает в обучении родному и иностранным языкам [1], в адаптации образовательных программ под конкретного обучающегося, в создании индивидуальных образовательных треков [8] и многом другом. Очевидно, новые технологии экономят время преподавателя, помогают сделать образование более эффективным для конкретного обучающегося, избежать профессионального выгорания педагога.

Но, как было сказано, современные версии GPT уже используются для создания «творческих» работ, прежде всего в гуманитарной области, что актуализирует вопрос о новых формах плагиата и мошенничества. С другой стороны, искусственный интеллект все активнее используют при экспертизе знаний обучающиеся, что может свести на нет саму процедуру проверки знаний.

В России эта проблема еще не привела к катаклизмам в системе образования. Так, аналитики онлайн-платформы ЗкИНаСоту выяснили, что менее трети (31%) российских студентов пока не разобрались, как работают нейросети. 28% опрошенных пользовались ими только один-два раза. В то же время более 40% уже активно освоили новинку. 83% студентов используют нейросети для написания и редактирования текстов. 45% - готовят с их помощью или редактируют рефераты и сочинения, еще 44% пишут программный код, 29% переводят иностранные тексты, 28% создают иллюстрации к своим работам, 25% обрабатывают фото и изображения. 12% опрошенных студентов пользуются нейросе-тями в качестве шпаргалки на зачетах и экзаменах [7].

Обычно использование искусственного интеллекта при сдаче контрольных работ, зачетов и экзаменов считают академической нечестностью, обманом или списыванием. С другой стороны, текст, созданный генеративной системой, не является классическим

плагиатом. Это уникальный, пусть и вторичный, по сути, текст, который «не ловится» программами по поиску некорректных заимствований. И даже при ручной проверке преподаватель не всегда может определить, создавалось ли эссе студентом самостоятельно или при помощи искусственного интеллекта.

Не менее сложный вопрос: можно ли считать созданный ИИ текст объектом авторского права? Иными словами, является ли использование такого текста плагиатом? Согласно правовой базе «Гарант», «ИИ может создать объект авторских прав, который пользуется правовой защитой». Сложнее ответить, кто является истинным автором произведения - собственно ИИ, или человек, программист, создавший генеративную систему и натренировавший ее. А может быть, автор того или иного произведения тот человек, на котором «тренировалась» машина? В частности, сейчас с разработчиками ИИ судится американская Гильдия авторов и 17 писателей. Среди них - автор романа «Игра престолов» Джордж Мартин, а также Джон Гришэм, Элин Хильдебранд. В иске утверждается, что программисты обучали ИИ на материале их книг, нарушая, таким образом, авторские права и принимая участие в «систематической массовой краже».

Летом этого года профильные комитеты Европарламент поддержали проект закона о регулировании использования искусственного интеллекта. В частности, законопроект предписывает отмечать специальной плашкой контент, сгенерированный нейросетями. Кроме того, необходимо будет давать ссылки на защищенную авторским правом информацию, использованную ИИ для обучения. Это чем-то напоминает тот путь, который общество прошло с использованием фотографий в цифровой среде, когда стали маркировать снимки, сделанные без фильтров.

Как мы видим в современных условиях мы стоим перед необходимостью серьезного уточнения вопроса, что считать плагиатом и нарушением чужих авторских прав. И эта проблема связана не только с использованием

ИИ. Можно ли, к примеру, считать самостоятельным творческим продуктом результат рерайтинга без использования ИИ?

Еще одна сложная проблема связана с выполнением учебным заведением своих обязанностей относительно обучающихся. Если студент готовит ответ при помощи генеративных систем, получается, что он вместо того, чтобы учиться своей специальности, тренируется в использовании искусственного интеллекта, осваивая его новые версии. Этот навык, безусловно, будет востребован в будущем. Однако есть большие сомнения в том, что он окажется более важным, чем базовые знания, навыки и умения по профильной специальности.

Проще всего жестко преследовать использование ChatGPT в учебном процессе при сдаче зачетов и экзаменов. Но можно ли запретить использование ИИ при подготовке к ним? Строгие запреты введены в университетах Франции. Но англоязычные страны (США, Англия, Австралия) после первых запретов перешли к встраиванию генеративных систем в учебный процесс. Запрещая применение ChatGPT на контрольных мероприятиях, англоязычные страны начинают рекомендовать систему для написания и подготовки домашних заданий. Больше 50% учителей уже используются ChatGPT в США для подготовки уроков.

Хао Юй из Педагогического университета Шэньси приводит мнения профессоров Кембриджа и Калифорнийского университета, которые считают, что студенты «должны в полной мере использовать технологии искусственного интеллекта, такие как чат GPT и другие новые инструменты, и их не следует ограничивать». Однако чтобы гарантировать, что учащиеся придерживаются академической честности, предлагается внести соответствующие коррективы в методы преподавания и стандарты экзаменов [18].

Подходы к решению вопроса с использованием искусственного интеллекта в образовании пока лишь осмысливаются. И они являются частью более общего процесса формирования киберэтики (подробнее см. [3]).

Социуму, безусловно, предстоит выработать общепризнанные нормы использования генеративных систем, научиться извлекать пользу из возможностей современных технологий и минимизировать угрозы.

Еще раз укажем на разницу между рисками, специфичными для системы образования, и теми общими социальными рисками, которые только проявляются в ней. Так основой использования ChatGPT в образовании должны быть уже известные правила поведения в социальных сетях, всего нашего поведения в среде, насыщенной цифровыми технологиями. Уточним главные из них:

1. Не стоит делиться чувствительной информацией. Любые данные, которые загружаются в системы ИИ, становятся частью базы данных и могут использоваться при запросах других пользователей.

2. Нужно соблюдать интеллектуальные права других лиц. Ответы ИИ на конкретный запрос могут содержать чужую интеллектуальную собственность, права на использование которой у вас нет.

3. Следует подвергать ответы машины критике. Системы ИИ могут выдавать неточные и даже поддельные результаты. Известны случаи, когда ИИ генерировал цитаты известных людей, которых не существует.

4. Следует быть бдительным. Из-за того, что генеративные системы обрабатывают огромные объемы данных, они могут быть прибыльными для хакеров и уязвимы для кибератак. Всегда существует риск попадания личной или корпоративной информации в чужие руки, что приводит к негативным последствиям.

Но есть проблемы, которые нужно срочно решать в самой образовательной среде. В частности, в нашей стране необходима выработка свода правил, регламентирующих использование учащимися генеративных систем при создании эссе, ответах на тесты, подго-

товке курсовых и дипломных работ. Следует согласиться с мнением тех исследователей, которые полагают, что «фокус регулирования будет постепенно переноситься с запретов на преференции за следование рекомендациям» [5]. Иными словами, обучающихся нужно стимулировать самостоятельно маркировать задания, выполненные с использованием ИИ и без него. Примерно так, как после появления программ компьютерной обработки фотографий в соцсетях пользователи сами стали маркировать свои фото, подписывая: «Без фильтров».

Уже доказано, что доступность машинного интеллекта приводит к снижению критического мышления и упрощенному пониманию креативности. А это значит, что, помимо уточнения понятий плагиата и авторского права, системой образования востребовано

уточнение критериев самостоятельной работы и творческой деятельности. Устоявшийся тренд на использование при проверке знаний тестов чаще всего компенсируется у учащихся хорошим владением Википедией. Соответственно, вся система заочно выполненных заданий при существовании ChatGPT также оказывается под ударом. Выход состоит в изменении самих критериев самостоятельно выполненной и творческой работы. И там, где проверка выполненного задания связана уже не с усвоенным объемом информации, а с развитой способностью критического мышления, радикально меняется роль личного общения с преподавателем. Только в личном, а не заочном, общении и только преподаватель, а не машина, может определить наличие логического и критического мышления, стремления к профессиональному росту.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Список литературы

1. Дубовикова Е. М., Воронцова Е. В. Использование искусственного интеллекта в обучении иностранному языку // Л59" Лингвистика и профессиональная коммуникация. 2023. С. 57-61.

2. Дьюи Д. Психология и педагогика мышления / Пер. с англ. Н. М. Никольской. Москва: Совершенство, 1997. 208 с.

3. Жуков А. Д. Формирование этических компетенций в медиасреде // Вестник Московского государственного университета культуры и искусств. 2022. № 5(109). С. 142-149.

4. Кодекс этики в сфере ИИ // Альянс в сфере ИИ. [Электронный ресурс] URL: https://ethics.a-ai.ru

5. Константинова Л. В., Ворожихин В. В., Петров А. М, Титова Е. С, Штыхно Д. А. Генеративный искусственный интеллект в образовании: дискуссии и прогнозы // Открытое образование. 2023. № 2. [Электронный ресурс] URL: https://cyberleninka.rU/article/n/generativnyy-iskusstvennyy-intellekt-v-obrazovanii-diskussii-i-prognozy

6. Котлярова И. О. Цифровая трансформация образования как инновация // Вестник ЮУрГУ Серия: Образование. Педагогические науки. 2022. № 1. [Электронный ресурс] URL: https://cyberleninka.ru/ article/n/tsifrovaya-transform atsiya-obrazovaniya-kak-innovatsiya

7. Мамиконян О. Половина российских студентов используют нейросети в учебе // Forbes. 26.08.2023. [Электронный ресурс] URL: https://www.forbes.ru/forbeslife/495175-polovina-rossijskih-studentov-ispol-zuut-nejroseti-v-ucebe

8. Старостенко И. Н., Хромых А. А. Технологии искусственного интеллекта в образовании (на примере персонализированного обучения) // Гуманитарные, социально-экономические и общественные науки. 2023. № 7. [Электронный ресурс] URL: https://cyberleninka.ru/article/n/tehnologii-iskusstvennogo-intellekta-v-obrazovanii-na-primere-personalizirovannogo-obucheniya

9. Стратегия цифровой трансформации отрасли науки и высшего образования. [Электронный ресурс] URL: https://www.minobrnauki.gov.ru/upload/iblock/e16/dv6edzmr0og5dm57dtm0wyHr6uwtujw.pdf

10. Шобонов Н. А., Булаева М. Н., Зиновьева С. А. Искусственный интеллект в образовании // Проблемы современного педагогического образования. 2023. № 79-4. С. 288-290.

^ Теория и история культуры ■Иг |

11. Brown T. et al. Language models are few-shot learners //Advances in neural information processing systems. 2020. Т. 33. С. 1877-1901.

12. Ethics and the Internet // Internet Engineering Task Force. URL: https://www.isc2.org/ethics?queryID=03 5e545a5d80ee65d21d89f599a071ef

13. Li S., Gu X. A Risk Framework for Human-centered Artificial Intelligence in Education // Educational Technology & Society. 2023. Т. 26. № .1. С. 187-202.

14. Mhlanga D. Open AI in education, the responsible and ethical use of ChatGPT towards lifelong learning // Education, the Responsible and Ethical Use of ChatGPT Towards Lifelong Learning (February 11, 2023). 2023.

15. Nguyen A. et al. Ethical principles for artificial intelligence in education // Education and Information Technologies. 2023. Т. 28. №4. С. 4221-4241.

16. Sok S., Heng K. ChatGPT for education and research: A review of benefits and risks // SSRN. URL: https://ssrn. com/abstract=4378735

17. Ten Commandments of Computer Ethics // Computer Ethics Institute. URL: http://computerethicsinstitute. org/publications/tencommandments.html

18. Yu Hao. Reflection on whether Chat GPT should be banned by academia from the perspective of education and teaching // Front. Psychol., 01 June 2023 Sec. Educational Psychology. V. 14. 2023. URL: https://doi. org/10.3389/fpsyg.2023.1181712

*

Поступила в редакцию 28.08.2023

i Надоели баннеры? Вы всегда можете отключить рекламу.