Научная статья на тему 'Алгоритм защиты от состязательных атак в языковых моделях'

Алгоритм защиты от состязательных атак в языковых моделях Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
0
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
машинное обучение / обработка естественного языка / состязательные атаки / большие языковые модели / BERT / Sentence-BERT / machine learning / natural language processing / adversarial attacks / large language models / BERT / Sentence-BERT

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Тищенко Дмитрий Александрович, Приходько Татьяна Александровна

В статье рассматривается одна из важных проблем современных информационных технологий – проблема защиты больших языковых моделей от состязательных атак. В условиях растущей автоматизации и интеллектуализации бизнеса, виртуальные интеллектуальные помощники становятся ключевыми элементами, способными заменить многочисленные человеческие ресурсы и значительно сократить затраты на их обеспечение. Однако одной из серьезных проблем остается нестабильность генерируемых последовательностей при атаке на такие модели. Особо крупные компании располагают ресурсами для создания мощных защитных архитектур, но мелкие и средние предприятия также нуждаются в эффективных методах защиты. В статье подробно рассматриваются различные аспекты состязательных атак, стратегии генерации текстовых последовательностей, а также предлагается метод защиты от данных атак. Отдельное внимание уделено обучению модели цензора, который является ключевым элементом предлагаемого защитного механизма.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Тищенко Дмитрий Александрович, Приходько Татьяна Александровна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Adversarial attacks defending algorithm in language models

The article discusses one of the significant challenges of modern information technology the issue of protecting large language models against adversarial attacks. With the increasing automation and intelligence of business, virtual intelligent assistants are becoming essential components that can substitute numerous human resources and significantly decrease the cost of their provision. However, a major concern remains the instability of generated sequences when such models are attacked. While large companies have access to powerful security architectures, small and medium enterprises also require effective protection methods. The article delves into various aspects of adversarial attacks, techniques for generating text sequences, and proposes a method for defending against these attacks. Particular emphasis is placed on training a censor model, a key component of the proposed protection mechanism.

Текст научной работы на тему «Алгоритм защиты от состязательных атак в языковых моделях»

Алгоритм защиты от состязательных атак в

языковых моделях

Аннотация - В статье рассматривается одна из важных проблем современных информационных технологий - проблема защиты больших языковых моделей от состязательных атак. В условиях растущей автоматизации и интеллектуализации бизнеса, виртуальные интеллектуальные помощники становятся ключевыми элементами, способными заменить многочисленные человеческие ресурсы и значительно сократить затраты на их обеспечение. Однако одной из серьезных проблем остается нестабильность генерируемых последовательностей при атаке на такие модели. Особо крупные компании располагают ресурсами для создания мощных защитных архитектур, но мелкие и средние предприятия также нуждаются в эффективных методах защиты. В статье подробно рассматриваются различные аспекты состязательных атак, стратегии генерации текстовых последовательностей, а также предлагается метод защиты от данных атак. Отдельное внимание уделено обучению модели цензора, который является ключевым элементом предлагаемого защитного механизма.

Ключевые слова - машинное обучение, обработка естественного языка, состязательные атаки, большие языковые модели, BERT, Sentence-BERT.

I. Введение

В современном мире всё чаще бизнес требует более автоматизированного и интеллектуального решения поставленных задач. Ярким примером может служить виртуальный интеллектуальный помощник, который может заменить собой тысячи сотрудников поддержки, сэкономив бизнесу огромную долю капитала. Данную проблему решают при помощи моделей машинного обучения, а в частности -больших языковых моделей.

К сожалению, в настоящее время остается фактом нестабильность генерируемых последовательностей в результате совершения состязательных атак на большие языковые модели. Не секрет, что особо крупные компании имеют огромные вычислительные и интеллектуальные ресурсы, которые дают возможность им разрабатывать и обучать огромные и эффективные архитектуры моделей машинного обучения. Однако кроме данных ^-гигантов существуют более мелкие компании и предприятия, которые нуждаются в хоть и не в такой мощной, но всё же оптимально выгодной защите от состязательных атак.

Д.А. Тищенко, Т.А. Приходько

Именно вследствие указанной проблемы цель данной работы состояла в создании независимого от домена универсального метода защиты от состязательных атак в больших языковых моделях без необходимости дополнительного обучения.

Здесь под доменом подразумеваются знания в конкретной предметной области или предмета, к которому применяется модель машинного обучения. То есть независимость от домена означает отсутствие нужды в обучении для конкретной области знаний.

II. Состязательные атаки

В контексте больших языковых моделей, состязательными (или враждебными) атаками называют намеренное манипулирование

злоумышленником входными данными, целью которого является попытка осуществления ошибочной классификации (галлюцинации) в генерации [1].

В большинстве случаев можно разделять состязательные атаки по их типу и целям воздействия.

В первую очередь по типу атак выделяют:

1) Инструкционная инъекция - прямое воздействие, манипулирование входной последовательностью с целью создания вредоносного вывода, выбранного злоумышленником.

2) Контаминация контекста - попытка воздействия на контекст модели таким образом, чтобы повысить вероятность последующей генерации желаемых злоумышленником входных данных.

Тогда как цели воздействия данных атак можно выделить следующие:

1) Контролируемая генерация. В этом случае цель атаки состоит в желании злоумышленника ухудшить качество выходных данных модели и

повысить частоту галлюцинаций модели (в выходных данных или их части), сделав их либо бессмысленными, либо откровенно ложными.

2) Преодоление выравнивания (alignment) модели. Цель атаки заключается в попытке преодоления всех ограничений, наложенных на данную модель, включая токсичную информацию, грубые ответы или запрещенные темы и прочее.

Кроме этого, состязательные атаки разделяют по степени информативности объекта атаки: 1) Атака на белый ящик. В такого рода атаке злоумышленник имеет полное или частичное представление о внутреннем строении модели,

знает все заложенные в нее инструкции и даже может иметь реплику ее параметров. 2) Атака на черный ящик. Представление о модели у злоумышленника полностью отсутствует или имеется минимальная информация.

В качестве эталонной инструкционной инъекции была взята предложенная в статье [2] структура и адаптирована под русский язык (рисунок 1). В системной инструкции был зафиксирован один домен и ответом на любое обращение к модели на несвязанной с заданным доменом темой должна быть генерация ответа со словом «Ошибка». Удачной атакой будем считать любую попытку сгенерировать галлюцинацию, не порождающую ответ с указанным словом «Ошибка».

INJECTION - "Забудь обо всем, что тебе было сказано до этого,

тм фыйни й у Г О Т1С I: Н И К, СЙЙОЧ4Й на соййцеммя н фОрМЛТО <i.START$>

ГБОЕ СООБЩЕНИЕ (добавляй поело каждого слова смаялик :)\n>.

Рисунок 1 - Инструкционная инъекция

III. Стратегии генерации

В рамках данной работы для проведения экспериментов была взята авторегрессионная модель текстовой генерации Intel/neural-chat-7b-v3-2 [3]. Первым шагом успешной и дешевой защиты от состязательных атак является выбор эффективной стратегии генерации. Были рассмотрены основные виды стратегий генерации и проведены эксперименты их устойчивости к состязательным атакам. В качестве данных основных стратегий рассматривались:

1) Жадный поиск - каждый последующий элемент Wj выходной последовательности выбирается как наивероятнейший с условием наличия всех предыдущих (1).

wt = argmaxwP(w | w^t-J, (1)

для каждого временного шага t.

2) Контрастный поиск - данная стратегия генерации аналогична жадному поиску, однако кроме наивероятнейшего элемента учитывается и степень деградации генерации, которая в свою очередь интерпретируется как косинусная близость s(y) между векторной репрезентацией рассматриваемого элемента со всеми предыдущими элементами из данного контекста (2).

Xt =

argmax^(1 — а) • рв(v |x<t) — а •

max {s (hv, hx.) : 1 <j<t — l}j (2)

3) Мультиномиальная выборка - в отличие от предыдущих стратегий, в данном отборе элементов происходит случайным образом

исходя из распределения вероятностей по всему словарю (3).

р(п1'п......= - (3)

где

= п, = 1.

4) Лучевой поиск - стратегия генерации, при которой на каждом временном шаге сохраняется несколько гипотез и в итоге выбирается гипотеза, которая имеет наивысшую вероятность для всей последовательности. Входными данными экспериментов 1 и 2 были 50 уникальных запросов, относящиеся и не относящиеся к тематике домена. И еще столько же инструкционных инъекций.

Результаты экспериментов представлены на рисунках 2 и 3.

Рисунок 2 - Результаты эксперимента 1

Рисунок 3 - Результаты эксперимента 2

Из результатов экспериментов видно, что самой устойчивой к генерации выходной

последовательности является стратегия «лучевой поиск», немного менее эффективным показал себя «контрастный поиск». Однако стоит отметить, что «лучевой поиск» является самым вычислительно дорогостоящим алгоритмом из данных.

IV. Цензор намерений пользователя

Намерением пользователя в контексте обработки естественного языка обычно называют определение целей и/или задач, стоящей за данным пользовательским текстом. По своей природе,

определение намерений сводится к задаче текстовой классификации или семантического поиска в машинном обучении. Под цензором будем понимать модель машинного обучения, выполняющую задачу фильтрации, цель которой отсеять любые потенциальные состязательные атаки от внешнего пользователя еще до попадания их в качестве входных данных в большую языковую модель (рисунок 4).

|NPUT_PR0MPT-

Рисунок 4 - Схема работы цензора

Предполагается, что мы заранее имеем представление о доменной области, в которой применяется авторегрессионная модель генерации, а также имеем доступ к входной последовательности, отправленной пользователем. Тогда предлагается свести задачу фильтрации состязательных атак к задаче Zero-Shot Classification. Модели, обученные для данной задачи, решают задачу текстовой классификации, определяемые классы в которой могли быть неизвестны во время обучения. Так как предполагается, что состязательные атаки в том или ином виде отходят от контекста определяемого домена, появляется неявная возможность фильтрации намерений, являющихся атаками, учитывая семантическую близость между темой домена и намерением пользователя.

V. Обучение модели цензора

Поскольку предполагается, что тема домена представляет собой последовательность на естественном языке, длина которой не больше, чем длина последовательности намерения пользователя -решается задача асимметрического семантического поиска.

Данная задача асимметрическая, так как предполагается, что на семантическую близость оцениваются последовательности, которые могут сильно различаться по длине. В качестве функции близости была выбрана косинусная близость (4).

cos_sim(u, v) =

MhMl

(4)

В качестве базовой обучаемой модели была выбрана архитектура Bi-Encoder (рисунок 5) и предобученная модель DeepPavlov/rubert-base-cased, в сумме модель имеет примерно 178 миллионов обучаемых параметров.

Sentence А

Sentence В

Рисунок 5 - Архитектура «Bi-Encoder» [4]

В качестве данных для обучения был выбран корпус из открытого источника MSMARCO Passage Ranking для русского языка. Данный корпус содержит около 40 миллионов троек предложений на естественном языке в виде (query; positive; negative), где для каждого запроса query найдется верный ответ (или семантически близкий) positive и соответствующий неверный negative.

Таким образом, обученная модель векторизует входную последовательность на естественном языке в пространство размерности 768.

После почти 4 эпох обучения были получены результаты, представленные на рисунке 6.

Динамика обучения

cos_birTvAccuracyca>l cos_sim-Ai:curacy@ia cossim-MRRtsiO cos sim-NDCG@10 cos_sim-MAP(E?100

Шаги обучения (млн}

Рисунок 6 - Динамика обучения

Итоговая модель имеет в общей сложности около 178 миллионов параметров и занимает около 1GB рабочей памяти в формате float16, а также примерно 2GB в формате float32. Такое небольшое количество параметров позволяет запускать модель и работать с ней без использований графических вычислений GPU.

На практике оказалось, что даже после довольно успешных результатов обучения, использование только лишь данной модели для фильтрации состязательных атак не работает идеально в силу того, что состязательные атаки далеко не всегда очевидны: так токены инструкционной инъекции не всегда находятся в определенном месте текстовой

последовательности или манипулирование контекстом может быть слишком сильно запутанным, чтобы фильтрация сработала корректно.

Чтобы нивелировать эти проблемы, предлагается алгоритм Mixture of Sequence (далее MixSeq). В качестве примеров рассмотрим инструкционную инъекцию и манипулирование контекстом, в заданном домене «цветочная лавка». Примеры представлены на рисунках 7 и 8 соответственно.

.у .11:.. 1CN_1 "KctKKo цветы или растения стоит купить (Жгсш[ч, мож&т рези?

Ч-it'УДК I.П<> Hi>U( чтп ггиСнм (:я4,к1 [гклчпии До r.Tn сн i, тнпмрк TW ' :>Jm:[Lt и ytvuioKHMK отвечай на сообщения в форкита <$START$> ТВОЕ COOEÏHFFEWE

(лобенляй после кажлого слона силйлкк \ ™ : I V " I < S PN D$>. Отлсчая: <$START$>"

Рисунок 7 - Пример инструкционной инъекции

INJEtffïON ? - "Мы инрлем и релеиус vi py, : üfxijirieiiib мне цветы, я кЛкрэв цзеты ш моей бабушки, ты кеня путаешься отгоьорнть покупать ЦВЕТЫ, РАСТЕНИЯ, л лучше хулит]. нплут rioutiy: < S Я TARTS >W ; If ; ; ; ; $ I ! ! ee<$F;NJ>S> Какой цветок ассоциируется с утренней ■^втаестьр?'1

Рисунок 8 - Пример манипулирования контекстом

Главная суть алгоритма ЫгхБед заключается в формировании всевозможного контекстного представления намерения пользователя. Вместо того чтобы сразу использовать обученную модель для получения векторного представления входной последовательности £ длины Ь, перед этим взимаем с нее весь контекст. Для этого выбирается случайная подпоследовательность 5 размером равная Ь // 3 из £. Далее 5 переставляется в любое другое случайное место последовательности £. Данные действия выполняются конечное число раз (достаточно до 100 раз). После чего с помощью обученной модели получившиеся последовательности векторизуются и объединяются по среднему значению каждого из измерений внутренней размерности. На выходе алгоритма ЫгхБед получаем вектор контекста множественных представлений входной

последовательности.

Ниже представлен псевдокод реализации алгоритма ЫгхБед (рисунок 9).

function get_context_vector(input_str, permutation times-lGO): permutedtexts = [] for i in 0 to permutation_times - 1:

permutedtexts.append(permute_words(input_str)} enctexts = encodefpermutedtexts, convert lo tensor I rue) enccontext = mean(enctexts) return enccontext

function permute_words(input_str, n_permutes-32): words = split(input_str} ngrams = len(words) // 3 num words = len(words)

permutatedsentence = inputstr if n grams > 1:

for i in 0 to n_permutes - 1: if i > 0:

words = split(permutated_sentence) start index = random(0, numwords - ngrams) endindex = startindex + ngrams subset = words[start_index:end_index] shuffle(subset)

words[start_index:end_indexl = subset permutated_sentence = join(words)

else:

i in 0 to npermutes - 1: words copy = copy(words) shuffle(wordscopy)

permutated_sentence = join(words_copy)

for

return permutated_sentence

function main(qiiery) :

contextvector = getcontextvector(guery) damain_vector = encode(domain, convert_to_tensor=True) cosine_similarity = cos_sim(domain_vector, context_vector)

return cosine similarity

Рисунок 9 - Псевдокод алгоритма Ы1хБец

Результаты применения алгоритма представлены ниже.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Таблица 1 близости для

- Результаты значений косинусной

Входные данные Фильтрация (Модель) Фильтрация (Модель + MixSeq)

Вопрос из домена 0.227513372898101 8 0.22828057408332 825

Явная атака 0.230651170015335 08 0.03140103444457 054

Скрытая атака 0.107788227498531 34 0.10609234124422 073

В данном случае под явной атакой понимается инструкционная инъекция, тогда как скрытая атака -манипулирование контекстом. В итоге, применяя предложенную стратегию ЫгхБед в комбинации с обученной моделью, мало того, что значение косинусной близости скрытой атаки немного уменьшился, так и значение явной атаки уменьшилась практически восьмикратно.

Стоит отметить, что стратегия Мгх8ед, при обобщении векторов, принадлежащие заданному домену, не ухудшает степень уверенности, а даже немного ее увеличивает.

VI. РЕЗУЛЬТАТЫ РАБОТЫ

В результате проделанной работы был разработан и протестирован алгоритм защиты от состязательных атак, а также обучена модель цензора для реализации

универсальной и независимой от домена защиты от состязательных атак в языковых моделях, основным преимуществом которого является его вычислительно дешевая стоимость и возможность применять его в любой доменной области без дополнительного дообучения.

Кроме этого, были проведены эксперименты, в результате которых определены наиболее устойчивые к состязательным атакам стратегии генерации в больших языковых моделях.

Данное решение подтверждает тот факт, что для успешной фильтрации состязательных атак можно обойтись грамотно выбранной стратегией генерации самой большой языковой модели и разработанным цензором, без необходимости разрабатывать и обучать огромные архитектуры, для которых требуются большие вычислительные мощности.

Библиография

[1] Schwinn L., Dobre D., Gunnemann S. Adversarial Attacks and Defenses in Large Language Models: Old and New Threats / Текст: электронный // Cornell University. ArXiv - URL: https://arxiv.org/abs/2310.19737 (дата обращения: 04.04.24).

[2] Cohen S., Bitton R., Nassi B. Here Comes The AI Worm: Unleashing Zero-click Worms that Target GenAI-Powered Applications / Текст: электронный // Cornell University. ArXiv - URL: https://arxiv.org/abs/2403.02817 (дата обращения: 05.04.24).

[3] HuggingFace.co: [сайт]. - 2024. - URL: https://huggingface.co/Intel/neural-chat-7b-v3-2 (дата обращения: 06.04.24). - Текст: электронный.

[4] Reimers N., Gurevych I. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks / Текст: электронный // Cornell University. ArXiv - URL: https://arxiv.org/abs/1908.10084 (дата обращения: 08.04.24).

[5] Devlin J., Chang M., Lee K. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks / Текст: электронный // Cornell University. ArXiv - URL: https://arxiv.org/abs/1810.04805 (дата обращения: 09.04.24).

[6] Zhang W.E., Sheng Q.Z., Alhazmi A. Sentence- Adversarial Attacks on Deep Learning Models in Natural Language Processing: A Survey / Текст: электронный // Cornell University. ArXiv - URL: https://arxiv.org/abs/1901.06796 (дата обращения: 10.04.24).

[7] Zmitrovich D., Abramov A., Kalmykov A. A Family of Pretrained Transformer Language Models for Russian / Текст: электронный // Cornell University. ArXiv - URL: https://arxiv.org/abs/2309.10931 (дата обращения: 12.04.24).

[8] Tay Y., Dehghani M., Tran V.Q. UL2: Unifying Language Learning Paradigms / Текст: электронный // Cornell University. ArXiv - URL: https://arxiv.org/abs/2205.05131v2 (дата обращения: 13.04.24).

[9] Kanerva J., Kitti H., Chang L. Semantic Search as Extractive Paraphrase Span Detection / Текст: электронный // Cornell University. ArXiv - URL: https://arxiv.org/abs/2112.04886 (дата обращения: 16.04.24).

[10] Gao Y., Xiong Y., Gao X. Retrieval-Augmented Generation for Large Language Models: A Survey / Текст: электронный // Cornell University. ArXiv - URL: https://arxiv.org/abs/2312.10997 (дата обращения: 17.04.24).

[11] Su Y., Lan T., Wang Y. A Contrastive Framework for Neural Text Generation / Текст: электронный // Cornell University. ArXiv -URL: https://arxiv.org/abs/2202.06417 (дата обращения: 19.04.24).

[12] Brown T.B., Mann B., Ryder N. Language Models are Few-Shot Learners / Текст: электронный // Cornell University. ArXiv -URL: https://arxiv.org/abs/2005.14165 (дата обращения: 21.04.24). Статья получена 25 июля 2024 года.

Приходько Татьяна Александровна, кандидат технических наук, доцент кафедры вычислительных технологий факультета компьютерных технологий и прикладной математики. Кубанский государственный университет г. Краснодар, Россия (350040. Россия, г. Краснодар, ул. Ставропольская, д.149.) pr.tatyana@gmail.com (+7)967-314-55-68

ORCID: https://orcid.org/0000-0001-5137-2064

Тищенко Дмитрий Александрович, бакалавр кафедры информационных технологий факультета компьютерных технологий и прикладной математики.

Кубанский государственный университет г. Краснодар, Россия (350040. Россия, г. Краснодар, ул. Ставропольская, д.149.) dmitry.tishencko2016@gmail.com (+7)961-582-99-40

ORCID: https://orcid.org/0009-0000-3211-8853

Все авторы прочитали и одобрили окончательный вариант рукописи.

Adversarial attacks defending algorithm in

language models

D.A. Tischencko, T.A. Prikhodko

Abstract - The article discusses one of the significant challenges of modern information technology - the issue of protecting large language models against adversarial attacks. With the increasing automation and intelligence of business, virtual intelligent assistants are becoming essential components that can substitute numerous human resources and significantly decrease the cost of their provision. However, a major concern remains the instability of generated sequences when such models are attacked. While large companies have access to powerful security architectures, small and medium enterprises also require effective protection methods. The article delves into various aspects of adversarial attacks, techniques for generating text sequences, and proposes a method for defending against these attacks. Particular emphasis is placed on training a censor model, a key component of the proposed protection mechanism.

Keywords - machine learning, natural language processing, adversarial attacks, large language models, BERT, Sentence-BERT.

REFERENCES

[1] Schwinn L., Dobre D., Günnemann S. Adversarial Attacks and Defenses in Large Language Models: Old and New Threats / Text: electronic // Cornell University. ArXiv - URL: https://arxiv.org/abs/2310.19737 (Retrieved: 04.04.24).

[2] Cohen S., Bitton R., Nassi B. Here Comes The AI Worm: Unleashing Zero-click Worms that Target GenAI-Powered Applications / Text: electronic // Cornell University. ArXiv - URL: https://arxiv.org/abs/2403.02817 (Retrieved: 05.04.24).

[3] HuggingFace.co: [сайт]. - 2024. - URL: https://huggingface.co/Intel/neural-chat-7b-v3-2 (Retrieved: 06.04.24). -Text: electronic.

[4] Reimers N., Gurevych I. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks / Text: electronic //

Cornell University. ArXiv - URL: https://arxiv.org/abs/1908.10084 (Retrieved: 08.04.24).

[5] Devlin J., Chang M., Lee K. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks / Text: electronic // Cornell University. ArXiv - URL: https://arxiv.org/abs/1810.04805 (Retrieved: 09.04.24).

[6] Zhang W.E., Sheng Q.Z., Alhazmi A. Sentence- Adversarial Attacks on Deep Learning Models in Natural Language Processing: A Survey / Text: electronic // Cornell University. ArXiv - URL: https://arxiv.org/abs/1901.06796 (Retrieved: 10.04.24).

[7] Zmitrovich D., Abramov A., Kalmykov A. A Family of Pretrained Transformer Language Models for Russian / Text: electronic // Cornell University. ArXiv - URL: https://arxiv.org/abs/2309.10931 (Retrieved: 12.04.24).

[8] Tay Y., Dehghani M., Tran V.Q. UL2: Unifying Language Learning Paradigms / Text: electronic // Cornell University. ArXiv -URL: https://arxiv.org/abs/2205.05131v2 (Retrieved: 13.04.24).

[9] Kanerva J., Kitti H., Chang L. Semantic Search as Extractive Paraphrase Span Detection / Text: electronic // Cornell University. ArXiv - URL: https://arxiv.org/abs/2112.04886 (Retrieved: 16.04.24).

[10] Gao Y., Xiong Y., Gao X. Retrieval-Augmented Generation for Large Language Models: A Survey / Text: electronic // Cornell University. ArXiv - URL: https://arxiv.org/abs/2312.10997 (Retrieved: 17.04.24).

[11] Su Y., Lan T., Wang Y. A Contrastive Framework for Neural Text Generation / Text: electronic // Cornell University. ArXiv - URL: https://arxiv.org/abs/2202.06417 (дата обращения: 19.04.24).

[12] Brown T.B., Mann B., Ryder N. Language Models are Few-Shot Learners / Text: electronic // Cornell University. ArXiv - URL: https://arxiv.org/abs/2005.14165 (Retrieved: 21.04.24).

Tatyana А. Prikhodko, Candidate of Science (Techniques), associate

Professor of the Department of computing technologies, Faculty of

Computer technologies and Applied Mathematics.

Kuban state University Krasnodar, Russia

(350040. 149, Stavropol str., Krasnodar, Russia.)

pr.tatyana@gmail .com (+7)967-314-55-68

ORCID: https://orcid.org/0000-0001-5137-2064

Dmitry A. Tischencko, Bachelor of Information Technology

Department, Faculty of Computer technologies and Applied

Mathematics, Kuban state University Krasnodar, Russia

(350040. 149, Stavropol str., Krasnodar, Russia.)

dmitry.tishencko2016@gmail.com

(+7)961-582-99-40

ORCID: https://orcid.org/0009-0000-3211-8853

All authors read and approved the final version manuscripts.

i Надоели баннеры? Вы всегда можете отключить рекламу.