Вестник АГТУ. Серия: Управление, вычислительная техника и информатика. 2023. M1
ISSN2072-9502 (Print), ISSN2224-9761 (Online) Vestnik ASTU. Series: Management, computer science and informatics. 2023. N. 1
_ISSN2072-9502 (Print), ISSN2224-9761 (Online)
КОМПЬЮТЕРНОЕ ОБЕСПЕЧЕНИЕ И ВЫЧИСЛИТЕЛЬНАЯ ТЕХНИКА
COMPUTER ENGINEERING AND SOFTWARE
Научная статья УДК 004.912
https://doi.org/10.24143/2072-9502-2023-1-25-35 EDN EGRKGN
Анализ алгоритмов и решений для автоматической генерации подводок новостных статей в соцсетях с использованием искусственного интеллекта
А. И. Егунова, Р. С. Комаров, Ю. С. Вечканова, О. И. Егунова, Д. П. Сидоров, С. Д. Шибайкин, В. В. Никулинн
Национальный исследовательский Мордовский государственный университет им Н. П. Огарева,
Саранск, Россия, [email protected]ш
Аннотация. При публикации статей в социальных сетях редакциям новостных порталов необходимо сформировать краткий реферат каждой статьи, затратив на это минимум времени. Оперативному и одновременному размещению публикации на всех зарегистрированных ресурсах способствует автоматическая генерация подводок. Предлагается использование алгоритмов искусственного интеллекта, обученных на корпусах русских текстов. Известны три подхода к реферированию текста для автоматизированного формирования подводок статей: экстрактивный, абстрактивный и комбинированный. Проводится сравнительный анализ методов экстрактивного и абстрактивного подходов в рамках решения задачи автоматической генерации подводок с помощью применения нейросетевых моделей машинного обучения. Проанализированы различные этапы экстрактивного реферирования с помощью как простых, так и более сложных методов: LexRank, TextRank и на основе Deep Learning. Путем сравнения выбраны абстрактивные модели как наиболее подходящие для выполнения суммаризации новостных статей, на основе модификации модели BERT. Более сложные генерирующие тексты обрабатывают тексты параллельно, что ускоряет обработку, но требует предобучения на больших корпусах новостных документов. При использовании абстрактивных моделей Pointer General Network и MBART сокращается время обработки информации, повышается эффективность работы.
Ключевые слова: суммаризация, реферирование, вектор, токен, кодирование, декодирование, генерация
Для цитирования: Егунова А. И., Комаров Р. С., Вечканова Ю. С., Егунова О. И., Сидоров Д. П., Шибайкин С. Д., Никулин В. В. Анализ алгоритмов и решений для автоматической генерации подводок новостных статей в соцсетях с использованием искусственного интеллекта // Вестник Астраханского государственного технического университета. Серия: Управление, вычислительная техника и информатика. 2023. № 1. С. 25-35. https://doi.org/10.24143/2072-9502-2023-1-25-35. EDN EGRKGN.
© Егунова А. И., Комаров Р. С., Вечканова Ю. С., Егунова О. И., Сидоров Д. П., Шибайкин С. Д., Никулин В. В., 2023
s
S X
о И
^ К
S щ
S tf
X ta
<D о
а 2
(U м
л (5
s 5
g «
^ £ z £
£«
я
<
PQ
PQ я
S
ч
S
Д
я и
J §
^ О
. и
" §
ü с и
Original article
Analyzing algorithms and solutions for automatic generation of news article leads in social networks by using artificial intelligence
A. I. Egunova, R. S. Komarov, Yu. S. Vechkanova, O. I. Egunova, D. P. Sidorov, S. D. Shibaikin, V. V. NikulinM
National Research Ogarev Mordovia State University, Saransk, Russia, [email protected]
Abstract. The article highlights the approaches to automatic abstracting the articles. When publishing articles on social networks, the editors of news portals need to create a short abstract of each article spending a minimum of time. Prompt and simultaneous placement of the publications on all registered resources is facilitated by automatic generation of leads. There is proposed to apply the artificial intelligence algorithms trained on corpora of the Russian texts. There are three approaches to text abstracting for the automated formation of article leads: extractive, abstract, and combined. There is carried out comparative analysis of the methods of extractive and abstract approaches in the frames of solving the problem by using neural network models of machine learning. Different stages of extractive abstracting are analyzed using both simple and more complex methods of LexRank, TextRank and on top of Deep Learning. The compared abstract models were selected as the most suitable ones for abstracting the news articles on top of the BERT model. More complex generating texts process the data in parallel, which speeds up processing, but requires training on large corpora of news documents. When using the abstract models Pointer General Network and MBART the information processing time is reduced and work efficiency increases.
Keywords: summarization, abstracting, vector, token, encoding, decoding, generating
For citation: Egunova A. I., Komarov R. S., Vechkanova Yu. S., Egunova O. I., Sidorov D. P., Shibaikin S. D., Niku-lin V. V. Analyzing algorithms and solutions for automatic generation of news article leads in social networks by using artificial intelligence. Vestnik of Astrakhan State Technical University. Series: Management, Computer Science and Informatics. 2023;1:25-35. (In Russ.). https://doi.org/10.24143/2073-5529-2023-1-25-35. EDN EGRKGN.
л
§
s
и
x
fr
w о
PQ
О
о
о
X
fr
w
Введение
Ежедневно новостные порталы с целью повышения трафика сайта распространяют статьи в социальных сетях. Перед публикацией главному редактору газеты необходимо изучить каждую статью, на что уходит много времени, т. к. газета формирует публикации за неделю с включением как тематических, так и оперативных новостей. Размер статьи варьирует от 300 до 1 500 слов, статьи размещаются не только на сайте газеты, но и в социальных сетях и мессенджерах. Разные сервисы под анонсы статей выделяют разный объем, учитывая который нужно сформировать краткий реферат каждой статьи. Решение задачи автоматической генерации подводок существенно ускорит подготовку издания и позволит оперативно размещать публикации на всех зарегистрированных ресурсах одновременно. Для выполнения данной операции, учитывая небольшой штат сотрудников районной газеты, планируется
использовать алгоритмы искусственного интеллекта, обученные на корпусах русских текстов.
Основные причины, по которым автоматическое выделение релевантной информации текста может быть полезно:
- сокращается время обработки информации;
- повышается эффективность работы;
- алгоритмы автоматической суммаризации менее предвзяты, чем люди.
Существует 3 основных подхода к решению данной задачи: экстрактивный, абстрактивный и комбинированный.
Экстрактивный подход заключается в выделении из статьи наиболее значимых блоков информации. Блок может представлять собой набор предложений, абзацев или ключевых слов. Задачей экстрактивного подхода можно считать бинарную классификацию данных. Схема данного типа суммаризации представлена на рис. 1.
Рис. 1. Схема экстрактивного подхода суммаризации Fig. 1. Graph of the extractive summarization approach
Методы данного подхода основаны на сортировке блоков информации по степени важности с помощью оценочной функции.
Абстрактивный подход значительно отличается от экстрактивного и заключается в генерации краткого содержания с порождением нового текста, содержательно обобщающего первичный документ. Модели данного подхода могут генерировать уникальное резюме, которое может содержать слова, отсутствующие в исходном тексте.
Под комбинированным подходом понимается совместное использование экстрактивного и аб-страктивного подходов для решения одной задачи.
Экстрактивные подходы
Экстрактивное реферирование на основе вхождения общих слов. Этот метод считается наиболее простым, потому что происходит обработка только исходного текста. На первом шаге исход-
ный текст раскладывается на предложения, а каждое предложение, в свою очередь, разбивается на токе-ны (слова). Для каждого токена проводится лемма-тизация. В результате алгоритм сможет объединить одинаковые по смыслу слова в разных формах.
Следующим этапом, на основе функции схожести, которая вычисляется как отношение количества общих слов в двух предложениях к суммарной длине этих предложений, определяются коэффициенты схожести для каждой пары предложений [1].
Предложения, которые имеют общие слова, оставляют, и строится граф, в котором вершины представляют собой предложения статьи, а ребра показывают наличие одинаковых слов с соответствующими коэффициентами (весами) из предыдущего пункта алгоритма. В примере, представленном на рис. 2, отсутствует предложение 1, т. к. оно не имеет общих значимых слов с другими предложениями.
e w
t CTQ
w в
k v
s p
b >
y .
n
CTQ О
r a
i <
и
CTQ
Рис. 2. Пример графа предложений Fig. 2. Exemplary sentence graph
i n
i
l n
A »
После сортировки (ранжирования) предложений по их значимости необходимо выбрать несколько самых значимых предложений и расположить их в соответствии с порядком их появления в исходном тексте.
Экстрактивное реферирование на основе обученных векторных представлений. Методы LexRank и Тех1Яапк строят из предложений граф, основываясь на их сходстве (например, косинусное сходство) [2]. Пример такого графа представлен на рис. 3.
Рис. 3. Пример графа предложений, основанного на их сходстве Fig. 3. Exemplary sentence graph based on the sentence similarity
и «
к и
а з
>4
ч 1 о с о к о X S*
Я
о
i я i «
< ¡3
и
S
и
о
и £
и о"
ш и
<
Берется определенное количество блоков текста (например, предложений) и вычисляется матрица сходства. Сходства можно определить как веса в некотором графе. Ранжирование основывается на центральности вершин в графе. Текст новости то-кенизируется и лемматизируется и представляется в форме [3]. Вычисляется матрица косинусов, которая определяет вероятность перехода из одной вершины в другую.
Центральность во взвешенном графе можно вычислить:
- через степень вершины (сумма весов всех ребер, которые соединены с вершиной):
D (i )= X
w„
ш
■ G
ш =3
я g
К о
ч о
g S
® о
R. О
. М
о g
s t=
«
j е neighbors(i')
где D(i) - степень i-й вершины; wij - вес между i-й и '-й вершинами графа в матрице весов, если вершины i и' не смежные, то wij = 0;
- через PageRank - рекурсивную метрику, определяющую центральность вершины через центральность соседних вершин, где «важность» i-го
предложения определяется по формуле т р )=+, Е ™
N
Pj £M(p.)
L (Pj)
где РК(р,) - PageRank р-го предложения; РЛр) -PageRank '-го предложения; р^ - i-е предложение; Р' - '-е предложение; d - коэффициент демпфирования (по умолчанию 0,85); N - количество предложений; Мр) - набор всех входящих ссылок на предложение р,; L(pj) - количество исходящих ссылок на предложение р'.
Данный метод в качестве вершин графа берет предложения из текста, а веса ребер вычисляются по формуле «схожести» р, предложений по набору слов. PageRank можно представить в виде модели случайного серфера, который изначально находится в произвольной вершине а. Далее с некоторой вероятностью Рмм№) он может переместиться в другую вершину. Чтобы вероятности не были нулевыми, используется дополнительный коэффициент d демпфирования (обычно 0,85). С вероятностью (1 - d) / N серфер перемещается в случайную вершину. Заранее выделенная вероятность перехода из одной вершины в соседнюю вычисляется нормализацией матрицы по строкам:
1 - d
Р (' I i)= — + dPmt,al(j 10-
Вершины графа обозначают возможные состояния системы. Не зная начального состояния системы, можно вычислить вероятность того, что серфер находится в вершине j в текущий момент, умножив сумму вероятностей его нахождения в каждой из возможных вершин в момент времени t - 1 на вероятность перехода в вершину j из вершины i:
p (x = j ) = £p (x = i) рою,
i
где xt - положение серфера в момент времени t; xt_x - положение серфера в момент времени t — 1; P(x— = i) - вероятность, что в момент времени t - 1 серфер находится в вершине i; P(j\i) - вероятность перехода из вершины i в вершину j.
В матричной форме эту формулу можно представить в форме стационарного распределения цепи Маркова [4]. Значения стационарного распределения q и будут PageRank'ами вершин:
q = PTq.
После вычисления выбирается несколько предложений с наибольшими значениями для включения в реферат.
Экстрактивное реферирование на основе Deep Learning. Перед подачей в нейронную сеть текст необходимо токенизировать. Токенизация разбивает текст на значимые элементы. Каждый токен необходимо закодировать числом. Для этого перед обучением строят словарь (mapping) уникальных токе-нов, идентифицируя каждый из них уникальными числами (индексы). Словарь ограничен по длине (несколько десятков тысяч токенов).
В настоящее время популярна токенизация, разделяющая текст не на слова, а на часто встречающиеся их части (byte-pair encoding, WordPiece, SentencePiece). Это позволяет сжать много различных слов в относительно малое количество токенов. В самой нейросети для каждого токена в словаре используется некоторый вектор, который называется плотным, потому что имеет небольшую размерность относительно размерности словаря. Этот вектор обычно обучается вместе с сетью под конкретную задачу.
Сети-кодировщики текста (рис. 4) принимают на каждом слое на вход последовательность векторов yi токенов xi и преобразуют ее в новую последовательность.
Рис. 4. Схема сети-кодировщика текста Fig. 4. Graph of text encoder network
t CfQ
w n
k v s p
b >
y .
n
CfQ О
t r
i <
и
CfQ
Все последовательности, кроме входной, считаются состоящими из «контекстуализированных» векторов. Способы сделать кодировщик: CNN, RNN, BiRNN, Transformer.
Сеть-трансформер (рис. 5) на каждом слое вычисляет представления токенов учитывая представления (вектора у) всех токенов на предыдущем слое.
Рис. 5. Схема сети-трансформера текста Fig. 5. Graph of network- transformer of the text
Сеть-декодировщик (decoder) - это сеть, используемая для генерации токенов. Авторегрессионные декодеры на шаге генерации (в инференсе) принимают на вход последовательность векторов уже сгенерированных токенов, кодируют ее (аналогично кодировщику) и выдают распределение вероятности над следующим словом: P(wt\w1 : t-1).
Seq2Seq-архитектуры используются для генерации выходной последовательности с учетом входной, состоят из кодировщика исходного текста и декодера, который использует выход кодировщика как вспомогательный контекст. Такие архитектуры популярны в машинном переводе и сум-маризации: P(yt\yu-i, x : len(x)).
Модель PACSUM. Для кодировки предложений и вычисления матрицы сходств используется BERT (англ. Bidirectional Encoder Representations from Transformers - языковая модель, основанная на архитектуре «трансформер»). Каждое предложение в тексте кодируется единым вектором. Для дообучения представления предложений применяется negative sampling с использованием 2-х моделей BERT. Положительными примерами в данном случае являются фразы, смежные друг с другом, отрицательным - несмежные друг с другом фразы [5]. Фразы, которые должны стоять близко друг к другу, должны иметь схожий вектор.
i n
i
l n
A
s s
X
о «
^ S
S щ
S tf
X ta
<D о
a s
<D м
л §
s 5
!§ s
s о
s §
x
<
PQ
PQ x
X
к
X
К
X
Ь
W О
S2
CT <u PQ
Ü рц
о
sr <
a
M
о Я
Ь
W
Граф в этой модели является ориентированным (между двумя вершинами 2 ребра, которые имеют разные веса) X1eij и X2eij, где eij - сходство между векторами предложений. Степень вершины вычисляется по формуле
centrality ( st) = ^\eii + ^eij.
j <i j >i
Набор моделей BERTSumExt. В таких моделях в предобученный BERT подставляется текст, где
перед каждым предложением ставится токен [CLS]. Эмбеддинги сегментов чередуются для разделения предложений. Далее представления для CLS токе-нов вытаскиваются с последнего слоя и идут в дополнительный трансформер, который уже используется для тэггинга (отбора предложений в аннотацию). Весь стек дообучается под конкретную задачу. Сравнение моделей оригинального BERT и BERT для суммаризации представлено на рис. 6.
^ К
2 S
х «
о
. и
" g
ü с «
s
э d
л
¡а
s
U
Input Document
Token
Embeddings
Segment Embeddings
Position Embeddings
Contextual Embeddings
Original BERT ([CLS]] Q föne4! ([SEP]) {2nd] (sent] |[SEP]| [sent] [again] ([SEP]] BERT for Summarization ([CLS]) fient4] [[SEP]] ([CLS]| f^nd) fien^ ([SEP]) ([CLS]] fient] ([SEP]]
|e[ci,s]| I Esen, 1 1 Eone | |e,s,;fi| | EZnd | | Esen, | | Esen. | |Eaga,n| |e[Skpi| + + + + + + + + + + |~e7| R |~Ё7| 1~Ё7| [sT| |~Ё7| |~Ё7| |~ЁГ] 1~ЁГ] |~Ё7| 1 Ei 1 1 Е2 1 |~ЕГ| 1 ît 1 ["ЕГ1 1 it 1 |"ЕГ[ 1 Es \ \ Е9 \ | Ё^ | * [ZI^ + + + + + + + + + + + + [~еГ| I it 1 |~eT| |~e7] [~eT| I it 1 ft] ft] |~еГ1 \t\ 1 Ёп 1 *
Transformer Layers Transformer Layers
T[CLS] * Tsent Tone T[sep] T2nd Tsent T[sep1 Tsent Tagain Tjsep] * T[CLS] Tsent Tone T[sr.l>] T[CLS] T2nd Tsent T(sep] T|CLS] Tsent Tagain T[sep]
Рис. 6. Сравнение оригинальной модели BERT и усовершенствованной BERT для суммаризации Fig. 6. Comparison of the original model BERT and modernized BERT for summarization
BERTSum является модификацией модели BERT, представленной в 2018 г. Модель BERT на сегодняшний день является эталоном для решения задач в области NLP, однако она не очень подходит к задаче автореферирования. Обычная BERT учится решать сразу 2 задачи: задачу маскированного языкового моделирования (maskedlanguage model) и задачу: является ли одно предложение продолжением другого (next sentence prediction). При таком подходе выходные векторы будут основаны на токенах, а нам нужны векторы, основанные на предложениях, поэтому для решения задачи нужно модифицировать входную последовательность. Как показано на рис. 6, токен CLS вставлен перед каждым предложением, а токен SEP - после каждого предложения. В оригинальном BERT CLS используется как символ для агрегации признаков из одного или пары предложений, в модифицированном же он используется для извлечения признаков из каждого предложения.
После получения векторов предложений строится несколько слоев, специально используемых для реферирования. Слои строятся поверх выходов BERT, чтобы получать на вход признаки на уровне документов. Для каждого предложения вычисляется финальное значение Y. Функцией потерь для всей модели будет бинарная кросс-энтропия [6]. Слои для суммаризации могут быть нескольких видов. Во-первых, это может быть обычный линейный слой, который получает ответ по формуле
Y = o(W0T + b0),
где а является сигмоидной функцией активации; W0 - входы слоя; T - вектор для преобразования из верхнего слоя трансформатора; b0 - смещение. Во-вторых, это может быть слой трансформера, ориентированный на задачу суммаризации из выходов BERT:
' + MHAtt (
h = LN ( hl-1 + MHAtt ( hl-1 ))
где h равен позиции вектора T, который, в свою очередь, является выходом BERT. Под LN понимается линейная нормализация, а под MHAtt — «multi head attention». Финальный слой - все та же сиг-моидная функция:
Y = o(W0 hL + b0),
где hL - вектор предложения с финального слоя трансформера.
Абстрактивные подходы
Абстрактивный подход представляет собой генерацию нового текста, резюмирующего исходный. В таком резюме могут встречаться фразы, которые релевантны исходному тексту, но сами в нем не встречаются. Схема абстрактивной суммаризации представлена на рис. 7.
Рис. 7. Схема абстрактивного подхода суммаризации Fig. 7. Graph of abstractive approach to summarization
Часто в алгоритмах абстрактивного подхода используется архитектура, представленная на рис. 8.
Рис. 8. Архитектура работы абстрактивного подхода Fig. 8. Architecture of the abstractive approach
Encoder кодирует каждое слово контекстно-зависимым битингом. Decoder принимает на каждом шаге текущие слова в аннотации (которые уже известны) и пытается сгенерировать распределение вероятностей над следующим словом.
Вычисление весов внимания включает следующие этапы: сложение произведения матрицы Wk на векторы kh которые выдал кодировщик, произведения матрицы Ws на вектор состояния st и векторы кодировщика. После нелинейной активации получаются скалярные баллы (е - скалярный балл вектора i; b - обучаемый параметр):
e'i = vT tanh (Wkk + Wss, + ball„).
Скалярные баллы нормализуются с помощью функции softmax:
a{ = softmax (e ).
Взвешенная сумма полученных векторов представляет собой контекстный вектор, который будет
e w
t CTQ
wn
g g
k v
s p
b >
y .
n
CTQ О
t r
i <
использоваться вместе с текущим состоянием де-кодировщика при предсказании следующего слова:
k* = Z ^'
где k - представления векторов с Encoder'a, at -скалярные баллы.
Сеть Pointer Generator Network. Сеть Pointer Generator Network представляет собой модификацию типичной Seq2Seq архитектуры. Эта сеть может не только давать распределения из словаря, но и копировать слова из исходного текста. На каждом шаге генерации принимается решение: сгенерировать слово из словаря или скопировать слово из исходного текста. На основе контекстного вектора вычисляется вероятность, что следует генерировать слово:
Pgen = ° (k + wTst + wTxt + bptr ) ■
При генерации слова вероятность какого-либо слова определяется суммой произведения вероятности генерации слова на вероятность словаря
и
CTQ
<
i n
i
l n
A 3
х к
X
п к
S щ
s 3
X И
<и о
а 2
(U м
л о
s 5
g «
х
<
PQ
PQ х
X
к
X
X
л
§
S
U
и произведения вероятности копирования на сумму весов внимания, которые уделялись данному слову на текущей итерации:
P ( W) = PgenPvocab ( W) + (l " Pgen ) =/> '
Для борьбы с повторениями в генерируемом тексте используется механизм покрытия (coverage). Он отслеживает сумму всех весов внимания, которые были за предыдущие шаги. Перед вычислением весов внимания на следующем шаге учитывается ранее уделенное внимание данному слову:
Zt"1 г a .
t'=0
Если какое-то слово покрыто очень часто, то для него вычисляется штраф:
losst = -logP (w*t ) + X^,min(ait, c\).
Схема сети Pointer Generator Network представлена на рис. 9 [7].
2 £
£ *
X
и
J §
^ О
. и
" §
£ с И
X
W О
Рис. 9. Архитектура работы сети Pointer Generator Network Fig. 9. Architecture of Pointer Generator Network
PQ
Ü
Сеть MBART. Сеть представляет собой реферирование при помощи предобученных трансформе-ров. Модель предобучается на восстановлении корректного входа из зашумленного.
Целью обучения является задача реконструкции текста. Перед подачей данных в модель часть
токенов маскируется (заменяется на токен [MASK]), часть удаляется. В основе этой модели лежит концепция Seq2Seq, в качестве энкодера выступает модель BERT, а качестве декодера -GPT-2. Архитектура работы модели представлена на рис. 10.
о
о
н
Щ
Рис. 10. Схема сети MB ART Fig. 10. Graph of MBART network
Случайные токены заменяются масками, документ кодируется двунаправленно. Отсутствующие токены предсказываются независимо. Они определяются автоматически, что означает, что GPT можно использовать для генерации.
Виды шумов:
1. Замена токенов на [MASK] (BERT objective).
2. Удаление токенов.
3. Замена последовательностей токенов на один токен [MASK], включая пустые последовательности.
4. Перемешивание предложений.
5. Ротация текста (текст начинается с рандомной позиции, а предыдущие позиции улетают в конец).
Графические схемы шумов представлены на рис. 11.
( А_С._Е.) (РЕ.АВС.) (С . D Е ■ А В) Token Masking Sentence Permutation Document Rotation
( A.C.E. ) (ABC.DE.) (A_.D_E.) Token Deletion Text Infilling
Рис. 11. Схемы шумов в модели MBART Fig. 11. Graph of noises in the MBART model
Тюнинг модели MBART:
Рис. 12. Схема классификации текстов Fig. 12. Graph of the text classification 2. Тэггинг - аналогично классификации, но классифицируются все токены в декодере (рис. 13).
e w
t CTQ
wn
k v
s p
b >
y .
n
CTQ О
r з
i <
1. Классификация текстов - полный прогон через Encoder и Decoder, классификация последнего токена в декодере (рис. 12).
и
CTQ
i n
i
l n
A 3
Рис. 1З. Схема тэггинга текстов
Fig. 1З. Graph of text tagging
З. Реферирование и Seq2Seq задачи для одного языка - straightforward.
Комбинированные подходы
Комбинированные подходы реферирования, по сравнению с абстрактивными методами, проще
« «
s я
а з
: я i «
< g
m
■ û
ш S
и S
S о
ч о
g S
® о
R. О
. M
о
s t=
«
в разработке, а по сравнению с экстрактивными методами - обеспечивают лучшее качество реферата. Сложность данных методов заключается в выборе удачного сочетания методик генерации и извлечения (абстрактивного и экстрактивного подходов). Примерами таких методов являются Scientific Text Summarizer [8].
Сравнительная характеристика подходов и моделей
Тексты статей, для которых формируются подводки, теоретически не имеют тематических ограничений. Экстрактивные методы автоматического реферирования могут извлекать предложения, слабо связанные между собой, но не требуют большого корпуса слов для обучения, и извлекающие алгоритмы проще в разработке. Абстрактивные модели создают более гладкие тексты. Генерирующие алгоритмы более сложные, но обрабатывают тексты не последовательно, а параллельно, что ускоряет обработку, и формируют реферативный текст со смысловыми вставками и подходящими связующими заменами. Однако данные модели требуют предобучения на больших корпусах новостных документов. Проанализировав различные подходы и модели реферирования текстов, можно сделать вывод, что, т. к. тексты в новостных статьях не специализированные, для формирования
подводок более всего подходят абстрактивные модели Pointer General Network и MBART. Модель Pointer General Network наравне с генерацией новых токенов может копировать токены из исходной последовательности, расширяя итоговый словарь предсказания слов. При использовании второй из выбранных моделей можно использовать уже существующие веса, т. к. в процессе обучения она тренировалась на многих языках, включая русский. Данная модель хорошо подходит для автоматического формирования подводок определенных размеров для статей публикуемого издания на различных интернет-ресурсах.
Заключение
Ежедневно новостные порталы с целью повышения трафика сайта распространяют статьи в социальных сетях. Для повышения эффективности их работы используются NLP-методы суммаризации (автореферирования) текста. Рассмотрены основные подходы (абстрактивный и экстрактивный) к сум-маризации, описаны их часто используемые модели. Проанализировав различные подходы и модели реферирования текстов, можно сделать вывод, что, т. к. тексты в новостных статьях не специализированные, для формирования подводок более всего подходят абстрактивные модели Pointer General Network и MBART.
Список источников
« s
о
о
я £
и ог
m и
1. Шибайкин С. Д., Егунова А. И., Аббакумов А. А. Анализ применения нейронных сетей, градиентного бустинга и метода ближайших соседей для классификации нормативно-справочной информации // Науч.-техн. вестн. Поволжья. 2020. № 2. С. 54-58.
2. Федосин С. А., Плотникова Н. П., Немчинова Е. А., Денискин А. В. Применение адаптированного алгоритма Word2Vec в решении задач классификации и кластеризации нормативно-справочной информации // Науч.-техн. вестн. Поволжья. 2020. № 11. С. 120-126.
3. Федюшкин Н. А., Федосин С. А. О выборе методов векторизации текстовой информации // Науч.-техн. вестн. Поволжья. 2019. № 6. С. 129-134.
4. Афонин В. В., Никулин В. В. Оптимизация марковских систем массового обслуживания с отказами в системе Ма1ЬаЬ // Вестн. Астрахан. гос. техн. ун-та. Сер.: Управление, вычислительная техника и информатика. 2018. № 1. С. 112-120.
5. Buyukkokten O., Garcia-Molina H., Paepcke A. Seeing the whole in parts: text summarization for web browsing on handheld devices // Proceedings of the 10th International Conference on World Wide Web. 2001. С. 652-662.
6. Luhn H. P. The Automatic Creation of Literature Abstracts // IBM Journal of Research and Development. 1958. V. 2. N. 2. P. 159-165. DOI: 10.1147 / rd.22.0159.
7. Linke-Ellis N. Closed captioning in America: Looking beyond compliance // Proceedings of the TAO Workshop on TV Closed Captions for the Hearing Impaired People. Tokyo, Japan. 1999. P. 43-59.
8. Батура Т. В., Бакиева А. М. Гибридный метод автореферирования научно-технических текстов на основе риторического анализа // Программные продукты и системы. 2020. Т. 33. № 1. С. 144-153. DOI: 10.15827/0236-235X.129.144-153.
У,
<
References
1. Shibaikin S. D., Egunova A. I., Abbakumov A. A. Analiz primeneniia neironnykh setei, gradientnogo bustinga i metoda blizhaishikh sosedei dlia klassifikatsii normativno-spravochnoi informatsii [Analysis of using neural networks, gradient boosting and nearest neighbor method for classification of reference information]. Nauchno-tekhnicheskii vest-nikPovolzh'ia, 2020, no. 2, pp. 54-58.
2. Fedosin S. A., Plotnikova N. P., Nemchinova E. A., Deniskin A. V. Primenenie adaptirovannogo algoritma Word2Vec v reshenii zadach klassifikatsii i klasterizatsii normativno-spravochnoi informatsii [Application of adapted
word2vec algorithm in solving problems of classification and clustering of reference information]. Nauchno-tekhnicheskii vestnikPovolzh'ia, 2020, no. 11, pp. 120-126.
3. Fediushkin N. A., Fedosin S. A. O vybore metodov vektorizatsii tekstovoi informatsii [On choosing methods for vectorizing textual information]. Nauchno-tekhnicheskii vestnik Povolzh'ia, 2019, no. 6, pp. 129-134.
4. Afonin V. V., Nikulin V. V. Optimizatsiia markovskikh sistem massovogo obsluzhivaniia s otkazami v sisteme MatLab [Optimization of Markov queuing systems with failures in MatLab system]. Vestnik Astrakhanskogo gosudarstvennogo
tekhnicheskogo universiteta. Seriia: Upravlenie, vychislit-el'naia tekhnika i informatika, 2018, no. 1, pp. 112-120.
5. Buyukkokten O., Garcia-Molina H., Paepcke A. Seeing the whole in parts: text summarization for web browsing on handheld devices. Proceedings of the 10th International Conference on World Wide Web, 2001, pp. 652-662.
6. Luhn H. P. The Automatic Creation of Literature Abstracts. IBM Journal of Research and Development, 1958, vol. 2, no. 2, pp. 159-165. DOI: 10.1147 / rd.22.0159.
7. Linke-Ellis N. Closed captioning in America: Looking beyond compliance. Proceedings of the TAO Workshop on TV Closed Captions for the Hearing Impaired People. Tokyo, Japan, 1999. Pp. 43-59.
8. Batura T. V., Bakiyeva A. M. A hybrid method for automatic summarization of scientific and technical texts based on rhetorical analysis. Software & Systems. 2020, vol. 33, no. 1, pp. 144-153 (in Russ.). DOI: 10.15827/0236-235X.129.144-153.
t CfQ
wn
k v s p
b >
y .
n
CfQ О
r 3
t r
Статья поступила в редакцию 19.09.2022; одобрена после рецензирования 08.12.2022; принята к публикации 12.01.2023 The article is submitted 19.09.2022; approved after reviewing 08.12.2022; accepted for publication 12.01.2023
i <
Информация об авторах / Information about the authors
и
CfQ
Алла Ивановна Егунова - кандидат исторических наук, доцент; доцент кафедры автоматизированных систем обработки информации и управления; Национальный исследовательский Мордовский государственный университет им. Н. П. Огарева; [email protected]
Роман Сергеевич Комаров - магистрант кафедры автоматизированных систем обработки информации и управления; Национальный исследовательский Мордовский государственный университет им. Н. П. Огарева; [email protected]
Юлия Сергеевна Вечканова - аспирант кафедры автоматизированных систем обработки информации и управления; Национальный исследовательский Мордовский государственный университет им. Н. П. Огарева; yuliу[email protected]
Ольга Игоревна Егунова - студент кафедры автоматизированных систем обработки информации и управления; Национальный исследовательский Мордовский государственный университет им. Н. П. Огарева; [email protected]
Дмитрий Петрович Сидоров - кандидат технических наук, доцент; доцент кафедры автоматизированных систем обработки информации и управления; Национальный исследовательский Мордовский государственный университет им. Н. П. Огарева; [email protected]
Сергей Дмитриевич Шибайкин - кандидат технических наук; доцент кафедры инфокоммуникационных технологий и систем связи; Национальный исследовательский Мордовский государственный университет им. Н. П. Огарева; [email protected]
Владимир Валерьевич Никулин - кандидат технических наук, доцент; заведующий кафедрой инфокомму-никационных технологий и систем связи; Национальный исследовательский Мордовский государственный университет им. Н. П. Огарева; [email protected]
Alla I. Egunova - Candidate of Sciences in History, Assistant Professor; Assistant Professor of the Department of Automated Information Processing and Control Systems; National Research Ogarev Mordovia State University; [email protected]
Roman S. Komarov - Master's Course Student of the Department of Automated Information Processing and Control Systems; National Research Ogarev Mordovia State University; [email protected]
Yuliya S. Vechkanova - Postgraduate Student of the Department of Automated Information Processing and Control Systems; National Research Ogarev Mordovia State University; [email protected]
Olga I. Egunova - Student of the Department of Automated Information Processing and Control Systems; National Research Ogarev Mordovia State University; [email protected]
Dmitry P. Sidorov - Candidate of Sciences in Technology, Assistant Professor; Assistant Professor of the Department of Automated Information Processing and Control Systems; National Research Ogarev Mordovia State University; [email protected]
Sergei D. Shibaikin - Candidate of Sciences in Technology; Assistant Professor of the Department of Infocommunication Technologies and Communication Systems; National Research Ogarev Mordovia State University; [email protected]
Vladimir V. Nikulin - Candidate of Technical Sciences, Assistant Professor; Head of the Department of Infocommunication Technologies and Communication Systems; National Research Ogarev Mordovia State University; nikulinvv@mail. ru
i n
i
l n
A »