Научная статья на тему 'Признаки энтропии и негэнтропии в языковой системе'

Признаки энтропии и негэнтропии в языковой системе Текст научной статьи по специальности «Языкознание и литературоведение»

CC BY
722
110
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ЛИНГВОСИНЕРГЕТИКА / ДИССИПАТИВНАЯ СТРУКТУРА / ЭНТРОПИЯ ЯЗЫКА / НЕГЭНТРОПИЯ ЯЗЫКА / ПРИЗНАКИ ЭНТРОПИИ / ПРИЗНАКИ НЕГЭНТРОПИИ / LINGUO-SYNERGETRICS / DISSIPATIVE STRUCTURE / ENTROPY OF LANGUAGE / LANGUAGE NEGENTROPY / SIGNS OF ENTROPY / SIGNS OF NEGENTROPY

Аннотация научной статьи по языкознанию и литературоведению, автор научной работы — Некипелова Ирина Михайловна

Статья посвящена исследованию энтропии в языке. Сложность описания энтропии связана с тем, что она не является материальным фактором развития языка, поскольку и сам язык является не реальной, а мыслимой категорией, существующей исключительно в мышлении людей. Именно поэтому современные исследования, посвящённые изучению и исчислению энтропии, сосредоточены на речевом и текстовом материале. Для того чтобы получить представление об энтропии языка, а не его речевого выражения, необходимо исследовать энтропию не множества субъективных языков, а структуру объективного языка, то есть язык как модель. Исследование показало, что в системе естественного языка признаками энтропии выступают такие языковые явления, как синонимия, полисемия, языковая избыточность, вариативность форм, лояльность и гибкость правил, наличие стилей. Эти признаки выявляются в сопоставлении с признаками абсолютно систематизированной языковой системы, которая выступает как гипотеза. Энтропия такой системы сведена к нулю. Энтропии противопоставлена негэнтропия как отрицательная энтропия. Маркерами негэнтропии в свою очередь являются омонимия, отсутствие синонимии, инвариантность, строгие правила языка, моностиль.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ENTROPY AND NEGENTROPY SIGNS IN LANGUAGE SYSTEM

The article is devoted to research of entropy in language. Complexity of the description of entropy is connected with that it is not a material factor of development of language, because language is not real, but the imaginable category, existing only in humans thinking. For this reason the modern researches devoted to studying and calculating of entropy are concentrated on the speech and text material. For understanding of the idea of entropy of language (not of its speech expression) it is necessary to investigate the entropy of structure of objective language, not sets of subjective languages, i.e. language as model. The research has showed that in system of a natural language signs of entropy are such language phenomena as synonimy, polysemanticism, language redundancy, variability of forms, loyalty and flexibility of rules, existence of styles. These signs are detected in comparison with signs of absolutely systematized language system, acting as a hypothesis. Entropy of such system is reduced to zero. The negentropy as negative entropy is opposed to entropy. Negentropy markers are homonymy, absence of a synonimy, invariancy, strict rules of language, monostyle.

Текст научной работы на тему «Признаки энтропии и негэнтропии в языковой системе»

DOI: 10.12731/2218-7405-2013-9-58 УДК 81.1

ПРИЗНАКИ ЭНТРОПИИ И НЕГЭНТРОПИИ В ЯЗЫКОВОЙ СИСТЕМЕ

Некипелова И.М.

Статья посвящена исследованию энтропии в языке. Сложность описания энтропии связана с тем, что она не является материальным фактором развития языка, поскольку и сам язык является не реальной, а мыслимой категорией, существующей исключительно в мышлении людей. Именно поэтому современные исследования, посвящённые изучению и исчислению энтропии, сосредоточены на речевом и текстовом материале. Для того чтобы получить представление об энтропии языка, а не его речевого выражения, необходимо исследовать энтропию не множества субъективных языков, а структуру объективного языка, то есть язык как модель. Исследование показало, что в системе естественного языка признаками энтропии выступают такие языковые явления, как синонимия, полисемия, языковая избыточность, вариативность форм, лояльность и гибкость правил, наличие стилей. Эти признаки выявляются в сопоставлении с признаками абсолютно систематизированной языковой системы, которая выступает как гипотеза. Энтропия такой системы сведена к нулю. Энтропии противопоставлена негэнтропия как отрицательная энтропия. Маркерами негэнтропии в свою очередь являются омонимия, отсутствие синонимии, инвариантность, строгие правила языка, моностиль.

Ключевые слова: лингвосинергетика; диссипативная структура; энтропия языка; негэнтропия языка; признаки энтропии; признаки негэнтропии.

ENTROPY AND NEGENTROPY SIGNS IN LANGUAGE SYSTEM

Nekipelova I.M.

The article is devoted to research of entropy in language. Complexity of the description of entropy is connected with that it is not a material factor of development of language, because language is not real, but the imaginable category, existing only in humans thinking. For this reason the modern researches devoted to studying and calculating of entropy are concentrated on the speech and text material. For understanding of the idea of entropy of language (not of its speech expression) it is necessary to investigate the entropy of structure of objective language, not sets of subjective languages, i.e. language as model. The research has showed that in system of a natural language signs of entropy are such language phenomena as synonimy, polysemanticism, language redundancy, variability of forms, loyalty and flexibility of rules, existence of styles. These signs are detected in comparison with signs of absolutely systematized language system, acting as a hypothesis. Entropy of such system is reduced to zero. The negentropy as negative entropy is opposed to entropy. Negentropy markers are homonymy, absence of a synonimy, invariancy, strict rules of language, monostyle.

Keywords: linguo-synergetrics; dissipative structure; entropy of language; language negentropy; signs of entropy; signs of negentropy.

Введение. Понятие энтропия является одним из основных понятий теории синергетики. Энтропия представляет собой степень неупорядоченности системы и широко используется в работах зарубежных и отечественных исследователей для прогнозирования поведения сложных систем [1, 9, 20], в том числе и языковых систем [2, 22, 25].

Постановка проблемы. Вопреки мнениям некоторых современных учёных-лингвистов, считающих, что лексическая система языка (и,

следовательно, вся языковая система) «относится к тому числу открытых диссипативных систем, в которых энтропия не действует» [4, с. 55], следует всё же констатировать наличие в языке энтропии. Она характеризует степень неопределенности и неупорядоченности естественной языковой системы. Основные характеристики энтропии в отношении сложной системы, и в том числе языковой, сводятся к следующему:

1) «Во-первых, она обращается в нуль, когда одно из состояний системы достоверно, а другие - невозможны» [20]. Эту характеристику можно применить к такой языковой системе, в рамках которой осуществлена абсолютная стандартизация всех её единиц и правил оперирования ими. Такая ситуация в естественной языковой среде невозможна, поскольку существуют такие формы объективного языка, которые стандартизировать не представляется возможным. Следовательно, любое состояние языка оказывается вероятным, а энтропия такого языка будет выше нуля. Эта характеристика описывает энтропию функционирования языка.

2) «Во-вторых, при заданном числе состояний она обращается в максимум, когда эти состояния равновероятны, а при увеличении числа состояний - увеличивается» [20]. Эта характеристика описывает энтропию развития естественного языка, поскольку развитие сопровождается изменением объёма языка и, как следствие, увеличением информативности языка.

3) В-третьих, «она обладает свойством аддитивности, т. е. когда несколько независимых систем объединяются в одну, их энтропии складываются» [20]. Это соответствует пониманию языка как системы подсистем и позволяет рассматривать энтропию с учётом принятой в лингвистике теории стратификации языка.

В целом наличие энтропии в языке не вызывает сомнений, однако увидеть конкретные проявления энтропии в языке очень сложно. Попробуем разобраться, какие языковые явления свидетельствуют о том, что энтропия в языке есть.

Обсуждение проблемы. Язык является сложной, открытой, нелинейной, необратимой, постоянно развивающейся системой [12]. Многие исследователи говорят о том, что изменения, происходящие в системе, незаметны, потому что протекают очень медленно: «Изменения в языке происходят обычно настолько медленно, что говорящие не подозревают о них» [3]; «При медленных темпах развития языка изменения в пределах жизни одного поколения вообще незаметны» [5]. С этим положением, с одной стороны, можно согласиться, если говорить о таких глобальных перестройках языка, как актуализация в нём отвлечённого и абстрактного способов репрезентации мира, экспансия которых в языке занимает несколько столетий [10]. С другой стороны, рассматриваемое нами положение вряд ли применимо к явлениям более мелкого масштаба, таких как заимствование лексики, введение в оборот новых слов и пр. И если последние изменения фиксировать в языке вполне возможно, то изменения первого порядка зафиксировать весьма проблематично, поскольку «...we are constantly in the middle of language change that may not be noticeable for decades or even centuries. Some of the biggest and most lasting changes to language happen slowly and imperceptibly» [28]. Однако то, что общество не видит и не чувствует происходящие в языке изменения, не отменяет их наличие. Зафиксировать такие изменения позволяют достижения других наук, зачастую смежных лингвистике, например, данные математической или прикладной лингвистики, теории информации и пр.

О постоянных изменениях в языке свидетельствует энтропия языка -мера неупорядоченности в языке. Возникающая в языке неупорядоченность обусловливает информационный рост системы и её развитие, и, следовательно, «возрастающая энтропия соответствует самопроизвольной эволюции системы» [16, с. 112]. В свою очередь «эволюцию можно рассматривать как проблему структурной устойчивости» [15, с. 22]: наличие в языке определённой степени хаоса приводит, с одной стороны, к информационным ошибкам, а с другой - к информационным возможностям.

По всей видимости, в системе вербального средства коммуникации биологического вида Homo sapiens существует энтропия двух разных порядков: на более общем уровне можно говорить об энтропии языка, на множестве частных уровней можно говорить об энтропии речи - выборе из многообразия средств языка таких, которые в максимальной степени будут удовлетворять потребности коммуникантов в общении в конкретной ситуации. Энтропию речи сейчас достаточно успешно исследуют специалисты различных научных областей, поскольку материальная выраженность речи позволяет выявить особенности отбора языковых средств, частоту их употребления, особенно если речь идет об анализе текстов и корпусов текстов [25]. Энтропия речи фиксирует незначительные изменения, постоянно корректирующие функционирование средств языка в речи. Напротив, исследования энтропии языка представлены теоретическими выкладками, поскольку язык «представляет собой не реальное, а мыслимое единство», и в целом «в мышлении каждого человека язык представлен как специфическая структура, модель, состоящая из отдельных элементов, связанных между собой различными отношениями» [14, с. 198]. Энтропия речи - это энтропия функционирования языковых элементов, представляющих то или иное языковое состояние, а энтропия языка - это энтропия развития языковой системы. И тем не менее разрывать язык и речь не представляется возможным. В настоящее время исчисление энтропии языка во многом осуществляется через речь носителей языка [25]. На наш взгляд, эти расчёты носят условный характер, но других способов получения точных данных у современной науки в арсенале пока нет. Однако для описания действия в языке энтропии как фактора его развития можно выявить те языковые явления, которые необходимо рассматривать в качестве признаков энтропии.

Как уже было неоднократно сказано, язык является системой, но системой неуниверсального характера. Неуниверсальность и нестабильность языковых процессов затрудняет исследование структуры языка. Для того чтобы

выявить признаки энтропии языка, определим, какой бы была система, если бы ей не была присуща энтропия.

Система языка без энтропии в противовес всем существующим естественным системам, во-первых, должна быть закрытой. О линейности и обратимости системы смысла говорить нет, поскольку закрытая система не предполагает развития вообще. Во-вторых, такая система должна быть абсолютно упорядоченной, в противном случае языковые ошибки, «зашитые» в системе, невозможно будет преодолеть. Итак, закрытая упорядоченная система должна быть абсолютно систематизированной, то есть должна представлять собой абсолютную систему. В-третьих, абсолютная языковая система должна быть универсальной и, как следствие, инвариантной. Она должна охватывать весь мир, то есть быть глобальной, и в ней должны быть репрезентированы все объекты и явления мира. Это общие характеристики абсолютной языковой системы.

Универсальность языковой системы в данном случае должна пониматься не через призму теории языковых универсалий, объединяющих все языки мира и свидетельствующих о некоторых универсальных категориях, присущих мышлению всех представителей человечества. Языковые универсалии, свидетельствующие об универсальном в какой-то степени мышлении людей и наций, составляющих человечество, зачастую видятся учёными основным принципом, фундаментом языка как феномена человеческой деятельности. Однако с точки зрения теории развития языка «.the places where linguists traditionally look to see universals are not where the fundamentals of language are» [24]. Языковая эволюция обусловлена не совпадением и единообразием языков, а их разнообразием, реализующим способности к адаптации к внешней среде.

Инвариантность предполагает отсутствие любых вариантов единиц, правил и форм, любой явной или мнимой альтернативы языковых единиц или их форм. Инвариантность является признаком стандартизации и стабильности языковой системы. Инвариантность не отражает преемственность состояний

языка разных поколений, она объединяет все поколения в единых стандартных рамках употребления единиц и их форм.

Глобальность абсолютной системы предполагает охват мира, всех его объектов. Всеохватность языка отказывает системе в развитии, у системы нет потенциала, поскольку познавать в мире больше нечего - всё формализовано в языке. Язык и речь становятся не соотносимыми, а совпадающими категориями теоретического и практического значения. В таком языке не остаётся места личности. Да, такой язык лёгок в усвоении, но он тяжёл для самовыражения личности.

На частном уровне в абсолютной системе должны быть представлены следующие языковые явления:

1) одному плану содержания должен соответствовать один план выражения (лексико-семантический аспект),

2) в языке должны действовать однозначные правила (грамматический аспект);

3) язык должен функционировать в рамках одного стиля, то есть должен быть бесстилевым (стилистический аспект);

Перед нами абсолютно упорядоченный язык - мечта специалиста, занимающегося нормами языка. Энтропия такой системы будет равняться 0. Но и жизнеспособность этой системы будет оцениваться 0. Закрытость системы неизбежно приведет языковую систему к ограниченности и, как результат, к смерти. Так, ограниченность языков программирования - расплата за их универсальность: менее функциональные языки программирования сменяются более функциональными и оказываются забытыми.

Абсолютный язык - это утопия, которой, к счастью, не дано быть реализованной в естественной среде. Так, одной из целей создания искусственных языков является устранение логических ошибок, характерных для естественных языков и затрудняющих их освоение. Энтропию в таких системах за счёт искусственной организации языковой системы пытаются

свести к 0. Но рано или поздно искусственные языки, имеющие широкое обращение, начинают вести себя как естественные. Показатель же любого естественного языка выше 0 и не стремится к нему. К нулю может стремиться лишь показатель умирающего языка, а «"жизнь" языка, напротив, потенциально бесконечна» [8, с. 39].

Мы не можем обозначить энтропию через какое-либо число без отношения к 0, потому что любое число является точным показателем энтропии в языке, а точные методики исчисления пока разрабатываются и требуют множественной проверки, поэтому примем за основание, что энтропия естественного языка будет колебаться от показателя выше 0 до бесконечности. Кроме того, необходимо учитывать, что язык развивается неравномерно, а скачкообразное его развитие говорит о том, что в разные эпохи энтропия языка меняет свой показатель.

Разберём каждый признак степени упорядоченности системы по отдельности в отношении абсолютной и неабсолютной систем.

1. Соответствие / несоответствие одного плана содержания одному плану выражения. Соответствие одного плана содержания одному плану выражения говорит о том, что одному языковому знаку приписывается одно его понимание (значение) и один языковой знак определяет один денотат, то есть один языковой знак соответствует одному денотату. Это должно свидетельствовать о том, что смысловой объём слова статичен, не изменяется с течением времени, не обусловлен сменой эпох и пр. Любой знак конвенционализирован и строго стандартизирован.

Соотношение плана выражения и плана содержания с показателем 1:1 характерно для явления омонимии. Следовательно, абсолютный язык составляют омонимы, а полисемия исключена из него как невозможное явление. Однако нами доказано, что в естественном языке одновременно присутствуют явления полисемии и омонимии [26], соответствующие процессам семантической деривации и семантического словообразования [11].

Расширение, сужение или иное изменение объёма лексической единицы воспринимается как неупорядоченность, а показатель энтропии языка в целом определяется «средним количеством информации на символ» [18]. Следовательно, маркером абсолютной системности является омонимия, маркером энтропии - полисемия. Это положение соответствует теореме Пригожина (теорема термодинамики равновесных процессов), доказанной И. Пригожиным в 1947 г. в рамках термодинамики, согласно которой «при данных внешних условиях, препятствующих достижению системой равновесного стояния, стационарному (неизменному во времени) состоянию системы соответствует минимум производство энтропии. Если таких препятствий нет, то производство энтропии достигает своего абсолютного минимума - нуля» [17]. Именно поэтому теория омонимии не выдерживает критики: если язык абсолютно и полностью состоял бы из омонимов, энтропия, определяющая развитие языка, была бы равна 0.

Естественный язык попеременно проходит этапы восстановления и нарушения условного (не абсолютного!) порядка. На лексико-семантическом уровне нарушение порядка характеризуется изменениями в смысловой структуре слова. Изменение смыслового объёма приводит к деривации смыслов, а затем и к словообразованию - процессу рождения нового слова, у которого лишь со временем появится возможность закрепиться в языке.

Отсутствие любого изменения объёма слова не даёт ему возможности выйти за пределы предметности в узком понимании, поскольку смысловые изменения в структуре слова, и прежде всего метонимия и метафора, - это нарушение уже имеющихся смысловых границ слова. Невозможными становятся синкретичность понятий, поскольку слово не может значить многое, и использование символов. Человечество лишается возможности выхода на новый уровень мышления (отвлечённый или абстрактный) и постоянно осознаёт исключительно предметную действительность.

Одним из основных постулатов о языке является положение о том, что язык способен выразить все понятия и мысли человека. Отсутствие вариативности единиц в абсолютном языке предполагает отсутствие вариативности мышления людей. Однако реальная разница в мышлении людей неизбежно порождает разницу в интерпретации мира. И это касается не только таких отвлечённых и абстрактных понятий, как надежда, счастье, но и предметных. Употребление любого слова даже с предметным значением вызывает у человека индивидуальные представления и ассоциации. Так, слово дерево у кого-то в первую очередь будет ассоциироваться с берёзой, у кого-то с дубом и пр. На основе включения в естественный язык индивидуальных представлений о мире формируется конкуренция и смена нормативных вариантов, отбор стилистических средств и пр. Не имея таких возможностей, абсолютный язык в результате, конечно, лишится речевых ошибок, но у него не будет и речевых возможностей.

Однозначность восприятия языковой ситуации делает процесс кодирования и декодирования информации идентичными. Но в такой системе существуют только полярности, в ней не переходов. Так, в языке не будет места существованию двух единиц, которые в одном контексте будут составлять антонимичную пару, а в другом - синонимичную. Например, являясь стилистическими и оценочными синонимами, слова белокурый - белобрысый в определённом контексте в естественном языке могут выступать как антонимы: Аптекарша была белокурая, лимфатическая, высокая, очень недурная собой, но вялая и сонная женщина, она была чрезвычайно добра, да и трудно было, при такой комплекции быть злою. Убедившись однажды, что её муж - муж её, она тихонько и ровненько любила его, занималась кухней и бельём, читала в свободные минуты романы и в своё время благополучно родила аптекарю дочь, белобрысую и золотушную. (А.И. Герцен «Былое и думы»). В абсолютном языке одно из слов в этой паре должно быть навсегда потерянным. Синонимия, будучи вообще недостаточно определённой категорией в языке, в абсолютном

языке ставится под удар в первую очередь: две единицы языка с одинаковым значением языку ни к чему, а несколько единиц с близким значением делают язык неустойчивой системой, так как формируют ситуацию выбора, противоречащую природе абсолютного языка. Безальтернативность связей предполагает однозначность этих связей. Следовательно, в абсолютном языке выстраиваются строгие отношения антонимии и гиперо-гипонимии. Однако в такой системе нет места явлению синонимии, поскольку синонимия, хоть и не существует в полной и абсолютной степени, но нарушает однозначность отношений. Абсолютный язык устраняет из своего состава синонимию, а также стилистические расхождения, экспрессивность и оценочность как явления, сопутствующие синонимии.

Описанные процессы связаны с однозначностью / неоднозначностью прочтения текста и восприятия речи. Однозначность прочтения текста или восприятия речи свидетельствует о том, что процессы кодирования продуцирующего субъекта речи и декодирования воспринимающего субъекта речи идентичны. В таком тексте отсутствует реализация контекстуальных значений слов, когда текст воспринимается как интерпретация мира. Однозначность прочтения убивает метафору и метонимию, а также вообще всякую образность. Такой язык стремится к минимальному уровню активности, он становится несовместимым с жизнью человека и общества.

В абсолютной системе все знаки языка существуют с самого зарождения языковой системы, они возникли как готовые для употребления элементы, связаны неизменными отношениями, сам язык с самого начала представляет собой готовую систему коммуникации и, как следствие этого, закрытую. Исчезает необходимость словообразования как средства пополнения словаря. Закрытость системы лишает человечество адаптации к среде, так как язык не может не только включить в свой состав единицу другого языка, но образовать своими силами новую единицу. Развитие общества останавливается, и любой информационный вызов среды может нанести смертельный ему удар.

Здесь следует несколько конкретизировать само понятие информация. Словари дают следующее толкование: информация «(лат. informatio -разъяснение, изложение, осведомлённость) - одно из наиболее общих понятий науки, обозначающее некоторые сведения, совокупность каких-либо данных, знаний и т.п.» [6]. Однако, если обратиться к теории информации, можно увидеть чёткое расхождение понятий данные и информация. Информация - это способ интерпретации данных. В большинстве наук эти два понятия синонимичны, но в области программирования (создания и использования языков программирования) они расходятся в значениях. Человек использует или получает языковые данные (единицы языка и правила оперирования ими) и интерпретирует их в соответствии со своими языковыми установками (языковым опытом, языковой ориентацией и пр.). Информационный процесс -это кодирование и декодирование речи с помощью данных языка. Язык - это данные, возникшие как результат интерпретации мира. Как только процесс декодирования завершён, всё, что оказалось понятым человеком, откладывается в его субъективной языковой системе как данные таким образом, как было понято, но, возможно, не так, как было заявлено и задумано субъектом речи. Любое сообщение несёт в себе информацию и порождает её, поскольку само продуцирование сообщения предполагает предварительный отбор средств языка, выступающих в языке как данные. Наиболее просто этот процесс можно описать в следующей ситуации: человек, услышав высказывание на неизвестном ему языке, не сможет интерпретировать его. Таким образом, данные одного языка, закодированные в речи одного человека, не смогут быть декодированы человеком, носителем другого языка, и, следовательно, не смогут породить информацию.

Возвращаясь к признакам абсолютного языка, скажем, что языковой знак в такой системе имеет стандартизированное, универсальное для всех говорящих значение. В таком языке исчезает необходимость в индивидуальной интерпретации знака, в целом не выходящей за рамки общественной

договорённости, а это приводит к устранению коннотаций языкового знака и его смыслового наполнения. Такой язык перестаёт обслуживать нужды отдельных людей, убивает авторское начало. Речь всех людей становится одинаковой, одинаково правильной, так как система не допускает ошибок. Возникает безликость языка и безликость людей и обществ.

Вот здесь можно было бы возликовать: наконец-то задача правильности речи становится решённой! Однако никто не гарантирует того, что все люди, используя такую языковую систему, будут говорить на литературной форме языка, ведь не будет и самого понятия форма языка. Если учитывать тот факт, что литературная форма языка складывалась на базе произведений писателей и поэтов, уровень владения языком которых является прецедентным [13, с. 313], то следует констатировать и то, что преобладающая часть носителей языка не может не только использовать такой язык для продуцирования речи, но и в полной степени воспринимать его. Об этом свидетельствует и понимание литературного языка как высшей (!) формы национального языка. Следовательно, абсолютно системный язык не может быть литературным языком. Такой язык есть усреднённый вид системы, отражающей потребности абсолютного большинства людей, владеющих языком на среднем уровне. Как следствие, такой язык оказывается лишённым творческого потенциала.

2. Строгие / лояльные правила языка. Язык как система состоит из элементов разного порядка: 1) единиц языка, 2) связей между ними, 3) правил оперирования языковыми единицами. Знание связей между единицами позволяет человеку сделать правильный выбор единиц из ряда других. Знание правил обеспечивает возможность объединения отобранных единиц в высказывания.

Основной принцип функционирования элементов языка - это объединение слов на основании определённых правил: «Having words, and having rules for how the words are ordered, maybe those are the things that help you do the really basic functions of language» [25]. Правила языка обусловливают

упорядоченность языковой системы: «Нетрудно заметить, что в общем случае "порядком" называется состояние материальной системы, при котором её элементы связаны повторяющимися (регулярными) отношениями (соответственно, движения элементов имеют регулярный характер). "Хаосом" же, или беспорядком обозначают такое состояние, при котором элементы системы связаны неповторяющимися (нерегулярными) отношениями (Соответственно движения элементов имеют нерегулярный характер). Смысл обсуждаемых понятий можно передать и другими словами, говоря, что порядок - это пространственно-временная корреляция между элементами некоторого множества, а хаос - отсутствие такой корреляции» [1]. Следовательно, порядок всегда является признаком упорядоченности системы [7, с. 13; 21, с. 183].

Развёртывание речи / текста происходит в результате действия алгоритма объединения слов в высказывания. Это аспект по преимуществу грамматический, но, как известно, на уровне грамматики (синтаксиса и морфологии) также выражается смысл: «Language carries meaning both in the words we choose, and the order we put them in» [24]. И более того, человек использует язык исключительно для формализации своей мысли - для продуцирования устной или письменной речи, которая в свою очередь реализуется посредством синтагматического развёртывания высказывания. Естественный язык в этом аспекте представляется как система взаимосвязанных единиц, объединение которых регламентируется правилами, реализуемыми с помощью заданных языком алгоритмов. И «this consistency could hint at a single common ancestral language, or universal features of how human brains process speech» [24]. Коммуникация осуществляется не в виде использования отдельных слов, а в виде их синтагматического объединения, поскольку слова, не связанные друг с другом синтагматическими отношениями, не несут никакой информации, кроме той, которая уже известна всем участникам коммуникации как носителям языка.

Именно в семантико-грамматическом аспекте ведётся наибольшее количество работ, направленных на изучение энтропии языков, как за рубежом, так и в России. Зарубежные исследователи, изучая показатель энтропии языка, ориентируются на частоту использования слов и на порядок слов в высказывании. Так, A. Montemurro в своей работе пишет, что «the present paper is focused on assessing the specific impact of word ordering on the entropy of language» [25]. При этом степень языкового порядка, как и степень языковой неупорядоченности учёный склонен рассматривать как языковую универсалию: «In languages as diverse as Chinese, English and Sumerian, a measure of the linguistic order, in the way words are arranged, is something that seems to be a universal of languages» [25]. Действительно, энтропия является универсальным фактором развития языков, поэтому наличие энтропии является языковой универсалией.

Для построения текста люди используют словарь языка - слова, связанные с другими словами определёнными парадигматическими отношениями, однако этого недостаточно для кодирования и декодирования информации, поэтому для развёртывания предложения необходимо знание и использование правил языка: «If we destroy the original text by scrambling all the words, we are preserving the vocabulary» и «What we are destroying is the linguistic order, the patterns that we use to encode information» [25]. Тексты - это результат кодирования информации. Энтропия в устной и письменной речи будет присутствовать обязательно, поскольку речь - производное языка и в процессе продуцирования речи действует алгоритм отбора единицы языка из ряда других: «Written human languages encode information in the form of word sequences, which are assembled under grammatical and semantic constraints that create organized patterns. At the same time, these constraints leave room for the structural versatility that is necessary for elaborate communication» [27]. Сочетаемость единиц языка и ограничения, накладываемые на неё в

естественных языках, не только рекомендуют следовать правилам языка, но и дают возможность выбора способа коммуникации.

В этом отношении интересным представляется исследование, проведённое биологом М. Монтемерро и специалистом по атомной энергии и Д. Санетте. Учёные вычислили энтропию нескольких тысяч текстов на восьми различных языках: английском, французском, немецком, финском, тагальском, шумерском, древнеегипетском и китайском. Для получения данных энтропии учёные исследовали как упорядоченные, так и неупорядоченные тексты: «The researchers randomly rearranged all the words in the texts, which ranged from the complete works of Shakespeare to The Origin of Species to prayers written on Sumerian tablets» [24]. Интересно, что энтропия упорядоченных и неупорядоченных текстов оказалась постоянной: «But strangely, the difference in entropy between the original, ordered text and the randomly scrambled text was constant across languages. This difference is a way to measure the amount of information encoded in word order» [25]. И в том, и в другом случае учёные получили одинаковый результат энтропии, поскольку за основу они взяли одни и те же предложения: предложения в оригинале и предложения в свободной последовательности. При этом подходе учитывается одно из двух положений гипотезы: учитывается наличие или отсутствие правил языка в высказывании и не учитывается частота использования слов (их случайный отбор), так как слова в упорядоченных и неупорядоченных предложениях совпадают. Разница заключается в последовательности слов, а не в их отборе, поэтому результаты исследования можно учитывать только при характеристике правил, действующих в языках и наличествующих во всех языках. Следовательно, исчисление энтропии является условным, а чистый эксперимент в этой ситуации, как, впрочем, и во всех случаях с языком, невозможен. Все эти измышления дают возможность предположить, что в текстах, сконструированных человеком по правилам естественных языковых систем, наблюдается упорядоченная хаотичность языковых знаков, выражающаяся в

отборе языковых средств индивидуального характера. Такая речь и такие тексты несут смысл, в большей или меньшей степени понятный остальным носителям языка. Неупорядоченная хаотичность представляет собой последовательность языковых средств, при объединении которых не учитываются правила языка.

Интересным оказался и тот факт, что ценность энтропии для всех языков оказалась одинакова: «We found, very interestingly, that for all languages we got almost exactly the same value» [25]. Однако исследования в области энтропии дали результаты, подтверждающие расхождение в данных полной и относительной энтропии языков: «We computed a relative entropy measure to quantify the degree of ordering in word sequences from languages belonging to several linguistic families. While a direct estimation of the overall entropy of language yielded values that varied for the different families considered, the relative entropy quantifying word ordering presented an almost constant value for all those families» [25]. Следовательно, ценность полной энтропии зависит от специфики языка, его особенностей в области грамматики и семантики, однако мера универсальной энтропии всех языков представляет собой универсальный показатель: «To that end, we estimated the entropy of languages belonging to different linguistic families. Our results show that the value of the total entropy depends on the particular language considered, being affected by the specific characteristics of grammar and vocabulary of each language. However, when a measure of the relative entropy is used, which quantifies the impact of word patterns in the statistical structure of languages, a robust universal value emerges across linguistic families» [25]. Таким образом, исчисления энтропии текстов были полностью перенесены на язык, а учёные приравняли энтропию языка к энтропии речи / текстов.

Учёные также предположили, что по каким-то причинам языки развивались таким образом, что они оставались ограниченными своей структурой и правилами объединения слов: «For some reason these languages

evolved to be constrained in this framework, in these patterns of word ordering» [25]. Именно этот порядок наложил ограничения на познавательные возможности человека: «This consistency could reflect some cognitive constraints that all human brains run up against, or give insight into the evolution of language» [24]. В целом «the researchers found that the original texts spanned a variety of entropy values in different languages, reflecting differences in grammar and structure» [24]. Значит, абсолютный язык в противовес всем имеющимся современным естественным языкам, должен обладать абсолютными правилами грамматики и точным (инвариантным) порядком слов. Всё это снижает энтропию до показателя 0. Зарубежные учёные убеждены, что «a rigorous measure of the degree of order in any symbolic sequence is given by the entropy» [23]. Однако «to comprehend the meaning of the entropy of language it is important to bear in mind that linguistic structures are present at various levels of organization, from inside individual words to long word sequences. The entropy of a linguistic sequence contains contributions from all those different organizational levels» [25]. Именно поэтому исследования синтаксиса должны учитывать и энтропию других уровней языка.

Несмотря на различия в структуре и словаре языков, функционирование правил - явление статистическое и универсальное: «Our results indicate that despite the differences in the structure and vocabulary of the languages analyzed, the impact of word ordering in the structure of language is a statistical linguistic universal» [25]. Следовательно, энтропию надо рассматривать как особенность мышления человека: «The particular degree of order versus disorder may either be a feature of each individual language, related to its specific linguistic rules, or it may reflect a universal property of the way humans communicate with each other» [25]. Однако следует учитывать общечеловеческий, национальный и индивидуальный план мышления. Из этого положения следует вывод, что энтропия объективных языков и энтропия субъективных языков может иметь разные показатели.

3. Моностиль / наличие разных стилей. Любой естественный язык в своём развитии на определённом этапе начинает стилистически расслаиваться. Появление в языке стилистически маркированных слов способствует более полному и точному выражению мыслей человека: наличие у слов стилистической окраски формирует вариативность выбора слов и употребления их форм за счёт возможной в рамках естественного языка альтернативы выражения мысли. Расширение сферы охвата языка в свою очередь определяет его жизнеспособность, а стилистическое расслоение языка в данном случае -один из способов адаптации языка к среде. Следовательно, стилистическое расслоение языка является показателем неупорядоченности языка и признаком энтропии.

В абсолютном языке, напротив, универсальность уничтожает саму необходимость стилистики, поскольку стилистика предполагает дублирование языковых средств, что приводит прежде всего к синонимии и к языковой избыточности. Понятие стиля в абсолютном языке должно быть нейтрализовано как излишнее для функционирования системы. В результате вместо нескольких функциональных стилей в языке остаётся единый стилистический монолит, а вся языковая система превращается в моностиль.

Таким образом, к признакам энтропии следует отнести: полисемию (наличие коннотаций и дополнительных смыслов), синонимию, стилистическое расслоение, словообразование, мобильные грамматические правила, возможности разночтения, то есть любые явления языковой вариативности, избыточности и открытости. Все эти явления способствуют развитию языка.

Постоянное развитие языка, его эволюция обусловлены наличием в системе некоторой неупорядоченности. Энтропия необходима для поддержания жизнеспособности языка. Однако постоянное увеличение энтропии языка в сторону бесконечности должно привести язык к полной неупорядоченности, и в этом отношении язык также должна постигнуть смерть, как и полное отсутствие энтропии, так как люди, использующие язык, будут вкладывать

исключительно индивидуальный смысл в высказывания и престанут понимать друг друга. Множество субъективных языков перестанут пересекаться, а система объективного языка распадётся, прекратив своё существование, -система перестанет быть системой.

Этому процессу противодействует негэнтропия языка. Термин негэнтропия противопоставляется термину энтропия и обозначает степень упорядоченности языковой системы. Впервые понятие «отрицательной энтропии» предложил в 1943 г. австрийский физик Э. Шредингер. Он продолжил идеи Н. Бора о глубокой связи физических и философских законов, согласно которым общечеловеческие знания объединяются до идеи единства мира. Термин негэнтропия был введён американским физиком Л. Бриллюэном в работе «Научная неопределенность и информация» в рамках теории информации.

Итак, явление негэнтропии противостоит явлению энтропии. Живая система экспортирует из среды негэнтропию для самосохранения: «Живой организм непрерывно увеличивает свою энтропию, или, иначе, производит положительную энтропию и, таким образом, приближается к опасному состоянию максимальной энтропии, представляющему собой смерть. Он может избежать этого состояния, то есть оставаться живым, только постоянно извлекая из окружающей его среды отрицательную энтропию. Отрицательная энтропия - это то, чем организм питается. Или, чтобы выразить это менее парадоксально, существенно в метаболизме то, что организму удается освобождаться от всей той энтропии, которую он вынужден производить, пока жив» [19]. Негэнтропия - движение к упорядочению и организации системы. Таким образом объясняется поведение самоорганизующихся систем.

Самоорганизация языковой системы предполагает преодоление энтропии языка за счет негэнтропии. Такие последовательные или скачкообразные изменения определяют постоянную смену состояний языка. Рассмотренная нами выше абсолютная система языка - это система с максимальной

негэнтропией, стремящейся к бесконечности. Среди языковых явлений маркерами негэнтропии являются омонимия (отсутствие полисемии), отсутствие синонимии, строгие правила, моностиль. Если в языке будет отсутствовать энтропия, то со временем организовывать в системе будет нечего, поскольку она будет максимально организованной и абсолютно нежизнеспособной.

Энтропия способствует развитию языковой системы, поскольку стремление системы к хаосу вносит в язык индивидуальное начало, исходящее от субъективных языков. Негэнтропия, напротив, стабилизирует язык, она вносит в язык универсальное, концентрирующееся в объективном языке. Любая развитая естественная система состоит из разных форм, обеспечивающих коммуникацию различных слоёв общества. Естественно предположить, что энтропия и негэнтропия даже одной объективной системы будет представлена по-разному в разных формах языка: в официальном языке будет превалировать негэнтропия, поскольку это наиболее стабильная и стандартизированная форма языка, а в разговорной форме будет преобладать энтропия, поскольку это наиболее субъективная форма языка. Интересным в этом аспекте является литературный язык. С одной стороны, он является образцом и высшей формой национального языка, он оберегается учёными и государством, а с другой -именно эта форма языка путём включения в себя субъективных языков писателей и поэтов реализует потенциал языковой системы.

Вывод. В языке постоянно действуют неупорядоченность и неопределённость, измеряемые энтропией. Энтропия привносит в язык уникальность и составляет потенциал языка. Параллельно с этим в языке действуют упорядоченность и определённость, измеряемые негэнтропией и стабилизирующие языковую систему. Негэнтропия обусловливает самоорганизацию языковой системы. Выявление признаков энтропии и негэнтропии способствует выявлению механизмов развития языковой системы. В условиях языковой глобализации и антропологического кризиса, о котором

всё чаще и чаще говорят учёные, знания об энтропии и негэнтропии языка дают возможность прогнозировать поведение языковой системы в современных условиях и направить силы языка на преодоление кризиса.

Список литературы

1. Бранский В. П. Общество как диссипативная структура // Бранский В. П. Искусство и философия [Электронный ресурс]. URL: http://bukharapiter.ru/content/view/812/ (дата обращения 14.07.2013).

2. Буданов В. Г. Принципы синергетики и язык // Философия науки. 2002. Вып. 8. С. 340-353.

3. В английском языке зафиксированы неуловимые изменения [Электронный ресурс]. URL: http://polit.ru/news/2013/07/10/ps_english_change/ (дата обращения 14.07.2013).

4. Вардзелашвили Ж. А. Лексическая система языка как открытая диссипативная структура // International Scientific periodical «Modern Fundamental and Applied Researches». 2012 № 1(4). С. 55-60.

5. Евграфова С. М. Ещё раз о культуре речи // Русский язык [Электронный ресурс]. URL: http://rus.1september.ru/article.php?ID=200403101 (дата обращения 14.07.2013).

6. Информация // Новейший философский словарь [Электронный ресурс]. URL: http://www.gumer.info/bogoslov_Buks/Philos/fil_dict/297.php (дата обращения 14.07.2013).

7. Карери Д. Порядок и беспорядок в структуре материи. М.: Мир, 1985.

232 с.

8. Келлер Р. Языковые изменения. О невидимой руке в языке. / Пер. с нем. и вступ. ст. О. А. Костровой. Самара: СамГПУ, 1997. 308 с.

9. Коротаев С. М. Энтропия и информация - универсальные естественнонаучные понятия [Электронный ресурс]. URL:

http://www.chronos.msu.ru/RREPORTS/korotaev_entropia/korotaev_entropia.htm (дата обращения 13.07.2013).

10. Некипелова И. М. К вопросу о разграничении понятий отвлечённость и абстрактность и роли категорий отвлечённости и абстрактности в развитии семантической системы русского языка // В мире научных открытий. Красноярск: Научно-инновационный центр, 2011. № 4.1(16). С. 682-689.

11. Некипелова И. М. К вопросу о разграничении понятий семантическая деривация и семантическое словообразование в диахроническом аспекте // Вестник ТГУ. Филология. № 2 (14) 2011. С. 33-46.

12. Некипелова И. М. Язык как уникальная открытая и саморазвивающаяся система // Современные исследования социальных проблем (электронный научный журнал). 2012. № 8 (16). URL: http://sisp.nkras.ru/e-ru/issues/2012/8/nekipelova.pdf.

13. Некипелова И. М. Судьба языка: механизмы зарождения, развития, стабилизации и угасания // В мире научных открытий. Красноярск: Научно-инновационный центр, 2012. № 11.3 (35). С. 297-334.

14. Некипелова И. М. Языковой опыт, языковая ориентация, языковое пространство // В мире научных открытий. 2013. № 3.2 (39). С. 185-206.

15. Николис Г., Пригожин И. Самоорганизация в неравновесных системах / Пер. с англ. М.: Мир, 1979. 512 с.

16. Пригожин И., Стенгерс И. Порядок из хаоса. Новый диалог человека с природой. М.: Прогресс, 1986. 432 с.

17. Пригожина теорема // Физический энциклопедический словарь / Гл. ред. А. М. Прохоров [Электронный ресурс]. URL: http ://dic.academic.ru/dic.nsf/enc_physics/2130/ПРИГОЖИНА (дата обращения 13.07.2013).

18. Семенов Ю. А. Базовые определения теории информации [Электронный ресурс]. URL: http://book.itep.ru/10/shennon.htm (дата обращения 14.07.2013).

19. Шредингер Э. Упорядоченность, неупорядоченность и энтропия // Трагедия свободы [Электронный ресурс]. URL: http://kirsoft.com.ru/freedom/KSNews_369.htm (дата обращения: 14.07.2013).

20. Энтропия как мера степени неопределенности состояния физической системы // Вентцель Е. С. Теория вероятностей [Электронный ресурс]. URL: http://sernam.ru/book_tp.php?id=104 (дата обращения: 12.07.2013).

21. Эткинс П. Порядок и беспорядок в природе. М. Мир, 1987. 224 с.

22. Berger A., Pietra D. A Maximum Entropy Approach to Natural Language Processing // Computational Linguistics. 1996. Vol 22. Рр. 39-71.

23. Cover T. M., Thomas J. A. Elements of information theory. Hoboken, N.J.: Wiley-Interscience, 2006. xxiv + 748 pp.

24. Grossman L. Entropy Is Universal Rule of Language [Электронный ресурс]. URL: http://www.wired.com/wiredscience/2011/05/universal-entropy/ (дата обращения 14.07.2013).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

25. Montemurro M., Zanette D. Universal Entropy of Word Ordering Across Linguistic Families // PLoS ONE, Vol. 6, Issue 5, May 13, 2011 [Электронный ресурс]. DOI: 10.1371/journal.pone.0019875 (дата обращения 14.07.2013).

26. Nekipelova I. On the question of hononymy and polysemy in the lexicographical practice of the Russian language system in its development modeling // Natural Language Processing, Multilinguality. Brno: Tribun EU, 2011. Р. 115-120.

27. Nowak M. A., Plotkin J. B., Jansen V. A. The evolution of syntactic communication Nature 404 [Электронный ресурс]. DOI: 10.1038/35006635 (дата обращения 14.07.2013).

28. Okrent A. 4 Changes to English So Subtle We Hardly Notice They're Happening [Электронный ресурс]. URL: http://mentalfloss.com/article/51362/4-changes-english-so-subtle-we-hardly-notice-theyre-happening#ixzz2Z01 KKyO 1 (дата обращения 14.07.1013).

References

1. Branskiy V. P. Obshchestvo kak dissipativnaya struktura [Society as Dissipative Structure]. http://bukharapiter.ru/content/view/812/ (accessed July 14, 2013).

2. Budanov V. G. Filosofiya nauki [Philosophy of Science], no. 8 (2002): 340-353.

3. V angliyskom yazyke zafiksirovany neulovimye izmeneniya [Unapparent Changes are Detected in English]. http://polit.ru/news/2013/07/10/ps_english_ change/ (accessed July 14, 2013).

4. Vardzelashvili Zh. A. Modern Fundamental and Applied Researches, no. 1(4) (2012): 55-60.

5. Evgrafova S. M. Eshche raz o kul'ture rechi [One More About Culture]. URL: http://rus.1september.ru/article.php?ID=200403101 (accessed July 14, 2013).

6. Informatsiya [Information]. http://www.gumer.info/bogoslov_Buks/Philos /fil_dict/297.php (accessed July 14, 2013).

7. Kareri D. Poryadok i besporyadok v strukture materii [Order and Disorder in the Structure of Matter]. Moscow: Mir, 1985. 232 p.

8. Keller R. Yazykovye izmeneniya. O nevidimoy ruke v yazyke [Language Changes. About Unvisible Hand in Language]. Samara: SamGPU, 1997. 308 p.

9. Korotaev S. M. Entropiya i informatsiya - universal'nye estestvennonauchnye ponyatiya [Entropy and Information as Universal Natural-science Conceptions]. http://www.chronos.msu.ru/RREPORTS/korotaev_entropia /korotaev_entropia.htm (accessed July 13, 2013).

10. Nekipelova I. M. V mire nauchnykh otkrytiy [In the World of Scientific Discoveries], no. 4.1(16) (2011): 682-689.

11. Nekipelova I. M. Vestnik TGU. Filologiya [Bulletin of TGU. Philology], no. 2 (14) (2011): 33-46.

12. Nekipelova I. M. Sovremennye issledovaniya sotsial'nykh problem [Modern Researches of Social Problems], no. 8 (16) (2012): http://sisp.nkras.ru/e-ru/issues/2012/8/nekipelova.pdf.

13. Nekipelova I. M. V mire nauchnykh otkrytiy [In the World of Scientific Discoveries], no. 11.3 (35) (2012): 297-334.

14. Nekipelova I. M. V mire nauchnykh otkrytiy [In the World of Scientific Discoveries], no. 3.2 (39) (2013): 185-206.

15. Nikolis G., Prigozhin I. Samoorganizatsiya v neravnovesnykh sistemakh [Self-organization in Disbalance Systems]. Moscow: Mir, 1979. 512 p.

16. Prigozhin I., Stengers I. Poryadok iz khaosa. Novyy dialog cheloveka s prirodoy [Order From Chaos. A New Dialog Human With Nature]. Moscow: Progress, 1986. 432 p.

17. Prigozhina teorema [Prigozhin's Theorem]. URL: http://dic.academic.ru/dic.nsf/enc_physics/2130/ПРИГОЖИНА (accessed July 13, 2013).

18. Semenov Yu. A. Bazovye opredeleniya teorii informatsii [The Main Definitions of the Theory of Information]. http://book.itep.ru/10/shennon.htm (accessed July 14, 2013).

19. Shredinger E. Uporyadochennost', neuporyadochennost' i entropiya [Orderliness, Randomness and Entropy]. http://kirsoft.com.ru/freedom/KSNews_ 369.htm (accessed July 14, 2013).

20. Entropiya kak mera stepeni neopredelennosti sostoyaniya fizicheskoy sistemy [Entropy as Measure of Degree of Uncertainty of Condition of Physical System]. http://sernam.ru/book_tp.php?id=104 (accessed July 12, 2013).

21. Etkins P. Poryadok i besporyadok v prirode [Order and Disorder in Nature]. Moscow Mir, 1987. 224 p.

22. Berger A., Pietra D. Computational Linguistics. Vol 22 (1996). pp. 39-71.

23. Cover T. M., Thomas J. A. Elements of information theory. Hoboken, N.J.: Wiley-Interscience, 2006. xxiv + 748 pp.

24. Grossman L. Entropy Is Universal Rule of Language. http://www.wired.com/wiredscience/2011/05/universal-entropy/ (accessed July 14, 2013).

25. Montemurro M., Zanette D. PLoS ONE 6, no. 5 (2011). DOI: 10.1371/journal.pone.0019875 (accessed July 14, 2013).

26. Nekipelova I. Natural Language Processing, Multilinguality. Brno: Tribun EU, 2011. pp. 115-120.

27. Nowak M. A., Plotkin J. B., Jansen V. A. The evolution of syntactic communication Nature 404. DOI: 10.1038/35006635 (accessed July 14, 2013).

28. Okrent A. 4 Changes to English So Subtle We Hardly Notice They're Happening. http://mentalfloss.com/article/51362/4-changes-english-so-subtle-we-hardly-notice-theyre-happening#ixzz2Z01KKyO1 (accessed July 14, 2013).

ДАННЫЕ ОБ АВТОРЕ

Некипелова Ирина Михайловна, доцент кафедры философии, кандидат филологических наук, доцент

Ижевский государственный технический университет им. М.Т. Калашникова ул. Студенческая, д. 7, г. Ижевск, Удмуртская Республика, 426069, Россия e-mail: [email protected] SPIN-код в SCIENCE INDEX: 8968-4493

DATA ABOUT THE AUTHOR

Nekipelova Irina Mikhaylovna, associate professor of philosophy department, Ph.D. in Philological Science, Associate Professor

M. T. Kalashnikov Izhevsk State Technical University, 7, Studencheskaya street, Izhevsk, Udmurt Republic, 426069, Russia e-mail: irina.m.nekipelova @ mail.ru

Рецензент:

Метлякова Е.В., кандидат филологических наук, доцент кафедры русского языка, теоретической и прикладной лингвистики Удмуртского государственного университета

i Надоели баннеры? Вы всегда можете отключить рекламу.