Научная статья на тему 'Искусственный интеллект в судопроизводстве'

Искусственный интеллект в судопроизводстве Текст научной статьи по специальности «Право»

CC BY
2640
497
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / СУДОПРОИЗВОДСТВО / ЭФФЕКТИВНОСТЬ / ОПЕРАТИВНОСТЬ / ОБЪЕКТИВНОСТЬ / ИСТОЧНИК ПОВЫШЕННОЙ ОПАСНОСТИ / УЩЕРБ / ОТВЕТСТВЕННОСТЬ / СЕРТИФИКАЦИИ СИСТЕМ ИИ / ПРИНЦИПЫ ИСПОЛЬЗОВАНИЯ ИИ / ARTIFICIAL INTELLIGENCE / LITIGATION / EFFICIENCY / RESPONSIVENESS / OBJECTIVITY / SOURCE OF INCREASED DANGER / DAMAGE / LIABILITY / CERTIFICATION OF AI SYSTEMS / PRINCIPLES OF AI USE

Аннотация научной статьи по праву, автор научной работы — Апостолова Наталья Николаевна

В судопроизводстве, где и деятельность человека ограничена определенными формальными правилами, допустимо применение лишь специализированных интеллектуальных систем, способных работать, хотя и самостоятельно, но под контролем человека. Искусственный интеллект следует признать источником повышенной опасности и возложить ответственность за вред, причиненный его деятельностью, на его владельцев в соответствии со статьей 1079 ГК РФ. Ответственность за вред, причиненный в результате применения искусственного интеллекта в судопроизводстве, должно нести государство. Создание и использование «умных» роботов в преступных целях, а также неправомерное вмешательство в деятельность систем искусственного интеллекта, повлекшее причинение общественно опасного вреда, должно влечь уголовную ответственность.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARTIFICIAL INTELLIGENCE IN LEGAL PROCEEDINGS

In legal proceedings, where human activity is limited to certain formal rules, it is permissible to use only specialized intellectual systems that can work independently, but under human control. Artificial intelligence should be recognized as a source of increased danger and put the responsibility for the harm caused by its activities on its owners in accordance with article 1079 of the civil code. The state should be held liable for damage caused by the use of artificial intelligence in legal proceedings. The creation and use of "smart" robots for criminal purposes, as well as unlawful interference in the activities of artificial intelligence systems, which caused socially dangerous harm, should entail criminal liability.

Текст научной работы на тему «Искусственный интеллект в судопроизводстве»

ПРОБЛЕМЫ УГОЛОВНОГО И УГОЛОВНО-ПРОЦЕССУАЛЬНОГО ПРАВА

УДК 343.11

DOI: 10.22394/2074-7306-2019-1-3-135-141

ИСКУССТВЕННЫЙ интеллект в судопроизводстве

Апостолова

Наталья

Николаевна

доктор юридических наук, доцент, профессор кафедры процессуального права, Южно-Российский институт упр авл ен и я Р осси йской академии народного хозяйства и государственной службы при Президенте РФ (344002, Россия, г. Ростов-на-Дону, ул. Пушкинская, 70/54) E-mail: napostolova@yandex.ru

Аннотация

В судопроизводстве, где и деятельность человека ограничена определенными формальными правилами, допустимо применение лишь специализированных интеллектуальных систем, способных работать, хотя и самостоятельно, но под контролем человека. Искусственный интеллект следует признать источником повышенной опасности и возложить ответственность за вред, причиненный его деятельностью, на его владельцев в соответствии со статьей 1079 ГК РФ. Ответственность за вред, причиненный в результате применения искусственного интеллекта в судопроизводстве, должно нести государство. Создание и использование «умных» роботов в преступных целях, а также неправомерное вмешательство в деятельность систем искусственного интеллекта, повлекшее причинение общественно опасного вреда, должно влечь уголовную ответственность.

Ключевые слова: искусственный интеллект, судопроизводство, эффективность, оперативность, объективность, источник повышенной опасности, ущерб, ответственность, сертификации систем ИИ, принципы использования ИИ.

Системы искусственного интеллекта, способные самостоятельно обобщать и анализировать законодательство, иные нормативно-правовые акты, судебную практику и выносить стандартные, бесспорные решения, становятся частью судопроизводства [1].

В научной литературе высказываются предложения о применении искусственного интеллекта в качестве вспомогательного элемента деятельности органов расследования и ОРД в целях наиболее успешного и быстрого раскрытия и расследования преступлений [2, с. 28 - 34; 3, с. 9 - 18; 4, с. 28; 5, с. 20 - 24; 6, с. 118 - 123]. Будут востребованы у судей, следователей, дознавателей, прокуроров и адвокатов его способности осуществлять имитационное моделирование (следственных версий, действий, событий и т. д.); составлять проекты процессуальных документов (протоколов, постановлений, обвинительных заключений, обвинительных актов, представлений и др.); принимать и обрабатывать заявления, жалобы, ходатайства и иные документы в электронном виде.

В специальной литературе искусственный интеллект понимается либо как устройство, способное «действовать, определять свои действия и оценивать их последствия без полного контроля со стороны человека по результатам обработки информации, поступающей из внешней среды» [7], либо как компьютерная программа, имитирующая человеческий мозг, в которую встроен механизм обучения [8, с. 39 - 69].

В Европе, искусственным интеллектом (ИИ) называется киберфизическая (небиологическая) автономная, но нуждающаяся в физической (энергетической) поддержке система, способная обмениваться данными со своей средой и анализировать их, само-

обучаться на основе приобретенного опыта и взаимодействия, а также адаптировать свои действия и поведение в соответствии с условиями среды1.

Согласно философской энциклопедии искусственный интеллект представляет собой цифровую систему, имитирующую интеллектуальные и сенсорные способности человека с помощью вычислительных устройств (нейронную сеть)2.

Постоянное расширение и изменение нормативно-правовой базы, судебной практики, увеличение нагрузки, приводящие к большому количеству следственных и судебных ошибок, делает применение в российском судопроизводстве систем ИИ, незаинтересованных, неподкупных, объективных, способных находить практически безошибочные правовые решения, жизненно необходимым. Такие системы будут не только большим подспорьем в работе судов, прокуроров, должностных лиц органов расследования, адвокатов, но и смогут обеспечить объективный внешний контроль за их деятельностью.

Полученные с помощью современных компьютерных технологий электронные документы уже сейчас расцениваются как более надежные, которые сложнее подделать, подменить, исказить или потерять, особенно, если использовать технологии «блокчейн» [9; 10].

С одной стороны это действительно так, и все же такое мнение представляется достаточно идеализированным и спорным. Нельзя забывать, что «криминальная» креативность по использованию цифровых технологий и искусственного интеллекта постоянно совершенствуется, опережая ответную реакцию на нее правоохранительных органов.

Случаи цифрового мошенничества в банковской и экономической сфере; взлома баз данных с личной конфиденциальной информацией граждан, аккаунтов, ящиков электронной почты; преступных манипуляций с цифровой электронной подписью; создания в преступных целях поддельных сайтов различных учреждений, госорганов и т.п. широко распространены.

Искусственный интеллект научили уже подделывать отпечатки пальцев человека, благодаря чему можно получить доступ к информации, защищенной биометрической системой аутентификации [11]. Очевидно, скоро станет возможным подделывание и других биометрических данных. Дальнейшее развитие суперкомпьютеров упростит внедрение различных вредоносных кодов в системы ИИ.

Трудно даже представить, кем и как могут быть использованы электронные паспорта, электронные права, различные нейроинтерфейсы, чипы, технологии виртуальной и дополненной реальности, устройства, воздействующие на психику и мозг человека.

Любые цифровые технологии, включая искусственный интеллект, могут применяться как во благо, так и во вред. Все будет зависеть от уровня их развития и от того, какие возможности (в том числе и ошибки) будут заложены человеком в ту или иную нейронную сеть.

Уже сегодня высказываются опасения по поводу не просто преступного использования технологий ИИ, но и создания робота, способного причинить смерть или иной вред человеку [7] (о военных роботах здесь речь не идет, поскольку для них должно быть установлено специальное правовое регулирование). Предлагается выработать правовые и этические правила социального взаимодействия человека с системами искусственного интеллекта, предусмотреть в законе нормы, определяющие ответственность соответствующих лиц за причиненный такими системами ущерб3.

Во избежание серьезных негативных последствий неконтролируемого создания и использования систем искусственного интеллекта представляется необходимым сде-

1 Резолюции Европарламента от 16 февраля 2017 г. «Нормы гражданского права о робототехнике»./ URL: http://robopravo.ru/riezoliutsiia_ies (дата обращения 5.08.19 г.).

2 Философская энциклопедия./ URL: https://dic.academic.ru/dic.nsf/enc_philosophy/469/ (дата обращения 5.08.19 г.).

3 Проект «Национальной стратегии развития искусственного интеллекта». / URL:https://ya-r.ru/2019/05/23/v-rossii-poyavilsya-proekt-natsionalnoj-strategii-razvitiya-iskusstvennogo-intellekta/ (дата обращения 7.08.19 г.).

лать следующее. Прежде всего, следует выработать и установить обязательные технологические требования к созданию и сертификации систем ИИ, а также закрепить обязанность постановки их на учет в специальном реестре.

Необходимо признать искусственный интеллект источником повышенной опасности и возложить ответственность за вред, причиненный его деятельностью, на юридическое лицо или гражданина, которые владеют данным источником повышенной опасности на праве собственности, праве хозяйственного ведения или праве оперативного управления, либо на ином, законном, основании (на праве аренды, в силу распоряжения соответствующего органа о передаче ему источника повышенной опасности и т.п.) в соответствии со статьей 1079 ГК РФ. В этой связи есть смысл введения обязательной системы страхования гражданской ответственности для владельцев автономных «умных» роботов1 по типу ОСАГО.

Ответственность перед гражданами и юридическими лицами за вред, причиненный в результате применения систем искусственного интеллекта в уголовном, гражданском, административном, арбитражном судопроизводстве, должно нести государство. Согласно статьям 2 и 45 Конституции России государственная защита прав и свобод человека и гражданина гарантирована в любом случае. Может и должен меняться лишь характер таких гарантий по мере развития и совершенствования технологий правосудия.

Возможно, есть смысл в установлении и административной ответственности за создание и использование систем ИИ, не отвечающих необходимым требованиям качества и безопасности, не прошедших сертификацию и не поставленных на учет в соответствующем реестре.

Наверняка потребуется закрепить в УК РФ составы преступлений, предусматривающие уголовную ответственность за создание и использование искусственного интеллекта с целью причинения смерти или иного общественно опасного вреда, а также за неправомерное вмешательство в деятельность систем искусственного интеллекта, повлекшее причинение общественно опасного вреда.

Юридическому сообществу следует серьезно заняться также выработкой новых правовых подходов и правил, регламентирующих правовой статус и функционирование «умных» автономных систем искусственного интеллекта, так как привычные дефиниции правосубъектности и ответственности физических и юридических лиц их специфике явно не соответствуют.

При применении систем ИИ в российском судопроизводстве следует учитывать «Европейскую этическую Хартию по использованию искусственного интеллекта (ИИ) в судебных системах и их среде»,2 закрепляющую пять принципов применения ИИ в судебных системах в целях повышения эффективности и качества правосудия.

В их числе первостепенное значение имеет принцип уважения основных прав, гарантированных Европейской конвенцией о защите прав человека и основных свобод (Протоколами к ней) и Конвенцией о защите физических лиц при автоматизированной обработке данных (СДСЕ N 108)3. Далее, принцип недискриминации, запрещающий осуществлять обработку, классификацию, использование данных посредством ИИ, приводящую к дискриминационным действиям. В соответствии с принципом «качества и безопасности» обработка судебных решений и иных судебных данных с применением таких сертифицированных технологий ИИ должна обеспечивать безопасное и эффективное осуществление правосудия в установленных законодательством рамках.

Принцип «прозрачности, беспристрастности и справедливости» подразумевает доступность и понимание методов использования искусственным интеллектом судеб-

1 Пункт 57 Резолюции Европарламента от 16 февраля 2017 г. «Нормы гражданского права о робототехнике»./ URL: http://robopravo.ru/riezoliutsiia_ies (дата обращения 5.08.19 г.).

2 URL: https://rm.coe.int/presentation-note-en-for-publication-4-december-2018/16808f699d (дата обращения 5.08.19 г.).

3 URL:http://www.consultant.ru/document/cons_doc_LAW_121499/ (дата обращения 5.08.19 г.).

ных данных, «а также возможности для властей или независимых экспертов проводить внешние проверки» работы применяемых технологий. В силу данного принципа необходимо также регулярное обновление используемых в судопроизводстве сертифицированных систем ИИ.

Принцип "под контролем пользователя" обязывает обеспечить такую работу искусственного интеллекта, которая бы позволяла пользователям получать необходимую информацию по делу и контролировать (в установленных законом рамках определять, менять свою процессуальную позицию). Судьи же, в необходимых случаях, должны иметь возможность корректировать решения, вынесенные ИИ.

С учетом национальных особенностей, было бы разумным руководствоваться данными принципами и в нашей стране, что предполагает использование искусственного интеллекта в российском судопроизводстве с соблюдением закрепленных в главах 2 и 7 Конституции РФ принципов.

И в первую очередь, принципа неприкосновенности частной жизни, в силу которого работа с персональными данными любых физических лиц должна осуществляться на основе следующих минимально необходимых требований, уже апробированных европейской практикой.

Персональные данные людей должны собираться, обрабатываться, храниться и использоваться на законных и справедливых основаниях и в соответствии с установленными законом целями. Личные данные, касающиеся судимости, расовой принадлежности, политических взглядов, религиозных или других убеждений, здоровья или половой жизни, не могут подвергаться автоматизированной обработке искусственным интеллектом, если законодательство не устанавливает соответствующих гарантий их надлежащей сохранности и нераспространения.

Для защиты хранящихся в автоматизированных файлах данных, обеспечиваются необходимые меры безопасности, предотвращающие их случайное или несанкционированное уничтожение, случайную потерю, несанкционированный доступ, их изменение или распространение. При этом любое лицо вправе: знать о существовании автоматизированного файла его персональных данных и о месте его нахождения; иметь возможность ознакомления с хранящимися там данными; при необходимости, с помощью правовых средств защиты добиваться их уничтожения или исправления, если они обрабатывались или использовались с нарушением установленных законом правил.1

Принцип не дискриминации в соответствии со статьей 19 Конституции РФ означает, что при применении систем искусственного интеллекта надлежит обеспечивать равные возможности реализации конституционных прав и свобод, а также исключить любые формы ограничения прав человека и гражданина по признакам социальной, расовой, национальной, языковой или религиозной принадлежности.

Принципы качества и безопасности, прозрачности, беспристрастности и справедливости должны лежать в основе законодательства, регламентирующего как создание систем ИИ, так и их использования в судопроизводстве. Качество искусственного интеллекта, очевидно, подразумевает его функциональные технологические возможности эффективно решать поставленные перед ним задачи. Безопасность систем ИИ в сфере судопроизводства определяется, во-первых, отсутствием у них возможности осуществлять действия и принимать решения, не предусмотренные назначением (целями) судопроизводства, во-вторых, наличием способностей блокировать любое несанкционированное неправомерное вмешательство в их работу.

Прозрачность (открытость) использования искусственного интеллекта в судебных системах должна обеспечивать такую степень доступности и информированности о его работе и ее результатах, которые гарантированы статьей 123 Конституции РФ, ФЗ 2008 г. № 262 «Об обеспечении доступа к информации о деятельности судов в РФ», УПК

1 Статьи 5 - 7 Европейской конвенцией о защите физических лиц при автоматизированной обработке данных (СДСЕ N 108)./ URL:http://www.consultant.ru/document/cons_doc_LAW_121499/ (дата обращения 5.08.19 г.).

РФ, ГПК РФ, КАС РФ, Постановлением Пленума Верховного Суда РФ от 13.12.2012 N 35 "Об открытости и гласности судопроизводства и о доступе к информации о деятельности судов». Технологии работы ИИ, применяемые в судопроизводстве, должны быть известны, понятны, доступны для проверки (должны вызывать доверие), а также обновляться и корректироваться в необходимых случаях.

Беспристрастность означает способность искусственного интеллекта к одинаковому отношению к действительно одинаковым субъектам правоотношений, участникам процесса и фактическим обстоятельствам. При создании и использовании искусственного интеллекта не допускается установление и проявление каких-либо незаконных (неправомерных) привилегий, предпочтений или, наоборот, ущемлений.

Справедливость использования ИИ в судебных системах предполагает такое его применение, которые бы обеспечивало соблюдение конституционных и общепризнанных принципов осуществления судопроизводства, прав и свобод человека, охрану социально справедливого правопорядка и безопасности.

В силу принципа «осуществления контроля» за работой систем искусственного интеллекта его взаимодействие с участниками судопроизводства, должно обеспечивать последним реализацию предоставленных законом прав и обязанностей, а судьям возможность, в необходимых случаях, корректировать вынесенные искусственным интеллектом решения.

В данном случае речь идет об использовании специализированного искусственного интеллекта, а не универсального [12], способного к самообучению, результаты работы которого непредсказуемы. «Сильные», «умные», «универсальные», продвинутые интеллектуальные системы необходимы и востребованы в науке и в иных творческих областях. В судопроизводстве, где и деятельность человека ограничена определенными формальными правилами, допустимо применение лишь специализированных (вспомогательных) систем ИИ, способных работать хотя и самостоятельно, но под контролем человека.

Невозможность функционирования систем ИИ без внешних источников энергии, их уязвимость должны самым серьезным образом учитываться при его применении в судопроизводстве. Сбои в их работе в силу тех или иных причин (того же банального отключения электроэнергии), могут привести к непредсказуемым последствиям и дорого обойтись государству, обществу и гражданам.

Без сомнения, использование систем искусственного интеллекта в российском судопроизводстве сделает его более эффективным, оперативным и объективным, отвечающим потребностям жизни современного общества, при условии, что будут учтены все возможные риски.

Литература

1. Закиров Р.Ф. Использование современных IT-технологий как средство достижения основных задач судопроизводства // СПС КонсультантПлюс/ URL: www.consultant.ru (дата обращения 3.08.19 г.).

2. Афанасьев А.Ю. Искусственный интеллект или интеллект субъектов выявления, раскрытия и расследования преступлений: что победит?/ Библиотека криминалиста. Научный журнал, 2018. № 3(38).

3. Власова С.В. К вопросу о приспосабливании уголовно-процессуального механизма к цифровой реальности // Библиотека криминалиста. Научный журнал, 2018. № 1.

4. Григорьев В.Н., Медведева М.О. Информационные технологии как предмет уголовно-процессуального регулирования / Развитие информационных технологий в уголовном судопроизводстве / Под ред. С.В. Зуева. М., Юрлитинформ, 2018. - 248 с.

5. Джатдоев А. Х. Информационные технологии в юриспруденции // Молодой ученый, 2018. № 6.

6. Зуев С.В. Цифровая среда уголовного судопроизводства: проблемы и перспективы. Сибирский юридический вестник, 2018. № 4.

7. Гришин Д., Наумов В. Концепция закона о робототехнике / URL:https://vc.ru/flood/20724-law-robots (дата обращения 3.08.19 г.)

8. Морхат П.М. Искусственный интеллект: правовой взгляд. М.: Буки Веди, 2017. 257 с.

9. Глебов И.Н. Мир будущего планетарного права.../ Сетевой юридический научный журнал «Гуманитарное право»/ URL: https://humanlaw.ru/9-article/26-artificial-intelligence.html (дата обращения 3.08.19 г.).

10. Никитин С. В. Интервью А. Курашу. Какое будущее ждет юристов в эпоху цифровой экономики// URL:http://www.cnews.ru/articles/2017-10 20_kakoe_budushchee_zhdet_yuristov_v_epohu_tsifrovoj_ekonomiki (дата обращения 5.08.19 г.).

11. Херн А. Поддельные отпечатки пальцев могут имитировать реальные в биометрических системах/ URL: https://www.theguardian.com/technology/2018/nov/15/fake-fingerprints-can-imitate-real-fingerprints-in-biometric-systems (дата обращения 7.08.19 г.).

12. Сидорова Е. Все, что нужно знать об искусственном интеллекте / URL:https://ru.ihodl.com/technologies/2017-09-16/vsyo-chto-nuzhno-znat-ob-iskusstvennom-intellekte/ (дата обращения 3.08.19 г.)

Apostolova Natalia Nikolaevna, doctor of jurisprudence, professor, the South-Russian Institute of Management - branch of the Presidential Academy of the National Economy and Public Administration (70/54, Pushkinskaya St., Rostov-on-Don, 344002, Russian Federation). E-mail: napostolova@yandex.ru

ARTIFICIAL INTELLIGENCE IN LEGAL PROCEEDINGS.

Abstract

In legal proceedings, where human activity is limited to certain formal rules, it is permissible to use only specialized intellectual systems that can work independently, but under human control. Artificial intelligence should be recognized as a source of increased danger and put the responsibility for the harm caused by its activities on its owners in accordance with article 1079 of the civil code. The state should be held liable for damage caused by the use of artificial intelligence in legal proceedings. The creation and use of "smart" robots for criminal purposes, as well as unlawful interference in the activities of artificial intelligence systems, which caused socially dangerous harm, should entail criminal liability.

Keywords: artificial intelligence, litigation, efficiency, responsiveness, objectivity, source of increased danger, damage, liability, certification of AI systems, principles of AI use.

References

1. Zakirov R.F. Ispol'zovanie sovremennyh IT-tekhnologij kak sredstvo dostizheniya os-novnyh zadach sudoproizvodstva // SPS Konsul'tantPlyus/ URL: www.consultant.ru (data obrashcheniya 3.08.19 g.).

2. Afanas'ev A.YU. Iskusstvennyj intellekt ili intellekt sub"ektov vyyavleniya, raskrytiya i rassledovaniya prestuplenij: chto pobedit?/ Biblioteka kriminalista. Nauchnyj zhurnal, 2018. № 3(38).

3. Vlasova S.V. K voprosu o prisposablivanii ugolovno-processual'nogo mekhanizma k cifrovoj real'nosti // Biblioteka kriminalista. Nauchnyj zhurnal, 2018. № 1.

4. Grigor'ev V.N., Medvedeva M.O. Informacionnye tekhnologii kak predmet ugolovno-processual'nogo regulirovaniya / Razvitie informacionnyh tekhnologij v ugolovnom su-doproizvodstve. / Pod red. S.V. Zueva. M., YUrlitinform, 2018. 248 s.

5. DzhatdoevA. H. Informacionnye tekhnologii v yurisprudencii // Molodoj uchenyj, 2018. № 6.

6. Zuev S.V. Cifrovaya sreda ugolovnogo sudoproizvodstva: problemy i perspektivy. Sibir-skij yuridicheskij vestnik, 2018. № 4.

7. Grishin D., Naumov V. Koncepciya zakona o robototekhnike / URL:https://vc.ru/flood/20724-law-robots (data obrashcheniya 3.08.19 g.)

8. MorhatP.M. Iskusstvennyj intellekt: pravovoj vzglyad. M.: Buki Vedi, 2017. - 257 s.

9. Glebov I.N. Mir budushchego planetarnogo prava.../ Setevoj yuridicheskij nauchnyj zhurnal «Gumanitarnoe pravo»/ URL: https://humanlaw.ru/9-article/26-artificial-intelligence.html (data obrashcheniya 3.08.19 g.).

10. Nikitin S. V. Interv'yu A. Kurashu. Kakoe budushchee zhdet yuristov v epohu cifrovoj ekonomiki// URL:http://www.cnews.ru/articles/2017-10

20_kakoe_budushchee_zhdet_yuristov_v_epohu_tsifrovoj_ekonomiki (data obrashcheniya 5.08.19 g.).

11. Hern A. Poddel'nye otpechatki pal'cev mogut imitirovat' real'nye v biometricheskih sistemah/ URL: https://www.theguardian.com/technology/2018/nov/15/fake-fingerprints-can-imitate-real-fingerprints-in-biometric-systems (data obrashcheniya 7.08.19 g.).

12. Sidorova E. Vse, chto nuzhno znat' ob iskusstvennom intellekte / URL:https://ru.ihodl.com/technologies/2017-09-16/vsyo-chto-nuzhno-znat-ob-iskusstvennom-intellekte/ (data obrashcheniya 3.08.19 g.)

УДК 343 DOI: 10.22394/2074-7306-2019-1-3-141-145

ПРЕДУПРЕЖДЕНИЕ ЭКСТРЕМИЗМА В МОЛОДЕЖНОЙ СРЕДЕ

Гринько кандидат юридических наук, доцент, доцент кафедры

Сергей уголовного процесса и криминалистики,

Дмитриевич Московский государственный областной университет (105005, Россия, г. Москва, ул. Радио, д. 10 А). E-mail: grinko-skags@yandex.ru

Аннотация

В статье анализируются причины и факторы формирования криминального экстремизма в молодежной среде, сформированы выводы и предложения по профилактике и предупреждению молодежного экстремизма как социального явления современного общества.

Ключевые слова: экстремизм, конфликты, причины экстремистских проявлений, распространение, факторы, противодействие, профилактика, воспитание, предупреждение, меры борьбы.

Экономический и политический кризис современного общества вызывает моральный и личностный кризис для миллионов молодых людей, так как влечет за собой материальные лишения, утрату жизненной перспективы, вызывает чувства зависти, разочарования и отчаяния. Процесс десоциализации современной молодежи, вытеснения ее из общественной жизни, порождает разрыв связей значительных слоев молодежи с остальным обществом и противопоставление себя общественной политической структуре. Именно этот разрыв лежит в основе обращения молодежи к созданию различных форм собственной «культуры». К тому же, настроения социального недовольства некоторых слоев общества становятся основой экстремистской реакции на окружающую их действительность. Для молодежи, из числа которой рекрутируются члены экстремистских организаций, характерно осознание существующей несправедливости и одиночества в обществе, в котором она не находит смысла существования, поэтому многие приходят к выводу, что в сложившейся ситуации они насилием и убийствами спасают другие жизни потенциальных жертв этого общества [1, с. 146].

i Надоели баннеры? Вы всегда можете отключить рекламу.