Научная статья на тему 'БУДУЩЕЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СПАСАТЕЛЬНОМ ДЕЛЕ'

БУДУЩЕЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СПАСАТЕЛЬНОМ ДЕЛЕ Текст научной статьи по специальности «Математика»

CC BY
113
26
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СЛАБЫЙ И СИЛЬНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / АЛГОРИТМ / АВТОМАТИЗАЦИЯ / МЫШЛЕНИЕ / НЕОКОРТЕКС / НЕЙРОНЫ / СПАСАТЕЛЬНОЕ ДЕЛО / WEAK AND STRONG ARTIFICIAL INTELLIGENCE / ALGORITHM / AUTOMATION / NEURONS / RESCUE WORK / THINKING / NEOCORTEX

Аннотация научной статьи по математике, автор научной работы — Дурнев Роман Александрович, Жданенко Ирина Васильевна, Крюков Кирилл Юрьевич

Рассмотрены материалы, посвященные будущему искусственного интеллекта в спасательном деле. Проведен анализ направлений развития теоретических основ искусственного интеллекта. Показаны основные проблемы прикладного характера, возникающие при создании спасательных и других технологий.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The Future of Artificial Intelligence in Rescue Operations

The article reviews publications devoted to the future of artificial intelli-gence in rescue operations. The areas of development of artificial intelligence science are discussed. Key applied problems associated with the development of SAR technologies are presented.

Текст научной работы на тему «БУДУЩЕЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СПАСАТЕЛЬНОМ ДЕЛЕ»

/24 Civil SecurityTechnology, Vol. 15, 2018, No. 4 (58) УДК 004.896:51-74

Будущее искусственного интеллекта в спасательном деле

ISSN 1996-8493

© Технологии гражданской безопасности, 2018

Р.А. Дурнев, И.В. Жданенко, К.Ю. Крюков

Аннотация

Рассмотрены материалы, посвященные будущему искусственного интеллекта в спасательном деле. Проведен анализ направлений развития теоретических основ искусственного интеллекта. Показаны основные проблемы прикладного характера, возникающие при создании спасательных и других технологий.

Ключевые слова: слабый и сильный искусственный интеллект; алгоритм; автоматизация; мышление; неокортекс; нейроны; спасательное дело.

The Future of Artificial Intelligence in Rescue Operations

ISSN 1996-8493

© Civil Security Technology, 2018

R. Durnev, I. Zhdanenko, K. Kryukov

Abstract

The article reviews publications devoted to the future of artificial intelligence in rescue operations. The areas of development of artificial intelligence science are discussed. Key applied problems associated with the development of SAR technologies are presented.

Key words: weak and strong artificial intelligence; algorithm; automation; thinking, neocortex; neurons; rescue work.

Статья поступила в редакцию 17.10.2018.

Современный мир практически пронизан понятием искусственного интеллекта (далее—ИИ), которое иногда уместно (но в большинстве случаев «не к месту») используется в повседневном лексиконе, средствах массовой информации, в экономике, промышленности, научной сфере, вооруженной борьбе [1]. Поэтому возникло желание подготовить серию статей, в которых будет сделана попытка оценить современное состояние развития ИИ, определить возможные перспективы его применения в спасательном деле и осмыслить принципиальные ограничения, стоящие на пути создания интеллекта, подобного человеческому.

Следует отметить, что вопреки ожиданиям 50-60-летней давности современные технологии ИИ не позволяют говорить о качественном моделировании тех видов человеческой деятельности, которые традиционно считаются интеллектуальными, о возможности интеллектуальных систем выполнять творческие функции, считающиеся прерогативой человека. Практически не изменился состав методов ИИ, на протяжении полувека мы говорим о тех же нейросетях, эвристическом программировании, теории нечетких множеств (ТНМ), многозначной логике, генетических алгоритмах, экспертных системах. И если появляется информация о каких-то новых способах моделирования мыслительных процессов, то в большинстве случаев речь идет о комбинации упомянутых. Так, гибридные модели [2] — это комбинация нейросетей и ТНМ, большой пласт методов обучения (с учителем и без, с подкреплением, глубинный и др.) основан на нейросетях, возможностно-вероятностные методы базируются на теории вероятности и ТНМ, экспертные системы включают импликации ТНМ или более формальные (четкие) правила.

Повышение возможностей методов ИИ связано в большей степени с прогрессом микроэлектроники (например, с развитием видеокарт для применения в сверточных нейросетях), наличием доступных больших баз данных (статистической информации, видеоряда и т.п.) для обучения нейросетей, в меньшей — с успехами в развитии математического аппарата. Так, практически не появилось новых видов нейронных сетей после 1988 года, основным методом их обучения по-прежнему является открытый в середине 70 гг. ХХ века метод обратного распространения ошибки. Да и в целом, только в начале создания искусственных нейросетей была использована аналогия с биологическими нейросетями (своего рода «толчок» к созданию). В дальнейшем превалирующим стал вывод о том, что искусственные нейросети — это не аналог реальной структуры мозга, а абстрактная модель, созданная для решения оптимизационных задач [3]. Составляющие таких сетей в том или ином виде давно известны в областях, развивавшихся независимо от ИИ. Так, в исследовании операций и теории решений давно известна процедура взвешенных сумм (сумма произведений значений показателей на их веса), подобие метода обратного распространения ошибки всегда существовал в теории автоматического управления, движение по градиенту поверхности в пространстве функции ошибки и весов сигналов аналогично градиентному

подъему или спуску по факторной гиперповерхности в теории планирования эксперимента. Да и сами сети — это один из направленных графов, для которых существует развитая теория. Поэтому в Википедии эти сети относятся к частному случаю методов распознавания образов, дискриминантного анализа, методов кластеризации (с точки зрения машинного обучения), многопараметрической задаче нелинейной оптимизации (с математической точки зрения), к адаптивному управлению (с точки зрения кибернетики) и т.п., т.е. по разному — в зависимости от классификационных признаков в различных отраслях науки.

Определенная иллюзия прогресса ИИ связана с увеличением компактных устройств, наделенных элементами «разумного поведения» (гаджеты, «умная» бытовая техника, системы навигации и управления современных автомобилей). Причиной этого является увеличение их мощности до таких величин, которые раньше были доступны только большим ЭВМ, на которых отрабатывались алгоритмы ИИ. Да и сам этот прогресс имеет не научно-технический, а инновационный характер, связанный с коммерциализацией тех знаний по ИИ, которые были получены несколько десятилетий назад.

Поэтому хотя практическое приложение ИИ становится более эффективным, доступным, массовым в применении, но, по всей видимости, их очередной всплеск развития приближается к плато очередной логистической кривой, в связи с чем вложение значительных средств уже не приведет к значимому повышению качества систем машинного перевода текстов, технологий распознавания речи в условиях шумов и искажений голоса, технического зрения, позволяющего ориентироваться в незнакомой сложной обстановке, одновременного распознавания размытых, нечетких образов различной природы.

Одним из характерных примеров несовершенства систем, имитирующих интеллектуальную деятельность человека, являются спамботы — программы, самостоятельно заполняющие электронные поля на различных сервисах в Интернете. Для противодействия им был разработан CAPTCHA (Completely Automatic Public Turin Testtotell Computersand Humansapart [4]) — полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей. В этом тесте пользователь должен ввести несколько знаков (цифр, букв), изображения которых искажены (перечеркнуты, деформированы и т.п.), или выбрать элементы матрицы, являющиеся нечеткими фотографиями витрин, дорожных знаков, автомобилей и т.п. Судя по длительности существования таких тестов, спамботы, не способные самостоятельно их пройти, обладают низкой степенью интеллектуализации и не могут справиться с задачей, не представляющей труда для человека.

Причины незначительных темпов научно-технического прогресса в развитии ИИ разделяются исследователями на два основных блока, связанных с нехваткой вычислительных мощностей для развития «слабого искусственного интеллекта», предназначенного для разумного решения частных задач, или отсутствием научно-технических возможностей реализации принципов «сильного искусственного интеллекта», в рамках

/26 Civil SecurityTechnology, Vol. 15, 2018, No. 4 (58)

которого системы ИИ должны мыслить, а не просто решать вышеуказанные задачи.

В рамках первого блока становится очевидно, что непрерывное увеличение памяти, быстродействия компьютеров не вносит решающий вклад в развитие ИИ. Шахматный суперкомпьютер DeepBlue компании IBM, выигравший у Г. Каспарова в 1997 г., осуществлял вычисления в пространстве 10120 позиций и проводил перебор в среднем 126 млн позиций в секунду, анализируя 8 тыс. признаков каждой позиции. В 2011 году ЭВМ Watson компании IBM, победившая двух соперников в телеигре Jeopardy!, обрабатывала данные со скоростью 500 Гб/с (что эквивалентно миллиону книг в секунду) и располагала 16 Тб оперативной памяти. Для распознавания кошачьих мордочек CatDetector от Google использовал 1000 серверов с 16000 ядер. В 2016 году компьютер победил в игре го одного из лучших игроков в мире Ли Седоля. Размерность этой игры уже 10400, что намного порядков превышает число элементарных частиц в видимой части Вселенной. Программа игры в го AlphaGo работала со 1920 CPU (центральный процессор) и 280 GPU (графический процессор). Но даже такое стремительное увеличение вычислительных мощностей компьютеров, объединение их в различные сети (например, SETY@ home для обработки астрономических данных в целях поиска сигналов внеземных цивилизаций) не приводит, к сожалению, к значимому прогрессу в области искусственной разумной деятельности.

Неудачи в развитии ИИ в рамках второго блока зачастую объясняются тем, что компьютеры—это синтаксические объекты, оперирующие правилами построения и функционального взаимодействия различных языковых единиц в предложениях, словосочетаниях и пр. При этом смысл таких операций ими учитываться не может, поэтому они не годятся для создания «сильного ИИ».

Некоторые исследователи [5] говорят о проблемах функционального рассогласования искусственных интеллектуальных систем и естественного мышления человека. Отмечается, что для разработчиков систем искусственного интеллекта интерес представляет не весь мыслительный процесс, а только часть, связанная с сознанием, разумом. Функционально за это отвечает кора больших полушарий мозга (неокортекс), которая возникла на самых поздних этапах эволюции и продолжает эволюционировать. При этом совершенно не рассматривается связь процесса мышления с работой других отделов головного мозга—лимбической системы, отвечающей за чувства и эмоции, «рептильного мозга» (самого раннего в эволюционном смысле), на который завязана сфера инстинктов. В этой связи разработчики ИИ копируют, пытаются усовершенствовать и развивают недоработанные эволюцией высшие психические функции (в т.ч. мыслительные процессы) и еще в большей степени усугубляют функциональный разрыв между «древними» отделами мозга и эволюционно наиболее молодыми структурами.

По мнению других [6], необходим радикальный поворот к принципам «сильного ИИ» путем перенесения личности, сознания человека на небиологические носители.

С этой целью в будущем могут использоваться наноро-боты, которые внедряясь в человеческий мозг, оцифруют каждый синапс, нейронную связь, а затем передадут полученную информацию на компьютер. Однако разум— это не только функционирование коры головного мозга, но и действие эмоциональных систем «старого» мозга, а также влияние человеческого тела со сложнейшим строением нервной системы, органов, частей.

Определенные надежды в создании «сильного ИИ» возлагают на квантовый компьютер, который в отличие от обычного, предполагающего нахождение одновременно только в одном из двух состояний — 0 и 1, может быть как в этих состояниях, так и в их суперпозиции, т. е. сразу в нескольких. Эволюция каждого такого состояния соответствует вычислениям над собственным набором данных, которые выполняются параллельно. Предполагается, что такие машины смогут наравне с человеком решать невычислимые (^алгоритмизированные) задачи в рамках квантовых процессов в искусственных нейронах, которые могут быть спокойны, возбуждены или находиться в промежуточном состоянии. Кроме того, квантовые компьютеры теоретически могут решать т. н. ЛР-полные задачи, в которых число выполняемых операций возрастает по экспоненте при увеличении количества входных данных, в отличие от Р задач для обычных компьютеров, в которых эта зависимость носит полиномиальный характер.

Квантовые компьютеры смогут работать с огромным количеством нелинейных уравнений, ограничений и переменных (применяемых в климатологии и др. областях), кодировать сообщения, принципиально не поддающиеся расшифровке, и путем симулирования функционирования нейронов квантовыми операторами создадут основу для появления квантового искусственного интеллекта. Однако создание таких компьютеров, несмотря на то, что они были предложены Р. Фейманом более 35 лет назад, сейчас еще находится на самой начальной стадии.

Еще одна из возможных причин незначительного прогресса в области создания ИИ, подобного человеческому, это невычислимые процессы сознания, понимания, разума [7]. Здесь можно говорить о хорошо структурированных задачах, например, математических или физических, не имеющих общего численного решения. Такой задачей является нахождение решений произвольной системы диофантовых уравнений (полиномиальные уравнения с коэффициентами и решениями в виде целых чисел), алгоритма замощения плоскости многоугольниками без зазоров и перекрытий и др. Обо всех этих неразрешимых задачах человек, в отличие от компьютера, может сделать вполне определенные выводы.

Возможно причина застоя в разработке «сильного ИИ» и в том, что он не может быть наделен основным признаком, отличающим человека от животных. Это рефлексия, т. е. «приобретенная сознанием способность сосредоточиваться на самом себе и овладеть самим собой как предметом, обладающим своей специфической устойчивостью и своим специфическим значением,— способностью уже не просто познавать (что свойственно и животным), а познавать самого себя; не просто знать (что им также доступно), а знать, что знаешь» [8]. Еще

более сильным отличием является способность ощущать, что мы знаем в сравнении с тем, что знают другие люди, способность моделировать их мысли, в том числе и о нас, по-новому ощущать, кто мы есть. И когда, по мнению некоторых специалистов, машина станет учитывать, что знает она и что знает пользователь, она станет мыслящей.

Все эти и другие причины вызывают определенный интерес с точки зрения познания соотношений естественного и искусственного разума, определения заго-ризонтных тенденций развития «умных» машин. Однако более значимой и реальной в разрешении представляется проблема, связанная со стремлением разработчиков воссоздать человеческое мышление, поведение на основе собственных мнений, взглядов на предметные области без учета природы и механизмов функционирования биологического разума.

Так, например, построение экспертных систем с нечеткой логикой осуществляется с помощью формальных функций принадлежности и базы правил, отражающих мнения (объяснения) экспертов в определенных областях. При разработке роботов с эмоциями и темпераментом [9] в основу закладываются информационные теории эмоций, двухпараметрические модели типа «возбуждение-торможение» и т. п. Современные нейросети для обработки естественных языков используют модели, в основу которых положено отображение слова (морфемы, буквы) из словаря в некоторый вектор в евклидовом пространстве, и семантические отношения между словами выражаются в виде геометрических отношений в самом евклидовом пространстве и т. п. Поэтому обоснованным является вывод о том, что искусственные нейросети — это не попытка что-то подсмотреть у природы, не аналог реальной структуры мозга, а абстрактная модель, созданная для решения оптимизационных задач, иначе — формализм машинного обучения, т.е. автоматизация.

То есть во всех этих случаях основу методов ИИ составляют модели предметных областей, а не сами механизмы зрительного, слухового, тактильного и иного восприятия, мышления, воображения и т. п.

Аналогичные рассуждения можно привести и для наиболее разрекламированных с точки зрения близости к человеческому мозгу нейросетей. Существует мнение, что формальное поверхностное повторение структуры расположения и взаимосвязи групп нейронов свидетельствует о совпадении механизмов обработки, хранения, передачи информации в нейросетях и мозге человека в целом. Представляется, что этот вывод некорректен. В работе [10] приводится аналогия гипотетического исследования структуры и функций компьютера человеком, слабо знакомым с областями науки и техники, необходимыми для его создания. Он может выяснить, что компьютер состоит из миллионов транзисторов, связанных между собой в точную и сложную схему. При этом принципы построения и работы такой схемы остаются для него не понятными. Даже случайное соединение нескольких транзисторов в определенном порядке и получение усилителя сигналов не объясняют работу компьютера в целом, кроме того, что он и усилитель состоят из транзисторов. Также и изучение нейронной

сети не позволяет объяснить принципы работы мозга человека, состоящего из нейронов. Поэтому и не теряют популярности статьи с названиями «Может ли биолог починить радиоприемник?» [11] или «Может ли нейро-биолог понять микропроцессор?» [12].

Простое подражание каким-то дополнительным свойствам биологических нейронов (типа порогового сумматора, правила Хебба), неучтенным в нейросетях, не позволяет достичь уровня самообучения, сопоставимого с естественными нейронами. Поэтому искусственными нейронными сетями невозможно реализовать более высокую логику, чем логику высказываний (для нейронов МакКаллока-Питса), распознавать зрительные образы, изменяющиеся при существенном вращении, сдвиге и масштабировании. Все они эффективно решают задачи там, где исходные данные носят одномерный характер, например, сенсорные звуковые, визуальные и другие сигналы. Творческие задачи им не под силу и навряд ли когда-нибудь нейросети смогут доказать, все ли четные числа являются суммой двух простых или просто определить, какие из пар чисел (2384, 2023), (3891, 1389), (5261, 1093), ...принадлежат к множеству пар (3751, 1357), (4382, 2348), (7289, 2798). В целом вполне обоснованным представляется вывод о том, что искусственные нейросети могут спрогнозировать только то, что было в обучающем примере, т. е. сделать сугубо локальное обобщение. Человек же способен мыслить гипотетически, расширяя свою модель мира за пределы того, что непосредственно испытал напрямую, приспосабливаясь к абсолютно новым ситуациям или планируя будущее, т.е. совершать глобальное обобщение.

Следует также отметить, что на определенных этапах мышления, например, математического доказательства, человек зачастую прибегает к интуиции, которая не может быть формализована. Это подтверждается теоремой Геделя о неполноте, упрощенную формулировку которой можно представить следующим образом—в рамках заданной системы аксиом (т.е. любой формальной системы, а сейчас методы ИИ являются именно такой системой) найдутся положения, которые невозможно ни доказать, ни опровергнуть. Мышление же человека зачастую не формально, поэтому в сложных ситуациях он принимает решения, которые ни в момент их принятия, ни после этого логически трудно или вовсе нельзя объяснить.

В целом методы слабого ИИ могут спрогнозировать только то, что было в обучающем примере или доступной базе данных, т. е. сделать сугубо локальное обобщение. Человек же способен мыслить гипотетически, расширяя свою модель мира за пределы того, что непосредственно испытал, приспосабливаясь к абсолютно новым ситуациям или планируя будущее, т. е. совершать глобальное обобщение.

В этой связи представляется, что основной проблемой создания систем ИИ являются попытки их построения на основе моделей (упрощенных объяснений) различных явлений и процессов, представление их в виде алгоритмов, что приводит все к той же автоматизации. Под «алгоритмами», положенными в основу автоматизации деятельности, понимается совокупность шагов или правил, приводящих к определенному результату,

/28 ^П SecurityTechnology, Vol. 15, 2018, No. 4 (58)

решению задачи [4], набор инструкций, описывающих порядок действий исполнителя для достижения некоторого результата. Количество шагов в алгоритме, приводящих к решению задачи, должно быть конечным, и сами шаги необходимо однозначно определить. Если решение задачи может быть выражено в виде алгоритма, она является разрешимой (вычислимой). Именно для таких задач и была разработана концепция универсальной машины Тьюринга, которая наряду с принципами архитектуры Дж. Фон Неймана привела к бурному развитию электронно-вычислительных машин. При этом современные нейронные сети, реализуемые на компьютере, не эквивалентны универсальной машине Тьюринга, т. к. для этого они должны быть бесконечны или хотя бы не ограничены [10].

Считается, что компьютеры — это физическое воплощение концепции алгоритма, которое было введено для формализации мышления в процессе решения математических задач [13]. Электронные машины автоматически решают вычислительные задачи, выраженные алгоритмами, и, к сожалению, не позволяют работать с невычислимыми задачами, с которыми должен справляться ИИ, основанный на работе естественного мозга.

Подтверждением этому является парадокс, возникающий в мысленном эксперименте Дж. Серла [13]. В нем представляется некоторая комната, в которой расположены таблички с китайскими иероглифами, а также книга правил для людей, не знакомых с этим языком. В окошко в комнате подается вопрос на китайском языке, и человек, используя правила, перекладывает иероглифы так, чтобы получить правильный ответ. Книга правил достаточно подробная, время не ограничено, поэтому ответы человека, не знакомого с языком, его носителям кажутся разумными и даже с примесью «дзен-буддизма». Т.е. абсолютно не понимая вопросов и ответов на них, человек может «разумно общаться» с представителями другого этноса. При временных ограничениях возможно представить деятельность миллиардов людей, перекладывающих таблички с иероглифами и передающих их друг другу. Это сродни нейронам, каждый из которых не понимает букв, слов, выражений, однако в рамках целого мозга, как системы, они действуют разумно. Такое же объяснение дается и для парадокса «китайской комнаты». В соответствии с ним, пониманием текста обладает не человек, выполняющий манипуляции с символами, а комната вместе с человеком, книгой правил, табличками с иероглифами и корзинками. Сам Серл полагал, что понимание возникает из физических особенностей устройства мозга, и даже не столько из его эмерджентности, сколько из свойств самих нейронов. Поэтому «китайская комната» или компьютер не могут понимать без воспроизведения определенных физических и биологических механизмов мозга.

С учетом сказанного, можно сделать вывод о том, что для создания сильного ИИ, призванного решать подлинно творческие задачи, необходимо не программировать на компьютере алгоритмы, а всемерно учитывать природу, механизмы функционирования биологического

разума, сосредоточиться на поиске возможностей воссоздания «в кремнии» способности клеток, зон мозга к мышлению.

Для этого, как представляется, необходимо сосредоточить усилия по двум основным направлениям. Первое из них связано с построением структурной модели мозга, т.н. коннектома, отражающего связи всех 1012 нейронов с их 103 связей в каждом. И сейчас такое «обратное проектирование мозга», Брайн-проекты активно развиваются во многих лабораториях мира.

Второе направление предполагает построение функциональной модели мозга, прежде всего его важнейшей части, отвечающей за разумность—коры больших полушарий, неокортекса. И здесь, прежде всего, необходимо принимать во внимание принципиальные отличия работы отдельных нейронов. Так, живые нейроны передают друг другу не вещественные числа (например, значения градиентов поверхности ошибки, как в нейросетях), а бинарные сигналы. Кроме того, у них нет соединений, работающих сразу в обе стороны: вход идет через дендриты, выход через аксоны и никак не наоборот. И, наконец, живые нейроны распознают только нервные импульсы (сигналы одного типа), а искусственные «умеют» работать как с функцией сигналов, так и с вышеуказанными градиентами.

Кроме того, необходимо учитывать и особенности работы коры головного мозга в целом, связанные с алгоритмом восприятия сенсорных сигналов, способами запоминания окружающего мира и формирования прогнозов мышления и действий [10]. Так, у неокортекса существует универсальный алгоритм, выполняемый одинаково всеми зонами коры головного мозга, отвечающими за распознавание лиц, восприятие музыки, доказательство теорем и т. п. Поступая в головной мозг от различных органов чувств, данные сигналы превращаются в нервные импульсы и сразу становятся равноценными. В компьютерах же за прием и обработку сигналов отвечают принципиально разные системы, отличающиеся как аппаратной частью (видеокарты, звуковые карты и т. п.), так и соответствующим программным обеспечением, т.е. алгоритмами.

Следующее различие заключается в том, что компьютер вычисляет, а мозг извлекает из памяти готовое, наиболее близкое решение. При этом он запоминает последовательность элементов, а не отдельные элементы окружающего мира. Данные последовательности запоминаются ассоциативно, с возможностью их полного воспроизведения на основе недостаточной или искаженной входной пространственной и временной информации. Рассматриваемые последовательности формируются инвариантно, что позволяет компенсировать бесконечно изменяющиеся формы и быстротечность событий окружающего мира. Мозг не запоминает все с абсолютной точностью, не привязывается к отдельным элементам действительности, а учитывает только ее важнейшие взаимосвязи. В отличие от этого память компьютера сохраняет информацию в максимально неизменном виде и даже незначительная ошибка в ней может вызвать сбой.

Кроме того, неокортекс человека непрерывно составляет прогнозы, которые являются сущностью понимания,

т. к. понимать — это составлять об этом предположение. Каждый миг мозг формирует низкоуровневые сенсорные прогнозы относительно того, что он ожидает ощутить (увидеть, услышать и т.п.). В целом же прогнозирование действует не только на сенсорном, но и на более высоких уровнях. При прохождении теста ^ человек решает прогностические задачи—оценивает следующее число, проекцию, слово. В науке идет формирование прогнозных гипотез, в искусстве — заблаговременное представление объекта искусства в целом, в разработке дизайна—предвидение запросов потребителей.

Использование структурной и функциональной моделей мозга человека позволит создавать действительно «умные» машины. Они, прежде всего, должны обладать системой сенсоров (радио, инфракрасных, ультрафиолетовых, ультразвуковых, радиационных и других), соответствующих механизмов обработки сигналов и превращения их в одинаковые по сущности искусственные нервные импульсы, а также иерархической системой памяти и алгоритмом прогнозирования.

Такие машины необходимо обучать до тех пор, пока у них не будет создана модель собственного мира, такого, каким они его видят через призму собственных ощущений. При этом не потребуется их программирования с использованием баз данных, фактов, знаний или других концепций высшего порядка, не свойственных

искусственному интеллекту. Разумные машины будут учиться на собственном опыте, иногда получая входные сигналы от инструктора-человека или другой машины, обучаться в полноразмерной среде. При этом само обучение в среде необходимо усложнять по этапам: «разработчик—машина», «разработчик—машина — другие машины», «машина — люди — другие машины», «машина—люди — другие машины — открытая природно-техногенная среда». Ну а для того, чтобы машина получилась мыслящей, нужно для нее создать среду с чем-то наподобие естественного (скорее — искусственного) отбора или какой-то мотивацией, приводящей к необходимым изменениям.

И как только разумная машина создаст модель своего собственного мира, она сможет распознавать аналогии, основанные на прошлом опыте, для прогнозирования событий в будущем, предлагать решение новых задач и делиться своим опытом с людьми и другими машинами.

В заключение следует отметить, что создание разумных машин в области спасения пострадавших не только позволит снизить людские потери и материальный ущерб в ЧС, но и сдвинуть решение проблем «сильного ИИ» с мертвой точки во всех сферах жизнедеятельности.

В дальнейших публикациях будут определены сферы, направления и риски применения искусственного интеллекта в спасательном деле.

Литература

1. Буренок В. М., Дурнев Р. А., Крюков К. Ю. Разумное вооружение: будущее искусственного интеллекта в военном деле // Вооружение и экономика. 2018. Вып.1(43).

2. Пегат А. Нечеткое моделирование и управление. М.: Издательство «Бином», 2011.

3. Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. Погружение в мир нейроных сетей. СПб.: Питер, 2018.

4. Наука. Величайшие теории: вып. 15: Размышления о думающих машинах. Тьюринг Компьютерное исчисление / Пер. с исп. М.: Де Агостини, 2015.

5. Зверева С. В. Человеческий фактор; проблемы функционального рассогласования искусственных интеллектуальных систем и естественного мышления человека. Доклад на XXI Всероссийской научно-практической конференции «Актуальные проблемы защиты и безопасности». СПб.: ВУНЦ ВМА им. Н. Г. Кузнецова, 2018.

6. Глобальное будущее 2045: антропологический кризис.

Конвергентные технологии. Трансгуманистические проекты: Материалы Первой всероссийской конференции, Белгород, 11-12 апреля 2013 г / Под ред. Д. И. Дубровского, С. М. Климовой. М.: «Канон+» РООИ «Реабилитация», 2014.

7. Пенроуз Р. Тени разума: в поисках науки о сознании. М.Ижевск: Институт компьютерных исследований, 2005.

8. Тейяр де Шарден П. Феномен человека. М.: АСТ: Астрель: Политграфиздат, 2012.

9. Карпов В. Э. Эмоции и темперамент роботов. Поведенческие аспекты // Известия РАН. Теория и системы управления. 2014. Вып. 5.

10. Хоккинс Дж. Об интеллекте. Пер. с англ. М.: ООО «И. Д. Виль-ямс», 2007.

11. Lazebnik Y. Can a Biologist Fix a Radio? — or, What I Learned while Studying Apoptosis// Biochemistry (Moscow), 2004, vol. 69, no. 12.

12. Jonas E., Kording K. Could a Neuroscientist Understand a Microprocessor? // bioRxiv, 2016.

13. Потапов А. С. Искусственный интеллект и универсальное мышление. СПб.: Политехника, 2012.

Сведения об авторах

Дурнев Роман Александрович: д. т. н., доц., ФГБУ

РАРАН, зам. нач. науч.-исслед. упр.

107564, Москва, 1-я Мясниковская ул., дом 3, стр. 3.

E-mail: rdurnev@rambler.ru

SPIN-код — 3267-1337.

Жданенко Ирина Васильевна: ФГБУ ВНИИ ГОЧС (ФЦ), с. н. с.

121352, Москва, ул. Давыдковская, 7. е-mail: izhdanenko@yandex.ru SPIN-код 7747-6337.

Крюков Кирилл Юрьевич: к. психол. н., ФГБУ РАРАН, ру-ковод. секретариата Совета главных конструкторов по системе вооружения сухопутной составляющей сил общего назначения.

107564, Москва, 1-я Мясниковская ул., дом 3, стр. 3. E-mail: raran@bk.ru

Information about the authors

Durnev Roman A.: Doctor of Technical Sciences, associate Professor, FGBU Russian Academy of Sciences, Deputy Head of the Research Department.

107564, Moscow, 1st Myasnikovskaya st., Build. 3, p. 3. E-mail: rdurnev@rambler.ru SPIN- scientific - 3267-1337.

Zhdanenko Irina V.: All-Russian Research Institute for Civil Defense and Emergencies, Senior Scientific Researcher. 7 Davydkovskaya, Moscow, 121352, Russia. e-mail: izhdanenko@yandex.ru SPIN- scientific — 7747-6337.

Kryukov Kirill U.: Candidate of Psychological Sciences, FGBU Russian Academy of Sciences, head of the Secretariat of the Council of chief designers for the armament system of the land component of the General purpose forces. 107564, Moscow, 1st Myasnikovskaya st., Build. 3, p. 3. E-mail: raran@bk.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.