Научная статья на тему 'РАЗВИТИЕ ИИ. ГЛУБОКОЕ И МАШИННОЕ ОБУЧЕНИЕ'

РАЗВИТИЕ ИИ. ГЛУБОКОЕ И МАШИННОЕ ОБУЧЕНИЕ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
146
23
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ГЛУБОКОЕ ОБУЧЕНИЕ / АВТОНОМИЯ / АВТОМАТИЗАЦИЯ / АЛГОРИТМИЧЕСКАЯ ОТЧЕТНОСТЬ / ОЦЕНКА ТЕХНОЛОГИИ / ARTIFICIAL INTELLIGENCE / DEEP LEARNING / AUTONOMY / AUTOMATION / ALGORITHMIC REPORTING / TECHNOLOGY EVALUATION

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Столяров А.С., Раджабов Т.Р.

В области искусственного интеллекта (ИИ) и особенно в машинном обучении (МО) происходит удивительный прогресс. Новые подходы к глубокому обучению дают толчок в развитии ИИ, обладающего возможностями самосовершенствования. Но каковы более широкие социальные последствия этого развития и в какой степени классические концепции ИИ по-прежнему актуальны? В статье обсуждаются эти вопросы, включая обзор основных понятий и понятий ИИ в отношении больших данных. Особое внимание уделяется ролям, социальным последствиям и рискам машинного и глубокого обучения.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE DEVELOPMENT OF AI. DEEP AND MACHINE LEARNING

In the field of artificial intelligence (AI) and especially machine learning (MO) is an amazing progress. New approaches to deep learning give impetus to the development of AI, with opportunities for self-improvement. But what are the broader social implications of this development, and to what extent are classic AI concepts still relevant? The article discusses these issues, including an overview of the basic concepts and concepts of AI in relation to big data. Special attention is paid to the roles, social consequences and risks of machine and deep learning.

Текст научной работы на тему «РАЗВИТИЕ ИИ. ГЛУБОКОЕ И МАШИННОЕ ОБУЧЕНИЕ»

УДК: 004.838.2

Столяров А. C. студент 3 курса

факультет «Информационных систем и технологий»

Раджабов Т. Р. студент 3 курса

факультет «Информационных систем и технологий» научный руководитель: Крахоткина Е.В., к.ф.-м.н.

доцент

кафедра «информационных систем и технологий» Северо-Кавказский федеральный университет

Россия, г. Ставрополь РАЗВИТИЕ ИИ. ГЛУБОКОЕ И МАШИННОЕ ОБУЧЕНИЕ

Аннотация: в области искусственного интеллекта (ИИ) и особенно в машинном обучении (МО) происходит удивительный прогресс. Новые подходы к глубокому обучению дают толчок в развитии ИИ, обладающего возможностями самосовершенствования. Но каковы более широкие социальные последствия этого развития и в какой степени классические концепции ИИ по-прежнему актуальны? В статье обсуждаются эти вопросы, включая обзор основных понятий и понятий ИИ в отношении больших данных. Особое внимание уделяется ролям, социальным последствиям и рискам машинного и глубокого обучения.

Ключевые слова: искусственный интеллект; глубокое обучение; автономия; автоматизация; алгоритмическая отчетность; оценка технологии.

Stolyarov A. C. Student

The 3rd course, faculty "Information systems and technologies»

North-Caucasus Federal University

Russia Stavropol Radjabov T.R. Student

The 3rd course, faculty «Information systems and technologies»

North-Caucasus Federal University

Russia Stavropol

Supervisor: Krahotkina E., Candidate of physical and mathematical Sciences, associate Professor of " information systems and technologies» North-

Caucasus Federal University Russia Stavropol

THE DEVELOPMENT OF AI. DEEP AND MACHINE LEARNING

Abstract: in the field of artificial intelligence (AI) and especially machine learning (MO) is an amazing progress. New approaches to deep learning give impetus to the development of AI, with opportunities for self-improvement. But

what are the broader social implications of this development, and to what extent are classic AI concepts still relevant? The article discusses these issues, including an overview of the basic concepts and concepts of AI in relation to big data. Special attention is paid to the roles, social consequences and risks of machine and deep learning.

Key words: artificial intelligence; deep learning; autonomy; automation; algorithmic reporting; technology evaluation.

Создание интеллектуальных машин всегда было видением человечества. В последние несколько лет быстрый технический прогресс в области искусственного интеллекта (ИИ) делает это видение более ощутимым. Сегодня спектр приложений, прямо или косвенно оснащенных машинным «интеллектом», шире, чем когда-либо: сложные алгоритмы не просто побеждают людей в сложных играх, таких как шахматы, Jeopardy, Dota 2 или Go, но поддерживают различные виды человеческих задач: от веб-поиска, текста, распознавание изображения или голоса, или даже прогнозирование тенденций. Существует общее увеличение автоматизированных систем и когнитивных вычислений, которые приносят пользу группе «умных технологий», робототехники, «интернета вещей», удаленных пилотируемых систем (беспилотных летательных аппаратов), беспилотных автомобилей, вспомогательных технологий и т. д. В каждом из этих различных событий подходы машинного обучения (МО) играют важную роль, которая обычно связана с обработкой большого количества необработанных данных. Сбор машиночитаемых данных из контекстов в повседневной жизни, стимулирует развитие в области ИИ и наоборот. Недавний прогресс, достигнутый в области машинного обучения с так называемым глубоким обучением, обеспечивает большую гибкость и эффективность для структурирования и обработки необработанных данных. Но насколько велик этот потенциал, каковы перспективы и ограничения, социальные последствия и риски глубокого обучения и аналогичные подходы к компьютерному обучению? Есть две основные перспективы: первая перспектива заключается в появлении ИИ, его основных характеристик и, в частности, основных функциях и ограничениях машинного обучения. Вторая перспектива касается вопросов человеко-машинного взаимодействия, связанного с тестом Тьюринга, который подразумевает автоматическое подражание человеческому поведению. Обе перспективы рассматриваются при обсуждении социальных последствий, этических проблем и конфликтов ИИ в реальных ситуациях (как показывают недавние эмпирические примеры из разных областей). Следует отметить, что в анализе явно не рассматриваются аспекты удобства использования и исследования пользовательского опыта. Очевидно, что эти аспекты имеют огромное значение для использования в полезной, приемлемой технологии ИИ. Однако они в основном касаются вопросов разработки технологий с точки зрения отдельных конечных пользователей, но не учитывают

социальные и этические последствия. Поэтому больше внимания уделяется более широким социальным и этическим последствиям ИИ и машинного обучения. Основной аргумент заключается в том, что возрастает проблема того, что называется глубоким уклоном в области автоматизации, который затрагивает не только людей, взаимодействующих с ИИ в конкретных ситуациях, но, с более широким взглядом, несет серьезные риски для функционирования общества в долгосрочной перспективе. Основными проблемами являются недостаточная производительность этического машинного обучения, отсутствие алгоритмической отчетности и взаимные риски неправильного толкования вплоть до поэтапно усугубляющих конфликтов при принятии решений между людьми и машинами.

В некотором смысле большие данные и ИИ встречаются на полпути, в результате границы между ними относительно размыты. Суперкомпьютеры IBM, «Deep Blue» и «Watson», наглядно иллюстрируют это: Deep Blue может проводить около 200 миллионов шахматных ходов в секунду, и поскольку в 1997 году он победил бывшего чемпиона мира Гарри Каспарова, IBM использовала его для демонстрации интеллектуального преимущества машины. Опыт Deep Blue повлиял на развитие современного компьютера компании Watson. Google продвигает свою технологию AI AlphaGo, похожую на IBM, основанную на ее победе над лучшими игроками Go-world по всему миру и стремится использовать ее в качестве инструмента для научных открытий. В какой-то мере большие данные и алгоритмы вытесняют «искусственный интеллект» как способ, с помощью которого вычисление воспринимается как формирование общества: парадигма семантики, понимания, становится парадигмой прагматики, поиск. Последние технологические тенденции подтверждают эту оценку больших данных, прокладывающих путь для технологии ИИ.

Прагматизм, связанный с этими событиями, поднимает важный вопрос о том, становится ли синтаксис (интерпретируемый машиной) более значимым, если семантика частично заменяется прагматиками. Связанная с этим проблема заключается в том, что большие данные, а также ИИ, как правило, становятся мистифицированными: большие данные, были определены в как «культурное, технологическое и научное явление», которое основывается на взаимодействии технологий, анализа. Это измерение подчеркивает «широко распространенное убеждение, что большие наборы данных предлагают более высокую форму интеллекта и знаний, чтобы генерировать идеи, ранее невозможные с объективности и точности». Большие данные обещают широкий спектр инновационных форм использования информации для повышения эффективности принятия решений и создания дополнительных знаний. Соответственно, представление и обобщение знаний является одним из краеугольных камней ИИ. В каждом случае алгоритмическая сила необходима для развязывания (предполагаемого) огромного потенциала, скрытого в больших объемах необработанных данных. Чтобы выделить перекрытия больших данных и

ИИ, в таблице 1 приведены некоторые из их общих характеристик:

Таблица 1. Общие характеристики больших данных и искусственного

интеллекта

Большие данные Искусственный интеллект

Сбор данных и крупномасштабный анализ данных

Получение дополнительных знаний Понимание природы разумной мысли

Информационная структуризация/ реструктуризация Представление знаний

Распознавание образов Машинное/глубокое обучение

Усиление принятия решения Автоматизация принятий решения

Самый низкий общий знаменатель или соединительная ссылка - это данные, потому что обе концепции требуют, чтобы большие наборы данных функционировали. Технология больших данных использует исходные данные для получения новых идей и поддержки принятия решений, ИИ делает это, чтобы понять природу разумной мысли и решить реальные проблемы (в том числе обработку естественного языка, рассуждения и обучение). Обработка информации в обоих случаях несколько схожа: информация реструктурирована для сбора и представления знаний на основе алгоритмической власти. Алгоритмическая мощность больших данных в основном включает (полуавтоматическую) обработку информации и распознавание образов. Алгоритмы, основанные на так называемых моделях программирования mapreduce, используются для изучения и представления (скрытых) корреляций в данных. Mapreduce включает в себя две основные функции: функция карты задает и формирует информацию; функция уменьшения определяет, как эта информация агрегирует, чтобы прийти к полезному результату, что идеально поддерживает человеческие решения. Эти алгоритмы представляют собой форму высокопроизводительной статистики с вероятностным вычислением, играющим решающую роль. Таким образом, считается, что знание считается релевантным на основе определенной вероятности. В принципе, аналогично дано для ИИ, но с дальнейшим шагом к автоматизации. По сути, ИИ включает в себя подходы к компьютерному обучению, которые анализируют и структурируют входную информацию, чтобы получить полезный результат (например, изучение особенностей текста или голосового шаблона). В сочетании с большими алгоритмами данных машинное обучение также включает в себя расчет вероятностей. Эти вероятности затем используются для повышения эффективности принятия решений людьми или обеспечения возможности машинного или ИИ-подразделения для проведения автоматических решений или действий. Поэтому основное различие заключается в степени автоматизации: просто, в то время как большие данные направлены на усиление процесса принятия решений, ИИ еще больше стремится автоматизировать процесс принятия решений. Как обсуждалось в предыдущем разделе, существуют естественные совпадения между

большими данными и ИИ, которые особенно связаны с полем машинного обучения. Проще говоря, ИИ требует больших объемов данных для работы. В соответствии со своими целями - собирать и представлять знания и учиться - ИИ основан на алгоритмах, которые собирают, анализируют, дезадаптируют и переконсулируют большие наборы данных для изучения и распознавания шаблонов. Таким образом, компьютерные машины учатся сегодня. Таким образом, МО, очевидно, имеет решающее значение для ИИ. Основные проблемы МО включают в себя создание самосовершенствующихся компьютерных систем и поиск универсальных наборов правил обучения. Поле может быть расположено на пересечении компьютерных наук и статистики. Системы, использующие МО, «автоматически изучают программы из данных» с центральной целью обобщения знаний, собранных из данных. Таким образом, МО влечет за собой сдвиг парадигмы в поле ИИ - от вопроса «как программировать компьютеры» к «как разрешить им программировать себя». С ростом вычислительной производительности МО значительно улучшилось за последнее десятилетие. Сегодня МО по сути участвует в ряде приложений, таких как распознавание текста, речи и изображений, интеллектуальный анализ данных, робототехника, автономные машины, чаты и многие другие.

Глубокое обучение (ГО)

Ответвление МО, которое становится все более актуальным в течение нескольких лет, - это так называемое «глубокое обучение» (ГО). МО включает в себя «методы обучения представлению с несколькими уровнями представления, составляющие простые, но нелинейные модули, которые каждый преобразуют представление на одном уровне в представление на более высоком, чуть более абстрактном уровне», по сравнению с обычными подходами МО, ГО имеет более модульную структуру, что делает ее более гибкой. ГО позволяет машине обрабатывать необработанные данные и автоматически изучать способы представления, в то время как используются несколько слоев. Для этого ГО использует так называемые искусственные нейронные сети (ИНН), позволяющие иерархически структурировать знания и несколько слоев обработки, которые позволяют автоматически изучать иерархии признаков. Следовательно, алгоритм ГО может автоматически выполнять задачи по реорганизации и реструктуризации информации из необработанных данных (техническая инженерия), что делает МО более эффективным. ИНН получил некоторое общественное внимание, поскольку ИИ Google победил человека в сложной игре «Go». Иерархические структуры используются для реорганизации информации и представления знаний. Чтобы включить инкрементные процессы обучения, для описания сложной входной информации используются несколько уровней и постепенное изучение ее состава. Алгоритм ГО разлагает и реструктурирует входную информацию и использует (скрытые) слои для изучения особенностей и моделей, затем эта информация перестраивается в выходном слое. Скрытый слой искажает вход нелинейным способом, который

позволяет линейно разделить категории на последний слой.

За последние несколько лет в ГО наблюдается удивительный прогресс. Во многих доменах ГО обеспечивает более эффективные результаты, чем другие методы МО; например, при распознавании изображений или речи, анализе ДНК или переводе языка. Также в ряде распространенных приложений реального мира уже используются подходы ГО; (например, Google), распознавание текста и изображений в социальных сетях (например, на Facebook), перевод на язык (например, deepl.com), беспилотные автомобили, сложные промышленные роботы, некоторые чаты и речевой помощник систем (например, Apple Siri, Microsoft Cortana или Алиса), вплоть до исследований в военной области. Следовательно, ГО повышает технологию ИИ, поскольку она обеспечивает более гибкие и эффективные алгоритмы в различных областях. Однако этот огромный потенциал не приходит без социальных рисков и противоречий в реальных ситуациях.

Риски и споры в реальном мире

Учитывая огромный прогресс и потенциал МО /ГО и продолжающийся рост реальных приложений, технология ИИ сегодня кажется очень инновационной. В первые годы существования ИИ неизбежно связывался с пробными ошибками: «Самая центральная идея периода до 1962 года заключалась в том, чтобы найти эвристические устройства для контроля ширины пробного и поискового поиска». Другими словами, машины, используемые для изучения в основном методом проб и ошибок. Можно утверждать, что с тех пор производительность вычислений значительно повысилась, сделав МО намного более эффективным и мощным. Хотя это верно, так же верно и в отношении обычного МО, также ГО - это в основном высокопроизводительная статистика и вычисление вероятности. Модели, необходимые для ГО, такие как ИНН, относятся к 1950-м годам. В 1958 году Фрэнк Розенблатт представил персептрон, вероятностную модель для хранения информации, что является важной основой для исследований в области МО. Сегодня эти подходы очевидно более сложны, сложны и их функциональные преимущества от высокопроизводительных вычислений. Тем не менее, подходы как таковые и их функциональные принципы по-прежнему схожи. МО когда-либо получал больше информации из статистики и информатики, чем от изучения человеческого обучения, главным образом из-за «слабого состояния нашего понимания человеческого обучения». Точнее, сложные алгоритмы ГО также основаны на редукционистских, вероятностных моделях. Следовательно, большая производительность и эффективность ГО не обязательно делают ИИ менее подверженным ошибкам. Таким образом, несмотря на его сложный подход, существует тонкая линия между ГО и автоматическими формами проб и ошибок. Не без иронии это может сделать машины несколько похожими на людей, поскольку пробная ошибка - это широко распространенный подход к обучению людей. Однако, в целом, человеческий интеллект, мышление, обучение, рассуждение и действия намного сложнее, чем пробная ошибка.

Более того, эти вопросы не просто основаны на логике рационального выбора и, следовательно, не сводятся к набору формализованных, вычислимых правил. Предположение, присущее дискурсу ИИ, «что разум -это манипуляция символами после фиксированных и формальных правил», является важной проблемой. Это предположение влечет за собой рационалистическую концепцию когнитивных процессов (таких как мышление и обучение) и, следовательно, их сокращение. На самом деле, машинное обучение не сопоставимо с человеческим обучением, и попытки приравнять их этически проблематичны. Люди, в частности, учатся на собственном опыте и обычно могут проанализировать свои знания. Машины не учатся в этом смысле, но в основном рассчитывают вероятности их ввода; и, в случае ГО, автоматически сортировать и классифицировать информацию. Среди преимуществ ГО (по сравнению с другими концепциями МО) заключается в его большей гибкости за счет обратного распространения, то есть алгоритмического подхода, который позволяет ГО перенастроить вероятности своей входной информации. Это позволяет ГО улучшить данные обучения без необходимости перепрограммировать весь алгоритм. Тем не менее, эта большая гибкость не изменяет того факта, что, по сути, ГО вычисляет вероятности в предопределенных компьютеризированных моделях. Это хорошо работает для вычислимых задач (например, шахматы, распознавания определенных шаблонов из данных, изображений, текста и т. Д.), но не обязательно в реальных ситуациях, которые нельзя просто свести к стохастическим представлениям. Следовательно, поскольку реальный мир обязательно более сложный, чем компьютеризированные модели, ГО имеет естественные пределы. Примеры реальных последствий для этих пределов можно найти в недавних авариях беспилотных автомобилей: в одном случае автопилот не распознал трейлер, приводящий к фатальной аварии; в другом случае автомобиль врезался в дорожное ограждение, не распознав его в сумерки. Важнейшей проблемой технологии ИИ, поступающей в приложения реального мира, является скрытое пренебрежение этим фактом, и восприятие, усвоившее компьютерную метафору, то есть предполагая, что машинное обучение будет сродни человеческому познанию. Эти восприятия являются результатом широко распространенных редукционизмов и бихевиористских подходов, присущих ИИ, которые подвергались серьезной критике со стороны ряда исследователей. С сегодняшней точки зрения главная проблема заключается не в том, что машины (по-прежнему) не могут мыслить или действовать по-настоящему, подобно людям. Очень сомнительно, что интеллект когда-либо может быть повсеместно понят и выражен в обобщенной компьютерной модели, поскольку процессы мышления, вероятно, отличаются от индивидуума к индивидууму. Следовательно, суть интеллекта не может быть понята без учета решающей роли индивидуализма и индивидуальности, которые нельзя подражать. Но, сегодня область ИИ гораздо более прагматична, чем несколько десятилетий

назад. Таким образом, ИИ меньше занимается созданием интеллектуальных машин, а скорее созданием систем поддержки для эффективного и эффектного выполнения различных реальных задач. Следовательно, мы можем утверждать, что ИИ обещает поддержать нас в процессе принятия решений, выполняя сложные задачи; приносить больше удобства и т. д. и не влиять на наши представления об индивидуальности и индивидуализме. Однако, если мы рассмотрим дальнейшее увеличение зависимости людей, а также общества от технологий ИИ, обе они находятся под угрозой в долгосрочной перспективе. Поскольку чем больше мы подвергаем себя ИИ и позволяем автоматизировать информационные процессы, определяющие общество, мы стимулируем дальнейшие зависимости. Эти зависимости несут риск того, что особенности и качества людей (эмоции, чувства, познание, интуиция, рассуждение, сознание, творчество и т.д.) Могут постепенно увеличиваться и ограничиваться количественными показателями ради автоматизации на основе ИИ. Таким образом, существует этическая ловушка, в которую могут попасть исследователи ИИ, которые могут вызвать дальнейшие социальные проблемы: вводящее в заблуждение предполагая, что полностью формализованный мир будет предлагать наилучшие условия для функционирования ИИ на основе автономных вычислительных машин.

Конфликты между автономией человека и машины

Существует растущий этический конфликт между человеческими и машинными решениями с серьезными рисками для автономии человека. Уже сегодня общество во многом зависит от автономных программных агентов во многих отношениях, которые используются для различных приложений: от веб-поиска, социальных сетей, интеллектуального анализа данных, оценки кредитоспособности, высокочастотной торговли, безопасности и наблюдения, бизнес-аналитики, интеллектуальной аналитики и т. д. Эта зависимость значительно усиливается с помощью ИИ, если машины становятся способными к самосовершенствованию (как предполагают вышеупомянутые видения), что подразумевает большую автономию машины. Понятие машин, способных программировать себя, затрудняет представление о человеческой управляемости таких машин. Но это самоуправление не узаконивает неэтичные действия. Другими словами, нельзя действовать так, чтобы никто не хотел, чтобы другие действовали (например, это может причинить вред). Это важный этический принцип, позволяющий принимать разумные решения и действия в отношении индивидуального и социального благополучия. Однако «интеллектуальные» машины любого типа не могут действовать таким образом, потому что, независимо от их производительности, они остаются машинами. Поэтому автономную машину нельзя сравнивать с человеком, который в принципе способен действовать в отношении этических принципов. Следовательно, люди отвечают за использование технологий ответственными способами в отношении этических принципов, и ИИ не меняет этого факта. Однако, если

мы разрешаем машинам автономно решать и действовать (как это предусмотрено в таких тенденциях, как ГО), мы подрываем этику, так как мы больше не можем контролировать машинные действия. Уже сегодня мы видим в различных примерах, что технология ИИ поднимает ряд этических проблем. По сути, большие системы данных и ИИ сопряжены с серьезными рисками для усиления предрассудков, социальных диспропорций, дискриминации и предрассудков, широко распространенных в обществе, включая сексизм и расизм

Прогресс в области МО и особенно в ГО дает машинам большую гибкость, а также возможности самосовершенствования. В зависимости от объема приложений это развитие влечет за собой многочисленные социальные последствия. С одной стороны, ГО обещает сделать вычислительные задачи более эффективными и улучшить системы поддержки принятия решений. С другой стороны, однако, многие «старые» проблемы и точки критики ИИ, похоже, повторяются, а также ряд этических вопросов, которые сейчас становятся более серьезными. В какой-то степени ИИ страдает от своей идеологической тени, включая механистические взгляды на поведение человека и частично наивную веру в технологию как решение сложных социальных проблем. Однако среди наибольших различий между текущим и классическим ИИ является более высокая производительность вычислений. Основные понятия и модели МО (включая ГО) во многом схожи с теми, что были десятилетия назад. Сюда относятся редукционистские модели поведения людей, статистические данные и вероятностные методы. Для задач, которые относительно легко вычислить (например, шахматы, распознавая определенные шаблоны из данных, изображений, текста и т. Д.) Или задач, требующих структурирования информации (реструктурирования), это работает хорошо. Однако это не обязательно в реальных ситуациях, которые нельзя просто свести к стохастическим представлениям. То, что может произойти, когда ИИ или полуавтономные системы действуют «в дикой природе», например, иллюстрируется растущим числом несчастных случаев со смертельным исходом с само занятыми или беспилотными автомобилями, а также с неисправностью вспомогательных систем или неконтролируемым поведением различных ботов. В некоторых случаях, подобно эффекту ELIZA, люди ошибочно полагались на технологию; в других, технология потерпела неудачу из-за ее упрощенных моделей гораздо более сложной реальности. Прежде всего, существует серьезная опасность глубокого смещения системы, что влечет за собой постепенную «нормализацию» общества. Это означает, что, если социальные процессы, особенности и качества людей (например, эмоции, чувства, познание, интуиция, рассуждение, сознание, творчество и т. д.) становятся все более подверженными ИИ, они затем могут быть уменьшены ради ИИ основанного на знаниях. В соответствии с большой парадигмой данных события в этом отношении уже идут по мере того, как «реальные»

жизненные контексты оцифровываются для усиления принятия решений и повышения эффективности МО. Однако оборотная сторона монеты заключается в том, что риски, связанные с большими данными, такими как закрепление «нормализованной неопределенности», усугубляются ИИ. С его точки зрения, эти события в отношении автономных систем несут серьезные угрозы для человека. Потому что, независимо от его потенциала, ИИ также укрепляет технологические зависимости, усиливая давление на людей, чтобы адаптироваться к этой технологии. Эти зависимости усиливаются с ростом числа доменов, где применяется ИИ. Как следствие, ИИ все чаще также затрагивает людей в своих действиях. Это связано с потенциальным уменьшением индивидуализма до автоматизма в том смысле, что цифровое представление человека все больше подвержено автоматическим алгоритмам и решениям. Люди становятся все более прозрачными и предсказуемыми для машин, которые становятся более непрозрачными и непостижимыми взамен. Другими словами, существует определенная ошибка сложности, когда сложность человеческого мышления рискует стать отклонением от сложности машины. Кроме того, существуют сложные возможности использования ИИ для манипулирования и производства фальшивой информации. Это означает, что ИИ рискует стать технологической силой, которая влияет на человечество в неясной манере, которую невозможно проверить и контролировать. Контраргумент может заключаться в том, что этика может быть интегрирована в ИИ. Однако вопрос нетривиален в том, является ли этика вычислимой или может ли ее вычисление прекратить ее значение. Предположения о возможности разработки моральных машин или МО с этическим поведением вводят в заблуждение и рискованны. Потому что независимо от способности машины автоматизировать или оптимизировать задачи, интерпретировать или подражать человеческому поведению и т. д., он в конечном счете остается сущностью, которая вычисляет, но не может действительно действовать этично. В результате возникает потребность привлечь больше внимания к этическому качеству использования ИИ и, соответственно, к степени, в которой ИИ нуждается в управлении и регулировании Таким образом, чтобы избежать серьезных конфликтов между автономией человека и машины, настало время обществу в целом и исследователям, и разработчикам ИИ, в частности, преодолеть идеологические мифы и ложные убеждения в технологии как панацею для укрепления общества. Основной задачей разработчиков, исследователей и политиков является критическая оценка фактической потребности и последствий проектирования автономных систем и технологий ИИ. Чтобы справиться с различными рисками ИИ, необходимы подходы к улучшению алгоритмической отчетности и широкая дискуссия о полезном управлении для использования потенциала ИИ в отношении этики и социального благополучия.

Использованные источники:

1. Домингос П. Верховный алгоритм - 2015

2. Бостром Н. Искусственный интеллект. Этапы. Угрозы. Стратегии - 2014

3. I. Goodfellow, Y. Bengio, A.Courville "Deep Learning (Adaptive Computation and Machine Learning series)" 2016.

Сурин В. С. студент группы 5941 «Новгородский государственный университет имени Ярослава Мудрого» Многопрофильный колледж Политехнический колледж

СОЗДАНИЕ МАЛОБЮДЖЕТНОГО ЛЮМИНЕСЦЕНТНОГО МИКРОСКОПА ДЛЯ УЧЕБНОГО ПРОЦЕССА

Аннотация: Рассказано о создании малобюджетного люминесцентного цифрового микроскопа на базе цифрового микроскопа «Levenhuk DTX 500 LCD».

Ключевые слова: переходная насадка, насадка с ультрафиолетовыми светодиодами, светоизлучающие диоды (СИД).

Surin V.S. group student 5941

"Novgorod state University named after Yaroslav the Wise»

A multidisciplinary College Polytechnic college THE CREATION OF LOW-BUDGET FLUORESCENT MICROSCOPE FOR THE LEARNING PROCESS

Annotation: It is told about the creation of a low-budget fluorescent digital microscope based on the digital microscope "Levenhuk DTX500 LCD".

Keywords: transition nozzle, nozzle with ultraviolet LEDs, light-emitting diodes (LEDs).

Введение

Основная цель современного образования — создание условий для самореализации личности и удовлетворения образовательных потребностей каждого учащегося в соответствии с его наклонностями, интересами и возможностями.

В настоящее время образование ставит целью не только приобретение знаний и умений, но и обеспечение качественного процесса обучения, создание соответствующих условий для получения качественного результата в образовании.

Современные технологии предназначены для реализации инновационных образовательных проектов в области естественных наук, использование информационных и педагогических технологий позволяет формировать инновационное поведение, креативную созидательную деятельность учащихся.

i Надоели баннеры? Вы всегда можете отключить рекламу.