Научная статья на тему 'Социально-этические проблемы робототехники'

Социально-этические проблемы робототехники Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
2738
304
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
робот / робототехническая система / этика / этические роботы / robot / robotic system / ethics / ethical robots

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — И. В. Ладыгина

С каждым днём количество роботов в нашей повседневной жизни увеличивается. Конструкторы робототехнических систем должны оборудовать робота средствами, которые помогли бы ему реагировать на быстрое «принятие решения» и исключить выбор плохого решения. Темпы развития робототехники таковы, что эти проблемы будут в ближайшее время учитываться на роботах, применяемых в системездравоохранения, в военных операциях и других робототехнических устройствах в похожих системах, где принятое роботом решение может помочь или навредить человеку. Специалистыв области робототехники все больше уверены в том, что принятие обществом таких машин будет зависеть от того, могут ли они быть запрограммированы действовать таким образом, чтобы максимально увеличить безопасность людей, тем самым повышая доверие человека к робототехнической системе.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Social and ethical problems of robotechnics

The number of robots in our daily lives increases every day. Designers of robotic systems should equip the robot with tools that would help it to respond to a quick "decision making" and to exclude the choice of a bad solution. The pace of development of robotics is such that these problems will soon be taken into account in robots used in the health care system, in military operations and other robotic devices in similar systems where a robot's decision can help or harm a person. Specialists in the field of robotics are more and more confident that the acceptance by the society of such machines will depend on whether they can be programmed to act in such a way as to maximize the safety of people, thereby increasing human confidence in the robotic system.

Текст научной работы на тему «Социально-этические проблемы робототехники»

Примечания

1. Аристотель. Сочинения : в 4 т. Т. 2. М. : Мысль, 1978. С. 420.

2. Лейбниц Г. В. Сочинения : в 4 т. Т. 4. М. : Мысль, 1989. С. 426.

3. Там же. Т. 3. С. 98.

4. Проблема методав социально-гуманитарном познании. М. : Ин-т философии АН СССР, 1989. С. 65.

5. Спиркин А. Г. Сознание и самосознание. М. : Политиздат, 1972. С. 239.

6. Быстрицкий Е. К. Научные знания и проблема понимания. Киев : Наук. думка, 1986. С. 109.

7. Ильинский И. М., Гуревич П. С. Понимание как цель образования // Знания. Понимания. Умения. 2006. № 1. С. 11.

8. Быстрицкий Е. К. Указ. соч. С. 109.

9. Кудаков В. Е. Мировоззренческое содержание проблемы понимания : автореф. дис. ... канд. филос наук. Киев : 1985. С. 11-12.

10. Федотова В. Г. Понимание в системеметодологических средств современной науки // Проблемы объяснения и понимания в научном познании. М. : Ин-т философии АН СССР, 1982. С. 117.

11. Гегель Г. В. Ф. Философия права. М. : Мысль, 1990. С. 474.

12. Ибраев Л. И. Ворота философии. Йошкар-Ола : МарПИК, 2004. С. 55.

13. Декарт Р. Избранные произведения. М. : Госполитиздат, 1959. С. 421.

Notes

1. Aristotel'. Sochineniya [Works] in four volumes. M. Mysl. 1978. Vol. 1. P. 420.

2. Lejbnic G. V Sochineniya [Works] in four volumes. M. Mysl. 1989.Vol. 4. P. 426.

3. Lejbnic G. V Sochineniya [Works] in four volumes. M. Mysl. 1984. Vol. 3. P. 98.

4. Problema metodav social'no-gumanitarnom poznanii - The problem of the method in social and humanitarian knowledge] M. Institute of Philosophy of the USSR Academy of Sciences. 1989. P. 65.

5. Spirkin A. G. Soznanie isamosoznanie [Consciousness and self-awareness]. M. Politizdat.1972. P. 239.

6. Bystrickij E. K. Nauchnye znaniya i problema ponimaniya [Scientific knowledge and the problem of understanding]. NaukovaDumka. Kiev. 1986. P. 109.

7. Il'inskij I. M. Gurevich P. S. Ponimanie kak cel' obrazovaniya [Understanding as a goal of education] // Knowledge. Understanding. Skills. 2006, No 1, p. 11.

8. Bystritskiy E. K. Op. cit. P. 109.

9. Kudakov V E. Mirovozzrencheskoe soderzhanie problemy ponimaniya: avtoref.dis. ... kand. filos nauk. [Ideological content of the problem of understanding: abstract...dis. cand. philosophy] Kiev. 1985. Pp. 11-12.

10. Fedotova V G. Ponimanie v sistememetodologicheskih sredstv sovremennoj nauki [Understanding of the methodological means of modern science in the system] // Problemy ob"yasneniya i ponimaniya v nauchnom poznanii - The problems of explanation and understanding in the scientific knowledge. Institute of Philosophy of Academy of Sciences. M. 1982. P. 117.

11. Hegel G. W F. Filosofiya prava [Philosophy of rights]. M. Mysl. 1990. P. 474.

12. IbraevL. I. Vorota filosofii [The Gate of Philosophy]. Yoshkar-Ola. MarPik. 2004. P. 55.

13. DescartesR. Izbrannye proizvedeniya [Selected Works]. M. Gospolitizdad. 1959. P. 474.

УДК 004

И. В. Ладыгина

Социально-этические проблемы робототехники

С каждым днём количество роботов в нашей повседневной жизни увеличивается. Конструкторы ро-бототехнических систем должны оборудовать робота средствами, которые помогли бы ему реагировать на быстрое «принятие решения» и исключить выбор плохого решения. Темпы развития робототехники таковы, что эти проблемы будут в ближайшее время учитываться на роботах, применяемых в системездраво-охранения, в военных операциях и других робототехнических устройствах в похожих системах, где принятое роботом решение может помочь или навредить человеку. Специалистыв области робототехники все больше уверены в том, что принятие обществом таких машин будет зависеть от того, могут ли они быть запрограммированы действовать таким образом, чтобы максимально увеличить безопасность людей, тем самым повышая доверие человека к робототехнической системе.

The number of robots in our daily lives increases every day. Designers of robotic systems should equip the robot with tools that would help it to respond to a quick "decision making" and to exclude the choice of a bad solution. The pace of development of robotics is such that these problems will soon be taken into account in robots used in the health care system, in military operations and other robotic devices in similar systems where a robot's deci-

© Ладыгина И. В., 2017

sion can help or harm a person. Specialists in the field of robotics are more and more confident that the acceptance by the society of such machines will depend on whether they can be programmed to act in such a way as to maximize the safety of people, thereby increasing human confidence in the robotic system.

Ключевые слова: робот, робототехническая система, этика, этические роботы.

Keywords: robot, robotic system, ethics, ethical robots.

1. Введение

В 1942 г. в своём коротком рассказе«Хоровод» писатель-фантаст Айзек Азимов представил три закона робототехники, представляющие собой инженерные гарантии и встроенные этические нормы, которые и дальше использовал в десятках своих рассказов и романов. Законы говорят о следующем:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму законам [1].

Законы Азимова из рассказа «Хоровод» в 2017 г. в реальной жизни, в мире робототехниче-ских устройств, становятся достаточно актуальными.

Роботы, когда-то действовавшие лишь на страницах научно-фантастических книг, в наше время стали реальностью, и область их применения с каждым днём расширяется. Сложились такие условия, что практические потребности в роботах совпали с научно-техническими возможностями их создания и применения на базе достижений научного прогресса развития.

Промышленные роботы получили широкое применение в машиностроении и приборостроении ещё в конце XX в. (1976-1980 гг.]. В 80-е гг. XX в. начинается их использование в лёгкой промышленности, в городском хозяйстве, при добыче угля, горных разработках, на транспорте. В машиностроение включились автомобильная, авиационная промышленность, вагоно- и локомотиво-строение, двигателестроение, станкостроение, машиностроение для лёгкой, пищевой и химиичес-кой отраслей, сельскохозяйственное машиностроение и т. д.; в приборостроении, кроме собственно производства приборов, - электротехническая, электронная, радиотехническая промышленность. В наше время можно выделить основные направления применения роботов: опасные спасательные и боевые операции, сфера домашнего обслуживания, выполнение однообразных манипуляций, требующих высокой точности, медицина, космические исследования, транспорт.

На примере транспортных устройств можно задаться вопросом, как робототехнические транспортные средства будут вести себя в условиях кризисной ситуации. Что делать, для того чтобы направить робототехническое транспортное средство на спасение своих пассажиров в кризисной ситуации, например если произошло столкновение транспортных средств, резкий тормоз? Или если машина резко повернула, чтобы избежать гибели человека?

2. Постановка задачи

С каждым днём появляется все больше и больше роботов в нашей повседневной жизни. Можно и здесь задаться вопросом, как конструкторы могут оборудовать робота средствами, которые помогли бы ему реагировать на быстрое «принятие решения» и исключить выбор плохого решения. Темпы развития робототехники таковы, что эти проблемы будут в ближайшее время учитываться на роботах, применяемых в системездравоохранения, в военных операциях и других робототехнических устройствах в похожих системах, где принятое роботом решение может помочь или навредить человеку. Специалистыв области робототехники все больше уверены в том, что принятие обществом таких машин будет зависеть от того, могут ли они быть запрограммированы действовать таким образом, чтобы максимально увеличить безопасность людей, тем самым повышая доверие человека к робототехнической системе. Компьютерные инженеры, специалисты в области робототехники, специалисты по этике и философы должны понимать, что интеллектуальным роботам необходимо соблюдать права человека в своём понимании этой проблемы. Современные научные проекты должны быть направлены на решение данного вопроса. Они должны решать сложные научные задачи, например, такие: какой вид интеллекта и что необходимо использовать для правильного этического принятия решений? И как это может быть переведено в инструкции для конкретной машины?

3. Эксперименты с роботами

Инженер Алан Уинфилд из Бристольской компании Robotics Laboratory (Великобритания] на этот счёт сказал: «Если бы вы спросили меня пять лет назад, можно ли сделать роботов со

встроенными этическими нормами, этических роботов, я бы сказал, что нет. Сейчас я не думаю, что это такая сумасшедшая идея» [2].

В одном часто цитируемом эксперименте участвует робот - игрушка, который называется Нао и который был запрограммирован для того, чтобы напоминать людям принимать лекарства в лечебных учреждениях.

«На первый взгляд, это звучит просто», - говорит Сьюзан Ли Андерсон, философ из Университета штата Коннектикут в Статфорде, которая участвовала со своим мужем, ученым Майклом Андерсоном из университета Хартфорд в штате Коннектикут, в проекте по созданию Нао. «Но даже в этой ограниченной задаче существуют нетривиальные вопросы этики» [3]. Например, как следует действовать, если пациент Нао отказывается от лекарств? Если позволить пациенту отказаться от лекарств, то это причинит ему вред. Чтобы научить Нао ориентироваться в таких затруднительных ситуациях, С. Андерсон и М. Андерсон вложили в программу Нао примеры случаев, которые бы могли разрешить возникающие конфликты и понять, вред это или польза для пациента. Вложенные учебные алгоритмы сортируются по ситуациям и не будут выполнены до тех пор, пока они не найдут образцов, которые могли бы послужить руководством робота в возникшей новой затруднительной ситуации.

При подобного рода «машинном обучении» робот может извлечь полезные знания даже из неоднозначных входов. Данный подход позволил бы, по идее, помочь роботу получить больше этически правильных решений, которые бы он встречал в больших количествах разных ситуаций. «Ситуации, которые возникают, к сожалению, пока не записываются в компьютерный код робота, так что пока нет возможности узнать, почему программа не могла бы придумать конкретное правило, называя это с этической точки зрения "правильным решением"», - считает Джерри Каплан, который преподает искусственный интеллект и этику в Стэнфордском университете в Калифорнии. «Нам нужен серьезный прогресс в развитии, чтобы выяснить, что более актуально для искусственного интеллекта, чтобы рассуждать о возникающих этических ситуациях», - считает Джерри Каплан [4].

Чтобы обойти данную проблему, требуется сменить тактику, говорят многие инженеры; большинство из них пытаются решить проблему путем создания программ с явно сформулированными правилами, а не пытаться просить робота, чтобы он получил собственный вариант решения возникающих проблем и применения норм и правил этики для их решения. Алан Уинфилд опубликовал результаты эксперимента, в котором он запрограммировал робота, чтобы тот предотвратил падение человека в яму. Это упрощенная версия знаменитого «Первого закона робототехники» Айзека Азимова - робот не должен позволить, чтобы человеку был причинен вред. Сначала робот успешно справился с задачей. Как только человек двинулся всторону ямы, робот бросился кнему, чтобы вытолкнуть его с опасного пути. Но когда ученый добавил второго человека, который двигался к яме одновременно с первым, робот был вынужден выбирать. Иногда ему удавалось спасти одного человека, позволяя другому погибнуть, а иногда ему даже удавалось успеть спасти обоих. Но в 14 случаях из 33 робот терялся и терял много времени в своих размышлениях и принятии конкретного решения, так что оба человека успевали упасть вяму. Совершенно очевидно, что Уинфилд понял, что роботу необходима способность ощущать своё окружение - признать положение ямы и человека, а также собственную позицию по отношению к яме и к человеку. Но роботу также нужны заложенные правила, позволяющие ему предвидеть возможные последствия своих действий. Уинфилд говорит, что хотя робот может спасать других всоответствии с запрограммированным алгоритмом поведения, он не понимает причин своих действий. По словам инженера, до сих пор нет ответа, можно ли обучить робота этическим правилам инормам. Но врамках дальнейшей интеграции роботов внашу повседневную жизнь наэтот вопрос обязательно нужно будет ответить. Например, автомобили савтономным управлением должны уметь оценивать безопасность своих пассажиров применительно к риску причинения вреда другим водителям или пешеходам. И это может быть очень трудным выбором. Однако военные роботы могут подсказать решение. Рональд Аркин из Технологического института Джорджии (США] разработал набор алгоритмов для военных роботов, который должен помочь им принимать более взвешенные решения наполе боя. Он уже опробовал свою разработку впостановочном бою, продемонстрировав, что беспилотники с такой программой пытаются обойтись без стрельбы или свести кминимуму потери вовремя боя вта-ких гражданских объектах, как школы или больницы. Аркин говорит, что роботы, обученные этике, станут невероятно эффективными, к тому же, «в отличие от солдат, которые могут находиться под влиянием эмоций и нарушать приказы, роботы этого делать не будут».

Те, кто занимается изучением данной проблемы, утверждают, что подход на основе вложения определённых правил в робота имеет одно важное достоинство: всегда понятно, почему ма-

шина делает тот или иной выбор, потому что сами разработчики устанавливают данные правила и предоставляют роботу выбор.

Компьютерные специалисты в области робототехники, работающие по созданию строго запрограммированных машин, вкладывая в них определённые правила этики, сегодня используют при этом логические операторы, такие как «если утверждение верно, двигаться вперед; если оно ложно, не двигаться». Применение логики является идеальным выбором для разработки машинной этики, утверждает Луис Мониш Перейра (Pereira], ученый из лаборатории вычислительной техники и информатики Nova в Лиссабоне. «Логика наших рассуждений и помогает нам придумать правила машинной этики», - говорит он [5]. Например, Pereira отмечает, что логические языки, используемые компьютерными программами, есть вывод некоторого гипотетического сценария, в основе которого лежат гипотезы, которые играют решающую роль в решении определенных этических правил.

«Логика наших рассуждений представляет собой своего рода этические правила и нормы правильного выбора для робота», - говорит Луис Мониш Перейра [6].

Создание этических роботов со встроенными правилами и нормами может иметь серьезные последствия для будущего робототехники. Майкл Фишер, ученый из Великобритании, считает, что люди будут бояться роботов, если они не уверены в действиях роботов, но если мы сможем проанализировать и доказать причины своих действий, мы, скорее всего, сможем преодолеть вопрос доверия.

Скорее всего, лучший путь вперед в развитии робототехники - это сочетание разных подходов. Можно посмотреть решение многих проблем в быстро развивающейся области роботизированных транспортных систем. Например, Driverless автомобилей Google [7]. Это беспилотные автомобили, которые называют по-разному: самоуправляемыми автомобилями, роботизированными автомобилями, автономными автомобилями, автомобилями с автопилотом, автоматически управляемыми автомобилями. Как бы их не называли, это будет роботизированная система, которая появится на дорогах общего пользования в самом ближайшем будущем. На сегодняшний день практически все крупнейшие автопроизводители заявили о проведении дорожных испытаний своих автоматизированных версий машин. Одним из самых успешных и, пожалуй, продвинутых в технологическом плане является проект компании Google. До сих пор инженеры пытались сделать роботов, которые заменяют людей в ситуациях, сложных для человека, таких как поддержание внимания на длительных расстояниях или когда нужно быстро среагировать, например, на тормоз, когда что-то происходит неожиданно. Инженерам придётся пытаться программировать вещи, которые проходят более естественно для человека, но не для машин.

Южная Корея является одним из ведущих государств в области высоких технологий. Граждане Южной Кореи получают доступ к широкополосному интернету, а также к продвинутым мобильным технологиям намного раньше, чем все остальные. Правительство Южной Кореи известно также своей поддержкой развития технологий будущего. В своих прогнозах относительно робототехники правительство Южной Кореи считает, что к 2018 г. роботы будут заниматься хирургией. В Министерстве связи и информационных технологий считают, что к 2018-2020 гг. у каждой семьи будет собственный робот. Отчасти это вызвано тем, что количество пожилых людей в обществе растет, а также есть понимание того, что прогресс в области роботостроения идет семимильными шагами. Новые положения нашей жизни могут отразить три закона робототехники, уже написанные Айзеком Азимовым в его рассказе «Хоровод» в 1942 г. Ключевые мысли будут заключаться в том, что человек должен обладать полным контролем над роботом и накопленной им информацией и препятствовать ее незаконному использованию. В других странах также задумываются о роботизированном будущем. Например, в правительстве Великобритании считают, что через 50 лет робот будет обладать теми же правами, что и человек. В Едином Европейском Пространстве по Исследованию Роботов (European Robotics Research Network] также создают законы, касающиеся использования роботов. Эти этические положения были написаны исследователями, которые считают, что роботостроение вскоре встанет наравне с такими научными дисциплинами, как биоинженерия и ядерная физика. Сторонники создания этих законов говорят: «В ХХ веке человечество будет сосуществовать с первым в своей истории чужим разумом - разумом роботов, и это повлечет за собой множество этических, социальных и экономических проблем» [8].

4. Заключение

Таким образом, тесное взаимодействие человека с роботами неизбежно в самом ближайшем будущем. Главная задача состоит в том, чтобы обеспечить безопасность такого сотрудничества и добиться доверия людей к роботам. Необходимо продолжать исследования в этом направлении, применяя в работе различные подходы, для того чтобы гарантировать комфортное сосуществование человека вместе с чужим и пока еще непонятным ему разумом. 30

Примечания

1. https://ru.wikipedia.org/wiki/Три_закона_роботехники (дата обращения: 01.04.2017)

2. Advances in Autonomous Robotics Systems / Conference Towards Autonomous Robotic Systems. Springer, 2014. Р. 85.

3. http://www.currenttime.tv/a/27195930.html (дата обращения: 01.04.2017)

4. Logics in Artificial Intelligence: European Workshop JELIA '94, York, UK, September 5-8, 1994. Proceedings (Craig MacNish, David Pearce, Luis M. Pereira).

5. Ibid. P. 34.

6. Ibid. P. 56.

7. M. Mitchell Waldrop: Autonomous vehicles: No drivers required/ Nature, Volume 518, Number 7537, February 2015. Р. 20-23.

8. http://www.adaptive.com.ua/article/1tusus1hwz80is6.html (дата обращения: 06.05.2017)

Notes

1. https://ru.wikipedia.org/wiki/Три_закона_роботехники (date accessed: 01.04.2017)

2. Advances in Autonomous Robotics Systems / Conference Towards Autonomous Robotic Systems. Springer, 2014. R. 85.

3. http://www.currenttime.tv/a/27195930.html (date accessed: 01.04.2017)

4. Logics in Artificial Intelligence: European Workshop JELIA '94, York, UK 5 September 8, 1994. Proceedings (Craig MacNish, David Pearce, Luis M. Pereira).

5. Ibid. P. 34.

6. Ibid. P. 56.

7. M. Mitchell Waldrop: Autonomous vehicles: No drivers required/ Nature, Volume 518, Number 7537, February 2015. R. 20-23.

8. http://www.adaptive.com.ua/article/1tusus1hwz80is6.html (date accessed: 06.05.2017)

УДК 130.2

Р. С. Ярмухаметова

Смыслы и понимание музыки в христианских трактатах Средневековья

Статья посвящена проблематике смысла, ценности и понимания музыки в русских и зарубежных христианских средневековых трактатах. Данные аспекты выходят за рамки строго музыковедческой науки и требуют создания новых междисциплинарных областей, таких как философия музыки. Выявлено, что профессиональная музыкальная культура Средневековья не мыслится вне христианского содержания, религиозного мировоззрения и неразрывно связана с церковным обиходом. Так, в европейской культуре первым представителем профессиональной музыки считается григорианский хорал, в русской - знаменный распев. На основе проведенного исследования автор приходит к выводу, что средневековые музыкальные трактаты чаще всего носили утилитарный характер, являлись «справочниками», сборниками церковных песнопений, включали исполнительские рекомендации и т. д., однако основы музыкальной теории, понимание музыки и ее смысла закладываются именно в них. В целом понимание и смыслы музыки в эпоху Средневековья связаны с идеями эманации Бога, блага, истины, порядка.

The article is devoted to issues of meaning, values and understanding of music in Russian and foreign Christian medieval treatises. These aspects go beyond the strictly musicological science and require the creation of new interdisciplinary fields such as philosophy of music. It is revealed that the professional musical culture of the middle Ages is not conceived outside the Christian content of the religious world and is inseparably connected with Church life. So, in European culture the first representative of the professional music is considered Gregorian chant, Russian Znamenny chant. On the basis of the conducted research the author comes to the conclusion that the medieval musical treatises often were utilitarian in nature, is "reference", collections of Church music has included performing recommendations, etc., but the basics of music theory, understanding music and its meaning are laid in them. In General, the understanding and meanings of music in the middle Ages associated with the ideas of the emanation of God, good, truth, order.

Ключевые слова: философия музыки, смыслы музыки, понимание музыки, средневековая музыка, трактаты о музыке.

Keywords: philosophy of music, meaning of music, medieval music, treatises about music.

© Ярмухаметова Р. С., 2017

i Надоели баннеры? Вы всегда можете отключить рекламу.