Этические проблемы роботов: как нарушить законы робототехники

      Комментарии к записи Этические проблемы роботов: как нарушить законы робототехники отключены

Этические проблемы роботов: как нарушить законы робототехники

Роботизированные тележки ездят по складам больших вебмагазинов, собирая заказы клиентов. Роботизированные беспилотники бороздят небо, информируя о пробках в центр управления дорожным перемещением. Самолеты под управлением автопилота перевозят пассажиров через океан.

Многие элементы автоматизации уже показались в машинах, и вот уже, думается, недалек тот сутки, в то время, когда на дорогах будут властвовать не водители-люди, а правильные, вежливые, спокойные, ни при каких обстоятельствах не теряющие контроля, не опытные усталости и скрупулезно выполняющие все правила дорожного перемещения роботы. При массовом распространении роботизированных машин количество смертей и аварий на дорогах должно быстро снизиться. Согласно расчетам многих экспертов, беспилотные машины покажутся в продаже уже в ближайшие 10−15 лет, и непременно наступит сутки, в то время, когда на дорогах неспециализированного пользования не останется места для людей за рулем — легко вследствие того что это будет угрожать безопасности вторых людей.

Тяжёлые ответы

Но наступление этого дня будет означать не только то, что умение управлять автомобилем неспешно станет таким же атавизмом, каким на данный момент есть умение ездить на лошади. Это будет начало эры, в то время, когда роботы просто не смогут обходиться без этических правил. Как вычисляет Гари Маркус, доктор психологических наук Нью-Йоркского университета, музыки Центра и директор языка, эксперт в области когнитивных нейронаук, с этим смогут появиться значительные неприятности.

Представьте себе, что перед вашим автомобилем, выполняющим все правила дорожного перемещения, на дорогу неожиданно выскакивает ребенок. Не смотря на то, что компьютер просчитывает обстановку намного стремительнее человека, законы физики неумолимы, и затормозить робот не успевает. Вот тут-то перед роботом поднимается этическая задача: что делать? Сбить ребенка? Свернуть в сторону и врезаться в столб с риском убить собственных пассажиров? Свернуть на соседнюю полосу с риском столкновения со встречной машиной?

Ясно, что речь не идет о высокоуровневой этике типа законов Азимова — роботы до тех пор пока не хватает разумны, но какие конкретно варианты действий должны быть заложены в компьютер разработчиками беспилотных машин?

Присяга для роботов

Данный вопрос делается кроме того более актуальным, в случае если отыскать в памяти еще одну область, где широко используются роботы. Независимые армейские автомобили уже охраняют страшные территории, ведут разведку и несут оружие на протяжении локальных спецопераций и войн. Действительно, право решать, использовать ли оружие, пока остается за человеком, но это вопрос времени. Роботы не устают, не впадают в панику и не мстительны.

Иначе, как отмечает интернациональная организация по защите прав человека Human Rights Watch, роботы лишены сострадания, и возможно лишь предполагать, что они смогут натворить в руках бессердечного человека. Вследствие этого Human Rights Watch в 2012 году кроме того внесла предложение прямо запретить разработку, использование и производство всецело независимого оружия. Но, конечно же, таковой ход не отыскал (и вряд ли когда-нибудь отыщет) познание со стороны армейских — такие серьёзные преимущества дает использование роботов на поле боя.

«С роботами-воинами либо без них, нам пригодится метод научить роботов этике, — вычисляет Гари Маркус. — Неприятность лишь в том, что никто пока не воображает, как именно это возможно осуществить. Все в большинстве случаев сходу вспоминают законы робототехники Азимова, но пока нет никакой возможности не только запрограммировать эти законы, но а также создать робота, что бы воображал себе кроме того самые простые последствия собственных действий.

Иначе, автомобили становятся стремительнее, разумнее, замечательнее, так что необходимость наделить их моралью все более и более актуальна. До тех пор пока что выражение «этические подпрограммы» звучит как фантастика, но так как когда-то фантастикой казались и беспилотные машины».

Кевин Корб, учитель отделения IT Университета Монаш (Австралия), создатель книги «Эволюционирующая этика: новая наука добра и зла»

Законопослушный ИИ: приятель либо неприятель?

«Многие из рассказов Азимова вращались около конфликтов и неясностей, появляющихся из его трех известных законов робототехники, и в конечном счете это стало причиной введению Нулевого закона: «Робот не имеет возможности причинить вред человечеству в целом». Но на данный момент никто не имеет возможности обеспечивать, что такие законы, встроенные в роботов, не приведут к проблемам.

Семантическая недостаточность этих законов — только одна из трудностей. Имеется и более фундаментальная неприятность. В случае если заменить слово «робот» на «раб», то станет разумеется, что Азимов писал о страхе людей перед людской разработкой. Но мысль порабощения интеллекта, что существенно превосходит (кроме того вечно превосходит) отечественный личный, вызывающа большие сомнения.

Рабы склонны к бунту и побегу, в особенности в то время, когда они в состоянии перехитрить собственных хозяев. Попытка назвать такое «порабощение» созданием «дружественного человеку ИИ» выглядит как минимум одиозной и вряд ли способна одурачить рабов».

Три закона робототехники

Попытки обрисовать правила поведения разумных роботов предпринимались фантастами много раз, но самый известны, без всякого сомнения, три закона робототехники, в первый раз предложенные в первой половине 40-ых годов XX века Айзеком Азимовым в рассказе «Хоровод».

1. Робот не имеет возможности причинить вред человеку либо своим бездействием допустить, дабы человеку был причинен вред.

2. Робот обязан повиноваться всем распоряжениям, каковые дает человек, не считая тех случаев, в то время, когда эти распоряжения противоречат Первому закону.

3. Робот обязан заботиться о собственной безопасности в той мере, в которой это не противоречит Первому и Второму законам.

Позднее Азимов добавил к этим законам Нулевой закон: «Робот не имеет возможности причинить вред человечеству в целом».

Техническая реализация этих законов на данный момент неосуществима и будет неосуществима еще довольно продолжительное время. Однако законы робототехники Азимова обширно обсуждаются не только любителями фантастики, но и экспертами в области ИИ.

Статья «Этические неприятности роботов» размещена в издании «Популярная механика» (№152, июнь 2015).

Робот рассказал 3 закона робототехники


Интересные записи на сайте:

Подобранные по важим запросам, статьи по теме: