. info@vlv-mag.com

Эко-информационный портал

Должны ли роботы учиться говорить «Нет»?

Искусственный интеллект. Должны ли роботы учиться говорить «Нет»?

Искусственный интеллект (ИИ) становится частью нашего общества, но должен ли он подчиняться этическим и правовым нормам? Матиас Шейц, профессор когнитивных и компьютерных наук, директор Лаборатории взаимодействия человека и роботов в Университете Тафтса, утверждает, что настало время обучать машины нормам морали и права.

Будущее, заполненное роботами, которое нам пророчат, рано или поздно настанет. Кажется, что оно уже близко. От чат-ботов до самоуправляемых автомобилей — мы повсюду видим первые признаки машинного или искусственного интеллекта. На самом деле даже лучшие машины, которые сегодня существуют, не являются подлинно разумными. Скорее, они достаточно сложны, чтобы создавать видимость интеллекта и совершать некоторые операции так же как люди или даже лучше. Но они не способны думать. Иногда это называют слабым ИИ.

Сильный ИИ имеет разные определения, такие как «способность выполнить любую задачу так же хорошо, как человек», «машинное сознание». Пока это будущее. Однако производительность даже со слабым ИИ растёт в геометрической прогрессии, потому идея обучать роботов этике становится всё более востребованной.

Производительность даже со слабым ИИ растёт в геометрической прогрессииПроизводительность даже со слабым ИИ растёт в геометрической прогрессии, foto WEB

Если роботы станут частью нашего общества, они должны вести себя, как мы и следовать нашим нормам, в противном случае возникнут проблемы, и не только этические.

Некоторые начнут просто раздражать, например, когда робот, идущий по тротуару, вдруг остановится и будет мешать прохожим. Однако Шейц указывает, что более серьёзные случаи, вызванные непониманием роботами человеческих потребностей, могут причинить эмоциональный вред людям. А в более сложных случаях «решения роботов могут привести к серьёзному физическому ущербу и, возможно, даже смерти человека».

Айзек Азимов автор рассказа «Три закона робототехники»Айзек Азимов автор рассказа «Три закона робототехники», foto WEB

Исходной точкой обучения роботов тому, что правильно, а что нет, является известный рассказ Айзека Азимова «Три закона робототехники», написанный ещё в 1942 году. Вот они:

  1. Робот не может наносить ущерб человеку в результате своих действий или бездействия.
  2. Робот должен подчиняться приказам, отданным ему людьми, за исключением случаев, когда такие приказы противоречат первому закону.
  3. Робот должен защищать своё существование до тех пор, пока такая защита не противоречит первому или второму закону

Эти три правила могут показаться простыми, практичными и легко выполнимыми. Однако, объясняет Шейц, «законы Азимова не просты, а сложны в том, как они применяются и взаимодействуют».

Действительно, стоит вспомнить, что они были изобретены как драматическое средство для создания напряжённого сюжета и в итоге привели к довольно странным результатам. «Согласно законам Азимова, когда роботу поручено уничтожить себя, он должен подчиниться, даже если в этом мало смысла. И в настоящее время эти законы не могут реально применяться». Беда в том, что эти простые, казалось бы, положения потребуют таких сложных умозаключений, которые характерны для людей, но всё ещё недоступны машинам.

Законы Азимова не просты, а сложны в том, как они применяются и взаимодействуют

Законы Азимова не просты, а сложны в том, как они применяются и взаимодействуют, foto WEB

Вопрос, как бы мы могли практически инструктировать машины для принятия этических решений, Шейц комментирует так: «Некоторые используют методы машинного обучения, чтобы разобрать правильное поведение в определённом контексте». Однако удивительно, что машинная этика (или её отсутствие), хоть и звучит, как нечто теоретическое, уже имеет реальный потенциал, чтобы вызвать значительные проблемы в повседневной жизни.

«Например, производители автономных автомобилей понимают, что простая стратегия применения правил может быть недостаточной, но у них нет решения этой задачи, как и у специалистов в любой другой отрасли» — поясняет Шейц. — На самом деле, пока социальные роботы производятся и внедряются в общество без каких-либо этических норм, что довольно проблематично».

Машина будущего, которой не нужен водительМашина будущего, которой не нужен водитель, foto WEB

Мы нуждаемся в публичном обсуждении потенциальных угроз, исходящих от внедрения автономных социальных роботов. Необходимо также много работать над этической составляющей механизма рассуждений самих роботов. Примером этической проблемы, с которой может столкнуться, например, самоуправляемый автомобиль, может быть такая ситуация: «Должен ли я двигаться навстречу транспортному средству, чтобы избежать столкновения с пешеходом, который вышел на дорогу?» Очевидно, это трудный вопрос, поскольку оба варианта могут нанести вред человеку и любой выбор противоречит первому закону Азимова. Так что же делать машине? Ответа у нас пока нет.

Мы нуждаемся в публичном обсуждении потенциальных угроз, исходящих от внедрения автономных социальных роботовМы нуждаемся в публичном обсуждении потенциальных угроз, исходящих от внедрения автономных социальных роботов, foto WEB

Опять же, возвращаемся к необходимости применения системы этических принципов, которые позволят роботам соотнести последствия выбора каждого из вариантов, когда ни один из них не является «хорошим». Но тогда возникает вопрос о том, кто же несёт ответственность за принятые роботом спорные решения.

Проблема обучения роботов поведению, соответствующему человеческим нормам, согласно Шейцу, заключается в том, что пока мы не обладаем достаточными знаниями, чтобы представлять и использовать эти нормы с вычислительной точки зрения. Потому, нашей задачей является не только обучить машину «думать» как человек (и быстрее его), а также самим понять, что же значит быть людьми. 

Раймер Ригби, Англия, Лондон

Перевод с английского языка на русский язык

 

Статьи