/ Новости

24.06.2016

GOOGLE НАЗВАЛА ПЯТЬ КЛЮЧЕВЫХ ПРОБЛЕМ БЕЗОПАСНОСТИ РОБОТОВ

Google переживает за искусственный интеллект. Не за то, что он станет враждебным и захватит мир, а за то, что полезный домашний робот, например, может случайно полоснуть своего хозяина ножом. Одна из последних работ исследователей ИИ в Google посвящена «Конкретным проблемам безопасности ИИ». Согласитесь, неплохой способ перефразировать «как мы собираемся останавливать этих железобетонных убийц».

Чтобы ответить на этот вопрос, ученые Google сосредоточились на пяти «практических исследовательских проблемах» — ключевых проблемах, которые нужно принимать во внимание программистам, прежде чем они начнут создавать очередного трансформера. По определенным причинам, работа обращается к гипотетическим роботам-уборщикам, но в действительности ее результаты можно применить к любому агенту искусственного интеллекта, который будет управлять роботом, который будет взаимодействовать с людьми.

Проблемы заключаются в следующих пунктах:

  • Как избежать негативных побочных эффектов: как не дать роботу опрокинуть книжный шкаф в яростном стремлении пропылесосить пол?
  • Как избежать взлома ради награды: если робот запрограммирован получать удовольствие от уборки комнаты, как не дать ему пачкать место ради того, чтобы он просто получал удовольствие от многократной его уборки?
  • Масштабируемость надзора: как много свободы в принятии решений дать роботу? Нужно ли ему спрашивать вас всякий раз, когда он двигает объекты в процессе уборки вашей комнаты или только если двигает вашу любимую вазу на прикроватной тумбе?
  • Безопасное любопытство: как научить роботам утихомиривать свое любопытство? Исследователи Google приводят в пример робота, который учится работать шваброй. Как научить его, что мыть шваброй пол прекрасно, но задевать розетку в процессе уборки не стоит?
  • Уважение личного пространства: как убедиться, что робот уважает пространство, в котором находится? Уборщик в вашей спальне будет действовать иначе, чем уборщик на заводе, но откуда он узнает эту разницу?

Выходит, все не так просто, как у Айзека Азимова в его «трех законах робототехники», но этого и следовало ожидать. 

Некоторые из этих проблем, кажется, решаются весьма просто. В случае с последней, например, можно просто запрограммировать в роботе несколько предустановленных режимов. Когда он оказывается в промышленных условиях (а он узнает об этом, потому что вы ему скажете), он просто переключится на фабричный режим и будет усерднее махать щеткой.

Но другие проблемы настолько сильно зависят от контекста, что кажется практически невозможным запрограммировать робота на каждый сценарий. К примеру, взять проблему «безопасного любопытства». Роботу придется «принимать решения, которые не кажутся идеальными, но которые помогут агенту узнать его окружение». Роботизированные агенты определенно должны будут предпринимать действия, выходящие за рамки дозволенного, но как в таком случае оградить их от возможного нанесения вреда себе и своему окружению?

Работа предлагает ряд методов, в том числе создание моделируемых условиях, в которых роботизированный агент сможет показать себя перед выходом в реальный мир; правил «ограниченного любопытства», которые ограничат передвижение робота в заранее определенном пространстве; и старый, добрый, проверенный временем человеческий надзор — работа робота с надсмотрщиком, который сможет проверить его на прочность.

Нетрудно представить, что у каждого из таких подходов есть свои плюсы и минусы, и работа Google посвящена не прорывным решениям — она просто обрисовывает общие проблемы.

Несмотря на то, что такие люди, как Элон Маск и Стивен Хокинг, выражают глубокую озабоченность опасностью развития искусственного интеллекта, большинство компьютерных ученых сходятся во мнении, что эти проблемы еще далеки от нас. Прежде чем начать беспокоиться о том, что ИИ станет враждебным убийцем, нам нужно убедиться, что роботы, которые смогут работать на заводах и в домах, будут достаточно умны, чтобы случайно не убить и не покалечить человека. Такое уже случалось и определенно случится вновь.

У Google есть свой интерес в этом. Компания избавилась от Boston Dynamics, амбициозного производителя роботов, которого приобрела в 2013 году, но продолжает вкладывать деньги и ресурсы во все виды проектов искусственного интеллекта. Работа компании, наряду с исследованиями университетов и конкурентов, закладывает основу для компьютерных мозгов — программного обеспечения, которое будет оживлять физических роботов. Будет непросто убедиться, что эти мозги думают, как нужно.

Источник: http://hi-news.ru/robots/google-nazvala-pyat-klyuchevyx-problem-bezopasnosti-robotov.html





30.05.2045

Стать расой бессмертных – главная эволюционно-историческая задача человечества в III тысячелетии

Имея мышление бессмертных, парадигму бессмертных в качестве мировоззренческой основы, такие люди обязательно реализуют подобные технологии, и мир радикально изменится. Эволюционная ветвь гомо сапиенс в очередной раз сделает крутой вираж и вынесет человечество к невообразимым высотам, туда, где раньше парили только избранные одиночки – бессмертные и боги.

Подробнее
27.02.2018

Робот открыл холодильник и принес оттуда пиво

Немецкие разработчики научили гуманоидного робота-помощника TIAGo самостоятельно искать путь к холодильнику, открывать его и приносить пиво. Модульный суперкомпьютер NVIDIA Jetson TX2, служащий зрительным центром робота, позволил ему не только эффективно проложить путь, но и найти пиво запрошенной марки по этикетке.

Подробнее
27.02.2018

В Швеции попытаются создать электронные копии умерших людей

Руководство крупной сети шведских похоронных бюро «Феникс» поставило перед собой амбициозную цель: попытаться создать максимально правдоподобные электронные копии усопших людей.

Подробнее
26.02.2018

Учёные из США разработали искусственный аналог глаза

Новое изобретение представили учёные из Школы инженерных и прикладных наук при Гарвардском университете — они создали искусственный глаз, работающий по принципу человеческого.

Подробнее
27.11.2017

Американцы занялись разработкой реактивных дронов для истребителей

Массачусетский технологический институт по заказу ВВС США занялся разработкой компактных реактивных беспилотных летательных аппаратов, которые можно было бы запускать со стандартного подвеса для ракет под крылом истребителя. Новая разработка получила название Firefly.

Подробнее
21.11.2017

Toyota представила гуманоидного робота с экзоскелетным управлением

Компания Toyota представила гуманоидного робота T-HR3, управляемого с помощью экзоскелетного контроллера с шлемом виртуальной реальности. Система позволяет оператору управлять движениями робота на месте или передвигать его, а также чувствовать отдачу при взаимодействии с объектами.

Подробнее
17.11.2017

Человекоподобный робот научился делать сальто

Специалисты Boston Dynamics научили прямоходящего робота Atlas выполнять сальто. Ролик с демонстрацией его новых способностей опубликован на YouTube-канале компании.

Подробнее
27.10.2017

Робот-спасатель от Honda: пять «глаз» и 33 степени подвижности 

На Конференции по робототехнике в Ванкувере компания Honda представила прототип робота-спасателя E2-DR. У новинки 33 степени подвижности, пять «глаз» и защищенный от пыли и влаги корпус.

Подробнее
03.10.2017

Toyota представила автомобиль-робот, в салоне которого сразу 2 водительских места

Казалось бы, суть самоуправляемых автомобилей заключается в том, чтобы максимально обеспечить удобство пассажиров и «убрать» из салона водителя, доверив контроль за ситуацией роботу. Вроде бы логичное решение, но вот автоконцерн Toyota думает иначе. Недавно они представили крайне продвинутую версию самоуправляемого авто. Только вот водительских мест в нем аж целых два.

Подробнее
03.10.2017

RHP2 - гуманоидный робот, созданный для того, чтобы падать, подниматься и снова падать

Исследователи-робототехники во всем мире тратят безумно большое количество времени и усилий для того, чтобы предотвратить или уменьшить вероятность падения создаваемых ими роботов.

Подробнее
02.10.2017

Мифы и факты о сверхумном искусственном интеллекте

Станет ли искусственный интеллект лучшим изобретением человечества или же, наоборот, его худшей ошибкой?

Подробнее
/ мнения экспертов и членов инициативной группы
Больше мнений

Войти как пользователь:

Если вы зарегистрированы на одном из этих сайтов, вы можете пройти быструю регистрацию. Для этого выберите сайт и следуйте инструкциям.

Войти по логину 2045.ru

Email:
У Вас еще нет логина на 2045? Зарегистрируйтесь!
Уважаемый единомышленник, если вы поддерживаете цели и ценности Стратегического общественного движения «Россия 2045», регистрируйтесь на нашем портале.

Быстрая регистрация:

Если вы зарегистрированы на одном из этих сайтов, вы можете пройти быструю регистрацию. Для этого выберите сайт и следуйте инструкциям.

Регистрация

Имя:
Фамилия:
Сфера деятельности:
Email:
Пароль:
Введите код с картинки:

Показать другую картинку

Восстановить пароль

Email:

Текст:
Email для связи:
Вложение ( не более 5 Мб. ):
 
Закрыть
план работ корпорации «Бессмертие»