Роботов обучили чувствительности
При изучении мира люди полагаются на зрение и осязание: объединяя эти чувства, они понимают, какой объект видят и держат в руке, — в отличие от роботов под управлением искусственного интеллекта. Команда исследователей из Массачусетского технологического института (MIT) начала разработку системы, которая поможет роботам преодолеть это ограничение и научиться «чувствовать» предметы на ощупь.
Инженеры MIT разработали датчик GelSight, который создаёт тактильные сигналы на основе изображения объектов и предсказывает, к какому предмету и в какой его части касается манипулятор роботизированной руки. Для обучения системы использовалась веб-камера, с помощью которой было записано около 12 000 роликов, демонстрирующих различные вещи. Полученные записи после разбивки на кадры составили базу данных из более чем 3 миллионов изображений, сопоставленных с тактильными сигналами.
По словам учёных, на текущем этапе разработки робот может представить ощущение прикосновения к плоской поверхности или острому краю. Глава команды исследователей Юньчжу Ли утверждает: касаясь окружения, модель может предсказать взаимодействие с предметом из чисто тактильных ощущений. Он также отметил, что если объединить два чувства (зрение и осязание), можно расширить способности робота и уменьшить объём данных, необходимых для выполнения задач, которые связаны с манипулированием и захватом объектов.
В перспективе исследователи надеются расширить возможности модели для повышения точности взаимодействий с окружающей средой.
Источник: 4pda.ru