Кейсы цифровой трансформации – Telegram
Кейсы цифровой трансформации
361 subscribers
3 photos
1 video
1 file
836 links
Здесь мы делимся реальными историями
успеха цифровой трансформации компаний, обсуждаем новости и тенденции в этой области, проводим вебинары.
Проект https://casestudy.techart.ru
Download Telegram
Агент ИИ позволяющий обучить робота манипуляционным способностям 3-летнего ребенка

Люди учатся друг у друга с раннего возраста. Младенцы внимательно наблюдают за своими родителями, братьями и сестрами или воспитателями. Они наблюдают, подражают и воспроизводят увиденное, чтобы научиться новым навыкам и поведению.

То, как дети учатся и изучают окружающее пространство, вдохновило исследователей из Carnegie Mellon University (CMU) и компании Meta AI (компания Meta признана в РФ экстремистской организацией и запрещена) на разработку нового способа обучения роботов одновременному освоению нескольких навыков и их использованию для решения повседневных задач. Исследователи поставили перед собой задачу создать ИИ-агент с манипуляционными способностями, эквивалентными трехлетнему ребенку.

"RoboAgent - важнейшая веха на пути к созданию роботов-агентов общего назначения, которые будут эффективно обучаться, эффективно действовать в новых ситуациях и способны расширять свое поведение с течением времени, - сказал Викаш Кумар, адъюнкт-преподаватель School of Computer Science’s Robotics Institute. - Современные роботы являются узкоспециализированными и обучаются выполнению отдельных задач в изоляции. Мы поставили перед собой задачу создать единого агента ИИ, способного проявлять широкий спектр навыков. RoboAgent учится, как человеческий ребенок, - используя сочетание большого количества пассивных наблюдений и ограниченного количества активных действий".

RoboAgent может выполнять 12 манипуляций в различных сценах. Это исследование указывает на возможность создания роботизированной обучающей платформы, адаптируемой к изменяющимся условиям окружающей среды. В отличие от предыдущих исследований, команда демонстрировала свою работу в реальных условиях, а не на симуляторах, и при этом использовала гораздо меньше данных, чем в предыдущих проектах.

Созданный командой агент обучается на основе сочетания собственного опыта и пассивных наблюдений. Подобно тому, как родитель направляет своего ребенка, исследователи телеуправляли роботом, выполняя задания, чтобы он получал полезный опыт. Роботы учатся в первую очередь на собственном опыте, а не на том, что пассивно происходит вокруг них. Присущая им слепота к происходящему в окружающей среде существенно ограничивает как разнообразие опыта, получаемого роботами, так и их способность адаптироваться к новым ситуациям. Чтобы преодолеть эти ограничения, RoboAgent обучается на основе видеороликов в интернете - подобно тому, как дети приобретают знания и модели поведения, пассивно наблюдая за окружающей средой.

"RoboAgent использует информацию, содержащуюся в этих видеороликах, для получения предварительных знаний о том, как люди взаимодействуют с объектами и используют различные навыки для успешного выполнения задач, - говорит Мохит Шарма, аспирант кафедры робототехники. - Кроме того, наблюдение за схожими навыками в различных сценариях позволяет ему узнать, что необходимо, а что нет для выполнения задачи. Эти уроки он использует при решении неизвестных задач или в незнакомой среде".

"Агент, способный к такому обучению, приближает нас к роботу общего назначения, который может выполнять разнообразные задачи в различных условиях и постоянно развиваться по мере накопления опыта, - говорит Шубхам Тулсиани, доцент Robotics Institute. - RoboAgent может быстро обучить робота, используя ограниченное количество внутренних данных, и при этом опираться на многочисленные бесплатные данные из Интернета для решения различных задач. Это может сделать роботов более полезными в неструктурированных условиях, например, в домах, больницах и других общественных местах".

https://www.youtube.com/watch?v=_nArEh7fUzk

Обучаемые модели, база исходного кода, драйверы оборудования и весь набор данных, собранный в рамках исследования, находятся в открытом доступе. Более подробную информацию можно найти на сайте проекта.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/agent-ii-pozvolyayuschii-obuchit-robota-manipulyatsionnym-sposobnostyam-3-letnego-rebenka
Новая модель снижает предвзятость и повышает доверие к процессу принятия решений с помощью ИИ

Исследователи University of Waterloo разработали новую модель объяснимого искусственного интеллекта (Explainable Artificial Intelligence, XAI), позволяющую уменьшить предвзятость и повысить доверие и точность в процессе принятия решений и организации знаний на основе машинного обучения.

Медицина - одна из областей, где необъективные результаты машинного обучения чреваты серьезными последствиями. Сотрудники больниц и медицинские работники опираются на наборы данных, содержащие тысячи медицинских записей, и сложные компьютерные алгоритмы для принятия важнейших решений по уходу за пациентами. Машинное обучение используется для сортировки данных, что позволяет экономить время. Однако отдельные группы пациентов с редкой симптоматикой могут остаться незамеченными, а неправильно помеченные данные и аномалии могут повлиять на результаты диагностики. Такая необъективность и запутанность шаблонов приводит к ошибочным диагнозам и несправедливым результатам в здравоохранении для отдельных групп пациентов.

Благодаря новому исследованию, проведенному под руководством д-ра Эндрю Вонга, профессора Университета Ватерлоо, инновационная модель призвана устранить эти барьеры путем распутывания сложных закономерностей в данных, чтобы связать их с конкретными глубинными причинами, на которые не влияют аномалии и неправильно помеченные данные. Это может повысить доверие и надежность XAI.

"Это исследование представляет собой значительный вклад в область XAI, - сказал Вонг. - Анализируя огромное количество данных о связывании белков, полученных с помощью рентгеновской кристаллографии, моя команда выявила статистику физико-химических закономерностей взаимодействия аминокислот, которые были замаскированы и перемешаны на уровне данных из-за запутанности множества факторов. Мы впервые показали, что запутанная статистика может быть распутана и дать правильное представление о глубоких знаниях, упущенных на уровне данных, с помощью научных доказательств".

Это открытие привело Вонга и его команду к разработке новой модели XAI, получившей название Pattern Discovery and Disentanglement (PDD).

"С помощью PDD мы стремимся преодолеть разрыв между технологиями ИИ и человеческим пониманием, чтобы обеспечить надежное принятие решений и раскрыть глубокие знания из сложных источников данных", - сказал доктор Пэйюань Чжоу, ведущий исследователь в команде Вонга.

Профессор Энни Ли, соавтор и сотрудник University of Toronto, специализирующийся на обработке естественного языка, предвидит огромную ценность вклада PDD в принятие клинических решений.

В различных тематических исследованиях PDD демонстрирует способность предсказывать результаты лечения пациентов на основе их истории болезни. Система PDD также может обнаруживать новые и редкие закономерности в наборах данных. Это позволяет как исследователям, так и практикам обнаруживать неверные метки или аномалии в машинном обучении.

Полученный результат показывает, что медицинские работники могут ставить более надежные диагнозы, подкрепленные строгой статистикой и объяснимыми закономерностями, для более точных рекомендаций по лечению различных заболеваний на разных стадиях.

Исследование "Theory and rationale of interpretable all-in-one pattern discovery and disentanglement system" опубликовано в журнале npj Digital Medicine.

https://robogeek.ru/iskusstvennyi-intellekt/novaya-model-snizhaet-predvzyatost-i-povyshaet-doverie-k-protsessu-prinyatiya-reshenii-s-pomoschyu-ii
Снижение уровня одиночества пожилых людей с помощью робота-компаньона

Управление штата Нью-Йорк по делам пожилых людей (New York State Office for the Aging, NYSOFA) и компания Intuition Robotics объявили о продолжении сотрудничества, начатого в мае 2022, и о новых данных, свидетельствующих о положительном эффекте роботизированного компаньона ElliQ для пожилых людей.

За последний год NYSOFA предоставила ElliQ более чем 800 жителям Нью-Йорка для борьбы с одиночеством, повышения активности, улучшения общего состояния здоровья и самочувствия.

Согласно данным, полученным в ходе пилотной программы NYSOFA, ElliQ удалось снизить уровень одиночества на 95% среди пожилых людей, использующих эту платформу. Пользователи часто общались с роботом, причем некоторые из них взаимодействовали с ElliQ более 30 раз в день, 6 дней в неделю. Более 75% этих взаимодействий были связаны с улучшением социального, физического и психического самочувствия пользователей.

"Мы возлагали большие надежды на эффективность ElliQ, но результаты, которые мы видим, действительно превосходят наши ожидания, - сказал Грег Олсен, директор NYSOFA. - Данные говорят сами за себя, а истории, которые мы слышим от менеджеров и клиентов по всему штату, просто невероятны. Мы видим, какое влияние оказывает эта технология на жизнь членов нашего сообщества, и нам не терпится увидеть, как эта программа будет развиваться дальше".

ElliQ способен инициировать разговор, предлагать занятия и запоминать то, что ему говорят пользователи. Робот призван поощрять пользователей и работать с ними над постановкой и достижением целей, а также проявлять эмпатию для укрепления доверия и повышения вовлеченности.

"Мне было очень приятно работать с местными отделениями по делам пожилых людей и партнерами, чтобы определить пожилых людей, которым наиболее полезен эмпатический ИИ, - сказал Дор Скулер, генеральный директор и соучредитель компании Intuition Robotics. - ElliQ может оказать влияние на человека только после того, как его пригласят в дом, и менеджеры по работе с клиентами и сотрудники на местах сыграли важную роль в информировании пожилых людей об ElliQ, поддержке установки и содействии знакомству нашей команды с клиентами напрямую. Мы рады продолжить работу с NYSOFA и другими агентствами по вопросам старения, чтобы увеличить число пожилых людей, которым мы можем помочь".

https://www.youtube.com/watch?v=7543psPttGw

С начала реализации программы компания Intuition добавила в ElliQ новые функции. Например, ElliQ теперь может сопровождать пользователей в музейных экспозициях и автомобильных поездках, а также проводить упражнения на внимательность под руководством сертифицированного инструктора. Кроме того, робот теперь может записывать воспоминания в цифровой мемуар и делиться ими с семьей и друзьями.

https://robogeek.ru/bytovye-roboty/snizhenie-urovnya-odinochestva-pozhilyh-lyudei-s-pomoschyu-robota-kompanona
Универсальный деформируемый модуль на основе оригами для роботизированных манипуляторов

Модульные роботы - робототехнические системы, способные адаптировать конфигурацию своего тела для изменения стиля передвижения или перемещения по различным участкам местности, - могут оказаться весьма полезными при выполнении задач в различных условиях. За последние десять лет инженеры разработали целый ряд модульных роботов, основанных на различных конструкциях и механизмах.

Недавно китайская исследовательская группа из Westlake University и Zhejiang University представила новую конструкцию модульного робота, вдохновленную оригами, в частности паттерном Креслинга. В основе конструкции, представленной в статье в журнале Nature Communications, лежат недавно созданные универсальные деформируемые модули, которые можно переставлять, создавая различные формы и конфигурации.

"Уже предпринимались попытки использовать паттерн Креслинга для создания многорежимных роботизированных манипуляторов, - говорит Ханьцин Цзян, один из исследователей, проводивших работу. - Однако существующие методы основаны исключительно на самом паттерне Креслинга, поэтому режимы деформации ограничены связанными режимами скручивания и сжатия. Основной задачей является модификация классической схемы Креслинга и генерация новых режимов деформации".

В контексте оригами узор Креслинга представляет собой чередование горных (выступающих) и долинных (утопленных) складок, расположенных под углом к противоположным направлениям скручивания. Этот узор может быть использован для создания сложных форм, напоминающих наблюдаемые в природе узоры, например, крылья бражника или спиральные геометрические фигуры на шишках.

В рамках своего исследования Цзян и его коллеги попытались использовать эту специфическую схему оригами для создания модульного деформируемого устройства, которое можно было бы адаптировать для создания различных форм. Созданный ими модуль приводится в движение с помощью пневматики - системы, в которой газ или воздух под давлением используются для создания различных движений.

"Модуль состоит из двухуровневой схемы Креслинга с противоположными направлениями скручивания на каждом уровне, - пояснил Цзян. - Более того, на каждом уровне есть два боковых пакета, расположенных на противоположных сторонах. Таким образом, в зависимости от того, какое давление создается в боковых пакетах, при вакуумировании основной камеры мы можем добиться различных режимов деформации".

Новый модуль, представленный исследователями, может изменять свою форму в зависимости от приложенного к нему давления, создавая всевозможные формы, отвечающие требованиям конкретных сценариев применения. В общей сложности с помощью одного модуля оригами можно получить семь различных режимов движения роботов, включая три базовых движения и четыре рекомбинации этих базовых движений.

"Наш двухуровневый модуль - это универсальный деформационный модуль, который может достигать всех возможных режимов деформации в зависимости от конкретных схем давления, - сказал Цзян. - Модуль похож на наши руки, которые могут выполнять все режимы деформации (сжатие/растяжение, скручивание, сгибание) в зависимости от того, как нервы управляют мышцами. Схемы давления в модуле подобны нашим нервам, а универсальный модуль берет на себя роль нашей руки. Эта роботизированная рука на основе оригами будет работать как жесткая роботизированная рука, имеющая шесть степеней свободы".

https://www.youtube.com/watch?v=rxs5OTE7avU

Исследователи оценили свой деформируемый модуль, созданный на основе оригами, в серии симуляций и реальных экспериментов. Полученные результаты оказались весьма многообещающими, что говорит о его перспективности для создания модульных роботов, способных адаптироваться к окружающей среде и двигаться различными способами.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/universalnyi-deformiruemyi-modul-na-osnove-origami-dlya-robotizirovannyh-manipulyatorov
Исследователи NC State University провели исследование влияния автономных машин на траффик

Новое исследование показало, что "подключенные" автомобили, обменивающиеся данными друг с другом по беспроводной связи, значительно улучшают время проезда перекрестков, но автоматизированные автомобили могут замедлять проезд, если они не подключены друг к другу.

"Есть две важные причины, по которым люди заинтересованы в автоматизированных транспортных средствах, - это повышение безопасности пассажиров и сокращение времени в пути, - говорит Али Хаджбабаи, первый автор статьи о работе и доцент North Carolina State University. - Существует множество исследований, показывающих, что автоматизированные транспортные средства могут повысить безопасность. Но наши исследования, основанные на вычислительном моделировании, показывают, что если мы хотим также улучшить время движения, то одного увеличения количества автоматизированных автомобилей недостаточно; нам нужны автомобили, способные взаимодействовать друг с другом и с системами управления дорожным движением, которые регулируют поток на перекрестках".

Для проведения исследования ученые использовали вычислительную модель, имитирующую дорожную обстановку. Исследователи учитывали четыре типа транспортных средств: автомобили, управляемые человеком (HV); подключенные автомобили (CV), которые управляются человеком, но обмениваются информацией с другими подключенными автомобилями и с системой управления светофорами; автоматизированные автомобили (AV) и подключенные автоматизированные автомобили (CAV).

"В силу своей запрограммированности предполагается, что AV будут двигаться более осторожно по сравнению с людьми, - говорит Хаджбабайе. - Их безопасность частично объясняется тем, что они запрограммированы на консервативное вождение. Автомобили CV и CAV предназначены для получения информации о состоянии светофоров и корректировки скорости движения, чтобы избежать остановки на перекрестках. В результате ожидается, что движение CV и CAV будет более плавным и с меньшим количеством остановок по сравнению с HV и AV".

Исследователи провели 57 симуляций, чтобы оценить влияние множества переменных на время проезда через перекресток. Например, исследователи рассмотрели, как повлияют на движение различные комбинации автомобилей HV, AV, CV и CAV. Одним из очевидных выводов стало то, что чем выше процентное соотношение автомобилей CV и CAV, тем выше пропускная способность перекрестка.

"Однако мы обнаружили, что более высокий процент автомобилей, которые не подключены к сети, фактически замедляет проезд перекрестков, - говорит Хаджбабаи. - Это объясняется тем, что такие автомобили запрограммированы на консервативное вождение с целью снижения риска столкновений. Полученные нами результаты подчеркивают важность внедрения возможностей подключения как в транспортные средства, так и в системы управления дорожным движением".

В пресс-релизе университета указывается, что исследование проводилось с помощью вычислительной модели, что является ограничивающим фактором, но собрать смешанный парк автомобилей из HV, AV, CV и CAV в единую систему управления дорожным движением сложно и дорого. К тому же испытания с участием людей могут вызвать сомнения в безопасности, что делает эти модельные исследования особенно важными.

Работа "Effects of Connectivity and Automation on Saturation Headway and Capacity at Signalized Intersections" опубликована в журнале Transportation Research Record.

https://robogeek.ru/avtonomnyi-transport/issledovateli-nc-state-university-proveli-issledovanie-vliyaniya-avtonomnyh-mashin-na-traffik
ИИ воссоздает трек Pink Floyd по записям активности головного мозга

Исследователи из UC Berkeley регистрировали электрическую активность участков мозга, когда пациенты слушали песню "Another Brick in the Wall, Part 1" группы Pink Floyd. Используя ИИ, они смогли восстановить песню по записям внутричерепной электроэнцефалографии мозга.

Роберт Найт из Калифорнийского университета в Беркли (UC Berkeley) и его коллеги изучали записи с электродов, которые были хирургически имплантированы на поверхность мозга 29 человек для лечения эпилепсии.

Запись мозговой активности участников велась во время прослушивания композиции "Another Brick in the Wall, Part 1" с альбома "The Wall" (1979). Сопоставив сигналы мозга с песней, исследователи выявили записи с подмножества электродов, которые были тесно связаны с тоном, мелодией, гармонией и ритмом песни.

Затем они обучили ИИ изучать связи между активностью мозга и этими музыкальными компонентами, исключив из обучающих данных 15-секундный фрагмент песни. Обученный ИИ на основе сигналов мозга участников создал предсказание неизвестного фрагмента песни. Спектрограмма трека, сгенерированного ИИ, на 43% совпала с оригиналом.

Исследователи определили область мозга, называемую верхней височной извилиной, которая обрабатывала ритм гитары в песне. Они также обнаружили, что сигналы из правого полушария мозга были более важны для обработки музыки, чем сигналы из левого полушария, что подтверждает результаты предыдущих исследований.

"Для людей с боковым амиотрофическим склерозом или афазией, которым трудно говорить, мы хотели бы иметь устройство, которое действительно звучало бы так, как будто вы общаетесь с кем-то по-человечески, - говорит Найт. - Понимание того, как мозг представляет музыкальные элементы речи, включая тон и эмоции, может сделать такие устройства менее роботизированными".

Инвазивный характер имплантации мозга делает маловероятным использование этой процедуры для неклинических целей, говорит Найт. Однако другие исследователи недавно использовали ИИ для создания песенных клипов на основе сигналов мозга, записанных с помощью МРТ.

Если ИИ сможет использовать сигналы мозга для воссоздания музыки, которую люди представляют себе, а не просто слушают, то такой подход можно будет использовать даже для сочинения музыки, говорит Людовик Белье из Калифорнийского университета в Беркли, член исследовательской группы.

По мере развития технологии воссоздание песен с помощью мозговой активности на основе ИИ может вызвать вопросы о нарушении авторских прав, в зависимости от того, насколько воссоздание похоже на оригинальную музыку, говорит Дженнифер Мейзел из юридической фирмы Rothwell Figg в Вашингтоне.

"Вопрос авторства действительно интересен, - говорит она. - Может ли человек, записывающий мозговую активность, быть автором? Может ли сама программа искусственного интеллекта быть автором? Самое интересное, что автором может быть не тот человек, который слушает песню".

https://www.youtube.com/watch?v=WKEkJAKlRM0&list=PLi80c3aYgKxCVdkxp8HmY1ZEl_bKVoSAj

Работа "Music can be reconstructed from human auditory cortex activity using nonlinear decoding models" была опубликована в PLOS Biology.

https://robogeek.ru/iskusstvennyi-intellekt/ii-vossozdaet-trek-pink-floyd-po-zapisyam-aktivnosti-golovnogo-mozga
Мягкие роботизированные блоки могут трансформироваться для выполнения разнообразных задач

Исследователи из Dartmouth College разрабатывают мягкие роботизированные блоки, которые могут работать в унисон, создавая конструкции, способные катиться, ходить, захватывать предметы и транспортировать грузы.

В зависимости от поставленной задачи блоки могут принимать форму, наиболее подходящую для ее выполнения. В пресс-релизе колледжа указывается, что такие роботы могут быть полезны при оперативном реагировании на ЧС, крупные версии которых смогут собираться в защитные палатки для спасателей.

"Существуют муравьи, которые совместно формируют мосты через щели или собираются в плоты в трудную минуту. Мы поставили перед собой задачу разработать роботизированные блоки, которые, подобно муравьям, могли бы объединяться различными способами для выполнения разных функций", - говорит Люян Чжао (Luyang Zhao), кандидат наук по информатике в Guarini School of Graduate and Advanced Studie, которая заинтересовалась робототехникой еще в студенческие годы.

StarBlocks, настольный прототип, созданный Чжао и ее коллегами из Dartmouth Reality and Robotics Lab, Rutgers University и Yale University, демонстрирует эту идею и ее потенциал в качестве динамического инструментария.

Каждый блок, или модуль, имеет звездообразный каркас. Изготовленный методом 3D-печати из материала, сочетающего в себе свойства пластика и резины, остов модуля легкий и в то же время растяжимый.

Механические мышцы (пружины из сплавов, деформирующихся при электрическом нагреве) формируют скелет, позволяя блоку имитировать движение, изгибаться и менять размер. Модули крепятся друг к другу с помощью магнитов.

В статье "StarBlocks: Soft Actuated Self-Connecting Blocks for Building Deformable Lattice Structures", опубликованной в журнале IEEE Robotics and Automation Letters, исследователи демонстрируют различные конструкции, которые могут создавать модули: несущую архитектуру в виде куполообразной палатки; катящееся колесо; четвероногое животное, вдохновленное собакой; роботизированную руку, которая может захватывать и перемещать небольшие объекты; линейную цепь, которая использует волнообразное движение для перемещения шарика по длине.

Исследователи также продемонстрировали самосборку блоков на поверхности. Получив информацию о положении, отслеживаемую камерой, система может активировать отдельные блоки, заставляя их двигаться навстречу друг другу и соединяться.

"Это первая в своем роде модульная система, которую можно реконфигурировать, а после реконфигурации использовать ее гибкость для решения поставленных задач, - говорит соавтор работы Девин Балком, профессор информатики. - Эти задачи включают в себя как передвижение, так и манипулирование, что также очень необычно".

По словам Балкома, роботы сочетают в себе преимущества различных типов систем. Модульность делает системы универсальными и легко ремонтируемыми, а модули сочетают в себе гибкость мягких роботов и конструктивные возможности жестких блоков.

https://www.youtube.com/watch?v=xno0FBs3ZdQ

Исследователи уже работают над усовершенствованием роботов, не связанных проводами, что позволит им более свободно двигаться и формировать фигуры. Чжао надеется, что в скором времени эти роботы смогут покинуть лабораторию и выйдут на улицу.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/myagkie-robotizirovannye-bloki-mogut-transformirovatsya-dlya-vypolneniya-raznoobraznyh-zadach
Робот для уборки офисных туалетных комнат

Нью-йоркская компания Somatic разработала робота для повышения эффективности работы клининговых бригад. На текущий момент компания предлагает робота по модели RaaS (робот как услуга) для обслуживания офисных зданий.

Somatic предлагает услугу стоимостью $1000 в месяц без предварительной оплаты, в рамках которой автономный робот постоянно находится в здании офиса и убирает туалетные комнаты в течение 40 часов в неделю. Это примерно $5,68 в час, что вполне соответствует минимальной заработной плате в США, составляющей $7,25 в час.

Робот может в автономном режиме открывать и закрывать двери, пользоваться лифтом, использовать дезинфицирующее средства и воду, открывать крышки унитазов и после проведения работ вытирать все насухо, после чего он отправится дальше.

По словам представителя Somatic все эти автономные возможности требуют приложения некоторых усилий. Перед прибытием робота на место компания посылает своего сотрудника с комплектом датчиков размером с обувную коробку, которому необходимо обойти здание, заходя и выходя из всех лифтов и туалетных комнат, чтобы составить карту здания с видео и трехмерными данными о глубине.

Затем оператор Somatic в VR-гарнитуре управляет роботом и проводит уборку туалетов. Т.о. оператор проводит обучение робота, при этом не обязательно убирать все туалеты в офисном здании, поскольку они, как правило, довольно однообразны. А затем, когда роботу будет предоставлено место для подзарядки, доступ к воде и электричеству, он будет готов приступить к автономной работе.

Сообщается, что робот не предназначен для того, чтобы полностью заменить уборщиков, а только для выполнения рутинной санитарной работы. Если он обнаружит что-то "неожиданное" он отправит фотографии по электронной почте вашему уборщику и перейдет к следующему участку.

https://www.youtube.com/watch?v=xY5zqKRy8A8

Сервис уже запущен в коммерческую эксплуатацию и, судя по всему, доступен уже сейчас, но компания не сообщает, сколько роботов она создала и сколько их уже работает.

https://robogeek.ru/servisnye-roboty/robot-dlya-uborki-ofisnyh-tualetnyh-komnat
Исследователи NUS разработали новый датчик давления для хирургических роботов

Исследователи из National University of Singapore (NUS) разработали новый датчик давления, получивший название eAir. Эта технология может быть применена в малоинвазивных операциях и имплантируемых датчиках благодаря непосредственному решению проблем, связанных с существующими датчиками давления.

Датчик eAir обещает повысить точность и надежность в медицинских приложениях. В перспективе он может изменить лапароскопические операции, обеспечив тактильную обратную связь с хирургом, что позволит более точно манипулировать хирургическим роботом. Результаты исследования, проведенного под руководством доцента Бенджамина Ти из NUS, были опубликованы в журнале Nature Materials.

Обычные датчики давления часто не отличаются точностью. Они с трудом обеспечивают стабильность показаний, часто дают разные результаты при многократном воздействии одного и того же давления и могут не замечать тонких изменений давления, что может привести к значительным ошибкам. Кроме того, они обычно изготавливаются из жестких и негибких материалов.

Для решения этих проблем команда NUS вдохновилась явлением, известным как "эффект листа лотоса" - уникальным природным феноменом, когда капли воды без усилий скатываются с поверхности листа, что возможно благодаря его мельчайшим водоотталкивающим структурам. Имитируя этот эффект, специалисты разработали датчик давления с улучшенной чувствительностью.

Бенджамин Ти поясняет, что eAir может обнаруживать мельчайшие изменения давления, что отражает чувствительность листа лотоса к чрезвычайно легкому прикосновению капли воды. В датчике используется инновационная конструкция "воздушной пружины", в которой находится слой воздуха, образующий при контакте с жидкостью в датчике границу раздела воздух-жидкость.

При увеличении внешнего давления этот слой воздуха сжимается. Обработка поверхности приводит к перемещению границы раздела внутри датчика без трения, что вызывает изменение электрических сигналов, точно отражающих величину оказываемого давления. Таким образом, природные водоотталкивающие свойства листа лотоса были переосмыслены в простой и элегантный прибор для измерения давления.

Устройства eAir можно сделать относительно небольшими - всего несколько миллиметров, что сопоставимо с размерами существующих датчиков давления.

Реальные возможности применения этой новой технологии весьма обширны. Например, при лапароскопических операциях, где необходима точная тактильная обратная связь, использование датчиков eAir может привести к повышению безопасности хирургических вмешательств, что в конечном итоге улучшит восстановление и прогноз состояния пациента.

"Когда хирурги выполняют малоинвазивные операции, например лапароскопические или роботизированные, мы можем управлять захватами, но не можем почувствовать, за что хватаются концевые эффекторы. Поэтому хирургам приходится полагаться на зрение и многолетний опыт, чтобы принять решение о критической информации, которую в противном случае могло бы предоставить наше осязание", - пояснил д-р Кан Хунг Ленг, консультант отделения общей хирургии больницы Национального университета.

Кроме того, eAir дает возможность улучшить процесс мониторинга внутричерепного давления. Предлагая минимально инвазивное решение, технология может изменить опыт пациентов в лечении заболеваний, связанных с головным мозгом, начиная от сильных головных болей и заканчивая потенциальными повреждениями мозга.

Команда NUS закладывает основу для сотрудничества с ключевыми игроками в области медицины. Одновременно они подали патент на технологию датчика eAir в Сингапуре и намерены использовать ее в реальных приложениях.

https://robogeek.ru/roboty-v-meditsine/issledovateli-nus-razrabotali-novyi-datchik-davleniya-dlya-hirurgicheskih-robotov
Исследователи KAIST разрабатывают гуманоида для управления самолетом

Группа исследователей разработала первого в мире человекоподобного робота-пилота. Помимо того, что робот, получивший название PIBOT, может размещаться в кресле пилота и использовать руки для взаимодействия с приборной доской, он использует технологию ИИ для запоминания полетных карт и аварийных протоколов.

За прошедшие годы было разработано несколько роботов-пилотов. В 2016 году разработанная DARPA система Labor In-Cockpit Automation System (ALIAS) сопровождала человека при выполнении базовых маневров в полете. В следующем году ALIAS совершил посадку самолета Boeing 737 в симуляторе, а вскоре после этого компания RE2 Robotics объявила о том, что ВВС США поручили ей разработку системы Common Aircraft Retrofit for Novel Autonomous Control (CARNAC). Затем, в 2019 году, ROBOpilot совершил свой первый двухчасовой полет.

Разница между этими роботами-пилотами и роботом, разработанным исследователями Korean Advanced Institute of Science and Technology (KAIST), заключается в том, что PIBOT использует ИИ и является гуманоидом, что делает его первым в своем роде.

"Гуманоидные роботы не требуют модификации существующих самолетов и могут быть сразу же применены для автоматизации полетов, - говорит Дэвид Хенчул Шим, возглавляющий проект PIBOT. - Поэтому они весьма применимы и практичны".

По словам исследователей, помимо того, что робот может физически сидеть в кресле пилота, использование технологии ChatGPT дает PIBOT явное преимущество. Это означает, что робот может запоминать аэронавигационные карты Jeppesen со всего мира, что, по их мнению, невозможно для человека, а также запомнить сборник оперативной информации (Quick Reference Handbook, QRH), содержащее все процедуры, применимые к нештатным и аварийным ситуациям. По их утверждению, эти способности позволяют PIBOT летать без ошибок и реагировать на различные ситуации быстрее, чем люди.

PIBOT может точно управлять переключателями в кабине самолета даже при сильной турбулентности. Благодаря встроенной камере робот может анализировать как состояние кабины, так и внешнюю обстановку. Уточняется, что возможности робота пока проверялись только на авиасимуляторе, но исследователи планируют в ближайшее время испытать робота на реальном легком самолете. При этом они видят применение PIBOT не только в пилотировании самолетов.

"Мы ожидаем, что они найдут применение и в других транспортных средствах, таких как автомобили и военные грузовики, поскольку могут управлять широким спектром оборудования, - сказал Шим. - Они... будут особенно полезны в ситуациях, когда военные ресурсы сильно истощены".

https://www.youtube.com/watch?v=_b5t3bgCpWA

Проект PIBOT стартовал в 2022 году, исследователи надеются завершить его к 2026 году. После чего они планируют коммерциализировать робота для использования как в военной, так и в гражданской сфере.

https://robogeek.ru/chelovekopodobnye-roboty/issledovateli-kaist-razrabatyvayut-gumanoida-dlya-upravleniya-samoletom
В EPFL разработали робота-собаку которая может бегать без моторов

В своем магистерском проекте в Ecole Polytechnique Federale de Lausanne (EPFL) Микаэль Ачкар собрал данные о движениях собак, чтобы разработать роботизированную версию этого животного, которая, будучи приведена в движение, может перемещаться без посторонней помощи и моторов.

Инженеры Лаборатории вычислительного проектирования и изготовления роботов (CREATE) EPFL, возглавляемой профессором Джози Хьюзом, разрабатывают новые способы создания роботов. Например, Хьюз и два других исследователя использовали ChatGPT для разработки роботизированного захвата для сбора урожая томатов. А Микаэль Ачкар использовал данные захвата движений живых собак для создания робота. Точнее, Ачкар изучил биологические механизмы собак, чтобы создать более "умную" конструкцию робота и построить прототип, который может работать сам по себе, без активации своих двигателей.

"Я хотел создать робота с характеристиками животного, учитывая, что животные, как и люди, двигаются огромным количеством разнообразных способов, - говорит Ачкар. - Но большинство этих движений выполняются всего несколькими суставами". Поэтому при создании робота он черпал вдохновение в процессах управления двигательной активностью животных.

"Мы нашли огромный набор данных о движении собак, причем они были доступны даже в открытых источниках" - говорит он. Первым шагом было извлечение данных о синергетических движениях собак, а затем структурирование этих данных, чтобы их можно было "обобщить" с помощью метода главных компонент. По сути, это означает группировку данных в несколько векторов, описывающих основные оси движения собаки, и использование этой информации для создания точных спецификаций робота.

Разработанная роботизированная собака обладает двусторонней симметрией. Каждая из четырех ног робота имеет три сустава, и каждый сустав согласован с остальными. Именно эта особенность позволяет роботу Ачкара бегать так же, как настоящая собака, и со всей ловкостью. Для создания прототипа Ачкар использовал "металлические стержни в качестве костей, напечатанные на 3D-принтере шкивы в качестве суставов, тонкие кабели в качестве сухожилий и несколько винтов, чтобы скрепить все это вместе".

Для испытания прототипа инженеры купили беговую дорожку. Они обнаружили, что, как только робот начал движение, он может двигаться автономно, без необходимости активировать управляющие двигатели.

"Сначала мы подумали, что это случайность, - говорит Ачкар. - Поэтому мы немного изменили конструкцию и снова протестировали робота - и он больше не смог бежать". Исследовательская группа добавила противовес, похожий на маятник, чтобы робот мог продолжать движение после запуска.

Управляющие двигатели робота, тем не менее, позволяют ему выполнять более широкий диапазон движений. Например, он может прыгать и преодолевать препятствия без помощи противовеса.

"Мы хотели бы продвинуть нашу конструкцию дальше с помощью двигателей, но пока прототип не очень надежен", - говорит Ачкар. Это не помешало ему испытать механическую собаку на прочность, например, поместить палку между ее ног, чтобы посмотреть, как она отреагирует. Робот автоматически возобновил движение. На беговой дорожке он развивает скорость до 6 км/ч.

https://www.youtube.com/watch?v=ztOOyl27BB0

"Наша цель - не соревноваться со сверхвысокотехнологичными роботами-собаками, а изучать конструкции роботов, вдохновленных биологическими факторами, - говорит Ачкар. - Это подразумевает оттачивание фундаментальной конструкции робота и модификацию его пассивных свойств таким образом, чтобы требовались только простые системы управления - и все это при максимальном расширении возможностей робота. То, что мы сделали здесь, - создание суставов для совместной работы - уже доказало свою полезность при создании роботизированных рук и других частей тела".

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/v-epfl-razrabotali-robota-sobaku-kotoraya-mozhet-begat-bez-motorov
Apptronik представила гуманоидного робота Apollo

Вчера компания Apptronik представила робота Apollo и утверждает, что это "самый способный в мире гуманоидный робот". Американская компания заявила, что робот предназначен для дружеского взаимодействия, массового производства и безопасности.

"Поскольку проблемы с трудовыми ресурсами и тенденции в сфере занятости продолжают оказывать влияние на нашу экономику, нам необходимо в корне изменить отношение к работе, особенно на складах и в цепочке поставок", - заявил Джефф Карденас, соучредитель и генеральный директор компании Apptronik, в своем релизе.

В 2016 году компания Apptronik вышла из состава Human Centered Robotics Lab в University of Texas. Цель компании - "представить следующее поколение роботов, которые изменят образ жизни и работы людей, решая при этом самые сложные мировые задачи".

В Apptronik отмечают, что Apollo создан на основе исследований 10 предыдущих роботов, включая работу над роботом Valkyrie для NASA.

При росте 172 см м Apollo весит 72,5 кг и может поднимать груз весом 25 кг. Компания заявляет, что робот имеет архитектуру, аналогичную коллаборативным роботам и может обеспечить безопасную работу рядом с людьми. Apollo также включает в себя поведение, основанное на восприятии, чтобы замедлиться или остановиться, если кто-то приближается. В Apptronik также отметили, что производительность Apollo по стоимости и энергоэффективность являются результатом десятилетней итерации, включающей 35 различных моделей электрических исполнительных систем.

"Наши уникальные приводы используют на треть меньше компонентов, чем традиционные приводы, и развивают на 50% большую скорость, - сказал Карденас. - Приводные механизмы стали более доступными, а используемые нами датчики - более дешевыми".

В роботе используются сменные батареи, каждая из которых рассчитана на четыре часа работы, что позволяет ему работать в течение всей смены, не требуя простоя для подзарядки. Компания заявила, что для обеспечения масштабного производства ей удалось оптимизировать устойчивость цепочки поставок за счет отказа от компонентов, поставляемых из одних рук, и размещения производственных мощностей в коридоре Техас - Мексика.

"Мексика обладает достаточным количеством талантов, а стоимость рабочей силы на треть ниже, чем в Китае, - сказал Карденас. - Дорога из Монтерея в Техас занимает 2,5 часа, в то время как из Китая в США по морю можно добраться за 18 дней".

Несмотря на то, что Apollo предназначен для решения широкого круга задач, компания Apptronik не ставит перед собой задачу обеспечить точность до 0,2 мм и не ждет, пока его масштабирование дойдет до миллионов единиц, прежде чем он станет доступным по цене. "Вначале мы ориентируемся на наиболее жизнеспособные приложения в ближайшей перспективе - грубые манипуляции для работы, - пояснил он. - К 2025 году в США будет не хватать 675 тыс. рабочих мест в сфере логистики, и многие из них - это просто сбор и перемещение грузов".

По словам представителей Apptronik, в перспективе Apollo будет использоваться в строительстве, нефтегазовой отрасли, производстве электроники, розничной торговле, доставке товаров на дом, уходе за пожилыми людьми и многих других отраслях. Компания продолжает оказывать поддержку NASA в снижении воздействия на человека в опасных условиях и готовится к расширению присутствия человечества в космосе с помощью телеуправляемых и автономных систем.

https://www.youtube.com/watch?v=N5VzOSKcZmM

Apptronik строит клиентский центр для демонстрации реальных примеров использования и работает над бета-версией Apollo, которая будет запущена в эксплуатацию в следующем году. Робот является платформой для дальнейшего развития. По заявлению компании их робот своего рода iPhone в мире роботов, позволяющий партнерам расширить возможности решений, разработанных Apptronik.

https://robogeek.ru/chelovekopodobnye-roboty/apptronik-predstavila-gumanoidnogo-robota-apollo
Британские исследователи представили робота демонстрирующего тактильную чувствительность, близкую к человеческому уровню

Новая система Bi-Touch, разработанная учеными University of Bristol на базе Bristol Robotics Laboratory, позволяет роботам выполнять ручные задачи, получая информацию о том, что нужно делать, от цифрового помощника.

Результаты исследования, опубликованные в журнале IEEE Robotics and Automation Letters, показывают, как агент ИИ интерпретирует окружающую среду с помощью тактильной и проприоцептивной обратной связи, а затем управляет поведением роботов, обеспечивая точное восприятие, мягкое взаимодействие и эффективное манипулирование объектами для выполнения роботизированных задач.

Эта разработка может полезна, например, для сбора фруктов, бытового обслуживания, а в перспективе - воссоздать осязание в искусственных конечностях.

"С помощью нашей системы Bi-Touch мы можем легко обучить агентов ИИ в виртуальном мире за пару часов выполнять бимануальные задачи, ориентированные на осязание. И что еще более важно, мы можем напрямую применять этих агентов из виртуального мира в реальном без дополнительного обучения - поясняет ведущий автор работы Ицзюнь Линь. - Тактильный бимануальный агент может решать задачи даже при неожиданных возмущениях и мягко манипулировать хрупкими объектами".

Бимануальное манипулирование с тактильной обратной связью станет ключом к развитию манипуляционных возможностей роботов человеческого уровня. Однако эта тема менее изучена, чем однорукие роботы, отчасти из-за доступности подходящего оборудования и сложности разработки эффективных контроллеров для задач с относительно большим пространством состояний и действий. Группа исследователей смогла разработать тактильную двурукую роботизированную систему, используя последние достижения в области ИИ и тактильных датчиков.

Исследователи создали виртуальный мир (симуляцию) с двумя роботами, оснащенными тактильными датчиками. Затем они разработали функции вознаграждения и механизм обновления целей, которые могли бы стимулировать агентов к обучению выполнению бимануальных задач, и создали реальную тактильную двурукую роботизированную систему, к которой можно было бы непосредственно применить этот агент.

Робот обучается бимануальным навыкам с помощью Deep Reinforcement Learning (Deep-RL) - одной из самых передовых технологий в области обучения роботов. Она предназначена для обучения роботов действиям путем проб и ошибок, подобно дрессировке собаки с помощью поощрений и наказаний.

Робот учится принимать решения, пробуя различные варианты поведения для выполнения поставленных задач, например, поднимать предметы, не роняя и не разбивая их. В случае успеха он получает вознаграждение, а в случае неудачи учится тому, чего делать не следует. Со временем он находит оптимальные способы захвата предметов, используя эти поощрения и наказания. ИИ-агент полагается только на проприоцептивную обратную связь - способность тела ощущать движение, действие и местоположение, а также на тактильную обратную связь. Им удалось успешно заставить двурукого робота безопасно поднимать такие хрупкие предметы, как картофельные чипсы Pringle.

"Наша система Bi-Touch демонстрирует перспективный подход с доступным программным и аппаратным обеспечением для обучения бимануальному поведению с помощью осязания в симуляции, который может быть непосредственно применен в реальном мире, - говорит соавтор работы профессор Натан Лепора. - Разработанная нами тактильная симуляция двурукого робота позволяет проводить дальнейшие исследования более разнообразных задач, поскольку код будет открытым, что идеально подходит для разработки других последующих задач".

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/britanskie-issledovateli-predstavili-robota-demonstriruyuschego-taktilnuyu-chuvstvitelnost-blizkuyu-k-chelovecheskomu-urovnyu
ИИ помогает роботам манипулировать объектами, используя не только захваты

Когда человеку необходимо поднять по лестнице большую и тяжелую коробку, он может поднять эту коробку обеими руками, затем упереть ее в предплечья и прижать к груди, используя все свое тело для манипулирования.

Для робота каждое место, где коробка может соприкоснуться с ним представляет собой событие контакта. При миллиардах вариаций быстрое планирование манипулирования становится неразрешимой задачей.

Исследователи из MIT нашли способ упростить этот процесс, известный как планирование манипуляций с большим количеством контактов. Они используют метод ИИ, называемый сглаживанием, который сводит множество контактных событий к меньшему числу решений, что позволяет даже простому алгоритму быстро определить эффективный план манипулирования для робота.

Многие решения, которые может принять робот, определяя, как манипулировать объектом, не являются важными с точки зрения общей схемы вещей. Например, каждая бесконечно малая поправка пальца, независимо от того, приведет ли она к контакту с объектом, не имеет большого значения. Сглаживание усредняет многие из этих неважных, промежуточных решений, оставляя несколько важных.

Обучение с подкреплением выполняет сглаживание неявно, пробуя множество точек контакта и затем вычисляя средневзвешенное значение результатов. Опираясь на этот опыт, исследователи Массачусетского технологического института разработали простую модель, которая выполняет аналогичное сглаживание, позволяя сосредоточиться на основных взаимодействиях робота с объектом и прогнозировать долгосрочное поведение. Они показали, что такой подход может быть столь же эффективным, как и обучение с подкреплением, при генерации сложных планов.

Даже если сглаживание значительно упрощает решения, поиск оставшихся решений все равно может оказаться сложной задачей. Поэтому исследователи объединили свою модель с алгоритмом, который может быстро и эффективно перебирать все возможные решения, которые может принять робот. При таком сочетании время вычислений на стандартном ноутбуке сократилось примерно до минуты.

Сначала они протестировали свой подход на симуляторах, где роботизированным рукам ставились задачи: переместить ручку, открыть дверь или поднять тарелку. В каждом случае подход, основанный на модели, достигал той же производительности, что и обучение с подкреплением, но за меньшее время. Аналогичные результаты были получены и при тестировании модели на реальных роботах-руках.

Пока этот метод находится на ранней стадии разработки, но в перспективе он может позволить заводам использовать небольших мобильных роботов, которые могут манипулировать объектами всей рукой или телом, а не большими роботизированными захватами. Это может способствовать снижению энергопотребления и уменьшению затрат. Кроме того, данная технология может быть полезна для роботов, отправляемых на другие планеты, поскольку они могут быстро адаптироваться к окружающей среде, используя только бортовой компьютер.

"Если мы сможем использовать структуру таких роботизированных систем с помощью моделей, то это позволит ускорить всю процедуру принятия решений и разработки планов, обеспечивающих контакт, - говорит Терри Сух, аспирант кафедры электротехники и информатики (EECS) и один из ведущих авторов статьи, посвященной этой методике.

В пресс-релизе MIT уточняется, что разработанная модель опирается на более простую аппроксимацию реального мира, поэтому она не может обрабатывать динамичные движения, например, падение объектов. Хотя этот подход эффективен для медленных манипуляционных задач, он не может создать план, который позволил бы роботу, например, выбросить консервную банку в мусорный бак. В будущем исследователи планируют усовершенствовать свою методику, чтобы она могла решать такие высокодинамичные задачи.

https://www.youtube.com/watch?v=D8VIzBRy_m4

Результаты исследования опубликованы в журнале IEEE Transactions on Robotics.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/ii-pomogaet-robotam-manipulirovat-obektami-ispolzuya-ne-tolko-zahvaty
В CMU разрабатывают роботизированную систему которая может помочь человеку одеваться

По данным National Center for Health Statistics, 92% пациентов домов престарелых и тем кому нужна помощь на дому нуждаются в помощи при одевании. Исследователи из Carnegie Mellon University (CMU) работают над созданием робота, который сможет это делать.

"Примечательно, что существующие разработки в основном предполагают одевание с ограниченным диапазоном поз рук и с использованием одной фиксированной одежды, например, больничного халата, - говорит аспирант CMU Юфей Ванг, работающий над роботизированной системой одевания. - Разработка общей системы, позволяющей работать с разнообразной повседневной одеждой и различными двигательными функциями, является нашей основной задачей. Мы также хотим распространить эту систему на людей с различными ограничениями движения рук".

Роботизированная система одевания использует возможности ИИ для адаптации к различным формам человеческого тела, положениям рук и выбору одежды. В своей работе группа исследователей использовала метод обучения с подкреплением для создания общей системы одевания. Робот получал положительное вознаграждение каждый раз, когда правильно размещал одежду дальше по руке человека. Благодаря этому методу они увеличили процент успешного выполнения системой выученной стратегии одевания.

Для обучения робота манипуляциям с одеждой и одеванию людей исследователи использовали симуляцию. При переносе стратегии, выработанной в симуляции, в реальный мир команде пришлось тщательно учитывать свойства материала из которого изготовлена одежды.

"На этапе моделирования мы использовали намеренно рандомизированные разнообразные свойства одежды, чтобы направить выработанную роботом стратегию одевания на широкий спектр свойств материала, - говорит Чжаньи Сунь, студент магистратуры CMU, который также работал над проектом. - Мы надеемся, что случайное изменение свойств одежды при моделировании будет отражать свойства одежды в реальном мире, поэтому стратегия одевания, выработанная в условиях моделирования, может быть легко перенесена в реальный мир".

Команда оценила роботизированную систему одевания в исследовании на людях, в котором было проведено 510 одеваний 17 участников с различными формами тела, положением рук и пятью видами одежды. Для большинства участников система смогла полностью натянуть рукав каждого предмета одежды на руку. При усреднении по всем тестовым случаям система была успешна в 86% случаев.

При разработке системы исследователям пришлось учитывать несколько проблем, т.к. одежда деформируема. Это затрудняет ее восприятие роботом и прогнозирование того, куда и как она будет двигаться.

"Одежда отличается от жестких объектов, которые позволяют оценить состояние, поэтому нам приходится использовать высокоразмерное представление для деформируемых объектов, чтобы робот мог воспринимать текущее состояние одежды и то, как она взаимодействует с рукой человека, - сказал Ванг. - Используемое нами представление называется сегментированным облаком точек. Оно представляет видимые части одежды в виде набора точек".

При этом решающее значение имело безопасное взаимодействие человека и робота. Важно, чтобы робот не прилагал чрезмерных усилий к руке человека и не совершал никаких других действий, которые могут вызвать дискомфорт или поставить под угрозу безопасность человека. Чтобы снизить эти риски, команда поощряла робота за аккуратное поведение.

Дальнейшие исследования будут вестись в нескольких направлениях. Например, команда хочет расширить возможности существующей системы, позволив ей надевать куртку на обе руки человека или натягивать футболку через голову. Обе задачи требуют более сложной конструкции и исполнения.

https://www.youtube.com/watch?v=5j3a0dR22oU

Работа "One Policy To Dress Them All: Learning To Dress People With Diverse Poses and Garments" была представлена на конференции Robotics: Science and Systems conference.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/v-cmu-razrabatyvayut-robotizirovannuyu-sistemu-kotoraya-mozhet-pomoch-cheloveku-odevatsya
Беспилотник с ИИ обогнал чемпионов дрон-рейсинга

Разработанная учеными из University of Zurich (UZH) ИИ система Swift обошла чемпионов мира по гонкам на беспилотниках - результат, который еще несколько лет назад казался недостижимым. Беспилотник, управляемый ИИ, был обучен в симулированной среде. В реальном мире Swift может применяться для мониторинга окружающей среды или ликвидации последствий стихийных бедствий.

В 1996 году компьютер Deep Blue компании IBM выиграл у Гари Каспарова в шахматы, а в 2016 году компьютер AlphaGo компании Google разгромил лучшего игрока в го Ли Седоля, гораздо более сложной игре. Эти соревнования, в которых машины одержали победу над людьми, являются ключевыми вехами в истории развития ИИ. Теперь группа исследователей из UZH и компании Intel установила новую веху, создав первую автономную систему, способную победить человека в физическом виде спорта.

Система Swift выиграла несколько гонок у трех чемпионов мирового класса в гонках дронов с видом от первого лица (FPV), где пилоты управляют квадрокоптерами на скорости более 100 км/ч.

"Физические виды спорта более сложны для ИИ, поскольку они менее предсказуемы, чем настольные или видеоигры. Мы не обладаем совершенными знаниями о моделях дронов и окружающей среды, поэтому ИИ должен изучать их, взаимодействуя с физическим миром", - говорит Давиде Скарамуцца, руководитель группы робототехники и восприятия UZH.

Раньше автономным беспилотникам требовалось в два раза больше времени, чем пилотируемым человеком, чтобы пролететь по гоночной трассе, если они не полагались на внешнюю систему отслеживания положения для точного контроля траектории. Swift же реагирует в реальном времени на данные, получаемые с помощью бортовой камеры, подобной той, что используется пилотами. Встроенный инерциальный блок измеряет ускорение и скорость, а нейронная сеть использует данные с камеры для локализации дрона в пространстве и обнаружения ворот на гоночной трассе. Эта информация поступает в блок управления, который выбирает оптимальные действия для скорейшего завершения трассы.

Обучение Swift проводилось в симуляционной среде, где он сам учился летать методом проб и ошибок, используя обучение с подкреплением. Использование симуляции позволило избежать уничтожения беспилотников на ранних этапах обучения, когда система часто сбоит.

"Чтобы последствия действий в симуляторе были максимально приближены к реальным, мы разработали метод оптимизации симулятора с использованием реальных данных, - говорит Элиа Кауфман, первый автор статьи. - На этом этапе беспилотник совершал автономный полет, ориентируясь на очень точные координаты, предоставляемые внешней системой отслеживания положения, и одновременно записывая данные с камеры. Таким образом, он научился самостоятельно исправлять ошибки, допущенные при интерпретации данных с бортовых датчиков".

После месяца полетов в симуляторе, что соответствует менее чем часу на настольном ПК, исследователи бросили вызов чемпиону Drone Racing League 2019 года Алексу Вановеру, чемпиону MultiGP Drone Racing 2019 года Томасу Битматту и трехкратному чемпиону Швейцарии Марвину Шепперу. Соревнования проходили на специально построенной трассе в ангаре аэропорта Дюбендорф, расположенного недалеко от Цюриха. Площадь трассы составляла 25 на 25 метров, на ней располагались семь квадратных ворот, которые необходимо было пройти в правильном порядке, чтобы завершить круг, включая сложные маневры.

В целом Swift показал самый быстрый круг, на полсекунды опередив лучший результат человека. С другой стороны, человек лучше адаптируется к внешним изменениям, чем автономный беспилотник, который не справился с задачей, когда условия отличались от тех, к которым он был подготовлен, например, если в помещении было слишком много света.

Соревнования прошли в июне 2022 года. Вчера в Nature был опубликован материал "Champion-level drone racing using deep reinforcement learning".

https://robogeek.ru/letayuschie-roboty/bespilotnik-s-ii-obognal-chempionov-dron-reisinga
В CU Boulder создали миниатюрного модульного робота, способного менять форму

Одним из наиболее распространенных вариантов использования миниатюрных роботов является поиск выживших в завалах на месте катастрофы. Робот CLARI, созданный по образу насекомых, может оказаться полезен в этом сценарии, поскольку он может сделать себя тоньше, чтобы протиснуться через узкие горизонтальные щели.

Робот CLARI (Compliant Legged Articulated Robotic Insect) был создан в University of Colorado-Boulder (CU Boulder) командой под руководством докторанта инженерных наук Хейко Кабутца. Он сотрудничал с доцентом университета Каушиком Джаярамом, который ранее создал робота, вдохновленного тараканами, который сплющивает себя, чтобы протиснуться через вертикальные щели.

Четырехногий робот CLARI имеет условно квадратную форму, если смотреть на него сверху, и состоит из четырех секций, соединенных между собой гибкой внешней оболочкой. Каждая секция включает в себя одну ногу со своей схемой и двумя приводами, которые перемещают ногу вперед и назад, а также из стороны в сторону. Таким образом, каждая нога может работать независимо от других.

При движении по открытой местности CLARI по умолчанию сохраняет квадратную форму, что обеспечивает оптимальную скорость и устойчивость. Однако если робот встречает препятствие он может перестроиться в более длинную и узкую форму. Если говорить о конкретных цифрах, то ширина робота уменьшается с 34 мм до 21 мм.

Хотя нынешняя итерация CLARI подключена к источнику питания и управления, есть надежда, что его будущие версии будут питаться от батарей и оснащены датчиками для автономного перемещения в сложных условиях. Ученые также хотят сделать этих роботов более компактными, но при этом оснастить их большим количеством ног для повышения маневренности.

"Когда мы пытаемся поймать насекомое, оно может исчезнуть в щели, - говорит Кабуц. - Но если у нас есть роботы с возможностями паука или мухи, мы можем добавить камеры или датчики, и теперь мы можем начать исследовать пространства, в которые раньше не могли попасть".

https://www.youtube.com/watch?v=wwrckOT4VwY

Работа "Design of CLARI: A Miniature Modular Origami Passive Shape-Morphing Robot" была опубликована в журнале Advanced Intelligent Systems.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/v-cu-boulder-sozdali-miniatyurnogo-modulnogo-robota-sposobnogo-menyat-formu
Прогнозирования самоубийства и причинения себе вреда у подростков с помощью ИИ

Исследователи с помощью алгоритма машинного обучения определили основные факторы, которые могут предсказать риск причинения себе вреда и попытки самоубийства у подростков. По их словам, их модель является более точной, чем существующие методы, и может быть использована для оказания индивидуальной помощи.

Подростковый возраст - важнейший период становления. Физические, эмоциональные и социальные изменения могут сделать подростков уязвимыми к проблемам психического здоровья, включая попытки самоубийства. По данным Australian Institute of Health and Welfare (AIHW), самоубийство является основной причиной смерти австралийцев в возрасте от 15 до 24 лет. В США, по данным Centers for Disease Control and Prevention (CDC), суицид занимает второе место среди причин смерти подростков в возрасте от 10 до 14 лет.

Стандартный подход к прогнозированию самоубийств и самоповреждений основан на использовании в качестве единственного фактора риска наличие попыток сделать это в прошлом, что может быть ненадежным. Исследователи из University of New South Wales Sydney с помощью машинного обучения определили основные факторы, которые подвергают подростков повышенному риску.

"Иногда нам необходимо переварить и обработать большое количество информации, что не под силу клиницисту, - говорит Пинг-И Дэниел Лин, автор-корреспондент исследования. - Именно поэтому мы обращаемся к алгоритмам машинного обучения".

Данные о 2809 подростках были получены из Longitudinal Study of Australian Children (LSAC) - репрезентативного национального исследования, начавшегося в 2004 году. Подростки были разделены на две возрастные группы: 14-15 лет и 16-17 лет. Данные были получены из анкет, заполненных детьми, их опекунами и учителями. Среди участников исследования 10,5% сообщили об случаях самоповреждения, а 5,2% - о попытках самоубийства хотя бы один раз за последний год.

Исследователи выделили из полученных данных более 4000 потенциальных факторов риска в таких областях, как психическое здоровье, физическое здоровье, взаимоотношения с окружающими, школьная и домашняя обстановка. Они использовали метод случайного леса (RF) для определения того, какие факторы риска, наблюдавшиеся в 14-15 лет, в наибольшей степени предсказывали попытки самоубийства и самоповреждения в 16-17 лет. Основная идея RF заключается в том, что при объединении множества деревьев решений в единую модель прогнозы в среднем будут ближе к истине.

Прогностическая эффективность модели машинного обучения сравнивалась с подходом, использующим в качестве предиктора только предыдущую историю самоповреждений или попыток самоубийства. Эффективность каждой модели определялась путем оценки площади под кривой (AUC) - показателя, который варьируется от 0,5 (не лучше случайного угадывания) до 1,0 (идеальное предсказание). Как правило, AUC от 0,7 до 0,8 считается приемлемой для прогнозирования риска, от 0,8 до 0,9 - отличной, а более 0,9 - выдающейся.

Для обучения RF-модели прогнозирования самоповреждений было использовано 48 переменных, которая показала хорошую прогностическую эффективность с AUC 0,740. Что касается предсказания попыток самоубийства, то модель, обученная с использованием 315 переменных, показала AUC 0,722.

"Для нас было удивительно увидеть, что предыдущие попытки не входят в число основных факторов риска, - сказал Лин. - Мы обнаружили, что окружение молодого человека играет большую роль, чем мы думали. Это хорошо с точки зрения профилактики, поскольку теперь мы знаем, что можем сделать для этих людей".

По мнению исследователей, полученные ими результаты важны, поскольку они опровергают стереотип, согласно которому люди совершают самоубийства или самоповреждения исключительно из-за плохого психического здоровья. По их словам, их модель может быть использована для индивидуальной оценки риска у подростков.

Исследование было опубликовано в журнале Psychiatry Research.

https://robogeek.ru/iskusstvennyi-intellekt/prognozirovaniya-samoubiistv-i-prichineniya-sebe-vreda-u-podrostkov-s-pomoschyu-ii
В ETH Zurich представили метод обучения роботов манипулированию скомканными тканями

Чтобы помогать человеку в его повседневной деятельности и успешно справляться с домашними делами, роботы должны уметь эффективно манипулировать предметами, которыми мы пользуемся каждый день. Однако некоторые объекты из-за их формы, гибкости и других особенностей трудно поддаются манипулированию роботами.

К таким объектам относятся текстильные салфетки, которые обычно используются человеком для очистки поверхностей, окон, зеркал и мытья полов. Все эти задачи потенциально могут быть выполнены роботами, но прежде чем это произойдет, роботы должны уметь эффективно захватывать ткани и манипулировать ими.

Исследователи из ETH Zurich представили новую вычислительную технику, позволяющую создавать визуальные представления смятых тканей, что, в свою очередь, может помочь в планировании эффективных стратегий захвата тканей роботами и их использования при выполнении задач. Эта методика, представленная в статье, предварительно опубликованной на сайте arXiv, оказалась хорошо обобщающей для тканей с различными физическими свойствами, а также различных форм, размеров и материалов.

"Точная реконструкция и манипулирование одной скомканной тканью представляет собой сложную задачу из-за высокой размерности модели ткани, а также ограниченности наблюдений в самозакрывающихся областях", - пишут в своей статье Вэньбо Ванг, Гэн Ли, Мигель Замора и Стелиан Корос. В своей работе они использовали модель, основанную на графовых нейронных сетях (GNN).

Для обучения своей модели исследователи собрали набор данных, содержащий более 120 000 синтетических изображений, полученных в результате моделирования, а также более 3000 помеченных изображений ткани, полученных в реальных условиях. После длительного обучения на этих двух наборах данных было обнаружено, что модель эффективно предсказывает положение и видимость вершин ткани, просто рассматривая ткань сверху.

Для оценки эффективности своей модели исследователи провели ряд тестов, как в симуляции, так и в экспериментальном режиме. В этих тестах они применили свою модель к коллаборативному роботу YuMi компании ABB.

Как в симуляциях, так и в экспериментах модель позволяла эффективно управлять движениями YuMi, позволяя лучше удерживать и манипулировать различными тканями, используя как одну руку, так и обе.

Наборы данных, собранные исследователями, и код их модели доступны на GitHub. В будущем эта работа может открыть путь к дальнейшему прогрессу в области робототехники. В частности, она может помочь расширить возможности мобильных роботов, предназначенных для помощи человеку в работе по дому, улучшив их способность справляться с различными тканями.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/v-eth-zurich-predstavili-metod-obucheniya-robotov-manipulirovaniyu-skomkannymi-tkanyami
Китайская компания Deeproute планирует выход на европейский рынок

Deeproute, стартап в области роботакси со штаб-квартирой в Шэньчжэне и имеющая финансирование в размере $350 млн. планирует открыть операционный центр в Германии в 2024 году. Это станет еще одним случаем, когда китайский разработчик автономных технологий откроет свое представительство в регионе, где расположены крупнейшие мировые автопроизводители.

Об этом было объявлено на Международном автомобильном салоне в Мюнхене на этой неделе, где присутствовало большое количество китайских игроков. В следующем году компания, поддерживаемая Alibaba, планирует развернуть свое готовое к производству решение для автономного вождения в Германии, а затем и на других европейских рынках.

Их решение Drive 3.0 работает без карт высокой четкости и оснащено такими функциями, как Park Assist. При этом оно имеет привлекательный ценник в $ 2000, в том числе благодаря конкурентоспособным ценам китайских поставщиков лидаров. В нем используется система на кристалле Drive Orin от Nvidia.

Компания Deeproute не предоставила подробной информации о том, чем на самом деле занимается новый операционный центр, сообщив лишь, что в нем будет работать команда по развитию бизнеса. Также пока неизвестно, в каком городе он будет располагаться, хотя есть несколько очевидных вариантов.

Если посмотреть в прошлое, то два года назад конкурент Deeproute, компания Momenta ИЗ Сучжоу, открыла офис в Штутгарте. Это решение позволило им наладить более тесные отношения со своим инвестором компанией Mercedes-Benz, штаб-квартира которой находится в этом немецком городе, а также, возможно, с другими европейскими производителями комплектующих.

Компания Nio, китайский производитель электромобилей премиум-класса, разрабатывающий свои технологии ADAS собственными силами, имеет инновационный центр площадью 1500 кв. м в Берлине и конструкторский центр в Мюнхене. В столице также работает шоу-рум NIO House.

Как и другие амбициозные китайские стартапы, Deeproute начинала свою деятельность с разработки технологий четвертого уровня автономности, но со временем перешла к менее продвинутым решениям для автопартнеров, которые могут принести более надежный денежный поток.

Представитель компании Deeproute заявил, что "поскольку с прошлого года мы работаем с OEM-производителями над серийным производством, мы сместили акцент с роботакси на дорожные испытания готовых к производству автомобилей". К концу 2022 года компания осуществила более 800 000 пассажирских поездок, большинство из которых были осуществлены ее роботакси в крупных городах Китая.

https://www.youtube.com/watch?v=tpKpbM-rCXM

Наличие представительства в Германии будет способствовать расширению базы OEM-клиентов, в которую на данный момент входят компании Seres и Geely. Наличие команды по развитию бизнеса на месте означает, что Deeproute сможет "наладить контакты с большим количеством местных автопроизводителей, оказать поддержку OEM-партнерам в серийном производстве "умных" автомобилей и т.д.", - заявил представитель компании.

https://robogeek.ru/avtonomnyi-transport/kitaiskaya-kompaniya-deeproute-ai-planiruet-vyhod-na-evropeiskii-rynok
Saildrone и RPS используют интеллектуальные инструменты для мониторинга морских млекопитающих

Saildrone, компания в области безэкипажных надводных аппаратов (USV) и автономного сбора данных об океане, совместно с компанией RPS, поставщиком услуг по мониторингу охраняемых видов и обеспечению соблюдения требований по смягчению последствий воздействия на окружающую среду, объявили о завершении первого этапа проекта по созданию сети мониторинга для обнаружения, классификации и локализации морских млекопитающих.

Проект был поддержан грантом National Offshore Wind Research and Development Consortium (NOWRDC).

По мере роста спроса на экологически чистую энергию все большее распространение получают морские ветряные электростанции. Однако их строительство и эксплуатация могут оказывать влияние на морские экосистемы. Многие виды крупных китов сильно зависят от акустики при выполнении важных жизненных функций и поэтому чувствительны к подводному шуму.

Традиционные визуальные и акустические методы мониторинга морских млекопитающих требуют присутствия в море обученных биологов на судах с экипажем. Вокальные сигналы китов часто имеют очень низкую частоту, что затрудняет их обнаружение и легко маскируется искусственными звуками.

Два аппарата Saildrone USV, оснащенные подводными акустическими системами, были развернуты у побережья штата Массачусетс для наблюдения за южными китами и другими морскими млекопитающими. Практически бесшумные подводные аппараты были размещены в районе, где обитает несколько видов китов. В течение двух недель работы беспилотники зафиксировали множество акустических сигналов морских млекопитающих.

Теперь перед учеными-акустиками RPS стоит задача постобработки данных, полученных с помощью Saildrone, определения типов обнаруженных звуков и видов, издающих эти звуки. Одним из инструментов, который будет использоваться аналитиками, является инструмент машинного обучения RPS Neptune, прогностический алгоритм для точного и надежного обнаружения акустических сигналов морских млекопитающих.

"Глобальное развитие морской ветроэнергетики - это ключ к отказу от традиционной, невозобновляемой энергетики, особенно на ископаемом топливе. Однако развитие не должно оказывать негативного воздействия на морских млекопитающих, которые обитают в этих местах. Компании Saildrone и RPS совместно работают над созданием уникального, гибкого и адаптируемого решения для мониторинга морских млекопитающих на больших территориях в течение значительных периодов времени, используя интеллектуальные инструменты для сокращения численности персонала на местах, но без снижения объемов мониторинга и смягчения последствий для защиты наших соседей - морских животных", - говорит Стефани Милн, тимлид группы RPS, US Offshore Renewables.

Целью Saildrone и RPS является минимизация воздействия промышленной деятельности на популяции морских млекопитающих при одновременной поддержке расширения использования возобновляемых источников энергии. Современные акустические датчики, разработанные Saildrone, в сочетании с ИИ RPS позволят обнаруживать и отслеживать присутствие китов в режиме реального времени, что позволит принимать упреждающие меры.

"Это значительное достижение представляет собой существенный шаг вперед в нашей способности изучать и защищать китов и других морских млекопитающих, - говорит технический директор Saildrone Брайан Хернаки. - Пассивная акустическая технология Saildrone позволяет нам собирать жизненно важную информацию неинвазивным и экономически эффективным способом".

https://robogeek.ru/podvodnye-i-nadvodnye-roboty/saildrone-i-rps-ispolzuyut-intellektualnye-instrumenty-dlya-monitoringa-morskih-mlekopitayuschih