Кейсы цифровой трансформации – Telegram
Кейсы цифровой трансформации
361 subscribers
3 photos
1 video
1 file
836 links
Здесь мы делимся реальными историями
успеха цифровой трансформации компаний, обсуждаем новости и тенденции в этой области, проводим вебинары.
Проект https://casestudy.techart.ru
Download Telegram
Обучение с подкреплением позволяет подводным роботам находить и отслеживать объекты под водой

Группа специалистов, возглавляемая Institut de Ciencies del Mar (ICM-CSIC) в Барселоне в сотрудничестве с Monterey Bay Aquarium Research Institute (MBARI) в Калифорнии, Universitat Politecnica de Catalunya (UPC) и Universitat de Girona, впервые доказала, что обучение с подкреплением позволяет автономным транспортным средствам и подводным роботам находить и отслеживать морские объекты и животных.

В настоящее время подводная робототехника становится одним из ключевых инструментов для углубления знаний об океане в условиях многочисленных трудностей его исследования: аппараты способны опускаться на глубину до 4000 метров. Кроме того, получаемые с их помощью данные in-situ помогают дополнить другие данные, например, полученные со спутников.

В частности, в новой работе показано, что обучение с подкреплением, широко используемое в области управления и робототехники, а также при разработке инструментов, связанных с обработкой естественного языка, таких как ChatGPT, позволяет подводным роботам научиться тому, какие действия необходимо выполнять в каждый момент времени для достижения определенной цели. Эти политики действий соответствуют, а в некоторых случаях даже улучшают традиционные методы, основанные на аналитической разработке.

"Такой тип обучения позволяет нам обучить нейронную сеть оптимизировать конкретную задачу, что было бы очень сложно сделать в противном случае. Например, нам удалось продемонстрировать, что можно оптимизировать траекторию движения аппарата для обнаружения и отслеживания объектов, движущихся под водой", - поясняет Иван Масмитья, ведущий автор исследования.

“Это позволит нам углубить изучение таких экологических явлений, как миграция или перемещение в малых и больших масштабах множества морских видов с помощью автономных роботов. Кроме того, эти достижения позволят осуществлять мониторинг других океанографических приборов в режиме реального времени с помощью сети роботов, где одни могут находиться на поверхности, отслеживая и передавая через спутник действия, выполняемые другими роботизированными платформами на морском дне", - отмечает исследователь ICM-CSIC Джоан Наварро, также принимавший участие в исследовании.

Для выполнения этой работы исследователи использовали дальномерные акустические методы, позволяющие оценить положение объекта по измерениям расстояния, сделанным в разных точках. Однако это обстоятельство делает точность определения местоположения объекта сильно зависящей от места проведения акустических измерений. Именно здесь становится важным применение ИИ, в частности, обучения с подкреплением, которое позволяет определить наилучшие точки и, соответственно, оптимальную траекторию движения робота.

Нейронные сети обучались, в частности, с помощью компьютерного кластера Barcelona Supercomputing Center (BSC-CNS), где расположен самый мощный суперкомпьютер в Испании и один из самых мощных в Европе. "Это позволило настраивать параметры различных алгоритмов гораздо быстрее, чем при использовании обычных компьютеров", - отмечает профессор Марио Мартин, сотрудник кафедры компьютерных наук UPC и один из авторов исследования.

После обучения алгоритмы были протестированы на различных автономных аппаратах, включая AUV Sparus II, разработанный компанией VICOROB, в серии экспериментальных миссий в порту Сан-Фелиу-де-Гиксолс, в заливе Байш-Эмпорда и в заливе Монтерей (Калифорния) в сотрудничестве с главным исследователем лаборатории биоинспирации в MBARI Какани Катией.

Статья была опубликована в журнале Science Robotics.

https://robogeek.ru/podvodnye-i-nadvodnye-roboty/obuchenie-s-podkrepleniem-pozvolyaet-podvodnym-robotam-nahodit-i-otslezhivat-obekty-pod-vodoi
Система телеоперации AnyTeleop может быть применена к различным роботам

Последние достижения в области робототехники и ИИ открыли новые возможности для телеоперации. Например, это может быть удаленное посещение различных мероприятий и музеев в интерактивном режиме или дистанционное техническое обслуживание промышленного оборудования и инфраструктуры.

Большинство существующих систем телеоперации разработаны для применения в конкретных условиях и с использованием конкретного робота. Это затрудняет их применение в различных реальных сценариях и ограничивает их потенциал.

Исследователи из NVIDIA и UC San Diego разработали AnyTeleop - систему телеоперации на основе компьютерного зрения, которая может быть использована в более широком спектре сценариев. Статья об этой системе, которая позволяет дистанционно управлять различными роботизированными руками и манипуляторами, была опубликована на сайте arXiv.

"Основной задачей NVIDIA является изучение того, как человек может научить роботов выполнять задачи, - говорит Дитер Фокс, старший директор по исследованиям в области робототехники в NVIDIA и руководитель исследовательской лаборатории NVIDIA Robotics Research Lab. - В предыдущих работах основное внимание уделялось тому, как человек будет телеоперировать, или направлять, робота, но такой подход имеет два препятствия. Во-первых, для обучения современной модели требуется множество демонстраций. Во-вторых, для создания таких моделей обычно используется дорогостоящая аппаратура или сенсорное оборудование, и они рассчитаны только на конкретного робота или среду".

Основной целью недавней работы Фокса и его коллег было создание недорогой, простой в развертывании системы телеоперации для различных задач, сред и робототехнических систем. Для обучения своей системы исследователи телеуправляли как виртуальными роботами в виртуальной среде, так и реальными роботами в физической среде. Это позволило снизить необходимость приобретения и сборки большого количества роботов.

"AnyTeleop - это система телеоперации на основе технического зрения, которая позволяет человеку использовать свои руки для управления ловкими роботизированными манипуляторами, - пояснил Фокс. - Система отслеживает положение рук человека с помощью одной или нескольких камер, а затем перенацеливает их для управления пальцами многопалой руки робота. Точка запястья используется для управления движением руки робота с помощью планировщика движений на базе CUDA".

В отличие от большинства других систем телеоперации, представленных в прошлых исследованиях, AnyTeleop может быть сопряжена с различными манипуляторами, руками роботов, конфигурациями камер и различными моделируемыми или реальными средами. Кроме того, она может применяться как в сценариях, когда пользователи находятся рядом, так и в удаленных местах.

Платформа AnyTeleop также может помочь в сборе демонстрационных данных (т.е. данных, отражающих движения и действия человека при выполнении определенных ручных задач). Эти данные, в свою очередь, могут быть использованы для более эффективного обучения роботов автономному выполнению различных задач.

"Главным достижением AnyTeleop является его обобщенная и легко развертываемая конструкция, - говорит Фокс. - Одно из потенциальных применений - развертывание виртуальных сред и виртуальных роботов в облаке, что позволит пользователям с компьютерами и камерами начального уровня (например, iPhone или ПК) телеуправлять ими. В конечном итоге это может произвести революцию в конвейерной обработке данных для исследователей и промышленных разработчиков, обучающих роботов новым навыкам".

NVIDIA планирует выпустить версию системы AnyTeleop с открытым исходным кодом, что позволит исследовательским группам по всему миру тестировать ее и применять в своих роботах.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/sistema-teleoperatsii-anyteleop-kotoraya-mozhet-byt-primenena-k-razlichnym-robotam
Инструмент на основе ИИ для прогнозирования госпитализации больных COVID на основе отбора проб сточных вод

Новое исследование показало, что с помощью системы ИИ, основанной на анализе проб сточных вод, содержащих COVID-19, можно точно предсказать число госпитализаций на срок до четырех недель вперед.

Исследование возглавили два инженера из University of Technology Sydney (UTS) - профессор Цилинь Ванг и доктор Сюань Ли. Работая вместе с коллегами из UNSW Sydney, Delft University of Technology и Morgan State University, ученые изучили данные о сточных водах 159 округов США, охватывающих около 100 млн. граждан. Затем они сопоставили эти данные с данными о госпитализации в США и разработали свою модель прогнозирования. Работа опубликована в журнале Nature Communications.

"Моя докторская диссертация была посвящена проектированию канализационных систем для снижения коррозии бетона, однако я закончил университет как раз в то время, когда начался COVID-19, и увидел возможность отслеживать и изучать эту пандемию, - сказала д-р Ли.- Существующие методы прогнозирования основаны на лабораторном тестировании COVID-19 или самотестировании и отчетности, однако это не позволяет выявить бессимптомные случаи, а многие страны отказываются от строгих требований к тестированию".

По мнению профессора Ванга, сточные воды представляют собой богатый источник данных, который пока не используется в полной мере. Он считает, что моделирование на основе ИИ может стать экономически эффективной системой раннего предупреждения, позволяющей работникам здравоохранения лучше подготовиться к пандемическим волнам и управлять ими, а также эффективно распределять ограниченные ресурсы здравоохранения.

"Мониторинг сточных вод уже проводится во многих странах, но он ограничивается тем, что показывает, присутствует ли COVID-19 в том или ином регионе, а также дает приблизительную оценку того, увеличивается или уменьшается его нагрузка, - сказал он. - Мы использовали ИИ для выявления закономерностей и изменений в данных и обучения на их основе для повышения точности прогнозов".

Профессор Ванг поясняет, что “среди переменных, которые могут влиять на госпитализацию: изменение поведения в связи с государственной политикой, уровень вакцинации, праздники и погода. Созданная модель может помочь точно предсказать потребности в госпитализации в регионе".

По словам д-ра Ли, результаты работы команды могут стать основой для создания системы раннего отслеживания COVID и ряда других заболеваний, а также для прогнозирования степени воздействия пандемий и вспышек на местное население.

Исследование было поддержано Australian Research Council и Australian Academy of Science.

https://robogeek.ru/iskusstvennyi-intellekt/instrument-na-osnove-ii-dlya-prognozirovaniya-gospitalizatsii-bolnyh-covid-na-osnove-otbora-prob-stochnyh-vod
Вдохновившись искусством киригами, ученые из NC State разработали новые роботизированные захваты

Используя новую конструкцию, вдохновленную японским искусством вырезания из бумаги, ученые разработали мягкие, но прочные роботизированные захваты, способные складывать одежду, захватывать сверхтонкие микроволокна, поднимать вес в 16 000 раз больше собственного, а также переворачивать страницы книги. Устройство имеет широкий спектр потенциальных применений - от протезирования до малоинвазивной хирургии и глубоководных исследований.

В последнее время появилось множество роботизированных захватов, в том числе захватов, работающих без электричества, вдохновленных цветами. Однако исследователи из North Carolina State University (NC State), возможно, разработали роботизированные захваты нового уровня.

"Разработать единый мягкий захват, способный работать с ультрамягкими, ультратонкими и тяжелыми объектами, довольно сложно из-за компромисса между прочностью, точностью и мягкостью, - говорит Цзе Инь, автор-корреспондент исследования. - В нашей конструкции достигнут отличный баланс между этими характеристиками".

Чтобы быть полезным в самых разных ситуациях, идеальный захват должен быть не только деликатным, но и способным на сильные и ловкие действия. Для достижения этой цели исследователи обратились к киригами - японскому искусству вырезания из бумаги.

В киригами, тесно связанном с оригами, двухмерная бумага складывается и вырезается, образуя трехмерные фигуры. Исследователи обнаружили, что использование конструкции, вдохновленной этим искусством, дает их захвату уникальные преимущества.

"Сила роботизированных захватов обычно измеряется отношением полезной нагрузки к весу, - говорит Инь. - Наши захваты весят 0,4 грамма и могут поднимать до 6,4 килограмма. Это соотношение полезной нагрузки и веса составляет около 16 000. Это в 2,5 раза больше предыдущего рекорда по соотношению полезной нагрузки и веса, который составлял 6 400. В сочетании с такими характеристиками, как мягкость и точность, прочность захватов позволяет говорить о широком спектре их применения".

По мнению исследователей, эти характеристики в большей степени связаны с конструкцией захватов, а не с тем, из чего они сделаны.

"С практической точки зрения это означает, что захваты можно изготавливать из биоразлагаемых материалов, например, из прочных листьев растений, - говорит Яое Хонг, ведущий автор исследования. - Это может быть особенно полезно в тех случаях, когда захват требуется использовать только в течение ограниченного периода времени, например, при работе с пищевыми продуктами или биомедицинскими материалами. Например, мы продемонстрировали, что захваты можно использовать для работы с острыми медицинскими отходами, такими как иглы".

Говоря о применении, следует отметить, что в ходе испытаний исследователи интегрировали свои захваты с протезом руки и продемонстрировали, что он может переворачивать страницы книги и собирать виноград с лозы.

"Этот захват позволяет выполнять задачи, которые сложно решить с помощью существующих протезов, например, застегивать определенные виды молний, поднимать монету и т.д., - говорит соавтор исследования Хе (Хелен) Хуанг. - Новый захват не может заменить все функции существующих протезов рук, но он может быть использован как дополнения. И одно из преимуществ захватов киригами заключается в том, что не нужно заменять или дополнять существующие двигатели, используемые в роботизированных протезах. При использовании захватов можно просто использовать существующий двигатель".

https://www.youtube.com/watch?v=xfI5V6SuO60

Исследователи считают, что их новые захваты могут быть использованы для гораздо большего. Результаты исследования опубликованы в журнале Nature Communications.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/vdohnovivshis-iskusstvom-kirigami-uchenye-iz-nc-state-razrabotali-novye-robotizirovannye-zahvaty
NASA планирует запустить на Луну несколько автономных роверов

В 2024 году NASA запустит на Луну трех миниатюрных роботов в рамках проекта Cooperative Autonomous Distributed Robotic Exploration (CADRE). Цель проекта - посмотреть, как такие “исследователи” могут работать в команде без прямого управления из командного центра на Земле.

В своем стремлении постоянного присутствия человека на Луне, агентство может столкнуться с рядом препятствий. Одно из них заключается в том, что на спутнике будет хронически не хватать рабочей силы для выполнения исследовательских и других задач.

Одним из способов преодоления этой проблемы является использование роботов, однако наблюдение за ними со стороны человека на Луне сводит на нет все усилия, а задержка в 2,56 секунды делает дистанционное управление с Земли практически невозможным для выполнения реальной работы. Проекты, подобные CADRE, направлены на разработку альтернативы - автономных роверов и других роботов, способных работать самостоятельно или в составе самоорганизующейся команды.

Основная задача CADRE - посадка коммерческого посадочного аппарата без экипажа в районе Рейнер Гамма в Океане Бурь. Отсюда на поверхность на тросах будут спущены три ровера. После отстыковки они выйдут на солнечный свет, развернут солнечные батареи и зарядят аккумуляторы.

После полной зарядки они начнут 14-дневную миссию, которая должна завершиться к моменту захода Солнца в начале 14-дневной лунной ночи. В роверах нет отопительной аппаратуры, и сильный холод приведет к необратимому повреждению батарей и электроники.

Настоящей проблемой станет дневная жара, которая может достигать 114 °C. Роверы построены из готовых коммерческих деталей и компонентов, изготовленных на заказ, в том числе используется процессор, установленный на беспилотном роботизированном вертолёте Ingenuity, осуществивший в апреле 2021 года первый в истории полёт на Марсе. По словам представителей NASA, это делает роботов надежными, но самое интересное заключается в том, что они запрограммированы на одновременное отключение каждые 30 минут, чтобы охладиться с помощью радиаторов и подзарядить батареи.

Под наблюдением спускаемого аппарата, который выполняет функцию ретрансляции управления в NASA, роверам будут даваться общие команды, например, "исследовать этот регион". После этого на основе алгоритма они выберут одного из лидеров и оценят ситуацию. Затем они будут действовать как единая команда, выполняя свои задачи наиболее эффективным образом.

По словам представителей NASA, команда ровера будет выполнять ряд задач. Первое задание - придерживаться курса при движении в строю, используя сверхширокополосные радиостанции, помогающие держать курс и избегать препятствий. Во время второго испытания марсоходы будут самостоятельно выбирать траекторию движения, чтобы исследовать территорию площадью около 400 кв. м и создать 3D-карту с помощью стереокамер и георадара. Кроме того, команда продемонстрирует, как она может адаптироваться, если один ровер выйдет из строя.

"Наша задача - продемонстрировать, что сеть мобильных роботов может сотрудничать для выполнения задачи без вмешательства человека - автономно, - сказал Субха Командур, руководитель проекта CADRE в Лаборатории реактивного движения NASA. - Это может изменить то, как мы будем проводить исследования в будущем. Вопрос для будущих миссий будет звучать так: "Сколько роверов мы пошлем и что они будут делать вместе?"

https://robogeek.ru/kosmicheskie-roboty/nasa-planiruet-zapustit-na-lunu-neskolko-avtonomnyh-roverov
В NUAA разрабатывают робота способного приземляться, перемещаться и взлетать с вертикальных поверхностей

Летающие насекомые обладают удивительными способностями, могут приземляться на стены из различных материалов и взбираться по ним. При этом они плавно переключаются между двумя режимами локомоции. Лишь немногие биомиметические роботы способны выполнять сложные локомоционные задачи, сочетающие в себе две способности - лазание и полет.

Это связано, прежде всего, с тем, что существующие системы полета на машущих крыльях, способные зависать, не могут создать достаточную подъемную силу для поддержки робота на вертикальной поверхности. В то время как роботы способные фиксироваться на различных типах поверхностей не являются всесторонними.

Кроме того, необходимо изучить метод управления переходом "полет-перемещение", чтобы разработать режим движения, эффективно имитирующий посадку и взлет насекомых со стены.

Недавно сотрудники Nanjing University of Aeronautics & Astronautics (NUAA) разработали новую стратегию управления переходом от одной ориентации к другой. Бионический робот, обладающий способностью летать и лазать, может совершать плавные движения, включая посадку на вертикальную стену, подъем вдоль стены и взлет с нее.

Руководитель исследования Айхонг Цзи указывает, что робот с возможностью многопрофильного движения может расширить возможности и решить ряд проблем, например "ограниченность применения и сложность взаимодействия с внешними физическими величинами".

Разработанный робот успешно продемонстрировал способность приземляться, подниматься и взлетать с вертикальных стен из различных материалов, включая стекло, дерево, мрамор, кору дерева, эластичную ткань, известковую стену и окрашенный железный лист. Такая последовательность действий часто встречается в природе, например, когда муха, пролетев некоторое расстояние, приземляется на стену, поднимается на удобное для нее место и затем перелетает на следующее место. Это имеет важное значение для понимания процесса взлета и посадки насекомых.

"Насекомые могут как летать в воздухе, так и карабкаться по стене, чему способствует их ловкое управление машущими крыльями и позой тела. Они используют крылья, ноги и визуальную информацию для координации взлета и посадки, - говорит Цзи. - Подъемная сила, создаваемая машущими крыльями, направлена вверх, когда насекомое парит, а положение тела можно произвольно менять. Особенно при посадке на стену или взлете со стены необходимо выполнить ряд сложных модульных действий, включая торможение тела и поворот тела на большой угол. Мы с воодушевлением поняли, что бионический робот-амфибия, обладающий способностью поворачиваться на большой угол, должен завершать переход от полета к лазанию, имитируя управление позой тела насекомого".

Но в отличие от расположения лап насекомого относительно его тела, у робота летающая часть расположена над корпусом, отметил Цзи. В статье говорится, что "таким образом, сила летающей части робота может не только обеспечить аэродинамическое поглощение отрицательного давления для лазающей части, но и противостоять опрокидывающему моменту, возникающему под действием силы тяжести".

Команда провела количественную оценку характеристик робота. Робот может выполнять непрерывные и полные переходы воздух-стена-воздух за 6,1 с. Это позволяет ему пересекать границу воздух-стена за 0,4 с (приземление), а границу стена-воздух - за 0,7 с (взлет). Скорость подъема по вертикальной стене составляет 6 см/с.

https://www.youtube.com/watch?v=5st-wNxukTg

Исследование было опубликовано в журнале Research.

https://robogeek.ru/letayuschie-roboty/v-nuaa-razrabatyvayut-robota-sposobnogo-prizemlyatsya-peremeschatsya-i-vzletat-s-vertikalnyh-poverhnostei
Агент ИИ позволяющий обучить робота манипуляционным способностям 3-летнего ребенка

Люди учатся друг у друга с раннего возраста. Младенцы внимательно наблюдают за своими родителями, братьями и сестрами или воспитателями. Они наблюдают, подражают и воспроизводят увиденное, чтобы научиться новым навыкам и поведению.

То, как дети учатся и изучают окружающее пространство, вдохновило исследователей из Carnegie Mellon University (CMU) и компании Meta AI (компания Meta признана в РФ экстремистской организацией и запрещена) на разработку нового способа обучения роботов одновременному освоению нескольких навыков и их использованию для решения повседневных задач. Исследователи поставили перед собой задачу создать ИИ-агент с манипуляционными способностями, эквивалентными трехлетнему ребенку.

"RoboAgent - важнейшая веха на пути к созданию роботов-агентов общего назначения, которые будут эффективно обучаться, эффективно действовать в новых ситуациях и способны расширять свое поведение с течением времени, - сказал Викаш Кумар, адъюнкт-преподаватель School of Computer Science’s Robotics Institute. - Современные роботы являются узкоспециализированными и обучаются выполнению отдельных задач в изоляции. Мы поставили перед собой задачу создать единого агента ИИ, способного проявлять широкий спектр навыков. RoboAgent учится, как человеческий ребенок, - используя сочетание большого количества пассивных наблюдений и ограниченного количества активных действий".

RoboAgent может выполнять 12 манипуляций в различных сценах. Это исследование указывает на возможность создания роботизированной обучающей платформы, адаптируемой к изменяющимся условиям окружающей среды. В отличие от предыдущих исследований, команда демонстрировала свою работу в реальных условиях, а не на симуляторах, и при этом использовала гораздо меньше данных, чем в предыдущих проектах.

Созданный командой агент обучается на основе сочетания собственного опыта и пассивных наблюдений. Подобно тому, как родитель направляет своего ребенка, исследователи телеуправляли роботом, выполняя задания, чтобы он получал полезный опыт. Роботы учатся в первую очередь на собственном опыте, а не на том, что пассивно происходит вокруг них. Присущая им слепота к происходящему в окружающей среде существенно ограничивает как разнообразие опыта, получаемого роботами, так и их способность адаптироваться к новым ситуациям. Чтобы преодолеть эти ограничения, RoboAgent обучается на основе видеороликов в интернете - подобно тому, как дети приобретают знания и модели поведения, пассивно наблюдая за окружающей средой.

"RoboAgent использует информацию, содержащуюся в этих видеороликах, для получения предварительных знаний о том, как люди взаимодействуют с объектами и используют различные навыки для успешного выполнения задач, - говорит Мохит Шарма, аспирант кафедры робототехники. - Кроме того, наблюдение за схожими навыками в различных сценариях позволяет ему узнать, что необходимо, а что нет для выполнения задачи. Эти уроки он использует при решении неизвестных задач или в незнакомой среде".

"Агент, способный к такому обучению, приближает нас к роботу общего назначения, который может выполнять разнообразные задачи в различных условиях и постоянно развиваться по мере накопления опыта, - говорит Шубхам Тулсиани, доцент Robotics Institute. - RoboAgent может быстро обучить робота, используя ограниченное количество внутренних данных, и при этом опираться на многочисленные бесплатные данные из Интернета для решения различных задач. Это может сделать роботов более полезными в неструктурированных условиях, например, в домах, больницах и других общественных местах".

https://www.youtube.com/watch?v=_nArEh7fUzk

Обучаемые модели, база исходного кода, драйверы оборудования и весь набор данных, собранный в рамках исследования, находятся в открытом доступе. Более подробную информацию можно найти на сайте проекта.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/agent-ii-pozvolyayuschii-obuchit-robota-manipulyatsionnym-sposobnostyam-3-letnego-rebenka
Новая модель снижает предвзятость и повышает доверие к процессу принятия решений с помощью ИИ

Исследователи University of Waterloo разработали новую модель объяснимого искусственного интеллекта (Explainable Artificial Intelligence, XAI), позволяющую уменьшить предвзятость и повысить доверие и точность в процессе принятия решений и организации знаний на основе машинного обучения.

Медицина - одна из областей, где необъективные результаты машинного обучения чреваты серьезными последствиями. Сотрудники больниц и медицинские работники опираются на наборы данных, содержащие тысячи медицинских записей, и сложные компьютерные алгоритмы для принятия важнейших решений по уходу за пациентами. Машинное обучение используется для сортировки данных, что позволяет экономить время. Однако отдельные группы пациентов с редкой симптоматикой могут остаться незамеченными, а неправильно помеченные данные и аномалии могут повлиять на результаты диагностики. Такая необъективность и запутанность шаблонов приводит к ошибочным диагнозам и несправедливым результатам в здравоохранении для отдельных групп пациентов.

Благодаря новому исследованию, проведенному под руководством д-ра Эндрю Вонга, профессора Университета Ватерлоо, инновационная модель призвана устранить эти барьеры путем распутывания сложных закономерностей в данных, чтобы связать их с конкретными глубинными причинами, на которые не влияют аномалии и неправильно помеченные данные. Это может повысить доверие и надежность XAI.

"Это исследование представляет собой значительный вклад в область XAI, - сказал Вонг. - Анализируя огромное количество данных о связывании белков, полученных с помощью рентгеновской кристаллографии, моя команда выявила статистику физико-химических закономерностей взаимодействия аминокислот, которые были замаскированы и перемешаны на уровне данных из-за запутанности множества факторов. Мы впервые показали, что запутанная статистика может быть распутана и дать правильное представление о глубоких знаниях, упущенных на уровне данных, с помощью научных доказательств".

Это открытие привело Вонга и его команду к разработке новой модели XAI, получившей название Pattern Discovery and Disentanglement (PDD).

"С помощью PDD мы стремимся преодолеть разрыв между технологиями ИИ и человеческим пониманием, чтобы обеспечить надежное принятие решений и раскрыть глубокие знания из сложных источников данных", - сказал доктор Пэйюань Чжоу, ведущий исследователь в команде Вонга.

Профессор Энни Ли, соавтор и сотрудник University of Toronto, специализирующийся на обработке естественного языка, предвидит огромную ценность вклада PDD в принятие клинических решений.

В различных тематических исследованиях PDD демонстрирует способность предсказывать результаты лечения пациентов на основе их истории болезни. Система PDD также может обнаруживать новые и редкие закономерности в наборах данных. Это позволяет как исследователям, так и практикам обнаруживать неверные метки или аномалии в машинном обучении.

Полученный результат показывает, что медицинские работники могут ставить более надежные диагнозы, подкрепленные строгой статистикой и объяснимыми закономерностями, для более точных рекомендаций по лечению различных заболеваний на разных стадиях.

Исследование "Theory and rationale of interpretable all-in-one pattern discovery and disentanglement system" опубликовано в журнале npj Digital Medicine.

https://robogeek.ru/iskusstvennyi-intellekt/novaya-model-snizhaet-predvzyatost-i-povyshaet-doverie-k-protsessu-prinyatiya-reshenii-s-pomoschyu-ii
Снижение уровня одиночества пожилых людей с помощью робота-компаньона

Управление штата Нью-Йорк по делам пожилых людей (New York State Office for the Aging, NYSOFA) и компания Intuition Robotics объявили о продолжении сотрудничества, начатого в мае 2022, и о новых данных, свидетельствующих о положительном эффекте роботизированного компаньона ElliQ для пожилых людей.

За последний год NYSOFA предоставила ElliQ более чем 800 жителям Нью-Йорка для борьбы с одиночеством, повышения активности, улучшения общего состояния здоровья и самочувствия.

Согласно данным, полученным в ходе пилотной программы NYSOFA, ElliQ удалось снизить уровень одиночества на 95% среди пожилых людей, использующих эту платформу. Пользователи часто общались с роботом, причем некоторые из них взаимодействовали с ElliQ более 30 раз в день, 6 дней в неделю. Более 75% этих взаимодействий были связаны с улучшением социального, физического и психического самочувствия пользователей.

"Мы возлагали большие надежды на эффективность ElliQ, но результаты, которые мы видим, действительно превосходят наши ожидания, - сказал Грег Олсен, директор NYSOFA. - Данные говорят сами за себя, а истории, которые мы слышим от менеджеров и клиентов по всему штату, просто невероятны. Мы видим, какое влияние оказывает эта технология на жизнь членов нашего сообщества, и нам не терпится увидеть, как эта программа будет развиваться дальше".

ElliQ способен инициировать разговор, предлагать занятия и запоминать то, что ему говорят пользователи. Робот призван поощрять пользователей и работать с ними над постановкой и достижением целей, а также проявлять эмпатию для укрепления доверия и повышения вовлеченности.

"Мне было очень приятно работать с местными отделениями по делам пожилых людей и партнерами, чтобы определить пожилых людей, которым наиболее полезен эмпатический ИИ, - сказал Дор Скулер, генеральный директор и соучредитель компании Intuition Robotics. - ElliQ может оказать влияние на человека только после того, как его пригласят в дом, и менеджеры по работе с клиентами и сотрудники на местах сыграли важную роль в информировании пожилых людей об ElliQ, поддержке установки и содействии знакомству нашей команды с клиентами напрямую. Мы рады продолжить работу с NYSOFA и другими агентствами по вопросам старения, чтобы увеличить число пожилых людей, которым мы можем помочь".

https://www.youtube.com/watch?v=7543psPttGw

С начала реализации программы компания Intuition добавила в ElliQ новые функции. Например, ElliQ теперь может сопровождать пользователей в музейных экспозициях и автомобильных поездках, а также проводить упражнения на внимательность под руководством сертифицированного инструктора. Кроме того, робот теперь может записывать воспоминания в цифровой мемуар и делиться ими с семьей и друзьями.

https://robogeek.ru/bytovye-roboty/snizhenie-urovnya-odinochestva-pozhilyh-lyudei-s-pomoschyu-robota-kompanona
Универсальный деформируемый модуль на основе оригами для роботизированных манипуляторов

Модульные роботы - робототехнические системы, способные адаптировать конфигурацию своего тела для изменения стиля передвижения или перемещения по различным участкам местности, - могут оказаться весьма полезными при выполнении задач в различных условиях. За последние десять лет инженеры разработали целый ряд модульных роботов, основанных на различных конструкциях и механизмах.

Недавно китайская исследовательская группа из Westlake University и Zhejiang University представила новую конструкцию модульного робота, вдохновленную оригами, в частности паттерном Креслинга. В основе конструкции, представленной в статье в журнале Nature Communications, лежат недавно созданные универсальные деформируемые модули, которые можно переставлять, создавая различные формы и конфигурации.

"Уже предпринимались попытки использовать паттерн Креслинга для создания многорежимных роботизированных манипуляторов, - говорит Ханьцин Цзян, один из исследователей, проводивших работу. - Однако существующие методы основаны исключительно на самом паттерне Креслинга, поэтому режимы деформации ограничены связанными режимами скручивания и сжатия. Основной задачей является модификация классической схемы Креслинга и генерация новых режимов деформации".

В контексте оригами узор Креслинга представляет собой чередование горных (выступающих) и долинных (утопленных) складок, расположенных под углом к противоположным направлениям скручивания. Этот узор может быть использован для создания сложных форм, напоминающих наблюдаемые в природе узоры, например, крылья бражника или спиральные геометрические фигуры на шишках.

В рамках своего исследования Цзян и его коллеги попытались использовать эту специфическую схему оригами для создания модульного деформируемого устройства, которое можно было бы адаптировать для создания различных форм. Созданный ими модуль приводится в движение с помощью пневматики - системы, в которой газ или воздух под давлением используются для создания различных движений.

"Модуль состоит из двухуровневой схемы Креслинга с противоположными направлениями скручивания на каждом уровне, - пояснил Цзян. - Более того, на каждом уровне есть два боковых пакета, расположенных на противоположных сторонах. Таким образом, в зависимости от того, какое давление создается в боковых пакетах, при вакуумировании основной камеры мы можем добиться различных режимов деформации".

Новый модуль, представленный исследователями, может изменять свою форму в зависимости от приложенного к нему давления, создавая всевозможные формы, отвечающие требованиям конкретных сценариев применения. В общей сложности с помощью одного модуля оригами можно получить семь различных режимов движения роботов, включая три базовых движения и четыре рекомбинации этих базовых движений.

"Наш двухуровневый модуль - это универсальный деформационный модуль, который может достигать всех возможных режимов деформации в зависимости от конкретных схем давления, - сказал Цзян. - Модуль похож на наши руки, которые могут выполнять все режимы деформации (сжатие/растяжение, скручивание, сгибание) в зависимости от того, как нервы управляют мышцами. Схемы давления в модуле подобны нашим нервам, а универсальный модуль берет на себя роль нашей руки. Эта роботизированная рука на основе оригами будет работать как жесткая роботизированная рука, имеющая шесть степеней свободы".

https://www.youtube.com/watch?v=rxs5OTE7avU

Исследователи оценили свой деформируемый модуль, созданный на основе оригами, в серии симуляций и реальных экспериментов. Полученные результаты оказались весьма многообещающими, что говорит о его перспективности для создания модульных роботов, способных адаптироваться к окружающей среде и двигаться различными способами.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/universalnyi-deformiruemyi-modul-na-osnove-origami-dlya-robotizirovannyh-manipulyatorov
Исследователи NC State University провели исследование влияния автономных машин на траффик

Новое исследование показало, что "подключенные" автомобили, обменивающиеся данными друг с другом по беспроводной связи, значительно улучшают время проезда перекрестков, но автоматизированные автомобили могут замедлять проезд, если они не подключены друг к другу.

"Есть две важные причины, по которым люди заинтересованы в автоматизированных транспортных средствах, - это повышение безопасности пассажиров и сокращение времени в пути, - говорит Али Хаджбабаи, первый автор статьи о работе и доцент North Carolina State University. - Существует множество исследований, показывающих, что автоматизированные транспортные средства могут повысить безопасность. Но наши исследования, основанные на вычислительном моделировании, показывают, что если мы хотим также улучшить время движения, то одного увеличения количества автоматизированных автомобилей недостаточно; нам нужны автомобили, способные взаимодействовать друг с другом и с системами управления дорожным движением, которые регулируют поток на перекрестках".

Для проведения исследования ученые использовали вычислительную модель, имитирующую дорожную обстановку. Исследователи учитывали четыре типа транспортных средств: автомобили, управляемые человеком (HV); подключенные автомобили (CV), которые управляются человеком, но обмениваются информацией с другими подключенными автомобилями и с системой управления светофорами; автоматизированные автомобили (AV) и подключенные автоматизированные автомобили (CAV).

"В силу своей запрограммированности предполагается, что AV будут двигаться более осторожно по сравнению с людьми, - говорит Хаджбабайе. - Их безопасность частично объясняется тем, что они запрограммированы на консервативное вождение. Автомобили CV и CAV предназначены для получения информации о состоянии светофоров и корректировки скорости движения, чтобы избежать остановки на перекрестках. В результате ожидается, что движение CV и CAV будет более плавным и с меньшим количеством остановок по сравнению с HV и AV".

Исследователи провели 57 симуляций, чтобы оценить влияние множества переменных на время проезда через перекресток. Например, исследователи рассмотрели, как повлияют на движение различные комбинации автомобилей HV, AV, CV и CAV. Одним из очевидных выводов стало то, что чем выше процентное соотношение автомобилей CV и CAV, тем выше пропускная способность перекрестка.

"Однако мы обнаружили, что более высокий процент автомобилей, которые не подключены к сети, фактически замедляет проезд перекрестков, - говорит Хаджбабаи. - Это объясняется тем, что такие автомобили запрограммированы на консервативное вождение с целью снижения риска столкновений. Полученные нами результаты подчеркивают важность внедрения возможностей подключения как в транспортные средства, так и в системы управления дорожным движением".

В пресс-релизе университета указывается, что исследование проводилось с помощью вычислительной модели, что является ограничивающим фактором, но собрать смешанный парк автомобилей из HV, AV, CV и CAV в единую систему управления дорожным движением сложно и дорого. К тому же испытания с участием людей могут вызвать сомнения в безопасности, что делает эти модельные исследования особенно важными.

Работа "Effects of Connectivity and Automation on Saturation Headway and Capacity at Signalized Intersections" опубликована в журнале Transportation Research Record.

https://robogeek.ru/avtonomnyi-transport/issledovateli-nc-state-university-proveli-issledovanie-vliyaniya-avtonomnyh-mashin-na-traffik
ИИ воссоздает трек Pink Floyd по записям активности головного мозга

Исследователи из UC Berkeley регистрировали электрическую активность участков мозга, когда пациенты слушали песню "Another Brick in the Wall, Part 1" группы Pink Floyd. Используя ИИ, они смогли восстановить песню по записям внутричерепной электроэнцефалографии мозга.

Роберт Найт из Калифорнийского университета в Беркли (UC Berkeley) и его коллеги изучали записи с электродов, которые были хирургически имплантированы на поверхность мозга 29 человек для лечения эпилепсии.

Запись мозговой активности участников велась во время прослушивания композиции "Another Brick in the Wall, Part 1" с альбома "The Wall" (1979). Сопоставив сигналы мозга с песней, исследователи выявили записи с подмножества электродов, которые были тесно связаны с тоном, мелодией, гармонией и ритмом песни.

Затем они обучили ИИ изучать связи между активностью мозга и этими музыкальными компонентами, исключив из обучающих данных 15-секундный фрагмент песни. Обученный ИИ на основе сигналов мозга участников создал предсказание неизвестного фрагмента песни. Спектрограмма трека, сгенерированного ИИ, на 43% совпала с оригиналом.

Исследователи определили область мозга, называемую верхней височной извилиной, которая обрабатывала ритм гитары в песне. Они также обнаружили, что сигналы из правого полушария мозга были более важны для обработки музыки, чем сигналы из левого полушария, что подтверждает результаты предыдущих исследований.

"Для людей с боковым амиотрофическим склерозом или афазией, которым трудно говорить, мы хотели бы иметь устройство, которое действительно звучало бы так, как будто вы общаетесь с кем-то по-человечески, - говорит Найт. - Понимание того, как мозг представляет музыкальные элементы речи, включая тон и эмоции, может сделать такие устройства менее роботизированными".

Инвазивный характер имплантации мозга делает маловероятным использование этой процедуры для неклинических целей, говорит Найт. Однако другие исследователи недавно использовали ИИ для создания песенных клипов на основе сигналов мозга, записанных с помощью МРТ.

Если ИИ сможет использовать сигналы мозга для воссоздания музыки, которую люди представляют себе, а не просто слушают, то такой подход можно будет использовать даже для сочинения музыки, говорит Людовик Белье из Калифорнийского университета в Беркли, член исследовательской группы.

По мере развития технологии воссоздание песен с помощью мозговой активности на основе ИИ может вызвать вопросы о нарушении авторских прав, в зависимости от того, насколько воссоздание похоже на оригинальную музыку, говорит Дженнифер Мейзел из юридической фирмы Rothwell Figg в Вашингтоне.

"Вопрос авторства действительно интересен, - говорит она. - Может ли человек, записывающий мозговую активность, быть автором? Может ли сама программа искусственного интеллекта быть автором? Самое интересное, что автором может быть не тот человек, который слушает песню".

https://www.youtube.com/watch?v=WKEkJAKlRM0&list=PLi80c3aYgKxCVdkxp8HmY1ZEl_bKVoSAj

Работа "Music can be reconstructed from human auditory cortex activity using nonlinear decoding models" была опубликована в PLOS Biology.

https://robogeek.ru/iskusstvennyi-intellekt/ii-vossozdaet-trek-pink-floyd-po-zapisyam-aktivnosti-golovnogo-mozga
Мягкие роботизированные блоки могут трансформироваться для выполнения разнообразных задач

Исследователи из Dartmouth College разрабатывают мягкие роботизированные блоки, которые могут работать в унисон, создавая конструкции, способные катиться, ходить, захватывать предметы и транспортировать грузы.

В зависимости от поставленной задачи блоки могут принимать форму, наиболее подходящую для ее выполнения. В пресс-релизе колледжа указывается, что такие роботы могут быть полезны при оперативном реагировании на ЧС, крупные версии которых смогут собираться в защитные палатки для спасателей.

"Существуют муравьи, которые совместно формируют мосты через щели или собираются в плоты в трудную минуту. Мы поставили перед собой задачу разработать роботизированные блоки, которые, подобно муравьям, могли бы объединяться различными способами для выполнения разных функций", - говорит Люян Чжао (Luyang Zhao), кандидат наук по информатике в Guarini School of Graduate and Advanced Studie, которая заинтересовалась робототехникой еще в студенческие годы.

StarBlocks, настольный прототип, созданный Чжао и ее коллегами из Dartmouth Reality and Robotics Lab, Rutgers University и Yale University, демонстрирует эту идею и ее потенциал в качестве динамического инструментария.

Каждый блок, или модуль, имеет звездообразный каркас. Изготовленный методом 3D-печати из материала, сочетающего в себе свойства пластика и резины, остов модуля легкий и в то же время растяжимый.

Механические мышцы (пружины из сплавов, деформирующихся при электрическом нагреве) формируют скелет, позволяя блоку имитировать движение, изгибаться и менять размер. Модули крепятся друг к другу с помощью магнитов.

В статье "StarBlocks: Soft Actuated Self-Connecting Blocks for Building Deformable Lattice Structures", опубликованной в журнале IEEE Robotics and Automation Letters, исследователи демонстрируют различные конструкции, которые могут создавать модули: несущую архитектуру в виде куполообразной палатки; катящееся колесо; четвероногое животное, вдохновленное собакой; роботизированную руку, которая может захватывать и перемещать небольшие объекты; линейную цепь, которая использует волнообразное движение для перемещения шарика по длине.

Исследователи также продемонстрировали самосборку блоков на поверхности. Получив информацию о положении, отслеживаемую камерой, система может активировать отдельные блоки, заставляя их двигаться навстречу друг другу и соединяться.

"Это первая в своем роде модульная система, которую можно реконфигурировать, а после реконфигурации использовать ее гибкость для решения поставленных задач, - говорит соавтор работы Девин Балком, профессор информатики. - Эти задачи включают в себя как передвижение, так и манипулирование, что также очень необычно".

По словам Балкома, роботы сочетают в себе преимущества различных типов систем. Модульность делает системы универсальными и легко ремонтируемыми, а модули сочетают в себе гибкость мягких роботов и конструктивные возможности жестких блоков.

https://www.youtube.com/watch?v=xno0FBs3ZdQ

Исследователи уже работают над усовершенствованием роботов, не связанных проводами, что позволит им более свободно двигаться и формировать фигуры. Чжао надеется, что в скором времени эти роботы смогут покинуть лабораторию и выйдут на улицу.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/myagkie-robotizirovannye-bloki-mogut-transformirovatsya-dlya-vypolneniya-raznoobraznyh-zadach
Робот для уборки офисных туалетных комнат

Нью-йоркская компания Somatic разработала робота для повышения эффективности работы клининговых бригад. На текущий момент компания предлагает робота по модели RaaS (робот как услуга) для обслуживания офисных зданий.

Somatic предлагает услугу стоимостью $1000 в месяц без предварительной оплаты, в рамках которой автономный робот постоянно находится в здании офиса и убирает туалетные комнаты в течение 40 часов в неделю. Это примерно $5,68 в час, что вполне соответствует минимальной заработной плате в США, составляющей $7,25 в час.

Робот может в автономном режиме открывать и закрывать двери, пользоваться лифтом, использовать дезинфицирующее средства и воду, открывать крышки унитазов и после проведения работ вытирать все насухо, после чего он отправится дальше.

По словам представителя Somatic все эти автономные возможности требуют приложения некоторых усилий. Перед прибытием робота на место компания посылает своего сотрудника с комплектом датчиков размером с обувную коробку, которому необходимо обойти здание, заходя и выходя из всех лифтов и туалетных комнат, чтобы составить карту здания с видео и трехмерными данными о глубине.

Затем оператор Somatic в VR-гарнитуре управляет роботом и проводит уборку туалетов. Т.о. оператор проводит обучение робота, при этом не обязательно убирать все туалеты в офисном здании, поскольку они, как правило, довольно однообразны. А затем, когда роботу будет предоставлено место для подзарядки, доступ к воде и электричеству, он будет готов приступить к автономной работе.

Сообщается, что робот не предназначен для того, чтобы полностью заменить уборщиков, а только для выполнения рутинной санитарной работы. Если он обнаружит что-то "неожиданное" он отправит фотографии по электронной почте вашему уборщику и перейдет к следующему участку.

https://www.youtube.com/watch?v=xY5zqKRy8A8

Сервис уже запущен в коммерческую эксплуатацию и, судя по всему, доступен уже сейчас, но компания не сообщает, сколько роботов она создала и сколько их уже работает.

https://robogeek.ru/servisnye-roboty/robot-dlya-uborki-ofisnyh-tualetnyh-komnat
Исследователи NUS разработали новый датчик давления для хирургических роботов

Исследователи из National University of Singapore (NUS) разработали новый датчик давления, получивший название eAir. Эта технология может быть применена в малоинвазивных операциях и имплантируемых датчиках благодаря непосредственному решению проблем, связанных с существующими датчиками давления.

Датчик eAir обещает повысить точность и надежность в медицинских приложениях. В перспективе он может изменить лапароскопические операции, обеспечив тактильную обратную связь с хирургом, что позволит более точно манипулировать хирургическим роботом. Результаты исследования, проведенного под руководством доцента Бенджамина Ти из NUS, были опубликованы в журнале Nature Materials.

Обычные датчики давления часто не отличаются точностью. Они с трудом обеспечивают стабильность показаний, часто дают разные результаты при многократном воздействии одного и того же давления и могут не замечать тонких изменений давления, что может привести к значительным ошибкам. Кроме того, они обычно изготавливаются из жестких и негибких материалов.

Для решения этих проблем команда NUS вдохновилась явлением, известным как "эффект листа лотоса" - уникальным природным феноменом, когда капли воды без усилий скатываются с поверхности листа, что возможно благодаря его мельчайшим водоотталкивающим структурам. Имитируя этот эффект, специалисты разработали датчик давления с улучшенной чувствительностью.

Бенджамин Ти поясняет, что eAir может обнаруживать мельчайшие изменения давления, что отражает чувствительность листа лотоса к чрезвычайно легкому прикосновению капли воды. В датчике используется инновационная конструкция "воздушной пружины", в которой находится слой воздуха, образующий при контакте с жидкостью в датчике границу раздела воздух-жидкость.

При увеличении внешнего давления этот слой воздуха сжимается. Обработка поверхности приводит к перемещению границы раздела внутри датчика без трения, что вызывает изменение электрических сигналов, точно отражающих величину оказываемого давления. Таким образом, природные водоотталкивающие свойства листа лотоса были переосмыслены в простой и элегантный прибор для измерения давления.

Устройства eAir можно сделать относительно небольшими - всего несколько миллиметров, что сопоставимо с размерами существующих датчиков давления.

Реальные возможности применения этой новой технологии весьма обширны. Например, при лапароскопических операциях, где необходима точная тактильная обратная связь, использование датчиков eAir может привести к повышению безопасности хирургических вмешательств, что в конечном итоге улучшит восстановление и прогноз состояния пациента.

"Когда хирурги выполняют малоинвазивные операции, например лапароскопические или роботизированные, мы можем управлять захватами, но не можем почувствовать, за что хватаются концевые эффекторы. Поэтому хирургам приходится полагаться на зрение и многолетний опыт, чтобы принять решение о критической информации, которую в противном случае могло бы предоставить наше осязание", - пояснил д-р Кан Хунг Ленг, консультант отделения общей хирургии больницы Национального университета.

Кроме того, eAir дает возможность улучшить процесс мониторинга внутричерепного давления. Предлагая минимально инвазивное решение, технология может изменить опыт пациентов в лечении заболеваний, связанных с головным мозгом, начиная от сильных головных болей и заканчивая потенциальными повреждениями мозга.

Команда NUS закладывает основу для сотрудничества с ключевыми игроками в области медицины. Одновременно они подали патент на технологию датчика eAir в Сингапуре и намерены использовать ее в реальных приложениях.

https://robogeek.ru/roboty-v-meditsine/issledovateli-nus-razrabotali-novyi-datchik-davleniya-dlya-hirurgicheskih-robotov
Исследователи KAIST разрабатывают гуманоида для управления самолетом

Группа исследователей разработала первого в мире человекоподобного робота-пилота. Помимо того, что робот, получивший название PIBOT, может размещаться в кресле пилота и использовать руки для взаимодействия с приборной доской, он использует технологию ИИ для запоминания полетных карт и аварийных протоколов.

За прошедшие годы было разработано несколько роботов-пилотов. В 2016 году разработанная DARPA система Labor In-Cockpit Automation System (ALIAS) сопровождала человека при выполнении базовых маневров в полете. В следующем году ALIAS совершил посадку самолета Boeing 737 в симуляторе, а вскоре после этого компания RE2 Robotics объявила о том, что ВВС США поручили ей разработку системы Common Aircraft Retrofit for Novel Autonomous Control (CARNAC). Затем, в 2019 году, ROBOpilot совершил свой первый двухчасовой полет.

Разница между этими роботами-пилотами и роботом, разработанным исследователями Korean Advanced Institute of Science and Technology (KAIST), заключается в том, что PIBOT использует ИИ и является гуманоидом, что делает его первым в своем роде.

"Гуманоидные роботы не требуют модификации существующих самолетов и могут быть сразу же применены для автоматизации полетов, - говорит Дэвид Хенчул Шим, возглавляющий проект PIBOT. - Поэтому они весьма применимы и практичны".

По словам исследователей, помимо того, что робот может физически сидеть в кресле пилота, использование технологии ChatGPT дает PIBOT явное преимущество. Это означает, что робот может запоминать аэронавигационные карты Jeppesen со всего мира, что, по их мнению, невозможно для человека, а также запомнить сборник оперативной информации (Quick Reference Handbook, QRH), содержащее все процедуры, применимые к нештатным и аварийным ситуациям. По их утверждению, эти способности позволяют PIBOT летать без ошибок и реагировать на различные ситуации быстрее, чем люди.

PIBOT может точно управлять переключателями в кабине самолета даже при сильной турбулентности. Благодаря встроенной камере робот может анализировать как состояние кабины, так и внешнюю обстановку. Уточняется, что возможности робота пока проверялись только на авиасимуляторе, но исследователи планируют в ближайшее время испытать робота на реальном легком самолете. При этом они видят применение PIBOT не только в пилотировании самолетов.

"Мы ожидаем, что они найдут применение и в других транспортных средствах, таких как автомобили и военные грузовики, поскольку могут управлять широким спектром оборудования, - сказал Шим. - Они... будут особенно полезны в ситуациях, когда военные ресурсы сильно истощены".

https://www.youtube.com/watch?v=_b5t3bgCpWA

Проект PIBOT стартовал в 2022 году, исследователи надеются завершить его к 2026 году. После чего они планируют коммерциализировать робота для использования как в военной, так и в гражданской сфере.

https://robogeek.ru/chelovekopodobnye-roboty/issledovateli-kaist-razrabatyvayut-gumanoida-dlya-upravleniya-samoletom
В EPFL разработали робота-собаку которая может бегать без моторов

В своем магистерском проекте в Ecole Polytechnique Federale de Lausanne (EPFL) Микаэль Ачкар собрал данные о движениях собак, чтобы разработать роботизированную версию этого животного, которая, будучи приведена в движение, может перемещаться без посторонней помощи и моторов.

Инженеры Лаборатории вычислительного проектирования и изготовления роботов (CREATE) EPFL, возглавляемой профессором Джози Хьюзом, разрабатывают новые способы создания роботов. Например, Хьюз и два других исследователя использовали ChatGPT для разработки роботизированного захвата для сбора урожая томатов. А Микаэль Ачкар использовал данные захвата движений живых собак для создания робота. Точнее, Ачкар изучил биологические механизмы собак, чтобы создать более "умную" конструкцию робота и построить прототип, который может работать сам по себе, без активации своих двигателей.

"Я хотел создать робота с характеристиками животного, учитывая, что животные, как и люди, двигаются огромным количеством разнообразных способов, - говорит Ачкар. - Но большинство этих движений выполняются всего несколькими суставами". Поэтому при создании робота он черпал вдохновение в процессах управления двигательной активностью животных.

"Мы нашли огромный набор данных о движении собак, причем они были доступны даже в открытых источниках" - говорит он. Первым шагом было извлечение данных о синергетических движениях собак, а затем структурирование этих данных, чтобы их можно было "обобщить" с помощью метода главных компонент. По сути, это означает группировку данных в несколько векторов, описывающих основные оси движения собаки, и использование этой информации для создания точных спецификаций робота.

Разработанная роботизированная собака обладает двусторонней симметрией. Каждая из четырех ног робота имеет три сустава, и каждый сустав согласован с остальными. Именно эта особенность позволяет роботу Ачкара бегать так же, как настоящая собака, и со всей ловкостью. Для создания прототипа Ачкар использовал "металлические стержни в качестве костей, напечатанные на 3D-принтере шкивы в качестве суставов, тонкие кабели в качестве сухожилий и несколько винтов, чтобы скрепить все это вместе".

Для испытания прототипа инженеры купили беговую дорожку. Они обнаружили, что, как только робот начал движение, он может двигаться автономно, без необходимости активировать управляющие двигатели.

"Сначала мы подумали, что это случайность, - говорит Ачкар. - Поэтому мы немного изменили конструкцию и снова протестировали робота - и он больше не смог бежать". Исследовательская группа добавила противовес, похожий на маятник, чтобы робот мог продолжать движение после запуска.

Управляющие двигатели робота, тем не менее, позволяют ему выполнять более широкий диапазон движений. Например, он может прыгать и преодолевать препятствия без помощи противовеса.

"Мы хотели бы продвинуть нашу конструкцию дальше с помощью двигателей, но пока прототип не очень надежен", - говорит Ачкар. Это не помешало ему испытать механическую собаку на прочность, например, поместить палку между ее ног, чтобы посмотреть, как она отреагирует. Робот автоматически возобновил движение. На беговой дорожке он развивает скорость до 6 км/ч.

https://www.youtube.com/watch?v=ztOOyl27BB0

"Наша цель - не соревноваться со сверхвысокотехнологичными роботами-собаками, а изучать конструкции роботов, вдохновленных биологическими факторами, - говорит Ачкар. - Это подразумевает оттачивание фундаментальной конструкции робота и модификацию его пассивных свойств таким образом, чтобы требовались только простые системы управления - и все это при максимальном расширении возможностей робота. То, что мы сделали здесь, - создание суставов для совместной работы - уже доказало свою полезность при создании роботизированных рук и других частей тела".

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/v-epfl-razrabotali-robota-sobaku-kotoraya-mozhet-begat-bez-motorov
Apptronik представила гуманоидного робота Apollo

Вчера компания Apptronik представила робота Apollo и утверждает, что это "самый способный в мире гуманоидный робот". Американская компания заявила, что робот предназначен для дружеского взаимодействия, массового производства и безопасности.

"Поскольку проблемы с трудовыми ресурсами и тенденции в сфере занятости продолжают оказывать влияние на нашу экономику, нам необходимо в корне изменить отношение к работе, особенно на складах и в цепочке поставок", - заявил Джефф Карденас, соучредитель и генеральный директор компании Apptronik, в своем релизе.

В 2016 году компания Apptronik вышла из состава Human Centered Robotics Lab в University of Texas. Цель компании - "представить следующее поколение роботов, которые изменят образ жизни и работы людей, решая при этом самые сложные мировые задачи".

В Apptronik отмечают, что Apollo создан на основе исследований 10 предыдущих роботов, включая работу над роботом Valkyrie для NASA.

При росте 172 см м Apollo весит 72,5 кг и может поднимать груз весом 25 кг. Компания заявляет, что робот имеет архитектуру, аналогичную коллаборативным роботам и может обеспечить безопасную работу рядом с людьми. Apollo также включает в себя поведение, основанное на восприятии, чтобы замедлиться или остановиться, если кто-то приближается. В Apptronik также отметили, что производительность Apollo по стоимости и энергоэффективность являются результатом десятилетней итерации, включающей 35 различных моделей электрических исполнительных систем.

"Наши уникальные приводы используют на треть меньше компонентов, чем традиционные приводы, и развивают на 50% большую скорость, - сказал Карденас. - Приводные механизмы стали более доступными, а используемые нами датчики - более дешевыми".

В роботе используются сменные батареи, каждая из которых рассчитана на четыре часа работы, что позволяет ему работать в течение всей смены, не требуя простоя для подзарядки. Компания заявила, что для обеспечения масштабного производства ей удалось оптимизировать устойчивость цепочки поставок за счет отказа от компонентов, поставляемых из одних рук, и размещения производственных мощностей в коридоре Техас - Мексика.

"Мексика обладает достаточным количеством талантов, а стоимость рабочей силы на треть ниже, чем в Китае, - сказал Карденас. - Дорога из Монтерея в Техас занимает 2,5 часа, в то время как из Китая в США по морю можно добраться за 18 дней".

Несмотря на то, что Apollo предназначен для решения широкого круга задач, компания Apptronik не ставит перед собой задачу обеспечить точность до 0,2 мм и не ждет, пока его масштабирование дойдет до миллионов единиц, прежде чем он станет доступным по цене. "Вначале мы ориентируемся на наиболее жизнеспособные приложения в ближайшей перспективе - грубые манипуляции для работы, - пояснил он. - К 2025 году в США будет не хватать 675 тыс. рабочих мест в сфере логистики, и многие из них - это просто сбор и перемещение грузов".

По словам представителей Apptronik, в перспективе Apollo будет использоваться в строительстве, нефтегазовой отрасли, производстве электроники, розничной торговле, доставке товаров на дом, уходе за пожилыми людьми и многих других отраслях. Компания продолжает оказывать поддержку NASA в снижении воздействия на человека в опасных условиях и готовится к расширению присутствия человечества в космосе с помощью телеуправляемых и автономных систем.

https://www.youtube.com/watch?v=N5VzOSKcZmM

Apptronik строит клиентский центр для демонстрации реальных примеров использования и работает над бета-версией Apollo, которая будет запущена в эксплуатацию в следующем году. Робот является платформой для дальнейшего развития. По заявлению компании их робот своего рода iPhone в мире роботов, позволяющий партнерам расширить возможности решений, разработанных Apptronik.

https://robogeek.ru/chelovekopodobnye-roboty/apptronik-predstavila-gumanoidnogo-robota-apollo
Британские исследователи представили робота демонстрирующего тактильную чувствительность, близкую к человеческому уровню

Новая система Bi-Touch, разработанная учеными University of Bristol на базе Bristol Robotics Laboratory, позволяет роботам выполнять ручные задачи, получая информацию о том, что нужно делать, от цифрового помощника.

Результаты исследования, опубликованные в журнале IEEE Robotics and Automation Letters, показывают, как агент ИИ интерпретирует окружающую среду с помощью тактильной и проприоцептивной обратной связи, а затем управляет поведением роботов, обеспечивая точное восприятие, мягкое взаимодействие и эффективное манипулирование объектами для выполнения роботизированных задач.

Эта разработка может полезна, например, для сбора фруктов, бытового обслуживания, а в перспективе - воссоздать осязание в искусственных конечностях.

"С помощью нашей системы Bi-Touch мы можем легко обучить агентов ИИ в виртуальном мире за пару часов выполнять бимануальные задачи, ориентированные на осязание. И что еще более важно, мы можем напрямую применять этих агентов из виртуального мира в реальном без дополнительного обучения - поясняет ведущий автор работы Ицзюнь Линь. - Тактильный бимануальный агент может решать задачи даже при неожиданных возмущениях и мягко манипулировать хрупкими объектами".

Бимануальное манипулирование с тактильной обратной связью станет ключом к развитию манипуляционных возможностей роботов человеческого уровня. Однако эта тема менее изучена, чем однорукие роботы, отчасти из-за доступности подходящего оборудования и сложности разработки эффективных контроллеров для задач с относительно большим пространством состояний и действий. Группа исследователей смогла разработать тактильную двурукую роботизированную систему, используя последние достижения в области ИИ и тактильных датчиков.

Исследователи создали виртуальный мир (симуляцию) с двумя роботами, оснащенными тактильными датчиками. Затем они разработали функции вознаграждения и механизм обновления целей, которые могли бы стимулировать агентов к обучению выполнению бимануальных задач, и создали реальную тактильную двурукую роботизированную систему, к которой можно было бы непосредственно применить этот агент.

Робот обучается бимануальным навыкам с помощью Deep Reinforcement Learning (Deep-RL) - одной из самых передовых технологий в области обучения роботов. Она предназначена для обучения роботов действиям путем проб и ошибок, подобно дрессировке собаки с помощью поощрений и наказаний.

Робот учится принимать решения, пробуя различные варианты поведения для выполнения поставленных задач, например, поднимать предметы, не роняя и не разбивая их. В случае успеха он получает вознаграждение, а в случае неудачи учится тому, чего делать не следует. Со временем он находит оптимальные способы захвата предметов, используя эти поощрения и наказания. ИИ-агент полагается только на проприоцептивную обратную связь - способность тела ощущать движение, действие и местоположение, а также на тактильную обратную связь. Им удалось успешно заставить двурукого робота безопасно поднимать такие хрупкие предметы, как картофельные чипсы Pringle.

"Наша система Bi-Touch демонстрирует перспективный подход с доступным программным и аппаратным обеспечением для обучения бимануальному поведению с помощью осязания в симуляции, который может быть непосредственно применен в реальном мире, - говорит соавтор работы профессор Натан Лепора. - Разработанная нами тактильная симуляция двурукого робота позволяет проводить дальнейшие исследования более разнообразных задач, поскольку код будет открытым, что идеально подходит для разработки других последующих задач".

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/britanskie-issledovateli-predstavili-robota-demonstriruyuschego-taktilnuyu-chuvstvitelnost-blizkuyu-k-chelovecheskomu-urovnyu
ИИ помогает роботам манипулировать объектами, используя не только захваты

Когда человеку необходимо поднять по лестнице большую и тяжелую коробку, он может поднять эту коробку обеими руками, затем упереть ее в предплечья и прижать к груди, используя все свое тело для манипулирования.

Для робота каждое место, где коробка может соприкоснуться с ним представляет собой событие контакта. При миллиардах вариаций быстрое планирование манипулирования становится неразрешимой задачей.

Исследователи из MIT нашли способ упростить этот процесс, известный как планирование манипуляций с большим количеством контактов. Они используют метод ИИ, называемый сглаживанием, который сводит множество контактных событий к меньшему числу решений, что позволяет даже простому алгоритму быстро определить эффективный план манипулирования для робота.

Многие решения, которые может принять робот, определяя, как манипулировать объектом, не являются важными с точки зрения общей схемы вещей. Например, каждая бесконечно малая поправка пальца, независимо от того, приведет ли она к контакту с объектом, не имеет большого значения. Сглаживание усредняет многие из этих неважных, промежуточных решений, оставляя несколько важных.

Обучение с подкреплением выполняет сглаживание неявно, пробуя множество точек контакта и затем вычисляя средневзвешенное значение результатов. Опираясь на этот опыт, исследователи Массачусетского технологического института разработали простую модель, которая выполняет аналогичное сглаживание, позволяя сосредоточиться на основных взаимодействиях робота с объектом и прогнозировать долгосрочное поведение. Они показали, что такой подход может быть столь же эффективным, как и обучение с подкреплением, при генерации сложных планов.

Даже если сглаживание значительно упрощает решения, поиск оставшихся решений все равно может оказаться сложной задачей. Поэтому исследователи объединили свою модель с алгоритмом, который может быстро и эффективно перебирать все возможные решения, которые может принять робот. При таком сочетании время вычислений на стандартном ноутбуке сократилось примерно до минуты.

Сначала они протестировали свой подход на симуляторах, где роботизированным рукам ставились задачи: переместить ручку, открыть дверь или поднять тарелку. В каждом случае подход, основанный на модели, достигал той же производительности, что и обучение с подкреплением, но за меньшее время. Аналогичные результаты были получены и при тестировании модели на реальных роботах-руках.

Пока этот метод находится на ранней стадии разработки, но в перспективе он может позволить заводам использовать небольших мобильных роботов, которые могут манипулировать объектами всей рукой или телом, а не большими роботизированными захватами. Это может способствовать снижению энергопотребления и уменьшению затрат. Кроме того, данная технология может быть полезна для роботов, отправляемых на другие планеты, поскольку они могут быстро адаптироваться к окружающей среде, используя только бортовой компьютер.

"Если мы сможем использовать структуру таких роботизированных систем с помощью моделей, то это позволит ускорить всю процедуру принятия решений и разработки планов, обеспечивающих контакт, - говорит Терри Сух, аспирант кафедры электротехники и информатики (EECS) и один из ведущих авторов статьи, посвященной этой методике.

В пресс-релизе MIT уточняется, что разработанная модель опирается на более простую аппроксимацию реального мира, поэтому она не может обрабатывать динамичные движения, например, падение объектов. Хотя этот подход эффективен для медленных манипуляционных задач, он не может создать план, который позволил бы роботу, например, выбросить консервную банку в мусорный бак. В будущем исследователи планируют усовершенствовать свою методику, чтобы она могла решать такие высокодинамичные задачи.

https://www.youtube.com/watch?v=D8VIzBRy_m4

Результаты исследования опубликованы в журнале IEEE Transactions on Robotics.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/ii-pomogaet-robotam-manipulirovat-obektami-ispolzuya-ne-tolko-zahvaty
В CMU разрабатывают роботизированную систему которая может помочь человеку одеваться

По данным National Center for Health Statistics, 92% пациентов домов престарелых и тем кому нужна помощь на дому нуждаются в помощи при одевании. Исследователи из Carnegie Mellon University (CMU) работают над созданием робота, который сможет это делать.

"Примечательно, что существующие разработки в основном предполагают одевание с ограниченным диапазоном поз рук и с использованием одной фиксированной одежды, например, больничного халата, - говорит аспирант CMU Юфей Ванг, работающий над роботизированной системой одевания. - Разработка общей системы, позволяющей работать с разнообразной повседневной одеждой и различными двигательными функциями, является нашей основной задачей. Мы также хотим распространить эту систему на людей с различными ограничениями движения рук".

Роботизированная система одевания использует возможности ИИ для адаптации к различным формам человеческого тела, положениям рук и выбору одежды. В своей работе группа исследователей использовала метод обучения с подкреплением для создания общей системы одевания. Робот получал положительное вознаграждение каждый раз, когда правильно размещал одежду дальше по руке человека. Благодаря этому методу они увеличили процент успешного выполнения системой выученной стратегии одевания.

Для обучения робота манипуляциям с одеждой и одеванию людей исследователи использовали симуляцию. При переносе стратегии, выработанной в симуляции, в реальный мир команде пришлось тщательно учитывать свойства материала из которого изготовлена одежды.

"На этапе моделирования мы использовали намеренно рандомизированные разнообразные свойства одежды, чтобы направить выработанную роботом стратегию одевания на широкий спектр свойств материала, - говорит Чжаньи Сунь, студент магистратуры CMU, который также работал над проектом. - Мы надеемся, что случайное изменение свойств одежды при моделировании будет отражать свойства одежды в реальном мире, поэтому стратегия одевания, выработанная в условиях моделирования, может быть легко перенесена в реальный мир".

Команда оценила роботизированную систему одевания в исследовании на людях, в котором было проведено 510 одеваний 17 участников с различными формами тела, положением рук и пятью видами одежды. Для большинства участников система смогла полностью натянуть рукав каждого предмета одежды на руку. При усреднении по всем тестовым случаям система была успешна в 86% случаев.

При разработке системы исследователям пришлось учитывать несколько проблем, т.к. одежда деформируема. Это затрудняет ее восприятие роботом и прогнозирование того, куда и как она будет двигаться.

"Одежда отличается от жестких объектов, которые позволяют оценить состояние, поэтому нам приходится использовать высокоразмерное представление для деформируемых объектов, чтобы робот мог воспринимать текущее состояние одежды и то, как она взаимодействует с рукой человека, - сказал Ванг. - Используемое нами представление называется сегментированным облаком точек. Оно представляет видимые части одежды в виде набора точек".

При этом решающее значение имело безопасное взаимодействие человека и робота. Важно, чтобы робот не прилагал чрезмерных усилий к руке человека и не совершал никаких других действий, которые могут вызвать дискомфорт или поставить под угрозу безопасность человека. Чтобы снизить эти риски, команда поощряла робота за аккуратное поведение.

Дальнейшие исследования будут вестись в нескольких направлениях. Например, команда хочет расширить возможности существующей системы, позволив ей надевать куртку на обе руки человека или натягивать футболку через голову. Обе задачи требуют более сложной конструкции и исполнения.

https://www.youtube.com/watch?v=5j3a0dR22oU

Работа "One Policy To Dress Them All: Learning To Dress People With Diverse Poses and Garments" была представлена на конференции Robotics: Science and Systems conference.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/v-cmu-razrabatyvayut-robotizirovannuyu-sistemu-kotoraya-mozhet-pomoch-cheloveku-odevatsya