Кейсы цифровой трансформации – Telegram
Кейсы цифровой трансформации
361 subscribers
3 photos
1 video
1 file
836 links
Здесь мы делимся реальными историями
успеха цифровой трансформации компаний, обсуждаем новости и тенденции в этой области, проводим вебинары.
Проект https://casestudy.techart.ru
Download Telegram
Исследователи NC State University провели исследование влияния автономных машин на траффик

Новое исследование показало, что "подключенные" автомобили, обменивающиеся данными друг с другом по беспроводной связи, значительно улучшают время проезда перекрестков, но автоматизированные автомобили могут замедлять проезд, если они не подключены друг к другу.

"Есть две важные причины, по которым люди заинтересованы в автоматизированных транспортных средствах, - это повышение безопасности пассажиров и сокращение времени в пути, - говорит Али Хаджбабаи, первый автор статьи о работе и доцент North Carolina State University. - Существует множество исследований, показывающих, что автоматизированные транспортные средства могут повысить безопасность. Но наши исследования, основанные на вычислительном моделировании, показывают, что если мы хотим также улучшить время движения, то одного увеличения количества автоматизированных автомобилей недостаточно; нам нужны автомобили, способные взаимодействовать друг с другом и с системами управления дорожным движением, которые регулируют поток на перекрестках".

Для проведения исследования ученые использовали вычислительную модель, имитирующую дорожную обстановку. Исследователи учитывали четыре типа транспортных средств: автомобили, управляемые человеком (HV); подключенные автомобили (CV), которые управляются человеком, но обмениваются информацией с другими подключенными автомобилями и с системой управления светофорами; автоматизированные автомобили (AV) и подключенные автоматизированные автомобили (CAV).

"В силу своей запрограммированности предполагается, что AV будут двигаться более осторожно по сравнению с людьми, - говорит Хаджбабайе. - Их безопасность частично объясняется тем, что они запрограммированы на консервативное вождение. Автомобили CV и CAV предназначены для получения информации о состоянии светофоров и корректировки скорости движения, чтобы избежать остановки на перекрестках. В результате ожидается, что движение CV и CAV будет более плавным и с меньшим количеством остановок по сравнению с HV и AV".

Исследователи провели 57 симуляций, чтобы оценить влияние множества переменных на время проезда через перекресток. Например, исследователи рассмотрели, как повлияют на движение различные комбинации автомобилей HV, AV, CV и CAV. Одним из очевидных выводов стало то, что чем выше процентное соотношение автомобилей CV и CAV, тем выше пропускная способность перекрестка.

"Однако мы обнаружили, что более высокий процент автомобилей, которые не подключены к сети, фактически замедляет проезд перекрестков, - говорит Хаджбабаи. - Это объясняется тем, что такие автомобили запрограммированы на консервативное вождение с целью снижения риска столкновений. Полученные нами результаты подчеркивают важность внедрения возможностей подключения как в транспортные средства, так и в системы управления дорожным движением".

В пресс-релизе университета указывается, что исследование проводилось с помощью вычислительной модели, что является ограничивающим фактором, но собрать смешанный парк автомобилей из HV, AV, CV и CAV в единую систему управления дорожным движением сложно и дорого. К тому же испытания с участием людей могут вызвать сомнения в безопасности, что делает эти модельные исследования особенно важными.

Работа "Effects of Connectivity and Automation on Saturation Headway and Capacity at Signalized Intersections" опубликована в журнале Transportation Research Record.

https://robogeek.ru/avtonomnyi-transport/issledovateli-nc-state-university-proveli-issledovanie-vliyaniya-avtonomnyh-mashin-na-traffik
ИИ воссоздает трек Pink Floyd по записям активности головного мозга

Исследователи из UC Berkeley регистрировали электрическую активность участков мозга, когда пациенты слушали песню "Another Brick in the Wall, Part 1" группы Pink Floyd. Используя ИИ, они смогли восстановить песню по записям внутричерепной электроэнцефалографии мозга.

Роберт Найт из Калифорнийского университета в Беркли (UC Berkeley) и его коллеги изучали записи с электродов, которые были хирургически имплантированы на поверхность мозга 29 человек для лечения эпилепсии.

Запись мозговой активности участников велась во время прослушивания композиции "Another Brick in the Wall, Part 1" с альбома "The Wall" (1979). Сопоставив сигналы мозга с песней, исследователи выявили записи с подмножества электродов, которые были тесно связаны с тоном, мелодией, гармонией и ритмом песни.

Затем они обучили ИИ изучать связи между активностью мозга и этими музыкальными компонентами, исключив из обучающих данных 15-секундный фрагмент песни. Обученный ИИ на основе сигналов мозга участников создал предсказание неизвестного фрагмента песни. Спектрограмма трека, сгенерированного ИИ, на 43% совпала с оригиналом.

Исследователи определили область мозга, называемую верхней височной извилиной, которая обрабатывала ритм гитары в песне. Они также обнаружили, что сигналы из правого полушария мозга были более важны для обработки музыки, чем сигналы из левого полушария, что подтверждает результаты предыдущих исследований.

"Для людей с боковым амиотрофическим склерозом или афазией, которым трудно говорить, мы хотели бы иметь устройство, которое действительно звучало бы так, как будто вы общаетесь с кем-то по-человечески, - говорит Найт. - Понимание того, как мозг представляет музыкальные элементы речи, включая тон и эмоции, может сделать такие устройства менее роботизированными".

Инвазивный характер имплантации мозга делает маловероятным использование этой процедуры для неклинических целей, говорит Найт. Однако другие исследователи недавно использовали ИИ для создания песенных клипов на основе сигналов мозга, записанных с помощью МРТ.

Если ИИ сможет использовать сигналы мозга для воссоздания музыки, которую люди представляют себе, а не просто слушают, то такой подход можно будет использовать даже для сочинения музыки, говорит Людовик Белье из Калифорнийского университета в Беркли, член исследовательской группы.

По мере развития технологии воссоздание песен с помощью мозговой активности на основе ИИ может вызвать вопросы о нарушении авторских прав, в зависимости от того, насколько воссоздание похоже на оригинальную музыку, говорит Дженнифер Мейзел из юридической фирмы Rothwell Figg в Вашингтоне.

"Вопрос авторства действительно интересен, - говорит она. - Может ли человек, записывающий мозговую активность, быть автором? Может ли сама программа искусственного интеллекта быть автором? Самое интересное, что автором может быть не тот человек, который слушает песню".

https://www.youtube.com/watch?v=WKEkJAKlRM0&list=PLi80c3aYgKxCVdkxp8HmY1ZEl_bKVoSAj

Работа "Music can be reconstructed from human auditory cortex activity using nonlinear decoding models" была опубликована в PLOS Biology.

https://robogeek.ru/iskusstvennyi-intellekt/ii-vossozdaet-trek-pink-floyd-po-zapisyam-aktivnosti-golovnogo-mozga
Мягкие роботизированные блоки могут трансформироваться для выполнения разнообразных задач

Исследователи из Dartmouth College разрабатывают мягкие роботизированные блоки, которые могут работать в унисон, создавая конструкции, способные катиться, ходить, захватывать предметы и транспортировать грузы.

В зависимости от поставленной задачи блоки могут принимать форму, наиболее подходящую для ее выполнения. В пресс-релизе колледжа указывается, что такие роботы могут быть полезны при оперативном реагировании на ЧС, крупные версии которых смогут собираться в защитные палатки для спасателей.

"Существуют муравьи, которые совместно формируют мосты через щели или собираются в плоты в трудную минуту. Мы поставили перед собой задачу разработать роботизированные блоки, которые, подобно муравьям, могли бы объединяться различными способами для выполнения разных функций", - говорит Люян Чжао (Luyang Zhao), кандидат наук по информатике в Guarini School of Graduate and Advanced Studie, которая заинтересовалась робототехникой еще в студенческие годы.

StarBlocks, настольный прототип, созданный Чжао и ее коллегами из Dartmouth Reality and Robotics Lab, Rutgers University и Yale University, демонстрирует эту идею и ее потенциал в качестве динамического инструментария.

Каждый блок, или модуль, имеет звездообразный каркас. Изготовленный методом 3D-печати из материала, сочетающего в себе свойства пластика и резины, остов модуля легкий и в то же время растяжимый.

Механические мышцы (пружины из сплавов, деформирующихся при электрическом нагреве) формируют скелет, позволяя блоку имитировать движение, изгибаться и менять размер. Модули крепятся друг к другу с помощью магнитов.

В статье "StarBlocks: Soft Actuated Self-Connecting Blocks for Building Deformable Lattice Structures", опубликованной в журнале IEEE Robotics and Automation Letters, исследователи демонстрируют различные конструкции, которые могут создавать модули: несущую архитектуру в виде куполообразной палатки; катящееся колесо; четвероногое животное, вдохновленное собакой; роботизированную руку, которая может захватывать и перемещать небольшие объекты; линейную цепь, которая использует волнообразное движение для перемещения шарика по длине.

Исследователи также продемонстрировали самосборку блоков на поверхности. Получив информацию о положении, отслеживаемую камерой, система может активировать отдельные блоки, заставляя их двигаться навстречу друг другу и соединяться.

"Это первая в своем роде модульная система, которую можно реконфигурировать, а после реконфигурации использовать ее гибкость для решения поставленных задач, - говорит соавтор работы Девин Балком, профессор информатики. - Эти задачи включают в себя как передвижение, так и манипулирование, что также очень необычно".

По словам Балкома, роботы сочетают в себе преимущества различных типов систем. Модульность делает системы универсальными и легко ремонтируемыми, а модули сочетают в себе гибкость мягких роботов и конструктивные возможности жестких блоков.

https://www.youtube.com/watch?v=xno0FBs3ZdQ

Исследователи уже работают над усовершенствованием роботов, не связанных проводами, что позволит им более свободно двигаться и формировать фигуры. Чжао надеется, что в скором времени эти роботы смогут покинуть лабораторию и выйдут на улицу.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/myagkie-robotizirovannye-bloki-mogut-transformirovatsya-dlya-vypolneniya-raznoobraznyh-zadach
Робот для уборки офисных туалетных комнат

Нью-йоркская компания Somatic разработала робота для повышения эффективности работы клининговых бригад. На текущий момент компания предлагает робота по модели RaaS (робот как услуга) для обслуживания офисных зданий.

Somatic предлагает услугу стоимостью $1000 в месяц без предварительной оплаты, в рамках которой автономный робот постоянно находится в здании офиса и убирает туалетные комнаты в течение 40 часов в неделю. Это примерно $5,68 в час, что вполне соответствует минимальной заработной плате в США, составляющей $7,25 в час.

Робот может в автономном режиме открывать и закрывать двери, пользоваться лифтом, использовать дезинфицирующее средства и воду, открывать крышки унитазов и после проведения работ вытирать все насухо, после чего он отправится дальше.

По словам представителя Somatic все эти автономные возможности требуют приложения некоторых усилий. Перед прибытием робота на место компания посылает своего сотрудника с комплектом датчиков размером с обувную коробку, которому необходимо обойти здание, заходя и выходя из всех лифтов и туалетных комнат, чтобы составить карту здания с видео и трехмерными данными о глубине.

Затем оператор Somatic в VR-гарнитуре управляет роботом и проводит уборку туалетов. Т.о. оператор проводит обучение робота, при этом не обязательно убирать все туалеты в офисном здании, поскольку они, как правило, довольно однообразны. А затем, когда роботу будет предоставлено место для подзарядки, доступ к воде и электричеству, он будет готов приступить к автономной работе.

Сообщается, что робот не предназначен для того, чтобы полностью заменить уборщиков, а только для выполнения рутинной санитарной работы. Если он обнаружит что-то "неожиданное" он отправит фотографии по электронной почте вашему уборщику и перейдет к следующему участку.

https://www.youtube.com/watch?v=xY5zqKRy8A8

Сервис уже запущен в коммерческую эксплуатацию и, судя по всему, доступен уже сейчас, но компания не сообщает, сколько роботов она создала и сколько их уже работает.

https://robogeek.ru/servisnye-roboty/robot-dlya-uborki-ofisnyh-tualetnyh-komnat
Исследователи NUS разработали новый датчик давления для хирургических роботов

Исследователи из National University of Singapore (NUS) разработали новый датчик давления, получивший название eAir. Эта технология может быть применена в малоинвазивных операциях и имплантируемых датчиках благодаря непосредственному решению проблем, связанных с существующими датчиками давления.

Датчик eAir обещает повысить точность и надежность в медицинских приложениях. В перспективе он может изменить лапароскопические операции, обеспечив тактильную обратную связь с хирургом, что позволит более точно манипулировать хирургическим роботом. Результаты исследования, проведенного под руководством доцента Бенджамина Ти из NUS, были опубликованы в журнале Nature Materials.

Обычные датчики давления часто не отличаются точностью. Они с трудом обеспечивают стабильность показаний, часто дают разные результаты при многократном воздействии одного и того же давления и могут не замечать тонких изменений давления, что может привести к значительным ошибкам. Кроме того, они обычно изготавливаются из жестких и негибких материалов.

Для решения этих проблем команда NUS вдохновилась явлением, известным как "эффект листа лотоса" - уникальным природным феноменом, когда капли воды без усилий скатываются с поверхности листа, что возможно благодаря его мельчайшим водоотталкивающим структурам. Имитируя этот эффект, специалисты разработали датчик давления с улучшенной чувствительностью.

Бенджамин Ти поясняет, что eAir может обнаруживать мельчайшие изменения давления, что отражает чувствительность листа лотоса к чрезвычайно легкому прикосновению капли воды. В датчике используется инновационная конструкция "воздушной пружины", в которой находится слой воздуха, образующий при контакте с жидкостью в датчике границу раздела воздух-жидкость.

При увеличении внешнего давления этот слой воздуха сжимается. Обработка поверхности приводит к перемещению границы раздела внутри датчика без трения, что вызывает изменение электрических сигналов, точно отражающих величину оказываемого давления. Таким образом, природные водоотталкивающие свойства листа лотоса были переосмыслены в простой и элегантный прибор для измерения давления.

Устройства eAir можно сделать относительно небольшими - всего несколько миллиметров, что сопоставимо с размерами существующих датчиков давления.

Реальные возможности применения этой новой технологии весьма обширны. Например, при лапароскопических операциях, где необходима точная тактильная обратная связь, использование датчиков eAir может привести к повышению безопасности хирургических вмешательств, что в конечном итоге улучшит восстановление и прогноз состояния пациента.

"Когда хирурги выполняют малоинвазивные операции, например лапароскопические или роботизированные, мы можем управлять захватами, но не можем почувствовать, за что хватаются концевые эффекторы. Поэтому хирургам приходится полагаться на зрение и многолетний опыт, чтобы принять решение о критической информации, которую в противном случае могло бы предоставить наше осязание", - пояснил д-р Кан Хунг Ленг, консультант отделения общей хирургии больницы Национального университета.

Кроме того, eAir дает возможность улучшить процесс мониторинга внутричерепного давления. Предлагая минимально инвазивное решение, технология может изменить опыт пациентов в лечении заболеваний, связанных с головным мозгом, начиная от сильных головных болей и заканчивая потенциальными повреждениями мозга.

Команда NUS закладывает основу для сотрудничества с ключевыми игроками в области медицины. Одновременно они подали патент на технологию датчика eAir в Сингапуре и намерены использовать ее в реальных приложениях.

https://robogeek.ru/roboty-v-meditsine/issledovateli-nus-razrabotali-novyi-datchik-davleniya-dlya-hirurgicheskih-robotov
Исследователи KAIST разрабатывают гуманоида для управления самолетом

Группа исследователей разработала первого в мире человекоподобного робота-пилота. Помимо того, что робот, получивший название PIBOT, может размещаться в кресле пилота и использовать руки для взаимодействия с приборной доской, он использует технологию ИИ для запоминания полетных карт и аварийных протоколов.

За прошедшие годы было разработано несколько роботов-пилотов. В 2016 году разработанная DARPA система Labor In-Cockpit Automation System (ALIAS) сопровождала человека при выполнении базовых маневров в полете. В следующем году ALIAS совершил посадку самолета Boeing 737 в симуляторе, а вскоре после этого компания RE2 Robotics объявила о том, что ВВС США поручили ей разработку системы Common Aircraft Retrofit for Novel Autonomous Control (CARNAC). Затем, в 2019 году, ROBOpilot совершил свой первый двухчасовой полет.

Разница между этими роботами-пилотами и роботом, разработанным исследователями Korean Advanced Institute of Science and Technology (KAIST), заключается в том, что PIBOT использует ИИ и является гуманоидом, что делает его первым в своем роде.

"Гуманоидные роботы не требуют модификации существующих самолетов и могут быть сразу же применены для автоматизации полетов, - говорит Дэвид Хенчул Шим, возглавляющий проект PIBOT. - Поэтому они весьма применимы и практичны".

По словам исследователей, помимо того, что робот может физически сидеть в кресле пилота, использование технологии ChatGPT дает PIBOT явное преимущество. Это означает, что робот может запоминать аэронавигационные карты Jeppesen со всего мира, что, по их мнению, невозможно для человека, а также запомнить сборник оперативной информации (Quick Reference Handbook, QRH), содержащее все процедуры, применимые к нештатным и аварийным ситуациям. По их утверждению, эти способности позволяют PIBOT летать без ошибок и реагировать на различные ситуации быстрее, чем люди.

PIBOT может точно управлять переключателями в кабине самолета даже при сильной турбулентности. Благодаря встроенной камере робот может анализировать как состояние кабины, так и внешнюю обстановку. Уточняется, что возможности робота пока проверялись только на авиасимуляторе, но исследователи планируют в ближайшее время испытать робота на реальном легком самолете. При этом они видят применение PIBOT не только в пилотировании самолетов.

"Мы ожидаем, что они найдут применение и в других транспортных средствах, таких как автомобили и военные грузовики, поскольку могут управлять широким спектром оборудования, - сказал Шим. - Они... будут особенно полезны в ситуациях, когда военные ресурсы сильно истощены".

https://www.youtube.com/watch?v=_b5t3bgCpWA

Проект PIBOT стартовал в 2022 году, исследователи надеются завершить его к 2026 году. После чего они планируют коммерциализировать робота для использования как в военной, так и в гражданской сфере.

https://robogeek.ru/chelovekopodobnye-roboty/issledovateli-kaist-razrabatyvayut-gumanoida-dlya-upravleniya-samoletom
В EPFL разработали робота-собаку которая может бегать без моторов

В своем магистерском проекте в Ecole Polytechnique Federale de Lausanne (EPFL) Микаэль Ачкар собрал данные о движениях собак, чтобы разработать роботизированную версию этого животного, которая, будучи приведена в движение, может перемещаться без посторонней помощи и моторов.

Инженеры Лаборатории вычислительного проектирования и изготовления роботов (CREATE) EPFL, возглавляемой профессором Джози Хьюзом, разрабатывают новые способы создания роботов. Например, Хьюз и два других исследователя использовали ChatGPT для разработки роботизированного захвата для сбора урожая томатов. А Микаэль Ачкар использовал данные захвата движений живых собак для создания робота. Точнее, Ачкар изучил биологические механизмы собак, чтобы создать более "умную" конструкцию робота и построить прототип, который может работать сам по себе, без активации своих двигателей.

"Я хотел создать робота с характеристиками животного, учитывая, что животные, как и люди, двигаются огромным количеством разнообразных способов, - говорит Ачкар. - Но большинство этих движений выполняются всего несколькими суставами". Поэтому при создании робота он черпал вдохновение в процессах управления двигательной активностью животных.

"Мы нашли огромный набор данных о движении собак, причем они были доступны даже в открытых источниках" - говорит он. Первым шагом было извлечение данных о синергетических движениях собак, а затем структурирование этих данных, чтобы их можно было "обобщить" с помощью метода главных компонент. По сути, это означает группировку данных в несколько векторов, описывающих основные оси движения собаки, и использование этой информации для создания точных спецификаций робота.

Разработанная роботизированная собака обладает двусторонней симметрией. Каждая из четырех ног робота имеет три сустава, и каждый сустав согласован с остальными. Именно эта особенность позволяет роботу Ачкара бегать так же, как настоящая собака, и со всей ловкостью. Для создания прототипа Ачкар использовал "металлические стержни в качестве костей, напечатанные на 3D-принтере шкивы в качестве суставов, тонкие кабели в качестве сухожилий и несколько винтов, чтобы скрепить все это вместе".

Для испытания прототипа инженеры купили беговую дорожку. Они обнаружили, что, как только робот начал движение, он может двигаться автономно, без необходимости активировать управляющие двигатели.

"Сначала мы подумали, что это случайность, - говорит Ачкар. - Поэтому мы немного изменили конструкцию и снова протестировали робота - и он больше не смог бежать". Исследовательская группа добавила противовес, похожий на маятник, чтобы робот мог продолжать движение после запуска.

Управляющие двигатели робота, тем не менее, позволяют ему выполнять более широкий диапазон движений. Например, он может прыгать и преодолевать препятствия без помощи противовеса.

"Мы хотели бы продвинуть нашу конструкцию дальше с помощью двигателей, но пока прототип не очень надежен", - говорит Ачкар. Это не помешало ему испытать механическую собаку на прочность, например, поместить палку между ее ног, чтобы посмотреть, как она отреагирует. Робот автоматически возобновил движение. На беговой дорожке он развивает скорость до 6 км/ч.

https://www.youtube.com/watch?v=ztOOyl27BB0

"Наша цель - не соревноваться со сверхвысокотехнологичными роботами-собаками, а изучать конструкции роботов, вдохновленных биологическими факторами, - говорит Ачкар. - Это подразумевает оттачивание фундаментальной конструкции робота и модификацию его пассивных свойств таким образом, чтобы требовались только простые системы управления - и все это при максимальном расширении возможностей робота. То, что мы сделали здесь, - создание суставов для совместной работы - уже доказало свою полезность при создании роботизированных рук и других частей тела".

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/v-epfl-razrabotali-robota-sobaku-kotoraya-mozhet-begat-bez-motorov
Apptronik представила гуманоидного робота Apollo

Вчера компания Apptronik представила робота Apollo и утверждает, что это "самый способный в мире гуманоидный робот". Американская компания заявила, что робот предназначен для дружеского взаимодействия, массового производства и безопасности.

"Поскольку проблемы с трудовыми ресурсами и тенденции в сфере занятости продолжают оказывать влияние на нашу экономику, нам необходимо в корне изменить отношение к работе, особенно на складах и в цепочке поставок", - заявил Джефф Карденас, соучредитель и генеральный директор компании Apptronik, в своем релизе.

В 2016 году компания Apptronik вышла из состава Human Centered Robotics Lab в University of Texas. Цель компании - "представить следующее поколение роботов, которые изменят образ жизни и работы людей, решая при этом самые сложные мировые задачи".

В Apptronik отмечают, что Apollo создан на основе исследований 10 предыдущих роботов, включая работу над роботом Valkyrie для NASA.

При росте 172 см м Apollo весит 72,5 кг и может поднимать груз весом 25 кг. Компания заявляет, что робот имеет архитектуру, аналогичную коллаборативным роботам и может обеспечить безопасную работу рядом с людьми. Apollo также включает в себя поведение, основанное на восприятии, чтобы замедлиться или остановиться, если кто-то приближается. В Apptronik также отметили, что производительность Apollo по стоимости и энергоэффективность являются результатом десятилетней итерации, включающей 35 различных моделей электрических исполнительных систем.

"Наши уникальные приводы используют на треть меньше компонентов, чем традиционные приводы, и развивают на 50% большую скорость, - сказал Карденас. - Приводные механизмы стали более доступными, а используемые нами датчики - более дешевыми".

В роботе используются сменные батареи, каждая из которых рассчитана на четыре часа работы, что позволяет ему работать в течение всей смены, не требуя простоя для подзарядки. Компания заявила, что для обеспечения масштабного производства ей удалось оптимизировать устойчивость цепочки поставок за счет отказа от компонентов, поставляемых из одних рук, и размещения производственных мощностей в коридоре Техас - Мексика.

"Мексика обладает достаточным количеством талантов, а стоимость рабочей силы на треть ниже, чем в Китае, - сказал Карденас. - Дорога из Монтерея в Техас занимает 2,5 часа, в то время как из Китая в США по морю можно добраться за 18 дней".

Несмотря на то, что Apollo предназначен для решения широкого круга задач, компания Apptronik не ставит перед собой задачу обеспечить точность до 0,2 мм и не ждет, пока его масштабирование дойдет до миллионов единиц, прежде чем он станет доступным по цене. "Вначале мы ориентируемся на наиболее жизнеспособные приложения в ближайшей перспективе - грубые манипуляции для работы, - пояснил он. - К 2025 году в США будет не хватать 675 тыс. рабочих мест в сфере логистики, и многие из них - это просто сбор и перемещение грузов".

По словам представителей Apptronik, в перспективе Apollo будет использоваться в строительстве, нефтегазовой отрасли, производстве электроники, розничной торговле, доставке товаров на дом, уходе за пожилыми людьми и многих других отраслях. Компания продолжает оказывать поддержку NASA в снижении воздействия на человека в опасных условиях и готовится к расширению присутствия человечества в космосе с помощью телеуправляемых и автономных систем.

https://www.youtube.com/watch?v=N5VzOSKcZmM

Apptronik строит клиентский центр для демонстрации реальных примеров использования и работает над бета-версией Apollo, которая будет запущена в эксплуатацию в следующем году. Робот является платформой для дальнейшего развития. По заявлению компании их робот своего рода iPhone в мире роботов, позволяющий партнерам расширить возможности решений, разработанных Apptronik.

https://robogeek.ru/chelovekopodobnye-roboty/apptronik-predstavila-gumanoidnogo-robota-apollo
Британские исследователи представили робота демонстрирующего тактильную чувствительность, близкую к человеческому уровню

Новая система Bi-Touch, разработанная учеными University of Bristol на базе Bristol Robotics Laboratory, позволяет роботам выполнять ручные задачи, получая информацию о том, что нужно делать, от цифрового помощника.

Результаты исследования, опубликованные в журнале IEEE Robotics and Automation Letters, показывают, как агент ИИ интерпретирует окружающую среду с помощью тактильной и проприоцептивной обратной связи, а затем управляет поведением роботов, обеспечивая точное восприятие, мягкое взаимодействие и эффективное манипулирование объектами для выполнения роботизированных задач.

Эта разработка может полезна, например, для сбора фруктов, бытового обслуживания, а в перспективе - воссоздать осязание в искусственных конечностях.

"С помощью нашей системы Bi-Touch мы можем легко обучить агентов ИИ в виртуальном мире за пару часов выполнять бимануальные задачи, ориентированные на осязание. И что еще более важно, мы можем напрямую применять этих агентов из виртуального мира в реальном без дополнительного обучения - поясняет ведущий автор работы Ицзюнь Линь. - Тактильный бимануальный агент может решать задачи даже при неожиданных возмущениях и мягко манипулировать хрупкими объектами".

Бимануальное манипулирование с тактильной обратной связью станет ключом к развитию манипуляционных возможностей роботов человеческого уровня. Однако эта тема менее изучена, чем однорукие роботы, отчасти из-за доступности подходящего оборудования и сложности разработки эффективных контроллеров для задач с относительно большим пространством состояний и действий. Группа исследователей смогла разработать тактильную двурукую роботизированную систему, используя последние достижения в области ИИ и тактильных датчиков.

Исследователи создали виртуальный мир (симуляцию) с двумя роботами, оснащенными тактильными датчиками. Затем они разработали функции вознаграждения и механизм обновления целей, которые могли бы стимулировать агентов к обучению выполнению бимануальных задач, и создали реальную тактильную двурукую роботизированную систему, к которой можно было бы непосредственно применить этот агент.

Робот обучается бимануальным навыкам с помощью Deep Reinforcement Learning (Deep-RL) - одной из самых передовых технологий в области обучения роботов. Она предназначена для обучения роботов действиям путем проб и ошибок, подобно дрессировке собаки с помощью поощрений и наказаний.

Робот учится принимать решения, пробуя различные варианты поведения для выполнения поставленных задач, например, поднимать предметы, не роняя и не разбивая их. В случае успеха он получает вознаграждение, а в случае неудачи учится тому, чего делать не следует. Со временем он находит оптимальные способы захвата предметов, используя эти поощрения и наказания. ИИ-агент полагается только на проприоцептивную обратную связь - способность тела ощущать движение, действие и местоположение, а также на тактильную обратную связь. Им удалось успешно заставить двурукого робота безопасно поднимать такие хрупкие предметы, как картофельные чипсы Pringle.

"Наша система Bi-Touch демонстрирует перспективный подход с доступным программным и аппаратным обеспечением для обучения бимануальному поведению с помощью осязания в симуляции, который может быть непосредственно применен в реальном мире, - говорит соавтор работы профессор Натан Лепора. - Разработанная нами тактильная симуляция двурукого робота позволяет проводить дальнейшие исследования более разнообразных задач, поскольку код будет открытым, что идеально подходит для разработки других последующих задач".

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/britanskie-issledovateli-predstavili-robota-demonstriruyuschego-taktilnuyu-chuvstvitelnost-blizkuyu-k-chelovecheskomu-urovnyu
ИИ помогает роботам манипулировать объектами, используя не только захваты

Когда человеку необходимо поднять по лестнице большую и тяжелую коробку, он может поднять эту коробку обеими руками, затем упереть ее в предплечья и прижать к груди, используя все свое тело для манипулирования.

Для робота каждое место, где коробка может соприкоснуться с ним представляет собой событие контакта. При миллиардах вариаций быстрое планирование манипулирования становится неразрешимой задачей.

Исследователи из MIT нашли способ упростить этот процесс, известный как планирование манипуляций с большим количеством контактов. Они используют метод ИИ, называемый сглаживанием, который сводит множество контактных событий к меньшему числу решений, что позволяет даже простому алгоритму быстро определить эффективный план манипулирования для робота.

Многие решения, которые может принять робот, определяя, как манипулировать объектом, не являются важными с точки зрения общей схемы вещей. Например, каждая бесконечно малая поправка пальца, независимо от того, приведет ли она к контакту с объектом, не имеет большого значения. Сглаживание усредняет многие из этих неважных, промежуточных решений, оставляя несколько важных.

Обучение с подкреплением выполняет сглаживание неявно, пробуя множество точек контакта и затем вычисляя средневзвешенное значение результатов. Опираясь на этот опыт, исследователи Массачусетского технологического института разработали простую модель, которая выполняет аналогичное сглаживание, позволяя сосредоточиться на основных взаимодействиях робота с объектом и прогнозировать долгосрочное поведение. Они показали, что такой подход может быть столь же эффективным, как и обучение с подкреплением, при генерации сложных планов.

Даже если сглаживание значительно упрощает решения, поиск оставшихся решений все равно может оказаться сложной задачей. Поэтому исследователи объединили свою модель с алгоритмом, который может быстро и эффективно перебирать все возможные решения, которые может принять робот. При таком сочетании время вычислений на стандартном ноутбуке сократилось примерно до минуты.

Сначала они протестировали свой подход на симуляторах, где роботизированным рукам ставились задачи: переместить ручку, открыть дверь или поднять тарелку. В каждом случае подход, основанный на модели, достигал той же производительности, что и обучение с подкреплением, но за меньшее время. Аналогичные результаты были получены и при тестировании модели на реальных роботах-руках.

Пока этот метод находится на ранней стадии разработки, но в перспективе он может позволить заводам использовать небольших мобильных роботов, которые могут манипулировать объектами всей рукой или телом, а не большими роботизированными захватами. Это может способствовать снижению энергопотребления и уменьшению затрат. Кроме того, данная технология может быть полезна для роботов, отправляемых на другие планеты, поскольку они могут быстро адаптироваться к окружающей среде, используя только бортовой компьютер.

"Если мы сможем использовать структуру таких роботизированных систем с помощью моделей, то это позволит ускорить всю процедуру принятия решений и разработки планов, обеспечивающих контакт, - говорит Терри Сух, аспирант кафедры электротехники и информатики (EECS) и один из ведущих авторов статьи, посвященной этой методике.

В пресс-релизе MIT уточняется, что разработанная модель опирается на более простую аппроксимацию реального мира, поэтому она не может обрабатывать динамичные движения, например, падение объектов. Хотя этот подход эффективен для медленных манипуляционных задач, он не может создать план, который позволил бы роботу, например, выбросить консервную банку в мусорный бак. В будущем исследователи планируют усовершенствовать свою методику, чтобы она могла решать такие высокодинамичные задачи.

https://www.youtube.com/watch?v=D8VIzBRy_m4

Результаты исследования опубликованы в журнале IEEE Transactions on Robotics.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/ii-pomogaet-robotam-manipulirovat-obektami-ispolzuya-ne-tolko-zahvaty
В CMU разрабатывают роботизированную систему которая может помочь человеку одеваться

По данным National Center for Health Statistics, 92% пациентов домов престарелых и тем кому нужна помощь на дому нуждаются в помощи при одевании. Исследователи из Carnegie Mellon University (CMU) работают над созданием робота, который сможет это делать.

"Примечательно, что существующие разработки в основном предполагают одевание с ограниченным диапазоном поз рук и с использованием одной фиксированной одежды, например, больничного халата, - говорит аспирант CMU Юфей Ванг, работающий над роботизированной системой одевания. - Разработка общей системы, позволяющей работать с разнообразной повседневной одеждой и различными двигательными функциями, является нашей основной задачей. Мы также хотим распространить эту систему на людей с различными ограничениями движения рук".

Роботизированная система одевания использует возможности ИИ для адаптации к различным формам человеческого тела, положениям рук и выбору одежды. В своей работе группа исследователей использовала метод обучения с подкреплением для создания общей системы одевания. Робот получал положительное вознаграждение каждый раз, когда правильно размещал одежду дальше по руке человека. Благодаря этому методу они увеличили процент успешного выполнения системой выученной стратегии одевания.

Для обучения робота манипуляциям с одеждой и одеванию людей исследователи использовали симуляцию. При переносе стратегии, выработанной в симуляции, в реальный мир команде пришлось тщательно учитывать свойства материала из которого изготовлена одежды.

"На этапе моделирования мы использовали намеренно рандомизированные разнообразные свойства одежды, чтобы направить выработанную роботом стратегию одевания на широкий спектр свойств материала, - говорит Чжаньи Сунь, студент магистратуры CMU, который также работал над проектом. - Мы надеемся, что случайное изменение свойств одежды при моделировании будет отражать свойства одежды в реальном мире, поэтому стратегия одевания, выработанная в условиях моделирования, может быть легко перенесена в реальный мир".

Команда оценила роботизированную систему одевания в исследовании на людях, в котором было проведено 510 одеваний 17 участников с различными формами тела, положением рук и пятью видами одежды. Для большинства участников система смогла полностью натянуть рукав каждого предмета одежды на руку. При усреднении по всем тестовым случаям система была успешна в 86% случаев.

При разработке системы исследователям пришлось учитывать несколько проблем, т.к. одежда деформируема. Это затрудняет ее восприятие роботом и прогнозирование того, куда и как она будет двигаться.

"Одежда отличается от жестких объектов, которые позволяют оценить состояние, поэтому нам приходится использовать высокоразмерное представление для деформируемых объектов, чтобы робот мог воспринимать текущее состояние одежды и то, как она взаимодействует с рукой человека, - сказал Ванг. - Используемое нами представление называется сегментированным облаком точек. Оно представляет видимые части одежды в виде набора точек".

При этом решающее значение имело безопасное взаимодействие человека и робота. Важно, чтобы робот не прилагал чрезмерных усилий к руке человека и не совершал никаких других действий, которые могут вызвать дискомфорт или поставить под угрозу безопасность человека. Чтобы снизить эти риски, команда поощряла робота за аккуратное поведение.

Дальнейшие исследования будут вестись в нескольких направлениях. Например, команда хочет расширить возможности существующей системы, позволив ей надевать куртку на обе руки человека или натягивать футболку через голову. Обе задачи требуют более сложной конструкции и исполнения.

https://www.youtube.com/watch?v=5j3a0dR22oU

Работа "One Policy To Dress Them All: Learning To Dress People With Diverse Poses and Garments" была представлена на конференции Robotics: Science and Systems conference.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/v-cmu-razrabatyvayut-robotizirovannuyu-sistemu-kotoraya-mozhet-pomoch-cheloveku-odevatsya
Беспилотник с ИИ обогнал чемпионов дрон-рейсинга

Разработанная учеными из University of Zurich (UZH) ИИ система Swift обошла чемпионов мира по гонкам на беспилотниках - результат, который еще несколько лет назад казался недостижимым. Беспилотник, управляемый ИИ, был обучен в симулированной среде. В реальном мире Swift может применяться для мониторинга окружающей среды или ликвидации последствий стихийных бедствий.

В 1996 году компьютер Deep Blue компании IBM выиграл у Гари Каспарова в шахматы, а в 2016 году компьютер AlphaGo компании Google разгромил лучшего игрока в го Ли Седоля, гораздо более сложной игре. Эти соревнования, в которых машины одержали победу над людьми, являются ключевыми вехами в истории развития ИИ. Теперь группа исследователей из UZH и компании Intel установила новую веху, создав первую автономную систему, способную победить человека в физическом виде спорта.

Система Swift выиграла несколько гонок у трех чемпионов мирового класса в гонках дронов с видом от первого лица (FPV), где пилоты управляют квадрокоптерами на скорости более 100 км/ч.

"Физические виды спорта более сложны для ИИ, поскольку они менее предсказуемы, чем настольные или видеоигры. Мы не обладаем совершенными знаниями о моделях дронов и окружающей среды, поэтому ИИ должен изучать их, взаимодействуя с физическим миром", - говорит Давиде Скарамуцца, руководитель группы робототехники и восприятия UZH.

Раньше автономным беспилотникам требовалось в два раза больше времени, чем пилотируемым человеком, чтобы пролететь по гоночной трассе, если они не полагались на внешнюю систему отслеживания положения для точного контроля траектории. Swift же реагирует в реальном времени на данные, получаемые с помощью бортовой камеры, подобной той, что используется пилотами. Встроенный инерциальный блок измеряет ускорение и скорость, а нейронная сеть использует данные с камеры для локализации дрона в пространстве и обнаружения ворот на гоночной трассе. Эта информация поступает в блок управления, который выбирает оптимальные действия для скорейшего завершения трассы.

Обучение Swift проводилось в симуляционной среде, где он сам учился летать методом проб и ошибок, используя обучение с подкреплением. Использование симуляции позволило избежать уничтожения беспилотников на ранних этапах обучения, когда система часто сбоит.

"Чтобы последствия действий в симуляторе были максимально приближены к реальным, мы разработали метод оптимизации симулятора с использованием реальных данных, - говорит Элиа Кауфман, первый автор статьи. - На этом этапе беспилотник совершал автономный полет, ориентируясь на очень точные координаты, предоставляемые внешней системой отслеживания положения, и одновременно записывая данные с камеры. Таким образом, он научился самостоятельно исправлять ошибки, допущенные при интерпретации данных с бортовых датчиков".

После месяца полетов в симуляторе, что соответствует менее чем часу на настольном ПК, исследователи бросили вызов чемпиону Drone Racing League 2019 года Алексу Вановеру, чемпиону MultiGP Drone Racing 2019 года Томасу Битматту и трехкратному чемпиону Швейцарии Марвину Шепперу. Соревнования проходили на специально построенной трассе в ангаре аэропорта Дюбендорф, расположенного недалеко от Цюриха. Площадь трассы составляла 25 на 25 метров, на ней располагались семь квадратных ворот, которые необходимо было пройти в правильном порядке, чтобы завершить круг, включая сложные маневры.

В целом Swift показал самый быстрый круг, на полсекунды опередив лучший результат человека. С другой стороны, человек лучше адаптируется к внешним изменениям, чем автономный беспилотник, который не справился с задачей, когда условия отличались от тех, к которым он был подготовлен, например, если в помещении было слишком много света.

Соревнования прошли в июне 2022 года. Вчера в Nature был опубликован материал "Champion-level drone racing using deep reinforcement learning".

https://robogeek.ru/letayuschie-roboty/bespilotnik-s-ii-obognal-chempionov-dron-reisinga
В CU Boulder создали миниатюрного модульного робота, способного менять форму

Одним из наиболее распространенных вариантов использования миниатюрных роботов является поиск выживших в завалах на месте катастрофы. Робот CLARI, созданный по образу насекомых, может оказаться полезен в этом сценарии, поскольку он может сделать себя тоньше, чтобы протиснуться через узкие горизонтальные щели.

Робот CLARI (Compliant Legged Articulated Robotic Insect) был создан в University of Colorado-Boulder (CU Boulder) командой под руководством докторанта инженерных наук Хейко Кабутца. Он сотрудничал с доцентом университета Каушиком Джаярамом, который ранее создал робота, вдохновленного тараканами, который сплющивает себя, чтобы протиснуться через вертикальные щели.

Четырехногий робот CLARI имеет условно квадратную форму, если смотреть на него сверху, и состоит из четырех секций, соединенных между собой гибкой внешней оболочкой. Каждая секция включает в себя одну ногу со своей схемой и двумя приводами, которые перемещают ногу вперед и назад, а также из стороны в сторону. Таким образом, каждая нога может работать независимо от других.

При движении по открытой местности CLARI по умолчанию сохраняет квадратную форму, что обеспечивает оптимальную скорость и устойчивость. Однако если робот встречает препятствие он может перестроиться в более длинную и узкую форму. Если говорить о конкретных цифрах, то ширина робота уменьшается с 34 мм до 21 мм.

Хотя нынешняя итерация CLARI подключена к источнику питания и управления, есть надежда, что его будущие версии будут питаться от батарей и оснащены датчиками для автономного перемещения в сложных условиях. Ученые также хотят сделать этих роботов более компактными, но при этом оснастить их большим количеством ног для повышения маневренности.

"Когда мы пытаемся поймать насекомое, оно может исчезнуть в щели, - говорит Кабуц. - Но если у нас есть роботы с возможностями паука или мухи, мы можем добавить камеры или датчики, и теперь мы можем начать исследовать пространства, в которые раньше не могли попасть".

https://www.youtube.com/watch?v=wwrckOT4VwY

Работа "Design of CLARI: A Miniature Modular Origami Passive Shape-Morphing Robot" была опубликована в журнале Advanced Intelligent Systems.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/v-cu-boulder-sozdali-miniatyurnogo-modulnogo-robota-sposobnogo-menyat-formu
Прогнозирования самоубийства и причинения себе вреда у подростков с помощью ИИ

Исследователи с помощью алгоритма машинного обучения определили основные факторы, которые могут предсказать риск причинения себе вреда и попытки самоубийства у подростков. По их словам, их модель является более точной, чем существующие методы, и может быть использована для оказания индивидуальной помощи.

Подростковый возраст - важнейший период становления. Физические, эмоциональные и социальные изменения могут сделать подростков уязвимыми к проблемам психического здоровья, включая попытки самоубийства. По данным Australian Institute of Health and Welfare (AIHW), самоубийство является основной причиной смерти австралийцев в возрасте от 15 до 24 лет. В США, по данным Centers for Disease Control and Prevention (CDC), суицид занимает второе место среди причин смерти подростков в возрасте от 10 до 14 лет.

Стандартный подход к прогнозированию самоубийств и самоповреждений основан на использовании в качестве единственного фактора риска наличие попыток сделать это в прошлом, что может быть ненадежным. Исследователи из University of New South Wales Sydney с помощью машинного обучения определили основные факторы, которые подвергают подростков повышенному риску.

"Иногда нам необходимо переварить и обработать большое количество информации, что не под силу клиницисту, - говорит Пинг-И Дэниел Лин, автор-корреспондент исследования. - Именно поэтому мы обращаемся к алгоритмам машинного обучения".

Данные о 2809 подростках были получены из Longitudinal Study of Australian Children (LSAC) - репрезентативного национального исследования, начавшегося в 2004 году. Подростки были разделены на две возрастные группы: 14-15 лет и 16-17 лет. Данные были получены из анкет, заполненных детьми, их опекунами и учителями. Среди участников исследования 10,5% сообщили об случаях самоповреждения, а 5,2% - о попытках самоубийства хотя бы один раз за последний год.

Исследователи выделили из полученных данных более 4000 потенциальных факторов риска в таких областях, как психическое здоровье, физическое здоровье, взаимоотношения с окружающими, школьная и домашняя обстановка. Они использовали метод случайного леса (RF) для определения того, какие факторы риска, наблюдавшиеся в 14-15 лет, в наибольшей степени предсказывали попытки самоубийства и самоповреждения в 16-17 лет. Основная идея RF заключается в том, что при объединении множества деревьев решений в единую модель прогнозы в среднем будут ближе к истине.

Прогностическая эффективность модели машинного обучения сравнивалась с подходом, использующим в качестве предиктора только предыдущую историю самоповреждений или попыток самоубийства. Эффективность каждой модели определялась путем оценки площади под кривой (AUC) - показателя, который варьируется от 0,5 (не лучше случайного угадывания) до 1,0 (идеальное предсказание). Как правило, AUC от 0,7 до 0,8 считается приемлемой для прогнозирования риска, от 0,8 до 0,9 - отличной, а более 0,9 - выдающейся.

Для обучения RF-модели прогнозирования самоповреждений было использовано 48 переменных, которая показала хорошую прогностическую эффективность с AUC 0,740. Что касается предсказания попыток самоубийства, то модель, обученная с использованием 315 переменных, показала AUC 0,722.

"Для нас было удивительно увидеть, что предыдущие попытки не входят в число основных факторов риска, - сказал Лин. - Мы обнаружили, что окружение молодого человека играет большую роль, чем мы думали. Это хорошо с точки зрения профилактики, поскольку теперь мы знаем, что можем сделать для этих людей".

По мнению исследователей, полученные ими результаты важны, поскольку они опровергают стереотип, согласно которому люди совершают самоубийства или самоповреждения исключительно из-за плохого психического здоровья. По их словам, их модель может быть использована для индивидуальной оценки риска у подростков.

Исследование было опубликовано в журнале Psychiatry Research.

https://robogeek.ru/iskusstvennyi-intellekt/prognozirovaniya-samoubiistv-i-prichineniya-sebe-vreda-u-podrostkov-s-pomoschyu-ii
В ETH Zurich представили метод обучения роботов манипулированию скомканными тканями

Чтобы помогать человеку в его повседневной деятельности и успешно справляться с домашними делами, роботы должны уметь эффективно манипулировать предметами, которыми мы пользуемся каждый день. Однако некоторые объекты из-за их формы, гибкости и других особенностей трудно поддаются манипулированию роботами.

К таким объектам относятся текстильные салфетки, которые обычно используются человеком для очистки поверхностей, окон, зеркал и мытья полов. Все эти задачи потенциально могут быть выполнены роботами, но прежде чем это произойдет, роботы должны уметь эффективно захватывать ткани и манипулировать ими.

Исследователи из ETH Zurich представили новую вычислительную технику, позволяющую создавать визуальные представления смятых тканей, что, в свою очередь, может помочь в планировании эффективных стратегий захвата тканей роботами и их использования при выполнении задач. Эта методика, представленная в статье, предварительно опубликованной на сайте arXiv, оказалась хорошо обобщающей для тканей с различными физическими свойствами, а также различных форм, размеров и материалов.

"Точная реконструкция и манипулирование одной скомканной тканью представляет собой сложную задачу из-за высокой размерности модели ткани, а также ограниченности наблюдений в самозакрывающихся областях", - пишут в своей статье Вэньбо Ванг, Гэн Ли, Мигель Замора и Стелиан Корос. В своей работе они использовали модель, основанную на графовых нейронных сетях (GNN).

Для обучения своей модели исследователи собрали набор данных, содержащий более 120 000 синтетических изображений, полученных в результате моделирования, а также более 3000 помеченных изображений ткани, полученных в реальных условиях. После длительного обучения на этих двух наборах данных было обнаружено, что модель эффективно предсказывает положение и видимость вершин ткани, просто рассматривая ткань сверху.

Для оценки эффективности своей модели исследователи провели ряд тестов, как в симуляции, так и в экспериментальном режиме. В этих тестах они применили свою модель к коллаборативному роботу YuMi компании ABB.

Как в симуляциях, так и в экспериментах модель позволяла эффективно управлять движениями YuMi, позволяя лучше удерживать и манипулировать различными тканями, используя как одну руку, так и обе.

Наборы данных, собранные исследователями, и код их модели доступны на GitHub. В будущем эта работа может открыть путь к дальнейшему прогрессу в области робототехники. В частности, она может помочь расширить возможности мобильных роботов, предназначенных для помощи человеку в работе по дому, улучшив их способность справляться с различными тканями.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/v-eth-zurich-predstavili-metod-obucheniya-robotov-manipulirovaniyu-skomkannymi-tkanyami
Китайская компания Deeproute планирует выход на европейский рынок

Deeproute, стартап в области роботакси со штаб-квартирой в Шэньчжэне и имеющая финансирование в размере $350 млн. планирует открыть операционный центр в Германии в 2024 году. Это станет еще одним случаем, когда китайский разработчик автономных технологий откроет свое представительство в регионе, где расположены крупнейшие мировые автопроизводители.

Об этом было объявлено на Международном автомобильном салоне в Мюнхене на этой неделе, где присутствовало большое количество китайских игроков. В следующем году компания, поддерживаемая Alibaba, планирует развернуть свое готовое к производству решение для автономного вождения в Германии, а затем и на других европейских рынках.

Их решение Drive 3.0 работает без карт высокой четкости и оснащено такими функциями, как Park Assist. При этом оно имеет привлекательный ценник в $ 2000, в том числе благодаря конкурентоспособным ценам китайских поставщиков лидаров. В нем используется система на кристалле Drive Orin от Nvidia.

Компания Deeproute не предоставила подробной информации о том, чем на самом деле занимается новый операционный центр, сообщив лишь, что в нем будет работать команда по развитию бизнеса. Также пока неизвестно, в каком городе он будет располагаться, хотя есть несколько очевидных вариантов.

Если посмотреть в прошлое, то два года назад конкурент Deeproute, компания Momenta ИЗ Сучжоу, открыла офис в Штутгарте. Это решение позволило им наладить более тесные отношения со своим инвестором компанией Mercedes-Benz, штаб-квартира которой находится в этом немецком городе, а также, возможно, с другими европейскими производителями комплектующих.

Компания Nio, китайский производитель электромобилей премиум-класса, разрабатывающий свои технологии ADAS собственными силами, имеет инновационный центр площадью 1500 кв. м в Берлине и конструкторский центр в Мюнхене. В столице также работает шоу-рум NIO House.

Как и другие амбициозные китайские стартапы, Deeproute начинала свою деятельность с разработки технологий четвертого уровня автономности, но со временем перешла к менее продвинутым решениям для автопартнеров, которые могут принести более надежный денежный поток.

Представитель компании Deeproute заявил, что "поскольку с прошлого года мы работаем с OEM-производителями над серийным производством, мы сместили акцент с роботакси на дорожные испытания готовых к производству автомобилей". К концу 2022 года компания осуществила более 800 000 пассажирских поездок, большинство из которых были осуществлены ее роботакси в крупных городах Китая.

https://www.youtube.com/watch?v=tpKpbM-rCXM

Наличие представительства в Германии будет способствовать расширению базы OEM-клиентов, в которую на данный момент входят компании Seres и Geely. Наличие команды по развитию бизнеса на месте означает, что Deeproute сможет "наладить контакты с большим количеством местных автопроизводителей, оказать поддержку OEM-партнерам в серийном производстве "умных" автомобилей и т.д.", - заявил представитель компании.

https://robogeek.ru/avtonomnyi-transport/kitaiskaya-kompaniya-deeproute-ai-planiruet-vyhod-na-evropeiskii-rynok
Saildrone и RPS используют интеллектуальные инструменты для мониторинга морских млекопитающих

Saildrone, компания в области безэкипажных надводных аппаратов (USV) и автономного сбора данных об океане, совместно с компанией RPS, поставщиком услуг по мониторингу охраняемых видов и обеспечению соблюдения требований по смягчению последствий воздействия на окружающую среду, объявили о завершении первого этапа проекта по созданию сети мониторинга для обнаружения, классификации и локализации морских млекопитающих.

Проект был поддержан грантом National Offshore Wind Research and Development Consortium (NOWRDC).

По мере роста спроса на экологически чистую энергию все большее распространение получают морские ветряные электростанции. Однако их строительство и эксплуатация могут оказывать влияние на морские экосистемы. Многие виды крупных китов сильно зависят от акустики при выполнении важных жизненных функций и поэтому чувствительны к подводному шуму.

Традиционные визуальные и акустические методы мониторинга морских млекопитающих требуют присутствия в море обученных биологов на судах с экипажем. Вокальные сигналы китов часто имеют очень низкую частоту, что затрудняет их обнаружение и легко маскируется искусственными звуками.

Два аппарата Saildrone USV, оснащенные подводными акустическими системами, были развернуты у побережья штата Массачусетс для наблюдения за южными китами и другими морскими млекопитающими. Практически бесшумные подводные аппараты были размещены в районе, где обитает несколько видов китов. В течение двух недель работы беспилотники зафиксировали множество акустических сигналов морских млекопитающих.

Теперь перед учеными-акустиками RPS стоит задача постобработки данных, полученных с помощью Saildrone, определения типов обнаруженных звуков и видов, издающих эти звуки. Одним из инструментов, который будет использоваться аналитиками, является инструмент машинного обучения RPS Neptune, прогностический алгоритм для точного и надежного обнаружения акустических сигналов морских млекопитающих.

"Глобальное развитие морской ветроэнергетики - это ключ к отказу от традиционной, невозобновляемой энергетики, особенно на ископаемом топливе. Однако развитие не должно оказывать негативного воздействия на морских млекопитающих, которые обитают в этих местах. Компании Saildrone и RPS совместно работают над созданием уникального, гибкого и адаптируемого решения для мониторинга морских млекопитающих на больших территориях в течение значительных периодов времени, используя интеллектуальные инструменты для сокращения численности персонала на местах, но без снижения объемов мониторинга и смягчения последствий для защиты наших соседей - морских животных", - говорит Стефани Милн, тимлид группы RPS, US Offshore Renewables.

Целью Saildrone и RPS является минимизация воздействия промышленной деятельности на популяции морских млекопитающих при одновременной поддержке расширения использования возобновляемых источников энергии. Современные акустические датчики, разработанные Saildrone, в сочетании с ИИ RPS позволят обнаруживать и отслеживать присутствие китов в режиме реального времени, что позволит принимать упреждающие меры.

"Это значительное достижение представляет собой существенный шаг вперед в нашей способности изучать и защищать китов и других морских млекопитающих, - говорит технический директор Saildrone Брайан Хернаки. - Пассивная акустическая технология Saildrone позволяет нам собирать жизненно важную информацию неинвазивным и экономически эффективным способом".

https://robogeek.ru/podvodnye-i-nadvodnye-roboty/saildrone-i-rps-ispolzuyut-intellektualnye-instrumenty-dlya-monitoringa-morskih-mlekopitayuschih
GE Aerospace разработала робота Sensiworm для инспектирования авиационных двигателей

Подобно тому как робототехника и визуализация позволили проводить минимально инвазивные хирургические операции, позволяющие пациентам быстрее восстанавливаться, подобные технологии также позволяют проводить менее инвазивный осмотр и ремонт реактивных двигателей, сокращая время простоя самолетов.

Компания GE Aerospace представила мягкого робота Sensiworm (Soft ElectroNics Skin-Innervated Robotic Worm) который может служить инспекционным инструментом внутри двигателя для операторов. Традиционно работники используют приборы, такие как гибкий видеоскоп, которые предоставляют ценные данные, но ограничены в общем охвате турбины из-за таких факторов, как сила тяжести, которая может привести к естественному оседанию наконечника. Развертывание роботов, подобных Sensiworm, позволит операторам в будущем получить практически беспрепятственный доступ для проведения инспекций без необходимости демонтажа двигателя.

Sensiworm - это мягкий робот, напоминающий червяка. Он является автономным, имеет на борту источники питания и вычислительные ресурсы. Команда продемонстрировала его способность легко перемещаться по различным изломам и изгибам деталей реактивного двигателя для поиска трещин и коррозии. В ходе других демонстраций в лабораторных условиях было показано, что Sensiworm также может точно проверять теплозащитное покрытие на деталях двигателя, чтобы определить, поддерживается ли необходимая толщина.

Sensiworm может способствовать дальнейшему расширению охвата и возможностей контроля внутри двигателя по сравнению с используемыми в настоящее время технологиями. Sensiworm может быть развернут через впускной или выпускной патрубок турбины двигателя и обеспечит охват большего участка турбины.

"С такими мини-компаньонами, как Sensiworm, у сервисных операторов появится несколько дополнительных комплектов глаз и ушей для проведения проверок на крыле, - говорит Дипак Триведи, главный инженер по робототехнике GE Aerospace Research. - Благодаря своей мягкой, податливой конструкции они смогут осматривать каждый сантиметр реактивного двигателя, передавая видео в реальном времени и данные о состоянии деталей. Sensiworm может даже измерять толщину теплозащитного покрытия".

"В настоящее время наши демонстрации в основном сосредоточены на проверке двигателей, - добавил Триведи. - Но мы разрабатываем новые возможности, которые позволят этим роботам выполнять ремонт после обнаружения дефекта".

Робот Sensiworm компании GE Aerospace был разработан при финансировании и поддержке SEMI Flex Tech - отраслевого государственно-частного партнерства, нацеленного на продвижение инновационных разработок гибридной электроники. Команда GE также сотрудничает с Binghamton University, где расположен Center for Advanced Microelectronics Manufacturing (CAMM), и компанией UES Inc.

"Сотрудничество с GE позволяет нашей исследовательской группе помочь перенести идеи из лаборатории в реальный мир, что очень интересно как для меня, так и для моих студентов, - сказал Марк Поликс, директор CAMM. - Мы с нетерпением ждем возможности увидеть Sensiworm в действии, а также будущего сотрудничества с нашими промышленными партнерами в штате Нью-Йорк и за его пределами. Существует множество способов использования гибкой гибридной электроники для улучшения здоровья и безопасности людей".

https://www.youtube.com/watch?v=_Mks06p0KVo

Триведи пояснил, что инновационные роботизированные платформы in-situ с высоким уровнем интеллекта, такие как Sensiworm, являются ключевым техническим средством, необходимым для проведения более надежных проверок на крыле самолета в будущем. Это позволит сократить количество ненужных демонтажей и простоев, а также ускорить время выполнения работ для поддержания максимальной эксплуатационной готовности двигателей.

https://robogeek.ru/servisnye-roboty/ge-aerospace-razrabotala-robota-sensiworm-dlya-inspektirovaniya-aviatsionnyh-dvigatelei
Otto Group развернет парк роботов Spot и Stretch от Boston Dynamics

Немецкий розничноторговый концерн Otto Group объявила о подписании стратегического соглашения с компанией Boston Dynamics для продолжения автоматизации своих логистических операций. В ближайшие два года компания планирует внедрить роботов Spot компании Boston Dynamics на более чем 10 объектах и роботов Stretch на более чем 20 объектах.

По словам представителей Otto Group, внедрение роботов будет способствовать улучшению безопасности, повышению операционной эффективности и решению проблемы нехватки рабочей силы для выполнения определенных видов складских работ. В Boston Dynamics отметили, что это соглашение знаменует собой первый случай совместного применения обоих коммерческих роботов в масштабах предприятия.

"Мы научились быстро и гибко адаптироваться к новым рыночным ситуациям, что делает нас сильными для будущего", - утверждает Кай Шибур, член правления Otto Group.

Otto Group планирует начать внедрение роботов Boston Dynamics, начиная с Hermes Fulfillment. По условиям соглашения, Spot будет поддерживать инспекции и мероприятия по предиктивному обслуживанию оборудования. Они будут включать в себя тепловой мониторинг, снятие показаний аналоговых манометров и акустическое обнаружение утечек воздуха и газа под давлением.

Кроме того, парк этих четвероногих роботов будет выполнять автономные задания, собирая данные для моделей машинного обучения для решения таких задач, как мониторинг пожарных выходов и обнаружение незначительных изменений в стеллажах для обеспечения безопасности складов Otto Group.

Робот Stretch в следующем году робот начнет разгружать контейнеры на 10 объектах, а к концу 2025 года планируется ввести в эксплуатацию все объекты Otto Group. Робот, предназначенный для разгрузки тяжелых упаковок в контейнерном секторе, обеспечит технологическую поддержку при выполнении физически тяжелых работ, заявили компании.

Otto Group добавила, что на сегодняшний день более 10 000 работников складов и предприятий приняли участие в виртуальных учебных курсах TechUcation по робототехнике и ИИ. Это обучение дополняется обучением на месте, "позволяя существующим профессиям развиваться в цифровом формате и вместе формировать будущее", - говорится в сообщении.

https://www.youtube.com/watch?v=L6gf8Xyt3Ck

Otto Group и Boston Dynamics также заявили, что в ближайшие несколько лет планируют сотрудничать в области исследований и разработок, включая дополнительные варианты использования роботов Spot и Stretch в будущем.

https://robogeek.ru/servisnye-roboty/otto-group-razvernet-park-robotov-spot-i-stretch-ot-boston-dynamics
Инспектирование военных объектов времен холодной войны с помощью робота

В заповеднике Национального фонда в Суффолке, Великобритания компания BAM использовала робота для обследования бывших объектов для испытания оружия времен холодной войны, в том числе ядерного, вход в которые опасен для людей.

Компания BAM в сотрудничестве с Национальным фондом работает над внедрением передовых геодезических технологий на территории исторического объекта с использованием беспилотников и дистанционно управляемого робота Spot, оснащенного лазерным сканером Trimble X7.

Эта работа является первым этапом долгосрочного проекта Национального фонда, в котором участвуют Historic England, BAM и Bartlett School for Sustainable Construction в University College London.

Две лаборатории, известные как "Pagodas" или "Labs 4 & 5", относятся к памятникам архитектуры. Построенные в 1960 г., эти здания были двумя из шести лабораторий времен холодной войны, использовавшихся в качестве испытательных камер для проведения испытаний атомной бомбы. Испытания проводились с целью имитации условий, которым могло подвергнуться оружие перед взрывом, включая вибрацию, перепады температур, удары и т.д.

"Компания BAM рада возможности сотрудничать с Национальным фондом и другими партнерами в развертывании передовой геодезической технологии в Орфорд-Несс. - говорит Колин Эвисон, технический руководитель отдела инноваций компании BAM- Робот идеально подходит для размещения геодезического оборудования внутри и вокруг разрушающихся сооружений, расположенных в экологически уязвимом месте, и эта миссия позволит нам получить ценный опыт и отзывы об использовании геодезической техники, а также обменяться знаниями с Национальным фондом и другими участниками. Мы уверены, что в результате съемки будет создан полный и ценный отчет об этой исторической среде для будущих поколений".

"Проведенное Historic England исследование этих зданий позволило нам понять, насколько они значимы в национальном и международном масштабе... Это одни из немногих зданий времен холодной войны, которые имеют такой монументальный масштаб и могут быть посещены публикой. - говорит Ангус Уэйнрайт, археолог Национального фонда - Раньше здания были достаточно безопасными, и мы могли входить и выходить из них сколько угодно, но теперь, по мере разрушения бетона, это становится все более рискованным. Вот почему мы проводим это исследование таким удаленным способом, не допуская никого в здания. Это экспериментальная работа, чтобы понять, возможно ли провести действительно детальное обследование здания без участия человека".

Национальный фонд приобрел этот объект у Министерства обороны в 1993 г., но до этого никаких обследований зданий не проводилось. Как памятники архитектуры, они имеют такой же статус, как Стоунхендж или курганный некрополь Саттон-Ху. В последние несколько лет лаборатории стали частью политики Национального фонда "контролируемого распада" и были оставлены на произвол природы, в том числе под воздействием открытого прибрежного участка.

https://robogeek.ru/servisnye-roboty/inspektirovanie-voennyh-obektov-vremen-holodnoi-voiny-s-pomoschyu-robota
Безбатарейные роботы используют технику оригами для изменения формы в воздухе

Исследователи из University of Washington (UW) разработали небольшие роботизированные устройства, которые могут меняют способ передвижения по воздуху, изменяя свою форму во время снижения.

Когда эти устройства, названные в пресс-релизе университета "микрофлайеры", сбрасываются с беспилотника, они используют технику оригами Миура-ори, чтобы перейти от хаотичного кувыркания в воздухе к плавному снижению на землю. Для их распределения исследователи контролируют время перехода каждого устройства, используя бортовой датчик давления для оценки высоты, таймер и Bluetooth сигнал.

Микрофлаеры весят около 400 мг и "могут преодолеть расстояние футбольного поля при легком ветре, если их бросить с высоты 40 метров". Каждое устройство имеет встроенный привод, не требующий батареек, энергоаккумулирующую цепь и контроллер для запуска изменения формы в воздухе. Микрофлайеры также способны нести на борту датчики для измерения температуры, влажности и других параметров во время полета.

"Использование оригами открывает новые возможности для проектирования микрофлайеров, - говорит соавтор работы Викрам Айер, доцент Paul G. Allen School of Computer Science & Engineering при UW. - Мы объединили технику Миура-ори с системой сбора энергии и крошечными исполнительными механизмами, что позволило нашим флаерам имитировать полет различных типов листьев в воздухе. В развернутом плоском состоянии наша оригами-конструкция хаотично кувыркается на ветру, подобно листу вяза. Но переход в сложенное состояние изменяет поток воздуха вокруг нее и обеспечивает стабильный спуск, подобно тому, как падает кленовый лист. Этот высокоэнергоэффективный метод позволяет нам управлять спуском микрофлаера без батареек, что ранее было невозможно".

В этих роботизированных системах решены несколько конструктивных задач. Устройства:

- достаточно жесткие, чтобы избежать случайного перехода в сложенное состояние до сигнала;
- быстро переходят из одного состояния в другое. Бортовым исполнительным механизмам устройств требуется всего около 25 мс, чтобы инициировать складывание;
- изменяют форму, не будучи привязанными к источнику питания. Энергоаккумулирующая цепь микрофлаеров использует солнечный свет для подачи энергии на исполнительный механизм.

На текущий момент микрофлайеры могут трансформироваться только в одном направлении - из состояния кувыркания в состояние падения. Это позволяет исследователям управлять падением нескольких устройств одновременно, так что они рассеиваются в разных направлениях по пути вниз. Но по их словам, будущие устройства смогут осуществлять переход в обоих направлениях. Эта дополнительная функциональность позволит более точно приземляться в условиях сильного ветра.

https://www.youtube.com/watch?v=-pE4-DXTsXk

Работа "Solar-powered shape-changing origami microfliers" была вчера опубликована в журнале Science Robotics.

https://robogeek.ru/nauchnye-razrabotki-programmnoe-obespechenie/bezbatareinye-roboty-ispolzuyut-tehniku-origami-dlya-izmeneniya-formy-v-vozduhe