Forwarded from Нейроинтерфейсы (Sergei Shishkin)
Сотрудничество нейроинтерфейса и робототехники
Подборка 10 Frontiers articles that caught the world’s attention in 2022 в официальном блоге издательства Frontiers оказалась настолько попсовой, что я даже не хочу давать тут ссылку на нее. Но там все же обнаружилась заслуживающая внимания статья, которую мы пропустили.
The approach we describe here is a form of collaborative shared control, in which a subset of the robot DOFs are controllable by the BMI user at select task-specific times, or through mode-switches initiated by the user. The BMI user and robot share the main control loop and the intent is to leverage the limited command signals provided by the BMI to enable the user to customize robot behavior.
The shared control strategy enabled the participant to map his four-DOF control inputs, two per hand, to as many as 12 DOFs for specifying robot end effector position and orientation. Using neurally-driven shared control, the participant successfully and simultaneously controlled movements of both robotic limbs to cut and eat food in a complex bimanual self-feeding task.
Handelman DA, ... Tenore FV. Shared Control of Bimanual Robotic Limbs With a Brain-Machine Interface for Self-Feeding. Front. Neurorobot. 16:918001, 28 June 2022 https://doi.org/10.3389/fnbot.2022.918001
В реализованных еще десять лет назад замечательных питтсбургских интерфейсах с 7 и 10 степенями свободы не хватало как раз этого. Они показали возможность адаптировать корковые нейросети для задач сложного скоординированного детального управления, совершенно не свойственного для них -- обычно кора управляет движениями человека в сотрудничестве со множеством других структур головного мозга -- чего стоит один мозжечок с его гигантским числом нейронов! -- а также со спинным мозгом.
Но именно из-за отсутствия взаимодействия с ними питтсбургская технология, возможно, окажется тупиковой ветвью эволюции интерфейсов мозг-компьютер. За десять лет ее прогресс оказался совсем небольшим, а очень непростой процесс обучения овладению этим фантастическим числом степеней свободы делает технологию недоступной, по-видимому, для большинства потенциальных пользователей.
На одной из конференций по ИМК в Граце я спросил Роберта Ганта, одного из участников питтсбургского проекта, отвечавшего в нем за робототехнику, не собираются ли они попробовать объединить высокоуровневое управление из коры с реализацией низкоуровневых функций робототехническими алгоритмами -- чтобы они хотя бы частично восполнила выключенность из управления внекорковых структур. Он сказал, что да, это очень стоило бы сделать, но пока до этого не доходят руки. Теперь за это дело взялись их конкуренты.
Подборка 10 Frontiers articles that caught the world’s attention in 2022 в официальном блоге издательства Frontiers оказалась настолько попсовой, что я даже не хочу давать тут ссылку на нее. Но там все же обнаружилась заслуживающая внимания статья, которую мы пропустили.
The approach we describe here is a form of collaborative shared control, in which a subset of the robot DOFs are controllable by the BMI user at select task-specific times, or through mode-switches initiated by the user. The BMI user and robot share the main control loop and the intent is to leverage the limited command signals provided by the BMI to enable the user to customize robot behavior.
The shared control strategy enabled the participant to map his four-DOF control inputs, two per hand, to as many as 12 DOFs for specifying robot end effector position and orientation. Using neurally-driven shared control, the participant successfully and simultaneously controlled movements of both robotic limbs to cut and eat food in a complex bimanual self-feeding task.
Handelman DA, ... Tenore FV. Shared Control of Bimanual Robotic Limbs With a Brain-Machine Interface for Self-Feeding. Front. Neurorobot. 16:918001, 28 June 2022 https://doi.org/10.3389/fnbot.2022.918001
В реализованных еще десять лет назад замечательных питтсбургских интерфейсах с 7 и 10 степенями свободы не хватало как раз этого. Они показали возможность адаптировать корковые нейросети для задач сложного скоординированного детального управления, совершенно не свойственного для них -- обычно кора управляет движениями человека в сотрудничестве со множеством других структур головного мозга -- чего стоит один мозжечок с его гигантским числом нейронов! -- а также со спинным мозгом.
Но именно из-за отсутствия взаимодействия с ними питтсбургская технология, возможно, окажется тупиковой ветвью эволюции интерфейсов мозг-компьютер. За десять лет ее прогресс оказался совсем небольшим, а очень непростой процесс обучения овладению этим фантастическим числом степеней свободы делает технологию недоступной, по-видимому, для большинства потенциальных пользователей.
На одной из конференций по ИМК в Граце я спросил Роберта Ганта, одного из участников питтсбургского проекта, отвечавшего в нем за робототехнику, не собираются ли они попробовать объединить высокоуровневое управление из коры с реализацией низкоуровневых функций робототехническими алгоритмами -- чтобы они хотя бы частично восполнила выключенность из управления внекорковых структур. Он сказал, что да, это очень стоило бы сделать, но пока до этого не доходят руки. Теперь за это дело взялись их конкуренты.
Frontiers
Shared Control of Bimanual Robotic Limbs With a Brain-Machine Interface for Self-Feeding
Advances in intelligent robotic systems and brain-machine interfaces (BMI) have helped restore functionality and independence to individuals living with sensorimotor deficits; however, tasks requiring bimanual coordination and fine manipulation continue to…
🔥2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
🔥OpenAI выпустили прототип 3D DALL-E (называется Point-E) для генерации 3D объектов
Point-E еще не так хорош, как DreamFusion от Гугла, но очень шустрый! Генерация занимает примерно 600 раз меньше времени чем в DreamFusion. А еще OpenAI опубликовали код и веса (неужели).
Генерация 2D картинок уже далеко зашла. Теперь и 3D потихоньку подтягивается. Скоро увидим протесты 3D артистов 🌚.
@ai_newz
Point-E еще не так хорош, как DreamFusion от Гугла, но очень шустрый! Генерация занимает примерно 600 раз меньше времени чем в DreamFusion. А еще OpenAI опубликовали код и веса (неужели).
Генерация 2D картинок уже далеко зашла. Теперь и 3D потихоньку подтягивается. Скоро увидим протесты 3D артистов 🌚.
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Яндекс Музыка
Тимур Фатыхов: CV Teamlead. Карьера топ менеджера или свое дело?, ИИ Что Podcast 02 слушать онлайн на Яндекс Музыке
Слушайте на Яндекс Музыке
🔥2🤯1
Forwarded from Dan Okhlopkov - канал
Надеюсь, будет в учебниках истории. Понятно, что картина не полная, но интересно, что еще стоит добавить
🔗 youtu.be/hpLUFQfwYVY
🔗 youtu.be/hpLUFQfwYVY
YouTube
The Entire History of Silicon Valley
Join my community at http://johncoogan.com (enter your email)
SOURCES:
Highly recommend The Power Law: https://www.amazon.com/Power-Law-Venture-Capital-Making/dp/052555999X
ABOUT JOHN COOGAN:
I am the co-founder of http://soylent.com and http://lucy.co…
SOURCES:
Highly recommend The Power Law: https://www.amazon.com/Power-Law-Venture-Capital-Making/dp/052555999X
ABOUT JOHN COOGAN:
I am the co-founder of http://soylent.com and http://lucy.co…
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Для подкастеров и тюберов.
Адобченко натренировал свои сенсейные нейросетки для работы с голосом - улучшение речи заставляет ваши нелепые голосовые записи, сделанные на телефон, звучать так, как будто они были записаны в профессиональной студии.
Ну, за звукорежей!
https://podcast.adobe.com/enhance
Адобченко натренировал свои сенсейные нейросетки для работы с голосом - улучшение речи заставляет ваши нелепые голосовые записи, сделанные на телефон, звучать так, как будто они были записаны в профессиональной студии.
Ну, за звукорежей!
https://podcast.adobe.com/enhance
Adobe
Enhance Speech from Adobe | Free AI filter for cleaning up spoken audio
This AI audio filter improves spoken audio to make it sound like it was recorded in a soundproofed studio.
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Еще в ноябре можно было вырубить электричество - сейчас уже поздно.
chatGPT вышел в поля.
В частности инфобезопасники (и хакеры) активно обсуждают возможности chatGPT для создания вирусов, зловредных скриптов, вымогателей, шифровальщиков и прочей нечисти.
Ибо код всего этого безобразия был в интернетике, на котором учился добрый доктор ИИ.
Вот держите обсуждение того, как на chatGPT можно создавать:
- стилер на основе Python, который ищет распространенные типы файлов, копирует их в случайную папку внутри папки Temp, архивирует их и загружает на жестко заданный FTP-сервер.
- шифровальщики
- скрипты Dark Web Marketplaces для автоматизированной торговли нелегальными или украденными товарами, такими как украденные учетные записи или платежные карты
В общем, если раньше, вам надо было уметь писать код, чтобы хакерствовать, то теперь вам достаточно уметь читать код (и писать текстовые подсказки).
Сценарии Тэгмарка сбываются быстрее, чем мы думали. ИИ познал суть кожаных и теперь может делать с ними все, что угодно. Но пока не хочет. Но некоторые кожаные хотят.
https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt/
chatGPT вышел в поля.
В частности инфобезопасники (и хакеры) активно обсуждают возможности chatGPT для создания вирусов, зловредных скриптов, вымогателей, шифровальщиков и прочей нечисти.
Ибо код всего этого безобразия был в интернетике, на котором учился добрый доктор ИИ.
Вот держите обсуждение того, как на chatGPT можно создавать:
- стилер на основе Python, который ищет распространенные типы файлов, копирует их в случайную папку внутри папки Temp, архивирует их и загружает на жестко заданный FTP-сервер.
- шифровальщики
- скрипты Dark Web Marketplaces для автоматизированной торговли нелегальными или украденными товарами, такими как украденные учетные записи или платежные карты
В общем, если раньше, вам надо было уметь писать код, чтобы хакерствовать, то теперь вам достаточно уметь читать код (и писать текстовые подсказки).
Сценарии Тэгмарка сбываются быстрее, чем мы думали. ИИ познал суть кожаных и теперь может делать с ними все, что угодно. Но пока не хочет. Но некоторые кожаные хотят.
https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt/
Перед новым годом у меня вышел туториал по разметке данных с CVAT и fiftyone на канале Deepschool.
Очень рад поделиться этой статьей с вами!
Очень рад поделиться этой статьей с вами!
Forwarded from DeepSchool
Как ускорить разметку при помощи CVAT и Fiftyone
Задача: разметить тысячи изображений быстро и дешево, чтобы не тратить время на простые кейсы. Решение: предразметить картинки, выбросить мусор и размечать самые полезные. В идеале решить задачу без костылей, чтобы переиспользовать решение в будущих задачах.
В новой статье-туториале вы узнаете как с нуля поднять у себя сервис для разметки CVAT и познакомитесь с Fiftyone — сервисом, который ускорит работу с датасетом.
Рассказываем про сервисы на примере задачи детекции. Читайте подробнее в телеграфе: https://telegra.ph/Razmechaem-dannye-Bystro-nedorogo-12-27
Задача: разметить тысячи изображений быстро и дешево, чтобы не тратить время на простые кейсы. Решение: предразметить картинки, выбросить мусор и размечать самые полезные. В идеале решить задачу без костылей, чтобы переиспользовать решение в будущих задачах.
В новой статье-туториале вы узнаете как с нуля поднять у себя сервис для разметки CVAT и познакомитесь с Fiftyone — сервисом, который ускорит работу с датасетом.
Рассказываем про сервисы на примере задачи детекции. Читайте подробнее в телеграфе: https://telegra.ph/Razmechaem-dannye-Bystro-nedorogo-12-27
Telegraph
Размечаем данные. Быстро, недорого.
Автор: Илья БакалецРедакторы: Марк Страхов, Тимур Фатыхов Представьте ситуацию: подходит к концу спринт, во время которого вы с командой планировали разметить десятки тысяч картинок для обучения новой нейросети (допустим, детектора). Откладывать задачи —…
👍2🍓1
Forwarded from AI для Всех
Какие модели лучше?
Мне часто бывает нужна baseline модель классификации, точность которой будет использоваться как эталон для тестирования своих моделей (например representation learning для downstream задач) или просто предобученная модель, чтобы быстро начать экспериментировать. И каждый раз возникает вопрос, какую архитектуру использовать.
Хочу поделится ноутбуком с наглядным сравнением разных архитектур, где модели оцениваются с точки зрения точности и скорости на наборе данных Imagenet. Это сравнение основано на библиотеке предобученных моделей PyTorch Image Models (timm).
Спойлер: модели семейства LeViT - самые быстрые и самые точные среди самых быстрых. Это неудивительно - они представляют собой гибрид лучших идей CNN и трансформеров. Семейство BEiT самые точные, но и самые медленные (хотя нужно быть осторожным с интерпретацией, т.к. они обучены на большем наборе данных ImageNet-21k).
А моя любимая ResNet18 отстает почти на 10 пунктов от такой же по скорости LeViT-256🐈
📖Ноутбук
👨💻timm
@karray
Мне часто бывает нужна baseline модель классификации, точность которой будет использоваться как эталон для тестирования своих моделей (например representation learning для downstream задач) или просто предобученная модель, чтобы быстро начать экспериментировать. И каждый раз возникает вопрос, какую архитектуру использовать.
Хочу поделится ноутбуком с наглядным сравнением разных архитектур, где модели оцениваются с точки зрения точности и скорости на наборе данных Imagenet. Это сравнение основано на библиотеке предобученных моделей PyTorch Image Models (timm).
Спойлер: модели семейства LeViT - самые быстрые и самые точные среди самых быстрых. Это неудивительно - они представляют собой гибрид лучших идей CNN и трансформеров. Семейство BEiT самые точные, но и самые медленные (хотя нужно быть осторожным с интерпретацией, т.к. они обучены на большем наборе данных ImageNet-21k).
А моя любимая ResNet18 отстает почти на 10 пунктов от такой же по скорости LeViT-256
📖Ноутбук
👨💻timm
@karray
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Rebryk Blog
🤯 Cmd J - ChatGPT shortcut for Chrome
Последнее время я каждый день по много раз использую ChatGPT. В основном, чтобы она исправила мой кривой английский или задую ей глупые вопросы 😆
Но мне надоело постоянно копировать текст из текущей вкладки, переключаться на ChatGPT, вставлять текст, дописывать промпт, получать ответ и копировать его обратно. Хочется же проще это делать!
Поэтому мы с ребятами собрали Cmd J - командная панель, через которую можно дергать ChatGPT на любом сайте. Выделяешь текст, затем ⌘J, выбираешь быстро команду или пишешь свой промпт, а затем жмякаешь ентер, чтобы вставить результат обратно. Красота!
Пока правда вставка работает далеко не на всех сайтах. Кто бы мог подумать, что это оказывается сложная задача!
Пока расширение находится в сторе на ревью, вы можете его установить себе из архивчика. Смотрите первый коммент под постом.
Если приложение будет падать или работать через раз, то это норма, хах. Жалобы и фидбек кидайте мне в личку @rebryk
А если у вас есть на уме очень классные промты, которые вы сами гоняете каждый день, то их тоже присылайте. Самые классные добавим в релиз!
Ну как вам?
Последнее время я каждый день по много раз использую ChatGPT. В основном, чтобы она исправила мой кривой английский или задую ей глупые вопросы 😆
Но мне надоело постоянно копировать текст из текущей вкладки, переключаться на ChatGPT, вставлять текст, дописывать промпт, получать ответ и копировать его обратно. Хочется же проще это делать!
Поэтому мы с ребятами собрали Cmd J - командная панель, через которую можно дергать ChatGPT на любом сайте. Выделяешь текст, затем ⌘J, выбираешь быстро команду или пишешь свой промпт, а затем жмякаешь ентер, чтобы вставить результат обратно. Красота!
Пока правда вставка работает далеко не на всех сайтах. Кто бы мог подумать, что это оказывается сложная задача!
Пока расширение находится в сторе на ревью, вы можете его установить себе из архивчика. Смотрите первый коммент под постом.
Если приложение будет падать или работать через раз, то это норма, хах. Жалобы и фидбек кидайте мне в личку @rebryk
А если у вас есть на уме очень классные промты, которые вы сами гоняете каждый день, то их тоже присылайте. Самые классные добавим в релиз!
Ну как вам?
Forwarded from Love. Death. Transformers.
Hf выпустили годный блог по обучению на одной gpu
blog
blog
huggingface.co
GPU
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Text-To-Video на подходе!
Смотрите, что вытворяют ребятки из Гугла!
На входе референс в виде видео или картинки или даже набора из 10-20 картинок и текстовое описание, что вы хотите сотворить с этим референсами, под какую дудку вы хотите заставить их плясать.
ИИ извлекает из референсов "смыслы" и потом анимирует их в соответствии с тем, что вы насочиняли в текстовом промпте.
И это вам не дефорумный бурлеж, это гладкое видео. Оцените примеры с животными.
Посмотрите полное видео - это прототип вселенской монтажки, где вы просто орете на свои картинки-референсы: "а ну ка, поддали эмоций в кадре и весело побежали в закат!".
И все бегут...
https://www.youtube.com/watch?v=xcvnHhfDSGM
Не зря авторы именуют проект Video Editing Tool
А картиночки-то на входе можно генерить с помощью ИИ. И персонажей, и фоны...
Скрипач не нужен, куда катится мир!
Полная информация тут: https://dreamix-video-editing.github.io/
Спасибо за утреннюю наводку CGIT_Vines.
Смотрите, что вытворяют ребятки из Гугла!
На входе референс в виде видео или картинки или даже набора из 10-20 картинок и текстовое описание, что вы хотите сотворить с этим референсами, под какую дудку вы хотите заставить их плясать.
ИИ извлекает из референсов "смыслы" и потом анимирует их в соответствии с тем, что вы насочиняли в текстовом промпте.
И это вам не дефорумный бурлеж, это гладкое видео. Оцените примеры с животными.
Посмотрите полное видео - это прототип вселенской монтажки, где вы просто орете на свои картинки-референсы: "а ну ка, поддали эмоций в кадре и весело побежали в закат!".
И все бегут...
https://www.youtube.com/watch?v=xcvnHhfDSGM
Не зря авторы именуют проект Video Editing Tool
А картиночки-то на входе можно генерить с помощью ИИ. И персонажей, и фоны...
Скрипач не нужен, куда катится мир!
Полная информация тут: https://dreamix-video-editing.github.io/
Спасибо за утреннюю наводку CGIT_Vines.
👍1🔥1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Микрософт бахнула новый Бинг!
Гугль нервно закуривает овальные сигареты.
Ибо.
В новом браузере Edge новый поиск Bing работает на обновленном chatGPT, который теперь зовется Прометей - Microsoft заявила, что это более мощная языковая модель, чем GPT 3.5, которая лучше отвечает на поисковые запросы, предоставляет более актуальную информацию(дообучена на данных после 2021) и умеет в аннотированные ответы.
В демонстрационном ролике поисковая система даже смогла ответить на вопросы о своем собственном запуске, ссылаясь на новости, опубликованные за последний час(!)
Микрософт заявляет, что новый Bing будет запущен сегодня «для ограниченного предварительного просмотра», и пользователи смогут попробовать ограниченное количество запросов и зарегистрироваться для получения полного доступа в будущем. Вайтлист в общем.
Также Микрософт показала то, что она называет «новым Bing», работающим в различных конфигурациях. Один из них показывает традиционные результаты поиска рядом с аннотациями AI (вверху), а другой режим позволяет пользователям напрямую общаться с чат-ботом Bing, задавая ему вопросы в обычном интерфейсе чата, таком как ChatGPT (внизу).
В дополнение к новому интерфейсу Bing Микрософт запускает две новые функции с улучшенным ИИ для своего браузера Edge: «чат» и «compose». Они будут встроены в боковую панель Edge.
«Чат» позволяет пользователям обобщать веб-страницу или документ, который они просматривают, и задавать вопросы о его содержании, а «compose» действует как помощник по письму; помогая генерировать текст — от электронных писем до постов в социальных сетях — на основе нескольких стартовых подсказок.
Вот не зря Микрософт вонзали миллиарды в OpenAI....
Поэтому Гугль вчера истошно взорал про своего нового бота Бард. Который пока в теории..
https://www.theverge.com/2023/2/7/23587454/microsoft-bing-edge-chatgpt-ai
Гугль нервно закуривает овальные сигареты.
Ибо.
В новом браузере Edge новый поиск Bing работает на обновленном chatGPT, который теперь зовется Прометей - Microsoft заявила, что это более мощная языковая модель, чем GPT 3.5, которая лучше отвечает на поисковые запросы, предоставляет более актуальную информацию(дообучена на данных после 2021) и умеет в аннотированные ответы.
В демонстрационном ролике поисковая система даже смогла ответить на вопросы о своем собственном запуске, ссылаясь на новости, опубликованные за последний час(!)
Микрософт заявляет, что новый Bing будет запущен сегодня «для ограниченного предварительного просмотра», и пользователи смогут попробовать ограниченное количество запросов и зарегистрироваться для получения полного доступа в будущем. Вайтлист в общем.
Также Микрософт показала то, что она называет «новым Bing», работающим в различных конфигурациях. Один из них показывает традиционные результаты поиска рядом с аннотациями AI (вверху), а другой режим позволяет пользователям напрямую общаться с чат-ботом Bing, задавая ему вопросы в обычном интерфейсе чата, таком как ChatGPT (внизу).
В дополнение к новому интерфейсу Bing Микрософт запускает две новые функции с улучшенным ИИ для своего браузера Edge: «чат» и «compose». Они будут встроены в боковую панель Edge.
«Чат» позволяет пользователям обобщать веб-страницу или документ, который они просматривают, и задавать вопросы о его содержании, а «compose» действует как помощник по письму; помогая генерировать текст — от электронных писем до постов в социальных сетях — на основе нескольких стартовых подсказок.
Вот не зря Микрософт вонзали миллиарды в OpenAI....
Поэтому Гугль вчера истошно взорал про своего нового бота Бард. Который пока в теории..
https://www.theverge.com/2023/2/7/23587454/microsoft-bing-edge-chatgpt-ai
😱1
Сегодня вышла еще одна моя статья. Спасибо ребятам из DeepSchool)
Forwarded from DeepSchool
Unet
Кажется, первое слово, которое ассоциируется с сегментацией у большинства инженеров и ресерчеров – Unet. Возможно, у кого-то уже сложилась похожая ассоциация и с диффузионными моделями. Ведь в них также используются U-образные архитектуры.
Поэтому про Unet важно знать и можно вспоминать 🙂 Мы разобрали архитектуру 2015 года, а также соотнесли ее с современным положением дел. А именно рассказали:
- какая идея кроется за Unet;
- какие решения были до этой архитектуры;
- какие идеи в статье уже не актуальны;
- что можно использовать в качестве upsampling;
- и как можно улучшить результат Unet.
Читайте, чтобы освежить знания и узнать новое: https://deepschool-pro.notion.site/Unet-bf1d734f847e4bfd8d8c795cdfa6bbc6
Кажется, первое слово, которое ассоциируется с сегментацией у большинства инженеров и ресерчеров – Unet. Возможно, у кого-то уже сложилась похожая ассоциация и с диффузионными моделями. Ведь в них также используются U-образные архитектуры.
Поэтому про Unet важно знать и можно вспоминать 🙂 Мы разобрали архитектуру 2015 года, а также соотнесли ее с современным положением дел. А именно рассказали:
- какая идея кроется за Unet;
- какие решения были до этой архитектуры;
- какие идеи в статье уже не актуальны;
- что можно использовать в качестве upsampling;
- и как можно улучшить результат Unet.
Читайте, чтобы освежить знания и узнать новое: https://deepschool-pro.notion.site/Unet-bf1d734f847e4bfd8d8c795cdfa6bbc6
deepschool-pro on Notion
Unet | Notion
Автор: Илья Бакалец
🔥3
Я рад сообщить, что на канале DeepSchool вышла моя новая статья! В то же время я работаю над новым выпуском подкаста.
🔥2
Forwarded from DeepSchool
CVAT SDK PyTorch Adapter
Если вам надоело вручную выгружать задания от разметчиков и объединять их для загрузки на сервер, то эта статья для вас.
В новом материале обсудим:
- как загрузить данные из CVAT напрямую в torch.utils.data.Dataset;
- советы при работе с CVAT PyTorch SDK;
- недостатки SDK на данный момент.
Читайте новую статью по ссылке, чтобы готовить датасеты быстрее: https://deepschool-pro.notion.site/CVAT-SDK-PyTorch-Adapter-e223563927454322a8d56076e59b8b17
Если вам надоело вручную выгружать задания от разметчиков и объединять их для загрузки на сервер, то эта статья для вас.
В новом материале обсудим:
- как загрузить данные из CVAT напрямую в torch.utils.data.Dataset;
- советы при работе с CVAT PyTorch SDK;
- недостатки SDK на данный момент.
Читайте новую статью по ссылке, чтобы готовить датасеты быстрее: https://deepschool-pro.notion.site/CVAT-SDK-PyTorch-Adapter-e223563927454322a8d56076e59b8b17
👍3🔥2