Подкаст «Под Капотом». CV в медицине
Мы приглашаем в подкаст экспертов из различных областей, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы поговорили с Александром Лекомцевым, Team Lead CV Engineer из oxytech.io, и обсудили:
- особенности работы в стартапе, занимающемся медицинским CV
- чем отличается медицинский CV от «обычного»
- сложности разметки данных
- сложно ли найти общий язык с врачами
- настольно-ролевые игры как способ перезагрузиться
Смотрите новый выпуск по ссылке! https://youtu.be/gX8scA7qtfI
Мы приглашаем в подкаст экспертов из различных областей, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы поговорили с Александром Лекомцевым, Team Lead CV Engineer из oxytech.io, и обсудили:
- особенности работы в стартапе, занимающемся медицинским CV
- чем отличается медицинский CV от «обычного»
- сложности разметки данных
- сложно ли найти общий язык с врачами
- настольно-ролевые игры как способ перезагрузиться
Смотрите новый выпуск по ссылке! https://youtu.be/gX8scA7qtfI
YouTube
CV в медицине. Александр Лекомцев | Под Капотом
Записывайтесь на курс по 3D CV: https://deepschool.ru/3dcv?utm_source=yt&utm_content=medicineCV
Мы приглашаем в подкаст экспертов из различных областей, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы поговорили с Александром Лекомцевым…
Мы приглашаем в подкаст экспертов из различных областей, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы поговорили с Александром Лекомцевым…
👍33🔥17❤8😁2
В чём же считать: fp8, fp32 или fp16
В каких типах данных крутить нейронку, чтобы и память сэкономить, и точность не потерять? Float16, bfloat16, TF32, FP8 — за этими названиями скрываются разные способы оптимизации работы с числами меньшей разрядности.
В новой статье мы разберёмся, как они работают, где их лучше применять, как учить и как инференсить. А ещё — с какими подводными камнями здесь можно столкнуться. Читайте новую статью по ссылке, чтобы ответить на эти вопросы: https://deepschool-pro.notion.site/int-8-fp32-fp16-f8041ec0b26f4627acae49f0ccf1975f?pvs=4
🪔 DeepSchool
В каких типах данных крутить нейронку, чтобы и память сэкономить, и точность не потерять? Float16, bfloat16, TF32, FP8 — за этими названиями скрываются разные способы оптимизации работы с числами меньшей разрядности.
В новой статье мы разберёмся, как они работают, где их лучше применять, как учить и как инференсить. А ещё — с какими подводными камнями здесь можно столкнуться. Читайте новую статью по ссылке, чтобы ответить на эти вопросы: https://deepschool-pro.notion.site/int-8-fp32-fp16-f8041ec0b26f4627acae49f0ccf1975f?pvs=4
Please open Telegram to view this post
VIEW IN TELEGRAM
deepschool-pro on Notion
В чём же считать: fp8, fp32 или fp16 | Notion
Автор: Дмитрий Чудаков
❤23🔥19👍9
Детекторы текста на основе трансформеров. Часть 2
Сегодня мы продолжим знакомство с детекторами текста на базе трансформеров.
Такие детекторы совмещают возможности сегментационных и регрессионных моделей, что позволяет повысить точность детектирования при сохранении высокой скорости работы. Однако каждый подход имеет свои недостатки: сегментационные сети обеспечивают высокую точность при сложных формах текста, но их скорости недостаточно, тогда как регрессионные модели быстры, но менее точны для сложных случаев. SRFormer — пример современной архитектуры, которая стремится объединить сильные стороны двух методов.
Также в статье мы рассмотрим MixNet, лидирующий на ключевых бенчмарках за счёт своей уникальной архитектуры. Его бэкбон FSNet перемешивает признаки высокого и низкого разрешения. Это помогает надёжнее детектировать мелкие объекты. Кроме того, трансформерный блок (CTBlock) улучшает выделение текстов, расположенных близко друг к другу, с помощью прогнозирования центральной линии текста.
Читайте новую статью по ссылке, чтобы познакомиться ближе с данными детекторами текста на базе трансформеров: https://deepschool-pro.notion.site/2-e3a3419463b94ae0a81545109799ecde?pvs=4
Сегодня мы продолжим знакомство с детекторами текста на базе трансформеров.
Такие детекторы совмещают возможности сегментационных и регрессионных моделей, что позволяет повысить точность детектирования при сохранении высокой скорости работы. Однако каждый подход имеет свои недостатки: сегментационные сети обеспечивают высокую точность при сложных формах текста, но их скорости недостаточно, тогда как регрессионные модели быстры, но менее точны для сложных случаев. SRFormer — пример современной архитектуры, которая стремится объединить сильные стороны двух методов.
Также в статье мы рассмотрим MixNet, лидирующий на ключевых бенчмарках за счёт своей уникальной архитектуры. Его бэкбон FSNet перемешивает признаки высокого и низкого разрешения. Это помогает надёжнее детектировать мелкие объекты. Кроме того, трансформерный блок (CTBlock) улучшает выделение текстов, расположенных близко друг к другу, с помощью прогнозирования центральной линии текста.
Читайте новую статью по ссылке, чтобы познакомиться ближе с данными детекторами текста на базе трансформеров: https://deepschool-pro.notion.site/2-e3a3419463b94ae0a81545109799ecde?pvs=4
deepschool-pro on Notion
Детекторы текста на основе трансформеров. Часть 2 | Notion
Автор: Булат Бадамшин
🔥21👍12❤7⚡1
Ускорение нейросетей — важный навык в DL-индустрии: растёт потребность инференса нейросетей на смартфонах и edge-устройствах, а DL-сервисов становится всё больше и нагрузка на эти сервисы растёт. А запустить LLM «как есть», никак не оптимизировав — слишком дорогое удовольствие. Ну и «зачем платить за то, что в 5 раз медленнее, если можно платить за то, что в 10 раз быстрее» 😉
В новом видео Саша Гончаренко, СТО стартапа enot.ai и хэдлайнер нашего курса «Ускорение нейросетей», расскажет «на пальцах» про основные подходы в ускорении нейросетей, их плюсы и минусы, а также немного затронет особенности ускорения LLM.
Смотрите видео на Youtube!
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Как ускоряют нейросети?
Присоединяйтесь к курсу «Ускорение нейросетей»: https://deepschool.ru/speedup?utm_source=yt&utm_content=startspeedup
Ускорение нейросетей — важный навык в DL-индустрии: растёт потребность инференса нейросетей на смартфонах и edge-устройствах, а DL-сервисов…
Ускорение нейросетей — важный навык в DL-индустрии: растёт потребность инференса нейросетей на смартфонах и edge-устройствах, а DL-сервисов…
👍27🔥10❤7
Ускорим инференс трансформера на открытой лекции
Ещё и на ноунейм-плате!🤯
Всё больше моделей запускаются на конечных устройствах: в телефонах, роботах, колонках, автомобилях, домофонах и т.д. — у всех разные ОС и архитектуры, а значит и свои нюансы инференса моделей. На лекции мы разберём как раз такой случай из практики с кучей нюансов и их решениями!
Советуем прийти, если вы:
— никогда не ускоряли модели
— ускоряли, но не для эдж-девайсов
— ускоряли для эджей и у вас есть вопросы
🗓 30 января, четверг, 18:00 МСК
На лекции расскажем:
① как снизить стоимость инференса на примере автономного автомобиля
② как запустить Vision transformer на плате Texas Instruments
③ о проблемах запуска трансформеров на кастомных платах с NPU
④ про применение прунинга к таким платам
А также представим программу курса Ускорение нейросетей, расскажем про обновления и подарим скидки на обучение!
🙋♂️Спикеры лекции:
— Александр Гончаренко — CTO ENOT.аi, хэдлайнер курса Ускорение нейросетей
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer KoronaPay
Регистрируйтесь на лекцию по ссылке!
🎁 После регистрации вы получите туториал по использованию TensorRT и OpenVino.
До встречи 30 января в 18:00 МСК!⚡️
Ещё и на ноунейм-плате!
Всё больше моделей запускаются на конечных устройствах: в телефонах, роботах, колонках, автомобилях, домофонах и т.д. — у всех разные ОС и архитектуры, а значит и свои нюансы инференса моделей. На лекции мы разберём как раз такой случай из практики с кучей нюансов и их решениями!
Советуем прийти, если вы:
— никогда не ускоряли модели
— ускоряли, но не для эдж-девайсов
— ускоряли для эджей и у вас есть вопросы
На лекции расскажем:
① как снизить стоимость инференса на примере автономного автомобиля
② как запустить Vision transformer на плате Texas Instruments
③ о проблемах запуска трансформеров на кастомных платах с NPU
④ про применение прунинга к таким платам
А также представим программу курса Ускорение нейросетей, расскажем про обновления и подарим скидки на обучение!
🙋♂️Спикеры лекции:
— Александр Гончаренко — CTO ENOT.аi, хэдлайнер курса Ускорение нейросетей
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer KoronaPay
Регистрируйтесь на лекцию по ссылке!
До встречи 30 января в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍9❤6😁2
DeepSchool
Ускорим инференс трансформера на открытой лекции Ещё и на ноунейм-плате! 🤯 Всё больше моделей запускаются на конечных устройствах: в телефонах, роботах, колонках, автомобилях, домофонах и т.д. — у всех разные ОС и архитектуры, а значит и свои нюансы инференса…
Сегодня на примере реальной задачи разберём, как запустить трансформер на плате с NPU. Обсудим проблемы, которые с этим связаны, и как их решать!
А также представим обновлённую программу курса Ускорение нейросетей и подарим скидки участникам лекции
Вы ещё успеваете зарегистрироваться!
Приходите сегодня в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥6👍5
Научитесь ускорять нейросети
Если вы хотите повысить свою экспертизу и ценность как DL-инженера, научиться ускорять нейросети, эффективно использовать ресурсы, создавать больше уникальных продуктов и решать сложные задачи — приходите на наш курс Ускорение нейросетей!
Программа состоит из 3 блоков:
1️⃣ База — вы освоите подходы, которые являются общими для большинства задач. Разберётесь с алгоритмами: прунингом, дистилляцией, квантованием, архитектурным поиском. Поймёте устройство девайсов: CPU, GPU, NPU — и научитесь пользоваться фреймворками для каждого.
2️⃣ LLM — изучите популярные и рабочие методы для ускорения небольших и крупных языковых моделей.
3️⃣ Device — научитесь запускать нейросети на Android, iOS и микрокомпьютерах с учётом их особенностей.
Вы можете изучить только Базу или дополнительно углубиться в определённый домен — можно выбрать любой подходящий вариант 🧩
⚡️ До 4 февраля вы можете записаться со скидкой!
🗓 Обучение длится 4 месяца, а начнётся 5 февраля.
Весь путь вы пройдёте при поддержке опытных инженеров. Они будут проверять ваши домашние задания и отвечать на вопросы на лекциях, семинарах и в чате.
Успевайте записаться со скидкой до 4 февраля!
Подробнее о программе, тарифах и спикерах читайте на сайте.
Если возникают вопросы или трудности, то пишите нам в поддержку в Телеграм!
Если вы хотите повысить свою экспертизу и ценность как DL-инженера, научиться ускорять нейросети, эффективно использовать ресурсы, создавать больше уникальных продуктов и решать сложные задачи — приходите на наш курс Ускорение нейросетей!
Программа состоит из 3 блоков:
Вы можете изучить только Базу или дополнительно углубиться в определённый домен — можно выбрать любой подходящий вариант 🧩
Весь путь вы пройдёте при поддержке опытных инженеров. Они будут проверять ваши домашние задания и отвечать на вопросы на лекциях, семинарах и в чате.
Успевайте записаться со скидкой до 4 февраля!
Подробнее о программе, тарифах и спикерах читайте на сайте.
Если возникают вопросы или трудности, то пишите нам в поддержку в Телеграм!
Please open Telegram to view this post
VIEW IN TELEGRAM
deepschool.ru
DeepSchool — Ускорение нейросетей
Поймёте теорию, узнаете про основные сложности и отточите знания на практике
👍15❤6🔥6
DB: text detection
OCR-решения обычно разбиваются на два этапа: сегментация (детекция) текста и его распознавание. Сегодня мы поговорим о сегментации текста и разберём архитектуру DB (Differentiable Binarization).
Обычно в задаче бинарной сегментации мы получаем матрицу, в которой у каждого пикселя стоит уверенность в том, что он принадлежит классу. Затем нам нужно сделать постпроцессинг, чтобы превратить уверенности в метки 0, 1 (бинаризовать).
Модель DB предложила интегрировать процесс бинаризации в сегментационную сеть. Это позволило упростить архитектуру и устранить необходимость в сложном постпроцессинге. Вместо традиционного подхода, где текстовые области выделяются через множество этапов, DB использует дифференцируемую бинаризацию, которая оптимизируется вместе с обучением модели. Такой подход обеспечивает высокую точность и эффективность.
Кроме того, модель включает адаптивное слияние масштабов (ASF), что позволяет ей справляться с текстами различных размеров и форм. Благодаря своей скорости и точности DB стала часто использоваться для задач обнаружения текста, включая обработку документов, сцен с текстом и мобильные OCR-приложения.
Читайте новую статью по ссылке, чтобы ближе познакомиться с архитектурой и обучением DB: https://deepschool-pro.notion.site/Differentiable-Binarization-DB-text-detection-1da969e72d1245e08ca4ca12eae56417?pvs=4
OCR-решения обычно разбиваются на два этапа: сегментация (детекция) текста и его распознавание. Сегодня мы поговорим о сегментации текста и разберём архитектуру DB (Differentiable Binarization).
Обычно в задаче бинарной сегментации мы получаем матрицу, в которой у каждого пикселя стоит уверенность в том, что он принадлежит классу. Затем нам нужно сделать постпроцессинг, чтобы превратить уверенности в метки 0, 1 (бинаризовать).
Модель DB предложила интегрировать процесс бинаризации в сегментационную сеть. Это позволило упростить архитектуру и устранить необходимость в сложном постпроцессинге. Вместо традиционного подхода, где текстовые области выделяются через множество этапов, DB использует дифференцируемую бинаризацию, которая оптимизируется вместе с обучением модели. Такой подход обеспечивает высокую точность и эффективность.
Кроме того, модель включает адаптивное слияние масштабов (ASF), что позволяет ей справляться с текстами различных размеров и форм. Благодаря своей скорости и точности DB стала часто использоваться для задач обнаружения текста, включая обработку документов, сцен с текстом и мобильные OCR-приложения.
Читайте новую статью по ссылке, чтобы ближе познакомиться с архитектурой и обучением DB: https://deepschool-pro.notion.site/Differentiable-Binarization-DB-text-detection-1da969e72d1245e08ca4ca12eae56417?pvs=4
deepschool-pro on Notion
Differentiable Binarization (DB): text detection | Notion
Автор: Герман Петров
🔥20❤15🐳7👍5
Мы стараемся знакомить вас с нашей командой и программами. Например, здесь мы познакомили вас с авторами, а здесь рассказали про историю появления нашей школы.
Но любим не только рассказывать про себя, а и узнавать про вас. Например, тут нам было интересно, из какой вы области, а сегодня хотим узнать, как вы с нами познакомились. Ниже небольшой опрос, буквально на пару секунд:
Но любим не только рассказывать про себя, а и узнавать про вас. Например, тут нам было интересно, из какой вы области, а сегодня хотим узнать, как вы с нами познакомились. Ниже небольшой опрос, буквально на пару секунд:
❤9🥰4🔥3
Как вы стали подписчиком ТГ-канала DeepSchool?
Anonymous Poll
16%
Я выпускник DeepSchool
13%
Планирую пойти на курс DeepSchool, поэтому слежу за новостями
17%
Порекомендовали в другом ТГ-канале
4%
Попалась реклама TG ads
10%
Посоветовали знакомые
18%
Самостоятельно ищу каналы по этой теме
21%
Не помню
2%
Другой вариант (пишите в комментариях к посту)
❤1
Запускаем новый поток курса «Деплой DL-сервисов» 🎉
Программа подходит для DL-инженеров всех грейдов, а также ML-инженеров, которые хотят перейти в DL.
📍 Если вы до сих пор обучаете модели только в Jupyter-ноутбуках, то рискуете отстать от индустрии. К 2025 году работодатели ожидают, что DL-инженеры не только учат модели, но и доводят их до пользователей. Для этого нужны инженерные практики, которые позволяют создавать надёжные и поддерживаемые продукты. Этому мы учим на курсе «Деплой DL-сервисов».
Ключевые факты о курсе — в карточках к посту. Подробнее о программе и преподавателях читайте на нашем сайте.
⚡️Записывайтесь в лист ожидания, чтобы первыми узнать о старте продаж и получить лучшие условия на покупку курса.
Если возникают вопросы или трудности, мы на связи: @deepschool_support
Программа подходит для DL-инженеров всех грейдов, а также ML-инженеров, которые хотят перейти в DL.
Ключевые факты о курсе — в карточках к посту. Подробнее о программе и преподавателях читайте на нашем сайте.
⚡️Записывайтесь в лист ожидания, чтобы первыми узнать о старте продаж и получить лучшие условия на покупку курса.
Если возникают вопросы или трудности, мы на связи: @deepschool_support
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥16❤9
Как на собеседовании рассказать больше, чем знает собеседующий❓
Таким опытом поделился Александр, выпускник нашего курса Large Language Models.
Отзыв Александра и других наших учеников читайте в карточках!
А новый поток программы по LLM стартует 26 февраля.
20 февраля мы проведём открытую лекцию, на которой пройдёмся по популярным задачам, расскажем основные сложности и варианты их решения. Регистрации откроем в понедельник.
🗓 Сегодня — последний день, когда вы можете записаться в лист ожидания.
Для его участников завтра, 15 февраля, мы проведём закрытую презентацию, на которой расскажем о тарифах и подарим скидку на обучение первым участникам.
Места на программу ограничены, поэтому если планировали погрузиться в LLM и научиться использовать их приложениях, то рекомендуем не откладывать на последний момент 😉
Записывайтесь в лист ожидания на сайте и не пропустите открытую лекцию на следующей неделе в четверг!
Таким опытом поделился Александр, выпускник нашего курса Large Language Models.
Отзыв Александра и других наших учеников читайте в карточках!
А новый поток программы по LLM стартует 26 февраля.
20 февраля мы проведём открытую лекцию, на которой пройдёмся по популярным задачам, расскажем основные сложности и варианты их решения. Регистрации откроем в понедельник.
Для его участников завтра, 15 февраля, мы проведём закрытую презентацию, на которой расскажем о тарифах и подарим скидку на обучение первым участникам.
Места на программу ограничены, поэтому если планировали погрузиться в LLM и научиться использовать их приложениях, то рекомендуем не откладывать на последний момент 😉
Записывайтесь в лист ожидания на сайте и не пропустите открытую лекцию на следующей неделе в четверг!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤9👍8😁2
Что не так с LLM?
— Модели игнорируют инструкции
— Даже большие LLM галлюцинируют
— RAG сходу не работает
— API не так дёшевы, как кажется
— Инференс без оптимизации стоит дорого
И это не все сложности. На Zoom-лекции в четверг разберём другие проблемы и покажем, как с ними справляться на примере реальной задачи. Приходите, чтобы лучше понять LLM и их слабые места!
Также мы представим программу курса LLM, а всем участникам лекции подарим скидки на обучение!🔥
🙋♂️ Обо всём этом расскажут:
— Илья Димов — Senior NLP-инженер
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer, KoronaPay
📆 Четверг, 20 февраля, в 18:00 МСК
Регистрируйтесь по ссылке!
🎁 После регистрации вы получите список полезных инструментов и библиотек для работы с LLM.
И до встречи в четверг!
— Модели игнорируют инструкции
— Даже большие LLM галлюцинируют
— RAG сходу не работает
— API не так дёшевы, как кажется
— Инференс без оптимизации стоит дорого
И это не все сложности. На Zoom-лекции в четверг разберём другие проблемы и покажем, как с ними справляться на примере реальной задачи. Приходите, чтобы лучше понять LLM и их слабые места!
Также мы представим программу курса LLM, а всем участникам лекции подарим скидки на обучение!
🙋♂️ Обо всём этом расскажут:
— Илья Димов — Senior NLP-инженер
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer, KoronaPay
Регистрируйтесь по ссылке!
И до встречи в четверг!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍7❤6
RAG, или лучший друг достоверных генеративных ответов
Современные LLM хорошо справляются с большим количеством пользовательских задач, однако знания этих моделей ограничены данными, на которых они обучались. Существует широкий набор задач, в которых при генерации ответа необходимо опираться на свежую или специализированную информацию.
Для их решения можно использовать подход Retrieval Augmented Generation (RAG), в рамках которого ответ на пользовательский запрос генерируется с опорой на внешние документы. Создайте хороший поисковый пайплайн, обучите качественный генератор — и такой гибрид позволит вам создавать гораздо более достоверные, актуальные и полные ответы.
Про то, как собирать поиск, что делать с генератором и за счет чего улучшать качество вашего бейзлайн-решения — читайте в нашей новой статье: https://deepschool-pro.notion.site/RAG-19f640e534348041837ad7be10a0ab00?pvs=4
Современные LLM хорошо справляются с большим количеством пользовательских задач, однако знания этих моделей ограничены данными, на которых они обучались. Существует широкий набор задач, в которых при генерации ответа необходимо опираться на свежую или специализированную информацию.
Для их решения можно использовать подход Retrieval Augmented Generation (RAG), в рамках которого ответ на пользовательский запрос генерируется с опорой на внешние документы. Создайте хороший поисковый пайплайн, обучите качественный генератор — и такой гибрид позволит вам создавать гораздо более достоверные, актуальные и полные ответы.
Про то, как собирать поиск, что делать с генератором и за счет чего улучшать качество вашего бейзлайн-решения — читайте в нашей новой статье: https://deepschool-pro.notion.site/RAG-19f640e534348041837ad7be10a0ab00?pvs=4
deepschool-pro on Notion
RAG, или лучший друг достоверных генеративных ответов | Notion
Автор: Дмитрий Калашников
❤20👍11🔥9🤩2
DeepSchool
Что не так с LLM? — Модели игнорируют инструкции — Даже большие LLM галлюцинируют — RAG сходу не работает — API не так дёшевы, как кажется — Инференс без оптимизации стоит дорого И это не все сложности. На Zoom-лекции в четверг разберём другие проблемы…
Сегодня на примере реальной задачи будем разбираться в слабых местах LLM и как их обходить!
И в конце представим программу курса LLM
Участники лекции смогут занять место на программе на выгодных условиях!
Успевайте зарегистрироваться! И приходите сегодня в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥5❤4😁1