DeepSchool – Telegram
DeepSchool
10.3K subscribers
77 photos
1 video
1 file
432 links
Это канал школы deepschool.ru. Здесь мы будем:
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.

@deepschool_support
Download Telegram
CRAFT

Препарируем динозавра, чтобы лучше понять устройство актуальных моделей.

CRAFT — U-net подобная модель 2019 года, с VGG-16 внутри, которая призвана была решить проблему распознавания «in the wild» текста. В реальной жизни текст может состоять из символов разного шрифта, цвета, ориентации, с разными фонами и искажениями. Поэтому логично пробовать детектировать не целое слово за раз, а отдельные символы и промежутки между ними. Именно эту задачу и решает CRAFT.

Но как получить разметку для таких данных в большом количестве? Какие недостатки у такой модели и почему она не работает в одиночку? На эти и другие вопросы мы ответили в новой статье: https://deepschool-pro.notion.site/CRAFT-afe83ca8925041cea46c287fd3611e7d?pvs=4
🔥18👍105
DeepSchool
🎄 Новогодние скидки 20-25% на наши курсы в преддверии 2025 года! Мы решили сделать вам подарок, которого хватит на весь будущий год! Выбирайте любой из 3 курсов ниже со скидкой -20%, и любой следующий курс от нашей школы будет выгоднее на 25%! Деплой DL…
Поздравляем вас с наступающим новым годом!🎄

И напоминаем про подарки от DeepSchool 🎁
Успейте забронировать самые выгодные условия на следующий год со скидкой до -25%.

Зафиксируйте скидку -20% предоплатой на один из курсов: Деплой DL-сервисов, LLM или Ускорение нейросетей.

Или оплатите полностью одну из программ выше и получите -25% на любой курс школы в следующем году!

Выберите подходящий вариант и программу до 31 декабря, переходите на сайт и записывайтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
🍾1712🔥11👍21
Подкаст «Под Капотом». CV в медицине

Мы приглашаем в подкаст экспертов из различных областей, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы поговорили с Александром Лекомцевым, Team Lead CV Engineer из oxytech.io, и обсудили:

- особенности работы в стартапе, занимающемся медицинским CV
- чем отличается медицинский CV от «обычного»
- сложности разметки данных
- сложно ли найти общий язык с врачами
- настольно-ролевые игры как способ перезагрузиться

Смотрите новый выпуск по ссылке! https://youtu.be/gX8scA7qtfI
👍33🔥178😁2
В чём же считать: fp8, fp32 или fp16

В каких типах данных крутить нейронку, чтобы и память сэкономить, и точность не потерять? Float16, bfloat16, TF32, FP8 — за этими названиями скрываются разные способы оптимизации работы с числами меньшей разрядности.

В новой статье мы разберёмся, как они работают, где их лучше применять, как учить и как инференсить. А ещё — с какими подводными камнями здесь можно столкнуться. Читайте новую статью по ссылке, чтобы ответить на эти вопросы: https://deepschool-pro.notion.site/int-8-fp32-fp16-f8041ec0b26f4627acae49f0ccf1975f?pvs=4

🪔 DeepSchool
Please open Telegram to view this post
VIEW IN TELEGRAM
23🔥19👍9
Детекторы текста на основе трансформеров. Часть 2

Сегодня мы продолжим знакомство с детекторами текста на базе трансформеров.

Такие детекторы совмещают возможности сегментационных и регрессионных моделей, что позволяет повысить точность детектирования при сохранении высокой скорости работы. Однако каждый подход имеет свои недостатки: сегментационные сети обеспечивают высокую точность при сложных формах текста, но их скорости недостаточно, тогда как регрессионные модели быстры, но менее точны для сложных случаев. SRFormer — пример современной архитектуры, которая стремится объединить сильные стороны двух методов.

Также в статье мы рассмотрим MixNet, лидирующий на ключевых бенчмарках за счёт своей уникальной архитектуры. Его бэкбон FSNet перемешивает признаки высокого и низкого разрешения. Это помогает надёжнее детектировать мелкие объекты. Кроме того, трансформерный блок (CTBlock) улучшает выделение текстов, расположенных близко друг к другу, с помощью прогнозирования центральной линии текста.

Читайте новую статью по ссылке, чтобы познакомиться ближе с данными детекторами текста на базе трансформеров: https://deepschool-pro.notion.site/2-e3a3419463b94ae0a81545109799ecde?pvs=4
🔥21👍1271
🎞 Как ускоряют нейросети?

Ускорение нейросетей — важный навык в DL-индустрии: растёт потребность инференса нейросетей на смартфонах и edge-устройствах, а DL-сервисов становится всё больше и нагрузка на эти сервисы растёт. А запустить LLM «как есть», никак не оптимизировав — слишком дорогое удовольствие. Ну и «зачем платить за то, что в 5 раз медленнее, если можно платить за то, что в 10 раз быстрее» 😉

В новом видео Саша Гончаренко, СТО стартапа enot.ai и хэдлайнер нашего курса «Ускорение нейросетей», расскажет «на пальцах» про основные подходы в ускорении нейросетей, их плюсы и минусы, а также немного затронет особенности ускорения LLM.

Смотрите видео на Youtube!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27🔥107
Ускорим инференс трансформера на открытой лекции

Ещё и на ноунейм-плате! 🤯

Всё больше моделей запускаются на конечных устройствах: в телефонах, роботах, колонках, автомобилях, домофонах и т.д. — у всех разные ОС и архитектуры, а значит и свои нюансы инференса моделей. На лекции мы разберём как раз такой случай из практики с кучей нюансов и их решениями!

Советуем прийти, если вы:
— никогда не ускоряли модели
— ускоряли, но не для эдж-девайсов
— ускоряли для эджей и у вас есть вопросы

🗓 30 января, четверг, 18:00 МСК

На лекции расскажем:
① как снизить стоимость инференса на примере автономного автомобиля
② как запустить Vision transformer на плате Texas Instruments
③ о проблемах запуска трансформеров на кастомных платах с NPU
④ про применение прунинга к таким платам

А также представим программу курса Ускорение нейросетей, расскажем про обновления и подарим скидки на обучение!

🙋‍♂️Спикеры лекции:
— Александр Гончаренко — CTO ENOT.аi, хэдлайнер курса Ускорение нейросетей
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer KoronaPay

Регистрируйтесь на лекцию по ссылке!

🎁После регистрации вы получите туториал по использованию TensorRT и OpenVino.

До встречи 30 января в 18:00 МСК!⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍96😁2
DeepSchool
Ускорим инференс трансформера на открытой лекции Ещё и на ноунейм-плате! 🤯 Всё больше моделей запускаются на конечных устройствах: в телефонах, роботах, колонках, автомобилях, домофонах и т.д. — у всех разные ОС и архитектуры, а значит и свои нюансы инференса…
Встречаемся через 2 часа

Сегодня на примере реальной задачи разберём, как запустить трансформер на плате с NPU. Обсудим проблемы, которые с этим связаны, и как их решать!

А также представим обновлённую программу курса Ускорение нейросетей и подарим скидки участникам лекции ⚡️

Вы ещё успеваете зарегистрироваться!
Приходите сегодня в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
9🔥6👍5
Научитесь ускорять нейросети

Если вы хотите повысить свою экспертизу и ценность как DL-инженера, научиться ускорять нейросети, эффективно использовать ресурсы, создавать больше уникальных продуктов и решать сложные задачи — приходите на наш курс Ускорение нейросетей!

Программа состоит из 3 блоков:
1️⃣ База — вы освоите подходы, которые являются общими для большинства задач. Разберётесь с алгоритмами: прунингом, дистилляцией, квантованием, архитектурным поиском. Поймёте устройство девайсов: CPU, GPU, NPU — и научитесь пользоваться фреймворками для каждого.

2️⃣ LLM — изучите популярные и рабочие методы для ускорения небольших и крупных языковых моделей.

3️⃣Device — научитесь запускать нейросети на Android, iOS и микрокомпьютерах с учётом их особенностей.

Вы можете изучить только Базу или дополнительно углубиться в определённый домен — можно выбрать любой подходящий вариант 🧩

⚡️ До 4 февраля вы можете записаться со скидкой!
🗓 Обучение длится 4 месяца, а начнётся 5 февраля.

Весь путь вы пройдёте при поддержке опытных инженеров. Они будут проверять ваши домашние задания и отвечать на вопросы на лекциях, семинарах и в чате.

Успевайте записаться со скидкой до 4 февраля!
Подробнее о программе, тарифах и спикерах читайте на сайте.

Если возникают вопросы или трудности, то пишите нам в поддержку в Телеграм!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍156🔥6
DB: text detection

OCR-решения обычно разбиваются на два этапа: сегментация (детекция) текста и его распознавание. Сегодня мы поговорим о сегментации текста и разберём архитектуру DB (Differentiable Binarization).

Обычно в задаче бинарной сегментации мы получаем матрицу, в которой у каждого пикселя стоит уверенность в том, что он принадлежит классу. Затем нам нужно сделать постпроцессинг, чтобы превратить уверенности в метки 0, 1 (бинаризовать).

Модель DB предложила интегрировать процесс бинаризации в сегментационную сеть. Это позволило упростить архитектуру и устранить необходимость в сложном постпроцессинге. Вместо традиционного подхода, где текстовые области выделяются через множество этапов, DB использует дифференцируемую бинаризацию, которая оптимизируется вместе с обучением модели. Такой подход обеспечивает высокую точность и эффективность.

Кроме того, модель включает адаптивное слияние масштабов (ASF), что позволяет ей справляться с текстами различных размеров и форм. Благодаря своей скорости и точности DB стала часто использоваться для задач обнаружения текста, включая обработку документов, сцен с текстом и мобильные OCR-приложения.

Читайте новую статью по ссылке, чтобы ближе познакомиться с архитектурой и обучением DB: https://deepschool-pro.notion.site/Differentiable-Binarization-DB-text-detection-1da969e72d1245e08ca4ca12eae56417?pvs=4
🔥2015🐳7👍5
Мы стараемся знакомить вас с нашей командой и программами. Например, здесь мы познакомили вас с авторами, а здесь рассказали про историю появления нашей школы.

Но любим не только рассказывать про себя, а и узнавать про вас. Например, тут нам было интересно, из какой вы области, а сегодня хотим узнать, как вы с нами познакомились. Ниже небольшой опрос, буквально на пару секунд:
9🥰4🔥3
Запускаем новый поток курса «Деплой DL-сервисов» 🎉

Программа подходит для DL-инженеров всех грейдов, а также ML-инженеров, которые хотят перейти в DL.

📍Если вы до сих пор обучаете модели только в Jupyter-ноутбуках, то рискуете отстать от индустрии. К 2025 году работодатели ожидают, что DL-инженеры не только учат модели, но и доводят их до пользователей. Для этого нужны инженерные практики, которые позволяют создавать надёжные и поддерживаемые продукты. Этому мы учим на курсе «Деплой DL-сервисов».

Ключевые факты о курсе — в карточках к посту. Подробнее о программе и преподавателях читайте на нашем сайте.

⚡️Записывайтесь в лист ожидания, чтобы первыми узнать о старте продаж и получить лучшие условия на покупку курса.

Если возникают вопросы или трудности, мы на связи: @deepschool_support
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥169
Как на собеседовании рассказать больше, чем знает собеседующий

Таким опытом поделился Александр, выпускник нашего курса Large Language Models.
Отзыв Александра и других наших учеников читайте в карточках!

А новый поток программы по LLM стартует 26 февраля.
20 февраля мы проведём открытую лекцию, на которой пройдёмся по популярным задачам, расскажем основные сложности и варианты их решения. Регистрации откроем в понедельник.

🗓Сегодня — последний день, когда вы можете записаться в лист ожидания.
Для его участников завтра, 15 февраля, мы проведём закрытую презентацию, на которой расскажем о тарифах и подарим скидку на обучение первым участникам.

Места на программу ограничены, поэтому если планировали погрузиться в LLM и научиться использовать их приложениях, то рекомендуем не откладывать на последний момент 😉

Записывайтесь в лист ожидания на сайте и не пропустите открытую лекцию на следующей неделе в четверг!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥149👍8😁2
Что не так с LLM?

— Модели игнорируют инструкции
— Даже большие LLM галлюцинируют
— RAG сходу не работает
— API не так дёшевы, как кажется
— Инференс без оптимизации стоит дорого

И это не все сложности. На Zoom-лекции в четверг разберём другие проблемы и покажем, как с ними справляться на примере реальной задачи. Приходите, чтобы лучше понять LLM и их слабые места!

Также мы представим программу курса LLM, а всем участникам лекции подарим скидки на обучение! 🔥

🙋‍♂️ Обо всём этом расскажут:
— Илья Димов — Senior NLP-инженер
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer, KoronaPay

📆 Четверг, 20 февраля, в 18:00 МСК

Регистрируйтесь по ссылке!
🎁 После регистрации вы получите список полезных инструментов и библиотек для работы с LLM.

И до встречи в четверг!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍76