DeepSchool – Telegram
DeepSchool
10.3K subscribers
77 photos
1 video
1 file
433 links
Это канал школы deepschool.ru. Здесь мы будем:
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.

@deepschool_support
Download Telegram
Apprise

Очень часто нам нужно оперативно получать информацию о том, что происходит с сервером, программой или пайплайном. Но смотреть дашборды 24/7 — занятие, которое приносит мало удовольствия. В то же время, все мы ежедневно пользуемся мессенджерами и электронной почтой.

Для решения этой проблемы на помощь приходит Apprise — универсальная библиотека для отправки уведомлений. С его помощью вы сможете быстро и удобно настроить доставку сообщений в любые привычные сервисы — от Telegram и Slack до электронной почты и SMS. Установка и настройка занимают минимум времени — достаточно добавить несколько строк кода. В новой статье мы подробно расскажем, как это можно сделать и интегрировать уведомления в ваш проект: https://deepschool-pro.notion.site/Apprise-1ab640e53434803391b9d2a46b6f9295?pvs=4
🔥16👍94😍2🤔1
🚀 Научитесь создавать и деплоить DL-сервисы

Многие DL-инженеры знают, как готовить модели: выбрать архитектуру, лосс, на какие гиперпараметры обращать внимание и так далее. Но лишь малая часть использует инженерные практики при тренировке моделей или знает, как довести их до пользователей. Чтобы освоить эти инструменты, приходите на курс «Деплой DL-сервисов»! Старт 19 марта.

🔹Обучение подойдёт для DL-инженеров всех грейдов.

🔹После каждой лекции вас ждет домашнее задание для отработки новых знаний на практике. А в конце курса — проект, где можно применить все полученные навыки.

🔹Весь путь вы пройдёте при поддержке преподавателей: опытные инженеры будут ревьюить ваш код, отвечать на вопросы во время лекций, на дополнительных Q&A-сессиях и в чате.

⚡️До 18 марта для подписчиков DeepSchool действует скидка 5%!

Подробнее о программе, спикерах, стоимости читайте на сайте.

Если возникают вопросы, пишите нам в поддержку в Телеграм!
🔥11👍8🤩4👏1
DeepSchool Digest

Вместе с командой авторов продолжаем готовить для вас новые материалы. Например, уже скоро обсудим интеграцию нейросетей в продакшн и фреймворки сервинга. А пока собрали подборку материалов, которые вышли с начала этого года, чтобы вы не упустили ничего интересного👇

✔️Подкаст «Под Капотом». CV в медицине
Обсудили с Александром Лекомцевым, Team Lead CV Engineer из oxytech.io, чем отличается медицинский CV от «обычного», сложности разметки данных, как найти общий язык с врачами и многое другое про CV в медицине.

✔️В чём же считать: fp8, fp32 или fp16
В каких типах данных крутить нейронку, чтобы сэкономить память и не потерять точность? В этой статье разобрались, как они работают, где их лучше применять, как учить, инференсить и с какими подводными камнями здесь можно столкнуться.

✔️Детекторы текста на основе трансформеров. Часть 2
Продолжаем знакомить вас с детекторами текста на основе трансформеров. В статье также рассматриваем MixNet, который лидирует в бенчмарках.

✔️Как ускоряют нейросети?
В этом видео Саша Гончаренко, СТО стартапа enot.ai и хэдлайнер нашего курса «Ускорение нейросетей», рассказывает про основные подходы в ускорении нейросетей, их плюсы и минусы, а также затрагивает особенности ускорения LLM.

✔️DB: text detection
Здесь мы поговорили о сегментации текста и разобрали архитектуру DB (Differentiable Binarization).

✔️RAG, или лучший друг достоверных генеративных ответов
Как собирать поиск, что делать с генератором и за счет чего улучшать качество вашего бейзлайн-решения? В этой статье мы разобрали подход Retrieval Augmented Generation (RAG), в рамках которого ответ на пользовательский запрос генерируется с опорой на внешние документы.

✔️MoH: Multi-Head Attention as Mixture-of-Head Attention
Mixture-of-Head Attention — апдейт архитектуры Multi-Head Attention, направленный на ускорение без потери точности. О её значимых улучшениях читайте в материале по ссылке⬆️
Please open Telegram to view this post
VIEW IN TELEGRAM
16🔥11👍9🤩6👏1
Внедряем модель в production c использованием model-serving фреймворков

Обучить нейросеть — часто лишь вершина айсберга. Ценность от модели появляется тогда, когда она начинает обслуживать реальных пользователей (при условии, что пользователи довольны и платят 😉). В этом посте мы поговорим о процессе внедрения нейронных сетей, а также о фреймворках сервинга — инструментах, которые значительно его упрощают.

Мы узнаем:
- какие аспекты нужно учитывать при проектировании приложения с DL-моделью
- какие подходы можно использовать для эффективной обработки запросов к приложению
- чем нам могут быть полезны model-serving фреймворки и из каких компонентов они состоят
- как настроить и интегрировать Triton Inference Server

Читайте новую статью по ссылке: https://blog.deepschool.ru/architecture/vnedryaem-model-c-ispolzovaniem-model-serving-frejmvorkov/

🪔 DeepSchool
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20🤩127👏3👍1
📍Собрали в карточках цитаты из отзывов участников первого потока курса «Деплой DL-сервисов»

Новый поток программы стартует уже 19 марта! ⚡️
До 18 марта для всех подписчиков канала действует скидка 5%.

Полный текст отзывов, подробную информацию о курсе смотрите на нашем сайте!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍118😁1
Почему DL-инженерам важно перенимать практики разработчиков в свои ML-пайплайны

В видео сооснователь школы DeepSchool Тимур Фатыхов за 5 минут проходит по чек-листу актуальных инструментов и практик, которые помогают довести модель до пользователей, и рассказывает, как этому учат на курсе «Деплой DL-сервисов».

Смотрите по ссылке!

⚡️Следующий поток курса стартует 19 марта.
Присоединяйтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥138👍3🤩2👏1
Мы запустили свой блог! 🎉

Теперь нет проблем с доступом из РФ, как в Notion, и все статьи собраны на одной странице. Можно найти нужные темы по рубрикам и авторам, а ещё — поддержать авторов, поставив лайки понравившимся статьям!

📌 Добавляйте страницу в закладки, чтобы всегда иметь под рукой нужные материалы и следить за новыми публикациями.

⚠️ Блог пока в бета-версии, и при переносе могли появиться ошибки. Если заметили баг — пишите нам в @deepschool_support! Тому, кто найдёт больше всех ошибок на этой неделе, отправим большую пиццу! 🍕

А новая статья уже ждёт вас внутри блога 👇
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2310👍6😍2🤔1
End-to-End модели OCR

В серии статей по OCR мы уже познакомились со всеми вводными, CRAFT’ом, детекторами текста на основе трансформеров (раз и два), Differentiable Binarization и CLIP4STR.

У традиционных многостадийных решений OCR бывает непросто уследить за всем зоопарком моделей, датасетов и постпроцессингов, которые они порождают. А при несущественном (на первый взгляд) изменении формулировки задачи может потребоваться весь этот зоопарк реализовать заново.

В новой статье мы рассмотрим End-to-End методы анализа документов и расскажем, как можно решать различные задачи OCR с помощью всего лишь одной модели. В обзоре мы рассмотрим такие модели, как Dessurt, Donut и OmniParser, и поймём, почему иногда специализированную модель применять лучше, чем универсальную VLM.

Читайте статью в нашем блоге по ссылке!

🪔 DeepSchool
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1610😍5👍1
🔥 Ищем практикующего DL-инженера на роль главного редактора канала!

Простыми словами, главный редактор управляет генерацией идей для контента и даёт последний апрув на публикацию материала.

Если подробнее, главред отвечает на вопросы:
— какую тему из предложенных лучше выбрать для публикации?
— как рассказать в блоге про определённый курс школы?
— что будет интересно и полезно написать по теме Х?
— доступно ли написан текст для читателей канала?
— какие новые форматы и рубрики можно ввести?

Что мы даём:
— доступ ко всем курсам школы
— добавим в сообщество школы, где проводим литклубы и другие встречи со спикерами и выпускниками
— ежемесячный оклад
— свободный график, нагрузка 4-6 часов в неделю

Что ожидаем от вас:
— умение писать простым языком о сложных вещах
— готовность писать статьи в блог и посты в телеграм
— широкие познания в DL: быть знакомым с различными DL-задачами и их решениями
— опыт в индустрии от 4 лет
— желание создавать понятный и полезный контент

⚠️ Опыт в роли главреда совершенно не важен! Важны только желание создавать контент и опыт в DL. Создатели школы передадут стиль и подход к созданию материала и будут поддерживать во всех вопросах на старте!

Если вы тоже хотите учить людей через блог, который рекомендуют в индустрии, заполните, пожалуйста, анкету!
Please open Telegram to view this post
VIEW IN TELEGRAM
19🔥12👍10
Стартовал 2 поток курса «Деплой DL-сервисов» 🚀

На этой неделе мы провели вводную встречу, на которой студенты нового потока познакомились друг с другом. А уже 25 марта ребят ждёт первая лекция по настройке репозитория🔥

Если вам тоже интересно научиться создавать и деплоить DL-сервисы и стать частью коммьюнити, которое объединяет опытных и начинающих специалистов из разных компаний и стран, то до первой лекции ещё можете присоединиться к курсу!

Узнать подробнее о программе и оплатить курс можно по ссылке!
🔥168👍8👏1😁1
Продвинутый Computer Vision

В базовых туториалах редко акцентируются на том, что сплошь и рядом встречается в реальных задачах: специфичные корнер-кейсы, шумные данные, трёхэтажные постпроцессинги и прочее.

Мы создали курс CV Rocket для практикующих CV-инженеров, чтобы показать инженерный взгляд на Computer Vision и помочь вам решать трудные задачи! На программе мы разберём большинство задач компьютерного зрения, погрузимся в сложные случаи, возможные проблемы с данными и интересные корнер-кейсы, вы узнаете лучшие практики и поймёте «а как же правильно».

Обучение начинается 13 мая!

Скоро мы будем знакомить вас с необычными задачами из Computer Vision и рассказывать подробнее про курс.

А сейчас изучайте программу и записывайтесь в лист ожидания!
Мы свяжемся, когда начнём собирать группу, расскажем о тарифах и подарим скидки на обучение первым участникам.
5🔥19👍9👏542😁2🤔2
Ускорение диффузионных моделей за счёт кэширования

При генерации диффузионными моделями мы много раз вызываем достаточно большую модель. Это делает процесс генерации очень долгим в сравнении с теми же GAN'ами, поэтому важно ускорять диффузионки.

Ускорить их можно двумя способами:
1. уменьшить количество шагов генерации
2. ускорить каждый шаг генерации

О втором методе мы и поговорим в новой статье. В ней мы рассмотрим две работы: DeepCache и Cache Me if You Can — в которых предлагают кэшировать часть фичей декодера UNet. Статьи вышли примерно в одно время, но в них есть различия, которые мы также обсудим.

Подробнее читайте по ссылке!

🪔 DeepSchool
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2310😍6👍21
✉️ Ответим на ваши вопросы!

Мы готовим материалы с разбором проблем DL-инженеров в рабочих проектах и хотим узнать, какие темы для вас интереснее всего!

Напишите, какие у вас есть вопросы по текущим задачам или в чём давно хотите разобраться, а мы выберем самые популярные темы и подготовим по ним статьи, видео и лекции!

Собираем идеи до 7 апреля включительно.
Оставляйте свои предложения в комментариях к посту или заполняйте форму.
Please open Telegram to view this post
VIEW IN TELEGRAM
12🔥7😍6😁1
Как перейти от простого обучения моделей к созданию полноценных NLP-систем?

Вы обучили свою LLM, построили эмбеддер или воспользовались API, но:
— RAG-решение галлюцинирует и не выдерживает нагрузку
— AI-агент не справляется с реальными сценариями
— Эмбеддинги плохо работают на специфичном домене
— Классификация и поиск дают нестабильные результаты
— Качество модели со временем падает

Эти проблемы — не редкость. Обучение модели — это только часть решения. Чтобы запустить рабочую NLP-систему, нужно уметь адаптировать её под домен и ограничения.

Мы готовим новый курс LLM Pro, на котором разберём, как строить системы, которые работают в реальном мире:
🔹 Соберём свою RAG-модель: от ретривера и реранкера до генерации ответов и оценки качества
🔹 Построим AI-агента, который сможет выполнять сложные сценарии
🔹 Настроим BERT и эмбеддинги под домен
🔹 Решим задачи классификации, поиска, кластеризации и NER с учётом ограничений

Это продвинутый курс для тех, кто хочет научиться строить надёжные NLP-решения!

🚀 Обучение стартует 22 мая!
📢 Записывайтесь в лист ожидания, чтобы первыми узнать подробности о курсе и получить лучшие условия на обучение.
1🔥25👍95👏1😁1
Как избежать хаоса в разметке данных и улучшить качество ML-моделей

Модель — вершина айсберга при построении качественного DL-решения. Почти всегда залог успеха — большое количество хорошо размеченных данных. И наоборот: даже самая сложная архитектура не спасёт, если данные размечены с большим количеством ошибок.
Плавающие инструкции, непроверенные аннотации, пограничные случаи и «интуитивная» логика разметчиков — всё это снижает точность и надёжность ML-систем.

В новой статье мы поговорим о том, как навести порядок в разметке:
📌 что такое Data-Centric AI и зачем он нужен
📌 какие ошибки чаще всего встречаются в разметке
📌 как организовать процесс, чтобы не переделывать потом весь датасет
📌 почему даже «простая» инструкция требует версионирования, онбординга и метрик

Читайте статью по ссылке!
7🔥2512😍6👍3🙏2😁1
YOLO history. Part 7

Продолжаем разбор моделей из семейства YOLO 😉

2024 год, похоже, стал рекордным по количеству релизов: сразу четыре новые модели пополнили семейство YOLO. Чтобы за ними успеть, сегодня мы разберём сразу две архитектуры: YOLOv7 и YOLOv9. Обе они разработаны авторами YOLOv4, но при этом демонстрируют разные подходы к архитектуре и обучению.

В этой статье мы узнаем:

- что общего между 7-ой и 9-ой версиями и чем они отличаются от 4-ой
- чем отличаются аббревиатуры ELAN, E-ELAN и GELAN
- зачем нужны вспомогательные модели и как их можно использовать для ускорения обучения

Читайте новую статью по ссылке!
🔥3011😍7👏41
DeepSchool Digest⚡️

Уже по традиции: собрали все материалы за прошедший месяц в одном посте⤵️

✔️ Внедряем модель c использованием model-serving фреймворков, NVIDIA Triton и Torchserve — рассказываем о процессе внедрения нейронных сетей и фреймворках сервинга — инструментах, которые помогают его упростить.

✔️ End-to-End модели OCR — знакомим с End-to-End решениями — решениями задачи детекции, распознавания и извлечения ключевой информации всего лишь одной моделью.

✔️ Ускорение диффузионных моделей за счёт кэширования — рассматриваем ещё одну парадигму ускорения диффузионных моделей — ускорение самого шага сэмплирования. В этом обзоре разбираем две работы про кэширование при сэмплировании для свёрточных диффузионных моделей.

✔️ Как избежать хаоса в разметке данных и улучшить качество ML-моделей — разбираем, как можно избежать хаоса в разметке данных, и почему это влияет на качество ML-моделей.

✔️ YOLO history. Part 7 — продолжаем разбор моделей из семейства YOLO. В этой статье разобрали сразу две архитектуры: YOLOv7 и YOLOv9.
Please open Telegram to view this post
VIEW IN TELEGRAM
22👍17🔥15👏1😁1
Score Distillation Sampling в задаче text-to-3D

Диффузионные модели активно используются в задачах генерации 2D, будь то изображения или видео. Современные text-to-image модели обучались на огромном корпусе данных и в результате научились генерировать разнообразные картинки высокого качества. Однако как применить диффузионные модели в 3D?

Одно из возможных решений этой проблемы — метод, предложенный в работе DreamFusion — Score Distillation Sampling. Авторы предлагают использовать знания, которые есть в предобученной text-to-image модели для обучения 3D генератора.

В новом посте разберём основную идею метода, а также, в каких ещё задачах применяется такой подход. Рассмотрим интуицию, а также математику идеи и посмотрим, какие результаты можно получить.

Читайте по ссылке!

🪔 DeepSchool
Please open Telegram to view this post
VIEW IN TELEGRAM
20🔥14👍4😍2