DeepSchool – Telegram
DeepSchool
10.6K subscribers
82 photos
1 video
1 file
449 links
Это канал школы deepschool.ru. Здесь мы будем:
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.

@deepschool_support
Download Telegram
🎄 Двойная выгода в честь Нового Года

Запланируйте обучение в DeepSchool на следующий год с выгодой до 26%!

В январе мы планируем повышение цен, но сейчас можно успеть забронировать место по старым ценам и с новогодней скидкой!

Выбирайте 1 из вариантов:
1️⃣ внести предоплату и зафиксировать скидку 20% на один курс, который стартует в 2026 году
2️⃣ или зафиксировать место предоплатой сразу на два курса, чтобы получить скидку 20% на первый и 26% на второй

В акции участвуют программы:
DLOps (ранее «Деплой DL-сервисов») — как создавать и деплоить DL-сервисы. Старт 28 января
LLM — полный цикл работы с LLM для ML/DL-инженеров. Старт 19 февраля
CV Rocket — как решать сложные задачи в Computer Vision. Старт 10 марта
LLM Pro — как проектировать и запускать сложные NLP-системы. Старт 1 апреля
LLM Start — вход в LLM и автоматизацию для разработчиков и IT-специалистов без опыта в ML/DL. Старт 3 февраля

Успевайте внести предоплату до повышения цен и окончания скидок!

⬅️Предоплату можно будет вернуть в полном размере в любой момент — вы ничем не рискуете, но можете зафиксировать за собой выгодные условия.

Переходите на сайт, выбирайте программу и присоединяйтесь к обучению в новом году!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥148👍4🍾2
Практические советы по работе с Docker

Docker — часть современного стека разработчика, поэтому важно уметь им пользоваться эффективно. В предыдущей статье рассказывали, как ускорить сборку и уменьшить размер Docker-образов.
В новой статье собрали больше практических советов по работе с Docker 🐳

Читайте новую статью по ссылке 🧑‍💻
💡Best practices по работе с docker и другими инструментами разработки рассказываем на курсе «Деплой DL-сервисов», который стартует в январе!

🪔 DeepSchool
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥1510🐳6👍3🤝2
Если не успели сделать подарок

Напоминаем, что у нас есть специальные новогодние предложения и сегодня — последний день, когда ими можно воспользоваться 🔔

Вы можете выбрать один из вариантов:
1️⃣ внести предоплату и зафиксировать скидку 20% на один курс, который стартует в 2026 году
2️⃣ или зафиксировать место предоплатой сразу на два курса, чтобы получить скидку 20% на первый и 26% на второй

В акции участвуют все наши основные программы:
- DLOps (раньше Деплой DL-сервисов) — как создавать и деплоить DL-сервисы. Старт 28 января
- LLM — полный цикл работы с LLM для ML/DL-инженеров. Старт 19 февраля
- CV Rocket — как решать сложные задачи в Computer Vision. Старт 10 марта
- LLM Pro — как проектировать и запускать сложные NLP-системы. Старт 1 апреля
- LLM Start — вход в LLM и автоматизацию для разработчиков и IT-специалистов без опыта в ML/DL. Старт 3 февраля

С этого года цены на программы подрастут, а сейчас вы можете забронировать за собой место по условиям 2025 года и со скидкой.

Если давно откладывали обучение или не могли совпасть с потоком, то это хорошая возможность вернуться к этому вопросу 🎄

Выбирайте программу на сайте, изучайте подробности и записывайтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
12🔥6🍾4
Приходите на обновлённый курс по деплою

Мы обновили программу курса «DLOps», который раньше назывался «Деплой DL-сервисов».

В программу добавили две новые лекции про Kubernetes: за них вы освоите основы k8s, которые нужны разработчику, и задеплоите своё демо-приложение с моделью при помощи Helm.

При этом «DLOps» остаётся курсом про то, как ML/DL-инженеру писать поддерживаемый код вне Jupyter-ноутбуков, оборачивать модели в сервисы, версионировать эксперименты и данные, настраивать CI/CD и автоматизировать рутину.

Вы освоите инженерные практики, которые позволяют отвечать за полный жизненный цикл модели, а не передавать её «дальше по цепочке»

🗓 DLOps стартует 28 января
Если оставите заявку до 18 января, то сможете присоединиться со скидкой 20%! 🔥

Переходите на сайт, изучайте программу и записывайтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
15🔥11👍8🤝1
How to: уменьшить Docker-образ

Docker помогает разработчику сохранить время и нервные клетки — упростить деплой приложения и сделать окружение воспроизводимым. В течение проекта большинство инженеров, работающих с Docker, сталкиваются с проблемой роста размера образа и времени его сборки.

В новом видео показываем, как уменьшить размер Docker-образа и ускорить его сборку.

Смотрите по ссылке: https://youtu.be/QwOI46dF1rw 👀

Практики из видео — часть инженерного подхода, которому мы учим на курсе «DLOps»: от написания сервисов и их контейнеризации до CI/CD, мониторинга и поддержки ML-сервисов.

Старт 28 января. Оставьте заявку до 18 января, чтобы записаться со скидкой 20%! ⚡️
13👍8🔥7🐳2😍1
Инструменты для деплоя DL-моделей

DL-инженеру уже недостаточно учить модели в Jupyter-тетрадках, чтобы соответствовать запросам индустрии. Важно уметь доводить их до пользователей. В этот четверг на открытой онлайн-лекции мы покажем, как выглядит путь модели после обучения!

На лекции вы узнаете:

- когда стоит использовать Jupyter-ноутбуки, а когда нет
- как подготовить репозиторий моделинга
- варианты конвертации модели
- как обернуть инференс в http-приложение
- чем помогает Model Serving
- как деплоят приложения и автоматизируют этот процесс

А в конце представим курс «DLOps». Это программа про то, как ML/DL-инженеру писать поддерживаемый код вне Jupyter-ноутбуков, оборачивать модели в сервисы, версионировать эксперименты и данные, настраивать CI/CD и автоматизировать рутину. Всем участникам лекции подарим скидки на обучение!🔥

🙋‍♂️Спикеры лекции:

— Дмитрий Раков — руководитель ML в НИИАС, делает perception-алгоритмы для беспилотных поездов

— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer KoronaPay

Дата и время: 22 января, чт, 18:00 МСК

Регистрируйтесь по ссылке и до встречи в четверг вечером!
Please open Telegram to view this post
VIEW IN TELEGRAM
15👍7🔥5🐳3🤝2
Алгоритмы подбора гиперпараметров для моделей

Настройка гиперпараметров — надёжный метод повысить метрики обучаемой модели. Для этой задачи разработано множество алгоритмов, каждый из которых использует свою стратегию поиска гиперпараметров. О нескольких популярных алгоритмах сегодня и расскажем.🕵🏻‍♂️

В новой статье:
- напоминаем базу — принцип работы алгоритмов Grid Search и Random Search
- рассказываем, как улучшить Random Search при помощи Sobol/Halton sequences
- разбираем два основных алгоритма из Optuna: Tree-structured Parzen Estimator (TPE) и Covariance Matrix Adaptation Evolution Strategy (CMA-ES)

А ещё в конце статьи оставили таблицу-шпаргалку со сценариями использования разобранных алгоритмов.

Читайте новую статью по ссылке!👈

🪔 DeepSchool
Please open Telegram to view this post
VIEW IN TELEGRAM
321🔥10👍5🐳5🤝1
Осталось 3 часа до лекции по DLOps!

Сегодня Дмитрий Раков и Тимур Фатыхов покажут, как выглядит путь модели после обучения!

На лекции вы узнаете:
- когда стоит использовать Jupyter-ноутбуки, а когда нет
- как подготовить репозиторий моделинга
- варианты конвертации модели
- как обернуть инференс в http-приложение
- чем помогает Model Serving
- как деплоят приложения и автоматизируют этот процесс

А в конце представим курс «DLOps» и подарим скидки на обучение

Регистрируйтесь и приходите сегодня в 18:00 МСК!
🔥127👍6
Научитесь создавать и деплоить DL-сервисы

Вчера на лекции мы представили новый поток курса «DLOps» и приглашаем на него вас!
Мы обновили программу и добавили две новые лекции про Kubernetes: вы освоите основы k8s, которые нужны разработчику, и задеплоите своё демо-приложение с моделью при помощи Helm.

Кроме этого на курсе вы научитесь:
писать код для обучения моделей «по фэншую»
конвертировать модели в JIT и ONNX
версионировать данные, эксперименты и модели
автоматизировать рутину и быть уверенным в своём коде
писать веб-сервисы на FastAPI
собирать приложения с помощью Docker
сервить модели с NVIDIA Triton
тестировать веб-сервисы и подменять зависимости при помощи DI
настраивать CI/CD и деплоить веб-сервисы на удалённые машины «по кнопке» при помощи ansible и k8s
мониторить веб-приложения при помощи Prometheus и Grafana

После каждой лекции вас ждет домашнее задание, а в конце курса — проект, где можно применить все полученные навыки.

На протяжении всего обучения вас будут поддерживать опытные инженеры: ревьюить ваш код, отвечать на вопросы во время лекций, на Q&A-сессиях и в чате.

🚀 Курс стартует 28 января, а до 27 января вы можете записаться со скидкой 5%!

Изучайте подробности о программе и спикерах и присоединяйтесь к обучению.

Если возникают вопросы, пишите нам в поддержку в Телеграм!
11🔥6👍5🐳1👻1🤝1
Как устроены LLM и как с ними работать

19 февраля стартует новый поток нашего курса по LLM для ML/DL-инженеров, программы про полный цикл работы с большими языковыми моделями.

Если хотите разобраться, как устроены современные LLM, как их обучать, запускать и оптимизировать — записывайтесь на обучение!

Вы разберётесь в теории, научитесь дообучению, элайменту, построению RAG, агентских систем и инференсу LLM.

Запишитесь в лист ожидания до 8 февраля, чтобы первыми занять место и получить скидки до 20%.
Изучайте подробности о программе и спикерах и оставляйте заявку на новый поток!

По всем вопросам пишите нам в поддержку @deepschool_support
9👍3🔥3
Агенты vs чат-боты

Технологии вокруг LLM развиваются быстро, и некоторые термины могут вызывать путаницу, как, например, «агенты» и «чат-боты».
В новой статье рассказываем, чем отличаются эти понятия, как устроена архитектура агента и как он работает.

Читайте новую статью по ссылке!

Разобраться с агентами и LLM можно на нашем курсе, который стартует 19 февраля. Запишитесь в лист ожидания до 8 февраля, чтобы первыми занять место и получить скидки до 20% 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
116👍7🔥6
DeepSchool Digest

Первый дайджест в 2026 году! 🎄

ClearML Agent: обучение модели в Google Colab — рассказали о компоненте ClearML Agent фреймворка ClearML, который позволяет отправлять задачи в очередь и исполнять их на удалённых машинах

Ruff: современный и быстрый linter + formatter для Python — пример внедрения в проект линтера, написанного на Rust

Практические советы по работе с Docker — собрали советы по работе Docker от практикующих инженеров.

How to: уменьшить Docker-образ — показали на практике, как уменьшить размер Docker-образа и ускорить его сборку

Алгоритмы подбора гиперпараметров для моделей — разобрали несколько алгоритмов подбора гиперпараметров: от базовых Grid Search и Random Search, до продвинутых Tree-structured Parzen Estimator и Covariance Matrix Adaptation Evolution Strategy

Агенты vs чат-боты — рассказали, чем отличаются эти понятия, как устроена архитектура агента и как он работает.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26👍109🤝1
FlashAttention v1

Хотя пиковая вычислительная мощность современных GPU измеряется триллионами FLOPS, на практике производительность на многих задачах глубокого обучения ограничивается скоростью доступа к памяти.

На GPU есть иерархия памяти: регистры и shared memory (SRAM) очень быстрые, но их объём крайне мал (менее 0.1% от объёма VRAM), глобальная память (VRAM) — объёмная, но значительно медленнее. Эффективность алгоритма на GPU определяется тем, насколько успешно он минимизирует обращения к VRAM, удерживая промежуточные данные в SRAM.

Во многих стандартных реализациях нейросетевых операций вычисления оказываются memory-bound, классический пример — attention в трансформерах.

Проблема базового attention


Scaled Dot-Product Attention вычисляется по формуле 1 (см. картинку). На практике это означает явное вычисление и хранение матрицы QKᵀ размером n x n.

При росте длины последовательности это приводит к квадратичному росту памяти и обращений к медленной VRAM-памяти. Attention остаётся memory-bound даже при использовании библиотеки cuBLAS. Масштабирование по длине контекста упирается не в вычисления, а в пропускную способность памяти.

Идея FlashAttention

FlashAttention ускоряет вычисление attention без изменения самой формулы расчёта. Ключевая идея — не хранить матрицу QKᵀ целиком в глобальной памяти.

Это достигается за счёт двух техник: тайлинга и онлайн-Softmax.

Тайлинг (Tiling)

Алгоритм разбивает все входные матрицы Q,K,V на блоки, которые поочередно загружаются в быструю SRAM. 

Каждый блок запросов Q по очереди сопоставляется с блоками K и V. Для каждого такого сочетания прямо в SRAM вычисляется фрагмент внимания, который сразу агрегируется в итоговый результат. Таким образом, не нужно ждать обхода всей последовательности или сохранять промежуточную матрицу QKᵀ. Финальный attention заполняется постепенно теми данными, которые в данный момент лежат в быстрой памяти.

Подробнее про математику tiling-механизма можно прочитать по ссылке.

Онлайн-Softmax

Тайлинг в flashattention был бы не так эффективен без онлайн-Softmax. В стандартной реализации для вычисления весов внимания используется формула 2 (см. картинку).

По формуле знаменатель представляет собой сумму экспонент по строке длиной N. В классической реализации attention это создает проблему: даже используя тайлинг вычисления, необходимы результаты всех блоков Q,K,V для расчёта Softmax. Это вынуждает снова возвращаться к проблеме сохранения матриц целиком в VRAM.

Онлайн-Softmax решает проблему, позволяя обновлять знаменатель и нормализовывать результат по мере подгрузки новых блоков в SRAM, вычисляя результат инкрементально. При обработке каждого нового блока в SRAM алгоритм «на лету» обновляет:

• текущий максимум строки;
• нормализующую сумму экспонент (знаменатель формулы);
• промежуточный результат O — если в новом блоке нашёлся максимум больше предыдущего, алгоритм пересчитывает уже накопленный результат.

Это позволяет получить результат, полностью эквивалентный классическому Softmax, при этом матрица QKᵀ вообще не покидает пределов SRAM.

Итог

FlashAttention показал, что существенное ускорение трансформеров возможно за счёт переосмысления вычислений под архитектуру GPU. Алгоритм снижает потребление памяти с квадратичной до линейной, уменьшает число обращений к медленной памяти VRAM и переводит вычисление attention из memory-bound в compute-bound проблему, когда скорость вычислений ограничена скоростью работы GPU.

Про ускорение LLM, дообучение и их деплой рассказываем на курсе LLM. Запишитесь в лист ожидания до 8 февраля, чтобы первыми занять место и получить скидки до 20% 🔥


Автор: Антон Наумов

🪔 DeepSchool
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥3415👍15👏2
Карта LLM: как выбирать модели, проверять качество и улучшать результаты

В этот четверг, 12 февраля, мы проведём открытую лекцию, на которой ответим на популярные вопросы по LLM. Чем отличаются модели? Надо ли доучивать модель? Хостить или ходить по API? На что можно рассчитывать при построении агента или RAG-системы? Почему у кого-то работают RAG и агенты, а кто-то в них разочаровался?

За полтора часа дадим актуальный срез индустрии вокруг LLM:
— актуальные модели и их свойства
— бенчмарки
— self-host VS API
— типы задач
— главные «болячки» ванильных решений
— и актуальные советы по их лечению

Спикер — Дмитрий Калашников, NLP Team Lead в Яндексе🔥

В конце расскажем про курс «LLM», где объясняем теорию LLM, учим дообучению, элайменту, построению RAG, агентских-систем и деплою — всё под кураторством опытных инженеров.

Всем участникам лекции мы подарим скидки на обучение 🎁

📅 Встречаемся в четверг, 12 февраля в 19:00 МСК!

Регистрируйтесь по ссылке и приходите на лекцию!
Please open Telegram to view this post
VIEW IN TELEGRAM
15🔥6👍4❤‍🔥2
Мок-интервью по компьютерному зрению

Проходить собеседования в DS — отдельный навык, который надо тренировать. Один из вариантов подготовки к ним — просмотр/прохождение мок-интервью.
В новом видео записали мок-интервью на позицию CV-инженера, где решили задачу по применению CV для анализа предметов искусства 🖼

В интервью разобрали:
- подходы ко сбору данных и разметке
- возможный pipeline, corner cases и потенциальные улучшения
- оценку качества предложенного решения и его компонентов

А в конце кандидат получил развёрнутый фидбек по каждому из этапов

Смотрите видео по ссылке! 👀

Приходите на наш курс CV Rocket, если хотите научиться решать сложные задачи компьютерного зрения. Ближайший поток стартует 10 марта, а до 1 марта вы можете присоединиться со скидкой до 20%!
Изучайте подробности на сайте и записывайтесь в лист ожидания!


🪔 DeepSchool
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23👍76
Осталось 3 часа до лекции по LLM

Сегодня с Дмитрием Калашниковым разберёмся в актуальных моделях и их свойствах, типах задач, главных проблемах и их решениях!

На лекции вы узнаете:
— какие модели сейчас лучше выбрать и чем они отличаются
— как сравнить модели с помощью бенчмарков
— какие есть варианты применения: self-host против API, стоимость и ресурсы, основные провайдеры
— для каких задач LLM применяются в продуктах и какой уровень качества реально можно ожидать
— главные «болячки» ванильных решений и актуальные советы по их лечению

А ещё расскажем про курс «LLM», где вы узнаете, как устроены современные LLM, как их обучать, запускать и оптимизировать — всё под кураторством опытных инженеров. Всем участникам лекции мы подарим скидки на обучение 🎁

🕕 Регистрируйтесь и приходите сегодня в 19:00 МСК
❤‍🔥6👍5🔥3
Закройте все вопросы по LLM

Как устроены современные LLM, как они обучаются, как с ними работать, как избежать типичных проблем при решении реальных задач — об этом и не только на нашем курсе по большим языковым моделям.

Вы разберётесь в теории, научитесь дообучению, элайменту, построению RAG, агентских систем и инференсу LLM.
Приходите, чтобы научиться использовать LLM правильно!

Обучение ведут опытные инженеры из разных доменов, компаний и стран, которые создавали нагруженные сервисы и популярные библиотеки. Вы будете встречаться раз в неделю на онлайн-лекциях, где сможете сразу задавать вопросы. Плюс QA-сессии, поддержка в чате и проверка домашних заданий с развёрнутым фидбеком.

🔔 Старт 19 февраля, а до 18 февраля действует скидка 5%!

Изучайте подробности о программе и спикерах и записывайтесь на новый поток на сайте!
Там же можете посмотреть отзывы, наши выпускники поделились, как у них прошло обучение.

Если остались вопросы или сомневаетесь, подходит ли вам эта программа — пишите в поддержку @deepschool_support
👍9🔥65❤‍🔥1
Повышение качества датасетов в CV-проектах

Качество, количество и состав обучающих данных влияют как на итоговые метрики ML-моделей, так и на скорость/стоимость обучения. Чтобы повысить качество датасета, часто требуется фильтрация сэмплов — удаление шума, дубликатов, нерелевантных или плохо размеченных примеров. В новой статье приводим краткий обзор методов фильтрации неподходящих сэмплов и оптимизации распределения сэмплов в датасете.

В статье рассмотрим:
- базовые эвристики
- продвинутые техники на основе CLIP и VLM
- способы сократить затраты на обучение при росте метрик

Читайте новую статью по ссылке👈

Как готовить качественные датасеты и обучать модели для задач CV рассказываем на нашем курсе CV Rocket.
Ближайший поток стартует 10 марта, а до 1 марта вы можете присоединиться со скидкой до 20%! Изучайте подробности на сайте и записывайтесь в лист ожидания!
👍148🔥8
Погрузитесь в продвинутый Computer Vision

Если вы практикующий CV-инженер и хотите закрыть пробелы в знаниях, разобрать сложные задачи и узнать про подходы и best practices, то приходите на ближайший поток Computer Vision Rocket!

На курсе вы научитесь:
- готовить данные: собирать, устранять ошибки в разметке, мониторить качество
- отлаживать обучение, находить аномалии и интерпретировать результаты модели
- работать с metric learning и векторным поиском
- работать с видео: трекинг и action-recognition
- предобучать без разметки: от pretext-задач до современных SSL-алгоритмов
- адаптировать модели детекции, сегментации и OCR под сложные кейсы

🗓 Курс стартует 10 марта
🔔 Записывайтесь в лист ожидания до 1 марта, чтобы получить скидку до 20%!

Читайте подробнее про программу и спикеров на сайте и записывайтесь на ближайший поток CV Rocket!
12👍5🔥3👏1😍1