DeepSchool – Telegram
DeepSchool
10.3K subscribers
77 photos
1 video
1 file
432 links
Это канал школы deepschool.ru. Здесь мы будем:
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.

@deepschool_support
Download Telegram
🎞 Как ускоряют нейросети?

Ускорение нейросетей — важный навык в DL-индустрии: растёт потребность инференса нейросетей на смартфонах и edge-устройствах, а DL-сервисов становится всё больше и нагрузка на эти сервисы растёт. А запустить LLM «как есть», никак не оптимизировав — слишком дорогое удовольствие. Ну и «зачем платить за то, что в 5 раз медленнее, если можно платить за то, что в 10 раз быстрее» 😉

В новом видео Саша Гончаренко, СТО стартапа enot.ai и хэдлайнер нашего курса «Ускорение нейросетей», расскажет «на пальцах» про основные подходы в ускорении нейросетей, их плюсы и минусы, а также немного затронет особенности ускорения LLM.

Смотрите видео на Youtube!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27🔥107
Ускорим инференс трансформера на открытой лекции

Ещё и на ноунейм-плате! 🤯

Всё больше моделей запускаются на конечных устройствах: в телефонах, роботах, колонках, автомобилях, домофонах и т.д. — у всех разные ОС и архитектуры, а значит и свои нюансы инференса моделей. На лекции мы разберём как раз такой случай из практики с кучей нюансов и их решениями!

Советуем прийти, если вы:
— никогда не ускоряли модели
— ускоряли, но не для эдж-девайсов
— ускоряли для эджей и у вас есть вопросы

🗓 30 января, четверг, 18:00 МСК

На лекции расскажем:
① как снизить стоимость инференса на примере автономного автомобиля
② как запустить Vision transformer на плате Texas Instruments
③ о проблемах запуска трансформеров на кастомных платах с NPU
④ про применение прунинга к таким платам

А также представим программу курса Ускорение нейросетей, расскажем про обновления и подарим скидки на обучение!

🙋‍♂️Спикеры лекции:
— Александр Гончаренко — CTO ENOT.аi, хэдлайнер курса Ускорение нейросетей
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer KoronaPay

Регистрируйтесь на лекцию по ссылке!

🎁После регистрации вы получите туториал по использованию TensorRT и OpenVino.

До встречи 30 января в 18:00 МСК!⚡️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍96😁2
DeepSchool
Ускорим инференс трансформера на открытой лекции Ещё и на ноунейм-плате! 🤯 Всё больше моделей запускаются на конечных устройствах: в телефонах, роботах, колонках, автомобилях, домофонах и т.д. — у всех разные ОС и архитектуры, а значит и свои нюансы инференса…
Встречаемся через 2 часа

Сегодня на примере реальной задачи разберём, как запустить трансформер на плате с NPU. Обсудим проблемы, которые с этим связаны, и как их решать!

А также представим обновлённую программу курса Ускорение нейросетей и подарим скидки участникам лекции ⚡️

Вы ещё успеваете зарегистрироваться!
Приходите сегодня в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
9🔥6👍5
Научитесь ускорять нейросети

Если вы хотите повысить свою экспертизу и ценность как DL-инженера, научиться ускорять нейросети, эффективно использовать ресурсы, создавать больше уникальных продуктов и решать сложные задачи — приходите на наш курс Ускорение нейросетей!

Программа состоит из 3 блоков:
1️⃣ База — вы освоите подходы, которые являются общими для большинства задач. Разберётесь с алгоритмами: прунингом, дистилляцией, квантованием, архитектурным поиском. Поймёте устройство девайсов: CPU, GPU, NPU — и научитесь пользоваться фреймворками для каждого.

2️⃣ LLM — изучите популярные и рабочие методы для ускорения небольших и крупных языковых моделей.

3️⃣Device — научитесь запускать нейросети на Android, iOS и микрокомпьютерах с учётом их особенностей.

Вы можете изучить только Базу или дополнительно углубиться в определённый домен — можно выбрать любой подходящий вариант 🧩

⚡️ До 4 февраля вы можете записаться со скидкой!
🗓 Обучение длится 4 месяца, а начнётся 5 февраля.

Весь путь вы пройдёте при поддержке опытных инженеров. Они будут проверять ваши домашние задания и отвечать на вопросы на лекциях, семинарах и в чате.

Успевайте записаться со скидкой до 4 февраля!
Подробнее о программе, тарифах и спикерах читайте на сайте.

Если возникают вопросы или трудности, то пишите нам в поддержку в Телеграм!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍156🔥6
DB: text detection

OCR-решения обычно разбиваются на два этапа: сегментация (детекция) текста и его распознавание. Сегодня мы поговорим о сегментации текста и разберём архитектуру DB (Differentiable Binarization).

Обычно в задаче бинарной сегментации мы получаем матрицу, в которой у каждого пикселя стоит уверенность в том, что он принадлежит классу. Затем нам нужно сделать постпроцессинг, чтобы превратить уверенности в метки 0, 1 (бинаризовать).

Модель DB предложила интегрировать процесс бинаризации в сегментационную сеть. Это позволило упростить архитектуру и устранить необходимость в сложном постпроцессинге. Вместо традиционного подхода, где текстовые области выделяются через множество этапов, DB использует дифференцируемую бинаризацию, которая оптимизируется вместе с обучением модели. Такой подход обеспечивает высокую точность и эффективность.

Кроме того, модель включает адаптивное слияние масштабов (ASF), что позволяет ей справляться с текстами различных размеров и форм. Благодаря своей скорости и точности DB стала часто использоваться для задач обнаружения текста, включая обработку документов, сцен с текстом и мобильные OCR-приложения.

Читайте новую статью по ссылке, чтобы ближе познакомиться с архитектурой и обучением DB: https://deepschool-pro.notion.site/Differentiable-Binarization-DB-text-detection-1da969e72d1245e08ca4ca12eae56417?pvs=4
🔥2015🐳7👍5
Мы стараемся знакомить вас с нашей командой и программами. Например, здесь мы познакомили вас с авторами, а здесь рассказали про историю появления нашей школы.

Но любим не только рассказывать про себя, а и узнавать про вас. Например, тут нам было интересно, из какой вы области, а сегодня хотим узнать, как вы с нами познакомились. Ниже небольшой опрос, буквально на пару секунд:
9🥰4🔥3
Запускаем новый поток курса «Деплой DL-сервисов» 🎉

Программа подходит для DL-инженеров всех грейдов, а также ML-инженеров, которые хотят перейти в DL.

📍Если вы до сих пор обучаете модели только в Jupyter-ноутбуках, то рискуете отстать от индустрии. К 2025 году работодатели ожидают, что DL-инженеры не только учат модели, но и доводят их до пользователей. Для этого нужны инженерные практики, которые позволяют создавать надёжные и поддерживаемые продукты. Этому мы учим на курсе «Деплой DL-сервисов».

Ключевые факты о курсе — в карточках к посту. Подробнее о программе и преподавателях читайте на нашем сайте.

⚡️Записывайтесь в лист ожидания, чтобы первыми узнать о старте продаж и получить лучшие условия на покупку курса.

Если возникают вопросы или трудности, мы на связи: @deepschool_support
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥169
Как на собеседовании рассказать больше, чем знает собеседующий

Таким опытом поделился Александр, выпускник нашего курса Large Language Models.
Отзыв Александра и других наших учеников читайте в карточках!

А новый поток программы по LLM стартует 26 февраля.
20 февраля мы проведём открытую лекцию, на которой пройдёмся по популярным задачам, расскажем основные сложности и варианты их решения. Регистрации откроем в понедельник.

🗓Сегодня — последний день, когда вы можете записаться в лист ожидания.
Для его участников завтра, 15 февраля, мы проведём закрытую презентацию, на которой расскажем о тарифах и подарим скидку на обучение первым участникам.

Места на программу ограничены, поэтому если планировали погрузиться в LLM и научиться использовать их приложениях, то рекомендуем не откладывать на последний момент 😉

Записывайтесь в лист ожидания на сайте и не пропустите открытую лекцию на следующей неделе в четверг!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥149👍8😁2
Что не так с LLM?

— Модели игнорируют инструкции
— Даже большие LLM галлюцинируют
— RAG сходу не работает
— API не так дёшевы, как кажется
— Инференс без оптимизации стоит дорого

И это не все сложности. На Zoom-лекции в четверг разберём другие проблемы и покажем, как с ними справляться на примере реальной задачи. Приходите, чтобы лучше понять LLM и их слабые места!

Также мы представим программу курса LLM, а всем участникам лекции подарим скидки на обучение! 🔥

🙋‍♂️ Обо всём этом расскажут:
— Илья Димов — Senior NLP-инженер
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer, KoronaPay

📆 Четверг, 20 февраля, в 18:00 МСК

Регистрируйтесь по ссылке!
🎁 После регистрации вы получите список полезных инструментов и библиотек для работы с LLM.

И до встречи в четверг!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍76
RAG, или лучший друг достоверных генеративных ответов

Современные LLM хорошо справляются с большим количеством пользовательских задач, однако знания этих моделей ограничены данными, на которых они обучались. Существует широкий набор задач, в которых при генерации ответа необходимо опираться на свежую или специализированную информацию.

Для их решения можно использовать подход Retrieval Augmented Generation (RAG), в рамках которого ответ на пользовательский запрос генерируется с опорой на внешние документы. Создайте хороший поисковый пайплайн, обучите качественный генератор — и такой гибрид позволит вам создавать гораздо более достоверные, актуальные и полные ответы.

Про то, как собирать поиск, что делать с генератором и за счет чего улучшать качество вашего бейзлайн-решения — читайте в нашей новой статье: https://deepschool-pro.notion.site/RAG-19f640e534348041837ad7be10a0ab00?pvs=4
20👍11🔥9🤩2
DeepSchool
Что не так с LLM? — Модели игнорируют инструкции — Даже большие LLM галлюцинируют — RAG сходу не работает — API не так дёшевы, как кажется — Инференс без оптимизации стоит дорого И это не все сложности. На Zoom-лекции в четверг разберём другие проблемы…
Встречаемся через 2 часа на лекции по LLM

Сегодня на примере реальной задачи будем разбираться в слабых местах LLM и как их обходить!

И в конце представим программу курса LLM 🔥
Участники лекции смогут занять место на программе на выгодных условиях!

Успевайте зарегистрироваться! И приходите сегодня в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥54😁1
Научитесь правильно использовать LLM

LLM — капризны: они галлюцинируют, игнорируют факты, не следуют инструкциям. Их можно дообучать, дополнять знания через RAG, хитро промптить — но в каждом из этих методов есть нюансы.

А когда всё заработает, встанет новая задача — как выдержать нагрузку и не разориться на железе.
Если хотите разобраться, как создавать рабочие решения и доводить их до пользователей, приходите на курс Large Language Models.

Наши спикеры работали и в бигтехах, и в стартапах, и в научных лабораториях. Создавали нагруженные сервисы и популярные библиотеки, которыми вы скорее всего пользовались. Вместе с ними на программе вы узнаете:
🔹 как выбрать модель для проекта и чем они отличаются
🔹 как уменьшить галюцинации и отхождения от инструкций
🔹 как сделать RAG, который наконец начнёт работать
🔹 как дообучать и сервить LLM, чтобы не разориться
🔹 как деплоить большие модели
🔹 и как эти модели устроены, как эволюционировали

Курс вам подойдёт и если вы только знакомитесь с LLM, и если уже работаете с ними

📆 Начало — 26 февраля, продолжительность — 4 месяца.
⚠️ Осталось 18 мест из 60. Успевайте присоединиться к обучению!

Читайте подробности о программе, формате и спикерах на сайте.
И записывайтесь на курс со скидкой 5%, которая действует до 25 февраля 🔥

Если возникают вопросы или трудности, то пишите нам @deepschool_support!

До встречи на курсе!
Please open Telegram to view this post
VIEW IN TELEGRAM
12🔥5😍5🤯2
Уже в марте стартует новый поток курса «Деплой DL-сервисов» . Пока готовим новые материалы по этой теме, собрали несколько статей из нашего архива. Вдруг вы их пропустили:

1️⃣ ClearML Data Management
Разбираем инструмент, который подходит для версионирования данных и не только.

2️⃣ ClearML Session
Изучаем работу на удалённом сервере и настройку рабочего места с использованием ClearML Session.

3️⃣ Полезные Linux-команды
Рассказываем о Linux-командах, которые позволят упростить работу Data Scientist'а.

4️⃣ Pre-commit git-хуки
Коротко говорим про git-хуки и смотрим пару примеров.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥189😍6👍3
MoH: Multi-Head Attention as Mixture-of-Head Attention

Mixture-of-Head Attention
— апдейт архитектуры Multi-Head Attention, направленный на ускорение без потери точности. Основная идея здесь — рассматривать attention heads как «экспертов» в Mixture-of-Experts. Это даёт возможность использовать не все головы, а выбирать самые подходящие под каждый токен.

Архитектура Mixture-of-Head Attention (MoH) сохранила основную структуру Multi-Head Attention, но включила пару значимых улучшений:

1️⃣ замена обычного суммирования на взвешенное для лучшей адаптации набора голов под данные
2️⃣ добавление механизма выбора релевантных attention heads под каждый токен для снижения вычислительной нагрузки и ускорения инференса без изменения числа параметров

При этом MoH не только работает быстрее и может заменить Multi-Head Attention в предобученной модели, но и позволяет дообучить модель с ним и получить бонус к качеству за счёт увеличения специализации atthention heads.

Подробнее читайте в нашей статье: https://deepschool-pro.notion.site/MoH-Multi-Head-Attention-as-Mixture-of-Head-Attention-1a5640e53434803bb7e4f14df0b18e2e?pvs=4
🔥31👍159🤩1