DeepSchool – Telegram
DeepSchool
10.3K subscribers
77 photos
1 video
1 file
433 links
Это канал школы deepschool.ru. Здесь мы будем:
- напоминать вам теорию ML/DL в виде коротких постов,
- задавать вопросы с собеседований,
- рассказывать про полезные фреймворки
- и делиться советами, которые помогут вам в работе.

@deepschool_support
Download Telegram
Мы стараемся знакомить вас с нашей командой и программами. Например, здесь мы познакомили вас с авторами, а здесь рассказали про историю появления нашей школы.

Но любим не только рассказывать про себя, а и узнавать про вас. Например, тут нам было интересно, из какой вы области, а сегодня хотим узнать, как вы с нами познакомились. Ниже небольшой опрос, буквально на пару секунд:
9🥰4🔥3
Запускаем новый поток курса «Деплой DL-сервисов» 🎉

Программа подходит для DL-инженеров всех грейдов, а также ML-инженеров, которые хотят перейти в DL.

📍Если вы до сих пор обучаете модели только в Jupyter-ноутбуках, то рискуете отстать от индустрии. К 2025 году работодатели ожидают, что DL-инженеры не только учат модели, но и доводят их до пользователей. Для этого нужны инженерные практики, которые позволяют создавать надёжные и поддерживаемые продукты. Этому мы учим на курсе «Деплой DL-сервисов».

Ключевые факты о курсе — в карточках к посту. Подробнее о программе и преподавателях читайте на нашем сайте.

⚡️Записывайтесь в лист ожидания, чтобы первыми узнать о старте продаж и получить лучшие условия на покупку курса.

Если возникают вопросы или трудности, мы на связи: @deepschool_support
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥169
Как на собеседовании рассказать больше, чем знает собеседующий

Таким опытом поделился Александр, выпускник нашего курса Large Language Models.
Отзыв Александра и других наших учеников читайте в карточках!

А новый поток программы по LLM стартует 26 февраля.
20 февраля мы проведём открытую лекцию, на которой пройдёмся по популярным задачам, расскажем основные сложности и варианты их решения. Регистрации откроем в понедельник.

🗓Сегодня — последний день, когда вы можете записаться в лист ожидания.
Для его участников завтра, 15 февраля, мы проведём закрытую презентацию, на которой расскажем о тарифах и подарим скидку на обучение первым участникам.

Места на программу ограничены, поэтому если планировали погрузиться в LLM и научиться использовать их приложениях, то рекомендуем не откладывать на последний момент 😉

Записывайтесь в лист ожидания на сайте и не пропустите открытую лекцию на следующей неделе в четверг!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥149👍8😁2
Что не так с LLM?

— Модели игнорируют инструкции
— Даже большие LLM галлюцинируют
— RAG сходу не работает
— API не так дёшевы, как кажется
— Инференс без оптимизации стоит дорого

И это не все сложности. На Zoom-лекции в четверг разберём другие проблемы и покажем, как с ними справляться на примере реальной задачи. Приходите, чтобы лучше понять LLM и их слабые места!

Также мы представим программу курса LLM, а всем участникам лекции подарим скидки на обучение! 🔥

🙋‍♂️ Обо всём этом расскажут:
— Илья Димов — Senior NLP-инженер
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer, KoronaPay

📆 Четверг, 20 февраля, в 18:00 МСК

Регистрируйтесь по ссылке!
🎁 После регистрации вы получите список полезных инструментов и библиотек для работы с LLM.

И до встречи в четверг!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍76
RAG, или лучший друг достоверных генеративных ответов

Современные LLM хорошо справляются с большим количеством пользовательских задач, однако знания этих моделей ограничены данными, на которых они обучались. Существует широкий набор задач, в которых при генерации ответа необходимо опираться на свежую или специализированную информацию.

Для их решения можно использовать подход Retrieval Augmented Generation (RAG), в рамках которого ответ на пользовательский запрос генерируется с опорой на внешние документы. Создайте хороший поисковый пайплайн, обучите качественный генератор — и такой гибрид позволит вам создавать гораздо более достоверные, актуальные и полные ответы.

Про то, как собирать поиск, что делать с генератором и за счет чего улучшать качество вашего бейзлайн-решения — читайте в нашей новой статье: https://deepschool-pro.notion.site/RAG-19f640e534348041837ad7be10a0ab00?pvs=4
20👍11🔥9🤩2
DeepSchool
Что не так с LLM? — Модели игнорируют инструкции — Даже большие LLM галлюцинируют — RAG сходу не работает — API не так дёшевы, как кажется — Инференс без оптимизации стоит дорого И это не все сложности. На Zoom-лекции в четверг разберём другие проблемы…
Встречаемся через 2 часа на лекции по LLM

Сегодня на примере реальной задачи будем разбираться в слабых местах LLM и как их обходить!

И в конце представим программу курса LLM 🔥
Участники лекции смогут занять место на программе на выгодных условиях!

Успевайте зарегистрироваться! И приходите сегодня в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥54😁1
Научитесь правильно использовать LLM

LLM — капризны: они галлюцинируют, игнорируют факты, не следуют инструкциям. Их можно дообучать, дополнять знания через RAG, хитро промптить — но в каждом из этих методов есть нюансы.

А когда всё заработает, встанет новая задача — как выдержать нагрузку и не разориться на железе.
Если хотите разобраться, как создавать рабочие решения и доводить их до пользователей, приходите на курс Large Language Models.

Наши спикеры работали и в бигтехах, и в стартапах, и в научных лабораториях. Создавали нагруженные сервисы и популярные библиотеки, которыми вы скорее всего пользовались. Вместе с ними на программе вы узнаете:
🔹 как выбрать модель для проекта и чем они отличаются
🔹 как уменьшить галюцинации и отхождения от инструкций
🔹 как сделать RAG, который наконец начнёт работать
🔹 как дообучать и сервить LLM, чтобы не разориться
🔹 как деплоить большие модели
🔹 и как эти модели устроены, как эволюционировали

Курс вам подойдёт и если вы только знакомитесь с LLM, и если уже работаете с ними

📆 Начало — 26 февраля, продолжительность — 4 месяца.
⚠️ Осталось 18 мест из 60. Успевайте присоединиться к обучению!

Читайте подробности о программе, формате и спикерах на сайте.
И записывайтесь на курс со скидкой 5%, которая действует до 25 февраля 🔥

Если возникают вопросы или трудности, то пишите нам @deepschool_support!

До встречи на курсе!
Please open Telegram to view this post
VIEW IN TELEGRAM
12🔥5😍5🤯2
Уже в марте стартует новый поток курса «Деплой DL-сервисов» . Пока готовим новые материалы по этой теме, собрали несколько статей из нашего архива. Вдруг вы их пропустили:

1️⃣ ClearML Data Management
Разбираем инструмент, который подходит для версионирования данных и не только.

2️⃣ ClearML Session
Изучаем работу на удалённом сервере и настройку рабочего места с использованием ClearML Session.

3️⃣ Полезные Linux-команды
Рассказываем о Linux-командах, которые позволят упростить работу Data Scientist'а.

4️⃣ Pre-commit git-хуки
Коротко говорим про git-хуки и смотрим пару примеров.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥189😍6👍3
MoH: Multi-Head Attention as Mixture-of-Head Attention

Mixture-of-Head Attention
— апдейт архитектуры Multi-Head Attention, направленный на ускорение без потери точности. Основная идея здесь — рассматривать attention heads как «экспертов» в Mixture-of-Experts. Это даёт возможность использовать не все головы, а выбирать самые подходящие под каждый токен.

Архитектура Mixture-of-Head Attention (MoH) сохранила основную структуру Multi-Head Attention, но включила пару значимых улучшений:

1️⃣ замена обычного суммирования на взвешенное для лучшей адаптации набора голов под данные
2️⃣ добавление механизма выбора релевантных attention heads под каждый токен для снижения вычислительной нагрузки и ускорения инференса без изменения числа параметров

При этом MoH не только работает быстрее и может заменить Multi-Head Attention в предобученной модели, но и позволяет дообучить модель с ним и получить бонус к качеству за счёт увеличения специализации atthention heads.

Подробнее читайте в нашей статье: https://deepschool-pro.notion.site/MoH-Multi-Head-Attention-as-Mixture-of-Head-Attention-1a5640e53434803bb7e4f14df0b18e2e?pvs=4
🔥31👍159🤩1
Что происходит с моделью после обучения

Мы уже говорили, что сегодня DL-инженеру недостаточно учить модели в Jupyter-тетрадках, чтобы соответствовать запросам индустрии. Важно уметь доводить их до пользователей. Чтобы ближе познакомить вас с этим процессом, мы подготовили открытую онлайн-лекцию, на которой покажем, как выглядит путь модели после обучения!

Что вы узнаете на лекции:

- когда стоит использовать Jupyter-ноутбуки, а когда нет
- как подготовить репозиторий моделинга
- варианты конвертации модели
- как обернуть инференс в http-приложение
- чем помогает Model Serving
- как деплоят приложения и автоматизируют этот процесс

Также мы расскажем о курсе, на котором вы сможете научиться самостоятельно создавать и деплоить DL-сервисы. Всем участникам лекции подарим скидки на обучение!🔥

🙋‍♂️Спикеры лекции:

— Дмитрий Раков — руководитель ML в НИИАС, делает percpetion-алгоритмы для беспилотных поездов

— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer KoronaPay

Дата и время: 6 марта, чт, 18:00 мск

Регистрируйтесь по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥116👏5👍2
Ищем преподавателей, опытных инженеров в CV и NLP!

🔥 Мы готовим 2 advanced программы для практикующих CV- и NLP-инженеров и ищем спикеров лекций.

В этих курсах мы будем учить студентов решать различные DL-задачи «с изюминкой», где «fit, predict» уже недостаточно.
Например:
— надо решить сегментацию, но на очень больших картинках — как лучше поделить изображение? как собрать результаты вместе? почему маски рваные и как этого избежать?
— создаём агента для бизнеса, но он отказывается использовать функции, зацикливается и не выдает результат — как снизить число ошибок? на чем учить? как автоматически собирать данные?
На эти вопросы ответят лекции курсов.

Что мы даём преподавателям:
— доступ к комьюнити школы и ко всем курсам школы: можно приходить на лекции, задавать вопросы, сдавать домашки и получать ревью
— оплату за подготовку материалов
— оплату за лекции и ревью заданий
— научим создавать понятные интересные лекции
— редактор поможет с текстами
— а дизайнер нарисует красивую презентацию

Что мы ждём от вас:
— опыт в индустрии/ресёрче от 4 лет
— опыт работы с темой лекции от 1 года

Если вы готовы обучать других людей и помочь им повысить свою квалификацию, заполните, пожалуйста, анкету:
Анкета на спикера CV-курса
Анкета на спикера NLP-курса
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👍86
Apprise

Очень часто нам нужно оперативно получать информацию о том, что происходит с сервером, программой или пайплайном. Но смотреть дашборды 24/7 — занятие, которое приносит мало удовольствия. В то же время, все мы ежедневно пользуемся мессенджерами и электронной почтой.

Для решения этой проблемы на помощь приходит Apprise — универсальная библиотека для отправки уведомлений. С его помощью вы сможете быстро и удобно настроить доставку сообщений в любые привычные сервисы — от Telegram и Slack до электронной почты и SMS. Установка и настройка занимают минимум времени — достаточно добавить несколько строк кода. В новой статье мы подробно расскажем, как это можно сделать и интегрировать уведомления в ваш проект: https://deepschool-pro.notion.site/Apprise-1ab640e53434803391b9d2a46b6f9295?pvs=4
🔥16👍94😍2🤔1
🚀 Научитесь создавать и деплоить DL-сервисы

Многие DL-инженеры знают, как готовить модели: выбрать архитектуру, лосс, на какие гиперпараметры обращать внимание и так далее. Но лишь малая часть использует инженерные практики при тренировке моделей или знает, как довести их до пользователей. Чтобы освоить эти инструменты, приходите на курс «Деплой DL-сервисов»! Старт 19 марта.

🔹Обучение подойдёт для DL-инженеров всех грейдов.

🔹После каждой лекции вас ждет домашнее задание для отработки новых знаний на практике. А в конце курса — проект, где можно применить все полученные навыки.

🔹Весь путь вы пройдёте при поддержке преподавателей: опытные инженеры будут ревьюить ваш код, отвечать на вопросы во время лекций, на дополнительных Q&A-сессиях и в чате.

⚡️До 18 марта для подписчиков DeepSchool действует скидка 5%!

Подробнее о программе, спикерах, стоимости читайте на сайте.

Если возникают вопросы, пишите нам в поддержку в Телеграм!
🔥11👍8🤩4👏1
DeepSchool Digest

Вместе с командой авторов продолжаем готовить для вас новые материалы. Например, уже скоро обсудим интеграцию нейросетей в продакшн и фреймворки сервинга. А пока собрали подборку материалов, которые вышли с начала этого года, чтобы вы не упустили ничего интересного👇

✔️Подкаст «Под Капотом». CV в медицине
Обсудили с Александром Лекомцевым, Team Lead CV Engineer из oxytech.io, чем отличается медицинский CV от «обычного», сложности разметки данных, как найти общий язык с врачами и многое другое про CV в медицине.

✔️В чём же считать: fp8, fp32 или fp16
В каких типах данных крутить нейронку, чтобы сэкономить память и не потерять точность? В этой статье разобрались, как они работают, где их лучше применять, как учить, инференсить и с какими подводными камнями здесь можно столкнуться.

✔️Детекторы текста на основе трансформеров. Часть 2
Продолжаем знакомить вас с детекторами текста на основе трансформеров. В статье также рассматриваем MixNet, который лидирует в бенчмарках.

✔️Как ускоряют нейросети?
В этом видео Саша Гончаренко, СТО стартапа enot.ai и хэдлайнер нашего курса «Ускорение нейросетей», рассказывает про основные подходы в ускорении нейросетей, их плюсы и минусы, а также затрагивает особенности ускорения LLM.

✔️DB: text detection
Здесь мы поговорили о сегментации текста и разобрали архитектуру DB (Differentiable Binarization).

✔️RAG, или лучший друг достоверных генеративных ответов
Как собирать поиск, что делать с генератором и за счет чего улучшать качество вашего бейзлайн-решения? В этой статье мы разобрали подход Retrieval Augmented Generation (RAG), в рамках которого ответ на пользовательский запрос генерируется с опорой на внешние документы.

✔️MoH: Multi-Head Attention as Mixture-of-Head Attention
Mixture-of-Head Attention — апдейт архитектуры Multi-Head Attention, направленный на ускорение без потери точности. О её значимых улучшениях читайте в материале по ссылке⬆️
Please open Telegram to view this post
VIEW IN TELEGRAM
16🔥11👍9🤩6👏1