Запускаем новый поток курса «Деплой DL-сервисов» 🎉
Программа подходит для DL-инженеров всех грейдов, а также ML-инженеров, которые хотят перейти в DL.
📍 Если вы до сих пор обучаете модели только в Jupyter-ноутбуках, то рискуете отстать от индустрии. К 2025 году работодатели ожидают, что DL-инженеры не только учат модели, но и доводят их до пользователей. Для этого нужны инженерные практики, которые позволяют создавать надёжные и поддерживаемые продукты. Этому мы учим на курсе «Деплой DL-сервисов».
Ключевые факты о курсе — в карточках к посту. Подробнее о программе и преподавателях читайте на нашем сайте.
⚡️Записывайтесь в лист ожидания, чтобы первыми узнать о старте продаж и получить лучшие условия на покупку курса.
Если возникают вопросы или трудности, мы на связи: @deepschool_support
Программа подходит для DL-инженеров всех грейдов, а также ML-инженеров, которые хотят перейти в DL.
Ключевые факты о курсе — в карточках к посту. Подробнее о программе и преподавателях читайте на нашем сайте.
⚡️Записывайтесь в лист ожидания, чтобы первыми узнать о старте продаж и получить лучшие условия на покупку курса.
Если возникают вопросы или трудности, мы на связи: @deepschool_support
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥16❤9
Как на собеседовании рассказать больше, чем знает собеседующий❓
Таким опытом поделился Александр, выпускник нашего курса Large Language Models.
Отзыв Александра и других наших учеников читайте в карточках!
А новый поток программы по LLM стартует 26 февраля.
20 февраля мы проведём открытую лекцию, на которой пройдёмся по популярным задачам, расскажем основные сложности и варианты их решения. Регистрации откроем в понедельник.
🗓 Сегодня — последний день, когда вы можете записаться в лист ожидания.
Для его участников завтра, 15 февраля, мы проведём закрытую презентацию, на которой расскажем о тарифах и подарим скидку на обучение первым участникам.
Места на программу ограничены, поэтому если планировали погрузиться в LLM и научиться использовать их приложениях, то рекомендуем не откладывать на последний момент 😉
Записывайтесь в лист ожидания на сайте и не пропустите открытую лекцию на следующей неделе в четверг!
Таким опытом поделился Александр, выпускник нашего курса Large Language Models.
Отзыв Александра и других наших учеников читайте в карточках!
А новый поток программы по LLM стартует 26 февраля.
20 февраля мы проведём открытую лекцию, на которой пройдёмся по популярным задачам, расскажем основные сложности и варианты их решения. Регистрации откроем в понедельник.
Для его участников завтра, 15 февраля, мы проведём закрытую презентацию, на которой расскажем о тарифах и подарим скидку на обучение первым участникам.
Места на программу ограничены, поэтому если планировали погрузиться в LLM и научиться использовать их приложениях, то рекомендуем не откладывать на последний момент 😉
Записывайтесь в лист ожидания на сайте и не пропустите открытую лекцию на следующей неделе в четверг!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤9👍8😁2
Что не так с LLM?
— Модели игнорируют инструкции
— Даже большие LLM галлюцинируют
— RAG сходу не работает
— API не так дёшевы, как кажется
— Инференс без оптимизации стоит дорого
И это не все сложности. На Zoom-лекции в четверг разберём другие проблемы и покажем, как с ними справляться на примере реальной задачи. Приходите, чтобы лучше понять LLM и их слабые места!
Также мы представим программу курса LLM, а всем участникам лекции подарим скидки на обучение!🔥
🙋♂️ Обо всём этом расскажут:
— Илья Димов — Senior NLP-инженер
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer, KoronaPay
📆 Четверг, 20 февраля, в 18:00 МСК
Регистрируйтесь по ссылке!
🎁 После регистрации вы получите список полезных инструментов и библиотек для работы с LLM.
И до встречи в четверг!
— Модели игнорируют инструкции
— Даже большие LLM галлюцинируют
— RAG сходу не работает
— API не так дёшевы, как кажется
— Инференс без оптимизации стоит дорого
И это не все сложности. На Zoom-лекции в четверг разберём другие проблемы и покажем, как с ними справляться на примере реальной задачи. Приходите, чтобы лучше понять LLM и их слабые места!
Также мы представим программу курса LLM, а всем участникам лекции подарим скидки на обучение!
🙋♂️ Обо всём этом расскажут:
— Илья Димов — Senior NLP-инженер
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer, KoronaPay
Регистрируйтесь по ссылке!
И до встречи в четверг!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍7❤6
RAG, или лучший друг достоверных генеративных ответов
Современные LLM хорошо справляются с большим количеством пользовательских задач, однако знания этих моделей ограничены данными, на которых они обучались. Существует широкий набор задач, в которых при генерации ответа необходимо опираться на свежую или специализированную информацию.
Для их решения можно использовать подход Retrieval Augmented Generation (RAG), в рамках которого ответ на пользовательский запрос генерируется с опорой на внешние документы. Создайте хороший поисковый пайплайн, обучите качественный генератор — и такой гибрид позволит вам создавать гораздо более достоверные, актуальные и полные ответы.
Про то, как собирать поиск, что делать с генератором и за счет чего улучшать качество вашего бейзлайн-решения — читайте в нашей новой статье: https://deepschool-pro.notion.site/RAG-19f640e534348041837ad7be10a0ab00?pvs=4
Современные LLM хорошо справляются с большим количеством пользовательских задач, однако знания этих моделей ограничены данными, на которых они обучались. Существует широкий набор задач, в которых при генерации ответа необходимо опираться на свежую или специализированную информацию.
Для их решения можно использовать подход Retrieval Augmented Generation (RAG), в рамках которого ответ на пользовательский запрос генерируется с опорой на внешние документы. Создайте хороший поисковый пайплайн, обучите качественный генератор — и такой гибрид позволит вам создавать гораздо более достоверные, актуальные и полные ответы.
Про то, как собирать поиск, что делать с генератором и за счет чего улучшать качество вашего бейзлайн-решения — читайте в нашей новой статье: https://deepschool-pro.notion.site/RAG-19f640e534348041837ad7be10a0ab00?pvs=4
deepschool-pro on Notion
RAG, или лучший друг достоверных генеративных ответов | Notion
Автор: Дмитрий Калашников
❤20👍11🔥9🤩2
DeepSchool
Что не так с LLM? — Модели игнорируют инструкции — Даже большие LLM галлюцинируют — RAG сходу не работает — API не так дёшевы, как кажется — Инференс без оптимизации стоит дорого И это не все сложности. На Zoom-лекции в четверг разберём другие проблемы…
Сегодня на примере реальной задачи будем разбираться в слабых местах LLM и как их обходить!
И в конце представим программу курса LLM
Участники лекции смогут занять место на программе на выгодных условиях!
Успевайте зарегистрироваться! И приходите сегодня в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥5❤4😁1
Научитесь правильно использовать LLM
LLM — капризны: они галлюцинируют, игнорируют факты, не следуют инструкциям. Их можно дообучать, дополнять знания через RAG, хитро промптить — но в каждом из этих методов есть нюансы.
А когда всё заработает, встанет новая задача — как выдержать нагрузку и не разориться на железе.
Если хотите разобраться, как создавать рабочие решения и доводить их до пользователей, приходите на курс Large Language Models.
Наши спикеры работали и в бигтехах, и в стартапах, и в научных лабораториях. Создавали нагруженные сервисы и популярные библиотеки, которыми вы скорее всего пользовались. Вместе с ними на программе вы узнаете:
🔹 как выбрать модель для проекта и чем они отличаются
🔹 как уменьшить галюцинации и отхождения от инструкций
🔹 как сделать RAG, который наконец начнёт работать
🔹 как дообучать и сервить LLM, чтобы не разориться
🔹 как деплоить большие модели
🔹 и как эти модели устроены, как эволюционировали
Курс вам подойдёт и если вы только знакомитесь с LLM, и если уже работаете с ними ✨
📆 Начало — 26 февраля, продолжительность — 4 месяца.
⚠️ Осталось 18 мест из 60. Успевайте присоединиться к обучению!
Читайте подробности о программе, формате и спикерах на сайте.
И записывайтесь на курс со скидкой 5%, которая действует до 25 февраля🔥
Если возникают вопросы или трудности, то пишите нам @deepschool_support!
До встречи на курсе!
LLM — капризны: они галлюцинируют, игнорируют факты, не следуют инструкциям. Их можно дообучать, дополнять знания через RAG, хитро промптить — но в каждом из этих методов есть нюансы.
А когда всё заработает, встанет новая задача — как выдержать нагрузку и не разориться на железе.
Если хотите разобраться, как создавать рабочие решения и доводить их до пользователей, приходите на курс Large Language Models.
Наши спикеры работали и в бигтехах, и в стартапах, и в научных лабораториях. Создавали нагруженные сервисы и популярные библиотеки, которыми вы скорее всего пользовались. Вместе с ними на программе вы узнаете:
🔹 как выбрать модель для проекта и чем они отличаются
🔹 как уменьшить галюцинации и отхождения от инструкций
🔹 как сделать RAG, который наконец начнёт работать
🔹 как дообучать и сервить LLM, чтобы не разориться
🔹 как деплоить большие модели
🔹 и как эти модели устроены, как эволюционировали
Курс вам подойдёт и если вы только знакомитесь с LLM, и если уже работаете с ними ✨
Читайте подробности о программе, формате и спикерах на сайте.
И записывайтесь на курс со скидкой 5%, которая действует до 25 февраля
Если возникают вопросы или трудности, то пишите нам @deepschool_support!
До встречи на курсе!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12🔥5😍5🤯2
1️⃣ ClearML Data Management
Разбираем инструмент, который подходит для версионирования данных и не только.
2️⃣ ClearML Session
Изучаем работу на удалённом сервере и настройку рабочего места с использованием ClearML Session.
3️⃣ Полезные Linux-команды
Рассказываем о Linux-командах, которые позволят упростить работу Data Scientist'а.
4️⃣ Pre-commit git-хуки
Коротко говорим про git-хуки и смотрим пару примеров.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18❤9😍6👍3
MoH: Multi-Head Attention as Mixture-of-Head Attention
Mixture-of-Head Attention — апдейт архитектуры Multi-Head Attention, направленный на ускорение без потери точности. Основная идея здесь — рассматривать attention heads как «экспертов» в Mixture-of-Experts. Это даёт возможность использовать не все головы, а выбирать самые подходящие под каждый токен.
Архитектура Mixture-of-Head Attention (MoH) сохранила основную структуру Multi-Head Attention, но включила пару значимых улучшений:
1️⃣ замена обычного суммирования на взвешенное для лучшей адаптации набора голов под данные
2️⃣ добавление механизма выбора релевантных attention heads под каждый токен для снижения вычислительной нагрузки и ускорения инференса без изменения числа параметров
При этом MoH не только работает быстрее и может заменить Multi-Head Attention в предобученной модели, но и позволяет дообучить модель с ним и получить бонус к качеству за счёт увеличения специализации atthention heads.
Подробнее читайте в нашей статье: https://deepschool-pro.notion.site/MoH-Multi-Head-Attention-as-Mixture-of-Head-Attention-1a5640e53434803bb7e4f14df0b18e2e?pvs=4
Mixture-of-Head Attention — апдейт архитектуры Multi-Head Attention, направленный на ускорение без потери точности. Основная идея здесь — рассматривать attention heads как «экспертов» в Mixture-of-Experts. Это даёт возможность использовать не все головы, а выбирать самые подходящие под каждый токен.
Архитектура Mixture-of-Head Attention (MoH) сохранила основную структуру Multi-Head Attention, но включила пару значимых улучшений:
1️⃣ замена обычного суммирования на взвешенное для лучшей адаптации набора голов под данные
2️⃣ добавление механизма выбора релевантных attention heads под каждый токен для снижения вычислительной нагрузки и ускорения инференса без изменения числа параметров
При этом MoH не только работает быстрее и может заменить Multi-Head Attention в предобученной модели, но и позволяет дообучить модель с ним и получить бонус к качеству за счёт увеличения специализации atthention heads.
Подробнее читайте в нашей статье: https://deepschool-pro.notion.site/MoH-Multi-Head-Attention-as-Mixture-of-Head-Attention-1a5640e53434803bb7e4f14df0b18e2e?pvs=4
deepschool-pro on Notion
MoH: Multi-Head Attention as Mixture-of-Head Attention | Notion
Автор: Александр Лекомцев
Редактура: Андрей Шадриков
Редактура: Андрей Шадриков
🔥31👍15❤9🤩1
Что происходит с моделью после обучения
Мы уже говорили, что сегодня DL-инженеру недостаточно учить модели в Jupyter-тетрадках, чтобы соответствовать запросам индустрии. Важно уметь доводить их до пользователей. Чтобы ближе познакомить вас с этим процессом, мы подготовили открытую онлайн-лекцию, на которой покажем, как выглядит путь модели после обучения!
Что вы узнаете на лекции:
- когда стоит использовать Jupyter-ноутбуки, а когда нет
- как подготовить репозиторий моделинга
- варианты конвертации модели
- как обернуть инференс в http-приложение
- чем помогает Model Serving
- как деплоят приложения и автоматизируют этот процесс
Также мы расскажем о курсе, на котором вы сможете научиться самостоятельно создавать и деплоить DL-сервисы. Всем участникам лекции подарим скидки на обучение!🔥
🙋♂️Спикеры лекции:
— Дмитрий Раков — руководитель ML в НИИАС, делает percpetion-алгоритмы для беспилотных поездов
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer KoronaPay
⏰Дата и время: 6 марта, чт, 18:00 мск
Регистрируйтесь по ссылке
Мы уже говорили, что сегодня DL-инженеру недостаточно учить модели в Jupyter-тетрадках, чтобы соответствовать запросам индустрии. Важно уметь доводить их до пользователей. Чтобы ближе познакомить вас с этим процессом, мы подготовили открытую онлайн-лекцию, на которой покажем, как выглядит путь модели после обучения!
Что вы узнаете на лекции:
- когда стоит использовать Jupyter-ноутбуки, а когда нет
- как подготовить репозиторий моделинга
- варианты конвертации модели
- как обернуть инференс в http-приложение
- чем помогает Model Serving
- как деплоят приложения и автоматизируют этот процесс
Также мы расскажем о курсе, на котором вы сможете научиться самостоятельно создавать и деплоить DL-сервисы. Всем участникам лекции подарим скидки на обучение!
🙋♂️Спикеры лекции:
— Дмитрий Раков — руководитель ML в НИИАС, делает percpetion-алгоритмы для беспилотных поездов
— Тимур Фатыхов — основатель DeepSchool, ex Lead CV Engineer KoronaPay
⏰Дата и время: 6 марта, чт, 18:00 мск
Регистрируйтесь по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11❤6👏5👍2
Ищем преподавателей, опытных инженеров в CV и NLP!
🔥 Мы готовим 2 advanced программы для практикующих CV- и NLP-инженеров и ищем спикеров лекций.
В этих курсах мы будем учить студентов решать различные DL-задачи «с изюминкой», где «fit, predict» уже недостаточно.
Например:
— надо решить сегментацию, но на очень больших картинках — как лучше поделить изображение? как собрать результаты вместе? почему маски рваные и как этого избежать?
— создаём агента для бизнеса, но он отказывается использовать функции, зацикливается и не выдает результат — как снизить число ошибок? на чем учить? как автоматически собирать данные?
На эти вопросы ответят лекции курсов.
Что мы даём преподавателям:
— доступ к комьюнити школы и ко всем курсам школы: можно приходить на лекции, задавать вопросы, сдавать домашки и получать ревью
— оплату за подготовку материалов
— оплату за лекции и ревью заданий
— научим создавать понятные интересные лекции
— редактор поможет с текстами
— а дизайнер нарисует красивую презентацию
Что мы ждём от вас:
— опыт в индустрии/ресёрче от 4 лет
— опыт работы с темой лекции от 1 года
Если вы готовы обучать других людей и помочь им повысить свою квалификацию, заполните, пожалуйста, анкету:
Анкета на спикера CV-курса
Анкета на спикера NLP-курса
В этих курсах мы будем учить студентов решать различные DL-задачи «с изюминкой», где «fit, predict» уже недостаточно.
Например:
— надо решить сегментацию, но на очень больших картинках — как лучше поделить изображение? как собрать результаты вместе? почему маски рваные и как этого избежать?
— создаём агента для бизнеса, но он отказывается использовать функции, зацикливается и не выдает результат — как снизить число ошибок? на чем учить? как автоматически собирать данные?
На эти вопросы ответят лекции курсов.
Что мы даём преподавателям:
— доступ к комьюнити школы и ко всем курсам школы: можно приходить на лекции, задавать вопросы, сдавать домашки и получать ревью
— оплату за подготовку материалов
— оплату за лекции и ревью заданий
— научим создавать понятные интересные лекции
— редактор поможет с текстами
— а дизайнер нарисует красивую презентацию
Что мы ждём от вас:
— опыт в индустрии/ресёрче от 4 лет
— опыт работы с темой лекции от 1 года
Если вы готовы обучать других людей и помочь им повысить свою квалификацию, заполните, пожалуйста, анкету:
Анкета на спикера CV-курса
Анкета на спикера NLP-курса
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👍8❤6
Apprise
Очень часто нам нужно оперативно получать информацию о том, что происходит с сервером, программой или пайплайном. Но смотреть дашборды 24/7 — занятие, которое приносит мало удовольствия. В то же время, все мы ежедневно пользуемся мессенджерами и электронной почтой.
Для решения этой проблемы на помощь приходит Apprise — универсальная библиотека для отправки уведомлений. С его помощью вы сможете быстро и удобно настроить доставку сообщений в любые привычные сервисы — от Telegram и Slack до электронной почты и SMS. Установка и настройка занимают минимум времени — достаточно добавить несколько строк кода. В новой статье мы подробно расскажем, как это можно сделать и интегрировать уведомления в ваш проект: https://deepschool-pro.notion.site/Apprise-1ab640e53434803391b9d2a46b6f9295?pvs=4
Очень часто нам нужно оперативно получать информацию о том, что происходит с сервером, программой или пайплайном. Но смотреть дашборды 24/7 — занятие, которое приносит мало удовольствия. В то же время, все мы ежедневно пользуемся мессенджерами и электронной почтой.
Для решения этой проблемы на помощь приходит Apprise — универсальная библиотека для отправки уведомлений. С его помощью вы сможете быстро и удобно настроить доставку сообщений в любые привычные сервисы — от Telegram и Slack до электронной почты и SMS. Установка и настройка занимают минимум времени — достаточно добавить несколько строк кода. В новой статье мы подробно расскажем, как это можно сделать и интегрировать уведомления в ваш проект: https://deepschool-pro.notion.site/Apprise-1ab640e53434803391b9d2a46b6f9295?pvs=4
deepschool-pro on Notion
Apprise | Notion
Автор: Александр Гончаренко
🔥16👍9❤4😍2🤔1
🚀 Научитесь создавать и деплоить DL-сервисы
Многие DL-инженеры знают, как готовить модели: выбрать архитектуру, лосс, на какие гиперпараметры обращать внимание и так далее. Но лишь малая часть использует инженерные практики при тренировке моделей или знает, как довести их до пользователей. Чтобы освоить эти инструменты, приходите на курс «Деплой DL-сервисов»! Старт 19 марта.
🔹Обучение подойдёт для DL-инженеров всех грейдов.
🔹После каждой лекции вас ждет домашнее задание для отработки новых знаний на практике. А в конце курса — проект, где можно применить все полученные навыки.
🔹Весь путь вы пройдёте при поддержке преподавателей: опытные инженеры будут ревьюить ваш код, отвечать на вопросы во время лекций, на дополнительных Q&A-сессиях и в чате.
⚡️До 18 марта для подписчиков DeepSchool действует скидка 5%!
Подробнее о программе, спикерах, стоимости читайте на сайте.
Если возникают вопросы, пишите нам в поддержку в Телеграм!
Многие DL-инженеры знают, как готовить модели: выбрать архитектуру, лосс, на какие гиперпараметры обращать внимание и так далее. Но лишь малая часть использует инженерные практики при тренировке моделей или знает, как довести их до пользователей. Чтобы освоить эти инструменты, приходите на курс «Деплой DL-сервисов»! Старт 19 марта.
🔹Обучение подойдёт для DL-инженеров всех грейдов.
🔹После каждой лекции вас ждет домашнее задание для отработки новых знаний на практике. А в конце курса — проект, где можно применить все полученные навыки.
🔹Весь путь вы пройдёте при поддержке преподавателей: опытные инженеры будут ревьюить ваш код, отвечать на вопросы во время лекций, на дополнительных Q&A-сессиях и в чате.
⚡️До 18 марта для подписчиков DeepSchool действует скидка 5%!
Подробнее о программе, спикерах, стоимости читайте на сайте.
Если возникают вопросы, пишите нам в поддержку в Телеграм!
deepschool.ru
Научитесь создавать и деплоить DL-сервисы за 4 месяца — DeepSchool
🔥11👍8🤩4👏1
DeepSchool Digest⚡
Вместе с командой авторов продолжаем готовить для вас новые материалы. Например, уже скоро обсудим интеграцию нейросетей в продакшн и фреймворки сервинга. А пока собрали подборку материалов, которые вышли с начала этого года, чтобы вы не упустили ничего интересного👇
✔️Подкаст «Под Капотом». CV в медицине
Обсудили с Александром Лекомцевым, Team Lead CV Engineer из oxytech.io, чем отличается медицинский CV от «обычного», сложности разметки данных, как найти общий язык с врачами и многое другое про CV в медицине.
✔️В чём же считать: fp8, fp32 или fp16
В каких типах данных крутить нейронку, чтобы сэкономить память и не потерять точность? В этой статье разобрались, как они работают, где их лучше применять, как учить, инференсить и с какими подводными камнями здесь можно столкнуться.
✔️Детекторы текста на основе трансформеров. Часть 2
Продолжаем знакомить вас с детекторами текста на основе трансформеров. В статье также рассматриваем MixNet, который лидирует в бенчмарках.
✔️Как ускоряют нейросети?
В этом видео Саша Гончаренко, СТО стартапа enot.ai и хэдлайнер нашего курса «Ускорение нейросетей», рассказывает про основные подходы в ускорении нейросетей, их плюсы и минусы, а также затрагивает особенности ускорения LLM.
✔️DB: text detection
Здесь мы поговорили о сегментации текста и разобрали архитектуру DB (Differentiable Binarization).
✔️RAG, или лучший друг достоверных генеративных ответов
Как собирать поиск, что делать с генератором и за счет чего улучшать качество вашего бейзлайн-решения? В этой статье мы разобрали подход Retrieval Augmented Generation (RAG), в рамках которого ответ на пользовательский запрос генерируется с опорой на внешние документы.
✔️MoH: Multi-Head Attention as Mixture-of-Head Attention
Mixture-of-Head Attention — апдейт архитектуры Multi-Head Attention, направленный на ускорение без потери точности. О её значимых улучшениях читайте в материале по ссылке⬆️
Вместе с командой авторов продолжаем готовить для вас новые материалы. Например, уже скоро обсудим интеграцию нейросетей в продакшн и фреймворки сервинга. А пока собрали подборку материалов, которые вышли с начала этого года, чтобы вы не упустили ничего интересного👇
✔️Подкаст «Под Капотом». CV в медицине
Обсудили с Александром Лекомцевым, Team Lead CV Engineer из oxytech.io, чем отличается медицинский CV от «обычного», сложности разметки данных, как найти общий язык с врачами и многое другое про CV в медицине.
✔️В чём же считать: fp8, fp32 или fp16
В каких типах данных крутить нейронку, чтобы сэкономить память и не потерять точность? В этой статье разобрались, как они работают, где их лучше применять, как учить, инференсить и с какими подводными камнями здесь можно столкнуться.
✔️Детекторы текста на основе трансформеров. Часть 2
Продолжаем знакомить вас с детекторами текста на основе трансформеров. В статье также рассматриваем MixNet, который лидирует в бенчмарках.
✔️Как ускоряют нейросети?
В этом видео Саша Гончаренко, СТО стартапа enot.ai и хэдлайнер нашего курса «Ускорение нейросетей», рассказывает про основные подходы в ускорении нейросетей, их плюсы и минусы, а также затрагивает особенности ускорения LLM.
✔️DB: text detection
Здесь мы поговорили о сегментации текста и разобрали архитектуру DB (Differentiable Binarization).
✔️RAG, или лучший друг достоверных генеративных ответов
Как собирать поиск, что делать с генератором и за счет чего улучшать качество вашего бейзлайн-решения? В этой статье мы разобрали подход Retrieval Augmented Generation (RAG), в рамках которого ответ на пользовательский запрос генерируется с опорой на внешние документы.
✔️MoH: Multi-Head Attention as Mixture-of-Head Attention
Mixture-of-Head Attention — апдейт архитектуры Multi-Head Attention, направленный на ускорение без потери точности. О её значимых улучшениях читайте в материале по ссылке⬆️
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16🔥11👍9🤩6👏1
Внедряем модель в production c использованием model-serving фреймворков
Обучить нейросеть — часто лишь вершина айсберга. Ценность от модели появляется тогда, когда она начинает обслуживать реальных пользователей (при условии, что пользователи довольны и платят 😉). В этом посте мы поговорим о процессе внедрения нейронных сетей, а также о фреймворках сервинга — инструментах, которые значительно его упрощают.
Мы узнаем:
- какие аспекты нужно учитывать при проектировании приложения с DL-моделью
- какие подходы можно использовать для эффективной обработки запросов к приложению
- чем нам могут быть полезны model-serving фреймворки и из каких компонентов они состоят
- как настроить и интегрировать Triton Inference Server
Читайте новую статью по ссылке: https://blog.deepschool.ru/architecture/vnedryaem-model-c-ispolzovaniem-model-serving-frejmvorkov/
🪔 DeepSchool
Обучить нейросеть — часто лишь вершина айсберга. Ценность от модели появляется тогда, когда она начинает обслуживать реальных пользователей (при условии, что пользователи довольны и платят 😉). В этом посте мы поговорим о процессе внедрения нейронных сетей, а также о фреймворках сервинга — инструментах, которые значительно его упрощают.
Мы узнаем:
- какие аспекты нужно учитывать при проектировании приложения с DL-моделью
- какие подходы можно использовать для эффективной обработки запросов к приложению
- чем нам могут быть полезны model-serving фреймворки и из каких компонентов они состоят
- как настроить и интегрировать Triton Inference Server
Читайте новую статью по ссылке: https://blog.deepschool.ru/architecture/vnedryaem-model-c-ispolzovaniem-model-serving-frejmvorkov/
Please open Telegram to view this post
VIEW IN TELEGRAM
deepschool-pro on Notion
Внедряем модель c использованием model-serving фреймворков | Notion
Автор: Дмитрий Раков
🔥20🤩12❤7👏3👍1
📍Собрали в карточках цитаты из отзывов участников первого потока курса «Деплой DL-сервисов»
Новый поток программы стартует уже 19 марта!⚡️
До 18 марта для всех подписчиков канала действует скидка 5%.
Полный текст отзывов, подробную информацию о курсе смотрите на нашем сайте!
Новый поток программы стартует уже 19 марта!
До 18 марта для всех подписчиков канала действует скидка 5%.
Полный текст отзывов, подробную информацию о курсе смотрите на нашем сайте!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍11❤8😁1
Почему DL-инженерам важно перенимать практики разработчиков в свои ML-пайплайны
В видео сооснователь школы DeepSchool Тимур Фатыхов за 5 минут проходит по чек-листу актуальных инструментов и практик, которые помогают довести модель до пользователей, и рассказывает, как этому учат на курсе «Деплой DL-сервисов».
Смотрите по ссылке!
⚡️ Следующий поток курса стартует 19 марта.
Присоединяйтесь!
В видео сооснователь школы DeepSchool Тимур Фатыхов за 5 минут проходит по чек-листу актуальных инструментов и практик, которые помогают довести модель до пользователей, и рассказывает, как этому учат на курсе «Деплой DL-сервисов».
Смотрите по ссылке!
Присоединяйтесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13❤8👍3🤩2👏1