ИИ – это уже не только OpenAI! (Р)Эволюция LLM за последние 6 месяцев в кратком изложении.
Помнишь ажиотаж вокруг ChatGPT? На какое-то время фактом (судя по трендам) стало то, что OpenAI = ИИ. Маркетинг и эффект "вау" сделали ChatGPT временами популярнее самого понятия "искусственный интеллект"! Это был прорыв. Google Trends это прекрасно показывает.
Как измерить качество LLM?
Тема рейтингов для LLM сложна. Сейчас самым универсальным является Arena Leaderboard.
Чтобы показать динамику изменений, я поделюсь с тобой заметками, которые мы регулярно фиксируем в DataWorkshop. Посмотри на разницу за последние 6 месяцев. Она колоссальна!
Конечно, сама Arena также развивается динамично. Сравнивая июнь 2024 года с январем 2025-го, видно, что количество голосов выросло с 1,3 миллиона до 2,5 миллиона – почти вдвое всего за 6 месяцев! Это показывает огромный интерес к рынку LLM и важность открытости и сообщества в его развитии. Количество моделей на платформе за это время увеличилось со 109 до 189
@data_work
👇
Помнишь ажиотаж вокруг ChatGPT? На какое-то время фактом (судя по трендам) стало то, что OpenAI = ИИ. Маркетинг и эффект "вау" сделали ChatGPT временами популярнее самого понятия "искусственный интеллект"! Это был прорыв. Google Trends это прекрасно показывает.
Как измерить качество LLM?
Тема рейтингов для LLM сложна. Сейчас самым универсальным является Arena Leaderboard.
Чтобы показать динамику изменений, я поделюсь с тобой заметками, которые мы регулярно фиксируем в DataWorkshop. Посмотри на разницу за последние 6 месяцев. Она колоссальна!
Конечно, сама Arena также развивается динамично. Сравнивая июнь 2024 года с январем 2025-го, видно, что количество голосов выросло с 1,3 миллиона до 2,5 миллиона – почти вдвое всего за 6 месяцев! Это показывает огромный интерес к рынку LLM и важность открытости и сообщества в его развитии. Количество моделей на платформе за это время увеличилось со 109 до 189
@data_work
👇
👍7
Ключевые наблюдения:
1️⃣ Падение (временной?) гегемонии OpenAI:
OpenAI долгое время доминировала, а Google, что удивительно, казалось, проспала революцию LLM.
2️⃣ Пробуждение гиганта:
Google наконец наверстала упущенное и в январе 2025 года ярко заявила о себе в числе лидеров (по крайней мере, согласно Arena).
3️⃣ GPT-4o (май 2024), лидер июня с ELO 1287, упал на 13-е место в январе!
Новый лидер (Gemini 2) имеет ELO 1374 – почти на 100 пунктов больше. В мире LLM, где несколько пунктов создают преимущество, это настоящая пропасть.
4️⃣ Открытые модели поймали волну:
Например, Yi и DeepSeek v3 не только сравнялись с лучшими моделями июня, но и превзошли их. Это революция!
5️⃣ DeepSeek v3 – это не только высокое качество, но и доказательство того, что мощные модели можно тренировать дешево и эффективно.
Миф о бюджетах в сотни миллионов долларов разрушен! Эта модель также дешева и быстра в использовании. Определенно заслуживает отдельного поста.
6️⃣ xAI и Grok:
На сцену вышел новый игрок – Grok от xAI Илона Маска. Сейчас это версия 2, ждем v3 (уже завершена тренировка).
7️⃣ Arena – это не всё!
Помни, что Arena – это общий рейтинг. В наших внутренних тестах, основанных на реальных бизнес-задачах, рейтинги часто выглядят (немного) иначе. Например, Claude 3.5 Sonnet, который отлично справляется на практике (часто в ТОП-3) и хорошо понимает русский, польский и другие языки, в Arena занимает более низкие позиции.
Рынок LLM развивается с головокружительной скоростью.
Что ты думаешь? Ставь реакцию, если хочешь больше 🔥
P.S. Практический курс по LLM!
Хочешь научиться у меня практическому применению LLM, контролировать входные и выходные данные и строить надежные системы? Следи, скоро сообщу как можно будет записаться.
#llm
@data_work
1️⃣ Падение (временной?) гегемонии OpenAI:
OpenAI долгое время доминировала, а Google, что удивительно, казалось, проспала революцию LLM.
2️⃣ Пробуждение гиганта:
Google наконец наверстала упущенное и в январе 2025 года ярко заявила о себе в числе лидеров (по крайней мере, согласно Arena).
3️⃣ GPT-4o (май 2024), лидер июня с ELO 1287, упал на 13-е место в январе!
Новый лидер (Gemini 2) имеет ELO 1374 – почти на 100 пунктов больше. В мире LLM, где несколько пунктов создают преимущество, это настоящая пропасть.
4️⃣ Открытые модели поймали волну:
Например, Yi и DeepSeek v3 не только сравнялись с лучшими моделями июня, но и превзошли их. Это революция!
5️⃣ DeepSeek v3 – это не только высокое качество, но и доказательство того, что мощные модели можно тренировать дешево и эффективно.
Миф о бюджетах в сотни миллионов долларов разрушен! Эта модель также дешева и быстра в использовании. Определенно заслуживает отдельного поста.
6️⃣ xAI и Grok:
На сцену вышел новый игрок – Grok от xAI Илона Маска. Сейчас это версия 2, ждем v3 (уже завершена тренировка).
7️⃣ Arena – это не всё!
Помни, что Arena – это общий рейтинг. В наших внутренних тестах, основанных на реальных бизнес-задачах, рейтинги часто выглядят (немного) иначе. Например, Claude 3.5 Sonnet, который отлично справляется на практике (часто в ТОП-3) и хорошо понимает русский, польский и другие языки, в Arena занимает более низкие позиции.
Рынок LLM развивается с головокружительной скоростью.
Что ты думаешь? Ставь реакцию, если хочешь больше 🔥
P.S. Практический курс по LLM!
Хочешь научиться у меня практическому применению LLM, контролировать входные и выходные данные и строить надежные системы? Следи, скоро сообщу как можно будет записаться.
#llm
@data_work
🔥17
Продукты LLM: чтобы работало + и еще вызывало доверие. Как это соединить? Работа с LLM — это не просто выполнение простых команд.
Я уже набил много шишек с LLM и хочу поделиться тем, что мы разработали в лаборатории DataWorkshop, а не тем, что можно найти в интернете. Это практические знания из первых рук. Хотя, на свои грабли всё равно придётся наступить.
Это первый из серии постов. Следи за новыми постами, комментируй (кстати добавил такую возможность), делись, чтобы не пропустить то, что действительно важно! Твоя энергия важна, чтобы поддерживать у меня мотивацию делиться этим дальше. Если это важно для Тебя я буду еще больше стараться 😊
Начинаем!
Разговор с LLM начинается с простых инструкций:
--> Напиши стихотворение
--> Посоветуй 5 лучших книг о...
После простых промптов? Шаблоны. Давайте рассмотрим 5 самых популярных:
👉 R-I-S-E
Role: Ты создатель контента.
Input: Я собрал данные о нашей целевой аудитории, включая их интересы.
Steps: Предложи стратегию создания контента шаг за шагом.
Expectation: Увеличение трафика на 40% и укрепление бренда.
👉 R-T-F
Role: Маркетолог рекламы на Facebook.
Task: Разработай кампанию на Facebook для продвижения новой линии спортивной одежды.
Format: Создай сториборд с описанием последовательности рекламных креативов, включая тексты, визуализации и стратегию таргетинга.
👉 T-A-G
Task: Оценка эффективности членов команды.
Action: Выступи как непосредственный менеджер и проанализируй сильные и слабые стороны команды.
Goal: Повысить производительность команды, чтобы средний показатель удовлетворенности пользователей вырос с 6 до 7,5 в следующем квартале.
👉 B-A-B
Before: Наш сайт не отображается в результатах SEO.
After: Мы хотим попасть в топ-10 SEO в нашей нише за 90 дней.
Bridge: Разработай подробный план мониторинга действий и список из 20 ключевых слов.
👉 C-A-R-E
Context: Мы запускаем новую линию экологичной одежды.
Action: Создай целевую рекламную кампанию, подчеркивающую наше влияние на окружающую среду.
Result: Увеличение узнаваемости бренда и продаж.
Example: Кампания Patagonia "Don’t Buy This Jacket".
Да, эти шаблоны имеют свое место, особенно для быстрого мозгового штурма. Но достаточно ли этого для реального проекта?
❌ Конечно, нет!
Компании часто начинают с наивных промптов и фреймворков (LangChain?). Этого недостаточно (или это антипаттерн). В DataWorkshop мы знаем, что важна точная структура + внедрение CoT и других, казалось бы, мелких, но критически важных нюансов.
P.S. Вчера DeepSeek R1 произвел впечатление! Тесты в нашей лаборатории на нашем leaderboard запущены. Подробнее об этом скоро...
@data_work
#llm #dataworkshop
Я уже набил много шишек с LLM и хочу поделиться тем, что мы разработали в лаборатории DataWorkshop, а не тем, что можно найти в интернете. Это практические знания из первых рук. Хотя, на свои грабли всё равно придётся наступить.
Это первый из серии постов. Следи за новыми постами, комментируй (кстати добавил такую возможность), делись, чтобы не пропустить то, что действительно важно! Твоя энергия важна, чтобы поддерживать у меня мотивацию делиться этим дальше. Если это важно для Тебя я буду еще больше стараться 😊
Начинаем!
Разговор с LLM начинается с простых инструкций:
--> Напиши стихотворение
--> Посоветуй 5 лучших книг о...
После простых промптов? Шаблоны. Давайте рассмотрим 5 самых популярных:
👉 R-I-S-E
Role: Ты создатель контента.
Input: Я собрал данные о нашей целевой аудитории, включая их интересы.
Steps: Предложи стратегию создания контента шаг за шагом.
Expectation: Увеличение трафика на 40% и укрепление бренда.
👉 R-T-F
Role: Маркетолог рекламы на Facebook.
Task: Разработай кампанию на Facebook для продвижения новой линии спортивной одежды.
Format: Создай сториборд с описанием последовательности рекламных креативов, включая тексты, визуализации и стратегию таргетинга.
👉 T-A-G
Task: Оценка эффективности членов команды.
Action: Выступи как непосредственный менеджер и проанализируй сильные и слабые стороны команды.
Goal: Повысить производительность команды, чтобы средний показатель удовлетворенности пользователей вырос с 6 до 7,5 в следующем квартале.
👉 B-A-B
Before: Наш сайт не отображается в результатах SEO.
After: Мы хотим попасть в топ-10 SEO в нашей нише за 90 дней.
Bridge: Разработай подробный план мониторинга действий и список из 20 ключевых слов.
👉 C-A-R-E
Context: Мы запускаем новую линию экологичной одежды.
Action: Создай целевую рекламную кампанию, подчеркивающую наше влияние на окружающую среду.
Result: Увеличение узнаваемости бренда и продаж.
Example: Кампания Patagonia "Don’t Buy This Jacket".
Да, эти шаблоны имеют свое место, особенно для быстрого мозгового штурма. Но достаточно ли этого для реального проекта?
❌ Конечно, нет!
Компании часто начинают с наивных промптов и фреймворков (LangChain?). Этого недостаточно (или это антипаттерн). В DataWorkshop мы знаем, что важна точная структура + внедрение CoT и других, казалось бы, мелких, но критически важных нюансов.
P.S. Вчера DeepSeek R1 произвел впечатление! Тесты в нашей лаборатории на нашем leaderboard запущены. Подробнее об этом скоро...
@data_work
#llm #dataworkshop
🔥10❤1👍1
DeepSeek - модель LLM, заслуживающая внимания. Правда! Потрать 30 секунд и убедись 🙂
Контекст
Под ёлочку 🎄 появился "подарок" DeepSeek v3, который произвел большое впечатление.
Почему? Потому что...
--> обучение прошло значительно дешевле, чем у моделей LLM подобного качества (всего $5-6 млн, а не $50 млн или даже более $100 млн, как принято в отрасли), добавлю, что эта модель имеет 600B параметров (для сравнения, самая большая Llama имеет 400B)
--> использование (инференция) дешевле, чем у аналогичных моделей LLM
--> много других интересных особенностей, например, умеет прогнозировать два токена вперед (не только один)
Но это оказалось только началом... Китайцы создали новую модель DeepSeek r1, вдохновленную "размышляющими" моделями OpenAI (o1/o3). Механизм размышления - тема для отдельного обсуждения.
Правда, в этом случае стоимость "использования" тоже выросла.
Поясню.
В наших тестах в Lab DataWorkshop проверяются десятки моделей LLM, и модели DeepSeek v3/r1 показывают результаты лучше большинства моделей LLM (включая коммерческие). Они стабильно входят в TOP 3 среди открытых моделей.
При выборе модели "AI" ключевыми факторами являются как качество результатов, так и затраты. Иногда для бизнеса лучше выбрать более дешевую модель с немного более низким качеством, если она соответствует базовым требованиям. А с ценами бывает по-разному:
--> Claude Opus 3: $1000
--> Claude Sonnet 3.5: $90
--> Deep Seek v3: $10
--> Deep Seek r1: $300
Интересно, что например Opus 3, несмотря на самую высокую цену, дает самые слабые результаты (из моделей выше). Важно! Эта цена учитывает не только стоимость токена, но и необходимость многократного повторения запросов для получения удовлетворительного ответа, то есть это финальная (реальная) цена.
Модель r1 заняла в одном из рейтингов первое место! Wow 😱. Так бывает не всегда! Этот рейтинг был связан с "логическими" задачами (назовем их так) в определенной отрасли на польском языке, поэтому можно сказать, что знания были довольно "специфическими" для всех моделей LLM. Модель r1 обошла все (да-да - все) модели, включая коммерческие модели OpenAI, Gemini, Anthropic, Grok... 😱😱😱. Конечно, это зависит от задачи, не всегда r1 будет на первом месте, но в этом случае так получилось. Замечено (что, кстати, логично, но в мире LLM нельзя верить на слово, поэтому в DataWorkshop проверяем на практике), что действительно r1 очень хорошо справляется там, где нужно "подумать", например, найти какие-то логические зависимости прямо в тексте или в знаниях, которыми обладает модель.
Стоит отметить, что обе модели DeepSeek v3 и r1 довольно хорошо справляются не только с английским (например польским).
Интересный факт (на фото): модель r1 якобы научилась "останавливаться" и ловить "момент озарения" как человек, хотя этому её не учили. Хотя тема вызывает дискуссии, это имеет смысл с логической точки зрения. LLM все лучше справляются с логикой.
Что думаешь об этом?
P.S. Хочешь быть в курсе новостей LLM? Следи за моими постами 🙂
P.P.S. Open AI лежит, но наши тесты уже выключены, должно скоро встать 😉
---
Хочешь освоить LLM с практической стороны? Есть решение! В курсе "Практический LLM" раскрываются секреты построения надежных, достоверных систем AI. Познакомишься с эффективными методами валидации данных, стабилизации RAG, Агентами AI и объединением классического ML с LLM. Записывайся.
#llm #deepseek
@data_work
Контекст
Под ёлочку 🎄 появился "подарок" DeepSeek v3, который произвел большое впечатление.
Почему? Потому что...
--> обучение прошло значительно дешевле, чем у моделей LLM подобного качества (всего $5-6 млн, а не $50 млн или даже более $100 млн, как принято в отрасли), добавлю, что эта модель имеет 600B параметров (для сравнения, самая большая Llama имеет 400B)
--> использование (инференция) дешевле, чем у аналогичных моделей LLM
--> много других интересных особенностей, например, умеет прогнозировать два токена вперед (не только один)
Но это оказалось только началом... Китайцы создали новую модель DeepSeek r1, вдохновленную "размышляющими" моделями OpenAI (o1/o3). Механизм размышления - тема для отдельного обсуждения.
Правда, в этом случае стоимость "использования" тоже выросла.
Поясню.
В наших тестах в Lab DataWorkshop проверяются десятки моделей LLM, и модели DeepSeek v3/r1 показывают результаты лучше большинства моделей LLM (включая коммерческие). Они стабильно входят в TOP 3 среди открытых моделей.
При выборе модели "AI" ключевыми факторами являются как качество результатов, так и затраты. Иногда для бизнеса лучше выбрать более дешевую модель с немного более низким качеством, если она соответствует базовым требованиям. А с ценами бывает по-разному:
--> Claude Opus 3: $1000
--> Claude Sonnet 3.5: $90
--> Deep Seek v3: $10
--> Deep Seek r1: $300
Интересно, что например Opus 3, несмотря на самую высокую цену, дает самые слабые результаты (из моделей выше). Важно! Эта цена учитывает не только стоимость токена, но и необходимость многократного повторения запросов для получения удовлетворительного ответа, то есть это финальная (реальная) цена.
Модель r1 заняла в одном из рейтингов первое место! Wow 😱. Так бывает не всегда! Этот рейтинг был связан с "логическими" задачами (назовем их так) в определенной отрасли на польском языке, поэтому можно сказать, что знания были довольно "специфическими" для всех моделей LLM. Модель r1 обошла все (да-да - все) модели, включая коммерческие модели OpenAI, Gemini, Anthropic, Grok... 😱😱😱. Конечно, это зависит от задачи, не всегда r1 будет на первом месте, но в этом случае так получилось. Замечено (что, кстати, логично, но в мире LLM нельзя верить на слово, поэтому в DataWorkshop проверяем на практике), что действительно r1 очень хорошо справляется там, где нужно "подумать", например, найти какие-то логические зависимости прямо в тексте или в знаниях, которыми обладает модель.
Стоит отметить, что обе модели DeepSeek v3 и r1 довольно хорошо справляются не только с английским (например польским).
Интересный факт (на фото): модель r1 якобы научилась "останавливаться" и ловить "момент озарения" как человек, хотя этому её не учили. Хотя тема вызывает дискуссии, это имеет смысл с логической точки зрения. LLM все лучше справляются с логикой.
Что думаешь об этом?
P.S. Хочешь быть в курсе новостей LLM? Следи за моими постами 🙂
P.P.S. Open AI лежит, но наши тесты уже выключены, должно скоро встать 😉
---
Хочешь освоить LLM с практической стороны? Есть решение! В курсе "Практический LLM" раскрываются секреты построения надежных, достоверных систем AI. Познакомишься с эффективными методами валидации данных, стабилизации RAG, Агентами AI и объединением классического ML с LLM. Записывайся.
#llm #deepseek
@data_work
🔥8👍3
Я буду участвовать в AI Everything GLOBAL 2025, который пройдет с 4 по 6 февраля в Дубае, представляя как себя, так и свою компанию DataWorkshop. Это событие объединяет практиков, исследователей и руководителей для обсуждения реального влияния ИИ. Несмотря на то, что эта сфера часто окружена хайпом и громкими заявлениями, в различных отраслях действительно происходят значительные изменения, которые заслуживают внимания.
В DataWorkshop мы работаем на пересечении образования, инноваций и практического применения ИИ:
--> Образование: Мы не традиционная теоретическая школа — наш акцент на обучение реальным, практическим навыкам.
--> Инновации и исследования: Мы не академическое учреждение, но активно изучаем и экспериментируем с новыми достижениями в ИИ.
--> Практика: Мы не просто разработчики ПО — мы реализуем проекты в области ИИ, которые создают реальную бизнес-ценность.
В DataWorkshop мы работаем на пересечении образования, инноваций и практического применения ИИ:
--> Образование: Мы не традиционная теоретическая школа — наш акцент на обучение реальным, практическим навыкам.
--> Инновации и исследования: Мы не академическое учреждение, но активно изучаем и экспериментируем с новыми достижениями в ИИ.
--> Практика: Мы не просто разработчики ПО — мы реализуем проекты в области ИИ, которые создают реальную бизнес-ценность.
🔥5❤2
👆👆👆
Буду рад встречи с людьми, которые разделяют этот практический, ориентированный на бизнес подход к ИИ. Если планируешь посетить мероприятие или будешь где-то рядом, давай встретимся, чтобы обменяться идеями или обсудить возможности сотрудничества.
Свяжитесь со мной, если хочешь встретится. Буду рад продуктивным обсуждениям и изучению последних достижений в сфере ИИ.
#AiEverything2025 #ArtificialIntelligence #DataWorkshop #PracticalAI #Innovation
Буду рад встречи с людьми, которые разделяют этот практический, ориентированный на бизнес подход к ИИ. Если планируешь посетить мероприятие или будешь где-то рядом, давай встретимся, чтобы обменяться идеями или обсудить возможности сотрудничества.
Свяжитесь со мной, если хочешь встретится. Буду рад продуктивным обсуждениям и изучению последних достижений в сфере ИИ.
#AiEverything2025 #ArtificialIntelligence #DataWorkshop #PracticalAI #Innovation
👍6
В мире LLM происходит что-то... и это что-то грандиозное! 🔥 Гонка набирает обороты. Успеваешь следить? Расскажу кратко о самом важном.
1️⃣ Стартап DeepSeek, прозванный "убийцей" Nvidia (название преувеличенное, но мир инвестиций любит такие громкие заявления), вызвал падение её акций. Правда, модель r1 анонсировали 20 января, информация о результатах появилась 21 января, но реакция рынка последовала только 27 января. Кстати, в DataWorkshop LAB сразу стараемся запускать эксперименты и проверять потенциал на реальных примерах, и я сразу писал, что здесь происходит что-то важное. Вывод: стоит следить за моими публикациями :).
2️⃣ Китай объявил об инфраструктурном проекте ИИ "План развития новых отраслей ИИ", инвестируя около 140 миллиардов долларов, что в пересчёте на эффективность может соответствовать 500 миллиардам долларов в проекте Stargate. То есть битва только разворачивается.
3️⃣ И вчера DeepSeek снова удивил, опубликовав открытую модель Janus-Pro с мультимодальной авторегрессивной архитектурой, обрабатывающей текст, изображения и звук, которая показывает отличные результаты в бенчмарках, демо доступно на HF.
Конечно, появилось много мифов и искажённой информации. Поскольку DeepSeek стал мейнстримом, расскажу о некоторых из них.
Говорят, что DeepSeek - это "побочный" проект, кто-то на коленке получил супер-результат. Нет! Это неправда. DeepSeek поддерживается и управляется китайским хедж-фондом High-Flyer, который в 2020 году управлял активами стоимостью более 7 миллиардов долларов, а в команде работают олимпийские медалисты по математике, физике и информатике. У них есть оборудование, возможно меньше чем у OpenAI, Meta или Grok, но всё равно имеют 50k или больше H100 (или подобных карт), откуда они это взяли - другая история, но есть на чём тренировать модели LLM (это НЕ компания с 1-2 картами)... и ещё много интересного.
Расскажу ещё больше о DeepSeek, потому что этот чёрный лебедь наделал шума и меняет мир LLM и перспективу, прежде всего инвесторов. Ведь все эти громкие заявления от OpenAI были направлены в основном инвесторам, а тут такой шок.
Что думаешь по этому поводу?
Поделись как мнимум с одним человеком поставь реакцию 🙂
#llm #ai #deepseek #dataworkshop
@data_work
1️⃣ Стартап DeepSeek, прозванный "убийцей" Nvidia (название преувеличенное, но мир инвестиций любит такие громкие заявления), вызвал падение её акций. Правда, модель r1 анонсировали 20 января, информация о результатах появилась 21 января, но реакция рынка последовала только 27 января. Кстати, в DataWorkshop LAB сразу стараемся запускать эксперименты и проверять потенциал на реальных примерах, и я сразу писал, что здесь происходит что-то важное. Вывод: стоит следить за моими публикациями :).
2️⃣ Китай объявил об инфраструктурном проекте ИИ "План развития новых отраслей ИИ", инвестируя около 140 миллиардов долларов, что в пересчёте на эффективность может соответствовать 500 миллиардам долларов в проекте Stargate. То есть битва только разворачивается.
3️⃣ И вчера DeepSeek снова удивил, опубликовав открытую модель Janus-Pro с мультимодальной авторегрессивной архитектурой, обрабатывающей текст, изображения и звук, которая показывает отличные результаты в бенчмарках, демо доступно на HF.
Конечно, появилось много мифов и искажённой информации. Поскольку DeepSeek стал мейнстримом, расскажу о некоторых из них.
Говорят, что DeepSeek - это "побочный" проект, кто-то на коленке получил супер-результат. Нет! Это неправда. DeepSeek поддерживается и управляется китайским хедж-фондом High-Flyer, который в 2020 году управлял активами стоимостью более 7 миллиардов долларов, а в команде работают олимпийские медалисты по математике, физике и информатике. У них есть оборудование, возможно меньше чем у OpenAI, Meta или Grok, но всё равно имеют 50k или больше H100 (или подобных карт), откуда они это взяли - другая история, но есть на чём тренировать модели LLM (это НЕ компания с 1-2 картами)... и ещё много интересного.
Расскажу ещё больше о DeepSeek, потому что этот чёрный лебедь наделал шума и меняет мир LLM и перспективу, прежде всего инвесторов. Ведь все эти громкие заявления от OpenAI были направлены в основном инвесторам, а тут такой шок.
Что думаешь по этому поводу?
Поделись как мнимум с одним человеком поставь реакцию 🙂
#llm #ai #deepseek #dataworkshop
@data_work
🔥18👍2
ML (или то, что сейчас называют AI) давно вышел за пределы академической и технологической сфер — он уже оказывает глобальное влияние на всё! Чёрные лебеди вроде DeepSeek могут устроить хаос и привести к огромным потерям на американской бирже (больше, чем, например, капитализация самых больших фирм "в наших странах" или около того, очень много).
🔥5❤3❤🔥1
👆👆👆
О феномене "DeepSeek moment" (так его назовём) уже писал несколько постов, но продолжаю готовить материал с дальнейшими размышлениями — тема действительно интересная, стоит спокойно её разобрать. Со временем, чем дольше занимаешься технологиями, тем лучше замечаешь определённый паттерн инноваций: не всегда знаешь, кто что-то создаст, но уверен, что это появится... потому что набирается критическая масса.
Вообще, инновации сложно делать централизованно, особенно если управление сводится к разбрасыванию больших сумм денег. Может показаться странным, даже парадоксальным, но большие деньги могут не ускорять, а наоборот — убивать инновации (да, звучит нестандартно, но стоит задуматься). Инновации любят свободу и лёгкость — возможность экспериментировать, быстро и безболезненно ошибаться.
На DataWorkshop Club Conf делился мыслями на эту тему — о том, что настоящие прорывы чаще всего рождаются на стыке разных областей, талантов и опыта. Именно там складываются уникальные "мозаики".
Поэтому полезно смотреть шире и черпать информацию из разных источников — этим и занимаемся в DataWorkshop, инвестируя время и энергию в участие в таких местах. Ближайшие три дня буду на AI Everything GLOBAL Summit. Если тоже там или где-то рядом — дай знать.
P.S. Да-да, на таких мероприятиях тоже хватает хайпа, но фильтровать его — часть процесса. Написать о самом интересном, что увижу?
А как у тебя — где черпаешь информацию? Интернет, живые события?
Хочешь быть в курсе? Следи за новостями
О феномене "DeepSeek moment" (так его назовём) уже писал несколько постов, но продолжаю готовить материал с дальнейшими размышлениями — тема действительно интересная, стоит спокойно её разобрать. Со временем, чем дольше занимаешься технологиями, тем лучше замечаешь определённый паттерн инноваций: не всегда знаешь, кто что-то создаст, но уверен, что это появится... потому что набирается критическая масса.
Вообще, инновации сложно делать централизованно, особенно если управление сводится к разбрасыванию больших сумм денег. Может показаться странным, даже парадоксальным, но большие деньги могут не ускорять, а наоборот — убивать инновации (да, звучит нестандартно, но стоит задуматься). Инновации любят свободу и лёгкость — возможность экспериментировать, быстро и безболезненно ошибаться.
На DataWorkshop Club Conf делился мыслями на эту тему — о том, что настоящие прорывы чаще всего рождаются на стыке разных областей, талантов и опыта. Именно там складываются уникальные "мозаики".
Поэтому полезно смотреть шире и черпать информацию из разных источников — этим и занимаемся в DataWorkshop, инвестируя время и энергию в участие в таких местах. Ближайшие три дня буду на AI Everything GLOBAL Summit. Если тоже там или где-то рядом — дай знать.
P.S. Да-да, на таких мероприятиях тоже хватает хайпа, но фильтровать его — часть процесса. Написать о самом интересном, что увижу?
А как у тебя — где черпаешь информацию? Интернет, живые события?
Хочешь быть в курсе? Следи за новостями
🔥12❤3🎉1
Действие начинается! Сам Альтман раскрыл планы OpenAI на ближайшие месяцы. Похоже, нас ждут большие изменения, которые повлияют на то, как мы используем ИИ:
🔥 GPT-4.5 (Orion) – уже через несколько недель! Или нет? 🤔
🔥 GPT-5 – через несколько месяцев!
➡ Последнее поколение без "цепочки размышлений" (non-chain-of-thought). Маркетинговый ход или что-то действительно интересное? 🤔
➡ Объединит модели o-series и GPT-series, станет более универсальным
➡ Будет доступен в приложении и через API
➡ Заменит o3, которая больше не будет выпускаться отдельно
➡ Бесплатные пользователи ChatGPT получат базовую версию
➡ Подписчики Plus – премиум-версию
➡ Подписчики Pro – самую продвинутую версию с голосом, canvas, поиском, deep research и другими функциями
Изменит ли GPT-5 правила игры? Какие у тебя ожидания? И при чём тут DeepSeek? Хмм… тоже задумался 🤔 Напиши в комментариях свои мысли!
Хочешь больше? Добавляй в сеть, подписывайся и делись с другими.
P.S. В DataWorkshop Lab ждём новые модели, чтобы протестировать их на реальных задачах!
P.P.S. 24 февраля стартует курс LLM - хочешь чтобы научил как я работаю с LLM? Присоеденяйся
#openai #gpt5 #ai #chatgpt
🔥 GPT-4.5 (Orion) – уже через несколько недель! Или нет? 🤔
🔥 GPT-5 – через несколько месяцев!
➡ Последнее поколение без "цепочки размышлений" (non-chain-of-thought). Маркетинговый ход или что-то действительно интересное? 🤔
➡ Объединит модели o-series и GPT-series, станет более универсальным
➡ Будет доступен в приложении и через API
➡ Заменит o3, которая больше не будет выпускаться отдельно
➡ Бесплатные пользователи ChatGPT получат базовую версию
➡ Подписчики Plus – премиум-версию
➡ Подписчики Pro – самую продвинутую версию с голосом, canvas, поиском, deep research и другими функциями
Изменит ли GPT-5 правила игры? Какие у тебя ожидания? И при чём тут DeepSeek? Хмм… тоже задумался 🤔 Напиши в комментариях свои мысли!
Хочешь больше? Добавляй в сеть, подписывайся и делись с другими.
P.S. В DataWorkshop Lab ждём новые модели, чтобы протестировать их на реальных задачах!
P.P.S. 24 февраля стартует курс LLM - хочешь чтобы научил как я работаю с LLM? Присоеденяйся
#openai #gpt5 #ai #chatgpt
🔥13
На этой неделе было много встреч — 4 города, более 400 человек.
Говорил о практическом подходе к LLM: как строить системы с контролируемым качеством и управлять сложностями, которые неизбежно возникают при работе с LLM.
В DataWorkshop мы выработали 7 уровней погружения в LLM. Большинство людей находятся на первом и часто пытаются сразу прыгнуть на 4-й или 5-й. Это предсказуемо ведет к провалу. Важно идти по шагам.
За последние 2 года (и более 10 лет в ML) я провел сотни экспериментов, потратил тысячи часов работы и миллионы токенов, чтобы понять, что действительно работает. Большинство советов в интернете либо неэффективны, либо упускают важные детали.
Мы проверили все на реальных проектах, довели до практичности и на основе этого создали курс из 5 модулей, который показывает, как правильно работать с LLM.
🚀 Старт 24 февраля (понедельник). Присоединяйся!
#dataworkshop #llm #howto
Говорил о практическом подходе к LLM: как строить системы с контролируемым качеством и управлять сложностями, которые неизбежно возникают при работе с LLM.
В DataWorkshop мы выработали 7 уровней погружения в LLM. Большинство людей находятся на первом и часто пытаются сразу прыгнуть на 4-й или 5-й. Это предсказуемо ведет к провалу. Важно идти по шагам.
За последние 2 года (и более 10 лет в ML) я провел сотни экспериментов, потратил тысячи часов работы и миллионы токенов, чтобы понять, что действительно работает. Большинство советов в интернете либо неэффективны, либо упускают важные детали.
Мы проверили все на реальных проектах, довели до практичности и на основе этого создали курс из 5 модулей, который показывает, как правильно работать с LLM.
🚀 Старт 24 февраля (понедельник). Присоединяйся!
#dataworkshop #llm #howto
🔥9❤1
Закончился первый поток курса "Практический LLM". В нём прежде всего уделяется больше внимания тому, чтобы «держать качество под контролем» и фокусироваться на фундаменте, а не на поверхностных веяниях, которые всё равно меняются каждый день.
Почему это так важно? Вот пример того, как сейчас часто выглядит контроль качества диалогов чат-бота.
Всё это было бы смешно, если бы не было так грустно...
С одной стороны, так называемый AI быстро бежит вперёд. С другой -катастрофически не хватает здравого смысла и понимания, насколько важно поработать над фундаментом, вместо того чтобы ждать, что AI (да и любая другая технология) - это магия.
Всё равно нужно думать и грамотно планировать.
Хочешь научиться грамотно работать с LLM без всей этой маркетинговой шелухи?
Ставь реакцию 🔥 и напиши в комментарии, чему именно хочешь научиться - возможно, следующий поток будет как раз для тебя.
#course #llm #мысли #dataworkshop
Почему это так важно? Вот пример того, как сейчас часто выглядит контроль качества диалогов чат-бота.
Всё это было бы смешно, если бы не было так грустно...
С одной стороны, так называемый AI быстро бежит вперёд. С другой -катастрофически не хватает здравого смысла и понимания, насколько важно поработать над фундаментом, вместо того чтобы ждать, что AI (да и любая другая технология) - это магия.
Всё равно нужно думать и грамотно планировать.
Хочешь научиться грамотно работать с LLM без всей этой маркетинговой шелухи?
Ставь реакцию 🔥 и напиши в комментарии, чему именно хочешь научиться - возможно, следующий поток будет как раз для тебя.
#course #llm #мысли #dataworkshop
🔥15
🚨 Вышла Llama 4 — проверил лично и делюсь впечатлениями! 🔥
TLDR: Давно ждал Llama 4 — и вот она внезапно вышла прямо в выходные (было чем заняться 😂). Могу точно сказать: модель мощная, быстрая, доступная по ресурсам (особенно по сравнению с альтернативами), а главное — стала гораздо лучше работать со структурированными задачами (structured output).
Первым делом проверил её именно на этом — справляется отлично. Очень рад, что развитие идёт именно в этом направлении, модель становится полезнее и применимее к реальным задачам. В общем, тот тренд, который я прогнозировал, продолжает реализовываться 💪
Теперь конкретно, по моделям:
#llama #llm #leaderboard #dataworkshop
@data_work
👇👇👇
TLDR: Давно ждал Llama 4 — и вот она внезапно вышла прямо в выходные (было чем заняться 😂). Могу точно сказать: модель мощная, быстрая, доступная по ресурсам (особенно по сравнению с альтернативами), а главное — стала гораздо лучше работать со структурированными задачами (structured output).
Первым делом проверил её именно на этом — справляется отлично. Очень рад, что развитие идёт именно в этом направлении, модель становится полезнее и применимее к реальным задачам. В общем, тот тренд, который я прогнозировал, продолжает реализовываться 💪
Теперь конкретно, по моделям:
#llama #llm #leaderboard #dataworkshop
@data_work
👇👇👇
🔥8👍1
👆👆👆 (часть 1)
Теперь конкретно, по моделям:
1️⃣ Llama 4 Scout: Это «младшая» версия с 109 млрд параметров, из которых активны одновременно только 17 млрд, благодаря новой архитектуре MoE (Mixture of Experts с 16 экспертами). Огромный плюс — супердлинный контекст до 10 миллионов токенов! Идеален для анализа больших документов, текстов или даже длинных видео. Scout мультимодален (текст + изображение), и при квантовании в int4 его реально запустить даже на одной видеокарте типа H100.
2️⃣ Llama 4 Maverick: Это уже версия посерьезнее — 400 млрд параметров (активны тоже 17 млрд, но уже целых 128 экспертов!). Контекст до 1 миллиона токенов, также мультимодален (текст + изображение). Показатели действительно топовые, смело может конкурировать с GPT-4o по ряду задач. Версия FP8 оптимизирована под запуск на одном серверном узле с 8xH100.
3️⃣ Llama 4 Behemoth (2 триллиона параметров) — пока ещё обучается, но уже ясно: это настоящая «пушка», ждём с нетерпением!
Что всё это значит на практике?
↳ Мультимодальность: работа не только с текстами, но и с картинками, а Scout при 10М токенах обрабатывает даже видео длительностью до 20 часов.
↳ Очень большой объём данных для обучения — теперь 30 триллионов токенов (в 2 раза больше, чем у Llama 3). Включает данные на 200 языках (из них официально поддерживаемых 12, но всегда можно адаптировать модель под нужный язык с помощью лицензии Llama 4 Community License).
↳ Новая архитектура MoE, впервые использованная в моделях Meta — позволяет системе задействовать только те части модели, которые нужны прямо сейчас, обеспечивая высокую скорость и эффективность.
↳ Пока это версии типа Instruct, поэтому для полноценного сравнения по reasoning-задачам (логика, рассуждения) лучше дождаться отдельных моделей Reasoning, о которых, скорее всего, подробнее расскажут на LLAMACon в конце апреля.
В общем, обновление действительно стоящее, я доволен и продолжаю тестировать. Всем рекомендую попробовать самим, это новый уровень! 🤓
P.S. Тут поднимается интересная волна что Llama 4 всех обманула, хочешь знать больше и как я на это смотрю? Ставь реакцию 🔥
#llama #llm #leaderboard #dataworkshop
@data_work
Теперь конкретно, по моделям:
1️⃣ Llama 4 Scout: Это «младшая» версия с 109 млрд параметров, из которых активны одновременно только 17 млрд, благодаря новой архитектуре MoE (Mixture of Experts с 16 экспертами). Огромный плюс — супердлинный контекст до 10 миллионов токенов! Идеален для анализа больших документов, текстов или даже длинных видео. Scout мультимодален (текст + изображение), и при квантовании в int4 его реально запустить даже на одной видеокарте типа H100.
2️⃣ Llama 4 Maverick: Это уже версия посерьезнее — 400 млрд параметров (активны тоже 17 млрд, но уже целых 128 экспертов!). Контекст до 1 миллиона токенов, также мультимодален (текст + изображение). Показатели действительно топовые, смело может конкурировать с GPT-4o по ряду задач. Версия FP8 оптимизирована под запуск на одном серверном узле с 8xH100.
3️⃣ Llama 4 Behemoth (2 триллиона параметров) — пока ещё обучается, но уже ясно: это настоящая «пушка», ждём с нетерпением!
Что всё это значит на практике?
↳ Мультимодальность: работа не только с текстами, но и с картинками, а Scout при 10М токенах обрабатывает даже видео длительностью до 20 часов.
↳ Очень большой объём данных для обучения — теперь 30 триллионов токенов (в 2 раза больше, чем у Llama 3). Включает данные на 200 языках (из них официально поддерживаемых 12, но всегда можно адаптировать модель под нужный язык с помощью лицензии Llama 4 Community License).
↳ Новая архитектура MoE, впервые использованная в моделях Meta — позволяет системе задействовать только те части модели, которые нужны прямо сейчас, обеспечивая высокую скорость и эффективность.
↳ Пока это версии типа Instruct, поэтому для полноценного сравнения по reasoning-задачам (логика, рассуждения) лучше дождаться отдельных моделей Reasoning, о которых, скорее всего, подробнее расскажут на LLAMACon в конце апреля.
В общем, обновление действительно стоящее, я доволен и продолжаю тестировать. Всем рекомендую попробовать самим, это новый уровень! 🤓
P.S. Тут поднимается интересная волна что Llama 4 всех обманула, хочешь знать больше и как я на это смотрю? Ставь реакцию 🔥
#llama #llm #leaderboard #dataworkshop
@data_work
🔥19👍2