🏆 Data Feeling | AI – Telegram
🏆 Data Feeling | AI
15.9K subscribers
732 photos
222 videos
6 files
469 links
IT предприниматель и препод 🧑‍🏫
ex-ML лидер в Dodo Brands 🦤🍕
Прокачиваю людей в Data Science 🚀
Победитель Stepik Awards 🏆
Kaggle Expert 🤹‍♀️
Создатель @Speakadora_bot @big_llm_course

РКН https://clik.now/datafeeling
Алерон @Ale_v2
Download Telegram
Письмо от CEO Duolingo о переходе к AI-first подходу (как когда-то был mobile-first подход)

🔥 Мой текущий страйк в Дуолинго 13, поэтому вот вам интересная новость про птичку.

Разделяю каждое слово в этом письме. Ждать нельзя, иначе останешься далеко позади.

Перевод письма:
Я говорил это на Q&A и многих встречах, но хочу сказать официально: Duolingo становится AI-first.

ИИ уже меняет то, как мы работаем. Вопрос не в том, случится ли это — это уже происходит. Когда изменения такого масштаба — самое худшее, что можно сделать, это ждать. В 2012 мы сделали ставку на мобильные. Пока другие делали сопутствующие приложения к сайтам, мы решили строить всё с нуля под мобильные — потому что верили, что за этим будущее. Это решение принесло нам звание «Приложение года» в App Store и дало старт нашему органическому росту.

Тогда ставка на мобильные всё изменила. Сейчас мы делаем похожую ставку, и новая платформа — это ИИ.

ИИ — это не просто рост продуктивности. Он помогает нам приблизиться к нашей миссии. Чтобы хорошо обучать, нужно создавать огромное количество контента — и вручную это не масштабируется. Одно из лучших решений, которое мы приняли недавно, — заменить наш медленный процесс создания контента на такой, где ключевую роль играет ИИ. Без него нам потребовались бы десятилетия, чтобы масштабировать контент для большего числа учеников. Мы обязаны нашим ученикам доставить им контент как можно быстрее.

ИИ также помогает нам строить такие функции, как видеозвонки, которые раньше было невозможно реализовать. Впервые в истории обучение, сравнимое с лучшими репетиторами, стало достижимо.

Быть AI-first — значит переосмыслить, как мы работаем. Маленькие изменения в системах, изначально созданных для людей, не приведут нас к цели. Во многих случаях нам придётся начать с нуля. Мы не будем перестраивать всё за ночь, и некоторые вещи — вроде обучения ИИ понимать наш код — займут время. Но мы не можем ждать, пока технологии станут идеальными. Мы предпочитаем двигаться с чувством срочности и допускать небольшие потери в качестве, чем идти медленно и упустить момент.

Мы внедрим несколько полезных ограничений, чтобы направить этот переход:
• Постепенно откажемся от подрядчиков для задач, которые может выполнять ИИ
• ИИ будет критерием при найме новых сотрудников
• ИИ будет учитывать при оценке эффективности работы
• Новые сотрудники появятся только если команда не может автоматизировать свою работу
• Большинство функций получат инициативы для фундаментального изменения рабочих процессов

При всём этом, Duolingo остаётся компанией, которая заботится о своих сотрудниках. Речь не идёт о замене Duos ИИ. Речь о снятии узких мест, чтобы наши выдающиеся Duos могли делать больше. Мы хотим, чтобы вы фокусировались на творческих задачах и решении реальных проблем, а не на рутинной работе. Мы обеспечим вас обучением, менторством и инструментами для работы с ИИ.


🎚️ Перемены могут пугать, но я уверен — для Duolingo это будет сильный шаг вперёд. Это поможет нам лучше выполнять свою миссию. А для Duos это означает — оставаться впереди и использовать технологии, чтобы добиваться результатов.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍39👎6😁3
🤯 Нейросети заменят усилят нас еще быстрее?

Если боитесь потерять работу из-за ИИ, бойтесь еще сильнее 😄. В новой статье AI Digest исследователи рассказали, что AI-технологии стали развиваться практически в 2 раза быстрее.

Если в период с 2019 по 2025 способности моделей росли каждые 7 месяцев (считалась длительность задач, которые агенты выполняли верно в 50% случаев), то в 2025 году время обучения сократилось до 4 месяцев 😱.

В итоге сейчас модели (конкретно модель o3) может больше, чем в 50% случаев верно решить задачу, на решение которой люди тратят около 1,5 часов.

Раньше исследователи делали такие прогнозы:

В 2026 году нейронки смогут решать 2-часовые задачи. В 2027 — 1 рабочий день (8 часов). В 2028 — 1 рабочая неделя (40 часов). В 2029 — 1 рабочий месяц (167 часов) (И это все за один подход! 🙃)

Звучит и так ничего себе, но теперь предсказания сдвинулись: если тенденция к ускорению AI сохранится, то в 2027 году операторы смогут выполнять задания продолжительностью в месяц 🫣.

Я до сих пор не могу это представить. Все развивается настолько быстро, что, кажется, пора это искусственно замедлять. Иначе мы можем быть не готовы к такому сверхпрогрессу и когда он настанет, не будем знать, что делать.

🎚️ @datafeeling
Please open Telegram to view this post
VIEW IN TELEGRAM
👎28👍11💯7🎃542😁1
🪐 Cursor & статистика самых популярных среди разработчиков моделей

Топ-5 самых популярных:

1. Claude 3.7 Sonnet
2. Gemini 2.5 Pro
3. Claude 3.5 Sonnet
4. GPT-4.1
5. GPT-4o

Топ-5 быстрее всего набирающих популярность:

1. o3
2. o4-mini
3. DeepSeek 3.1
4. GPT-4.1
5. Grok 3

🎚️ Пользуемся! Кстати, на днях основатель Cursor заявил, что сейчас их кодовый агент генерирует порядка миллиарда строк кода в день (и это только те, которым пользователь поставил апрув).

Это при том, что во всем мире ежедневно пишется всего несколько миллиардов строчек 🧑‍💻🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
😁12👍5🔥32
Ребят, я вам так скажу, цените матерей своих и никогда не спрашивайте вайб-кодера на каком фрэймворке у него написан фронтенд.
😁53💯21👍6
Media is too big
VIEW IN TELEGRAM
🤰А чем ты займешься после увольнения?

Обещал писать про мой предпринимательский опыт в IT. Делюсь!. После ухода с работы я из ML тим лидера превратился в какого-то прОджекта. А дело в том, что меня затянуло в несколько пет-проектов, где я даже успел собрать свою команду ребят разработчиков.

У меня появился большой интерес к mini app в телеграм. Поэтому взял несколько коммерческих заказов на разработку (один из них превратился в ночной кошмар, но об этом позже). Помимо коммерции сделал несколько спринтов по прокачке AI Спикадоры., в которой наговорили уже 1 500 часов.

Что успел из интересного?

Мы с легкостью завайбкодили в нее интерактивную web app компоненту с рейтингом 🏆, достижениями за практику🥇, страйками, как в Дуолинго, и прочим 🗺. Вышло прям классно, но что это дало?

👼Люди начали активно пользоваться и делиться с друзьями, чтобы получить премиум 😈. Органический приток вырос до 40 человек в день (без рекламы). Знаете, что сильнее всего зашло людям?

🍎 Яблочки за ответы на вопросы или использование рекомендованных фраз в речи. Люди теперь прям маньячат эти яблочки, лишь бы оказаться в топе. (привет Kaggle по изучению языка). А знаете, как мы это поняли?

📊Мы все покрыли аналитикой с помощью внешнего дашборда MixPanel. Оказывается, есть очень продвинутые решения для ловли событий с бэкенда. Так мы отцифровали весь клиентский путь до оплаты. Поняли, что есть проблемки. Знаете, чего людям не хватало?

🙊Мы тоже не знали, но устали от низкого ретеншена и в итоге провели кастдевы тех, кто купил и кто не купил. Все гениальное просто. Оказывается, людям не хватало секса корректировок ошибок. И мы вкатили исправление спустя 4 месяца от момента, когда впервые это услышали. Теперь люди видят прямую ценность в диалоге с ботом. А как это превратить в деньги?

💸 В качестве премиум фичей решили добавлять более продвинутую аналитику и рекомендации по замене слов на уровень выше.

🎚️ Спикадора все еще мало приносит, поэтому занимаюсь ей чисто для эксперимента и генерации моего дофамина. Поэтому учите английский)
Please open Telegram to view this post
VIEW IN TELEGRAM
40🔥23👍136🦄2🏆1
#Личное. Я не успел написать про Websummit и про то, какие карьерные IT возможности я оттуда вытащил, но тут на меня упало еще одно мероприятие …

⚡️Концерт Леди Гаги в Рио-де-Жанейро

🔥 Собрал более 2М зрителей, установив рекорд как самое масштабное сольное выступление женщины в истории.

🇧🇷 Мероприятие, как ожидается, принесет экономике Рио около 100М долларов.

Я хочу, чтобы вы тоже почувствовали грандиозность этих фото и вынесли для себя ответ на вопрос…

🎚️ Не «заскуфились» ли вы? И может начать уже путешествовать? Особенно, если у вас удаленная работа!🧑‍💻
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
24👍15🔥85💯1
🧐 Где используется ML в приложения для изучения английского типо Duolingo?

Спойлер почти везде! Но я решил поресерчить и выписать только то, что относится к алгоритмам машинного обучения с доказанным эффектом

Первой моделью является Half-Life Regression (HLR), которая предназначена для оптимизации интервалов повторений. Исследование Settles и Meeder (2016) показывает, что применение этой модели приводит к повышению запоминания на 15-25%.

Второй алгоритм — Sleeping, Recovering Bandit Algorithm, который используется для оптимизации уведомлений. Согласно публикации Yancey и Settles (2020), этот алгоритм способствует увеличению вовлеченности пользователей на 12%.

Третья модель — LSTM для прогнозирования и определения ошибок. Рекуррентные сети, описанные в исследовании Mirea и Bicknell (2019), позволяют адаптировать сложность заданий, что приводит к снижению количества ошибок у обучающихся.

Четвертая группа — это генеративные языковые модели, такие как GPT-4 и другие. Эти модели берут на себя автоматическую генерацию учебного контента, что, согласно данным Duolingo Research (2023-2025), позволяет расширить курс на 148 языков. Вообще GenAI группа алгоритмов может реализовать кучу сложных лингвистических фичей - к примеру подсвечивать ошибки, выигрыш в основном в customer experience.

🎚️ Берите себе на заметку! Будите умничать на собеседовании 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27🔥113
⚡️ Будущее нейросетей и поисковиков — за их объединением.

Аналитики OneLittleWeb выяснили, что ИИ-чат-боты за год выросли по количеству обращений на 80,92%.

Поисковые системы, потеряв всего 0,5% аудитории, не зевали — быстро начали встраивать ИИ-инструменты. Ярчайший кейс — Яндекс, который после запуска «Нейро» выстрелил с ростом трафика на 32,65%.

Рынок сейчас движется к умному симбиозу — где ИИ усиливает поисковики, а те взамен дают мощную базу данных.

Заметил, что мой малоизвестный сервис фаворит черного цвета тоже попал в отчет.

🎚️ @datafeeling
Please open Telegram to view this post
VIEW IN TELEGRAM
9🔥23👍651💯1🦄1
Восстанию машин отмена, у меня сегодня день рождения!

Да, верю что вы помните)

🤯 Мне теперь 28, а вас больше 11к

Спасибо, что читаете! Буду стараться писать еще полезнее!

На вопрос вчера про wishlist, у меня появилась прикольная идея купить доп мониторы на ноут🧑‍💻.

⭐️ Поэтому при желании поучаствовать кидайте star’ы на этот пост. А я взамен сделаю для вас обзор этого девайся)

🚀 Или просто голоса на канал закиньте, тоже буду рад).

🤗 Обнимаю, мои чемпиончики!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
60🎉9929🔥14👍3👎1
Как сэкономить до 4 раз на длинных промптах в OpenAI API

Если ваш стартап, продукт или сервис часто отправляет в OpenAI один и тот же системный промпт, вы можете существенно сократить расходы благодаря функции кеширования (Prompt Caching). Интересно, что многие об этом не знают и не используют эту возможность в полной мере. Хотя мы про это рассказывали тут.

Что это такое?
OpenAI автоматически кеширует начало промпта (префикс), если оно уже обрабатывалось недавно. Это позволяет избежать повторного вычисления при каждом запросе.

Результат:
– Задержка может снизиться до 80% 😱
– Стоимость токенов для префикса — до 50% 😱

Когда работает кеш?
– Срабатывает, если промпт длиннее 1024 токенов.
– Проверяется, использовался ли этот префикс недавно.
– Время жизни кеша — от 5 до 10 минут, иногда до часа (если не было запросов, кеш очищается).

Эта функция нереально полезна, когда отправляется много запросов с одинаковым началом. Вангую, ваш случай подходит, даже если у вас RAG 🦞

Что считается совпадением?
Промпт должен совпадать с точностью до символа: пробелы, порядок строк и даже кавычки имеют значение. Кеш работает блоками: 1024, 1152, 1280 токенов и далее с шагом 128 токенов (в зависимости от длины вашего входного промпта).

Что кешируется?
– System-промпт
– Инструкции, примеры, структура вывода
– Список инструментов
– Изображения (когда они передаются в формате base64 и если они одинаковые каждый раз)

Важно: все эти элементы должны находиться в начале промпта.

Как понять, что кеш сработал?
Обратите внимание на поле cached_tokens в ответе API. Если значение больше нуля, это означает, что часть промпта была взята из кеша.

Нужно ли что-то включать?
Нет. Кеш работает автоматически, без дополнительных настроек и доплат. Он встроен во все модели, начиная с gpt-4.

Рекомендации:
– Фиксируйте начало промпта (префикс должен оставаться статичным).
– Избегайте мелких правок и случайных изменений.
– Динамический контент размещайте в конце.

Если вы работаете с длинными и повторяющимися промптами, кеширование is all you need 😉

🎚️ Подробнее о кешировании в OpenAI API можно прочитать здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3510
This media is not supported in your browser
VIEW IN TELEGRAM
Новый классный апдейт в OpenAI.

Наконец поняли, как важны качественные данные из PDF-файлов в Deep Research!

Честно говоря, успели устал копаться в отчетах по 20-30 страниц, чтобы найти нужные ссылки.

🎚️ Теперь этот процесс будет намного проще, и это очень приятно!
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍3👎1
Media is too big
VIEW IN TELEGRAM
Вайб-разработчики делятся на 2 типа:

🎚️ 2-й вайб на максималках 😎

Пишите какой у вас в комментарии👇
Please open Telegram to view this post
VIEW IN TELEGRAM
😁35🏆6👎322
👏 Автоматизация с помощью AI агентов начинает набирать обороты, а я еще ни разу не написал про MCP.

С появлением LLM-агентов, которые самостоятельно принимают решения и выполняют сложные задачи, возникла проблема отсутствия единого стандарта взаимодействия между ними и внешними источниками данных.

Ребята из Anthropic предложили решение - новый протокол Model Context Protocol (MCP), который стандартизирует взаимодействие 🕵'в с различными сервисами и между собой. Теперь давайте сравним 3 подхода взаимодействия ИИ с внешними системами:

Имеем, MCP, A2A и Function Calling - это разные способы, как ИИ общается с внешними системами. Вот кратко, что и как:

С MCP время интеграции может сократиться на 30-50%. Он создает единый протокол для взаимодействия ИИ с разными инструментами, упрощая и ускоряя процессы. Идеально подходит для сложных и безопасных решений.

A2A (Agent-to-Agent)
- когда агенты общаются друг с другом напрямую. Это повышает их эффективность на 20-40%, отлично для задач, где нужно координироваться и работать вместе, создавая слаженную команду ИИ.

Function Calling
- это cамый простой метод - помогает выполнить базовые задачи быстрее на 10-20%, вызывая конкретные функции или инструменты прямо из модели. Но он не подходит для сложных систем и масштабирования.

🎚️ Если хочется помощнее - MCP или A2A. Для простых и быстрых задач - Function Calling. Выбирай, что тебе подходит и вперед! Подробнее про MCP реализацию расписал на Хабре
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25👍931
This media is not supported in your browser
VIEW IN TELEGRAM
Вопрос подписчика:

Как решаешь вопросы с тем что агенты галлюцинируют и входят в циклы без решения задач где только новые ошибки?

В Cursore это можно решать так:

1. Использовать новую модель
2. Создавать новый чат
3. Пытаться переформулировать задачу, добавляя контекст
4. Переодически откатывать то, что было сделано, и начинать правки сначала
👍81
Сделал пост в своем микро блоге и тут же налетела стая нейрокомменторов.

Не могу понять, почему этих роботов становится только больше? Неужели это выгодно и люди ведутся на такое?

И главные вопрос, почему до сих пор никто не придумал решение от этого, чтобы я его у вас купил!?

Честно скажу, иногда даже приятно читать такие комменты, они бывают активнее живых, но суть их бесит 😂😢
😁6
Ребят, вы че издеваетесь?!

Провел сегодня 7 собеседований по 30 минут на роль технического писателя. Это человек, которые разбирается в технических штуках и может про них писать. Чем глубже и практичнее, чем лучше. Собеседовали тех, кто более менее смог тестовое задание выполнить с кодом.

Люди не знают базу. Я плакал 🥲. Вот мои заметки:

Кто такой Сэм Альтман? А Гвидо Ван Россум? Хорошо, что хоть Илона Маска все знают.

Что такое DeepSeek, Claude или Gemini?
Что такое vibe-coding? Были версии, мол что-то про разработку web’а. Лучший ответ был, что это когда в чате с gpt просишь написать код. Но Cursor и Replit пока не звучат.

Python не могут отличить от Java Script. Принципы ООП не могут сформулировать. Как тогда люди собрались писать что-то на python в статьях?!

MLOps это что-то про деплой ML алгоритмов, но даже Docker не называют. Не знают, что такое webhook и когда его использовать.
Не знают ни одного фрэймворка для работы с LLM. А LangChain это вообще «китайская LLM»

Про продвинутый промпт инжиниринг называют лишь текстовые инструкции. Про few-shot, RAG, ReAct, СoT или fine-tuning ничего.

Моя любовь - это когда не могут пояснить за технологию, которые указали в своем описание/резюме.

Что могу сказать? Дает мотивацию продолжать вести канал. Читайте мои посты чаще, чтобы быть в курсе.

Ладно техническую какую-то реализацию сложно сделать, но базу надо знать. Когда даже контекст непонятен, то становится ясно, что все-таки споры про замену людей на ИИ иметь смысл.

Если для вас это все изи - то пишите мне в лс @Ale_v2 =) Предложу хорошие условия, если можете работать фул тайм.
👍59👎37😁255🦄11
🚨 Напоминаю, что сегодня выход Claude Sonnet 4 (и Opus 4).

Каждый их выпуск это разнос! Жду с нетерпением, когда завезут во всех Vibe-coding инструменты.

Трансляция (уже идет)

Все ближе к айти с новой парадигмой))
Please open Telegram to view this post
VIEW IN TELEGRAM
👍102