#Личное. Я не успел написать про Websummit и про то, какие карьерные IT возможности я оттуда вытащил, но тут на меня упало еще одно мероприятие …
⚡️Концерт Леди Гаги в Рио-де-Жанейро
🔥 Собрал более 2М зрителей, установив рекорд как самое масштабное сольное выступление женщины в истории.
🇧🇷 Мероприятие, как ожидается, принесет экономике Рио около 100М долларов.
Я хочу, чтобы вы тоже почувствовали грандиозность этих фото и вынесли для себя ответ на вопрос…
🎚️ Не «заскуфились» ли вы? И может начать уже путешествовать? Особенно, если у вас удаленная работа!🧑💻
⚡️Концерт Леди Гаги в Рио-де-Жанейро
Я хочу, чтобы вы тоже почувствовали грандиозность этих фото и вынесли для себя ответ на вопрос…
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤24👍15🔥8 5💯1
Спойлер почти везде! Но я решил поресерчить и выписать только то, что относится к алгоритмам машинного обучения с доказанным эффектом
Первой моделью является Half-Life Regression (HLR), которая предназначена для оптимизации интервалов повторений. Исследование Settles и Meeder (2016) показывает, что применение этой модели приводит к повышению запоминания на 15-25%.
Второй алгоритм — Sleeping, Recovering Bandit Algorithm, который используется для оптимизации уведомлений. Согласно публикации Yancey и Settles (2020), этот алгоритм способствует увеличению вовлеченности пользователей на 12%.
Третья модель — LSTM для прогнозирования и определения ошибок. Рекуррентные сети, описанные в исследовании Mirea и Bicknell (2019), позволяют адаптировать сложность заданий, что приводит к снижению количества ошибок у обучающихся.
Четвертая группа — это генеративные языковые модели, такие как GPT-4 и другие. Эти модели берут на себя автоматическую генерацию учебного контента, что, согласно данным Duolingo Research (2023-2025), позволяет расширить курс на 148 языков. Вообще GenAI группа алгоритмов может реализовать кучу сложных лингвистических фичей - к примеру подсвечивать ошибки, выигрыш в основном в customer experience.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27🔥11❤3
Аналитики OneLittleWeb выяснили, что ИИ-чат-боты за год выросли по количеству обращений на 80,92%.
Поисковые системы, потеряв всего 0,5% аудитории, не зевали — быстро начали встраивать ИИ-инструменты. Ярчайший кейс — Яндекс, который после запуска «Нейро» выстрелил с ростом трафика на 32,65%.
Рынок сейчас движется к умному симбиозу — где ИИ усиливает поисковики, а те взамен дают мощную базу данных.
Заметил, что мой малоизвестный сервис фаворит черного цвета тоже попал в отчет.
Please open Telegram to view this post
VIEW IN TELEGRAM
9🔥23👍6⚡5❤1💯1🦄1
Восстанию машин отмена, у меня сегодня день рождения!
Да, верю что вы помните)
🤯 Мне теперь 28, а вас больше 11к
Спасибо, что читаете! Буду стараться писать еще полезнее!
На вопрос вчера про wishlist, у меня появилась прикольная идея купить доп мониторы на ноут🧑💻.
⭐️ Поэтому при желании поучаствовать кидайте star’ы на этот пост. А я взамен сделаю для вас обзор этого девайся)
🚀 Или просто голоса на канал закиньте, тоже буду рад).
🤗 Обнимаю, мои чемпиончики!
Да, верю что вы помните)
Спасибо, что читаете! Буду стараться писать еще полезнее!
На вопрос вчера про wishlist, у меня появилась прикольная идея купить доп мониторы на ноут🧑💻.
🚀 Или просто голоса на канал закиньте, тоже буду рад).
🤗 Обнимаю, мои чемпиончики!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
60🎉99❤29🔥14👍3👎1
Как сэкономить до 4 раз на длинных промптах в OpenAI API
Если ваш стартап, продукт или сервис часто отправляет в OpenAI один и тот же системный промпт, вы можете существенно сократить расходы благодаря функции кеширования (Prompt Caching). Интересно, что многие об этом не знают и не используют эту возможность в полной мере. Хотя мы про это рассказывали тут.
Что это такое?
OpenAI автоматически кеширует начало промпта (префикс), если оно уже обрабатывалось недавно. Это позволяет избежать повторного вычисления при каждом запросе.
Результат:
– Задержка может снизиться до 80%😱
– Стоимость токенов для префикса — до 50%😱
Когда работает кеш?
– Срабатывает, если промпт длиннее 1024 токенов.
– Проверяется, использовался ли этот префикс недавно.
– Время жизни кеша — от 5 до 10 минут, иногда до часа (если не было запросов, кеш очищается).
Эта функция нереально полезна, когда отправляется много запросов с одинаковым началом. Вангую, ваш случай подходит, даже если у вас RAG 🦞
Что считается совпадением?
Промпт должен совпадать с точностью до символа: пробелы, порядок строк и даже кавычки имеют значение. Кеш работает блоками: 1024, 1152, 1280 токенов и далее с шагом 128 токенов (в зависимости от длины вашего входного промпта).
Что кешируется?
– System-промпт
– Инструкции, примеры, структура вывода
– Список инструментов
– Изображения (когда они передаются в формате base64 и если они одинаковые каждый раз)
Важно: все эти элементы должны находиться в начале промпта.
Как понять, что кеш сработал?
Обратите внимание на поле
Нужно ли что-то включать?
Нет. Кеш работает автоматически, без дополнительных настроек и доплат. Он встроен во все модели, начиная с gpt-4.
Рекомендации:
– Фиксируйте начало промпта (префикс должен оставаться статичным).
– Избегайте мелких правок и случайных изменений.
– Динамический контент размещайте в конце.
Если вы работаете с длинными и повторяющимися промптами, кеширование is all you need😉
🎚️ Подробнее о кешировании в OpenAI API можно прочитать здесь.
Если ваш стартап, продукт или сервис часто отправляет в OpenAI один и тот же системный промпт, вы можете существенно сократить расходы благодаря функции кеширования (Prompt Caching). Интересно, что многие об этом не знают и не используют эту возможность в полной мере. Хотя мы про это рассказывали тут.
Что это такое?
OpenAI автоматически кеширует начало промпта (префикс), если оно уже обрабатывалось недавно. Это позволяет избежать повторного вычисления при каждом запросе.
Результат:
– Задержка может снизиться до 80%
– Стоимость токенов для префикса — до 50%
Когда работает кеш?
– Срабатывает, если промпт длиннее 1024 токенов.
– Проверяется, использовался ли этот префикс недавно.
– Время жизни кеша — от 5 до 10 минут, иногда до часа (если не было запросов, кеш очищается).
Эта функция нереально полезна, когда отправляется много запросов с одинаковым началом. Вангую, ваш случай подходит, даже если у вас RAG 🦞
Что считается совпадением?
Промпт должен совпадать с точностью до символа: пробелы, порядок строк и даже кавычки имеют значение. Кеш работает блоками: 1024, 1152, 1280 токенов и далее с шагом 128 токенов (в зависимости от длины вашего входного промпта).
Что кешируется?
– System-промпт
– Инструкции, примеры, структура вывода
– Список инструментов
– Изображения (когда они передаются в формате base64 и если они одинаковые каждый раз)
Важно: все эти элементы должны находиться в начале промпта.
Как понять, что кеш сработал?
Обратите внимание на поле
cached_tokens в ответе API. Если значение больше нуля, это означает, что часть промпта была взята из кеша.Нужно ли что-то включать?
Нет. Кеш работает автоматически, без дополнительных настроек и доплат. Он встроен во все модели, начиная с gpt-4.
Рекомендации:
– Фиксируйте начало промпта (префикс должен оставаться статичным).
– Избегайте мелких правок и случайных изменений.
– Динамический контент размещайте в конце.
Если вы работаете с длинными и повторяющимися промптами, кеширование is all you need
Please open Telegram to view this post
VIEW IN TELEGRAM
👍35❤10
This media is not supported in your browser
VIEW IN TELEGRAM
Новый классный апдейт в OpenAI.
Наконец поняли, как важны качественные данные из PDF-файлов в Deep Research!
Честно говоря, успели устал копаться в отчетах по 20-30 страниц, чтобы найти нужные ссылки.
🎚️ Теперь этот процесс будет намного проще, и это очень приятно!
Наконец поняли, как важны качественные данные из PDF-файлов в Deep Research!
Честно говоря, успели устал копаться в отчетах по 20-30 страниц, чтобы найти нужные ссылки.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍3👎1
Media is too big
VIEW IN TELEGRAM
Вайб-разработчики делятся на 2 типа:
🎚️ 2-й вайб на максималках 😎
Пишите какой у вас в комментарии👇
Пишите какой у вас в комментарии👇
Please open Telegram to view this post
VIEW IN TELEGRAM
😁35🏆6👎3❤2 2
С появлением LLM-агентов, которые самостоятельно принимают решения и выполняют сложные задачи, возникла проблема отсутствия единого стандарта взаимодействия между ними и внешними источниками данных.
Ребята из Anthropic предложили решение - новый протокол Model Context Protocol (MCP), который стандартизирует взаимодействие 🕵'в с различными сервисами и между собой. Теперь давайте сравним 3 подхода взаимодействия ИИ с внешними системами:
Имеем, MCP, A2A и Function Calling - это разные способы, как ИИ общается с внешними системами. Вот кратко, что и как:
С MCP время интеграции может сократиться на 30-50%. Он создает единый протокол для взаимодействия ИИ с разными инструментами, упрощая и ускоряя процессы. Идеально подходит для сложных и безопасных решений.
A2A (Agent-to-Agent) - когда агенты общаются друг с другом напрямую. Это повышает их эффективность на 20-40%, отлично для задач, где нужно координироваться и работать вместе, создавая слаженную команду ИИ.
Function Calling - это cамый простой метод - помогает выполнить базовые задачи быстрее на 10-20%, вызывая конкретные функции или инструменты прямо из модели. Но он не подходит для сложных систем и масштабирования.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25👍9❤3 1
This media is not supported in your browser
VIEW IN TELEGRAM
Вопрос подписчика:
Как решаешь вопросы с тем что агенты галлюцинируют и входят в циклы без решения задач где только новые ошибки?
В Cursore это можно решать так:
1. Использовать новую модель
2. Создавать новый чат
3. Пытаться переформулировать задачу, добавляя контекст
4. Переодически откатывать то, что было сделано, и начинать правки сначала
Как решаешь вопросы с тем что агенты галлюцинируют и входят в циклы без решения задач где только новые ошибки?
В Cursore это можно решать так:
1. Использовать новую модель
2. Создавать новый чат
3. Пытаться переформулировать задачу, добавляя контекст
4. Переодически откатывать то, что было сделано, и начинать правки сначала
👍8❤1
Сделал пост в своем микро блоге и тут же налетела стая нейрокомменторов.
Не могу понять, почему этих роботов становится только больше? Неужели это выгодно и люди ведутся на такое?
И главные вопрос, почему до сих пор никто не придумал решение от этого, чтобы я его у вас купил!?
Честно скажу, иногда даже приятно читать такие комменты, они бывают активнее живых, но суть их бесит 😂😢
Не могу понять, почему этих роботов становится только больше? Неужели это выгодно и люди ведутся на такое?
И главные вопрос, почему до сих пор никто не придумал решение от этого, чтобы я его у вас купил!?
Честно скажу, иногда даже приятно читать такие комменты, они бывают активнее живых, но суть их бесит 😂😢
😁6
Ребят, вы че издеваетесь?!
Провел сегодня 7 собеседований по 30 минут на роль технического писателя. Это человек, которые разбирается в технических штуках и может про них писать. Чем глубже и практичнее, чем лучше. Собеседовали тех, кто более менее смог тестовое задание выполнить с кодом.
Люди не знают базу. Я плакал 🥲. Вот мои заметки:
Кто такой Сэм Альтман? А Гвидо Ван Россум? Хорошо, что хоть Илона Маска все знают.
Что такое DeepSeek, Claude или Gemini?
Что такое vibe-coding? Были версии, мол что-то про разработку web’а. Лучший ответ был, что это когда в чате с gpt просишь написать код. Но Cursor и Replit пока не звучат.
Python не могут отличить от Java Script. Принципы ООП не могут сформулировать. Как тогда люди собрались писать что-то на python в статьях?!
MLOps это что-то про деплой ML алгоритмов, но даже Docker не называют. Не знают, что такое webhook и когда его использовать.
Не знают ни одного фрэймворка для работы с LLM. А LangChain это вообще «китайская LLM»
Про продвинутый промпт инжиниринг называют лишь текстовые инструкции. Про few-shot, RAG, ReAct, СoT или fine-tuning ничего.
Моя любовь - это когда не могут пояснить за технологию, которые указали в своем описание/резюме.
Что могу сказать? Дает мотивацию продолжать вести канал. Читайте мои посты чаще, чтобы быть в курсе.
Ладно техническую какую-то реализацию сложно сделать, но базу надо знать. Когда даже контекст непонятен, то становится ясно, что все-таки споры про замену людей на ИИ иметь смысл.
Если для вас это все изи - то пишите мне в лс @Ale_v2 =) Предложу хорошие условия, если можете работать фул тайм.
Провел сегодня 7 собеседований по 30 минут на роль технического писателя. Это человек, которые разбирается в технических штуках и может про них писать. Чем глубже и практичнее, чем лучше. Собеседовали тех, кто более менее смог тестовое задание выполнить с кодом.
Люди не знают базу. Я плакал 🥲. Вот мои заметки:
Кто такой Сэм Альтман? А Гвидо Ван Россум? Хорошо, что хоть Илона Маска все знают.
Что такое DeepSeek, Claude или Gemini?
Что такое vibe-coding? Были версии, мол что-то про разработку web’а. Лучший ответ был, что это когда в чате с gpt просишь написать код. Но Cursor и Replit пока не звучат.
Python не могут отличить от Java Script. Принципы ООП не могут сформулировать. Как тогда люди собрались писать что-то на python в статьях?!
MLOps это что-то про деплой ML алгоритмов, но даже Docker не называют. Не знают, что такое webhook и когда его использовать.
Не знают ни одного фрэймворка для работы с LLM. А LangChain это вообще «китайская LLM»
Про продвинутый промпт инжиниринг называют лишь текстовые инструкции. Про few-shot, RAG, ReAct, СoT или fine-tuning ничего.
Моя любовь - это когда не могут пояснить за технологию, которые указали в своем описание/резюме.
Что могу сказать? Дает мотивацию продолжать вести канал. Читайте мои посты чаще, чтобы быть в курсе.
Ладно техническую какую-то реализацию сложно сделать, но базу надо знать. Когда даже контекст непонятен, то становится ясно, что все-таки споры про замену людей на ИИ иметь смысл.
Если для вас это все изи - то пишите мне в лс @Ale_v2 =) Предложу хорошие условия, если можете работать фул тайм.
👍59👎37😁25❤5🦄1 1
Каждый их выпуск это разнос! Жду с нетерпением, когда завезут во всех Vibe-coding инструменты.
Трансляция (уже идет)
Все ближе к айти с новой парадигмой))
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤2
🏆 Data Feeling | AI
Ну что, в арсенале вайб-кодеров снова перестановки)
Сможете смело следующую неделю обсуждать с коллегами, реально или Claude снова впереди по качеству, а не Gemini 2.5 Pro?!
https://www.anthropic.com/news/claude-4
Сможете смело следующую неделю обсуждать с коллегами, реально или Claude снова впереди по качеству, а не Gemini 2.5 Pro?!
https://www.anthropic.com/news/claude-4
👍17❤7🔥3
Работа свыше 50 часов в неделю физически «высушивает ваши мозги».
Области мозга, отвечающие за память, точность внимания и эмоциональную регуляцию, при повышенной нагрузке «усыхают» и уменьшаются в объёме.
С каждым часом поверх нормы значительно растёт риск сердечно-сосудистых заболеваний, психических расстройств и полного выгорания.
🎚️ Не забываем отдыхать.
Области мозга, отвечающие за память, точность внимания и эмоциональную регуляцию, при повышенной нагрузке «усыхают» и уменьшаются в объёме.
С каждым часом поверх нормы значительно растёт риск сердечно-сосудистых заболеваний, психических расстройств и полного выгорания.
Please open Telegram to view this post
VIEW IN TELEGRAM
💯43👍7🎃5 5❤3👎1
Привет, друзья! Рассказывал вам про митап MLечный путь в апреле. Это был один из тех митапов, где минимум маркетинга и воды — максимум реальных прикладных кейсов от спикеров из разных сфер. Что отметил для себя на конфе из особенно крутого:
1️⃣ LLM — это не магия, а инструмент.
Крутейший разбор от Selectel показал, как реально использовать большие модели без лишних затрат. Главный секрет? Не брать самую хайповую модель, а считать реальную эффективность под свои задачи. И да, vLLM теперь реальная альтернатива TensorRT — проверено на практике!
2️⃣ Когда AI выходит в поле.
Офигенный кейс от Русагро Тех про аналитику прямо на комбайнах! Никаких дорогущих решений — только кастомные модели, реальные данные с полей и борьба с неидеальными условиями. Вот оно — настоящее ML в действии!
3️⃣ Питч-сессия стартапов — классный формат.
Презентовали проекты на стадии pre-MVP. Для себя отметил Volga — движок для расчета ML-фичей в реальном времени🔥
🎚️ В общем, качественное развитие ML это больше, чем математика и теоретические расчеты. Для успешного проекта так же важны инженерия, инфраструктура и поиск компромиссов.
1️⃣ LLM — это не магия, а инструмент.
Крутейший разбор от Selectel показал, как реально использовать большие модели без лишних затрат. Главный секрет? Не брать самую хайповую модель, а считать реальную эффективность под свои задачи. И да, vLLM теперь реальная альтернатива TensorRT — проверено на практике!
2️⃣ Когда AI выходит в поле.
Офигенный кейс от Русагро Тех про аналитику прямо на комбайнах! Никаких дорогущих решений — только кастомные модели, реальные данные с полей и борьба с неидеальными условиями. Вот оно — настоящее ML в действии!
3️⃣ Питч-сессия стартапов — классный формат.
Презентовали проекты на стадии pre-MVP. Для себя отметил Volga — движок для расчета ML-фичей в реальном времени🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23
🏦 У меня тут недавно случай произошел
Успел потерять и вернуть пониженную ставку по IT ипотеке. Все потому что не вовремя прислал подтверждение с места работы, хотя платежи вносил исправно.
Между скринами неделя, но понервничать я успел достаточно.
Написал статью на Хабр, но ее внезапно сняли с публикации 🤯
Решил все равно оставить хотя бы тут пост, чтобы вы знали, что ставку можно потерять, но самое главное, что если обойти все отказы и оформить прямое обращение в банк, то вопрос решается.
🎚️ Знайте, если у вас IT ипотека! #it #credit
Успел потерять и вернуть пониженную ставку по IT ипотеке. Все потому что не вовремя прислал подтверждение с места работы, хотя платежи вносил исправно.
Между скринами неделя, но понервничать я успел достаточно.
Написал статью на Хабр, но ее внезапно сняли с публикации 🤯
Решил все равно оставить хотя бы тут пост, чтобы вы знали, что ставку можно потерять, но самое главное, что если обойти все отказы и оформить прямое обращение в банк, то вопрос решается.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍40👎2😈2
1️⃣ Hotmail
Добавлял подпись к письмам: «Это письмо отправлено через Hotmail. Заведите его себе прямо сейчас».
Результат: 12 млн пользователей за год (рост с 20 тыс. до 12 млн).
2️⃣ Dropbox
Использовал реферальную программу: пользователи получали +500 МБ за приглашение друзей.
Результат: рост на 3900% за 15 месяцев.
3️⃣ PayPal
Давал $10 новым пользователям и их рефералам.
Результат: 7–10% ежедневный рост и 100 млн пользователей к 2000 году.
4️⃣ LinkedIn
Привлекал лидеров мнений, чтобы те стимулировали аудиторию регистрироваться.
Результат: 2 новых пользователя в секунду на старте, 8 млн юзеров за 5 лет.
5️⃣ Airbnb
Использовал кросс-промоцию с Craigslist, позволяя пользователям размещать свои объявления на обеих платформах.
Результат: значительный рост числа пользователей и увеличение количества размещенных объявлений.
6️⃣ Duolingo
Использование семейной подписки при оплате одного доступа. То есть вы покупаете себе, а вам дают возможность подарить другим.
Результат: +15% к скорости прироста MRR метрики в первые же два месяца.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15❤6👍3
Media is too big
VIEW IN TELEGRAM
Маск + Дуров = 🧠 💣
На самом деле,просто Дуров прошел наш курсец по LLM технологиям и в качестве домашки решил сделать AI фичи для телеграма 😎 😅
🎚️ Скоро все окончательно забудут про вотцап
Досмотрели до конца? Вот мои выводы по поводу этой перспективы
На самом деле,
Досмотрели до конца? Вот мои выводы по поводу этой перспективы
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉20😁6💯3