Forwarded from Ppprompt | Sexy AI Prompts & Experiments | by @ponchiknews
Исследователи посчитали, какая ежемесячную аудитория у нейронок и изменения в этих цифрах за год.
Из интересного:
- рост замедлился почти у всех
- OpenAI больше всех
- Google догоняет OpenAI
- аудитория Microsoft copilot совсем не растет
- perplexity с огромной аудиторией, как оказалось, тоже красавчики
- Claude совсем небольшой
Source
@ppprompt
Из интересного:
- рост замедлился почти у всех
- OpenAI больше всех
- Google догоняет OpenAI
- аудитория Microsoft copilot совсем не растет
- perplexity с огромной аудиторией, как оказалось, тоже красавчики
- Claude совсем небольшой
Source
@ppprompt
Forwarded from TechSparks
Несколько обидный для сеошников заголовок, но суть постепенно проявляющейся проблемы показывает точно: мы же не перестали смотреть видео — но ни VHS-кассеты, ни видеомагнитофоны нам больше для этого не нужны.
Владельцам ресурсов в интернете по-прежнему нужен целевой трафик — вот только поисковое поведение пользователей медленно, но верно начало изменяться. И SEO, как символ цифрового высокотехнологичного перформанс-маркетинга на этом фоне начинает тускнеть.
Тот самый ИИ, который винят в потоках слоп-контента, вдруг оказался мощным фильтром от SEO-слопа, которым годами заливали интернет оптимизаторы: many businesses are seeing organic, top-of-funnel website traffic drop precipitously.
Вместо посещений сайтов для чтения ответов на свои вопросы, пользователи начинают предпочитать готовые сжатые ответы, а с появлением коммерции прямо в ИИ-чатботах, они и за покупками на сайт не пойдут.
Так что маркетологам пора начинать адаптироваться. "Success today means becoming the best answer — in every language, every market and every moment that matters" — легко сказать, а вот делать придется учиться, и все-тот же ИИ привлекать:)
https://www.forbes.com/councils/forbesagencycouncil/2025/12/15/seo-is-the-new-vhs-and-its-creating-a-naming-crisis/
Владельцам ресурсов в интернете по-прежнему нужен целевой трафик — вот только поисковое поведение пользователей медленно, но верно начало изменяться. И SEO, как символ цифрового высокотехнологичного перформанс-маркетинга на этом фоне начинает тускнеть.
Тот самый ИИ, который винят в потоках слоп-контента, вдруг оказался мощным фильтром от SEO-слопа, которым годами заливали интернет оптимизаторы: many businesses are seeing organic, top-of-funnel website traffic drop precipitously.
Вместо посещений сайтов для чтения ответов на свои вопросы, пользователи начинают предпочитать готовые сжатые ответы, а с появлением коммерции прямо в ИИ-чатботах, они и за покупками на сайт не пойдут.
Так что маркетологам пора начинать адаптироваться. "Success today means becoming the best answer — in every language, every market and every moment that matters" — легко сказать, а вот делать придется учиться, и все-тот же ИИ привлекать:)
https://www.forbes.com/councils/forbesagencycouncil/2025/12/15/seo-is-the-new-vhs-and-its-creating-a-naming-crisis/
Forbes
Council Post: SEO Is The New VHS—And It’s Creating A Naming Crisis
This inconvenient truth is exposing a deeper problem that few in the SEO industry are prepared to confront.
👍3
Forwarded from TechSparks
Visa с ее масштабами вдруг анонсирует жалкие сотни транзакций как важную веху. С чего бы? А с того, что эти сотни транзакции, которые платежная система сочла совершенно безопасными, были инициированы не людьми — а ИИ-агентами. И Visa не зря называет это a major milestone in the evolution of AI-powered commerce.
Потому что ИИ-коммерция начала резво развиваться, а какая коммерция без платежей?
Компания заявляет, что 2025 — это последний год, когда покупатели сами шопились и сами платили, отныне все чаще они это станут делегировать агентам: AI agent-driven payments rapidly transition from experimentation to mainstream adoption. Данные компании свидетельствуют, что сейчас уже половина покупателей в США используют ИИ хотя бы на каком-то этапе покупки. Отсюда прогноз: Visa predicts that millions of consumers will use AI agents to complete purchases by the 2026 holiday season. Ну и понятно, что платежная система вовсю готовится к такому развитию событий, и эти сегодняшние первые сотни транзакций — те ласточки, которые весну-таки сделают:)
https://finance.yahoo.com/news/visa-partners-complete-secure-ai-120000740.html
Потому что ИИ-коммерция начала резво развиваться, а какая коммерция без платежей?
Компания заявляет, что 2025 — это последний год, когда покупатели сами шопились и сами платили, отныне все чаще они это станут делегировать агентам: AI agent-driven payments rapidly transition from experimentation to mainstream adoption. Данные компании свидетельствуют, что сейчас уже половина покупателей в США используют ИИ хотя бы на каком-то этапе покупки. Отсюда прогноз: Visa predicts that millions of consumers will use AI agents to complete purchases by the 2026 holiday season. Ну и понятно, что платежная система вовсю готовится к такому развитию событий, и эти сегодняшние первые сотни транзакций — те ласточки, которые весну-таки сделают:)
https://finance.yahoo.com/news/visa-partners-complete-secure-ai-120000740.html
Yahoo Finance
Visa and Partners Complete Secure AI Transactions, Setting the Stage for Mainstream Adoption in 2026
SAN FRANCISCO, December 18, 2025--Visa and Partners Complete Secure AI Transactions, Setting the Stage for Mainstream Adoption in 2026.
❤1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Qwen-Image-Layered с кодом и весами готов!
Делает из любой RGB картинки RGBA-слои.
Можно вручную задавать от 3 до 10 слоев.
Но! Можно делать слои из слоёв!
Держите сразу демо:
https://huggingface.co/spaces/Qwen/Qwen-Image-Layered
Все остальное, код, веса, папира тут:
https://github.com/QwenLM/Qwen-Image-Layered
P.S. уже есть на репликейт:
https://replicate.com/qwen/qwen-image-layered
И Фал:
https://fal.ai/models/fal-ai/qwen-image-layered
@cgevent
Делает из любой RGB картинки RGBA-слои.
Можно вручную задавать от 3 до 10 слоев.
Но! Можно делать слои из слоёв!
Держите сразу демо:
https://huggingface.co/spaces/Qwen/Qwen-Image-Layered
Все остальное, код, веса, папира тут:
https://github.com/QwenLM/Qwen-Image-Layered
P.S. уже есть на репликейт:
https://replicate.com/qwen/qwen-image-layered
И Фал:
https://fal.ai/models/fal-ai/qwen-image-layered
@cgevent
Forwarded from Denis Sexy IT 🤖
Тут легенда ML-индустрии, ученый Эндрю Нг, сходил в Стэнфорд и поделился своим мнением про АИ и карьеру инженеров – видео длинное и я советую смотреть его, но вот топ-10 советов оттуда:
1. Держите рабочие AI-инструменты “свежими”: отставание быстро превращается в потерю продуктивности.
Сейчас выбор среды/ассистента для кода реально влияет на скорость и качество. Если вы используете инструменты на поколение старее, вы часто просто делаете ту же работу дольше и тяжелее
2. Код стал дешевле - дороже стало “решить, что строить” и “описать это четко”.
Когда написать код проще, узкое место смещается в постановку задачи: сформулировать цель, ограничения, критерии успеха, сценарии использования. То есть не “как закодить”, а “что именно нужно получить и как проверить, что получилось”
3. Умение разговаривать с пользователями - это ускоритель разработки, а не “софт-скилл ради галочки”.
Те, кто умеют сами собрать обратную связь, понять боль пользователя и быстро уточнить требования, двигаются быстрее, потому что меньше зависят от “переводчиков” между инженерами и рынком
4. Выбирайте работу по команде и людям, а не по “громкости бренда”. И требуйте ясности по команде заранее.
Если компания не готова сказать, в какую команду вы попадёте и что будете делать (или просит “сначала подпиши, потом разберёмся”), это риск: можно оказаться на задачах, которые не развивают вас в AI-направлении
5. Сделайте портфолио так, чтобы оно “рулило” интервью: пусть вас спрашивают про ваш проект, а не про случайные загадки.
Сильная тактика: собрать проект(ы), максимально похожие на будущую работу, и описать решения, компромиссы, метрики. Тогда интервью превращается в обсуждение реальной инженерии, где вы сильнее
6. Интервью - это проверка “командности под стрессом”, а не только IQ и алгоритмов.
Совет из истории: “стой на своём” можно, но без агрессии. Когда вам указывают на баг/угол, правильная реакция - совместно улучшать решение, а не защищаться как в споре
7. Код, сгенерированный AI, почти всегда приносит “долг по обслуживанию”: думайте как финансист.
Смысл простой: любой код потом надо сопровождать
Хороший “долг” - быстрый прототип, который приносит проверенную пользу/знания и окупает поддержку
Плохой “долг” - нагенерили “что-то крутое”, но никто не понимает, зачем, как работает и как чинить.
Важная мысль: выкинуть прототип - нормально, поддерживать непонятную кашу - дорого
8. Сейчас ценится не “сделал модель”, а “довёл до боевого использования”.
То есть: качество, надёжность, мониторинг, задержки, стоимость, безопасность, удобство для пользователя. На рынке сильный сигнал - умение доводить до работающего продукта, а не до демо
9. Станьте человеком, который переводит хайп в реальность: начните с вопроса “зачем?”.
Соцсети поощряют вовлечённость, а не точность. Поэтому трендовые слова (“агенты”, “всё заменим AI”) легко уводят в сторону. Практичный подход: сначала “зачем бизнесу?”, “какой показатель улучшаем?”, “что будет считаться успехом?” - и уже потом выбирать технологию
10. Готовьтесь к двум параллельным траекториям: большие облачные модели и небольшие локальные модели “у себя”.
В одних задачах будут доминировать мощные модели “как сервис”. В других (где важны приватность, IP, контроль, стоимость) - модели, которые разворачивают внутри компании. Полезные навыки на стыке: настройка под задачу (fine-tuning/адаптация), развёртывание, ограничения по данным, безопасность и эксплуатация.
Ну, база, что скажешь еще
1. Держите рабочие AI-инструменты “свежими”: отставание быстро превращается в потерю продуктивности.
Сейчас выбор среды/ассистента для кода реально влияет на скорость и качество. Если вы используете инструменты на поколение старее, вы часто просто делаете ту же работу дольше и тяжелее
2. Код стал дешевле - дороже стало “решить, что строить” и “описать это четко”.
Когда написать код проще, узкое место смещается в постановку задачи: сформулировать цель, ограничения, критерии успеха, сценарии использования. То есть не “как закодить”, а “что именно нужно получить и как проверить, что получилось”
3. Умение разговаривать с пользователями - это ускоритель разработки, а не “софт-скилл ради галочки”.
Те, кто умеют сами собрать обратную связь, понять боль пользователя и быстро уточнить требования, двигаются быстрее, потому что меньше зависят от “переводчиков” между инженерами и рынком
4. Выбирайте работу по команде и людям, а не по “громкости бренда”. И требуйте ясности по команде заранее.
Если компания не готова сказать, в какую команду вы попадёте и что будете делать (или просит “сначала подпиши, потом разберёмся”), это риск: можно оказаться на задачах, которые не развивают вас в AI-направлении
5. Сделайте портфолио так, чтобы оно “рулило” интервью: пусть вас спрашивают про ваш проект, а не про случайные загадки.
Сильная тактика: собрать проект(ы), максимально похожие на будущую работу, и описать решения, компромиссы, метрики. Тогда интервью превращается в обсуждение реальной инженерии, где вы сильнее
6. Интервью - это проверка “командности под стрессом”, а не только IQ и алгоритмов.
Совет из истории: “стой на своём” можно, но без агрессии. Когда вам указывают на баг/угол, правильная реакция - совместно улучшать решение, а не защищаться как в споре
7. Код, сгенерированный AI, почти всегда приносит “долг по обслуживанию”: думайте как финансист.
Смысл простой: любой код потом надо сопровождать
Хороший “долг” - быстрый прототип, который приносит проверенную пользу/знания и окупает поддержку
Плохой “долг” - нагенерили “что-то крутое”, но никто не понимает, зачем, как работает и как чинить.
Важная мысль: выкинуть прототип - нормально, поддерживать непонятную кашу - дорого
8. Сейчас ценится не “сделал модель”, а “довёл до боевого использования”.
То есть: качество, надёжность, мониторинг, задержки, стоимость, безопасность, удобство для пользователя. На рынке сильный сигнал - умение доводить до работающего продукта, а не до демо
9. Станьте человеком, который переводит хайп в реальность: начните с вопроса “зачем?”.
Соцсети поощряют вовлечённость, а не точность. Поэтому трендовые слова (“агенты”, “всё заменим AI”) легко уводят в сторону. Практичный подход: сначала “зачем бизнесу?”, “какой показатель улучшаем?”, “что будет считаться успехом?” - и уже потом выбирать технологию
10. Готовьтесь к двум параллельным траекториям: большие облачные модели и небольшие локальные модели “у себя”.
В одних задачах будут доминировать мощные модели “как сервис”. В других (где важны приватность, IP, контроль, стоимость) - модели, которые разворачивают внутри компании. Полезные навыки на стыке: настройка под задачу (fine-tuning/адаптация), развёртывание, ограничения по данным, безопасность и эксплуатация.
Ну, база, что скажешь еще
YouTube
Stanford CS230 | Autumn 2025 | Lecture 9: Career Advice in AI
For more information about Stanford’s Artificial Intelligence professional and graduate programs, visit: https://stanford.io/ai
November 18, 2025
This lecture covers career advice and a guest speaker.
To learn more about enrolling in this course, visit:…
November 18, 2025
This lecture covers career advice and a guest speaker.
To learn more about enrolling in this course, visit:…
Forwarded from Точки над ИИ
Если пропустили – гайд по новой имадж-модельке от OpenAI
Гайд по промптингу gpt-image-1.5. Инфографика, UI, каталоги, фотореализм, аккуратный текст в кадре, сложное редактирование, все разложено по полочкам с примерами и паттернами.
Ключевая мысль гайда – структура и ограничения решают. Промпт предлагается писать по-правилам, как ТЗ. Сначала сцена и фон, потом главный объект, детали, назначение картинки и в конце жесткие инварианты, что менять нельзя вообще. И обязательно итерации.
Отдельно подчеркивают практичные штуки – начинать с low-quality для быстрых задач, а high включать только там, где важен текст, лица или реклама. Текст в изображении всегда явно задавать и ограничивать, при редактировании каждый раз повторять список инвариантов, чтобы не было дрейфа. Для UI описывать реальные интерфейсные элементы, для фотореализма – думать как фотограф.
Если вы делаете продуктовые шоты, мокапы, инфографику или бренд-креативы, этот гайд сильно экономит время и нервы.
Читаем тут.
#imageGenerative@TochkiNadAI #prompt@TochkiNadAI
Гайд по промптингу gpt-image-1.5. Инфографика, UI, каталоги, фотореализм, аккуратный текст в кадре, сложное редактирование, все разложено по полочкам с примерами и паттернами.
Ключевая мысль гайда – структура и ограничения решают. Промпт предлагается писать по-правилам, как ТЗ. Сначала сцена и фон, потом главный объект, детали, назначение картинки и в конце жесткие инварианты, что менять нельзя вообще. И обязательно итерации.
Отдельно подчеркивают практичные штуки – начинать с low-quality для быстрых задач, а high включать только там, где важен текст, лица или реклама. Текст в изображении всегда явно задавать и ограничивать, при редактировании каждый раз повторять список инвариантов, чтобы не было дрейфа. Для UI описывать реальные интерфейсные элементы, для фотореализма – думать как фотограф.
Если вы делаете продуктовые шоты, мокапы, инфографику или бренд-креативы, этот гайд сильно экономит время и нервы.
Читаем тут.
#imageGenerative@TochkiNadAI #prompt@TochkiNadAI
Anthropic выпустили отчет — The 2026 State of AI Agents Report. Основа — реальные данные опроса и аналитика по использованию AI-агентов в компаниях.
Вот топ-7 выводов:
1. AI-агенты перешли из эксперимента в боевое использование — более половины организаций уже применяют агентов для многозадачных рабочих процессов, включая 16% — на уровне кросс-функциональных задач.
2. Практически все компании используют генеративный AI для разработки ПО — около 90% применяют агентов для помощи в коде, причём 42% доверяют им вести разработку под контролем человека.
3. AI-агенты ускоряют разработку во всех фазах — равномерные приросты продуктивности: генерация кода, документация, тестирование, планирование.
4. Гибридный подход доминирует — большинство компаний комбинируют готовые агенты с собственными решениями, балансируя скорость старта и кастомизацию.
5. Использование агентов расширяется за пределы IT — перспективные области: анализ данных, отчётность, автоматизация внутренних процессов, финансовое планирование и цепочки поставок.
6. ROI уже реализован у 80% организаций — значительная часть компаний фиксирует экономическую отдачу от агентных систем, а почти 90% ожидают дальнейшего роста выгод.
7. Основные барьеры — интеграция и качество данных — ключевые сложности — встраивание агентов в существующую систему, доступ к качественным данным и затраты на внедрение; у SMB дополнительно обучение персонала и управление изменениями.
@maxrepost 👾
Вот топ-7 выводов:
1. AI-агенты перешли из эксперимента в боевое использование — более половины организаций уже применяют агентов для многозадачных рабочих процессов, включая 16% — на уровне кросс-функциональных задач.
2. Практически все компании используют генеративный AI для разработки ПО — около 90% применяют агентов для помощи в коде, причём 42% доверяют им вести разработку под контролем человека.
3. AI-агенты ускоряют разработку во всех фазах — равномерные приросты продуктивности: генерация кода, документация, тестирование, планирование.
4. Гибридный подход доминирует — большинство компаний комбинируют готовые агенты с собственными решениями, балансируя скорость старта и кастомизацию.
5. Использование агентов расширяется за пределы IT — перспективные области: анализ данных, отчётность, автоматизация внутренних процессов, финансовое планирование и цепочки поставок.
6. ROI уже реализован у 80% организаций — значительная часть компаний фиксирует экономическую отдачу от агентных систем, а почти 90% ожидают дальнейшего роста выгод.
7. Основные барьеры — интеграция и качество данных — ключевые сложности — встраивание агентов в существующую систему, доступ к качественным данным и затраты на внедрение; у SMB дополнительно обучение персонала и управление изменениями.
@maxrepost 👾
❤1🤯1
Forwarded from Анализ данных (Data analysis)
🎤 xAI запустила Grok Voice Agent API
xAI представила Grok Voice Agent API - интерфейс для создания голосовых AI-агентов с живым диалогом в реальном времени.
Ключевые возможности:
- Двусторонний голосовой диалог с минимальной задержкой
- Поддержка десятков языков и естественной интонации
- Вызов инструментов, поиск в интернете, выполнение задач во время разговора
- Интеграция с SIP-провайдерами и голосовыми платформами
Производительность:
- Время до первой реплики - менее 1 секунды
- Высокие результаты в аудио-бенчмарках
- Простая тарификация - оплата за минуты соединения
Где используется:
- Голосовой Grok в мобильных приложениях
- Интеграции в автомобилях Tesla
- Поддержка продакшен-агентов для бизнеса
https://x.ai/news/grok-voice-agent-api
@data_analysis_ml
xAI представила Grok Voice Agent API - интерфейс для создания голосовых AI-агентов с живым диалогом в реальном времени.
Ключевые возможности:
- Двусторонний голосовой диалог с минимальной задержкой
- Поддержка десятков языков и естественной интонации
- Вызов инструментов, поиск в интернете, выполнение задач во время разговора
- Интеграция с SIP-провайдерами и голосовыми платформами
Производительность:
- Время до первой реплики - менее 1 секунды
- Высокие результаты в аудио-бенчмарках
- Простая тарификация - оплата за минуты соединения
Где используется:
- Голосовой Grok в мобильных приложениях
- Интеграции в автомобилях Tesla
- Поддержка продакшен-агентов для бизнеса
https://x.ai/news/grok-voice-agent-api
@data_analysis_ml
Forwarded from Анализ данных (Data analysis)
🔥 2025 - год, когда LLM действительно изменились. Коротко и по делу, по мотивам поста Андрея Карпты
2025 оказался неожиданно сильным годом для LLM. Не просто улучшения метрик, а реальные сдвиги в том, как модели обучаются, как ими пользуются и как вообще стоит думать об их «интеллекте».
Главное за 2025 по мнению Карпты:
1. RLVR — Reinforcement Learning from Verifiable Rewards
До 2025 стандартный стек выглядел так: pretraining → SFT → RLHF. В 2025 к этому стеку добавился новый, ключевой этап- RLVR.
Вместо субъективной человеческой оценки модель обучают на автоматически проверяемых наградах: задачи по математике, коду, логике. В результате LLM сама находит стратегии рассуждения - дробит задачи, проверяет гипотезы, возвращается назад.
Важно не «что мы показали модели», а то, что она сама нашла рабочие способы думать. Этот этап оказался невероятно эффективным по соотношению capability к стоимости, из-за чего значительная часть вычислений ушла не в pretraining, а в длинные RL-прогоны.
Побочный эффект — появился новый регулятор мощности: test-time compute. Больше «времени на размышление» — выше качество. o1 показал идею, o3 в начале 2025 сделал перелом — разницу стало чувствовать интуитивно.
2. «Призраки, а не животные» и рваный интеллект
В 2025 индустрия наконец осознала форму LLM-интеллекта. Мы не «растим животных». Мы «призываем призраков».
LLM оптимизированы не под выживание и социальные группы, а под имитацию текста, получение наград в формальных задачах и апвоты. Поэтому интеллект получается рваным:
- гениальны в одном
- наивны и уязвимы в другом
RLVR усиливает этот эффект - модели становятся сверхсильными в верифицируемых доменах и странно слабыми вне их. Отсюда и потеря доверия к бенчмаркам: они почти всегда верифицируемы, а значит легко «обрастают jagged-улучшениями». Обучение на тесте стало искусством.
Можно побить все бенчмарки и всё ещё быть далеко от AGI.
3. Cursor и новый слой LLM-приложений
Cursor показал, что появился новый класс LLM-продуктов - «Cursor для X».
Это не просто интерфейс к модели, а слой, который:
- делает context engineering
- оркестрирует множество LLM-вызовов в DAG
- балансирует стоимость и качество
- дает специализированный UI
- вводит «ползунок автономности»
Вероятный сценарий: LLM-лабы делают «универсального студента», а приложения превращают их в специалистов — добавляя данные, инструменты, сенсоры и обратную связь.
4. Claude Code - AI, который живет на твоем компьютере
Claude Code стал первым убедительным агентом, который работает локально, в твоем окружении, с твоими файлами и контекстом.
Это важный сдвиг. Не облачные контейнеры и абстрактные агенты, а «дух», который живет рядом с разработчиком. В мире рваных возможностей это оказалось гораздо полезнее, чем агентные своры в облаке.
Форм-фактор CLI сделал этот сдвиг особенно наглядным: AI - это уже не сайт, а постоянный спутник.
5. Vibe coding
2025 - год, когда стало возможно писать сложные программы, почти забыв, что код вообще существует.
Vibe coding демократизирует программирование:
- обычные люди могут создавать софт
- профессионалы пишут больше, быстрее и смелее
- код стал дешевым, одноразовым, экспериментальным
Можно написать программу ради одной проверки, одного бага, одной идеи - и выкинуть. Это изменит и софт, и профессии.
6. Nano banana и будущее интерфейсов
Чат - это терминал 80-х. Удобно для машины, плохо для человека.
Люди предпочитают визуальное мышление: схемы, изображения, анимации, интерфейсы. LLM должны общаться с нами в этих форматах. Gemini Nano banana - первый намек на настоящий LLM-GUI, где текст, изображения и знания слиты в одной модели.
Это не просто генерация картинок — это новый пользовательский слой для интеллекта.
2025 показал: LLM - это новый тип интеллекта. Он одновременно умнее и глупее, чем ожидали. Он невероятно полезен, но мы реализовали, возможно, даже не 10% его потенциала.
Прогресс будет быстрым. Работы впереди — море. Поле идей - открыто.
https://x.com/karpathy/status/2002118205729562949
@data_analysis_ml
2025 оказался неожиданно сильным годом для LLM. Не просто улучшения метрик, а реальные сдвиги в том, как модели обучаются, как ими пользуются и как вообще стоит думать об их «интеллекте».
Главное за 2025 по мнению Карпты:
1. RLVR — Reinforcement Learning from Verifiable Rewards
До 2025 стандартный стек выглядел так: pretraining → SFT → RLHF. В 2025 к этому стеку добавился новый, ключевой этап- RLVR.
Вместо субъективной человеческой оценки модель обучают на автоматически проверяемых наградах: задачи по математике, коду, логике. В результате LLM сама находит стратегии рассуждения - дробит задачи, проверяет гипотезы, возвращается назад.
Важно не «что мы показали модели», а то, что она сама нашла рабочие способы думать. Этот этап оказался невероятно эффективным по соотношению capability к стоимости, из-за чего значительная часть вычислений ушла не в pretraining, а в длинные RL-прогоны.
Побочный эффект — появился новый регулятор мощности: test-time compute. Больше «времени на размышление» — выше качество. o1 показал идею, o3 в начале 2025 сделал перелом — разницу стало чувствовать интуитивно.
2. «Призраки, а не животные» и рваный интеллект
В 2025 индустрия наконец осознала форму LLM-интеллекта. Мы не «растим животных». Мы «призываем призраков».
LLM оптимизированы не под выживание и социальные группы, а под имитацию текста, получение наград в формальных задачах и апвоты. Поэтому интеллект получается рваным:
- гениальны в одном
- наивны и уязвимы в другом
RLVR усиливает этот эффект - модели становятся сверхсильными в верифицируемых доменах и странно слабыми вне их. Отсюда и потеря доверия к бенчмаркам: они почти всегда верифицируемы, а значит легко «обрастают jagged-улучшениями». Обучение на тесте стало искусством.
Можно побить все бенчмарки и всё ещё быть далеко от AGI.
3. Cursor и новый слой LLM-приложений
Cursor показал, что появился новый класс LLM-продуктов - «Cursor для X».
Это не просто интерфейс к модели, а слой, который:
- делает context engineering
- оркестрирует множество LLM-вызовов в DAG
- балансирует стоимость и качество
- дает специализированный UI
- вводит «ползунок автономности»
Вероятный сценарий: LLM-лабы делают «универсального студента», а приложения превращают их в специалистов — добавляя данные, инструменты, сенсоры и обратную связь.
4. Claude Code - AI, который живет на твоем компьютере
Claude Code стал первым убедительным агентом, который работает локально, в твоем окружении, с твоими файлами и контекстом.
Это важный сдвиг. Не облачные контейнеры и абстрактные агенты, а «дух», который живет рядом с разработчиком. В мире рваных возможностей это оказалось гораздо полезнее, чем агентные своры в облаке.
Форм-фактор CLI сделал этот сдвиг особенно наглядным: AI - это уже не сайт, а постоянный спутник.
5. Vibe coding
2025 - год, когда стало возможно писать сложные программы, почти забыв, что код вообще существует.
Vibe coding демократизирует программирование:
- обычные люди могут создавать софт
- профессионалы пишут больше, быстрее и смелее
- код стал дешевым, одноразовым, экспериментальным
Можно написать программу ради одной проверки, одного бага, одной идеи - и выкинуть. Это изменит и софт, и профессии.
6. Nano banana и будущее интерфейсов
Чат - это терминал 80-х. Удобно для машины, плохо для человека.
Люди предпочитают визуальное мышление: схемы, изображения, анимации, интерфейсы. LLM должны общаться с нами в этих форматах. Gemini Nano banana - первый намек на настоящий LLM-GUI, где текст, изображения и знания слиты в одной модели.
Это не просто генерация картинок — это новый пользовательский слой для интеллекта.
2025 показал: LLM - это новый тип интеллекта. Он одновременно умнее и глупее, чем ожидали. Он невероятно полезен, но мы реализовали, возможно, даже не 10% его потенциала.
Прогресс будет быстрым. Работы впереди — море. Поле идей - открыто.
https://x.com/karpathy/status/2002118205729562949
@data_analysis_ml
❤2
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Правительство США продолжает публиковать файлы дела Эпштейна – и современный OSINT это не только сделать веб сайт который похож на сервисы гугла со всеми файлами дела, но и собрать все доступные фотографии со слушаний и сгенерировать 3D-пространства на их основе
Каждый раз впечатляюсь силой коллаборации интернета – ждем Minecraft сервер
Каждый раз впечатляюсь силой коллаборации интернета – ждем Minecraft сервер
Forwarded from DeCenter — блокчейн, биткоин, инвестиции
🔮 Виталик Бутерин назвал рынки предсказаний более рациональной альтернативой социальным сетям, особенно при обсуждении острых тем.
Пользователи онлайн-платформ могут безответственно нагнетать панику. Аналогичным образом действуют медиа, которые часто повышают уровень тревоги сенсационными заголовками и тем самым способствуют спорам.
Платформы прогнозов решают эту проблему через механизм финансовой ответственности — необдуманные или «глупые» ставки приводят к реальным убыткам.
@DeCenter
Пользователи онлайн-платформ могут безответственно нагнетать панику. Аналогичным образом действуют медиа, которые часто повышают уровень тревоги сенсационными заголовками и тем самым способствуют спорам.
Платформы прогнозов решают эту проблему через механизм финансовой ответственности — необдуманные или «глупые» ставки приводят к реальным убыткам.
@DeCenter
Forwarded from BBC News | Русская служба
Media is too big
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔1🤯1🏆1
У меня тут друг сделал прекрасный проект с саммари коллективного бессознательного итога года - https://worstregards.com/
@maxrepost 👾
@maxrepost 👾
Worstregards
WORST REGARDS
A collective fuck you letter from humanity to 2025.
🍌1
Forwarded from Анализ данных (Data analysis)
Acontext - это open-source проект, который решает одну из самых болезненных проблем AI-систем: управление контекстом, памятью и состоянием между запросами.
Проект создан командой MemoDB и нацелен на разработчиков, которые строят:
- LLM-приложения
- агентные системы
- RAG-пайплайны
- long-running AI-процессы
Что делает Acontext:
- Выносит контекст из prompt’ов в отдельный слой
- Даёт структурированную «память» вместо хаотичного текста
- Позволяет хранить, обновлять и переиспользовать контекст между вызовами модели
- Упрощает построение stateful AI-приложений
- Снижает токен-оверход и стоимость inference
Ключевая идея:
контекст — это не строка, а управляемый объект.
Почему это важно:
- prompt’ы перестают разрастаться
- поведение модели становится стабильнее
- проще отлаживать и масштабировать систему
- легче добавлять новые источники знаний
Acontext особенно полезен для:
- AI-агентов
- чатов с памятью
- multi-step reasoning
- инструментальных LLM-пайплайнов
Если ты строишь что-то сложнее одного запроса к модели — без слоя управления контекстом дальше будет только боль.
Репозиторий:
https://github.com/memodb-io/Acontext
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Zavtracast (Dmitriy Zombak)
Пиратский сайт и "теневая библиотека" Anna's Archive, ставивший свой целью изначально сделать архив всех книг на свете, решил сделать копию всей музыки на свете.
Ну, по крайней мере той, что загружена в стриминговый сервис Spotify.
В блогпосте (может не открыться, поскольку регулярно лежит), авторы пишут, как они подходят к этому делу - музыка собирается по метадате, ведётся статистика популярности, отдельные архивы ведут на сами музыкальные файлы, которые перекодируются в свободный кодек OGG Vorbis (с битрейтом 75kbps, качество довольно среднее, но авторы и не ставят перед собой задачу архивировать музыку в максимальном качестве).
Все архивы весят около 300 Тб. Они распределены по популярности. Пиратам удалось выкачать из Spotify около 86 млн треков, созданных до июля 2025 (всё что вышло позже в архивы уже не попало).
Всего в Spotify опубликовано около 256 млн треков от 15.45 млн артистов, объединённых в 58.6 млн альбомов, но, как уверяют авторы архива, эти 86 млн от 256 млн соответствует музыкальным вкусам примерно 96% людей, слушающих Spotify. Остальное это или совсем не популярные треки, которые никто толком не слушает или треки с нулём прослушиваний вообще.
Также они поделились статистикой того, какие треки в Spotify самые популярные. Там внезапно неожиданный "белый шум" на четвёртом месте. Что поделать, он сейчас популярен, особенно среди людей, кто под него спит.
Авторы делают примечание, что их алгоритм подсчета популярности может давать сбои, поскольку базируется на том, как часто слушают треки и насколько недавно эти прослушивания были сделаны. Песни, которые сейчас часто крутят, будут иметь большую популярность, чем те, которые крутили в прошлом.
1. Lady Gaga, Bruno Mars - Die With a Smile
2. Bad Bunny - DtMF
3. Billie Eilish - Birds of a Feather
4. Dream Supplier, Baby Sleeps, Background White Noise - Clean Baby Sleep White Noise (Loopable)
5. Bad Bunny - Baile Inolvidable
6. Kendrick Lamar - Not Like Us
7. Gracie Abrams - That's So True
8. Rose, Bruno Mars - APT.
9. Kendrick Lamar - All the Stars (with SZA)
10. Gigi Perez - Sailor Song
Авторы не ставят перед собой задачу распространять пиратскую музыку (как не ставили задачу и распространять книги). На самом сайте выложены только ссылки на торрент-файлы, а архивы распространяют пользователи. По мнению авторов Anna's Archive, их цель - создать некий "архив музыки" для всего человечества, поскольку никаких других по-настоящему глобальных архивов не существует и никто этого больше не делает. В Spotify загружена далеко не вся музыка всего мира, но это хорошее начало для такого архива.
Также сейчас юридически придраться к ним сложно, поскольку доступны пока что только архивы с метаданными (около ~200Гб json-файлов, рай для исследователей музыкальных жанров), но не архивы с самими треками (их выложат позже).
Впрочем, Anna's Archive к блокировкам не привыкать, поскольку их и закрывали и пытались преследовать уголовно, а в части стран (Италии, Нидерландах, Бельгии, Великобритании, Германии) их сайты забанены наглухо по решению суда.
@zavtracast
Ну, по крайней мере той, что загружена в стриминговый сервис Spotify.
В блогпосте (может не открыться, поскольку регулярно лежит), авторы пишут, как они подходят к этому делу - музыка собирается по метадате, ведётся статистика популярности, отдельные архивы ведут на сами музыкальные файлы, которые перекодируются в свободный кодек OGG Vorbis (с битрейтом 75kbps, качество довольно среднее, но авторы и не ставят перед собой задачу архивировать музыку в максимальном качестве).
Все архивы весят около 300 Тб. Они распределены по популярности. Пиратам удалось выкачать из Spotify около 86 млн треков, созданных до июля 2025 (всё что вышло позже в архивы уже не попало).
Всего в Spotify опубликовано около 256 млн треков от 15.45 млн артистов, объединённых в 58.6 млн альбомов, но, как уверяют авторы архива, эти 86 млн от 256 млн соответствует музыкальным вкусам примерно 96% людей, слушающих Spotify. Остальное это или совсем не популярные треки, которые никто толком не слушает или треки с нулём прослушиваний вообще.
Также они поделились статистикой того, какие треки в Spotify самые популярные. Там внезапно неожиданный "белый шум" на четвёртом месте. Что поделать, он сейчас популярен, особенно среди людей, кто под него спит.
Авторы делают примечание, что их алгоритм подсчета популярности может давать сбои, поскольку базируется на том, как часто слушают треки и насколько недавно эти прослушивания были сделаны. Песни, которые сейчас часто крутят, будут иметь большую популярность, чем те, которые крутили в прошлом.
1. Lady Gaga, Bruno Mars - Die With a Smile
2. Bad Bunny - DtMF
3. Billie Eilish - Birds of a Feather
4. Dream Supplier, Baby Sleeps, Background White Noise - Clean Baby Sleep White Noise (Loopable)
5. Bad Bunny - Baile Inolvidable
6. Kendrick Lamar - Not Like Us
7. Gracie Abrams - That's So True
8. Rose, Bruno Mars - APT.
9. Kendrick Lamar - All the Stars (with SZA)
10. Gigi Perez - Sailor Song
Авторы не ставят перед собой задачу распространять пиратскую музыку (как не ставили задачу и распространять книги). На самом сайте выложены только ссылки на торрент-файлы, а архивы распространяют пользователи. По мнению авторов Anna's Archive, их цель - создать некий "архив музыки" для всего человечества, поскольку никаких других по-настоящему глобальных архивов не существует и никто этого больше не делает. В Spotify загружена далеко не вся музыка всего мира, но это хорошее начало для такого архива.
Также сейчас юридически придраться к ним сложно, поскольку доступны пока что только архивы с метаданными (около ~200Гб json-файлов, рай для исследователей музыкальных жанров), но не архивы с самими треками (их выложат позже).
Впрочем, Anna's Archive к блокировкам не привыкать, поскольку их и закрывали и пытались преследовать уголовно, а в части стран (Италии, Нидерландах, Бельгии, Великобритании, Германии) их сайты забанены наглухо по решению суда.
@zavtracast
❤4
Forwarded from Дизраптор
Никогда такого не было, и вот опять:
Брахман по имени Навин Рао привлек почти 500 мультов в 2-месячный (!) стартап без продукта (!!). У бро есть лишь сайт и публичные заявления о миссии. И в его стартап Unconventional AI несут свои бабки a16z, Lightspeed Venture, Databricks и лично Джефф Безос. Оценка = $4,5 млрд.
Ладно, на самом деле господин Рао - чел известный. Ранее он продал по стартапу Intel и той же Databricks. Похоже, его слову верят. Но всё равно. Чем именно его стартап вызвал такой ажиотаж?
Unconventional AI собирается разрабатывать альтернативные вычисления для ИИ. Не как у современных ИИ-чипов, а прям другие. Поясню:
У современных GPU память в одном месте, вычисления - в другом. И львиная доля энергии тратится не на "математику", а не перегонку данных. А учитывая, насколько ИИ-мощности сейчас золотые, и какое рубилово за них идёт... ну вы поняли.
Так вот, этот стартап хочет сделать "вычисления, как в мозге". Чтобы память и вычисления в одном месте: in-memory computing. И считалось всё только по сигналу - event-based. Есть и другие отличия, но не буду сейчас влезать в эти тонкие материи. В результате - серьёзная экономия энергии и удешевление этого нашего эйай.
Это называется "нейроморфные вычисления". На самом деле, такие чипы уже есть - например, Intel Loihi или IBM TrueNorth, но они плохо подходят для ИИ. А этот стартап, по всей видимости, собирается сделать такие, которые будут хорошо подходить.
Возможно, не такая уж и пустышка. Конечно, если они реально что-то выкатят на рынок, а не просто дополнят собой совокупную капитализацию эйай-голландского штурвала-рынка.
Дизраптор
Брахман по имени Навин Рао привлек почти 500 мультов в 2-месячный (!) стартап без продукта (!!). У бро есть лишь сайт и публичные заявления о миссии. И в его стартап Unconventional AI несут свои бабки a16z, Lightspeed Venture, Databricks и лично Джефф Безос. Оценка = $4,5 млрд.
Ладно, на самом деле господин Рао - чел известный. Ранее он продал по стартапу Intel и той же Databricks. Похоже, его слову верят. Но всё равно. Чем именно его стартап вызвал такой ажиотаж?
Unconventional AI собирается разрабатывать альтернативные вычисления для ИИ. Не как у современных ИИ-чипов, а прям другие. Поясню:
У современных GPU память в одном месте, вычисления - в другом. И львиная доля энергии тратится не на "математику", а не перегонку данных. А учитывая, насколько ИИ-мощности сейчас золотые, и какое рубилово за них идёт... ну вы поняли.
Так вот, этот стартап хочет сделать "вычисления, как в мозге". Чтобы память и вычисления в одном месте: in-memory computing. И считалось всё только по сигналу - event-based. Есть и другие отличия, но не буду сейчас влезать в эти тонкие материи. В результате - серьёзная экономия энергии и удешевление этого нашего эйай.
Это называется "нейроморфные вычисления". На самом деле, такие чипы уже есть - например, Intel Loihi или IBM TrueNorth, но они плохо подходят для ИИ. А этот стартап, по всей видимости, собирается сделать такие, которые будут хорошо подходить.
Возможно, не такая уж и пустышка. Конечно, если они реально что-то выкатят на рынок, а не просто дополнят собой совокупную капитализацию эйай-
Дизраптор
👍1😁1🤯1😢1
Forwarded from Медуза — LIVE
WhatsApp заявил о намерении «бороться» за своих пользователей в России
Представитель мессенджера заявил Reuters, что, ограничивая доступ к WhatsApp, «российское правительство стремится лишить более 100 миллионов человек права на частную, защищенную сквозным шифрованием связь прямо перед началом праздничного сезона».
Роскомнадзор в 2025 году начал блокировать работу WhatsApp. Накануне источник РБК на телеком-рынке заявил, что cкорость работы WhatsApp в России уже снизилась на 70-80%.
@meduzalive
Представитель мессенджера заявил Reuters, что, ограничивая доступ к WhatsApp, «российское правительство стремится лишить более 100 миллионов человек права на частную, защищенную сквозным шифрованием связь прямо перед началом праздничного сезона».
«WhatsApp глубоко интегрирован в структуру каждого сообщества в стране — от родительских и рабочих групп до дружеских, соседских и семейных чатов в разных регионах России. Мы полны решимости бороться за наших пользователей, потому что принуждение людей к использованию менее безопасных и навязанных правительством приложений может привести только к снижению безопасности для российских граждан», — сказал представитель WhatsApp.
Роскомнадзор в 2025 году начал блокировать работу WhatsApp. Накануне источник РБК на телеком-рынке заявил, что cкорость работы WhatsApp в России уже снизилась на 70-80%.
@meduzalive
🤣4❤2😢2😁1