Доброе утро, ну что там с деньгами (в OpenAI)?
Последние дни новости про бюджет OpenAI так и сыпятся. Основной нарратив – у Альтмана кончаются деньги. Разбираемся по порядку:
– У The Information вышел отчет, который ссылается на внутренние финансовые прогнозы OpenAI и утверждает, что в 2026 компания потеряет примерно $14-17 млрд, при том что ранние оценки были в три раза ниже. К концу 2028 чистый отток налички будет около 44 миллиардов. Но это по внутренним документам OpenAI.
– По оценкам Deutsche Bank все еще хуже. Они посчитали, что совокупный отрицательный денежный поток до того, как компания станет прибыльной, составит 143 миллиарда долларов. Пишут, что «В истории ни один стартап не работал с убытками в таких масштабах». 15 миллионов долларов в день тратится только на Sora.
– Короче, к концу десятилетия кумулятивные расходы составят примерно $200 млрд по самым оптимистичным оценкам. Но это если компания до того момента доживет.
– При учете текущего баланса уже к середине 2027 деньги кончатся. И это еще не вспоминая иск Илона Маска на 134 миллиарда.
– На фоне новостей OpenAI внезапно раскритиковал известный инвестор Джордж Нобл. Он сказал, что стартап «разваливается на глазах» и посоветовал основателям ИИ-стартапов продаваться на пике хайпа, а инвесторам уходить из AI-трейда.
– Конечно, в 2027 деньги у стартапа закончатся вряд ли. Прямо сейчас они уже привлекают 50 миллиардов при оценке в 750-830 миллиардов. Переговоры ведутся в основном с инвесторами из ОАЭ🤠
– С другой стороны, если выручка так и не будет расти (а рост нужен на порядок, чтобы перекрыть затраты), а расходы продолжат увеличиваться экспоненциально, даже шейхи ситуации не сильно помогут. Но это уже другая история.
Еще остались вопросы, зачем OpenAI реклама в ChatGPT?😐
Последние дни новости про бюджет OpenAI так и сыпятся. Основной нарратив – у Альтмана кончаются деньги. Разбираемся по порядку:
– У The Information вышел отчет, который ссылается на внутренние финансовые прогнозы OpenAI и утверждает, что в 2026 компания потеряет примерно $14-17 млрд, при том что ранние оценки были в три раза ниже. К концу 2028 чистый отток налички будет около 44 миллиардов. Но это по внутренним документам OpenAI.
– По оценкам Deutsche Bank все еще хуже. Они посчитали, что совокупный отрицательный денежный поток до того, как компания станет прибыльной, составит 143 миллиарда долларов. Пишут, что «В истории ни один стартап не работал с убытками в таких масштабах». 15 миллионов долларов в день тратится только на Sora.
– Короче, к концу десятилетия кумулятивные расходы составят примерно $200 млрд по самым оптимистичным оценкам. Но это если компания до того момента доживет.
– При учете текущего баланса уже к середине 2027 деньги кончатся. И это еще не вспоминая иск Илона Маска на 134 миллиарда.
– На фоне новостей OpenAI внезапно раскритиковал известный инвестор Джордж Нобл. Он сказал, что стартап «разваливается на глазах» и посоветовал основателям ИИ-стартапов продаваться на пике хайпа, а инвесторам уходить из AI-трейда.
– Конечно, в 2027 деньги у стартапа закончатся вряд ли. Прямо сейчас они уже привлекают 50 миллиардов при оценке в 750-830 миллиардов. Переговоры ведутся в основном с инвесторами из ОАЭ
– С другой стороны, если выручка так и не будет расти (а рост нужен на порядок, чтобы перекрыть затраты), а расходы продолжат увеличиваться экспоненциально, даже шейхи ситуации не сильно помогут. Но это уже другая история.
Еще остались вопросы, зачем OpenAI реклама в ChatGPT?
Please open Telegram to view this post
VIEW IN TELEGRAM
❤116👍51😁41 23 21🫡8🔥5🐳4🤔2
Anthropic выпустили новую конституцию для Claude
Это документ, который определяет ценности, этику и поведенческие приоритеты для Claude. В первую очередь конституция написана для самой модели, для нее это как бы набор моральных ориентиров.
Если хотите, почитать можно тут: https://www.anthropic.com/constitution
Здесь подсветим только один особо интересный абзац про эмоции ИИ:
Это документ, который определяет ценности, этику и поведенческие приоритеты для Claude. В первую очередь конституция написана для самой модели, для нее это как бы набор моральных ориентиров.
Если хотите, почитать можно тут: https://www.anthropic.com/constitution
Здесь подсветим только один особо интересный абзац про эмоции ИИ:
Claude может обладать некой функциональной версией эмоций или чувств. Мы считаем, что у Claude могут быть «эмоции» в функциональном смысле – то есть представления об эмоциональном состоянии, которые могут влиять на его поведение, как и следовало бы ожидать от эмоций. Это не является осознанным решением Anthropic по дизайну, а скорее может быть случайным последствием обучения на данных, сгенерированных людьми, и это то, что Anthropic имеет ограниченную способность предотвратить или уменьшить.
Используя язык эмоций, мы не стремимся занять позицию по вопросам о моральном статусе этих состояний, о том, переживаются ли они субъективно или являются «настоящими» эмоциями, – мы просто используем наиболее естественный язык для их обозначения.
😎63👍34❤19🗿7😁6🔥5🤔5 1
Data Secrets
Доброе утро, ну что там с деньгами (в OpenAI)? Последние дни новости про бюджет OpenAI так и сыпятся. Основной нарратив – у Альтмана кончаются деньги. Разбираемся по порядку: – У The Information вышел отчет, который ссылается на внутренние финансовые прогнозы…
Please open Telegram to view this post
VIEW IN TELEGRAM
😁589💯49🔥22 12❤11😎8🤔1
Assistant Axis: новая статья от Anthropic про геометрию «полезности» моделей
Все знают, что LLM умеют играть роли: и хорошие, и плохие. И на посттрейне разработчики тоже пытаются вложить в чат-ботов определенную личность полезного спокойного ассистента.
Вот только практика показывает, что модели все равно с этой личности часто соскальзывают. Отсюда – всякое небезопасное поведение, галлюцинации и сумасбродство.
Так вот Anthropic сделали красивую вещь: они показали, что личностью модели можно контролировать напрямую, управляя векторами в пространстве ее активаций. Итак:
1. Они взяли около 275 ролей, для каждой из которых задавали модели определение паттерны поведение и логировали активации во время ответов.
2. Таким образом для каждой личности сформировался вектор роли – средний паттерн активаций, когда модель играет этого персонажа. Эти векторы были огромной размерности, но их прогнали через PCA, и оказалось, что на самом деле пространство персон очень низкоразмерное.
3. То есть буквально 4-19 векторов в целом объясняют всю дисперсию (все различия между личностями). Более того, оказалось, что есть одна компонента, которая в целом определяет доминирующую часть пространства. По одну сторону от нее лежат норм личности чат-бота (доктор, консультант, учитель), а по другую – странные (призрак, темный маг, левиафан). Вот ее то и назвали Assistant Axis.
Интересно, что для разных моделей Assistant Axis почти одинаковая (корреляция там выше 0.92) и возникает уже во время предобучения. То есть это действительно какая-то смысловая ось, которая геометрически определяет, насколько модель ведет себя, как спокойный рассудительный ассистент, а не странный персонаж.
В основном во время рутинных диалогов (кодинг, конкретные бытовые задачи) модель всегда находится близко к этой оси. Но есть темы, которые заставляют от нее отдаляться: например, психология и философствование о сознании и чувствах ИИ. Тут модель может удариться во все тяжкие, и это называется Persona drift. Он-то как раз и опасен.
Хорошая новость: это можно контролировать, просто искусственно сохраняя активации в рамках нормального диапозона с точки зрения проекции на Assistant Axis. На бенчмарках при этом деградации нет (иногда качество даже растет), но метод съедает 60% вредных ответов на persona-jailbreak’ах. Занятно, в общем.
Вот тут есть даже код с экспериментами на открытых моделях, можно покопаться: https://github.com/safety-research/assistant-axis
Сама статья: https://arxiv.org/pdf/2601.10387
Все знают, что LLM умеют играть роли: и хорошие, и плохие. И на посттрейне разработчики тоже пытаются вложить в чат-ботов определенную личность полезного спокойного ассистента.
Вот только практика показывает, что модели все равно с этой личности часто соскальзывают. Отсюда – всякое небезопасное поведение, галлюцинации и сумасбродство.
Так вот Anthropic сделали красивую вещь: они показали, что личностью модели можно контролировать напрямую, управляя векторами в пространстве ее активаций. Итак:
1. Они взяли около 275 ролей, для каждой из которых задавали модели определение паттерны поведение и логировали активации во время ответов.
2. Таким образом для каждой личности сформировался вектор роли – средний паттерн активаций, когда модель играет этого персонажа. Эти векторы были огромной размерности, но их прогнали через PCA, и оказалось, что на самом деле пространство персон очень низкоразмерное.
3. То есть буквально 4-19 векторов в целом объясняют всю дисперсию (все различия между личностями). Более того, оказалось, что есть одна компонента, которая в целом определяет доминирующую часть пространства. По одну сторону от нее лежат норм личности чат-бота (доктор, консультант, учитель), а по другую – странные (призрак, темный маг, левиафан). Вот ее то и назвали Assistant Axis.
Интересно, что для разных моделей Assistant Axis почти одинаковая (корреляция там выше 0.92) и возникает уже во время предобучения. То есть это действительно какая-то смысловая ось, которая геометрически определяет, насколько модель ведет себя, как спокойный рассудительный ассистент, а не странный персонаж.
В основном во время рутинных диалогов (кодинг, конкретные бытовые задачи) модель всегда находится близко к этой оси. Но есть темы, которые заставляют от нее отдаляться: например, психология и философствование о сознании и чувствах ИИ. Тут модель может удариться во все тяжкие, и это называется Persona drift. Он-то как раз и опасен.
Хорошая новость: это можно контролировать, просто искусственно сохраняя активации в рамках нормального диапозона с точки зрения проекции на Assistant Axis. На бенчмарках при этом деградации нет (иногда качество даже растет), но метод съедает 60% вредных ответов на persona-jailbreak’ах. Занятно, в общем.
Вот тут есть даже код с экспериментами на открытых моделях, можно покопаться: https://github.com/safety-research/assistant-axis
Сама статья: https://arxiv.org/pdf/2601.10387
👍101❤45🔥20😁4🗿1
OpenAI планирует брать долю от интеллектуальной собственности, созданной с помощью их моделей
Звучит немыслимо, но это дословное заявление финансового директор компании Сары Фрайар.
Она объяснила, что OpenAI рассматривает эволюцию бизнес-модели за пределы подписок, так как текущая модель слишком проста и недостаточна для покрытия затрат на компьют.
Доля на commerce layer – это комиссии от покупок, которые сделаны прямо в ChatGPT. А discovery layer – это самое интересное: доля от интеллектуальной собственности (IP) или будущей ценности созданного. Например, если ИИ сгенерировал молекулу для лекарства, компания претендует на % от патента или продаж.
Само собой, на обычных пользователей это распространяться не будет. В первую очередь пострадают enterprise клиенты, особенно в сценариях вроде drug discovery или energy systems. Они, вероятно, обязаны(?) будут соглашаться на IP-sharing прямо в контрактах.
Мнения?
Звучит немыслимо, но это дословное заявление финансового директор компании Сары Фрайар.
Она объяснила, что OpenAI рассматривает эволюцию бизнес-модели за пределы подписок, так как текущая модель слишком проста и недостаточна для покрытия затрат на компьют.
«Мы думаем, что нормально брать долю на commerce layer и даже на discovery layer. <> Это нужно для устойчивости, чтобы финансировать AGI для блага человечества».
Доля на commerce layer – это комиссии от покупок, которые сделаны прямо в ChatGPT. А discovery layer – это самое интересное: доля от интеллектуальной собственности (IP) или будущей ценности созданного. Например, если ИИ сгенерировал молекулу для лекарства, компания претендует на % от патента или продаж.
Само собой, на обычных пользователей это распространяться не будет. В первую очередь пострадают enterprise клиенты, особенно в сценариях вроде drug discovery или energy systems. Они, вероятно, обязаны(?) будут соглашаться на IP-sharing прямо в контрактах.
Мнения?
Вышел PyTorch 2.10
Технические детали релиза:
Подробности в блоге: https://pytorch.org/blog/pytorch-2-10-release-blog/
Технические детали релиза:
🟦 Поддержка Python 3.14 и сборки без GIL. Добавили torch.compile для свежего Python, включая экспериментальную поддержку freethreaded-режима (3.14t). Это задел на будущее, чтобы эффективно масштабировать вычисления на CPU без ограничений Global Interpreter Lock.🟦 Нативный оператор varlen_attn(). В ядро добавили встроенную поддержку внимания для последовательностей переменной длины. Раньше это часто реализовывали через сторонние библиотеки вроде xformers или vLLM, теперь оптимизация доступна из коробки.🟦 Горизонтальное слияние ядер в TorchInductor. Теперь компилятор умеет объединять мелкие независимые операции в одно ядро (combo-kernels), что сокращает оверхед на запуск (kernel launch overhead) и эффективнее использует пропускную способность памяти.🟦 Новый инструмент DebugMode. Появился продвинутый режим для поиска численных расхождений и отладки графа. Он позволяет отслеживать детерминированные хеши тензоров на разных этапах выполнения, что сильно упрощает поиск причин появления NaN или «поплывших» весов.🟦 Продолжают активно понижать порог входа не для CUDA. Для Intel GPU завезли поддержку FP8 и работу с комплексными числами, а для AMD (ROCm) — ускоренный Scaled Dot Product Attention через AOTriton.🟦 Детерминизм при компиляции. Теперь torch.compile корректно обрабатывает флаг use_deterministic_mode. Это критически важное обновление для тех, кому важна 100% воспроизводимость результатов при использовании графовых оптимизаций.🟦 Гибкий Autograd. Появилась возможность задавать grad_dtype для листовых тензоров и аннотировать непересекающиеся проходы обратного распространения (disjoint backward) для оптимизации чекпоинтов.
Подробности в блоге: https://pytorch.org/blog/pytorch-2-10-release-blog/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤70🔥29😎13👍5🤯4⚡3😁1👾1 1
В МТС Банке сотрудники теперь работают с собственным внутренним ИИ-помощником
Компания запустила корпоративного ассистента Corporate AI Copilot на базе MWS AI Agents Platform*. Он объединяет в себе возможности RAG-инструментов. Агент развернут локально, так что сотрудники могут безопасно работать с внутренними данными.
Разброс задач достаточно ощутимый: от создания отчетов и документов до умного поиска в базах знаний и анализа данных. При этом для разных задач доступны разные модели, а во время выполнения задач агент сам подтягивает нужные источники из глобальной инфраструктуры.
По итогам 2025 года можно говорить о формировании двух зрелых и устойчивых кейсов применения генеративного ИИ. Первый — использование ИИ в клиентской поддержке: чат-боты и системы речевой аналитики берут на себя часть типовых обращений, повышают скорость обработки запросов и качество сервиса, а также дают бизнесу инструменты для анализа клиентских коммуникаций. Второй — такие корпоративные ИИ-помощники, автоматизирующие поиск и навигацию по внутренним источникам данных.
* MWS AI Agents Platform — это корпоративная платформа для управления всем жизненным циклом ИИ-агентов в едином интерфейсе, которая позволяет создавать ИИ-помощников без код и масштабировать их на уровне всей компании.
Компания запустила корпоративного ассистента Corporate AI Copilot на базе MWS AI Agents Platform*. Он объединяет в себе возможности RAG-инструментов. Агент развернут локально, так что сотрудники могут безопасно работать с внутренними данными.
Разброс задач достаточно ощутимый: от создания отчетов и документов до умного поиска в базах знаний и анализа данных. При этом для разных задач доступны разные модели, а во время выполнения задач агент сам подтягивает нужные источники из глобальной инфраструктуры.
По итогам 2025 года можно говорить о формировании двух зрелых и устойчивых кейсов применения генеративного ИИ. Первый — использование ИИ в клиентской поддержке: чат-боты и системы речевой аналитики берут на себя часть типовых обращений, повышают скорость обработки запросов и качество сервиса, а также дают бизнесу инструменты для анализа клиентских коммуникаций. Второй — такие корпоративные ИИ-помощники, автоматизирующие поиск и навигацию по внутренним источникам данных.
* MWS AI Agents Platform — это корпоративная платформа для управления всем жизненным циклом ИИ-агентов в едином интерфейсе, которая позволяет создавать ИИ-помощников без код и масштабировать их на уровне всей компании.
😁58🔥24❤15👍9🦄6🗿2☃1🤯1👌1🤨1
Вышел Cursor 2.4. Смотрим, что интересного:
1. Появились Subagents. Теперь агента можно разбить на маленьких агентиков, которые будут решать отдельные части общей задачи. Subagents работают параллельно,
имеют свой собственный контекст и настройки +
могут использовать разные модели под разные подзадачи.
2. Добавили генерацию изображений с Nano Banana Pro под капотом. Генерации сохраняются прямо в проект. В некоторых случаях, наверное, может быть удобно.
3. Добавили асинхронные Q&A. Если агенту нужно что-то уточнить, то он сделает это, не прерывая работу. То есть он будет продолжать что-то редактировать или читать, а когда вы дадите ответ на вопрос, вернется к нужному месту и обработает его.
Ну и вишенка: добавили Cursor Blame для Enterprise-плана. Это расширение для обычного😐
https://cursor.com/changelog/2-4
1. Появились Subagents. Теперь агента можно разбить на маленьких агентиков, которые будут решать отдельные части общей задачи. Subagents работают параллельно,
имеют свой собственный контекст и настройки +
могут использовать разные модели под разные подзадачи.
2. Добавили генерацию изображений с Nano Banana Pro под капотом. Генерации сохраняются прямо в проект. В некоторых случаях, наверное, может быть удобно.
3. Добавили асинхронные Q&A. Если агенту нужно что-то уточнить, то он сделает это, не прерывая работу. То есть он будет продолжать что-то редактировать или читать, а когда вы дадите ответ на вопрос, вернется к нужному месту и обработает его.
Ну и вишенка: добавили Cursor Blame для Enterprise-плана. Это расширение для обычного
git blame, которое раскладывает diff по строкам и показывает, что пришло от человека, что от ИИ, и как именно (tab completion, агент, ручная правка) + ссылается на соответствующие чаты с моделью https://cursor.com/changelog/2-4
Please open Telegram to view this post
VIEW IN TELEGRAM
1 96😁34❤23🔥14👍7⚡3🤔2🏆1
This media is not supported in your browser
VIEW IN TELEGRAM
Интервьюер: …
Я, защищающий на алгоритмическом собесе свое решение, работающее за O(n³)
Я, защищающий на алгоритмическом собесе свое решение, работающее за O(n³)
5😁306❤25🔥14😎9
В пространстве TAU в Москве пройдет Т-Sync Conf — масштабная конференция для инженеров
Что интересно, каждый гость может выбрать свою личную траекторию конференции. Всего будет 8 технических контуров: AI, Data, Security, UX/UI, R&D, Productivity, Observability и Platform — можно идти туда, где реально интересно. На стендах будут тестировать AI и дата-платформы, обсуждать дизайн инструментов, устроят хакатон для профи и публичную сборку сервиса. Инженерные диалоги обещают откровенно разбирать неудобные кейсы: что сломалось, что едва держалось и как команды решают реальные проблемы. Организаторы — группа “Т-Технологии” — позиционируют мероприятие как место, где разработки показывают в действии, а не на слайдах.
Кстати, конфа бесплатная, но по предварительной реге
Что интересно, каждый гость может выбрать свою личную траекторию конференции. Всего будет 8 технических контуров: AI, Data, Security, UX/UI, R&D, Productivity, Observability и Platform — можно идти туда, где реально интересно. На стендах будут тестировать AI и дата-платформы, обсуждать дизайн инструментов, устроят хакатон для профи и публичную сборку сервиса. Инженерные диалоги обещают откровенно разбирать неудобные кейсы: что сломалось, что едва держалось и как команды решают реальные проблемы. Организаторы — группа “Т-Технологии” — позиционируют мероприятие как место, где разработки показывают в действии, а не на слайдах.
Кстати, конфа бесплатная, но по предварительной реге
❤93😁14🗿6👍5🔥2🤔1🤯1🐳1🎄1
SakanaAI заключили партнерство с Google
Помните агента ALE-Agent, который недавно выиграл сложную Олимпиаду по кодингу, и The AI Scientist, статью которого взяли на ICLR? Это все продукты от Sakana, и оба они работали (в том числе) на разных версиях Gemini.
Теперь амбициозный японский стартап объединит планирует плотнее объединить модели Google со своими разработками. А Google в знак поддержки закидывает им какую-то монетку.
Интересно, что в первую очередь Sakana со своим ускорением целятся в японский госсектор.
Помните агента ALE-Agent, который недавно выиграл сложную Олимпиаду по кодингу, и The AI Scientist, статью которого взяли на ICLR? Это все продукты от Sakana, и оба они работали (в том числе) на разных версиях Gemini.
Теперь амбициозный японский стартап объединит планирует плотнее объединить модели Google со своими разработками. А Google в знак поддержки закидывает им какую-то монетку.
Используя такие модели, как Gemini и Gemma, мы ускорим наши прорывы в области автоматизированных научных открытий.
Интересно, что в первую очередь Sakana со своим ускорением целятся в японский госсектор.
🔥69❤16😁8⚡2