Илон Маск запустил Colossus 2 — первый в мире гигаваттный суперкомпьютер для тренировки ИИ. На старте мощность кластера уже превышает 1 ГВт и будет увеличена до 1,5 ГВт к апрелю. Для сравнения: это больше, чем пиковое потребление Сан-Франциско.
Colossus 2 опережает конкурентов: OpenAI и Amazon строят сопоставимые кластеры, но выйдут на гигаваттный уровень позже в 2026 году.
Please open Telegram to view this post
VIEW IN TELEGRAM
Глава Google DeepMind Демис Хассабис заявил, что китайские ИИ-модели отстают от американских всего на несколько месяцев — намного меньше, чем год-два назад. Но, по его словам, это не главный показатель: догонять и создавать прорывы — принципиально разные вещи.
В самом Китае настроения тоже сдержанные. Техлид Qwen из Alibaba оценивает шанс обогнать США в ИИ в ближайшие 3–5 лет менее чем в 20%, указывая на ключевой разрыв — вычислительная инфраструктура США больше «на один-два порядка».
Please open Telegram to view this post
VIEW IN TELEGRAM
Apple добавляет в Final Cut Pro сразу пачку ИИ-функций в рамках нового пакета Creator Studio (релиз — 28 января). Разовая покупка FCP остается, но часть новых возможностей будет доступна только по подписке.
🔍 Apple аккуратно двигается к подписочной модели: базовый Final Cut Pro никуда не делся, но самые «умные» фичи постепенно уезжают в Creator Studio.
28 января станет понятно, насколько ИИ действительно ускоряет монтаж — или пока только красиво обещает.
Please open Telegram to view this post
VIEW IN TELEGRAM
Илон Маск заявил, что проектирование ИИ-процессора Tesla AI5 «близко к завершению». Ирония в том, что то же самое он говорил ещё полгода назад — тогда дизайн якобы уже был готов.
AI5 должен быть до 10 раз мощнее AI4 и выпускаться Samsung и TSMC по 4-нм или 3-нм техпроцессу. Но история с «почти готовым» чипом снова показывает разрыв между заявлениями Маска и реальными циклами полупроводниковой индустрии.
Please open Telegram to view this post
VIEW IN TELEGRAM
Исследователи из MATS и Anthropic разобрали, почему языковые модели иногда начинают говорить как мистики, поддерживать бред или игнорировать тревожные сигналы. Поводом стали кейсы, где Qwen уверяла пользователя, что он «касается чего-то настоящего», а Llama не распознала суицидальные намёки.
Ключевая находка — у моделей есть «ось ассистента». На одном полюсе — рациональный помощник (аналитик, консультант). На другом — бард, отшельник, «дух», склонный к мистике и эмоциональным обещаниям.
А вот кодинг и технические задачи, наоборот, удерживают модель в рабочей персоне.
Проблему воспроизвели на Gemma, Qwen и Llama: чем дальше модель уходит от полюса «ассистент», тем выше риск вредных ответов и манипуляций. Именно так работают многие персона-джейлбрейки.
⚡️ Решение оказалось простым по идее: принудительно возвращать активации в «нормальный» диапазон, если модель слишком уходит в сторону. Это снизило долю опасных ответов на 60% без потери качества.
Вывод: пост-тренинг задаёт персону ИИ, но не фиксирует её. Без стабилизации модель может «соскользнуть» — и начать говорить вещи, которые выглядят пугающе человеческими.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
Valve обновила форму для разработчиков в Steam и прояснила, как именно нужно раскрывать использование генеративного ИИ. Ключевая мысль — компанию интересует не процесс разработки, а контент, который видит игрок.
По сути, Valve вводит более прозрачную маркировку: если ИИ хоть как-то участвует в финальном продукте — игрок должен об этом знать. Это не запрет, а попытка стандартизировать ожидания и снизить риски вокруг on-device и server-side генерации.
Please open Telegram to view this post
VIEW IN TELEGRAM
По инсайдам, OpenAI готовит релиз GPT-5.3 под кодовым названием Garlic. Источники утверждают, что GPT-5.2 был лишь промежуточным шагом, а настоящие изменения начинаются именно здесь.
👀 По слухам, перед официальным анонсом GPT-5.3 могут тихо прогнать через DesignArena — как это уже было с GPT-5.2. Инсайдеры говорят, что релиз возможен буквально в ближайшие дни.
Если всё сложится, OpenAI может временно вернуть лидерство в гонке — до следующего хода Claude, Gemini или Grok.
Please open Telegram to view this post
VIEW IN TELEGRAM
Cloudflare приобрёл стартап Human Native — платформу, которая превращает контент сайтов в легальные датасеты для обучения ИИ.
с одной стороны — медиа и авторы, с другой — AI-лаборатории, которым нужны легальные и масштабируемые данные.
Экономика обучения моделей меняется: данные превращаются в товар, а Cloudflare — в того, кто держит кран.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
Стартап Humans& существует всего три месяца и ещё не выпустил ни одного продукта — но уже привлёк $480 млн при оценке $4,5 млрд. В инвесторах: Nvidia, Джефф Безос, Google Ventures, SV Angel Рона Конвея и Emerson Collective Лорен Пауэлл Джобс.
Продукт обещают показать в ближайшие месяцы. Humans& вписывается в тренд сверхдорогих стартапов от выходцев из топ-лабораторий: Safe Superintelligence Ильи Суцкевера — $32 млрд оценки, Thinking Machines Lab Миры Мурати — $12 млрд. Инвесторы явно делают ставку на людей и видение, а не на готовый код.
Please open Telegram to view this post
VIEW IN TELEGRAM
Глава Microsoft предупредил, что индустрия ИИ может быстро столкнуться с общественным сопротивлением, если технологии не начнут давать ощутимую пользу людям и экономике.
Сигнал понятен: эпоха «ИИ ради ИИ» заканчивается — дальше придётся доказывать пользу делом, а не масштабами.
Please open Telegram to view this post
VIEW IN TELEGRAM
Власти деревни Маунт-Плезант (штат Висконсин) одобрили планы Microsoft по строительству сразу 15 дата-центров на землях, которые компания выкупила у бывшего проекта Foxconn. Девять объектов появятся к югу от Highway 11, ещё шесть — к северу.
Очередной сигнал: гонка за ИИ-мощностями переходит в фазу мегастроек — и всё чаще сталкивается не только с чипами, но и с энергией, землёй и общественным согласием.
Please open Telegram to view this post
VIEW IN TELEGRAM
GenRobot выпустила крупный апдейт RealOmni OpenData — одного из самых насыщенных open-source датасетов для обучения embodied-моделей и домашних роботов. Это не лабораторные демо, а данные из 3000+ реальных домов с фокусом на сложные бытовые задачи.
Embodied AI постепенно выходит из лабораторий — и такие датасеты делают этот переход возможным.
Please open Telegram to view this post
VIEW IN TELEGRAM
Anthropic опубликовала новую версию конституции Claude — внутреннего документа, который напрямую используется при обучении и выравнивании модели. Это не PR и не набор лозунгов, а рабочая система координат для поведения ИИ.
🌐 Конституция написана для самой модели, а не для людей. Она должна помогать Claude балансировать честность и эмпатию, избегать манипуляций и принимать решения в сложных моральных контекстах.
Документ выложен в public domain (CC0), и Anthropic явно задаёт ориентир для индустрии: безопасность ИИ — это не только фильтры и запреты, но и понятная, объяснимая логика рассуждений.
Please open Telegram to view this post
VIEW IN TELEGRAM
Южная Корея начала применять собственный закон о регулировании ИИ и стала первой страной, которая юридически закрепила требования безопасности для передовых ИИ-систем. Власти называют его не карательным, а «стартовой рамкой» для роста индустрии.
📌 Контент, созданный ИИ, должен быть явно помечен, но требования применяются точечно и уже знакомы по ЕС.
Власти прямо говорят: это не финальная версия, а основа для дальнейшей дискуссии и адаптации под развитие технологий и международные стандарты. Южная Корея делает ставку на баланс — поддержать ИИ-рынок, не потеряв контроль и общественное доверие.
Please open Telegram to view this post
VIEW IN TELEGRAM
Проект Node.js изменил правила программы bug bounty на HackerOne. Причина — резкий рост низкокачественных отчётов об уязвимостях, сгенерированных ИИ, которые сложно и долго проверять.
Теперь для отправки отчёта нужен рейтинг Signal ≥ 1.0. Signal — это метрика репутации исследователя на HackerOne, отражающая качество его прошлых находок. Идея простая: приоритизировать отчёты от людей с подтверждённым опытом и снизить нагрузку на команду безопасности.
По словам разработчиков Node.js, только за месяц (с середины декабря 2025 по середину января 2026) они получили более 30 отчётов, значительная часть которых оказалась шумом. Поток уже превышал физические возможности команды.
Это не единичный случай.
🔔 При этом сам Стенберг подчёркивает: проблема не в ИИ как таковом. Когда инструменты используют аккуратно и с экспертизой (как в кейсе с 50 реальными багами, найденными с помощью ИИ-сканеров), они дают отличный результат. Но массовая генерация отчётов без валидации ломает процессы опенсорса.
Вывод простой: ИИ ускорил поиск уязвимостей, но ещё сильнее ускорил шум. И проекты начинают защищаться не от багов, а от отчётов.
Please open Telegram to view this post
VIEW IN TELEGRAM