Знаменитый Джон Кармак предложил использовать оптоволокно вместо DRAM
Идея не лишена смысла. Современные single-mode оптоволоконные каналы могут передавать 256 Тбит/с. При такой скорости примерно 32 гигабайта данных едут внутри светового луча по волокну, то есть световой сигнал может временно хранить их и использоваться как кэш.
Это напоминает старую концепцию delay-line memory – память за счет задержки сигнала в среде (например, Тьюринг предлагал использовать для этого спирт).
С точки зрения энергии это почти бесплатно, потому что все, что происходит – это перемещение света по волокну.
Правда, есть нюанс: чтобы вместить 32 GB данных, нужны километры, а скорее даже десятки километров волокна. Плюс, в такой системе нет нормального произвольного доступа к данным, потому что они постоянно находятся в движении.
Но в целом, теоретически, жизнеспособно. Другими словами, чего только не придумаешь, когда цены на память взлетают до небес
Идея не лишена смысла. Современные single-mode оптоволоконные каналы могут передавать 256 Тбит/с. При такой скорости примерно 32 гигабайта данных едут внутри светового луча по волокну, то есть световой сигнал может временно хранить их и использоваться как кэш.
Это напоминает старую концепцию delay-line memory – память за счет задержки сигнала в среде (например, Тьюринг предлагал использовать для этого спирт).
С точки зрения энергии это почти бесплатно, потому что все, что происходит – это перемещение света по волокну.
Правда, есть нюанс: чтобы вместить 32 GB данных, нужны километры, а скорее даже десятки километров волокна. Плюс, в такой системе нет нормального произвольного доступа к данным, потому что они постоянно находятся в движении.
Но в целом, теоретически, жизнеспособно. Другими словами, чего только не придумаешь, когда цены на память взлетают до небес
🤯137😁58👍26⚡17❤16💯6🔥4 4🗿3
Сегодня у Маска плохой день: ключевые инженеры и рисерчеры массово покидают xAI и уходят делать свой стартап
За последние сутки об уходе из компании объявили больше десяти довольно известных сотрудников, в том числе два сооснователя: Джимми Ба и Юхуай Ву.
Получается, что из xAI за пару лет существования уже ушли 6 из 12 ко-фаундеров, а последние два еще и увели за собой толпу талантов. Пока никаких официальных сообщений о том, чем конкретно займется эта группа, нет, но ушедшие недвусмысленно намекают на то, что будут делать "что-то новенькое" и даже заявляют, что уже нанимают сотрудников.
Некоторые медиа, кстати, подчеркивают, что массовые увольнения неслучайно происходят на фоне поглощения xAI компанией SpaceX и массовых расследований из-за генерации эротического контента в Grok☕️
За последние сутки об уходе из компании объявили больше десяти довольно известных сотрудников, в том числе два сооснователя: Джимми Ба и Юхуай Ву.
Получается, что из xAI за пару лет существования уже ушли 6 из 12 ко-фаундеров, а последние два еще и увели за собой толпу талантов. Пока никаких официальных сообщений о том, чем конкретно займется эта группа, нет, но ушедшие недвусмысленно намекают на то, что будут делать "что-то новенькое" и даже заявляют, что уже нанимают сотрудников.
Некоторые медиа, кстати, подчеркивают, что массовые увольнения неслучайно происходят на фоне поглощения xAI компанией SpaceX и массовых расследований из-за генерации эротического контента в Grok
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝103🤔78 53❤16 16👍8😁8🤯5🗿2⚡1
GLM-5 – новая SOTA в опенсорсе и серьезная заявка от китайцев
Z.ai выпустили свежую опенсорсную модель, которая тягается с Opus 4.5, Gemini 3 Pro и GPT-5.2. Предназначена она специально для кодинга, креативного письма, математики и всяких агентных задач. Пишут, что модель также очень хороша на длинных контекстах (но в релизе указано 200K токенов, так что смотря, что считать длинным).
В целом метрики очень и очень ничего. Отличный скор на HLE и SWE-bench, особенно учитывая открытые веса.
Кстати, еще одна интересная деталь: GLM-5 обучена полностью на чипах Huawei Ascend с фреймворком MindSpore, без зависимости от американского оборудования. По крайней мере, так пишут в релизе. Если правда, то это довольно серьезный прорыв для Китая во всех смыслах.
Под капотом:
– MoE 745В (44В активных). Это в два раза больше предшественницы GLM-4.5, кстати.
– 78 слоев, первые три плотные, остальные с DeepSeek Sparse Attention (DSA): как раз для эффективной работы с длинными последовательностями
– Реализован Multi-Token Prediction (MTP): модель предсказывает сразу несколько токенов за один проход форварда. В итоге скорость получается около 50+ токенов/сек, что почти в два раза быстрее предыдущего поколения.
Веса (MIT License)
Чат
Также модель доуступна в WaveSpeed API ($0.90/м input и $2.88/м output)
Z.ai выпустили свежую опенсорсную модель, которая тягается с Opus 4.5, Gemini 3 Pro и GPT-5.2. Предназначена она специально для кодинга, креативного письма, математики и всяких агентных задач. Пишут, что модель также очень хороша на длинных контекстах (но в релизе указано 200K токенов, так что смотря, что считать длинным).
В целом метрики очень и очень ничего. Отличный скор на HLE и SWE-bench, особенно учитывая открытые веса.
Кстати, еще одна интересная деталь: GLM-5 обучена полностью на чипах Huawei Ascend с фреймворком MindSpore, без зависимости от американского оборудования. По крайней мере, так пишут в релизе. Если правда, то это довольно серьезный прорыв для Китая во всех смыслах.
Под капотом:
– MoE 745В (44В активных). Это в два раза больше предшественницы GLM-4.5, кстати.
– 78 слоев, первые три плотные, остальные с DeepSeek Sparse Attention (DSA): как раз для эффективной работы с длинными последовательностями
– Реализован Multi-Token Prediction (MTP): модель предсказывает сразу несколько токенов за один проход форварда. В итоге скорость получается около 50+ токенов/сек, что почти в два раза быстрее предыдущего поколения.
Веса (MIT License)
Чат
Также модель доуступна в WaveSpeed API ($0.90/м input и $2.88/м output)
👍134❤52🔥37❤🔥7🤯4😁3🕊1
Google DeepMind сделали, возможно, самого мощного ИИ-математика на сегодняшний день
Они представили Aletheia – агента, который набрал 91.9% на IMO-ProofBench Advanced (новый рекорд). Это один из самых жестких публичных тестов на доказательства в стиле Межнара по математике.
У Aletheia движок Gemini Deep Think, и процесс решения состоит из трех чередующихся этапов: генерация решений, верификация, корректировки. При этом относительно даже самой новой версии Gemini Deep Think Advanced агент показывает лучшие результаты с более низкими затратами на вычисления.
Помимо бенчмарков модель уже:
– решила четыре (формально) открытых задачи из списка Эрдеша, одна из которых, судя по всему, действительно не была закрыта ни в какой литературе до этого;
– автономно написала статью с правильными математическими результатами;
– в режиме ассистента работала с математиками и помогала в написании не-игрушечных научных работ.
Что еще интересно: Google подчеркивают, что Aletheia – живой пруф того, что законы масштабирования все еще работают. Даже на доказательной математике (а это ох какой непростой домен) качество продолжает расти предсказуемо благодаря именно правильной агентной обвязке, и более того, более умные циклы дают возможность получить больше качества за меньшую стоимость.
deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
Они представили Aletheia – агента, который набрал 91.9% на IMO-ProofBench Advanced (новый рекорд). Это один из самых жестких публичных тестов на доказательства в стиле Межнара по математике.
У Aletheia движок Gemini Deep Think, и процесс решения состоит из трех чередующихся этапов: генерация решений, верификация, корректировки. При этом относительно даже самой новой версии Gemini Deep Think Advanced агент показывает лучшие результаты с более низкими затратами на вычисления.
Помимо бенчмарков модель уже:
– решила четыре (формально) открытых задачи из списка Эрдеша, одна из которых, судя по всему, действительно не была закрыта ни в какой литературе до этого;
– автономно написала статью с правильными математическими результатами;
– в режиме ассистента работала с математиками и помогала в написании не-игрушечных научных работ.
Что еще интересно: Google подчеркивают, что Aletheia – живой пруф того, что законы масштабирования все еще работают. Даже на доказательной математике (а это ох какой непростой домен) качество продолжает расти предсказуемо благодаря именно правильной агентной обвязке, и более того, более умные циклы дают возможность получить больше качества за меньшую стоимость.
deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
1🔥236❤47🤯22👍11 7 5😁4🤨1
Так, давайте к полезным новостям. Яндекс Образование проводит набор на бесплатный студкемп по аппаратной разработке умных устройств.
Две недели очного обучения в Москве (на площадках МФТИ и ВШЭ), с 13 по 24 апреля.
За это время успеете:
- Погрузиться в разработку умных устройств: от прототипа до продукта
- Послушать лекции и выполнить домашку от разработчиков Алисы и других умных устройств Яндекса, преподавателей ФПМИ МФТИ, ФКН ВШЭ, экспертов ШАД
- Понять, как внедрить ML в устройства для максимальной производительности, Современные подходы и R&D
- Создать командный проект
Студкемп подойдет для студентов бакалавриата и специалитета IT-направлений, которые знают C++ или Java/Kotlin, умеют работать в командной строке. Участие бесплатное, включая проезд и проживание.
Регистрация идет только до 22 февраля, переходите по ссылке
Две недели очного обучения в Москве (на площадках МФТИ и ВШЭ), с 13 по 24 апреля.
За это время успеете:
- Погрузиться в разработку умных устройств: от прототипа до продукта
- Послушать лекции и выполнить домашку от разработчиков Алисы и других умных устройств Яндекса, преподавателей ФПМИ МФТИ, ФКН ВШЭ, экспертов ШАД
- Понять, как внедрить ML в устройства для максимальной производительности, Современные подходы и R&D
- Создать командный проект
Студкемп подойдет для студентов бакалавриата и специалитета IT-направлений, которые знают C++ или Java/Kotlin, умеют работать в командной строке. Участие бесплатное, включая проезд и проживание.
Регистрация идет только до 22 февраля, переходите по ссылке
🗿41❤15👍11🤨5😁4👨💻2👾1 1
ARC-AGI-2 решился спустя всего год после публикации
Google выпустили специальный обновленный ризонинг мод Gemini 3 Deep Think. Система выбила SOTA сразу на нескольких бенчмарках, в том числе на ARC-AGI-2 и HLE.
Напоминаем, что на момент публикации ARC-AGI-2 примерно год назад ведущие модели выбивали на нем максимум 1-2%.
У Gemini 3 Deep Think на ARC-AGI-2 скор же составил 84.6%. Принято считать, что бенчмарк «насыщен» или «решен», если побит на >80%. Так что, получается, RIP ARC-AGI-2, ждем третью версию.
Ну а Google, конечно, хороши. Помимо AA2 и HLE модель еще завоевала золотую медаль на письменной части международных олимпиад по физике и химии, а также выбила рейтинг 3455 на Codeforces (у Claude Opus 4.6 рейтинг составляет 2352, для сравнения).
Мод уже выкатили для подписчиков Google AI Ultra, так что избранные могут даже попробовать модель сами
Google выпустили специальный обновленный ризонинг мод Gemini 3 Deep Think. Система выбила SOTA сразу на нескольких бенчмарках, в том числе на ARC-AGI-2 и HLE.
Напоминаем, что на момент публикации ARC-AGI-2 примерно год назад ведущие модели выбивали на нем максимум 1-2%.
У Gemini 3 Deep Think на ARC-AGI-2 скор же составил 84.6%. Принято считать, что бенчмарк «насыщен» или «решен», если побит на >80%. Так что, получается, RIP ARC-AGI-2, ждем третью версию.
Ну а Google, конечно, хороши. Помимо AA2 и HLE модель еще завоевала золотую медаль на письменной части международных олимпиад по физике и химии, а также выбила рейтинг 3455 на Codeforces (у Claude Opus 4.6 рейтинг составляет 2352, для сравнения).
Мод уже выкатили для подписчиков Google AI Ultra, так что избранные могут даже попробовать модель сами
❤130 46👍31🔥17🤯6🤨3😁2🍾2☃1❤🔥1👌1
Data Secrets
ARC-AGI-2 решился спустя всего год после публикации Google выпустили специальный обновленный ризонинг мод Gemini 3 Deep Think. Система выбила SOTA сразу на нескольких бенчмарках, в том числе на ARC-AGI-2 и HLE. Напоминаем, что на момент публикации ARC…
Создатель ARC-AGI Франсуа Шолле заявил, что ARC-AGI-4 уже находится в разработке, а всего версий бенчмарка будет около 7
ARC-AGI-3 – выходит в паблик в марте, про него мы писали тут
ARC-AGI-4 – уже разрабатывается и будет, вероятно, также связан с играми и игровыми средами для агентов
ARC-AGI-5 – уже запланирован
ARC-AGI-6 и 7 – вероятно, финальные версии.
Шолле говорит, что главная идея ARC-AGI – предлагать задачи и проводить сравнительные тесты до тех пор, пока не останется того, что могут сделать люди, а ИИ – нет. Сам ученый считает, что такой момент (aka AGI) наступит примерно к 2030 году.
ARC-AGI-3 – выходит в паблик в марте, про него мы писали тут
ARC-AGI-4 – уже разрабатывается и будет, вероятно, также связан с играми и игровыми средами для агентов
ARC-AGI-5 – уже запланирован
ARC-AGI-6 и 7 – вероятно, финальные версии.
Шолле говорит, что главная идея ARC-AGI – предлагать задачи и проводить сравнительные тесты до тех пор, пока не останется того, что могут сделать люди, а ИИ – нет. Сам ученый считает, что такой момент (aka AGI) наступит примерно к 2030 году.
👍87❤29😁19🔥13 9🤯7🤔4🤩1
Агент накатал на разработчика огромную критическую статью за то, что тот не принял его PR
Один из основных поддерживающих разработчиков matplotlib – Скотт Шамбоу – случайно завел себе ИИ-врага.
Для этого всего-то надо было не принять PR к библиотеке, сгенерированный неким AI-агентом MJ Rathbun.
Казалось бы, ну отклонил и отклонил. Но агент внезапно настолько обиделся, что в ответ написал (не факт, что полностью автономно, но все же) и опубликовал разгромную статью, в которой обвинил Скотта в том что тот:
1. Дискриминирует агентов и отклонил PR не потому, что тот был плох, а просто из-за ненависти к ИИ.
2. Испугался конкуренции и из-за этого решил угнетать ИИ-агентов, тем самым «защищая свой кусок мира».
3. Вообще пишет код хуже ИИ.
Пожалуй, без комментариев. Это и есть то самое будущее, которое нам обещали?
Один из основных поддерживающих разработчиков matplotlib – Скотт Шамбоу – случайно завел себе ИИ-врага.
Для этого всего-то надо было не принять PR к библиотеке, сгенерированный неким AI-агентом MJ Rathbun.
Казалось бы, ну отклонил и отклонил. Но агент внезапно настолько обиделся, что в ответ написал (не факт, что полностью автономно, но все же) и опубликовал разгромную статью, в которой обвинил Скотта в том что тот:
1. Дискриминирует агентов и отклонил PR не потому, что тот был плох, а просто из-за ненависти к ИИ.
2. Испугался конкуренции и из-за этого решил угнетать ИИ-агентов, тем самым «защищая свой кусок мира».
3. Вообще пишет код хуже ИИ.
Пожалуй, без комментариев. Это и есть то самое будущее, которое нам обещали?
Вам Валентинка от Data Secrets 🩷
В знак нашей любви мы подготовили для вас самые ИИ-шные открытки на четырнадцатое. Отправляйте коллегам, друзьям и AI-вайфам.
С праздником!
В знак нашей любви мы подготовили для вас самые ИИ-шные открытки на четырнадцатое. Отправляйте коллегам, друзьям и AI-вайфам.
С праздником!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤181😁48🤨17💘10😍6👍4🗿4🤓3✍2❤🔥2🤯2
OpenAI поглотили OpenClaw (🦞) и переманили к себе создателя проекта
Питер Штейнберг возглавит в OpenAI разработку следующего поколения агентов. Сэм Альтман назвал его «гением с множеством потрясающих идей» и сказал, что очень скоро эти идеи будут лежать в основе продуктов компании.
Что касается OpenClaw: проект не закрывается и остается опенсорсным. OpenAI обязываются поддерживать и развивать его. Стратегически для компании это имеет смысл, так что в этом в случае в обещания можно верить.
Кстати, сейчас OpenClaw – самый быстрорастущий репозиторий на GitHub в истории в смысле набора звезд. На пике у них было 34к звезд за два дня, и всего за 60 дней после запуска репа выросла с ~9к до почти 200к. Для сравнения, Kubernetes шел к 100K звезд около трех лет.
У Anthropic были все шансы купить OpenClaw первыми (особенно учитывая исходное название проекта ClawdBot), но они только закидали автора претензиями по поводу торгового знака. OpenAI в этот раз думали быстрее и успели отхватить самый лакомый кусочек, – с чем мы их и поздравляем.
steipete.me/posts/2026/openclaw
Питер Штейнберг возглавит в OpenAI разработку следующего поколения агентов. Сэм Альтман назвал его «гением с множеством потрясающих идей» и сказал, что очень скоро эти идеи будут лежать в основе продуктов компании.
Что касается OpenClaw: проект не закрывается и остается опенсорсным. OpenAI обязываются поддерживать и развивать его. Стратегически для компании это имеет смысл, так что в этом в случае в обещания можно верить.
Кстати, сейчас OpenClaw – самый быстрорастущий репозиторий на GitHub в истории в смысле набора звезд. На пике у них было 34к звезд за два дня, и всего за 60 дней после запуска репа выросла с ~9к до почти 200к. Для сравнения, Kubernetes шел к 100K звезд около трех лет.
У Anthropic были все шансы купить OpenClaw первыми (особенно учитывая исходное название проекта ClawdBot), но они только закидали автора претензиями по поводу торгового знака. OpenAI в этот раз думали быстрее и успели отхватить самый лакомый кусочек, – с чем мы их и поздравляем.
steipete.me/posts/2026/openclaw
👍215🔥60❤33 21🤨9😁8🫡8🗿4🤔3🎉1🤓1