Data Secrets
Мы как-то пропустили, но оказывается словарь Collins объявили вайб-кодинг словом года Ждем, когда Рика Рубина из мема про вайб-кодинг сделают человеком года (не зря же он уже попал в топ-100 самых влиятельных людей в ИИ)
Тем временем мало кто знает, как слово года произносится полностью
😁240❤20💯15🔥4👍3
ШАД Яндекса научит применять ИИ в исследованиях
ИИ всё глубже уходит в экспериментальную науку — от разработки новых материалов до анализа биомедицинских данных. На этом фоне в Школе анализа данных Яндекса начали обучать исследователей внедрению ИИ в свои научные работы. Среди 50 участников новой программы — кандидаты наук, магистранты и аспиранты из лабораторий по всей стране.
Формат такой: участники изучают основы ИИ и сразу же встраивают их в свои исследования. Каждую команду ведёт эксперт ШАДа — помогает выбрать методы и построить дизайн эксперимента. Если проекту нужны большие вычисления, подключают мощности Yandex Cloud.
В ШАДе объясняют идею: учёным дают фундамент работы с ИИ и современный инструментарий. Цель — чтобы специалисты научились строить исследования, где модели становятся не внешним плагином, а органичной частью научного процесса. Первые результаты ожидают весной, а ещё через год появятся работы, созданные в новой связке «ученый + ИИ».
Такую ИИнтеграцию мы одобряем
ИИ всё глубже уходит в экспериментальную науку — от разработки новых материалов до анализа биомедицинских данных. На этом фоне в Школе анализа данных Яндекса начали обучать исследователей внедрению ИИ в свои научные работы. Среди 50 участников новой программы — кандидаты наук, магистранты и аспиранты из лабораторий по всей стране.
Формат такой: участники изучают основы ИИ и сразу же встраивают их в свои исследования. Каждую команду ведёт эксперт ШАДа — помогает выбрать методы и построить дизайн эксперимента. Если проекту нужны большие вычисления, подключают мощности Yandex Cloud.
В ШАДе объясняют идею: учёным дают фундамент работы с ИИ и современный инструментарий. Цель — чтобы специалисты научились строить исследования, где модели становятся не внешним плагином, а органичной частью научного процесса. Первые результаты ожидают весной, а ещё через год появятся работы, созданные в новой связке «ученый + ИИ».
Такую ИИнтеграцию мы одобряем
2👍60🔥29🗿19❤10😁9😎1
Ноам Браун, ведущий исследователь OpenAI: «Если смотреть на мнение ведущих ученых, а не на заголовки СМИ, обнаруживается удивительно много согласия по поводу ИИ»
Понравился достаточно хладнокровный и емкий пассаж от Ноама Брауна, который занимается ризонингом в OpenAI. Он пишет, что, если вы действительно хотите понять общую картину отрасли, нужно забыть про ложную дихотомию, которую продвигают СМИ, и смотреть на то, что говорят эксперты. Краткий перевод:
x.com/polynoamial/status/1994439121243169176
Понравился достаточно хладнокровный и емкий пассаж от Ноама Брауна, который занимается ризонингом в OpenAI. Он пишет, что, если вы действительно хотите понять общую картину отрасли, нужно забыть про ложную дихотомию, которую продвигают СМИ, и смотреть на то, что говорят эксперты. Краткий перевод:
Соцсети обычно сводят дискуссию об ИИ к двум карикатурным позициям:
(A) Скептики, которые считают, что LLM обречены и что ИИ – это просто хайп.
(B) Фанатики, которые уверены, что у нас уже есть все ингредиенты и суперинтеллект вот-вот появится.
Но если почитать, что реально говорят ведущие исследователи (а не заголовки СМИ), то обнаруживается удивительно много согласия:
– Текущая парадигма, скорее всего, уже достаточна, чтобы произвести огромный экономический и социальный эффект – даже без дальнейших научных прорывов.
– Чтобы достичь AGI/ASI, вероятно, все же понадобятся дополнительные исследовательские прорывы. (Continual learning и sample efficiency – два примера, которые исследователи часто упоминают).
– Скорее всего, мы разберемся с этим и придем к AGI/ASI в течение 20 лет. В среднем ученые называют срок 10 лет.
Никто из них не говорит, что ASI – это фантазия или что появление суперинтеллекта – дело 100+ лет.
В основном разногласия касаются того, какими будут нужные прорывы и как быстро они произойдут. Но в целом, если смотреть на картину полностью, эксперты в этой области согласны куда больше, чем не согласны.
x.com/polynoamial/status/1994439121243169176
👍145❤36 13🔥12😁3👀2☃1⚡1🤨1🫡1 1
Media is too big
VIEW IN TELEGRAM
Просто реклама новогодних скидок на Jetson AGX Orin, Jetson Thor и Jetson Orin Nano Super
Дженсен Хуанг однозначно что-то знает про правильный маркетинг🐕
Дженсен Хуанг однозначно что-то знает про правильный маркетинг
Please open Telegram to view this post
VIEW IN TELEGRAM
❤98😁47👍15🔥9🗿3
Статья про Faster R-CNN выиграла награду "Test of Time" на NeurIPS 2025. В честь этого разрешите нам позволить себе небольшую историческую справку
В этом году работе исполняется 10 лет. За это время ее процитировали около 56700 раз.
Что же в ней такого особенного?
Представьте: вы в 2015. Для решения задачи детекции и классификации объектов на изображении уже существует R-CNN и Fast R-CNN. Оба алгоритма достаточно точные, но их все еще почти невозможно применить в реальных задачах. Все дело – в скорости.
Оба алгоритма страдали от одного и того же узкого места: поиск регионов, то есть выделение подозрительных областей, в которых возможно есть объект. Эти регионы генерировались не нейросетью, а старым хэндкрафтед-алгоритмом Selective Search на основе поиска по цветам. Он работал на CPU и занимал 1.5–2 секунды на одно изображение.
То есть на каждый кадр нужно было ждать несколько секунд еще до того, как сеть вообще начнет классифицировать объекты. Это адская уйма времени.
И вот в конце 2015 года выходит работа "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks". Статья, которую сегодня заслуженно называют переворотом в детекции.
Авторы предложили простую, но гениальную идею: вставить в архитектуру еще одну сетку, которая сама будет искать подозрительные регионы, основываясь на тех же фичах, что и детектор. Так появились Region Proposal Network, которые ускорили весь процесс примерно в 200 раз.
После появления Faster R-CNN впервые стало возможными делать какую-то детекцию в реальном времени. А еще это модель стала, по сути, первым НЕ-франкенштейном, то есть системой, основанной на Deep Learning от начала и до конца.
Ну и, кроме того, в данной работе впервые предложили якоря (anchors). На этой концепции затем выросла, например, хорошо известная вам YOLOv2.
Поздравляем авторов!
В этом году работе исполняется 10 лет. За это время ее процитировали около 56700 раз.
Что же в ней такого особенного?
Представьте: вы в 2015. Для решения задачи детекции и классификации объектов на изображении уже существует R-CNN и Fast R-CNN. Оба алгоритма достаточно точные, но их все еще почти невозможно применить в реальных задачах. Все дело – в скорости.
Оба алгоритма страдали от одного и того же узкого места: поиск регионов, то есть выделение подозрительных областей, в которых возможно есть объект. Эти регионы генерировались не нейросетью, а старым хэндкрафтед-алгоритмом Selective Search на основе поиска по цветам. Он работал на CPU и занимал 1.5–2 секунды на одно изображение.
То есть на каждый кадр нужно было ждать несколько секунд еще до того, как сеть вообще начнет классифицировать объекты. Это адская уйма времени.
И вот в конце 2015 года выходит работа "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks". Статья, которую сегодня заслуженно называют переворотом в детекции.
Авторы предложили простую, но гениальную идею: вставить в архитектуру еще одну сетку, которая сама будет искать подозрительные регионы, основываясь на тех же фичах, что и детектор. Так появились Region Proposal Network, которые ускорили весь процесс примерно в 200 раз.
После появления Faster R-CNN впервые стало возможными делать какую-то детекцию в реальном времени. А еще это модель стала, по сути, первым НЕ-франкенштейном, то есть системой, основанной на Deep Learning от начала и до конца.
Ну и, кроме того, в данной работе впервые предложили якоря (anchors). На этой концепции затем выросла, например, хорошо известная вам YOLOv2.
Поздравляем авторов!
1❤183👍18😁18🦄13🏆9🍾7🔥1🆒1
Подводим итоги этого сумасшедшего месяца и выбираем самый крутой релиз ноября
Anonymous Poll
8%
GPT-5.1
4%
GPT-5.1 Codex Max
3%
Kimi K2 Thinking
2%
Grok 4.1
15%
Claude Opus 4.5
38%
Gemini 3
20%
Nano Banana Pro
1%
FLUX.2
3%
DeepSeek-Math V2
7%
GigaChat 3.0
1❤57😁45👍14🐳5 5🔥3⚡2🍓2 1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁267👍40🔥21🎉19❤6❤🔥2
Data Secrets
Дуров анонсировал децентрализованную ИИ-сеть Cocoon (Confidential Compute Open Network) это два в одном: майнинг и конфиденциальность ваших ИИ-запросов. То есть: – Владельцы GPU подключают свои видеокарты к сети и получают за это TON. – Разработчики получают…
Павел Дуров запустил Cocoon – децентрализованную сеть для ИИ вычислений
Коротко:
– Cocoon (Confidential Compute Open Network) призвана обеспечить пользователям полную конфиденциальность при общении с ИИ.
– Владельцы GPU подключают свои видеокарты к сети и получают за это TON (майнинг нового поколения!)
– Разработчики получают доступ к компьюту, а пользователи могут безопасно общаться с моделями.
https://cocoon.org/
Коротко:
– Cocoon (Confidential Compute Open Network) призвана обеспечить пользователям полную конфиденциальность при общении с ИИ.
– Владельцы GPU подключают свои видеокарты к сети и получают за это TON (майнинг нового поколения!)
– Разработчики получают доступ к компьюту, а пользователи могут безопасно общаться с моделями.
«В качестве логотипа сетиСосунКокон мы выбрали ИИчко:🤖 » – написал Павел у себя в канале.
https://cocoon.org/
Please open Telegram to view this post
VIEW IN TELEGRAM
😁202❤51🔥30👍18🗿10 7☃5👏3
ИИ-математик Aristotle доказал одну из нерешенных проблем из списка Эрдеша (но с оговоркой)
Если вы в первый раз слышите про Aristotle, рассказываем: это система от стартапа Harmonic, основанного в 2023 году. Ребята занимаются ИИ в математике, уже получили немало инвестиций, и продукт у них довольно интересный.
Он отличается тем, что генерирует не просто текст доказательства: вместо этого Aristotle пишет формальное доказательство в среде Lean, то есть сочетает в себе formal verification и informal reasoning + search.
Ну так вот. На днях создатели объявили о том, что модель решила проблему Эрдеша номер 124. Эта задача впервые была выдвинута в статье «Полные последовательности множеств целых степеней» в журнале Acta Arithmetica почти 30 лет назад и с тех пор считается открытой.
Aristotle же потратил на задачу 6 часов и решил ее абсолютно без участия человека. Потрясающе? Потрясающе.
Вот только оказалось, что версия задачи, которую решил Aristotle, отличается – это упрощенный вариант. Оригинальная формулировка была несколько другой и допускает увеличение степени только начиная с определенной, не включая единичную. В той формулировке задача остается нерешенной. И хотя результат действительно крутой, прорыва (сюрприз-сюрприз) снова не произошло😭
Все это в который раз доказывает: да, какую-то новую математику модельки уже способны доказывать. Но это, что называется, «низко висящие плоды» – то есть довольно простые по меркам академии утверждения уровня среднего аспиранта или олимпиадника. До гипотезы Римана им еще как пешком до Китая.
Кстати, после распространения новости в соцсетях завирусился новый термин «vibe-proving» – как vibe-coding, только для математиков💡
Если вы в первый раз слышите про Aristotle, рассказываем: это система от стартапа Harmonic, основанного в 2023 году. Ребята занимаются ИИ в математике, уже получили немало инвестиций, и продукт у них довольно интересный.
Он отличается тем, что генерирует не просто текст доказательства: вместо этого Aristotle пишет формальное доказательство в среде Lean, то есть сочетает в себе formal verification и informal reasoning + search.
Ну так вот. На днях создатели объявили о том, что модель решила проблему Эрдеша номер 124. Эта задача впервые была выдвинута в статье «Полные последовательности множеств целых степеней» в журнале Acta Arithmetica почти 30 лет назад и с тех пор считается открытой.
Aristotle же потратил на задачу 6 часов и решил ее абсолютно без участия человека. Потрясающе? Потрясающе.
Вот только оказалось, что версия задачи, которую решил Aristotle, отличается – это упрощенный вариант. Оригинальная формулировка была несколько другой и допускает увеличение степени только начиная с определенной, не включая единичную. В той формулировке задача остается нерешенной. И хотя результат действительно крутой, прорыва (сюрприз-сюрприз) снова не произошло
Все это в который раз доказывает: да, какую-то новую математику модельки уже способны доказывать. Но это, что называется, «низко висящие плоды» – то есть довольно простые по меркам академии утверждения уровня среднего аспиранта или олимпиадника. До гипотезы Римана им еще как пешком до Китая.
Кстати, после распространения новости в соцсетях завирусился новый термин «vibe-proving» – как vibe-coding, только для математиков
Please open Telegram to view this post
VIEW IN TELEGRAM
😁121❤60👍18🔥10
OpenAI не завершила ни одного нового полного претрейнинга после GPT-4o
По крайней мере, так утверждают аналитики из SemiAnalysis и, в частности, Дилан Пател.
В новой статье про Google TPUv7 они пишут, что сравнили инфраструктурную активность Google и OpenAI и обнаружили, что если Google проявлял явные признаки pretraining-нагрузки, то OpenAI – нет.
Со времен GPT-4o у стартапа не было ни роста потребления нагрузки, ни расширения кластеров и поставок. Видна лишь какая-то активность, похожая на файнтюнинг или RL, но не на масштабный претрейнинг.
Это значит, что, с высокой вероятностью, GPT-5 == тот же претрейн, что и GPT-4o, то есть, фактически, – та же базовая модель. Просто сенсация, если правда.
newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-the
По крайней мере, так утверждают аналитики из SemiAnalysis и, в частности, Дилан Пател.
В новой статье про Google TPUv7 они пишут, что сравнили инфраструктурную активность Google и OpenAI и обнаружили, что если Google проявлял явные признаки pretraining-нагрузки, то OpenAI – нет.
Со времен GPT-4o у стартапа не было ни роста потребления нагрузки, ни расширения кластеров и поставок. Видна лишь какая-то активность, похожая на файнтюнинг или RL, но не на масштабный претрейнинг.
Это значит, что, с высокой вероятностью, GPT-5 == тот же претрейн, что и GPT-4o, то есть, фактически, – та же базовая модель. Просто сенсация, если правда.
newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-the
😁173 67🫡14❤12🤔11👍1🔥1
Китайский стартап выпустил DeepSeek-V3.2 и DeepSeek-V3.2-Speciale.
Позиционируются обе как модели для агентов. DeepSeek-V3.2-Speciale – с акцентом на сложный долгий ризонинг и планирование.
Первая уже доступна в чате. Вторая пока только в API. По метрикам – уровень GPT-5 и Gemini 3.0 соответственно.
Ну и, естественно, все в опенсорсе! Hugging Face
Бегом пробовать!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤141🔥75👍28😁10🤯9🤨4🤔1🐳1
Еще интересные детали про новые модели от DeepSeek
➖ DeepSeek-V3.2-Speciale – это первая опенсорсная модель, которая выбивает золото в топ-олимпиадах. Обратите внимание на рисунок 1: золото на IMO 2025, CMO 2025, IOI 2025 и ICPC WF 2025. Но test-time compute при этом огромен: Speciale совсем не экономит токены, так что инференс достаточно дорогой.
➖ Еще раз про метрики (прикрепляем расширенные таблички): Speciale бьет Gemini 3.0 Pro на математике, а "менее умная" DeepSeek-V3.2 опережает Claude-4.5 Sonnet в кодинге (примерно уровень GPT-5 Pro). В случае с Speciale снова обратите внимание на количество используемых токенов, оно указано в таблице 3 в скобочках. Выглядит совсем не эффективно, и авторы сами говорят, что "оставили оптимизацию на будущие исследования".
➖ Основные технические причины успеха моделей: DeepSeek Sparse Attention, масштабный стабильный RL-тренинг и большой пайплайн для Agentic Tasks. Обо всем по отдельности – ниже.
1️⃣ DeepSeek Sparse Attention. Новая архитектура внимания и, по сути, ключевое изменение архитектуры по сравнению с предыдущим поколением. Состоит из двух частей: Lightning Indexer и Top-k sparse selection.
Lightning Indexer решает, какие прошлые токены важны для текущего. Работает довольно дешево и просто выдает индекс важности каждому query для всех предыдущих токенов. Top-k sparse selection выбирает top-k самых важных. Во время претрейна сначала обучается только индексер, потом основная модель размораживается и обучается уже полностью.
В итоге сложность вычислений падает с O(L²) до O(L·k). Помимо ускорения работы DSA дает еще резкое улучшение способностей на длинном контексте.
2️⃣ Посттренинг. Во-первых, очень масштабный этап RL-дообучения. В RL вложили примерно десятую часть того, что было потрачено на pretraining. Это беспрецедентно много, обычно это 1% или меньше. Обучали все также с GRPO, но в модифицированном виде. Там несколько архитектурных подвижек, о них читайте в статье. В двух словах: стало гораздо стабильнее и теперь метод хорошо масштабируется.
Во-вторых, использовали Specialist Distillation. Сама моделька MoE, но фишка в том, что каждый эксперт (в широком понимании слова) обучается как бы отдельно. То есть на основе базовой DeepSeek-V3.2 обучают набор узких моделей (типа specialist-math, specialist-coding и тд), а затем их знания дистиллируют в основную модель. Накладываем на это вышеупомянутый RL – и вот вам вау-качество в нескольких доменах.
3️⃣ Ну и Agent Training. Модельки чрезвычайно хороши во всяких агентских задачах, и особенно в browsing/search. У DeepSeek был очень сильный agent-пайплайн. Модель долго учили сохранять ризонинг при использовании инструментов, потом делали Cold-Start Training на tool call, а затем вообще генерировали 1800+ cинтетических сред, в которых агенты обучались выполнять совершенно разные задачи c помощью RL. В общем, у них там получилась целая фабрика задач.
Релиз – огонь. Поздравляем DeepSeek с возвращением!🐋
Техрепорт полностью читаем здесь
Lightning Indexer решает, какие прошлые токены важны для текущего. Работает довольно дешево и просто выдает индекс важности каждому query для всех предыдущих токенов. Top-k sparse selection выбирает top-k самых важных. Во время претрейна сначала обучается только индексер, потом основная модель размораживается и обучается уже полностью.
В итоге сложность вычислений падает с O(L²) до O(L·k). Помимо ускорения работы DSA дает еще резкое улучшение способностей на длинном контексте.
Во-вторых, использовали Specialist Distillation. Сама моделька MoE, но фишка в том, что каждый эксперт (в широком понимании слова) обучается как бы отдельно. То есть на основе базовой DeepSeek-V3.2 обучают набор узких моделей (типа specialist-math, specialist-coding и тд), а затем их знания дистиллируют в основную модель. Накладываем на это вышеупомянутый RL – и вот вам вау-качество в нескольких доменах.
Релиз – огонь. Поздравляем DeepSeek с возвращением!
Техрепорт полностью читаем здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥188❤47 35 8👍5😁5👏2🐳1
Ну что за прекрасный день? За последний час вышли сразу две крутых модели для генерации видео.
Первая – Gen-4.5 от всеми известного Runway. Заметно улучшили качество и физику, а также следование инструкциям (первое видео). В рейтинге от Artificial Analysis моделька выбила уверенное первое место.
Поддерживает разные стили и принимает референсы в виде видео и картинок. Доступа пока нет, говорят скоро только начнут раскатывать😣
Вторая – Kling o1 (китайцы сегодня на высоте). Эта модель больше про редактирование, ее сравнивают с Nano Banana Pro для видео.
Довольно легко удаляет объекты, меняет цвета и стиль и все такое прочее (второе видео). И вот ее уже можно пробовать, причем бесплатно и пока безлимитно: https://app.klingai.com/global/omni/new.
Парад релизов продолжается🎅
Первая – Gen-4.5 от всеми известного Runway. Заметно улучшили качество и физику, а также следование инструкциям (первое видео). В рейтинге от Artificial Analysis моделька выбила уверенное первое место.
Поддерживает разные стили и принимает референсы в виде видео и картинок. Доступа пока нет, говорят скоро только начнут раскатывать
Вторая – Kling o1 (китайцы сегодня на высоте). Эта модель больше про редактирование, ее сравнивают с Nano Banana Pro для видео.
Довольно легко удаляет объекты, меняет цвета и стиль и все такое прочее (второе видео). И вот ее уже можно пробовать, причем бесплатно и пока безлимитно: https://app.klingai.com/global/omni/new.
Парад релизов продолжается
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍65🔥31❤19😁3