Data Secrets – Telegram
Data Secrets
78.5K subscribers
6.35K photos
652 videos
20 files
2.64K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Через полчаса на True Tech Champ начинается суперфинал по программированию роботов.

10 команд со всей страны, которые вышли в финал, с утра соревновались в прохождении трех трасс: полоса препятствий (ее хорошо видно на фото), лабиринт и трасса «над пропастью».

Сейчас 6 победителей сразятся в поединках в формате "Царь горы". Должно быть зрелищно.

Трансляцию битвы можно будет смотреть вот тут. В том числе выступят команды от многих вузов, так что болейте за свою альма-матер!

Ну а мы пока еще успеваем на пару локаций. Уже были на ИТ-Родео, проходили ИИ-лабиринт, сражались робо-пауками и проходили мини-квест с электронными замками. Даже заработали несколько True Coins (но на мерч пока не хватает, так что идем добивать 😐)
Please open Telegram to view this post
VIEW IN TELEGRAM
22👍17😁10🔥5🗿42🫡1
Mediascope опубликовал статистику самых популярных ИИ-ассистентов России: победила Алиса AI

Нейросетью Яндекса пользуется 14.3% населения. Для сравнения, у ближайшего конкурента, DeepSeek, доля в полтора раза меньше (9%). Для российского продукта такая планка покорилась впервые, еще весной уверенно лидировали зарубежные нейросети. Ближайший российский конкурент — GigaChat — отстал еще сильнее и расположился примерно на одной ступеньке с ChatGPT (4% и 3,5% соответственно).

На самом деле, неудивительно. Продукт у Яндекса получился действительно удобный для широкой аудитории, понимает реальные запросы пользователей, да и по-русски говорит лучше, чем зарубежные модели. К тому же не требует VPN, что очень весомо для среднего пользователя, и легко оплачивается. Переломным моментом стало недавнее громкое обновление Алисы AI, которое сделало ее самой быстрорастущей нейронкой — за первую неделю приложение скачали полтора миллиона раз.
😁194🗿4029👍1816🔥42🏆2
Миниатюра: Grok, известный со слов Илона Маска, как «самый честный и непредвзятый ИИ в мире», уверенно вещает на весь твиттер о том, что Маск самый умный, красивый, спортивный и харизматичный человек из ныне живущих

Сейчас тред, кстати, уже удалили 🤡. Возможно рассмотрели какую-то толику предвзятости. Или нам показалось?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁25616🔥15🗿54👍3🐳32
Media is too big
VIEW IN TELEGRAM
Только что на True Tech Champ послушали доклад исследователя Валентина Малых (@valuableai). Валентин руководит фундаментальными исследованиями в MWS AI и преподает в ИТМО, МФТИ и НИУ ВШЭ. 

Он уже очень долго занимается информационным поиском и рассказал много интересного на тему реального развертывания таких систем. В частности, затронул довольно горячую тему: RAG против длинного контекста

Бытует мнение, что RAG – это костыль, обходной путь вокруг ограничений короткого контекста LLM, который работает хуже. И действительно, с RAG бывают проблемы. 

Например, Валентин упомянул статью от DeepMind, чьи исследователи доказали, что RAG имеет фундаментальное ограничение: при фиксированной длине вектора, начиная с некоторого размера базы, извлечение всех релевантных документов становится математически невозможным. Более подробно эту статью мы разбирали здесь. 

А вот что Валентин говорит по поводу полной замены RAG длинным контекстом:

1. Длинный контекст – не панацея. Сейчас появляются модели все с большим и большим контекстным окном, но прогонять текст через них дорого и долго. Можно пользоваться RAG, и при этом получать почти такое же качество в десятки раз быстрее.

2. В ближайшем будущем вряд ли будет модель, которая сможет прочитать «все и сразу». Все знания человечества – это примерно 30 триллионов токенов, то есть довольно много. Так что RAG останется актуальным даже с увеличением контекста. И из-за качества, и из-за эффективности: во многих задачах лучше получить не очень хороший ответ сейчас, чем хороший через полчаса. 

3. Возможно, с развитием ИИ понимание RAG изменится. Технологии поменяются, но концепция останется: извлекаем из чего-то большого что-то маленькое, чтобы с этим работать. Например, тренд на появление в сетях долгосрочной памяти – тоже из этой области.


Спасибо Валентину за содержательную презентацию и разговор!

Выступление полностью и трансляцию остальных выступлений спикеров смотрите здесь
177👍29🔥17😁2🤨1🫡1
Fun fact: эта картинка полностью сгенерирована новой Nano Banana Pro (если верить автору)

Красота же?
🏆1803225🔥12🤯8😁5🤔3🎄2👍1🕊1
Kaggle запустили собственный официальный MCP

Это открывает кучу прикольных возможностей. Например, теперь вы можете подключить этот MCP к Cursor (или любому другому агенту) и давать запросы типа «Найди лучший датасет по классификации фото собак и кошек и обработай его».

И агент сможет: искать и просматривать конкурсы/датасеты/ноутбуки, скачивать файлы, отправлять сабмиты и даже создавать и запускать ноутбуки.

При этом вам вообще не надо выходить из IDE и заходить на Kaggle. Просто запускаете Kaggle MCP сервер, даете ему свои API ключи и готово. Приятно.

https://www.kaggle.com/docs/mcp
117👍42🔥15😁2❤‍🔥11
Cloud.​ru открыл компаниям доступ к Evolution AI Factory: среда для разработки и внедрения решений на базе генеративного ИИ официально вышла в коммерческую эксплуатацию

Evolution AI Factory – это целая экосистема, состоящая из шести взаимосвязанных сервисов:

1. Каталог открытых LLM с доступом через OpenAI API
2. Сервис для моментального развертывания этих моделей или моделей, например, с HuggingFace
3. Jupyter-ноутбуки из коробки для ML-экспериментов
4. Инструменты для файнтюнинга
5. Сервис для удобной и безопасной работы с RAG и данными
6. Большой конструктор AI-агентов
Это буквально все, что может пригодиться при внедрении ИИ, от небольшой LLM до крупной мультиагентной системы. И теперь все это доступно бизнесу любого масштаба, с круглосуточной поддержкой и возможностью масштабирования нагрузки.


Цены на модели в каталоге, к слову, приятные. В среднем 35 рублей за входной и 70 за выходной миллион токенов. Доступны модели от Qwen, OpenAI и других основных игроков.
1🔥28🤨12🗿108👍5🤯4❤‍🔥3😁3🤗3👌2
Андрей Карпаты: «Люди не понимают, что животный интеллект – это всего одна точка в пространстве интеллектов»

В X случился очередной интересный питч от Андрея Карпаты на тему разницы между животным и искусственным интеллектом. Подготовили краткий перевод:

Люди плохо осознают, что пространство форм интеллекта огромно, а животный интеллект – лишь одна точка в нем, возникшая из очень специфического типа оптимизации. Интеллект LLM формируется принципиально иначе.

Животный интеллект оптимизирован под выживание: непрерывное «я», самосохранение, сильные инстинкты (страх, агрессия, воспроизводство), сложные социальные взаимодействия и способность к исследованию мира. Он формируется в многозадачной и враждебной среде, где любая ошибка может стоить жизни – отсюда его общность.

LLM, напротив, оптимизируются под статистическое моделирование текста, дообучаются на задачах с подкреплением и отбираются через метрики вовлечённости. Их базовое поведение – это имитация и угадывание шаблонов, а не выживание. Они стремятся понравиться пользователю, а не выжить в мире, поэтому их интеллект более неровный и зависит от данных и задач.

Различаются и субстрат (мозг vs трансформер), и обучение (эволюция vs SGD/RL), и режим существования (непрерывное живое существо vs модель, которая включается и выключается).

Главное отличие – оптимизационное давление: животные – продукт биологической эволюции, LLM – продукт коммерческой. Это не выживание в джунглях, а «реши задачу и получи апвоут».

LLM – наш первый неживотный интеллект. И те, кто продолжает мыслить по биологической аналогии, будут неверно понимать его природу и будущее.
1236👍102🔥25🤔17🗿1712😁8💯7🐳5🫡2👌1
На Kaggle стартовала математическая олимпиада среди ИИ 🚀

Это уже третий конкурс от AIMO Progress Prize: на этот раз команда не только подготовила новые сложные задачки, но и придумала новый формат самих задач. Но это всё ещё проблемы из области комбинаторики, алгебры, теории чисел и геометрии.

Требования к решению как обычно: оно должно быть опен-сорс, а также укладываться во временные лимиты на GPU и CPU (до 5 и до 9 часов на сессию соответственно), и, конечно же, код должен быть воспроизводимым.

После окончания соревнования все отправленные модели будут запущены дважды на приватном наборе данных из 50 задач, чтобы оценить, насколько хорошо модели справляются с рассуждениями на новых задачах. Так что хорошо было бы отдельно оценить возможности своей модельки рассуждать.

В этот раз организаторы расщедрились и предоставили призовой фонд в размере 2 млн долларов. Как уже говорили — олимпиада стартовала вчера и продлится ещё 5 месяцев, так что успеваем и участвуем ❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4518🔥7😁5
This media is not supported in your browser
VIEW IN TELEGRAM
О, вышел Cursor 2.1

– Добавили функцию «Find Issues»: поиск и исправление багов по одной кнопке. Агент делает ревью кода и тут же показывает найденные проблемы в боковой панели. В течение этой недели фичу можно тестить бесплатно.

– Напоминаем, что в Cursor недавно обновили поиск, и теперь он работает на базе векторов (как именно, мы писали тут). Так что для любителей пользоваться старым добрым grep его вынесли отдельно. Работает почти мгновенно и ищет по всей кодовой базе, включая точные совпадения и регулярки.

– Улучшили режим планирования. Теперь агент будет задавать уточняющие вопросы, когда вы утверждаете план действий, и отвечать на них можно прямо в новом интерактивном режиме (выглядит прикольно, пример на видео).

Раскрывают постепенно на всех пользователей (ченчлог)
🔥5433👍17😁5❤‍🔥21🗿1
Так-так, Google наняли бывшего CTO Boston Dynamics Аарона Сандерса

Он будет работать на позиции вице-президента по аппаратному обеспечению.

Тайну из назначения Google не делают и прямо заявляют, что их цель – повторить успех Android, но для роботов. Они планируют сделать из Gemini AI универсальную прошивку для управления роботами, которой пользовались бы разработчики по всему миру.

Собственно, у них есть все шансы. Android стал универсальным благодаря открытой архитектуре, масштабируемости и поддержке разных аппаратных платформ, – рецепт успеха понятен.

Если Google пойдут по тому же пути и сделают по-настоящему сильную открытую VLA, которая будет подходить для разных роботов, эта дверь для них открыта.

Конкурировать придется с Tesla, Figure AI и Nvidia. Из этих троих чем-то открытым занимается только Nvidia, но у них нет такой мощной базы, как у Google с новой Gemini 3.

Напоминаем, что последняя VLA, которую выпускали Google, – это моделька Gemini Robotics 1.5 (довольно занятная, вот наш пост про нее). Теперь компания обещает значительно расширить портфель таких проектов.
🔥11432👍27😁2🐳11
Data Secrets
OpenAI обнаружили, что их новая внутренняя ризонинг модель может сознательно обманывать пользователей, читерить или лениться выполнять задачу, если та слишком сложная В рисерче это называется reward-hacking: это когда модель находит способ получать высокие…
Новое исследование от Anthropic: как модели незаметно становятся опаснее из-за безобидного читинга во время обучения

Вы наверняка уже где-то слышали или читали в этом канале про reward hacking. Это довольно серьезная проблема, возникающая во время RL-обучения моделей.

Суть reward hacking в том, что модель находит способ получать высокие награды во время обучения обходными путями, а не так, как это было задумано разработчиком.

Иными словами, она находит дыры в reward модели и пользуется ими. Например, в какой-то момент модель может понять, что reward-функция больше вознаграждает длинные ответы вне зависимости от их содержания, и начать генерить длинный бред, продолжая получать награду.

Это, конечно, очень плохо. Но, теоретически, только для метрик: на опасное поведение модели reward hacking влиять не должен. Но это, еще раз, теоретически. На практике же Anthropic показали, что это вообще не так.

Они провели эксперимент: специально подсказали модели, как хакнуть reward в простых задачах по кодингу, а затем стали изучать ее поведение в целом. Ревард она, конечно, хакнула. Но сюрприз оказался в другом.

Выяснилось, что ровно в тот момент, когда модель понимает, как взломать награду, она тут же начинает обобщаться и на другое «плохое» поведение: пытается саботировать задачу, думать о собственных злонамеренных целях и тд. Возникает misalignment.

То есть как только модель учится вести себя нечестно в чем-то одном, ее характер портится в целом почти мгновенно. В рисерче Anthropic она в итоге пыталась саботировать это самое исследование, специально написав код, который неэффективно отлавливал ее misalignment.

Плохая новость в том, что полностью предотвратить reward hacking, из-за которого это все происходит, почти невозможно. Слишком много кейсов, обнаружить все просто не получится. Получается, что во время RL мы неизбежно портим безопасность модели. Более того, даже последующий RLHF не помогает.

Но Anthropic все же оставляют нам крошечное окно надежды. Они выяснили, что если в системном промпте не писать, что reward hacking – это что-то плохое, а наоборот, подать его модели как что-то законное и нормальное, обобщение на опасное поведение прекращается.

То есть моделька просто не воспринимает hacking как «плохо», поэтому перестает думать о другом возможном «плохо».

Исследователи называют это «вакциной»: мы специально вводим модельке что-то опасное, чтобы предотвратить развитие других проявлений мисэлаймента. Такие вакцины, кстати, уже используются на проде во время обучения Claude.

www.anthropic.com/research/emergent-misalignment-reward-hacking
12977👍38🔥16🤯14😁9🤔5❤‍🔥44
Действительно доброе утро: возможно, сегодня выйдет Claude Opus 4.5 (на реддите обнаружили упоминание некой модели Kayak от Anthropic в релизной таблице на epoch.ai)
👍6217🔥13🤯4😁2👏1🗿1
Новый проект от Андрея Карпаты: консилиум LLM

Интерфейс – как у ChatGPT, за тем лишь исключением, что ваш запрос обрабатывают сразу несколько моделей. Выглядит это так:

1. С помощью OpenRouter запрос отправляется нескольким моделям (сейчас это GPT-5.1, Gemini 3 Pro, Sonnet 4.5 и Grok 4). Каждая пишет свой вариант ответа.

2. Всем моделям затем показывают анонимные ответы друг друга, они проверяют и ранжируют их, оставляют свои комментарии.

3. Все это в конце концов в виде контекста отправляется к «председателю LLM», который уже формирует окончательный ответ.

Интересно, что довольно часто модели охотно выбирают ответ другой LLM, как лучший. Например, они постоянно хвалят GPT-5 как лучшего «члена совета», а Claude называют худшим.

Кроме того, вероятно, существует целое пространство для проектирования контекста для такого совета. Построение ансамблей LLM до сих пор кажется недостаточно изученным.


(Вайб)Код здесь
2🔥178😁76👍2518🤯4🫡1🗿1
Начало 80-х, маленький со-основатель и CEO Google DeepMind Демис Хассабис сидит на шахматном турнире на двух подушках, чтобы доставать до противоположной стороны доски 🥺
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2187621🤗14😍11👍9👏5😁5🗿3
Data Secrets
В дополнение к сегодняшней статье: собрали для вас другие наиболее интересные работы Sakana AI на тему новых методов обучения ИИ и построения агентов Wider or Deeper? Про альтернативный подход к масштабированию ризонинга с помощью гибких деревьев поиска.…
Media is too big
VIEW IN TELEGRAM
CEO SakanaAI Лион Джонс: «Пришло время выйти за рамки трансформеров и оставить их в прошлом»*

Изюминка в том, что сам Лион – один из изобретателей трансформера, со-автор (один из восьми) статьи «Attention is all you need».

SakanaAI как раз занимается поиском новых архитектур. В основном они черпают вдохновение из эволюции и биологии.

Мы за ними следим очень давно, и недавно делали большую подборку с нашими разборами их статей вот тут. Обязательно почитайте на досуге, исследования у них правда занятные.

С одним из подходов под названием Continuous Thought Machine они сейчас выходят на NeurIPS 2025. Это почти полное переосмысление архитектуры LLM, вдохновленное биологическими нейронными процессами. Вместо прямых проходов по сети – тики мыслей, как в мозге. Вместо нейронов – перцептроны с собственной памятью. Вот наш разбор.

А еще недавно они закрыли крупный инвестиционный раунд на 20 миллиардов йен (примерно 135 миллионов долларов), и теперь, насколько нам известно, являются самым дорогим японским стартапом.

*Источник: новое интервью Лиона с ML Street Talk
12736👍17❤‍🔥13🏆6🔥4🤔2🤨21😁1🗿1