Data Secrets – Telegram
Data Secrets
87K subscribers
6.49K photos
672 videos
20 files
2.76K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Assistant Axis: новая статья от Anthropic про геометрию «полезности» моделей

Все знают, что LLM умеют играть роли: и хорошие, и плохие. И на посттрейне разработчики тоже пытаются вложить в чат-ботов определенную личность полезного спокойного ассистента.

Вот только практика показывает, что модели все равно с этой личности часто соскальзывают. Отсюда – всякое небезопасное поведение, галлюцинации и сумасбродство.

Так вот Anthropic сделали красивую вещь: они показали, что личностью модели можно контролировать напрямую, управляя векторами в пространстве ее активаций. Итак:

1. Они взяли около 275 ролей, для каждой из которых задавали модели определение паттерны поведение и логировали активации во время ответов.

2. Таким образом для каждой личности сформировался вектор роли – средний паттерн активаций, когда модель играет этого персонажа. Эти векторы были огромной размерности, но их прогнали через PCA, и оказалось, что на самом деле пространство персон очень низкоразмерное.

3. То есть буквально 4-19 векторов в целом объясняют всю дисперсию (все различия между личностями). Более того, оказалось, что есть одна компонента, которая в целом определяет доминирующую часть пространства. По одну сторону от нее лежат норм личности чат-бота (доктор, консультант, учитель), а по другую – странные (призрак, темный маг, левиафан). Вот ее то и назвали Assistant Axis.

Интересно, что для разных моделей Assistant Axis почти одинаковая (корреляция там выше 0.92) и возникает уже во время предобучения. То есть это действительно какая-то смысловая ось, которая геометрически определяет, насколько модель ведет себя, как спокойный рассудительный ассистент, а не странный персонаж.

В основном во время рутинных диалогов (кодинг, конкретные бытовые задачи) модель всегда находится близко к этой оси. Но есть темы, которые заставляют от нее отдаляться: например, психология и философствование о сознании и чувствах ИИ. Тут модель может удариться во все тяжкие, и это называется Persona drift. Он-то как раз и опасен.

Хорошая новость: это можно контролировать, просто искусственно сохраняя активации в рамках нормального диапозона с точки зрения проекции на Assistant Axis. На бенчмарках при этом деградации нет (иногда качество даже растет), но метод съедает 60% вредных ответов на persona-jailbreak’ах. Занятно, в общем.

Вот тут есть даже код с экспериментами на открытых моделях, можно покопаться: https://github.com/safety-research/assistant-axis

Сама статья: https://arxiv.org/pdf/2601.10387
👍10245🔥21😁4🗿1
OpenAI планирует брать долю от интеллектуальной собственности, созданной с помощью их моделей

Звучит немыслимо, но это дословное заявление финансового директор компании Сары Фрайар.

Она объяснила, что OpenAI рассматривает эволюцию бизнес-модели за пределы подписок, так как текущая модель слишком проста и недостаточна для покрытия затрат на компьют.

«Мы думаем, что нормально брать долю на commerce layer и даже на discovery layer. <> Это нужно для устойчивости, чтобы финансировать AGI для блага человечества».


Доля на commerce layer – это комиссии от покупок, которые сделаны прямо в ChatGPT. А discovery layer – это самое интересное: доля от интеллектуальной собственности (IP) или будущей ценности созданного. Например, если ИИ сгенерировал молекулу для лекарства, компания претендует на % от патента или продаж.

Само собой, на обычных пользователей это распространяться не будет. В первую очередь пострадают enterprise клиенты, особенно в сценариях вроде drug discovery или energy systems. Они, вероятно, обязаны(?) будут соглашаться на IP-sharing прямо в контрактах.

Мнения?
260😁9735🤨2517🔥8👍5🤯5🫡5🤗3🦄1
Вышел PyTorch 2.10

Технические детали релиза:
🟦 Поддержка Python 3.14 и сборки без GIL. Добавили torch.compile для свежего Python, включая экспериментальную поддержку freethreaded-режима (3.14t). Это задел на будущее, чтобы эффективно масштабировать вычисления на CPU без ограничений Global Interpreter Lock.

🟦 Нативный оператор varlen_attn(). В ядро добавили встроенную поддержку внимания для последовательностей переменной длины. Раньше это часто реализовывали через сторонние библиотеки вроде xformers или vLLM, теперь оптимизация доступна из коробки.

🟦 Горизонтальное слияние ядер в TorchInductor. Теперь компилятор умеет объединять мелкие независимые операции в одно ядро (combo-kernels), что сокращает оверхед на запуск (kernel launch overhead) и эффективнее использует пропускную способность памяти.

🟦 Новый инструмент DebugMode. Появился продвинутый режим для поиска численных расхождений и отладки графа. Он позволяет отслеживать детерминированные хеши тензоров на разных этапах выполнения, что сильно упрощает поиск причин появления NaN или «поплывших» весов.

🟦 Продолжают активно понижать порог входа не для CUDA. Для Intel GPU завезли поддержку FP8 и работу с комплексными числами, а для AMD (ROCm) — ускоренный Scaled Dot Product Attention через AOTriton.

🟦 Детерминизм при компиляции. Теперь torch.compile корректно обрабатывает флаг use_deterministic_mode. Это критически важное обновление для тех, кому важна 100% воспроизводимость результатов при использовании графовых оптимизаций.

🟦 Гибкий Autograd. Появилась возможность задавать grad_dtype для листовых тензоров и аннотировать непересекающиеся проходы обратного распространения (disjoint backward) для оптимизации чекпоинтов.


Подробности в блоге: https://pytorch.org/blog/pytorch-2-10-release-blog/
Please open Telegram to view this post
VIEW IN TELEGRAM
74🔥32😎13👍7🤯43😁1🤗1👾11
В МТС Банке сотрудники теперь работают с собственным внутренним ИИ-помощником

Компания запустила корпоративного ассистента Corporate AI Copilot на базе MWS AI Agents Platform*. Он объединяет в себе возможности RAG-инструментов. Агент развернут локально, так что сотрудники могут безопасно работать с внутренними данными.

Разброс задач достаточно ощутимый: от создания отчетов и документов до умного поиска в базах знаний и анализа данных. При этом для разных задач доступны разные модели, а во время выполнения задач агент сам подтягивает нужные источники из глобальной инфраструктуры.

По итогам 2025 года можно говорить о формировании двух зрелых и устойчивых кейсов применения генеративного ИИ. Первый — использование ИИ в клиентской поддержке: чат-боты и системы речевой аналитики берут на себя часть типовых обращений, повышают скорость обработки запросов и качество сервиса, а также дают бизнесу инструменты для анализа клиентских коммуникаций. Второй — такие корпоративные ИИ-помощники, автоматизирующие поиск и навигацию по внутренним источникам данных.

* MWS AI Agents Platform — это корпоративная платформа для управления всем жизненным циклом ИИ-агентов в едином интерфейсе, которая позволяет создавать ИИ-помощников без код и масштабировать их на уровне всей компании.
😁61🔥2415👍10🦄6🗿31🤯1👌1🤨1
Вышел Cursor 2.4. Смотрим, что интересного:

1. Появились Subagents. Теперь агента можно разбить на маленьких агентиков, которые будут решать отдельные части общей задачи. Subagents работают параллельно,
имеют свой собственный контекст и настройки +
могут использовать разные модели под разные подзадачи.

2. Добавили генерацию изображений с Nano Banana Pro под капотом. Генерации сохраняются прямо в проект. В некоторых случаях, наверное, может быть удобно.

3. Добавили асинхронные Q&A. Если агенту нужно что-то уточнить, то он сделает это, не прерывая работу. То есть он будет продолжать что-то редактировать или читать, а когда вы дадите ответ на вопрос, вернется к нужному месту и обработает его.

Ну и вишенка: добавили Cursor Blame для Enterprise-плана. Это расширение для обычного git blame, которое раскладывает diff по строкам и показывает, что пришло от человека, что от ИИ, и как именно (tab completion, агент, ручная правка) + ссылается на соответствующие чаты с моделью 😐

https://cursor.com/changelog/2-4
Please open Telegram to view this post
VIEW IN TELEGRAM
1102😁3425🔥15👍83🤔2🏆1
This media is not supported in your browser
VIEW IN TELEGRAM
Интервьюер: …

Я, защищающий на алгоритмическом собесе свое решение, работающее за O(n³)
5😁32927🔥15😎9
В пространстве TAU в Москве пройдет Т-Sync Conf — масштабная конференция для инженеров

Что интересно, каждый гость может выбрать свою личную траекторию конференции. Всего будет 8 технических контуров: AI, Data, Security, UX/UI, R&D, Productivity, Observability и Platform — можно идти туда, где реально интересно. На стендах будут тестировать AI и дата-платформы, обсуждать дизайн инструментов, устроят хакатон для профи и публичную сборку сервиса. Инженерные диалоги обещают откровенно разбирать неудобные кейсы: что сломалось, что едва держалось и как команды решают реальные проблемы. Организаторы — группа “Т-Технологии” — позиционируют мероприятие как место, где разработки показывают в действии, а не на слайдах.

Кстати, конфа бесплатная, но по предварительной реге
94😁14🗿7👍6🔥2🤔2🤯1🐳1🎄1
SakanaAI заключили партнерство с Google

Помните агента ALE-Agent, который недавно выиграл сложную Олимпиаду по кодингу, и The AI Scientist, статью которого взяли на ICLR? Это все продукты от Sakana, и оба они работали (в том числе) на разных версиях Gemini.

Теперь амбициозный японский стартап объединит планирует плотнее объединить модели Google со своими разработками. А Google в знак поддержки закидывает им какую-то монетку.

Используя такие модели, как Gemini и Gemma, мы ускорим наши прорывы в области автоматизированных научных открытий.


Интересно, что в первую очередь Sakana со своим ускорением целятся в японский госсектор.
🔥9021😁93