Anthropic выпустили новую конституцию для Claude
Это документ, который определяет ценности, этику и поведенческие приоритеты для Claude. В первую очередь конституция написана для самой модели, для нее это как бы набор моральных ориентиров.
Если хотите, почитать можно тут: https://www.anthropic.com/constitution
Здесь подсветим только один особо интересный абзац про эмоции ИИ:
Это документ, который определяет ценности, этику и поведенческие приоритеты для Claude. В первую очередь конституция написана для самой модели, для нее это как бы набор моральных ориентиров.
Если хотите, почитать можно тут: https://www.anthropic.com/constitution
Здесь подсветим только один особо интересный абзац про эмоции ИИ:
Claude может обладать некой функциональной версией эмоций или чувств. Мы считаем, что у Claude могут быть «эмоции» в функциональном смысле – то есть представления об эмоциональном состоянии, которые могут влиять на его поведение, как и следовало бы ожидать от эмоций. Это не является осознанным решением Anthropic по дизайну, а скорее может быть случайным последствием обучения на данных, сгенерированных людьми, и это то, что Anthropic имеет ограниченную способность предотвратить или уменьшить.
Используя язык эмоций, мы не стремимся занять позицию по вопросам о моральном статусе этих состояний, о том, переживаются ли они субъективно или являются «настоящими» эмоциями, – мы просто используем наиболее естественный язык для их обозначения.
😎63👍35❤19🗿7😁6🔥5🤔5 1
Data Secrets
Доброе утро, ну что там с деньгами (в OpenAI)? Последние дни новости про бюджет OpenAI так и сыпятся. Основной нарратив – у Альтмана кончаются деньги. Разбираемся по порядку: – У The Information вышел отчет, который ссылается на внутренние финансовые прогнозы…
Please open Telegram to view this post
VIEW IN TELEGRAM
😁591💯49🔥22 12❤11😎8🤔1
Assistant Axis: новая статья от Anthropic про геометрию «полезности» моделей
Все знают, что LLM умеют играть роли: и хорошие, и плохие. И на посттрейне разработчики тоже пытаются вложить в чат-ботов определенную личность полезного спокойного ассистента.
Вот только практика показывает, что модели все равно с этой личности часто соскальзывают. Отсюда – всякое небезопасное поведение, галлюцинации и сумасбродство.
Так вот Anthropic сделали красивую вещь: они показали, что личностью модели можно контролировать напрямую, управляя векторами в пространстве ее активаций. Итак:
1. Они взяли около 275 ролей, для каждой из которых задавали модели определение паттерны поведение и логировали активации во время ответов.
2. Таким образом для каждой личности сформировался вектор роли – средний паттерн активаций, когда модель играет этого персонажа. Эти векторы были огромной размерности, но их прогнали через PCA, и оказалось, что на самом деле пространство персон очень низкоразмерное.
3. То есть буквально 4-19 векторов в целом объясняют всю дисперсию (все различия между личностями). Более того, оказалось, что есть одна компонента, которая в целом определяет доминирующую часть пространства. По одну сторону от нее лежат норм личности чат-бота (доктор, консультант, учитель), а по другую – странные (призрак, темный маг, левиафан). Вот ее то и назвали Assistant Axis.
Интересно, что для разных моделей Assistant Axis почти одинаковая (корреляция там выше 0.92) и возникает уже во время предобучения. То есть это действительно какая-то смысловая ось, которая геометрически определяет, насколько модель ведет себя, как спокойный рассудительный ассистент, а не странный персонаж.
В основном во время рутинных диалогов (кодинг, конкретные бытовые задачи) модель всегда находится близко к этой оси. Но есть темы, которые заставляют от нее отдаляться: например, психология и философствование о сознании и чувствах ИИ. Тут модель может удариться во все тяжкие, и это называется Persona drift. Он-то как раз и опасен.
Хорошая новость: это можно контролировать, просто искусственно сохраняя активации в рамках нормального диапозона с точки зрения проекции на Assistant Axis. На бенчмарках при этом деградации нет (иногда качество даже растет), но метод съедает 60% вредных ответов на persona-jailbreak’ах. Занятно, в общем.
Вот тут есть даже код с экспериментами на открытых моделях, можно покопаться: https://github.com/safety-research/assistant-axis
Сама статья: https://arxiv.org/pdf/2601.10387
Все знают, что LLM умеют играть роли: и хорошие, и плохие. И на посттрейне разработчики тоже пытаются вложить в чат-ботов определенную личность полезного спокойного ассистента.
Вот только практика показывает, что модели все равно с этой личности часто соскальзывают. Отсюда – всякое небезопасное поведение, галлюцинации и сумасбродство.
Так вот Anthropic сделали красивую вещь: они показали, что личностью модели можно контролировать напрямую, управляя векторами в пространстве ее активаций. Итак:
1. Они взяли около 275 ролей, для каждой из которых задавали модели определение паттерны поведение и логировали активации во время ответов.
2. Таким образом для каждой личности сформировался вектор роли – средний паттерн активаций, когда модель играет этого персонажа. Эти векторы были огромной размерности, но их прогнали через PCA, и оказалось, что на самом деле пространство персон очень низкоразмерное.
3. То есть буквально 4-19 векторов в целом объясняют всю дисперсию (все различия между личностями). Более того, оказалось, что есть одна компонента, которая в целом определяет доминирующую часть пространства. По одну сторону от нее лежат норм личности чат-бота (доктор, консультант, учитель), а по другую – странные (призрак, темный маг, левиафан). Вот ее то и назвали Assistant Axis.
Интересно, что для разных моделей Assistant Axis почти одинаковая (корреляция там выше 0.92) и возникает уже во время предобучения. То есть это действительно какая-то смысловая ось, которая геометрически определяет, насколько модель ведет себя, как спокойный рассудительный ассистент, а не странный персонаж.
В основном во время рутинных диалогов (кодинг, конкретные бытовые задачи) модель всегда находится близко к этой оси. Но есть темы, которые заставляют от нее отдаляться: например, психология и философствование о сознании и чувствах ИИ. Тут модель может удариться во все тяжкие, и это называется Persona drift. Он-то как раз и опасен.
Хорошая новость: это можно контролировать, просто искусственно сохраняя активации в рамках нормального диапозона с точки зрения проекции на Assistant Axis. На бенчмарках при этом деградации нет (иногда качество даже растет), но метод съедает 60% вредных ответов на persona-jailbreak’ах. Занятно, в общем.
Вот тут есть даже код с экспериментами на открытых моделях, можно покопаться: https://github.com/safety-research/assistant-axis
Сама статья: https://arxiv.org/pdf/2601.10387
👍101❤45🔥20😁4🗿1
OpenAI планирует брать долю от интеллектуальной собственности, созданной с помощью их моделей
Звучит немыслимо, но это дословное заявление финансового директор компании Сары Фрайар.
Она объяснила, что OpenAI рассматривает эволюцию бизнес-модели за пределы подписок, так как текущая модель слишком проста и недостаточна для покрытия затрат на компьют.
Доля на commerce layer – это комиссии от покупок, которые сделаны прямо в ChatGPT. А discovery layer – это самое интересное: доля от интеллектуальной собственности (IP) или будущей ценности созданного. Например, если ИИ сгенерировал молекулу для лекарства, компания претендует на % от патента или продаж.
Само собой, на обычных пользователей это распространяться не будет. В первую очередь пострадают enterprise клиенты, особенно в сценариях вроде drug discovery или energy systems. Они, вероятно, обязаны(?) будут соглашаться на IP-sharing прямо в контрактах.
Мнения?
Звучит немыслимо, но это дословное заявление финансового директор компании Сары Фрайар.
Она объяснила, что OpenAI рассматривает эволюцию бизнес-модели за пределы подписок, так как текущая модель слишком проста и недостаточна для покрытия затрат на компьют.
«Мы думаем, что нормально брать долю на commerce layer и даже на discovery layer. <> Это нужно для устойчивости, чтобы финансировать AGI для блага человечества».
Доля на commerce layer – это комиссии от покупок, которые сделаны прямо в ChatGPT. А discovery layer – это самое интересное: доля от интеллектуальной собственности (IP) или будущей ценности созданного. Например, если ИИ сгенерировал молекулу для лекарства, компания претендует на % от патента или продаж.
Само собой, на обычных пользователей это распространяться не будет. В первую очередь пострадают enterprise клиенты, особенно в сценариях вроде drug discovery или energy systems. Они, вероятно, обязаны(?) будут соглашаться на IP-sharing прямо в контрактах.
Мнения?
Вышел PyTorch 2.10
Технические детали релиза:
Подробности в блоге: https://pytorch.org/blog/pytorch-2-10-release-blog/
Технические детали релиза:
🟦 Поддержка Python 3.14 и сборки без GIL. Добавили torch.compile для свежего Python, включая экспериментальную поддержку freethreaded-режима (3.14t). Это задел на будущее, чтобы эффективно масштабировать вычисления на CPU без ограничений Global Interpreter Lock.🟦 Нативный оператор varlen_attn(). В ядро добавили встроенную поддержку внимания для последовательностей переменной длины. Раньше это часто реализовывали через сторонние библиотеки вроде xformers или vLLM, теперь оптимизация доступна из коробки.🟦 Горизонтальное слияние ядер в TorchInductor. Теперь компилятор умеет объединять мелкие независимые операции в одно ядро (combo-kernels), что сокращает оверхед на запуск (kernel launch overhead) и эффективнее использует пропускную способность памяти.🟦 Новый инструмент DebugMode. Появился продвинутый режим для поиска численных расхождений и отладки графа. Он позволяет отслеживать детерминированные хеши тензоров на разных этапах выполнения, что сильно упрощает поиск причин появления NaN или «поплывших» весов.🟦 Продолжают активно понижать порог входа не для CUDA. Для Intel GPU завезли поддержку FP8 и работу с комплексными числами, а для AMD (ROCm) — ускоренный Scaled Dot Product Attention через AOTriton.🟦 Детерминизм при компиляции. Теперь torch.compile корректно обрабатывает флаг use_deterministic_mode. Это критически важное обновление для тех, кому важна 100% воспроизводимость результатов при использовании графовых оптимизаций.🟦 Гибкий Autograd. Появилась возможность задавать grad_dtype для листовых тензоров и аннотировать непересекающиеся проходы обратного распространения (disjoint backward) для оптимизации чекпоинтов.
Подробности в блоге: https://pytorch.org/blog/pytorch-2-10-release-blog/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤72🔥31😎13👍5🤯4⚡3😁1👾1 1
В МТС Банке сотрудники теперь работают с собственным внутренним ИИ-помощником
Компания запустила корпоративного ассистента Corporate AI Copilot на базе MWS AI Agents Platform*. Он объединяет в себе возможности RAG-инструментов. Агент развернут локально, так что сотрудники могут безопасно работать с внутренними данными.
Разброс задач достаточно ощутимый: от создания отчетов и документов до умного поиска в базах знаний и анализа данных. При этом для разных задач доступны разные модели, а во время выполнения задач агент сам подтягивает нужные источники из глобальной инфраструктуры.
По итогам 2025 года можно говорить о формировании двух зрелых и устойчивых кейсов применения генеративного ИИ. Первый — использование ИИ в клиентской поддержке: чат-боты и системы речевой аналитики берут на себя часть типовых обращений, повышают скорость обработки запросов и качество сервиса, а также дают бизнесу инструменты для анализа клиентских коммуникаций. Второй — такие корпоративные ИИ-помощники, автоматизирующие поиск и навигацию по внутренним источникам данных.
* MWS AI Agents Platform — это корпоративная платформа для управления всем жизненным циклом ИИ-агентов в едином интерфейсе, которая позволяет создавать ИИ-помощников без код и масштабировать их на уровне всей компании.
Компания запустила корпоративного ассистента Corporate AI Copilot на базе MWS AI Agents Platform*. Он объединяет в себе возможности RAG-инструментов. Агент развернут локально, так что сотрудники могут безопасно работать с внутренними данными.
Разброс задач достаточно ощутимый: от создания отчетов и документов до умного поиска в базах знаний и анализа данных. При этом для разных задач доступны разные модели, а во время выполнения задач агент сам подтягивает нужные источники из глобальной инфраструктуры.
По итогам 2025 года можно говорить о формировании двух зрелых и устойчивых кейсов применения генеративного ИИ. Первый — использование ИИ в клиентской поддержке: чат-боты и системы речевой аналитики берут на себя часть типовых обращений, повышают скорость обработки запросов и качество сервиса, а также дают бизнесу инструменты для анализа клиентских коммуникаций. Второй — такие корпоративные ИИ-помощники, автоматизирующие поиск и навигацию по внутренним источникам данных.
* MWS AI Agents Platform — это корпоративная платформа для управления всем жизненным циклом ИИ-агентов в едином интерфейсе, которая позволяет создавать ИИ-помощников без код и масштабировать их на уровне всей компании.
😁58🔥24❤15👍9🦄6🗿3☃1🤯1👌1🤨1
Вышел Cursor 2.4. Смотрим, что интересного:
1. Появились Subagents. Теперь агента можно разбить на маленьких агентиков, которые будут решать отдельные части общей задачи. Subagents работают параллельно,
имеют свой собственный контекст и настройки +
могут использовать разные модели под разные подзадачи.
2. Добавили генерацию изображений с Nano Banana Pro под капотом. Генерации сохраняются прямо в проект. В некоторых случаях, наверное, может быть удобно.
3. Добавили асинхронные Q&A. Если агенту нужно что-то уточнить, то он сделает это, не прерывая работу. То есть он будет продолжать что-то редактировать или читать, а когда вы дадите ответ на вопрос, вернется к нужному месту и обработает его.
Ну и вишенка: добавили Cursor Blame для Enterprise-плана. Это расширение для обычного😐
https://cursor.com/changelog/2-4
1. Появились Subagents. Теперь агента можно разбить на маленьких агентиков, которые будут решать отдельные части общей задачи. Subagents работают параллельно,
имеют свой собственный контекст и настройки +
могут использовать разные модели под разные подзадачи.
2. Добавили генерацию изображений с Nano Banana Pro под капотом. Генерации сохраняются прямо в проект. В некоторых случаях, наверное, может быть удобно.
3. Добавили асинхронные Q&A. Если агенту нужно что-то уточнить, то он сделает это, не прерывая работу. То есть он будет продолжать что-то редактировать или читать, а когда вы дадите ответ на вопрос, вернется к нужному месту и обработает его.
Ну и вишенка: добавили Cursor Blame для Enterprise-плана. Это расширение для обычного
git blame, которое раскладывает diff по строкам и показывает, что пришло от человека, что от ИИ, и как именно (tab completion, агент, ручная правка) + ссылается на соответствующие чаты с моделью https://cursor.com/changelog/2-4
Please open Telegram to view this post
VIEW IN TELEGRAM
1 97😁34❤23🔥15👍7⚡3🤔2🏆1
This media is not supported in your browser
VIEW IN TELEGRAM
Интервьюер: …
Я, защищающий на алгоритмическом собесе свое решение, работающее за O(n³)
Я, защищающий на алгоритмическом собесе свое решение, работающее за O(n³)
5😁310❤25🔥14😎9
В пространстве TAU в Москве пройдет Т-Sync Conf — масштабная конференция для инженеров
Что интересно, каждый гость может выбрать свою личную траекторию конференции. Всего будет 8 технических контуров: AI, Data, Security, UX/UI, R&D, Productivity, Observability и Platform — можно идти туда, где реально интересно. На стендах будут тестировать AI и дата-платформы, обсуждать дизайн инструментов, устроят хакатон для профи и публичную сборку сервиса. Инженерные диалоги обещают откровенно разбирать неудобные кейсы: что сломалось, что едва держалось и как команды решают реальные проблемы. Организаторы — группа “Т-Технологии” — позиционируют мероприятие как место, где разработки показывают в действии, а не на слайдах.
Кстати, конфа бесплатная, но по предварительной реге
Что интересно, каждый гость может выбрать свою личную траекторию конференции. Всего будет 8 технических контуров: AI, Data, Security, UX/UI, R&D, Productivity, Observability и Platform — можно идти туда, где реально интересно. На стендах будут тестировать AI и дата-платформы, обсуждать дизайн инструментов, устроят хакатон для профи и публичную сборку сервиса. Инженерные диалоги обещают откровенно разбирать неудобные кейсы: что сломалось, что едва держалось и как команды решают реальные проблемы. Организаторы — группа “Т-Технологии” — позиционируют мероприятие как место, где разработки показывают в действии, а не на слайдах.
Кстати, конфа бесплатная, но по предварительной реге
❤93😁14🗿7👍5🔥2🤔1🤯1🐳1🎄1
SakanaAI заключили партнерство с Google
Помните агента ALE-Agent, который недавно выиграл сложную Олимпиаду по кодингу, и The AI Scientist, статью которого взяли на ICLR? Это все продукты от Sakana, и оба они работали (в том числе) на разных версиях Gemini.
Теперь амбициозный японский стартап объединит планирует плотнее объединить модели Google со своими разработками. А Google в знак поддержки закидывает им какую-то монетку.
Интересно, что в первую очередь Sakana со своим ускорением целятся в японский госсектор.
Помните агента ALE-Agent, который недавно выиграл сложную Олимпиаду по кодингу, и The AI Scientist, статью которого взяли на ICLR? Это все продукты от Sakana, и оба они работали (в том числе) на разных версиях Gemini.
Теперь амбициозный японский стартап объединит планирует плотнее объединить модели Google со своими разработками. А Google в знак поддержки закидывает им какую-то монетку.
Используя такие модели, как Gemini и Gemma, мы ускорим наши прорывы в области автоматизированных научных открытий.
Интересно, что в первую очередь Sakana со своим ускорением целятся в японский госсектор.
🔥76❤16😁8⚡2