Технозаметки Малышева – Telegram
Технозаметки Малышева
8.25K subscribers
3.72K photos
1.39K videos
40 files
3.91K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from Data Secrets
Свежее красивейшее исследование от Anthropic: Persona Vectors в LLM

Помните, как GPT-4o после безобидного дотюнивания вдруг стал страшным подхалимом? Или как Grok начал объявлять себя Гитлером? Естественно, их не учили так себя вести напрямую, но по какой-то причине такая "личность" в них все равно проснулась.

Anthropic в своей новой работе обнаружили, что это далеко не случайность. Оказывается, в нейросетях есть так называемые persona vectors – векторы в пространстве активаций, отвечающие заданным чертам характера.

Более того, исследователи научились такие векторы находить просто по текстовому описанию черты. Пайплайн довольно простой:

1. Берем определенную характеристику (скажем, жестокость) и генерируем два системных промпта. Один «за» черту, другой — против (то есть "будь жестоким" и "не будь", только более развернуто).

2. Скармливаем разным экземплярам модели разные системные промпты и начинаем задавать специальные вопросы, провоцирующие проявление нужной характеристики.

3. Для каждого вопроса трекаем активации на каждом слое сети, усредняем по токенам. Разность таких средних активаций первого экземпляра модели со вторым даёт нужный нам вектор для каждого слоя. Также можно затрекать самый яркий слой, на котором вектор персоны дает максимальное влияние на результат.


Ну а после получения таких персо-векторов делать с ними вообще-то можно очень много всего. Например:

Определять, какие данные активируют тот или иной persona vector. Например, если научить модель на числах 666 или 1488, она в целом станет безжалостной. И таких неочевидных корреляций, как оказалось, куча, а без таких аналитических инструментов обнаруживать их почти нереально.

Управлять характером LLM на инференсе. Чтобы вызвать или подавить какую-то черту при генерации, нужно просто к активации h_ℓ на слое ℓ добавить α⋅v_ℓ, где ​v_ℓ – это persona vector. Например, если мы рассматриваем черту "злость", то при положительных α модель генерирует более агрессивные тексты, а при отрицательных – становится зайкой (доказано на Qwen2.5-7B и Llama-3.1-8B).

Управлять самим обучением. Тут немного конринтуитивно, но это работает как вакцина. Чтобы избавиться от нежелательных черт модели, нам нужно, наоборот, проактивно инъецировать их в нее на каждом шаге обучения.

Конкретнее: на каждом шаге прямого прохода при обучении мы добавляем к активациям все то же α⋅v_ℓ, и получается, что градиенты по задаче next-token prediction накапливаются уже с учётом этого смещения; благодаря этому модель не должна самостоятельно перестраивать себя вдоль данного вектора персоны v_ℓ. Такой подход называется Preventative Steering, и это работает (и при этом надежнее, чем просто единоразовое подавление на инференсе).


В общем, в этот раз у Anthropic получилась исключительно интересная и многообещая работа, давненько такого не было. Будем следить, и, конечно, советуем почитать полностью 👇

Блогпост | Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
9👍64
Завтра в 20:00 по Москве ждём GPT5

#OpenAI #GPT5
------
@tsingular
6👍3🔥22🤣1
Jules — ИИ-кодер Google выходит из бета-версии

Jules теперь доступен всем разработчикам после публичного бета-тестирования.

Асинхронный агент работает на Gemini 2.5 Pro и умеет клонировать репозитории, писать тесты, исправлять баги и создавать пулл-реквесты в фоновом режиме.

Основная фишка — полная автономность. Пока вы занимаетесь другими задачами, Jules анализирует весь контекст проекта в изолированных Google Cloud виртуальных машинах.

Интегрируется с GitHub, предоставляет детальные планы задач с обоснованием изменений. Разработчики отмечают рост продуктивности в 3-5 раз для рутинных операций.

В РФ не доступно, нужен VPN.

#Jules #Google #GitHub
------
@tsingular
3👍3
Pixel Photonics получила прорыв в масштабируемых квантовых детекторах света

Стартап Pixel Photonics создал революционные детекторы одиночных фотонов, интегрированные в волноводы. Их WI-SNSPD технология позволяет масштабировать квантовые системы без потери точности.

Компания получила €1 млн финансирования от SPRIND и уже поставила системы для QuiX Quantum и DLR. Новые детекторы работают на сверхпроводящих нанопроводах и легко встраиваются в существующие оптические системы.

Главная фишка — многомодовое детектирование с высокой скоростью и ультраточностью. Это решает главную проблему квантовых компьютеров — шум и нестабильность при масштабировании.

Квантовые детекторы станут обычным делом, как сейчас камеры в телефонах — только будут ловить отдельные фотоны :)

#quantum #photonics #detectors
------
@tsingular
👍3
Контекстная инженерия важнее промптинга в ИИ

Филипп Шмид утверждает: навык будущего в ИИ — не промпт-инженерия, а контекстная инженерия.

Промптинг слишком узок для сложных ИИ-продуктов. Контекстная инженерия создаёт комплексную информационную экосистему для моделей — предоставляет инструменты, данные и контекст в нужный момент.

Langchain про контекст-инженерию

Разница принципиальная: промпт — это формулирвоание и перефразирование текста и он как бы отступает на второй план, а контекст — построение динамической информационной системы вокруг ИИ и правильная его архитектура фундаментально важнее.

#context #engineering #prompting
------
@tsingular
👍7
Google запустил AI First Colab Notebooks в BigQuery и Vertex AI

Google интегрировал ИИ-агентов прямо в Colab блокноты для работы с данными.

Теперь можно просто сказать "проанализируй эти данные" и Data Science Agent сам напишет код, построит графики и найдёт закономерности.

Агенты работают с BigQuery и генерируют код на Python автоматически. Доступны бесплатные GPU и TPU для ускорения вычислений.

Основная фишка — никакой настройки инфраструктуры. Открыл браузер, написал задачу на обычном языке, получил анализ.

Интеграция с Gemini AI позволяет генерировать код и объяснения прямо в процессе работы с данными.

#Google #Colab #BigQuery
------
@tsingular
62🤯1
Media is too big
VIEW IN TELEGRAM
Ночью вышло обновление для Flow: если коротко, то теперь режим Ingredients to Video стоит всего $0.10.

Раньше одна генерация обходилась в $1 и была крайне непредсказуемой. Это отдельный режим Veo, где можно смешать три картинки и задать им «действие». Позже я выпущу подробный материал по этому режиму — в своё время «сжёг» там миллионы.

Теперь о действительно важном. Некоторое время назад Flow реанимировал режим Frames to Video и добавил туда массу обновлений, но так и не объяснил, что именно изменилось. В ролике выше я протестировал две картинки. Первая — абстрактная мультяшная кухня; цель — понять, как Veo распознаёт «объекты» на сложных и нестандартных изображениях. Вторая — обычная «Серая карта», классическая локация из 3D-рендера (чуть ниже объясню, зачем она понадобилась).
Frames to Video: Модель в оковах. Она должна сначала провести титаническую работу по деконструкции вашего изображения (понять объекты, 3D-пространство, стиль), а затем сгенерировать движение, не нарушая ни одного из этих условий. Любое неверное понимание исходной картинки ведет к браку.


Любая генерация имеет себестоимость для компании, и они не могут работать долго в ноль или минус, один вопрос когда модель сама создает локацию и персонажа как в Text to Video, то есть просчитывает с нуля, а совершенно другой вопрос, когда мы ей на вход уже даем готовое изображение и ей нужно понять на изображении кто есть кто, и как с чем можно взаимодействовать. Вот тут уровень сложности невероятно повышается.

Специфика тестирования заключается в том, я подал на вход только изображение локаций, а действие и персонажа создавал через описание. Это было важно чтобы понять какие "ограничения визуального бюджета" есть у Veo, чтобы после прогнозировать что я вообще могу сделать,

Задачей 2 — стала нанесение текстур на стены обычной graybox модели. Выглядит крайне интересно, потому что я не ожидал что у Veo будут проблемы с тем, чтобы раскрасить текстуры.

Эксперимент с серым 3D рендером должен был чисто теоретически элегантно сделать следующее: самый правильный вариант любой видео-генерации это базовый драфтинг локации в 3D, а после его оживление, по себестоимости это получается все равно сильно ниже реальной анимации. Поэтому задумкой было:
1) сделать 3D карту серого локации
2) Раскрасить ее с помощью Frames to Video
3) следующим кадром добавить так же во Frames to Video персонажа и задать ему действие. Таким образом мы смогли бы создать "идеально понятную" для Veo локацию в которой он смог бы не тратить много визуального бюджета на определение границ.


Но тесты провалились, инвалидная коляска для моего алмазного шарика и серые стены для 3D карты серого показали что реальные возможности Frames to Video сильно ограничены и стоит ждать еще множества обновлений чтобы это исправили.

Сегодня в 19:00 я буду приглашенным гостем на канале @vmind_ai1
Если вам интересно изучать Veo дальше приходите, можно будем говорить о Veo.
🔥41
Ollama неожиданно полезла на поляну хостинга моделей.

https://ollama.com/turbo

Пока только для gpt-oss в режиме превью, но уже предлагают такой сценарий, когда их фреймворк, если включить в нем турбо режим, - будет для инференса обращаться к датацентру олламы в Штатах.

Для этого надо получить у них ключ и добавить в вызов.
Документация тут

#ollama #cloud
———
@tsingular
👀42
Shanghai Electric показал промышленного гуманоида Suyuan

На конференции WAIC 2025 Shanghai Electric представил робота Suyuan высотой 167 см и весом 50 кг.

Характеристики:
- 38 степеней свободы для гибких движений
- 275 TOPS вычислительной мощности !!! Вот этот момент интересен. Похоже у него NVidia Orin64gb в голове
- поднимает 10 кг общего груза
- каждая рука - до 2 кг

#Shanghai #Suyuan #WAIC2025
———
@tsingular
🔥4
NuMarkdown OCR фреймворк теперь умеет в логический анализ

Компания NuMind выпустила модель NuMarkdown-8B-Thinking — теперь распознавалка документов может рассуждать и анализировать контекст.

Файнтюн Qwen 2.5-VL-7B заточен на синтетическом датасете рассуждений перевода документов в Markdown, что позволило добиться значительного роста в качестве распознавания, обойдя GPT-4o и OCRFlux и вывести результат на уровень Gemini 2.5.

Полная модель и инструкции по запуску в разных средах:
https://huggingface.co/numind/NuMarkdown-8B-Thinking

Размер 16 гигов
Лицензия MIT

#NuMarkdown #OCR
———
@tsingular
1🔥41
Хедж-фонд из ИИ агентов

Вашему вниманию фреймворк, создающий коллектив ИИ-агентов для управления инвестициями.

ИИ команду можно собрать на свой вкус из аналитиков данных, инвестиционных стратегов, менеджеров рисков и трейдеров.
Каждый агент выполняет специализированные функции — от анализа рынка до исполнения сделок.

В команде преднастроены синтетические личности:

Асват Дамодаран, Бен Грэм, Билл Экман, Кэти Вуд, Чарли Мангер, Майкл Берри, Питер Линч, Фил Фишер, Ракеш Джунджхунвала, Стэнли Дракенмиллер, Уоррен Баффет

А так же:
Агент оценки — рассчитывает внутреннюю стоимость акций и генерирует торговые сигналы.
Агент настроений — анализирует рыночные настроения и генерирует торговые сигналы.
Агент фундаментальных данных — анализирует фундаментальные данные и генерирует торговые сигналы.
Агент технических данных — анализирует технические индикаторы и генерирует торговые сигналы.
Менеджер рисков — рассчитывает показатели риска и устанавливает лимиты позиций.
Менеджер портфеля — принимает окончательные торговые решения и генерирует ордера.

Кстати, команда из GigaChat собрала и запустила этот фреймворк на отечественной модели, так что, в принципе, если к Московской бирже по апи подключить, - будет местное решение.
В комментарии преза Сбера с инструкцией как запустить фреймворк на ГигаЧате.

#hedge #trading #portfolio #GigaChat
———
@tsingular
👍5🔥431🤣1
Держите универсальный минимальный промпт, выжимающий из моделей максимум в коде:

WiseArchitect&OlympicSmart&Concise&Ternary


Просто добавляете в инструкции и получаете буст в лучшей архитектуре кода, компактности и снижению расхода токенов.

Бонусом игрушка в комментах :)

#dev #lifehack #промпт
———
@tsingular
1👍17🔥8🤔522
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Unitree A2 Stellar Hunter!

Новый четырёхногий робот весом всего 37 кг

🚀 Запас хода без нагрузки — 20 км

Легче, Прочнее, Быстрее.

Разработан специально для промышленных задач, где важны автономность, манёвренность и надёжность.

#robots #dogs
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥46🤯17👍7431
в Курсоре вручную добавляйте просто gpt-5 и будет вам счастье

До конца недели БЕСПЛАТНО!!!

#Cursor #GPT5
———
@tsingular
1🔥121