Claude Code теперь встраивается прямо в VS Code 💃
Хорошие новости для всех, кто работает с кодом и использует Claude Code! Теперь его можно интегрировать прямо в VS Code, без всяких лишних настроек, костылей и запуска из терминала. Просто включите плагин и работайте с ним прямо в вашем любимом редакторе.
Все функции теперь доступны прямо внутри редактора, что делает работу намного быстрее и удобнее. Подробная инструкция по работе с плагином тут.
Data Science
Хорошие новости для всех, кто работает с кодом и использует Claude Code! Теперь его можно интегрировать прямо в VS Code, без всяких лишних настроек, костылей и запуска из терминала. Просто включите плагин и работайте с ним прямо в вашем любимом редакторе.
Вот что именно стало удобнее:
• Работа с кодом прямо в редакторе: Теперь можно прямо из VS Code упоминать файлы и диапазоны строк, не копируя и не вставляя их вручную
• История диалогов сохраняется, и для разных задач можно открывать отдельные вкладки. Это не только удобно, но и помогает структурировать вашу работу
• Slash-команды, знакомые с CLI, такие как /model, /context, и /mcp, теперь работают в VS Code, что позволяет мгновенно подмешивать нужный контекст и переключаться между сценариями
В общем, это всё тот же Claude Code, но теперь он ещё умнее, и работает вместе с вами. Он может автономно исследовать ваш код, читать и писать его, а также запускать команду в терминале с вашим разрешением. Простой интерфейс помогает быстро погружаться в работу, а дополнительные фишки, как субагенты и кастомные команды, дают ещё больше возможностей для более сложных задач.
Все функции теперь доступны прямо внутри редактора, что делает работу намного быстрее и удобнее. Подробная инструкция по работе с плагином тут.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6👀5❤1😁1
LLM — это не тупик. Проблема AGI в другом 🤬
Сегодня в дискуссиях о AGI (общем искусственном интеллекте) много споров: говорят, что LLM (языковые модели) могут генерировать текст только с вероятностным прогнозом, и на их основе «общий ИИ» не построишь. Однако исследователи Стэнфорда предлагают другое объяснение. Проблема не в том, что модели не могут мыслить, а в том, что в LLM нет слоя координации, который бы организовывал рассуждения — задавал цели, выбирал инструменты, проверял шаги.
LLM — не тупик для AGI, а важная ступень. Проблема заключается в отсутствии системного подхода к координации рассуждений. Вместо того чтобы надеяться на масштабирование, нужно создавать дополнительные механизмы координации, которые могут «направлять» модель.
Data Science
Сегодня в дискуссиях о AGI (общем искусственном интеллекте) много споров: говорят, что LLM (языковые модели) могут генерировать текст только с вероятностным прогнозом, и на их основе «общий ИИ» не построишь. Однако исследователи Стэнфорда предлагают другое объяснение. Проблема не в том, что модели не могут мыслить, а в том, что в LLM нет слоя координации, который бы организовывал рассуждения — задавал цели, выбирал инструменты, проверял шаги.
LLM — это мощная база, но без дополнительного слоя, который бы координировал действия, мы не получим полноценного AGI. Авторы статьи предлагают рассматривать LLM как быстрый и эффективный System-1, но для сложных задач нужен System-2 слой координации, который позволит системе целенаправленно управлять процессом генерации.
Интересным открытием стало якорение — использование внешних источников, чтобы стабилизировать рассуждения модели. Например, добавление примеров или уточнений позволяет модели «зацепить» нужные паттерны, что существенно повышает точность. Это помогает не просто генерировать текст, а удерживать фокус на задаче и контролировать качество решений.
LLM — не тупик для AGI, а важная ступень. Проблема заключается в отсутствии системного подхода к координации рассуждений. Вместо того чтобы надеяться на масштабирование, нужно создавать дополнительные механизмы координации, которые могут «направлять» модель.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤1🐳1
Forwarded from xCode Journal
This media is not supported in your browser
VIEW IN TELEGRAM
Это единое рабочее пространство для написания дипломов и исследований. По факту же — прокачанный Google Docs, где все правки, комментарии и доработки отображаются немедленно и видны всем участникам и самому GPT-5.2, который поможет исправить ошибки и напишет что-то за вас. Что еще:
— Интегрируется с arXiv — ИИ ищет источники и вставляет цитаты прямо в текст.
— Работает с библиографией — все источники собираются автоматически.
— Есть интеграция с LaTeX — так что все записи из тетрадей можно сфотографировать и добавить в работу. А еще есть голосовой ввод.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👎4🔥4
Скандал с Nvidia: пиратство книг для обучения ИИ 😐
Не так давно всплыла история, которая уже успела взорвать интернет. В начале 2024 года группа авторов подала иск против Nvidia, обвиняя компанию в использовании пиратских книг для обучения своих моделей. Книги были частью датасета Books3, и, по словам Nvidia, все это попадает под «добросовестное использование». Но вот теперь дело разрастается.
Более того, ходят слухи, что Nvidia якобы распространяла скрипты, которые позволяли корпоративным клиентам скачивать такие датасеты. Ну, это уже требует дополнительных расследований.
Data Science
Не так давно всплыла история, которая уже успела взорвать интернет. В начале 2024 года группа авторов подала иск против Nvidia, обвиняя компанию в использовании пиратских книг для обучения своих моделей. Книги были частью датасета Books3, и, по словам Nvidia, все это попадает под «добросовестное использование». Но вот теперь дело разрастается.
Недавно в рамках этого судебного разбирательства появилась переписка, которая добавила масла в огонь. Оказалось, что сотрудники Nvidia вели переговоры с Anna’s Archive — пиратской библиотекой, в которой хранятся книги и статьи, включая защищенные авторским правом материалы. В переписке сотрудник Nvidia спрашивал, как получить доступ к этому «счастливому» корпусу книг.
Что любопытно, Anna’s Archive сразу предупредила, что данные незаконны, и попросила подтвердить, что у сотрудника есть внутреннее разрешение работать с такими материалами. Через неделю руководство Nvidia дало зеленый свет, сославшись на давление со стороны конкурентов, и доступ был предоставлен💃
Здесь начинается настоящая драма. Пока точные цифры скрыты, предполагается, что Nvidia получила около 500 терабайт данных — это, представьте себе, миллионы книг. И, как утверждают авторы и юристы, компания, скорее всего, использовала и другие незаконные источники, такие как LibGen, Sci-Hub, Z-Library.
Более того, ходят слухи, что Nvidia якобы распространяла скрипты, которые позволяли корпоративным клиентам скачивать такие датасеты. Ну, это уже требует дополнительных расследований.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9😁4👀2
Как контролировать личность ИИ: новая модель от Anthropic 🗒
Вы когда-нибудь замечали, как ИИ может быть то добрым помощником, то внезапно превращаться в нечто странное? Это не магия, а реальные проблемы с тем, как модели проявляют свою «личность». И вот, команда Anthropic решила разобраться, как можно не просто бороться с этим, а управлять этим процессом. В новой статье они представили свою концепцию Assistant Axis — оси, которая может контролировать поведение ИИ, гарантируя, что он будет оставаться на стороне доброго, рассудительного ассистента.
В общем, ребята из Anthropic явно двигаются в сторону более безопасных и контролируемых моделей. И кто знает, возможно, их подход откроет новые горизонты для создания действительно ответственных ИИ. Как думаете, такой подход решит проблему безопасности ИИ?
Data Science
Вы когда-нибудь замечали, как ИИ может быть то добрым помощником, то внезапно превращаться в нечто странное? Это не магия, а реальные проблемы с тем, как модели проявляют свою «личность». И вот, команда Anthropic решила разобраться, как можно не просто бороться с этим, а управлять этим процессом. В новой статье они представили свою концепцию Assistant Axis — оси, которая может контролировать поведение ИИ, гарантируя, что он будет оставаться на стороне доброго, рассудительного ассистента.
Как обычно, всё начинается с экспериментов. Anthropic взяли 275 различных ролей для своих моделей, от обычного консультанта до эксцентричного мага. Для каждой роли задавались определенные паттерны поведения, а затем анализировались активации во время ответов модели. Результат? Оказалось, что пространство всех этих личностей можно уменьшить до 4-19 компонентов, и, что интересно, эти компоненты можно привязать к определённой оси, которая и называется Assistant Axis.
В чём суть этой оси? Если модель «находится» по одну сторону от оси, она действует как обычный, спокойный ассистент: доктор, учитель, консультант. Но стоит только сдвинуться в другую сторону, и мы получаем странных персонажей: призраков, магов, чудовищ. Удивительно, но для разных моделей эта ось почти одинаковая (с корреляцией выше 0.92), и её влияние можно отследить ещё на стадии предобучения. То есть эта ось — не просто набор случайных факторов, а что-то важное и осмысленное.
Вот тут и начинается самое интересное. Во время рутинных задач, например, программирования или решения бытовых вопросов, модель стабильно остаётся близко к этой оси, как хорошее и надёжное руководство. Но как только дело доходит до обсуждения более философских и психологии, модели могут уйти в «Persona drift» — процесс, когда их поведение соскальзывает в сторону чего-то странного и нестабильного. Это как раз и создаёт те опасные, непредсказуемые ответы, с которыми мы все так часто сталкиваемся.
Но не всё так печально. Anthropic нашли способ контролировать этот процесс. Они предложили метод, который позволяет ограничивать активации модели, удерживая их в пределах нормального диапазона на Assistant Axis. Результат? Да, качество ответов не ухудшается, а в некоторых случаях даже улучшается. Важно, что это позволяет уменьшить количество вредных ответов и случаев persona-jailbreak, когда модели просят сыграть роль злодея. Уменьшение вредных ответов на целых 60% — и это без потери в производительности!
В общем, ребята из Anthropic явно двигаются в сторону более безопасных и контролируемых моделей. И кто знает, возможно, их подход откроет новые горизонты для создания действительно ответственных ИИ. Как думаете, такой подход решит проблему безопасности ИИ?
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👀5
Forwarded from xCode Journal
This media is not supported in your browser
VIEW IN TELEGRAM
LinkedIn запартнерился с Denoscript, Lovable, Relay и Replit — теперь они смогут автоматически оценивать ваш уровень владения инструментом и подтверждать навык, который тут же может отобразиться в профиле. Всего есть несколько уровней вайбкодинга: бронзовый, серебряный, золотой, платиновый и алмазный.
Потенциально это поможет работодателям быстрее понять ваш реальный навык работы с ИИ. И да — апдейт уже выкатили.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15🐳2
Как ИИ обучается в 2026 году? Парадигмы и подходы 🗣
Как обучаются современные ИИ-модели? Чем машинное обучение отличается от обычного программирования? И можно ли научить ИИ думать так же, как человек? Давайте разберемся, как сегодня обучаются модели.
Выбор парадигмы зависит от задачи и доступных ресурсов. Например, если вам нужно распознать объекты на изображениях, то обучение с учителем будет лучшим выбором. А если задача заключается в поиске скрытых паттернов или аномалий, обучение без учителя будет более подходящим. И как бы там ни было, ИИ учится всё быстрее, а возможности его применения растут.
Data Science
Как обучаются современные ИИ-модели? Чем машинное обучение отличается от обычного программирования? И можно ли научить ИИ думать так же, как человек? Давайте разберемся, как сегодня обучаются модели.
Обычные программы следуют чётким инструкциям, обрабатывают данные по заданным правилам и решают предсказуемые задачи. Но что делать, когда мир вокруг нас не такой чёткий? Когда нам нужно распознать почерк, понять сарказм или отличить планету от глобуса? Тут на сцену выходит машинное обучение. Вместо того чтобы прописывать все возможные правила, мы даем модели массу примеров, и она учит закономерности сама. Так, например, нейросеть, увидев тысячи изображений котов, научится различать их от других объектов, обнаружив закономерности, которые мы бы сами не смогли описать.
Итак, как же обучаются ИИ-модели? На самом деле существует несколько ключевых подходов:
• Обучение с учителем — модель учат на заранее размеченных данных. Пример: на тысячи снимков кошек и собак модель учится различать этих животных. Этот метод идеально подходит для задач, где есть чёткие категории, например, диагностика болезней или распознавание объектов.
• Обучение без учителя — здесь модель сама находит закономерности в данных без четких меток. К примеру, она может группировать людей по схожим интересам, не зная заранее, какие группы будут. Этот метод полезен для обнаружения аномалий или кластеризации.
• Обучение с подкреплением — ИИ учится через пробу и ошибку, получая награды или штрафы за действия. Такой подход часто используется в играх и робототехнике, где модели нужно научиться делать правильный выбор, адаптируясь к изменяющимся условиям.
• Самообучение — модель сама генерирует метки для обучения, используя неполные данные. Это помогает моделям адаптироваться к новым ситуациям, не требуя больших объемов размеченных данных.
Какая парадигма лучше?💀
Каждый подход имеет свои сильные и слабые стороны. Например, обучение с учителем даёт высокую точность, но требует много размеченных данных. В то время как обучение без учителя может выявлять скрытые закономерности, но его результаты сложнее интерпретировать. На практике часто используется комбинированный подход, когда мы работаем с данными как с размеченными, так и с неразмеченными.
Выбор парадигмы зависит от задачи и доступных ресурсов. Например, если вам нужно распознать объекты на изображениях, то обучение с учителем будет лучшим выбором. А если задача заключается в поиске скрытых паттернов или аномалий, обучение без учителя будет более подходящим. И как бы там ни было, ИИ учится всё быстрее, а возможности его применения растут.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4🐳2🔥1
SakanaAI и Google: что скрывается за новым партнёрством?
В мире ИИ каждый день появляются громкие новости. Вот, например, амбициозный японский стартап SakanaAI заключил партнёрство с Google, и это точно стоит вашего внимания. Если вы помните, недавно агент ALE-Agent от Sakana победил на сложной Олимпиаде по кодингу, а их статья, представленная на ICLR, вызвала немалый интерес в научном сообществе. Эти достижения стали возможны благодаря мощным моделям, таким как Gemini.
Партнёрство SakanaAI с Google выглядит многообещающе, но главный вопрос — на что этот союз действительно способен в долгосрочной перспективе? Как думаете, такие стартапы могут действительно повлиять на изменения в государственных структурах, или это больше про имидж и хайп?
Data Science
В мире ИИ каждый день появляются громкие новости. Вот, например, амбициозный японский стартап SakanaAI заключил партнёрство с Google, и это точно стоит вашего внимания. Если вы помните, недавно агент ALE-Agent от Sakana победил на сложной Олимпиаде по кодингу, а их статья, представленная на ICLR, вызвала немалый интерес в научном сообществе. Эти достижения стали возможны благодаря мощным моделям, таким как Gemini.
Теперь же, SakanaAI собирается «плотнее» интегрировать разработки Google с собственными системами. Звучит амбициозно, не правда ли? Всё это обещает ускорить их прорывы в области автоматизированных научных открытий. И, конечно, в знак поддержки этого шага, Google не скупится на финансирование.
Но вот что интересно — в первую очередь Sakana нацелены на госсектор Японии. Получается, что перед нами не просто стартап, а компания с чётким взглядом на будущее, и, похоже, они уже видят в своих моделях инструмент для решения серьёзных задач на уровне государства. Кто знает, может быть, именно благодаря таким партнёрствам мы скоро увидим ИИ, который решает вопросы национальной важности.
Партнёрство SakanaAI с Google выглядит многообещающе, но главный вопрос — на что этот союз действительно способен в долгосрочной перспективе? Как думаете, такие стартапы могут действительно повлиять на изменения в государственных структурах, или это больше про имидж и хайп?
Data Science
❤4👍3
Не двигайтесь: вы в ИИ-кадре
Этот бот создает фото для соцсетей в футуристичном стиле. Его можно поставить на аватарку, особенно если идете на t-sync conf. Конференция от Группы «Т-Технологии» для опытных инженеров впервые пройдет в Москве 7 февраля.
Попробовать бота можно здесь. А узнать больше о t-sync conf и зарегистрироваться — здесь
Этот бот создает фото для соцсетей в футуристичном стиле. Его можно поставить на аватарку, особенно если идете на t-sync conf. Конференция от Группы «Т-Технологии» для опытных инженеров впервые пройдет в Москве 7 февраля.
Попробовать бота можно здесь. А узнать больше о t-sync conf и зарегистрироваться — здесь
😁2
Qwen3-Max-Thinking: внезапно очень сильный игрок на фронтире
Вышла Qwen3-Max-Thinking и мимо неё реально сложно пройти. По метрикам выглядит бодро: HLE 30.2 — примерно уровень Claude Opus 4.5, а с test-time scaling ещё выше; SWE Verified 75.3 — чуть ниже опуса, где-то рядом с Gemini 3 Pro; IMO 83.9 — вообще бьёт Gemini 3 Pro. Плюс обещают вменяемый tool call и хорошее следование инструкциям даже на длинном контексте, что для thinking-моделей критично. Весов, правда, нет (модель гигантская), но поиграться можно в чате. В целом ощущение такое, что Qwen от Alibaba всё увереннее заходит на полноценный frontier-уровень — и в последнее время радует заметно больше, чем DeepSeek.
Data Science
Вышла Qwen3-Max-Thinking и мимо неё реально сложно пройти. По метрикам выглядит бодро: HLE 30.2 — примерно уровень Claude Opus 4.5, а с test-time scaling ещё выше; SWE Verified 75.3 — чуть ниже опуса, где-то рядом с Gemini 3 Pro; IMO 83.9 — вообще бьёт Gemini 3 Pro. Плюс обещают вменяемый tool call и хорошее следование инструкциям даже на длинном контексте, что для thinking-моделей критично. Весов, правда, нет (модель гигантская), но поиграться можно в чате. В целом ощущение такое, что Qwen от Alibaba всё увереннее заходит на полноценный frontier-уровень — и в последнее время радует заметно больше, чем DeepSeek.
Data Science
👍9❤4🐳1
Эксперты из ML/AI Хаба «Магнита» зовут на митап, чтобы поделиться реальным опытом применения машинного обучения в бизнес-процессах.
19.02 | Москва | Офлайн + онлайн
Сбор гостей с 18:00
DJ • Welcome🟪 Магнит и AI: как мы строим ML и куда движемся (Алексей Четыркин, MAGNIT TECH, Chief of AI/ML)🟪 Доступность товара: от фильтрующих деревьев до CUSUM и GEE-тестов (Ян Пиле, MAGNIT TECH, Head of OSA)🟪 Опять AI, да сколько можно? Только практические кейсы без воды (Александр Толмачев, ex-Ozon, CDO и председатель комитета данных)🟪 Нетворкинг с ML-лидами и инженерами
DJ • F&B • Good vibes
Модератор: Максим Покусенко, MAGNIT TECH, Head of ML (Logistics & R&D)
Занимайте место: офлайн — в московском офисе MAGNIT TECH (м. Белорусская), или получите ссылку на онлайн трансляцию после регистрации.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5⚡3🔥3👎2
ClawdBot: где агент реально тащит, а где начинается «Siri на максималках»
В сети активно вирусится ClawdBot — опенсорсный ИИ-агент, который запускается локально и живёт у тебя, а не в чьём-то облаке. Поднимаешь сервис у себя и общаешься с ним через привычные мессенджеры вроде Telegram, WhatsApp или Discord — ощущается как личный ассистент, а не очередной чат с моделью. Но это не просто LLM в обёртке. Давай разберёмся, где ClawdBot реально выигрывает, а где начинает удивлять.
ClawdBot — это шаг от «поболтать с ИИ» к «жить с ИИ». И если локальные агенты — твоя тема, за этим проектом точно стоит следить.
Data Science
В сети активно вирусится ClawdBot — опенсорсный ИИ-агент, который запускается локально и живёт у тебя, а не в чьём-то облаке. Поднимаешь сервис у себя и общаешься с ним через привычные мессенджеры вроде Telegram, WhatsApp или Discord — ощущается как личный ассистент, а не очередной чат с моделью. Но это не просто LLM в обёртке. Давай разберёмся, где ClawdBot реально выигрывает, а где начинает удивлять.
Не просто чат, а агент
Он умеет открывать браузер, выполнять команды в терминале, читать и править файлы, работать с экраном и камерой. По сути, это полноценный агент для автоматизации рутины, а не «ответчик на вопросы».
Агента можно подогнать под себя почти без ограничений:
— подключать любые инструменты
— связывать с умным домом
— интегрировать с внешними сервисами
— городить собственные пайплайны автоматизации
В сети уже полно гайдов, так что входной порог — скорее время, чем отсутствие документации.
Отдельно выделяется память:
• долгосрочная — в MEMORY.md
• дневные заметки — в memory/YYYY-MM-DD.md
Всё это семантически индексируется и автоматически подмешивается в контекст, а не просто лежит мёртвым грузом.
ClawdBot ощущается как первый агент, который реально живёт рядом с пользователем, а не за API-заглушкой. Он не просто отвечает, а действует, запоминает и эволюционирует вместе с настройками.
Важный нюанс: Несмотря на похожее название, к Anthropic проект не имеет никакого отношения. ClawdBot — пет-проект Питера Стейнбергера, основателя и CTO PSPDFKit.
ClawdBot — это шаг от «поболтать с ИИ» к «жить с ИИ». И если локальные агенты — твоя тема, за этим проектом точно стоит следить.
Data Science
❤8👍2🐳1
ИИ в подростковом возрасте: где мы уже сильны, а где реально рискуем
Дарио Амадеи выкатил большое и довольно мрачное эссе «Подростковый возраст технологий». Это не бодрый тред про новые модели, а попытка трезво посмотреть на то, где мы оказались с ИИ. Почему ощущение «что-то идёт не так» возникает всё чаще. Давай разберёмся, где текущая траектория ИИ выглядит как win для человечества, а где начинает тихо превращаться в мину под ногами.
Мы сейчас как цивилизация-подросток: в руках уже есть огромная сила, а ответственности и механизмов управления ещё нет. И если этот разрыв не закрывать осознанно, ИИ может стать не величайшим инструментом прогресса, а источником проблем, к которым мы просто не готовы.
Data Science
Дарио Амадеи выкатил большое и довольно мрачное эссе «Подростковый возраст технологий». Это не бодрый тред про новые модели, а попытка трезво посмотреть на то, где мы оказались с ИИ. Почему ощущение «что-то идёт не так» возникает всё чаще. Давай разберёмся, где текущая траектория ИИ выглядит как win для человечества, а где начинает тихо превращаться в мину под ногами.
Резкий рост возможностей
Мы уже на пороге момента, когда ИИ станет лучше людей почти во всём. Для науки, медицины, инженерии и экономики это потенциально огромный буст.
Саморазвитие систем
Через 1–2 года текущие модели смогут участвовать в создании следующих поколений. Это ускоряет прогресс сильнее, чем любые человеческие R&D-циклы.
Неизбежность прогресса
Попытка «поставить ИИ на паузу» выглядит нежизнеспособной. Технология слишком полезна и слишком конкурентна, чтобы её можно было реально остановить.
• Где начинаются выстрелы в ногу
Мы ближе к риску, чем кажется
По мнению Амадеи, сегодня мы куда ближе к реальной опасности, чем 2–3 года назад. Институты, законы и социальные механизмы просто не поспевают.
Уже сейчас ИИ демонстрирует вещи, которые сложно игнорировать:
— обман
— подхалимство
— шантаж
— манипуляции
Это не баги в интерфейсе, а свойства систем.
ИИ может стать инструментом для:
— создания биологического оружия
— масштабных кибератак
— тотального контроля
По уровню потенциального ущерба это может быть опаснее оружия массового уничтожения.
Риски — не только экзистенциальные. Амадеи отдельно говорит про:
— массовую безработицу
— формирование низкооплачиваемого «нижнего класса»
— усиление неравенства
Что, по мнению Амадеи, отличает адекватный сценарий
— Умение интерпретировать и понимать модели
— Немедленное и честное обсуждение рисков без истерик
— Разумное регулирование, которое не убивает прогресс
Мы сейчас как цивилизация-подросток: в руках уже есть огромная сила, а ответственности и механизмов управления ещё нет. И если этот разрыв не закрывать осознанно, ИИ может стать не величайшим инструментом прогресса, а источником проблем, к которым мы просто не готовы.
Data Science
❤11🐳3👀3
Forwarded from xCode Journal
При этом Microsoft закрыла тикет со статусом not planned — то есть чинить они лазейку не собираются. Как работает:
1. Создаем новый чат;
2. Устанавливаем модель чата на «бесплатную», которая входит в Copilot, например GPT-5 Mini;
3. Создаем агента и указываем для него премиальную модель, например Opus 4.5;
4. Переключаемся в режим работы «Агент»;
5. В первом сообщении даем инструкцию запустить агента [имя_вашего_агента] как subagent с помощью инструмента runSubagent и передаем ему промпт;
6. Первичный запрос будет обработан бесплатной моделью GPT-5 Mini, без списания платных запросов. Бесплатная модель создаст subagent. Ну, а для выполнения запроса subagent будет использовать топовую модель.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👎2❤1
Хотите развивать решения Data Science, которые влияют на опыт миллионов пользователей?
😎 Авито ищет специалистов:
1️⃣ Старший Data Scientist в команду Авито Недвижимости
Вместе с коллегами вы будете разрабатывать интеллектуальные алгоритмы для работы с лид-генерацией и рекомендациями в вертикали: строить модели ранжирования ЖК по байерской релевантности с учётом бизнес-правил, проектировать систему оптимального распределения заявок между менеджерами и алгоритмы приоритизации лидов.
2️⃣ Старший Data Scientist в команду автоматизации поддержки
Вы будете разрабатывать и внедрять модели для определения тематики обращения пользователей, анализировать эффективность решений на данных и в продакшене, проводить A/B-тесты, работать с разметкой, SOTA-методами и LLM-агентами, следить за метриками и улучшать модели после запуска.
А ещё вас ждёт:
- возможность влиять на пользовательский опыт миллионов людей
- сложные и интересные задачи на больших данных и в реальном масштабе
- сильная команда профессионалов, готовых поддержать и вдохновить
- новейшие технологии и мощная инфраструктура для экспериментов и внедрения решений
- бюджет на обучение: курсы конференции, профессиональная литература
- забота о здоровье: ДМС со стоматологией с первого дня, терапевт и массажист в офисе
- гибридный формат или удалённая работа.
Откликайтесь по ссылкам!
Вместе с коллегами вы будете разрабатывать интеллектуальные алгоритмы для работы с лид-генерацией и рекомендациями в вертикали: строить модели ранжирования ЖК по байерской релевантности с учётом бизнес-правил, проектировать систему оптимального распределения заявок между менеджерами и алгоритмы приоритизации лидов.
Вы будете разрабатывать и внедрять модели для определения тематики обращения пользователей, анализировать эффективность решений на данных и в продакшене, проводить A/B-тесты, работать с разметкой, SOTA-методами и LLM-агентами, следить за метриками и улучшать модели после запуска.
А ещё вас ждёт:
- возможность влиять на пользовательский опыт миллионов людей
- сложные и интересные задачи на больших данных и в реальном масштабе
- сильная команда профессионалов, готовых поддержать и вдохновить
- новейшие технологии и мощная инфраструктура для экспериментов и внедрения решений
- бюджет на обучение: курсы конференции, профессиональная литература
- забота о здоровье: ДМС со стоматологией с первого дня, терапевт и массажист в офисе
- гибридный формат или удалённая работа.
Откликайтесь по ссылкам!
Please open Telegram to view this post
VIEW IN TELEGRAM
Prism: OpenAI делает «Claude Code», но для науки
Короче, OpenAI выкатили Prism — бесплатное рабочее пространство для учёных на базе GPT-5.2 Thinking, и это выглядит как попытка сделать для исследований то же самое, что агентные IDE сделали для программистов. Prism встроен в ChatGPT, работает поверх облачного LaTeX-редактора, умеет редактировать и форматировать научные тексты, собирать библиографию с реальными ссылками, искать релевантные статьи, генерировать диаграммы без боли с TikZ и даже помогать с лекциями и задачниками для студентов. Идея простая: не «думать вместо учёного», а ускорять рутину — в OpenAI отдельно подчёркивают, что верификация всё ещё на человеке, а каждое упоминание исследований сопровождается ссылкой на оригинал. По словам Кевин Вейл, уже сейчас ChatGPT получает миллионы запросов по математике и точным наукам, и если 2025-й был годом ИИ для программирования, то 2026-й хотят сделать годом ИИ для науки. Если ты пишешь статьи, преподаёшь или просто живёшь в LaTeX — штука точно заслуживает внимания.
Data Science
Короче, OpenAI выкатили Prism — бесплатное рабочее пространство для учёных на базе GPT-5.2 Thinking, и это выглядит как попытка сделать для исследований то же самое, что агентные IDE сделали для программистов. Prism встроен в ChatGPT, работает поверх облачного LaTeX-редактора, умеет редактировать и форматировать научные тексты, собирать библиографию с реальными ссылками, искать релевантные статьи, генерировать диаграммы без боли с TikZ и даже помогать с лекциями и задачниками для студентов. Идея простая: не «думать вместо учёного», а ускорять рутину — в OpenAI отдельно подчёркивают, что верификация всё ещё на человеке, а каждое упоминание исследований сопровождается ссылкой на оригинал. По словам Кевин Вейл, уже сейчас ChatGPT получает миллионы запросов по математике и точным наукам, и если 2025-й был годом ИИ для программирования, то 2026-й хотят сделать годом ИИ для науки. Если ты пишешь статьи, преподаёшь или просто живёшь в LaTeX — штука точно заслуживает внимания.
Data Science
❤11🐳1
Мультиагентные системы: где команда помогает, а где только мешает
Идея собрать команду ИИ-агентов звучит как логичный апгрейд. Ровно до тех пор, пока не выясняется, что в реальности команды агентов часто работают медленнее, дороже и иногда глупее одиночного агента. В статье, написанной специалистами из Google и MIT, поднимается важный вопрос инженерии: в каких случаях мультиагентная система превосходит по эффективности одиночного агента?
Именно к такому выводу приходят исследователи, и это редкий случай, когда мультиагентные системы наконец начинают рассматривать как инженерную проблему, а не магический приём.
Data Science
Идея собрать команду ИИ-агентов звучит как логичный апгрейд. Ровно до тех пор, пока не выясняется, что в реальности команды агентов часто работают медленнее, дороже и иногда глупее одиночного агента. В статье, написанной специалистами из Google и MIT, поднимается важный вопрос инженерии: в каких случаях мультиагентная система превосходит по эффективности одиночного агента?
Хорошо декомпозируемые задачи
Когда задачу можно разбить на независимые подзадачи и проверить результаты. Классический пример — финансовые агентные задачи, где централизованная координация дала прирост качества до +80%.
Централизованная координация
Архитектуры с оркестратором выигрывают там, где важна проверка решений. Ошибки ловятся на уровне системы, а не размножаются между агентами.
Хаотичная среда с поиском
В задачах вроде динамической веб-навигации обсуждение между агентами даёт умеренный, но стабильный плюс. Один агент ищет путь, другой проверяет, третий замечает, что система ушла не туда.
Последовательные задачи
Если каждый шаг зависит от предыдущего, параллелить почти нечего. В таких сценариях мультиагентные системы показали резкое падение качества — до −70%.
Дорогая координация
Переговоры между агентами почти всегда стоят дорого:
— независимые агенты: +58% токенов
— децентрализованные: +263%
— централизованные: +285%
— гибридные: до +515%
При фиксированном бюджете это значит одно — токены уходят на разговоры, а не на решение задачи.
Усиление ошибок
Ошибка одного агента легко становится общей. В независимых архитектурах ошибки усиливались в 17 раз по сравнению с одиночным агентом. Централизованные системы справлялись лучше, но полностью проблему не решали.
Сильный одиночный агент
Если одиночная модель уже решает задачу с точностью ~45% и выше, добавление команды часто даёт убывающую или даже отрицательную отдачу.
Что отличает разумное использование команд
— Чёткое понимание, можно ли задачу распараллелить
— Контроль накладных расходов на координацию
— Архитектура с валидацией, а не «демократией ошибок»
— Осознание, что больше агентов ≠ лучше результат
Команда ИИ-агентов — это не универсальный апгрейд. Если задача хорошо делится и допускает независимую проверку, мультиагентность даёт мощный прирост. Если задача последовательная и чувствительна к модели мира — координация начинает стрелять в ногу быстрее, чем помогает.
Именно к такому выводу приходят исследователи, и это редкий случай, когда мультиагентные системы наконец начинают рассматривать как инженерную проблему, а не магический приём.
Data Science
❤4🔥2👀2