AI for Devs – Telegram
AI for Devs
3.6K subscribers
143 photos
45 videos
106 links
По сотрудничеству пишите в личные сообщения канала.
Download Telegram
🔥 Google выкатила обновлённые Gemini 2.5 Flash и Flash-Lite

На днях Google выкатил обновлённые версии своих моделей — Gemini 2.5 Flash и 2.5 Flash-Lite.

Что улучшили?

🟣 Flash-Lite теперь заметно умнее и экономичнее. Модель лучше выполняет сложные инструкции и системные подсказки, перестала писать лишние слова (а значит, тратит меньше токенов и работает быстрее), а ещё прокачала мультимодальные возможности — лучше распознаёт речь, понимает картинки и точнее переводит. Google заявляет, что количество выходных токенов снизили на 50%, а значит — дешевле ответы и ниже задержка.

🟣 Flash подтянули в других местах. Во-первых, модель научили эффективнее пользоваться инструментами, что особенно важно для сложных агентных сценариев. На бенчмарке SWE-Bench Verified она прыгнула с 48,9% до 54%. Во-вторых, сделали работу с включённым «thinking» более экономичной: теперь ответы такого же (а то и лучшего) качества, но с меньшими затратами токенов.

Первые отзывы уже есть: Йичао «Peak» Цзи из Manus (они делают автономных AI-агентов) сказал, что у них получилось получить +15% производительности на длинных агентных задачах, а экономичность позволила масштабироваться сильнее, чем раньше.

Обе модели пока в preview, но доступны всем и уже есть на openrouter.

Источник
Google: Gemini 2.5 Flash Lite Preview 09-2025 на openrouter
Google: Gemini 2.5 Flash Preview 09-2025 на openrouter

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥3
💅 Continue навёл марафет в VS Code

Кажется, ребята из Continue решили: хватит терпеть визуальный бардак. В версии 1.13.0 их AI-помощник для кодинга получил серьёзный апгрейд интерфейса. Теперь всё чище, логичнее и дружелюбнее.

Главные апдейты:
• Свежий минималистичный вид
• Нормальная навигация и адаптивность под любые экраны — хоть ультраширокий, хоть боковая панель ноутбука
• Селектор моделей переписали с нуля: теперь видно, какой ассистент активен, а те, что с ошибками конфигурации, не прячутся, а аккуратно подсвечиваются.

🟣 Панель настроек стала карточной и понятной: можно быстро найти, где подключить свою модель, настроить MCP-инструменты или политику контекста, не зарываясь в бесконечные скроллы.

🟣 Плюс десятки мелочей — клавиатурная навигация, аккуратные отступы, правильные состояния загрузки MCP-инструментов. Мелочи, но теперь работать реально приятнее.

Кстати, на Continue уже строится куча сторонних решений и инструментов для разработчиков. Интересно будет посмотреть, как свежий редизайн повлияет на экосистему — особенно на плагины и надстройки, которые завязаны на MCP и кастомные модели.

Источник

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥51🤩1
🔥 Вышла DeepSeek-V3.2-Exp: китайцы снова мутят что-то хитрое

DeepSeek выпустили экспериментальную модель DeepSeek-V3.2-Exp — видимо, промежуточный шаг к их следующему «монстру». Главное новшество — DeepSeek Sparse Attention: хитрый способ сделать работу трансформеров на длинных текстах быстрее и дешевле.

Если по-простому: модель учится «не тратить внимание впустую». Вместо того чтобы пересчитывать все связи между словами, она обрабатывает только важные — и при этом почти не теряет качество ответа. Бенчмарки показывают, что результат остался на уровне прошлой версии V3.1, но вычислительная эффективность заметно выросла.

Ну и да, всё это open source: можно уже потыкать на Hugging Face, запустить через vLLM или SGLang (докер-образы готовы).

Похоже, DeepSeek делает ставку на то, чтобы длинные контексты стали дешевле и быстрее. А значит — впереди, возможно, совсем другие масштабы для ИИ-агентов и RAG-систем.

Источник | Hugging Face

@ai_for_devs
👍62🔥2🤯2
🤩 Вышла Claude Sonnet 4.5 – лучшая модель для программирования

Что внутри? Во-первых, модель стала лучше во всём, что связано с программированием. На бенчмарке SWE-bench Verified она теперь топ-1, а на OSWorld — выросла с 42% до 61% точности за каких-то четыре месяца. То есть Sonnet теперь не только пишет функции, но и отлично справляется с файлами, браузером и таблицами.

Помимо модели также обновили и Claude Code: завезли чекпоинты (можно откатиться, если натворил фигни), обновили терминал, прикрутили нативное расширение для VS Code. В приложении Claude теперь можно прямо в чате генерить документы, таблицы и презентации. Плюс, появился Claude Agent SDK — по сути, тот же движок, на котором Anthropic сами клепают агентов.

Antropic заявляют, что это "most aligned model yet". Другими словами, модель у Anthropic получилось неплохо побороться с галлюцинациями, манипуляциями и прочим "магическим" поведением.

Claude Sonnet 4.5 — не только самая мощная, но и самая согласованная с безопасностью из всех наших моделей. Благодаря улучшенным возможностям Claude и обширному обучению в области безопасности нам удалось существенно улучшить его поведение: снизить податливость на лесть, склонность к обману, стремление к власти и подталкивание к иллюзиям. Для агентных функций и работы с компьютером мы также значительно усилили защиту от атак через prompt injection — одной из самых серьёзных угроз для пользователей.


Цена осталась прежней: $3 за миллион input-токенов, $15 — за output. Для разработчиков модель доступна прямо сегодня в API (claude-sonnet-4-5).

Источник | Карточка модели | Модель на Openrouter

@ai_for_devs
🔥9👍43👏1
This media is not supported in your browser
VIEW IN TELEGRAM
JetBrains встроили Claude Agent прямо в свои IDE

Claude Agent теперь живёт прямо в AI-чате IDE, а под капотом — свежевыпущенный Claude 4.5 Sonnet.

Примечательно, что это первый сторонний агент, официально встроенный в экосистему JetBrains, и он идёт в составе подписки JetBrains AI — доплат не просят. Сделан на Anthropic Agent SDK, поэтому умеет в контекст, тулы, файловые операции и даже исполнение кода. Работает через MCP: агент видит IDE как сервер инструментов, вы — просто переписываетесь в чате.

Кратко об основных возможностях:

🟣 Работа с несколькими файлами: агент показывает предложенные правки в виде диффов прямо в редакторе — удобно сравнить «до/после» и решить, принять или выкинуть.
🟣 Контроль на вашей стороне: без вашего разрешения Claude ничего не тронет — ни файл, ни консоль. Но если достаточно смелые, то можно включить Brave mode и агент пойдет заниматься своими делами без ваших апрувов
🟣 Plan mode: агент сначала опишет шаги и только потом займется реализацией.
🟣 Управление контекстом: можно подкинуть файлы, папки или даже картинки — агент станет отвечать точнее и умнее.

Источник

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍42
😇 Вышла GLM-4.6 – очередное обновление от Z.ai

Что завезли: окно контекста теперь не 128k, а 200k токенов (можно загружать целую диссертацию и ещё место останется). Кодинг стал бодрее — модель не только щёлкает бенчмарки, но и в реальных сценариях типа Claude Code и Roo Code показывает себя отлично. Плюс апгрейд по «агентности»: умнее пользуется инструментами, ищет, анализирует, делает выводы.

По тестам: GLM-4.6 обходит прошлую версию, уверенно держится против DeepSeek-V3.2-Exp и почти дотягивается до Claude Sonnet 4. Но до свежего Claude Sonnet 4.5 по коду пока не дорос — тут Anthropic всё ещё впереди. Зато по эффективности есть козырь: задачки решает примерно на 15% экономнее по токенам.

В общем, если вы искали «дешёвый claude», то вот оно. GLM-4.6 в Coding Plan стоит в 7 раз дешевле, а квоты выше в 3 раза. Апгрейд подписки автоматический, локально модель можно будет поднять через HuggingFace или ModelScope.

Источник

@ai_for_devs
🔥5👍42
🤖 GPT-5 и API Responses: зачем нужен ещё один стандарт?

Команда AI for Devs подготовила перевод статьи о новом API /v1/responses от OpenAI, который объединяет простоту Chat Completions и мощь Assistants, и при этом сохраняет состояние рассуждений, мультимодальность и встроенные инструменты.

Это шаг к агентам будущего — и, похоже, к новому стандарту работы с моделями OpenAI.

📚 Подробности на Хабр: https://habr.com/ru/articles/951244/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥53
🆕 Cursor 1.7: теперь с «хуками» и автокомплитом при общении с агентом

На днях Cursor получил обновление. Что изменилось?

🟣 Появился Autocomplete для Agent — агенты сами подсказывают куски промптов прямо при написании.
🟣 Вкатили Hooks (beta) — возможность подключаться к циклу агента и управлять им на лету: фильтровать действия, редактировать контекст, блокировать команды.
🟣 Запустили Team Rules — единые правила для всей команды (например, единые ограничения или политики).
🟣 А ещё: агенты теперь работают в песочнице (sandboxed terminals), так что давать полный доступ агенту теперь могут все, даже параноики 😉 Ну а если что-то не заработает из-за sandbox — IDE сама предложит перезапуск вне его.
🟣 Ну и последнее, была добавлена поддержка работы с изображениями

Источник

@ai_fro_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥8👏21
Granite 4: IBM представила линейку маленьких, но шустрых LLM

Пока OpenAI, Anthropic и Meta меряются миллиардами параметров, IBM внезапно решила сыграть в другую игру, представив Granite-4.0 — набор маленьких, но шустрых LLM.

Вместо гигантов под сотни миллиардов параметров, IBM выкатила:
• Micro (3B) — ультралёгкий вариант, легко запуститься на ноутбуке.
• Tiny (7B/1B активных) — компактный MoE, экономит память и токены.
• Small (32B/9B активных) — самая большая из линейки, но всё равно «малышка» по сравнению с топовыми LLM.

Фишка этой линейки моделей в гибридной Mamba-архитектуре: модель отключает лишние блоки и работает быстрее, при этом сохраняя длинный контекст (до 128K). Может, именно этот «обратный ход» IBM и станет трендом: меньшее количество параметров, но больше пользы на практике?

По бенчмаркам:
🟣 Granite-4.0 H-Small и Micro неожиданно обгоняют гигантов вроде Llama-3.3-70B и Qwen3-8B по Retrieval-Augmented Generation (73 и 72 против 61 и 55). 
🟣 H-Micro и H-Tiny занимают верхнюю часть чарта по эффективности: держат accuracy выше 70% при очень скромных требованиях по VRAM. 
🟣 Granite-4.0 H-Small с 0.86 на IF-Eval подбирается к топам вроде Llama 4 Maverick и Kimi K2, а Micro уверенно держится в середине таблицы рядом с Mistral и OLMo. Для моделей такого размера это прямо серьёзное заявление.

Кстати, эти модели уже доступны в Continue.
Модели на
Hugging Face.

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥511
Данные дороже денег: JetBrains меняет лицензии на код из реальных проектов

Крупные игроки всё яснее понимают: золото XXI века — это не нефть и не подписки, а данные. И JetBrains демонстрирует это особенно наглядно. Компания готова отказаться от быстрой прибыли и раздать лицензии бесплатно — лишь бы получить доступ к уникальному «топливу» для своих ИИ-моделей.

Большинство LLM учатся на публичных датасетах, далеких от реальных рабочих сценариев. Отсюда «галлюцинации» и ошибки на сложных проектах. JetBrains хочет исправить это и собирать настоящие сигналы — историю редактирования кода, команды терминала, запросы к ИИ и ответы.

Что придумали:
– Вместо почти $1000 за годовую корпоративную подписку All Products Pack (доступ ко всем IDE) компании смогут получить её даром.
– Цена вопроса: разрешить JetBrains собирать рабочие данные — фрагменты кода, команды терминала, историю редактирования и запросы к ИИ.
– Эти данные будут использоваться для обучения собственных языковых моделей JetBrains.
– Под сбор также попадают академические и open source-лицензии (с опцией отказаться в настройках).
– JetBrains обещает хранение в соответствии с GDPR, без доступа третьих лиц.

Фактически, JetBrains сегодня отдаёт лицензии бесплатно, чтобы завтра иметь преимущество в гонке за ИИ-инструменты.

Источник
Форма для организаций
🤯118🔥52👍2