Кажется, ребята из Continue решили: хватит терпеть визуальный бардак. В версии 1.13.0 их AI-помощник для кодинга получил серьёзный апгрейд интерфейса. Теперь всё чище, логичнее и дружелюбнее.
Главные апдейты:
• Свежий минималистичный вид
• Нормальная навигация и адаптивность под любые экраны — хоть ультраширокий, хоть боковая панель ноутбука
• Селектор моделей переписали с нуля: теперь видно, какой ассистент активен, а те, что с ошибками конфигурации, не прячутся, а аккуратно подсвечиваются.
Кстати, на Continue уже строится куча сторонних решений и инструментов для разработчиков. Интересно будет посмотреть, как свежий редизайн повлияет на экосистему — особенно на плагины и надстройки, которые завязаны на MCP и кастомные модели.
Источник
@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥5❤1🤩1
🔥 Вышла DeepSeek-V3.2-Exp: китайцы снова мутят что-то хитрое
DeepSeek выпустили экспериментальную модель DeepSeek-V3.2-Exp — видимо, промежуточный шаг к их следующему «монстру». Главное новшество — DeepSeek Sparse Attention: хитрый способ сделать работу трансформеров на длинных текстах быстрее и дешевле.
Если по-простому: модель учится «не тратить внимание впустую». Вместо того чтобы пересчитывать все связи между словами, она обрабатывает только важные — и при этом почти не теряет качество ответа. Бенчмарки показывают, что результат остался на уровне прошлой версии V3.1, но вычислительная эффективность заметно выросла.
Ну и да, всё это open source: можно уже потыкать на Hugging Face, запустить через vLLM или SGLang (докер-образы готовы).
Похоже, DeepSeek делает ставку на то, чтобы длинные контексты стали дешевле и быстрее. А значит — впереди, возможно, совсем другие масштабы для ИИ-агентов и RAG-систем.
Источник | Hugging Face
@ai_for_devs
DeepSeek выпустили экспериментальную модель DeepSeek-V3.2-Exp — видимо, промежуточный шаг к их следующему «монстру». Главное новшество — DeepSeek Sparse Attention: хитрый способ сделать работу трансформеров на длинных текстах быстрее и дешевле.
Если по-простому: модель учится «не тратить внимание впустую». Вместо того чтобы пересчитывать все связи между словами, она обрабатывает только важные — и при этом почти не теряет качество ответа. Бенчмарки показывают, что результат остался на уровне прошлой версии V3.1, но вычислительная эффективность заметно выросла.
Ну и да, всё это open source: можно уже потыкать на Hugging Face, запустить через vLLM или SGLang (докер-образы готовы).
Похоже, DeepSeek делает ставку на то, чтобы длинные контексты стали дешевле и быстрее. А значит — впереди, возможно, совсем другие масштабы для ИИ-агентов и RAG-систем.
Источник | Hugging Face
@ai_for_devs
👍6❤2🔥2🤯2
🤩 Вышла Claude Sonnet 4.5 – лучшая модель для программирования
Что внутри? Во-первых, модель стала лучше во всём, что связано с программированием. На бенчмарке SWE-bench Verified она теперь топ-1, а на OSWorld — выросла с 42% до 61% точности за каких-то четыре месяца. То есть Sonnet теперь не только пишет функции, но и отлично справляется с файлами, браузером и таблицами.
Помимо модели также обновили и Claude Code: завезли чекпоинты (можно откатиться, если натворил фигни), обновили терминал, прикрутили нативное расширение для VS Code. В приложении Claude теперь можно прямо в чате генерить документы, таблицы и презентации. Плюс, появился Claude Agent SDK — по сути, тот же движок, на котором Anthropic сами клепают агентов.
Antropic заявляют, что это "most aligned model yet". Другими словами, модель у Anthropic получилось неплохо побороться с галлюцинациями, манипуляциями и прочим "магическим" поведением.
Цена осталась прежней: $3 за миллион input-токенов, $15 — за output. Для разработчиков модель доступна прямо сегодня в API (claude-sonnet-4-5).
Источник | Карточка модели | Модель на Openrouter
@ai_for_devs
Что внутри? Во-первых, модель стала лучше во всём, что связано с программированием. На бенчмарке SWE-bench Verified она теперь топ-1, а на OSWorld — выросла с 42% до 61% точности за каких-то четыре месяца. То есть Sonnet теперь не только пишет функции, но и отлично справляется с файлами, браузером и таблицами.
Помимо модели также обновили и Claude Code: завезли чекпоинты (можно откатиться, если натворил фигни), обновили терминал, прикрутили нативное расширение для VS Code. В приложении Claude теперь можно прямо в чате генерить документы, таблицы и презентации. Плюс, появился Claude Agent SDK — по сути, тот же движок, на котором Anthropic сами клепают агентов.
Antropic заявляют, что это "most aligned model yet". Другими словами, модель у Anthropic получилось неплохо побороться с галлюцинациями, манипуляциями и прочим "магическим" поведением.
Claude Sonnet 4.5 — не только самая мощная, но и самая согласованная с безопасностью из всех наших моделей. Благодаря улучшенным возможностям Claude и обширному обучению в области безопасности нам удалось существенно улучшить его поведение: снизить податливость на лесть, склонность к обману, стремление к власти и подталкивание к иллюзиям. Для агентных функций и работы с компьютером мы также значительно усилили защиту от атак через prompt injection — одной из самых серьёзных угроз для пользователей.
Цена осталась прежней: $3 за миллион input-токенов, $15 — за output. Для разработчиков модель доступна прямо сегодня в API (claude-sonnet-4-5).
Источник | Карточка модели | Модель на Openrouter
@ai_for_devs
🔥9👍4❤3👏1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡ JetBrains встроили Claude Agent прямо в свои IDE
Claude Agent теперь живёт прямо в AI-чате IDE, а под капотом — свежевыпущенный Claude 4.5 Sonnet.
Примечательно, что это первый сторонний агент, официально встроенный в экосистему JetBrains, и он идёт в составе подписки JetBrains AI — доплат не просят. Сделан на Anthropic Agent SDK, поэтому умеет в контекст, тулы, файловые операции и даже исполнение кода. Работает через MCP: агент видит IDE как сервер инструментов, вы — просто переписываетесь в чате.
Кратко об основных возможностях:
🟣 Работа с несколькими файлами: агент показывает предложенные правки в виде диффов прямо в редакторе — удобно сравнить «до/после» и решить, принять или выкинуть.
🟣 Контроль на вашей стороне: без вашего разрешения Claude ничего не тронет — ни файл, ни консоль. Но если достаточно смелые, то можно включить Brave mode и агент пойдет заниматься своими делами без ваших апрувов
🟣 Plan mode: агент сначала опишет шаги и только потом займется реализацией.
🟣 Управление контекстом: можно подкинуть файлы, папки или даже картинки — агент станет отвечать точнее и умнее.
Источник
@ai_for_devs
Claude Agent теперь живёт прямо в AI-чате IDE, а под капотом — свежевыпущенный Claude 4.5 Sonnet.
Примечательно, что это первый сторонний агент, официально встроенный в экосистему JetBrains, и он идёт в составе подписки JetBrains AI — доплат не просят. Сделан на Anthropic Agent SDK, поэтому умеет в контекст, тулы, файловые операции и даже исполнение кода. Работает через MCP: агент видит IDE как сервер инструментов, вы — просто переписываетесь в чате.
Кратко об основных возможностях:
Источник
@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍4❤2
😇 Вышла GLM-4.6 – очередное обновление от Z.ai
Что завезли: окно контекста теперь не 128k, а 200k токенов (можно загружать целую диссертацию и ещё место останется). Кодинг стал бодрее — модель не только щёлкает бенчмарки, но и в реальных сценариях типа Claude Code и Roo Code показывает себя отлично. Плюс апгрейд по «агентности»: умнее пользуется инструментами, ищет, анализирует, делает выводы.
По тестам: GLM-4.6 обходит прошлую версию, уверенно держится против DeepSeek-V3.2-Exp и почти дотягивается до Claude Sonnet 4. Но до свежего Claude Sonnet 4.5 по коду пока не дорос — тут Anthropic всё ещё впереди. Зато по эффективности есть козырь: задачки решает примерно на 15% экономнее по токенам.
В общем, если вы искали «дешёвый claude», то вот оно. GLM-4.6 в Coding Plan стоит в 7 раз дешевле, а квоты выше в 3 раза. Апгрейд подписки автоматический, локально модель можно будет поднять через HuggingFace или ModelScope.
Источник
@ai_for_devs
Что завезли: окно контекста теперь не 128k, а 200k токенов (можно загружать целую диссертацию и ещё место останется). Кодинг стал бодрее — модель не только щёлкает бенчмарки, но и в реальных сценариях типа Claude Code и Roo Code показывает себя отлично. Плюс апгрейд по «агентности»: умнее пользуется инструментами, ищет, анализирует, делает выводы.
По тестам: GLM-4.6 обходит прошлую версию, уверенно держится против DeepSeek-V3.2-Exp и почти дотягивается до Claude Sonnet 4. Но до свежего Claude Sonnet 4.5 по коду пока не дорос — тут Anthropic всё ещё впереди. Зато по эффективности есть козырь: задачки решает примерно на 15% экономнее по токенам.
В общем, если вы искали «дешёвый claude», то вот оно. GLM-4.6 в Coding Plan стоит в 7 раз дешевле, а квоты выше в 3 раза. Апгрейд подписки автоматический, локально модель можно будет поднять через HuggingFace или ModelScope.
Источник
@ai_for_devs
🔥5👍4❤2
Команда AI for Devs подготовила перевод статьи о новом API /v1/responses от OpenAI, который объединяет простоту Chat Completions и мощь Assistants, и при этом сохраняет состояние рассуждений, мультимодальность и встроенные инструменты.
Это шаг к агентам будущего — и, похоже, к новому стандарту работы с моделями OpenAI.
📚 Подробности на Хабр: https://habr.com/ru/articles/951244/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥5❤3
На днях Cursor получил обновление. Что изменилось?
Источник
@ai_fro_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥8👏2❤1
Пока OpenAI, Anthropic и Meta меряются миллиардами параметров, IBM внезапно решила сыграть в другую игру, представив Granite-4.0 — набор маленьких, но шустрых LLM.
Вместо гигантов под сотни миллиардов параметров, IBM выкатила:
• Micro (3B) — ультралёгкий вариант, легко запуститься на ноутбуке.
• Tiny (7B/1B активных) — компактный MoE, экономит память и токены.
• Small (32B/9B активных) — самая большая из линейки, но всё равно «малышка» по сравнению с топовыми LLM.
Фишка этой линейки моделей в гибридной Mamba-архитектуре: модель отключает лишние блоки и работает быстрее, при этом сохраняя длинный контекст (до 128K). Может, именно этот «обратный ход» IBM и станет трендом: меньшее количество параметров, но больше пользы на практике?
По бенчмаркам:
Кстати, эти модели уже доступны в Continue.
Модели на Hugging Face.
@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥5❤1⚡1
⚡ Данные дороже денег: JetBrains меняет лицензии на код из реальных проектов
Крупные игроки всё яснее понимают: золото XXI века — это не нефть и не подписки, а данные. И JetBrains демонстрирует это особенно наглядно. Компания готова отказаться от быстрой прибыли и раздать лицензии бесплатно — лишь бы получить доступ к уникальному «топливу» для своих ИИ-моделей.
Большинство LLM учатся на публичных датасетах, далеких от реальных рабочих сценариев. Отсюда «галлюцинации» и ошибки на сложных проектах. JetBrains хочет исправить это и собирать настоящие сигналы — историю редактирования кода, команды терминала, запросы к ИИ и ответы.
Что придумали:
– Вместо почти $1000 за годовую корпоративную подписку All Products Pack (доступ ко всем IDE) компании смогут получить её даром.
– Цена вопроса: разрешить JetBrains собирать рабочие данные — фрагменты кода, команды терминала, историю редактирования и запросы к ИИ.
– Эти данные будут использоваться для обучения собственных языковых моделей JetBrains.
– Под сбор также попадают академические и open source-лицензии (с опцией отказаться в настройках).
– JetBrains обещает хранение в соответствии с GDPR, без доступа третьих лиц.
Фактически, JetBrains сегодня отдаёт лицензии бесплатно, чтобы завтра иметь преимущество в гонке за ИИ-инструменты.
Источник
Форма для организаций
Крупные игроки всё яснее понимают: золото XXI века — это не нефть и не подписки, а данные. И JetBrains демонстрирует это особенно наглядно. Компания готова отказаться от быстрой прибыли и раздать лицензии бесплатно — лишь бы получить доступ к уникальному «топливу» для своих ИИ-моделей.
Большинство LLM учатся на публичных датасетах, далеких от реальных рабочих сценариев. Отсюда «галлюцинации» и ошибки на сложных проектах. JetBrains хочет исправить это и собирать настоящие сигналы — историю редактирования кода, команды терминала, запросы к ИИ и ответы.
Что придумали:
– Вместо почти $1000 за годовую корпоративную подписку All Products Pack (доступ ко всем IDE) компании смогут получить её даром.
– Цена вопроса: разрешить JetBrains собирать рабочие данные — фрагменты кода, команды терминала, историю редактирования и запросы к ИИ.
– Эти данные будут использоваться для обучения собственных языковых моделей JetBrains.
– Под сбор также попадают академические и open source-лицензии (с опцией отказаться в настройках).
– JetBrains обещает хранение в соответствии с GDPR, без доступа третьих лиц.
Фактически, JetBrains сегодня отдаёт лицензии бесплатно, чтобы завтра иметь преимущество в гонке за ИИ-инструменты.
Источник
Форма для организаций
🤯11⚡8🔥5❤2👍2
ИИ-инструментов становится всё больше — от генераторов кода до дизайнеров и ассистентов для врачей. Стартапы, использующие генеративные модели, растут как грибы после дождя. Но пространство для новых идей всё ещё огромное.
Собрали 20 концептов, которые могли бы стать следующими хитовыми продуктами.
1. Приложение для камеры, которое делает снимки с iPhone в стиле Leica с помощью Nano Banana.
2. Персональный фитнес-коуч, отслеживающий каждую вашу тренировку и предлагающий улучшения.
3. Рекомендательная система, анализирующая историю браузера и формирующая ежедневный список полезных статей.
4. Чат-приложение для отслеживания питания и калорий с базой данных по продуктам.
5. Минималистичный текстовый редактор с ИИ-комментатором, который даёт обратную связь в стилистике разных “персонажей”.
6. E-book читалка, где можно выделять текст и получать объяснения или комментарии от “автора книги”.
7. Deep Research агент, способный рассуждать и искать информацию в течение нескольких дней с помощью подагентов.
8. Локальное приложение для записи экрана, которое делает семантические сводки действий за день.
9. Семантические фильтры для соцсетей — например, скрывающие посты, вызывающие негативные эмоции.
10. Агент, создающий индивидуальные учебные программы по узким темам из интернета, видео и статей.
11. Умная система рекомендаций книг, которая сначала “изучает” ваш читательский вкус и цели.
12. Семантический поиск по TikTok и Instagram Reels для нахождения нужных видео.
13. Приложение для анализа сна и восстановления на основе данных из Apple Watch, Oura и других девайсов.
14. Приложение для писателей, которое формирует список рекомендованных материалов по теме вашего текста.
15. Фото-приложение, предлагающее сотни готовых шаблонов редактирования без необходимости писать промпты.
16. Сервис для поиска видео на YouTube с похожей атмосферой и вайбом.
17. Поисковик по биографиям великих людей, который подбирает главы, релевантные вашим жизненным ситуациям.
18. Агент, анализирующий, как вы проводите время за экраном и оценивающий “полезность контента”.
19. Маркетплейс узкоспециализированных AI-агентов для конкретных задач и ниш.
20. Приложение для писателей, которое даёт “критику” от известных авторов вроде Хемингуэя.
А каких AI-инструментов не хватает вам? А может, что-то из перечисленного уже реализовано?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥7🤔4❤1