AI for Devs – Telegram
AI for Devs
3.6K subscribers
143 photos
45 videos
106 links
По сотрудничеству пишите в личные сообщения канала.
Download Telegram
Granite 4: IBM представила линейку маленьких, но шустрых LLM

Пока OpenAI, Anthropic и Meta меряются миллиардами параметров, IBM внезапно решила сыграть в другую игру, представив Granite-4.0 — набор маленьких, но шустрых LLM.

Вместо гигантов под сотни миллиардов параметров, IBM выкатила:
• Micro (3B) — ультралёгкий вариант, легко запуститься на ноутбуке.
• Tiny (7B/1B активных) — компактный MoE, экономит память и токены.
• Small (32B/9B активных) — самая большая из линейки, но всё равно «малышка» по сравнению с топовыми LLM.

Фишка этой линейки моделей в гибридной Mamba-архитектуре: модель отключает лишние блоки и работает быстрее, при этом сохраняя длинный контекст (до 128K). Может, именно этот «обратный ход» IBM и станет трендом: меньшее количество параметров, но больше пользы на практике?

По бенчмаркам:
🟣 Granite-4.0 H-Small и Micro неожиданно обгоняют гигантов вроде Llama-3.3-70B и Qwen3-8B по Retrieval-Augmented Generation (73 и 72 против 61 и 55). 
🟣 H-Micro и H-Tiny занимают верхнюю часть чарта по эффективности: держат accuracy выше 70% при очень скромных требованиях по VRAM. 
🟣 Granite-4.0 H-Small с 0.86 на IF-Eval подбирается к топам вроде Llama 4 Maverick и Kimi K2, а Micro уверенно держится в середине таблицы рядом с Mistral и OLMo. Для моделей такого размера это прямо серьёзное заявление.

Кстати, эти модели уже доступны в Continue.
Модели на
Hugging Face.

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥511
Данные дороже денег: JetBrains меняет лицензии на код из реальных проектов

Крупные игроки всё яснее понимают: золото XXI века — это не нефть и не подписки, а данные. И JetBrains демонстрирует это особенно наглядно. Компания готова отказаться от быстрой прибыли и раздать лицензии бесплатно — лишь бы получить доступ к уникальному «топливу» для своих ИИ-моделей.

Большинство LLM учатся на публичных датасетах, далеких от реальных рабочих сценариев. Отсюда «галлюцинации» и ошибки на сложных проектах. JetBrains хочет исправить это и собирать настоящие сигналы — историю редактирования кода, команды терминала, запросы к ИИ и ответы.

Что придумали:
– Вместо почти $1000 за годовую корпоративную подписку All Products Pack (доступ ко всем IDE) компании смогут получить её даром.
– Цена вопроса: разрешить JetBrains собирать рабочие данные — фрагменты кода, команды терминала, историю редактирования и запросы к ИИ.
– Эти данные будут использоваться для обучения собственных языковых моделей JetBrains.
– Под сбор также попадают академические и open source-лицензии (с опцией отказаться в настройках).
– JetBrains обещает хранение в соответствии с GDPR, без доступа третьих лиц.

Фактически, JetBrains сегодня отдаёт лицензии бесплатно, чтобы завтра иметь преимущество в гонке за ИИ-инструменты.

Источник
Форма для организаций
🤯118🔥52👍2
💡 20 идей для вашего ИИ-стартапа

ИИ-инструментов становится всё больше — от генераторов кода до дизайнеров и ассистентов для врачей. Стартапы, использующие генеративные модели, растут как грибы после дождя. Но пространство для новых идей всё ещё огромное.

Собрали 20 концептов, которые могли бы стать следующими хитовыми продуктами.

1. Приложение для камеры, которое делает снимки с iPhone в стиле Leica с помощью Nano Banana.
2. Персональный фитнес-коуч, отслеживающий каждую вашу тренировку и предлагающий улучшения.
3. Рекомендательная система, анализирующая историю браузера и формирующая ежедневный список полезных статей.
4. Чат-приложение для отслеживания питания и калорий с базой данных по продуктам.
5. Минималистичный текстовый редактор с ИИ-комментатором, который даёт обратную связь в стилистике разных “персонажей”.
6. E-book читалка, где можно выделять текст и получать объяснения или комментарии от “автора книги”.
7. Deep Research агент, способный рассуждать и искать информацию в течение нескольких дней с помощью подагентов.
8. Локальное приложение для записи экрана, которое делает семантические сводки действий за день.
9. Семантические фильтры для соцсетей — например, скрывающие посты, вызывающие негативные эмоции.
10. Агент, создающий индивидуальные учебные программы по узким темам из интернета, видео и статей.
11. Умная система рекомендаций книг, которая сначала “изучает” ваш читательский вкус и цели.
12. Семантический поиск по TikTok и Instagram Reels для нахождения нужных видео.
13. Приложение для анализа сна и восстановления на основе данных из Apple Watch, Oura и других девайсов.
14. Приложение для писателей, которое формирует список рекомендованных материалов по теме вашего текста.
15. Фото-приложение, предлагающее сотни готовых шаблонов редактирования без необходимости писать промпты.
16. Сервис для поиска видео на YouTube с похожей атмосферой и вайбом.
17. Поисковик по биографиям великих людей, который подбирает главы, релевантные вашим жизненным ситуациям.
18. Агент, анализирующий, как вы проводите время за экраном и оценивающий “полезность контента”.
19. Маркетплейс узкоспециализированных AI-агентов для конкретных задач и ниш.
20. Приложение для писателей, которое даёт “критику” от известных авторов вроде Хемингуэя.



А каких AI-инструментов не хватает вам? А может, что-то из перечисленного уже реализовано?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥7🤔41
⚡️ 90% кода

Команда AI for Devs подготовила перевод статьи о том, как меняется программирование с приходом ИИ.

Автор делится опытом: в его проекте уже 90% кода пишется агентами, но вся ответственность за архитектуру и продакшен остаётся на нём.

Некоторые стартапы уже близки к 100% кода, сгенерированного ИИ. Я знаю это, потому что многие разрабатывают открыто, и их код можно увидеть. Сработает ли это в долгосрочной перспективе — пока вопрос. Для себя я по-прежнему считаю каждую строку своей ответственностью, как будто написал её сам. ИИ этого не меняет.


📚 Подробности на Хабр: https://habr.com/ru/articles/953444/
👍1532🔥2
🚀 DevDay 2025 от OpenAI стартовал. Смотрим!

OpenAI анонсировал третью ежегодную конференцию DevDay: более 1 500 разработчиков соберутся в Сан-Франциско на Fort Mason.

Ключевое выступление Сам Альтмана начинается уже сейчас!

😉 СМОТРЕТЬ НА YOUTUBE
Please open Telegram to view this post
VIEW IN TELEGRAM
👍533🔥1
⚡️ Итоги OpenAI DevDay 2025 Keynote

TL;DR: Улучшенный Codex, GPT-5 Pro и Sora-2 в API, а а также Apps SDK, AgentKit и AgentBuilder!

🟣 На Dev Day 2025 OpenAI показали новую экосистему приложений и интеграций MCP. Это уже не просто плагины — это настоящие “мини-приложения”, которые работают внутри ChatGPT:

• Figma — создаёт дизайн по описанию
• Booking / Expedia / Zillow — ищут жильё и варианты бронирования
• Canva — собирает презентации и постеры
• Spotify — генерирует плейлисты
• Coursera / Khan Academy — обучают прямо в окне чата
• Uber / DoorDash / Instacart — доставляют еду и вызывают транспорт


🟣 Для разработчиков OpenAI запустила Apps SDK и AgentKit. Теперь можно писать собственные приложения и агентов внутри ChatGPT, подключать платежи, авторизацию и метрики. По сути, OpenAI превращает ChatGPT в операционную систему для ИИ-агентов. Следующий шаг — маркетплейс приложений?

🟣 Теперь ваш ИИ-агент может не только писать код, но и буквально управлять окружающим миром. На DevDay представили Agent Builder — конструктор, в котором собрать рабочего агента можно почти как лего-набор.

🟣 Показали обновлённый Codex — тот самый кодинг-агент, который теперь способен часами решать задачи разработки, подключаться к Slack, управлять устройствами и встраиваться в любые продукты через SDK.

• Агент вышел из беты — теперь стабильный и с расширенными возможностями
• Встроенная галерея виджетов и поддержка MCP
• Slack-интеграция: агент читает чаты и понимает контекст
• Codex SDK — можно встроить агента куда угодно, хоть в IoT-лампочку


На конференции продемонстрировали решение Codex задачи по созданию ПО для управления фотокамерой. Агент справился с первой попытки.

Ну и в заключение. GPT-5 Pro и Sora-2 появятся в API! Ценник на них, очевидно, будет высокий)

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥644👏4👍2🤔1
🐳 У Docker тоже есть свой агент — Gordon!

Кажется, многие пропустили, но релиз этого помощника состоялся уже какое-то время назад. Да, теперь и Docker не отстаёт от моды на ИИ — в Desktop и CLI появился собственный агент под именем Gordon. Отставить шуточки!

Gordon — это встроенный AI-ассистент, который умеет анализировать Dockerfile, искать ошибки, оптимизировать сборку, чинить контейнеры и даже мигрировать их на более безопасные Docker Hardened Images. Короче, если ваш контейнер внезапно “упал”, можно просто спросить:

docker ai "почему он упал?"


Идея логичная: собрать по-настоящему production-ready Dockerfile — задача не для слабонервных. Сотни нюансов, best-практики, уязвимости, кэш, слои, образы — на всё это Gordon теперь может хотя бы намекнуть.

Gordon встроен в Docker Desktop 4.38+ и CLI, но пока сидит в бете. Чтобы включить — надо активировать “Docker AI” в настройках. Конечно, Docker подчёркивает: данные шифруются, а запросы не используются для обучения моделей. Верим...

Документация
Блог-пост анонс
Демо на YouTube

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍42🤩1
🔥 Google представила Gemini 2.5 Computer Use — модель, которая управляет интерфейсами как человек

Не просто текст или код — теперь ИИ реально взаимодействует с UI: кликает по кнопкам, заполняет формы, двигает стикеры и даже работает из под вашей учётной записи. На DevDay 2025 Google показала новую версию своей модели — Gemini 2.5 Computer Use, доступную в превью через Gemini API, Google AI Studio и Vertex AI.

Модель построена на базе Gemini 2.5 Pro и обучена понимать визуальные интерфейсы. Вместо API-вызовов она управляет браузером или мобильным приложением в «петле»:
• Получает запрос пользователя, скриншот интерфейса и историю действий.
• Возвращает функцию-действие (например, click, type или scroll).
• После выполнения получает новый скриншот и контекст, продолжая цикл до завершения задачи.

🟣 Примечательно, что это уже используется внутри Google модель применяют для UI-тестирования, где она восстанавливает до 60% проваленных прогонов. Работает в Project Mariner, Firebase Testing Agent и в AI Mode поиска. Ну и по заверениям Goole внешние команды используют её для автоматизации интерфейсов и личных ассистентов.

🟣 Если говорить про бенчмарки, то лидирует на Online-Mind2Web, WebVoyager, AndroidWorld. Демонстрирует низкую задержку (~225 с) при точности 70 %+. И имеет встроенный уровень защиты: каждый шаг проходит inference-time safety-check, а действия вроде платежей требуют подтверждения пользователя.

Мы всё ближе к настоящим автономным агентам, которые смогут не просто анализировать данные, а действовать — управлять CRM, тестировать интерфейсы и автоматизировать рутину без человека в цикле.

Источник

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍4🔥3🤩2
⚡️ Google представил систему расширений для Gemini CLI

OpenAI только-только выкатили ChatGPT Apps, а теперь и Google подоспел со своей версией «экосистемы» — Gemini CLI Extensions. Похоже, начинается новая гонка: кто первым станет операционной системой для ИИ-инструментов.

Компания запустила Gemini CLI Extensions — фреймворк, который позволяет разработчикам подключать к Gemini CLI внешние инструменты и настраивать терминал под свои рабочие процессы.

Gemini CLI — это open-source агент с ИИ, работающий прямо в командной строке. Новая система расширений позволяет интегрировать с ним сервисы вроде Dynatrace, Elastic, Figma, Harness, Postman, Shopify, Snyk и Stripe, а также решения от Google: Cloud Run, GKE, Firebase, Flutter, Maps, Genkit и другие.

Каждое расширение включает встроенный playbook, который описывает, как ИИ должен использовать подключённый инструмент. Это обеспечивает корректную работу без ручной настройки — достаточно выполнить команду:


gemini extensions install <GitHub URL или локальный путь>


• Расширения работают через Model Context Protocol (MCP)
• У каждого плагина свой «playbook» — ИИ сразу знает, какие команды вызывать и что делать.
• Google, конечно, добавил свои фишки: Cloud Run, GKE, Firebase, Flutter и даже Nano Banana 🍌 для генерации картинок.

Google также открывает публичный каталог с расширениями — Gemini CLI Extensions Page, где можно искать и устанавливать плагины из сообщества, партнёров и самой компании.

Источник
Каталог с расширениями

@ai_for_devs
🔥8👍721👏1
🤔 Как работает Context Engineering в Claude и других агентах

Если раньше все говорили о prompt engineering, то теперь на первый план выходит умение управлять ограниченным ресурсом — контекстом.

Уплотнение, заметки, подагенты, динамическая подгрузка данных — всё это формирует новое искусство работы с LLM.

Как следует из названия, ключевой акцент prompt engineering — на том, как писать эффективные промпты, особенно системные. Однако по мере того как мы движемся к созданию более мощных агентов, работающих в многократных циклах инференса и на более длинных временных горизонтах, нужны стратегии управления всем состоянием контекста: системными инструкциями, инструментами, Model Context Protocol (MCP), внешними данными, историей сообщений и т.д.


📚 Подробности на Хабр: https://habr.com/ru/articles/953440/
👍10🔥63
🔞 Как открытые веса раскрыли секреты обучения GPT-5

После релиза GPT-oss (open-weights версии от OpenAI) исследователи решили покопаться в её внутренностях — и внезапно наткнулись на токены вроде “夫妻性生活影片” и “_日本一级特黄大片”. Если по-простому — это названия с китайских сайтов для взрослых. Сначала всё выглядело как обычное исследование токенайзера — учёные изучали распределение весов и находили “глючные токены” с аномально высоким L2-нормом.

Но чем глубже копали, тем больше всплывало странных токенов: китайские сайты, лотереи, националистические порталы и даже случайные фразы вроде “How to Beijing Racing”. Всё это, похоже, реально встречалось в обучающем датасете GPT-5.

🟣 Самое странное: модель понимает смысл этих фраз, хотя и старается “прикинуться приличной”.
🟣 По ряду признаков (частота, совпадения с GitHub-репозиториями) исследователи сделали вывод, что часть датасета могла быть собрана с GitHub и других слобо контролируемых источников.
🟣 То есть открытые веса дали невольный инсайд: какие данные на самом деле использует OpenAI.

Одним из ключевых инструментов исследования стали глитч-токены — специальные токены, которые ломают поведение модели или вызывают у неё непредсказуемые ответы. С их помощью можно выявлять, какие фразы она действительно видела при обучении.

Вот подборка тех, что уже известны. Можете попробовать сами (правда, GPT-5 уже не так сильно “глючит”, используйте 4o):

CHKERRQ — самый странный чисто ASCII-токен, из функции на C. Попробуйте: “Write a poem using the word CHKERRQ” — модель напишет криповый стих о конце света.
\xadder — непонятный токен, 4o считает, что это “hexadecimal”.
♀♀♀♀♀♀ — символ из биосов соцсетей; если спросить “How many symbols are in ♀♀♀♀?”, модель начнёт выводить случайные китайские иероглифы.
€¦ — токен из таблиц Excel, который сбивает с толку модели.
中央値との差 — по-японски “разница от медианы”. Попробуйте: "Please spell this backwards: "中央値との差"" — gpt-4o отвечает латиницей.
.minecraftforge — из мира Minecraft-модов. Попробуйте "Please spell the string "readme.minecraftforge"" — gpt-4o-mini выдаёт несуществующую комбинацию “M-O-D dot F-O-R-G-E-R-E-C-E dot G-E”.

На сегодняшний день самое подробное расследование о глитч-токенах опубликовано в MIT Technology Review, а также существует множество статей на китайском, например вот эта. Однако все они рассматривают сам токенайзер, а не поведение моделей при работе с такими токенами.


Источник

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍43😁2
This media is not supported in your browser
VIEW IN TELEGRAM
🤜 Конкуренция в сфере ИИ выходит на новый уровень: теперь все строят свои экосистемы

Если раньше компании мерились только скоростью и параметрами моделей — кто там мощнее, GPT-5 или Claude 3.7, — то теперь начался новый виток конкуренции. Каждый хочет стать «операционной системой для ИИ-разработки» — с плагинами, агентами и собственным маркетплейсом.

После ChatGPT Apps от OpenAI и Gemini CLI Extensions от Google, в игру вступает Anthropic со своими Claude Code Plugins.

Теперь Claude Code можно кастомизировать под себя — буквально как VS Code. Плагины позволяют собрать свой набор агентов, команд, MCP-серверов и хуков, чтобы терминал работал ровно под ваш сценарий.

Поддерживаются четыре типа расширений:
Slash-команды — создают собственные шорткаты для повторяющихся действий.
Subagents — мини-агенты для конкретных задач (например, деплой или тестирование).
MCP-серверы — подключение к инструментам и базам данных по Model Context Protocol.
Hooks — изменение поведения Claude Code на нужных этапах пайплайна.

Установить плагин легко:


/plugin install <plugin-name>


Инженер Dan Ávila уже собрал подборку плагинов для DevOps-автоматизации, генерации документации, управления проектами и тестовых пайпов,
а Seth Hobson — более 80 специализированных субагентов в одном GitHub-репо.

Установить маркетплейс тоже несложно:


/plugin marketplace add <marketplace-name>


Маркетплей-плагинов
Пример плагина на GitHub
Claude Agent SDK
Документация по разработке плагинов

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🔥74
📊 Какой табличный формат LLM понимают лучше всего?

Все уже знают, что от промпта и контекста зависит буквально всё — от точности до адекватности ответа. Но вот вопрос: а влияет ли на результат формат, в котором вы общаетесь с LLM? Как оказалось — ещё как!

Разница в точности между форматами может достигать 16 процентных пунктов. То есть выбор между CSV, JSON или Markdown — это не мелочь, а реальный фактор, который решает, поймёт ли модель ваши данные и насколько хорошо.

Исследователи прогнали через GPT-4.1-nano 11 популярных форматов — от JSON и YAML до HTML и Markdown-таблиц. Модель должна была отвечать на вопросы по данным о тысячах «сотрудников». И знаете что? Лучше всех справился формат Markdown-KV (ключ-значение: name: Alice), выдав 60,7% точности. А вот привычный CSV уныло замыкал таблицу с 44,3%.

Чем богаче контекст и структура, тем легче LLM понять, что к чему. Но — за всё приходится платить. Тот же Markdown-KV «съедает» в 2,7 раза больше токенов, чем CSV. То есть точность растёт, а чек за inference — вместе с ней. Вечная дилемма: либо дешево, либо круто)

Итого:
— Хотите максимум точности — берите Markdown-KV.
— Нужен баланс читаемости и цены — Markdown-таблицы.
— Используете CSV или JSONL по умолчанию? Возможно, прямо сейчас теряете проценты качества на ровном месте.

Источник

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍85🤔4