AI for Devs – Telegram
AI for Devs
3.6K subscribers
143 photos
45 videos
106 links
По сотрудничеству пишите в личные сообщения канала.
Download Telegram
🔥 AI и подростки: где граница между безопасностью и свободой?

OpenAI собирается по-новому выстраивать баланс между приватностью, безопасностью и свободой пользователей — и в центре внимания подростки.

Об этом написал Сэм Альтман. Он объяснил, как компания принимает непростые решения: как защитить личные данные, дать взрослым больше свободы и при этом обезопасить несовершеннолетних.

Ключевые моменты:
* Приватность как у врача: переписки с AI должны быть защищены на уровне медицинской тайны. OpenAI продвигает это на уровне политики компании.
* Фокус на подростках: безопасность важнее свободы и приватности.
* Возрастная проверка: разрабатывают систему прогнозирования возраста, при сомнении — включают детский режим.
* Жёсткие правила: ChatGPT не будет вести флирт-диалоги с подростками, обсуждать самоубийства даже в художественном контексте; при угрозе жизни — будут уведомлять родителей или власти.

AI-чат становится чем-то средним между личным дневником и психотерапевтом. Решения OpenAI могут задать стандарт для всей индустрии — от этики до регулирования.

Полный пост Сэма Альтмана

#news@ai_for_devs
👍4🤔3🔥2
💡 Ваш ИИ-ассистент — это новое поколение компиляторов

Команда AI for Devs подготовила перевод статьи о том, как ИИ меняет саму суть программирования.

Автор сравнивает LLM с компиляторами и утверждает, что роль разработчиков постепенно смещается от написания кода к управлению архитектурой и обучению ИИ.

Как думаете, это угроза или эволюция профессии?

📚 Подробности на Хабр: https://habr.com/ru/articles/948384/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥3🤔21
🦜 Grok 4 Fast — новая модель от xAI

Новая модель от xAI сочетает быстрые ответы и глубокие рассуждения, снижает стоимость токенов на 98% и впервые становится доступной всем пользователям без ограничений.

📚 Подробности на Хабр: https://habr.com/ru/articles/948878/
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍3🔥2
🫡 Еженедельный дайджест №3

Для тех, кто был слишком занят на неделе или просто пропустил некоторые посты, публикуем дайджест!

Ваш AI-ассистент уже слил ключи в облако?
Вышла GPT-5-Codex: код-ревью, рефакторинг и агентные задачи
AI и подростки: где граница между безопасностью и свободой?
Ваш ИИ-ассистент — это новое поколение компиляторов
Grok 4 Fast — новая модель от xAI

Самыми популярными комментариями этой недели стали комментарии к статье "Ваш ИИ-ассистент — это новое поколение компиляторов" от пользователей @JerryI:

Типичный американский стиль: куча buzz, громкие заявление, ничего по факту. Поставил бы минус автору (но не переводчику!)


@ai_for_devs
3👍3🔥1
😬 Поздно пить Боржоми? Stack Overflow пробует в AI

Команда AI for Devs решила написать эту статью после выхода очередного продукта от Stack Overflow, в чьём имени красуется "AI".

Когда-то платформа запрещала любой ИИ-контент, потом осторожно тестировала инструменты вроде OverflowAI и Question Assistant, а теперь явно строит стратегию вокруг искусственного интеллекта.

📚 Подробности на Хабр: https://habr.com/ru/articles/948838/
👍4🔥21😁1
🔥 Вышла Qwen3-Omni

– и это уже не «ещё один текстовый чатик», а реально универсальный зверь: понимает текст, картинки, аудио и даже видео. Причём отвечает не только в тексте, но и голосом — почти как ваш личный Jarvis

Фишка в том, что это не костыль «натянем картинки поверх текста», а изначально мультимодальная архитектура. Китайцы хвастаются, что модель держит SOTA на 32 из 36 бенчмарков по аудио и видео, и по качеству догоняет Gemini 2.5 Pro. Плюс работает с 119 языками (да, и с русским тоже), а голос может выдать на 10 языках.

Под капотом — новая схема «Thinker–Talker»: один модуль думает, другой говорит. Звучит как хороший тандем для собеседования. Плюс MoE и хитрые оптимизации, чтобы отклик был в реальном времени.

Моё мнение? Ну, Omni — это заявка на «универсальный интерфейс ко всему». Уже умеет описывать музыку, переводить речь, отвечать на вопросы по видео и даже анализировать смешанные аудиотреки. Если Alibaba не похоронит проект под собственным весом, то это реальный кандидат на статус «второго GPT-4o».

GitHub
Демо на Hugging Face
👍4🔥4🤩21
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Notion объявил о крупнейшем обновлении за всю историю — Notion 3.0

Главный герой релиза — AI-агенты, которые теперь могут выполнять реальные рабочие задачи прямо внутри вашего воркспейса.

Агент умеет почти всё то же, что и вы: создавать документы, обновлять базы данных, искать информацию по всем инструментам, собирать отчёты и выполнять многошаговые процессы. Например, его можно попросить «собрать обратную связь из Slack, почты и Notion, оформить её в таблицу и подготовить выводы» — и результат появится без вашего участия.

Особенность в том, что агента можно персонализировать: задать ему инструкции по стилю работы, правила обработки задач и даже «характер». Более того, вскоре появится возможность создавать целые команды кастомных агентов — один будет вести проектные апдейты, другой готовить онбординг для новичков, третий заниматься поддержкой.

По сути, Notion перестаёт быть просто «умным блокнотом» и превращается в универсальную рабочую платформу, где рутинные процессы берут на себя агенты. Это обещает заметно сократить время на «мелкую текучку» и оставить больше ресурса для действительно важных задач.

Подробнее читайте на Хабре: https://habr.com/ru/news/949848/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥21
😲 Почему я не верю в ИИ-агентов в 2025 году, несмотря на то, что сам их разрабатываю

Несмотря на шумиху, «автономные агенты» столкнутся с экономическими и техническими барьерами.

Почему текущий подход к архитектуре агентов не сработает и какие методы действительно приносят результат — читайте в статье.

📚 Подробности на Хабр: https://habr.com/ru/articles/950072/
👍6🔥31
🔥 Вышла Code World Model: новая модель для кодинга

Meta (признана экстремистской и запрещена в РФ) выкатила Code World Model (CWM) — LLM на 32 млрд параметров, которая не просто предсказывает следующую строчку кода, а учится понимать, как код исполняется. Впервые модель массово тренировали не только на исходниках, но и результатах выполнения Python-кода и взаимодействии с Docker-средами — по сути, научили её играть в программиста, который пишет, запускает, дебажит и фиксит баги.

Главная идея: обычные кодовые LLM знают синтаксис, но плохо понимают семантику — что реально произойдёт при запуске. CWM пытается это исправить: она симулирует исполнение кода построчно, строит «ментальную модель» переменных и состояния программы, а потом использует это при генерации. Плюс её тренировали с помощью агентных задач (модель сама исследует репозиторий, правит баги и гоняет тесты).

Обучали модель в несколько этапов:

1. Pre-training – на 8T токенов из разных источников, включая код и STEM-данные.
2. Mid-training с моделированием мира — модель обучается на данных, которые включают реальные трассировки Python-кода и агентные взаимодействия с Docker. Тут происходит основное обучение на том, как исходный код влияет на переменные в реальном времени.
3. Supervised Fine-Tuning – на 100T токенов для улучшения способности решать задачи и следовать инструкциям.
4. Обучение с подкреплением (RL) — финальный этап, где модель решает задачи из реального мира, например, багфиксинг и решение математических задач.

Результаты в сравнении с другими моделями на картинке. Модель не достигает уровня GPT-5 и Sonnet 4, но вполне уверенно обходит GPT-oss и последний R1.

Источник | Веса | GitHub
🔥5👍32
AI уже почти готов заменить бухгалтеров, инженеров и юристов — но не спешите увольнять всех.

OpenAI представил GDPval — новую систему оценки, которая измеряет, насколько хорошо ИИ справляется с реальными рабочими задачами. Вместо абстрактных тестов и синтетических задач, теперь мы можем проверить, насколько хорошо модель справится с тем, что делают люди каждый день: от разработки ПО до написания юридических документов и проектирования оборудования.

GDPval охватывает 44 профессии из 9 ключевых отраслей экономики США — от инженеров и врачей до бухгалтеров и риэлторов. Каждая задача создана реальными экспертами и включает не просто текстовый запрос, но и реальные файлы, контекст и ожидаемые результаты — будь то презентация, чертеж или медицинский план. Это первый шаг к тому, чтобы ИИ не просто «умел» отвечать на вопросы, но и действительно делал работу.

Результаты? Современные модели уже почти не уступают экспертам. Claude Opus 4.1 выиграл в эстетике и оформлении, GPT-5 — в точности и глубине знаний. А главное: модели работают в 100 раз быстрее и дешевле. Конечно, пока без человеческого контроля и итераций, но прогресс явно идёт.

Примечательно, что от GPT-4o до GPT-5 за год производительность на задачах GDPval увеличилась более чем в три раза.

Как видно из графиков, паритет с экспертами в индустрии по отдельно взятым специальностям уже очень близко. Но это только начало. GDPval пока одноразовая оценка — не учитывает обратную связь, редактирование и уточнения. В реальности работа — это не один запрос, а диалог. OpenAI уже работает над этим. Ждём ИИ, который не просто отвечает, но и развивается вместе с человеком.

Источник
Полноценное исследование
👍4🔥3🤯31
⚙️ Ollama предоставила бесплатный API для веб-поиска

Ollama официально запустила встроенную поддержку веб-поиска через REST API. Это не просто внешний плагин — это часть экосистемы: API интегрирован в Python и JavaScript SDK, а также доступен через MCP (Model Control Protocol) сервер. Цель — снизить галлюцинации и дать моделям доступ к свежим данным без ручного RAG-пайплайна.

Факты по делу:
• Поиск возвращает контент объёмом до нескольких тысяч токенов, поэтому рекомендуемое контекстное окно — минимум 32K токенов.
• Поддержка есть для любых моделей, включая open-weight, например Qwen 3 (4B) — в официальном примере как раз на нём строится простой search agent.
• Интеграция возможна через:
◦ Прямой вызов REST API
◦ Python/JS библиотеки Ollama
◦ OpenAI-совместимый endpoint (полезно для gpt-oss и подобных)
◦ MCP-сервер — для совместимости с Cline, Goose, Codex и другими инструментами.

Важный нюанс: в документации нет информации о rate limits. Неясно, сколько запросов в минуту/день разрешено, особенно для self-hosted или cloud-версий. Пока предполагаем, что лимиты мягкие — но это нужно тестировать. Как сказано в официальном блог-посте:

Ollama provides a generous free tier of web searches for individuals to use, and higher rate limits are available via Ollama’s cloud.


Если что, стоимость Ollama Cloud – 20$ в месяц, и пока что сервис находится в preview.

Блог-пост
Документация

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍32🤩1
🔥 Google выкатила обновлённые Gemini 2.5 Flash и Flash-Lite

На днях Google выкатил обновлённые версии своих моделей — Gemini 2.5 Flash и 2.5 Flash-Lite.

Что улучшили?

🟣 Flash-Lite теперь заметно умнее и экономичнее. Модель лучше выполняет сложные инструкции и системные подсказки, перестала писать лишние слова (а значит, тратит меньше токенов и работает быстрее), а ещё прокачала мультимодальные возможности — лучше распознаёт речь, понимает картинки и точнее переводит. Google заявляет, что количество выходных токенов снизили на 50%, а значит — дешевле ответы и ниже задержка.

🟣 Flash подтянули в других местах. Во-первых, модель научили эффективнее пользоваться инструментами, что особенно важно для сложных агентных сценариев. На бенчмарке SWE-Bench Verified она прыгнула с 48,9% до 54%. Во-вторых, сделали работу с включённым «thinking» более экономичной: теперь ответы такого же (а то и лучшего) качества, но с меньшими затратами токенов.

Первые отзывы уже есть: Йичао «Peak» Цзи из Manus (они делают автономных AI-агентов) сказал, что у них получилось получить +15% производительности на длинных агентных задачах, а экономичность позволила масштабироваться сильнее, чем раньше.

Обе модели пока в preview, но доступны всем и уже есть на openrouter.

Источник
Google: Gemini 2.5 Flash Lite Preview 09-2025 на openrouter
Google: Gemini 2.5 Flash Preview 09-2025 на openrouter

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥3
💅 Continue навёл марафет в VS Code

Кажется, ребята из Continue решили: хватит терпеть визуальный бардак. В версии 1.13.0 их AI-помощник для кодинга получил серьёзный апгрейд интерфейса. Теперь всё чище, логичнее и дружелюбнее.

Главные апдейты:
• Свежий минималистичный вид
• Нормальная навигация и адаптивность под любые экраны — хоть ультраширокий, хоть боковая панель ноутбука
• Селектор моделей переписали с нуля: теперь видно, какой ассистент активен, а те, что с ошибками конфигурации, не прячутся, а аккуратно подсвечиваются.

🟣 Панель настроек стала карточной и понятной: можно быстро найти, где подключить свою модель, настроить MCP-инструменты или политику контекста, не зарываясь в бесконечные скроллы.

🟣 Плюс десятки мелочей — клавиатурная навигация, аккуратные отступы, правильные состояния загрузки MCP-инструментов. Мелочи, но теперь работать реально приятнее.

Кстати, на Continue уже строится куча сторонних решений и инструментов для разработчиков. Интересно будет посмотреть, как свежий редизайн повлияет на экосистему — особенно на плагины и надстройки, которые завязаны на MCP и кастомные модели.

Источник

@ai_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥51🤩1
🔥 Вышла DeepSeek-V3.2-Exp: китайцы снова мутят что-то хитрое

DeepSeek выпустили экспериментальную модель DeepSeek-V3.2-Exp — видимо, промежуточный шаг к их следующему «монстру». Главное новшество — DeepSeek Sparse Attention: хитрый способ сделать работу трансформеров на длинных текстах быстрее и дешевле.

Если по-простому: модель учится «не тратить внимание впустую». Вместо того чтобы пересчитывать все связи между словами, она обрабатывает только важные — и при этом почти не теряет качество ответа. Бенчмарки показывают, что результат остался на уровне прошлой версии V3.1, но вычислительная эффективность заметно выросла.

Ну и да, всё это open source: можно уже потыкать на Hugging Face, запустить через vLLM или SGLang (докер-образы готовы).

Похоже, DeepSeek делает ставку на то, чтобы длинные контексты стали дешевле и быстрее. А значит — впереди, возможно, совсем другие масштабы для ИИ-агентов и RAG-систем.

Источник | Hugging Face

@ai_for_devs
👍62🔥2🤯2