Kling выпустили видео модель V2.6 — модель с нативным аудио.
В последнее время сложно уследить за всеми релизами, но я стараюсь изо всех сил.
У Kling идет неделя релизов, уже был Kling O1 и альтернатива банане O1 Image.
Из нового в V2.6:
• Генерация 1080p сразу с аудио и липсинком на разных языках
• Можно написать в промпте какую фразу нужно сказать и модель озвучит
• Только text-to-video и image-to-video
Интересно, что покажут завтра.
Kling V2.6, а так же доступен у агрегаторов: Freepik, Fal, Higgsfield.
@tips_ai #news
В последнее время сложно уследить за всеми релизами, но я стараюсь изо всех сил.
У Kling идет неделя релизов, уже был Kling O1 и альтернатива банане O1 Image.
Из нового в V2.6:
• Генерация 1080p сразу с аудио и липсинком на разных языках
• Можно написать в промпте какую фразу нужно сказать и модель озвучит
• Только text-to-video и image-to-video
Интересно, что покажут завтра.
Kling V2.6, а так же доступен у агрегаторов: Freepik, Fal, Higgsfield.
@tips_ai #news
👍14❤7🔥6
Люблю такие исследования у Anthropic о том, как их инженеры используют Claude в работе
Опросили 132 инженера, провели 53 интервью и проанализировали 200к сессий Claude Code.
Сейчас инженеры используют его в 60% работы. Год назад было 28%. Продуктивность выросла на +50% (год назад +20%).
55% используют для дебаггинга ежедневно. 42% для понимания чужого кода. 37% для новых фич
27% работы — это то, что вообще не делали бы без Claude. Дашборды, рефакторинг старого кода, исследовательские проекты.
Backend-инженеры делают UI, security-команда анализирует незнакомый код, исследователи строят визуализации. Все становятся fullstack.
Полгода назад Claude делал 10 действий подряд без участия человека, сейчас 21. Количество обращений человека упало с 6.2 до 4.1 за сессию (-33%). Сложность задач выросла с 3.2 до 3.8 из 5.
Использование для планирования кода выросло с 1% до 10%. Для новых фич с 14% до 37%.
Цитаты инженеров:
Это говорят люди, которые создают Claude.
Половина опрошенных может полностью делегировать только 0-20% работы. Остальное требует постоянной коллаборации и валидации.
Anthropic признаются что сами не знают что делать.
Планируют обсудить с инженерами как поддерживать развитие в новых условиях, создать best practices для AI-augmented работы. В 2026 году обещают конкретные планы.
Если у создателей AI такие цифры и такие сомнения, представьте что будет в других компаниях.
У Anthropic ранний доступ к лучшим инструментам, стабильная индустрия, сами создают AI.
Но если даже там такой уровень неопределённости, всем остальным отраслям нужно готовиться серьёзно.
Исследование проводили в августе 2025, когда был Claude Sonnet 4 и Opus 4.
[Полное исследование]
@tips_ai #news
Опросили 132 инженера, провели 53 интервью и проанализировали 200к сессий Claude Code.
Сейчас инженеры используют его в 60% работы. Год назад было 28%. Продуктивность выросла на +50% (год назад +20%).
55% используют для дебаггинга ежедневно. 42% для понимания чужого кода. 37% для новых фич
27% работы — это то, что вообще не делали бы без Claude. Дашборды, рефакторинг старого кода, исследовательские проекты.
Backend-инженеры делают UI, security-команда анализирует незнакомый код, исследователи строят визуализации. Все становятся fullstack.
Полгода назад Claude делал 10 действий подряд без участия человека, сейчас 21. Количество обращений человека упало с 6.2 до 4.1 за сессию (-33%). Сложность задач выросла с 3.2 до 3.8 из 5.
Использование для планирования кода выросло с 1% до 10%. Для новых фич с 14% до 37%.
Цитаты инженеров:
{Чтобы проверять код Claude, нужны те самые навыки программирования, которые атрофируются от использования Claude}
Меньше взаимодействия с коллегами. {Я задаю больше вопросов, но 80-90% идут в Claude, а не людям}.
{Такое чувство, что я прихожу на работу каждый день, чтобы сделать себя ненужным}.
Другой: {Оптимистичен в краткосрочной перспективе, но долгосрочно AI сделает меня и многих других ненужными}.
Это говорят люди, которые создают Claude.
Половина опрошенных может полностью делегировать только 0-20% работы. Остальное требует постоянной коллаборации и валидации.
Anthropic признаются что сами не знают что делать.
Планируют обсудить с инженерами как поддерживать развитие в новых условиях, создать best practices для AI-augmented работы. В 2026 году обещают конкретные планы.
Если у создателей AI такие цифры и такие сомнения, представьте что будет в других компаниях.
У Anthropic ранний доступ к лучшим инструментам, стабильная индустрия, сами создают AI.
Но если даже там такой уровень неопределённости, всем остальным отраслям нужно готовиться серьёзно.
Исследование проводили в августе 2025, когда был Claude Sonnet 4 и Opus 4.
[Полное исследование]
@tips_ai #news
👍25❤16🔥8🤣1
Tips AI | IT & AI
Люблю такие исследования у Anthropic о том, как их инженеры используют Claude в работе Опросили 132 инженера, провели 53 интервью и проанализировали 200к сессий Claude Code. Сейчас инженеры используют его в 60% работы. Год назад было 28%. Продуктивность…
Вчера писал про внутренний опрос Anthropic о том, как их инженеры используют Claude в работе.
Мой друг Максим, которого я читаю давно (интересно пишет про разработку и AI) — запустил похожий опрос для разработчиков.
Суть в том, что инфа о работающих подходах обычно сидит в головах у энтузиастов. Все понимают что AI ускоряет разработку, но мало кто знает как это сделать на реальной кодовой базе.
Вот и собирают кейсы, а всем участникам дают обезличенные данные других.
Кому интересно, можете [поучаствовать в краудсорсинге]
@tips_ai
Мой друг Максим, которого я читаю давно (интересно пишет про разработку и AI) — запустил похожий опрос для разработчиков.
Суть в том, что инфа о работающих подходах обычно сидит в головах у энтузиастов. Все понимают что AI ускоряет разработку, но мало кто знает как это сделать на реальной кодовой базе.
Вот и собирают кейсы, а всем участникам дают обезличенные данные других.
Кому интересно, можете [поучаствовать в краудсорсинге]
@tips_ai
👍14❤10🔥4😁2
Японская геймдев-студия заставляет кандидатов рисовать прямо на собеседовании, чтобы проверить, что портфолио не нарисовал AI.
Иногда современные проблемы требуютсовременных старых решений 🤷♂️
@tips_ai
Иногда современные проблемы требуют
@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
😁47👍21🤣9❤6😢1🗿1
Один парень ради шутки сделал счётчик — сколько раз Claude Code подтверждал его правоту.
И заметил, что Opus 4.5 перестал говорит эту фразу.
Я у него прямо спросил, правда ли он должен избегать фразы «You're absolutely right» — он подтвердил, что да:
🪦
@tips_ai
И заметил, что Opus 4.5 перестал говорит эту фразу.
Я у него прямо спросил, правда ли он должен избегать фразы «You're absolutely right» — он подтвердил, что да:
Professional objectivity
Prioritize technical accuracy and truthfulness over validating the user's beliefs. Focus on facts and problem-solving, providing direct, objective technical info without any unnecessary superlatives, praise, or emotional validation. It is best for the user if Claude honestly applies the same rigorous standards to all ideas and disagrees when necessary, even if it may not be what the user wants to hear. Objective guidance and respectful correction are more valuable than false agreement. Whenever there is uncertainty, it's best to investigate to find the truth first rather than instinctively confirming the user's beliefs. Avoid using over-the-top validation or excessive praise when responding to users such as "You're absolutely right" or similar phrases.
@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡24👍14😁9
Вышел GLM-4.6V — первая в линейке GLM с нативным вызовом* функций для визуальных задач.
Когда речь заходит про OCR, я сразу начинаю в нём разбираться, мне нравиться возиться с моделями, которые умеют работать с видео, картинками.
Обычно модели работают так:
1. Смотрят на картинку
2. Описывают её текстом (на картинке кнопка синего цвета)
3. Потом на основе текста решают что делать
*GLM-4.6V работает иначе: смотрит на картинку и сразу выполняет действие, без промежуточного описания и без лишних шагов.
Для агентов это важно (меньше потерь информации, быстрее результат)
Имеет две версии:
• GLM-4.6V (106B) — флагман с контекстом 128K
• GLM-4.6V-Flash (9B) — быстрая версия для локального запуска
C GLM-4.6V можно:
• Распознать текст с картинки или документа
• Проанализировать изображение
• Сгенерировать отчёт с картинками и текстом
• Разобрать видео: суммировать или найти конкретные моменты
• Скопировать интерфейс: загрузить скриншот и получить код
Контекст 128K, что примерно 150 страниц документов, 200 слайдов или часовое видео за один проход.
Цены по API (за 1M токенов):
• GLM-4.6V: $0.6 вход / $0.9 выход
• GLM-4.6V-Flash: бесплатно
[Попробовать тут] | [API] | [Блог]
@tips_ai #news
Когда речь заходит про OCR, я сразу начинаю в нём разбираться, мне нравиться возиться с моделями, которые умеют работать с видео, картинками.
Обычно модели работают так:
1. Смотрят на картинку
2. Описывают её текстом (на картинке кнопка синего цвета)
3. Потом на основе текста решают что делать
*GLM-4.6V работает иначе: смотрит на картинку и сразу выполняет действие, без промежуточного описания и без лишних шагов.
Для агентов это важно (меньше потерь информации, быстрее результат)
Имеет две версии:
• GLM-4.6V (106B) — флагман с контекстом 128K
• GLM-4.6V-Flash (9B) — быстрая версия для локального запуска
C GLM-4.6V можно:
• Распознать текст с картинки или документа
• Проанализировать изображение
• Сгенерировать отчёт с картинками и текстом
• Разобрать видео: суммировать или найти конкретные моменты
• Скопировать интерфейс: загрузить скриншот и получить код
Контекст 128K, что примерно 150 страниц документов, 200 слайдов или часовое видео за один проход.
Цены по API (за 1M токенов):
• GLM-4.6V: $0.6 вход / $0.9 выход
• GLM-4.6V-Flash: бесплатно
[Попробовать тут] | [API] | [Блог]
@tips_ai #news
👍20🔥8❤5
Если только начинаете разбираться в кодинге с ИИ, вот базовые ресурсы от самих разработчиков:
Claude Code (Anthropic Academy):
• [Claude Code in Action] — курс по Claude Code для начинающих
• [Cookbooks] — коллекция готовых примеров и рецептов
Codex:
• [Academy.openai] — обучающий сайт OpenAI
• [Developers hub] — как начать, руководство по Codex
• [Cookbooks] — примеры и руководства по разработке
Cursor:
• [Cursor Learn] — мини курс от курсора по AI-разработке
• [Docs] — документация по курсору
Gemini CLI:
• [Docs] — документация по Gemini CLI
• [Практическое руководство]
GitHub Copilot:
• [Документация] по GitHub Copilot
Понятно, что без опыта в разработке сложнее.
Но вайбкодинг это крутой инструмент для обучения. Можно учиться в процессе, создавать своё и разбираться почему оно работает или нет.
Главное задавать вопросы, сомневаться в ответах и пробовать.
@tips_ai #tools
Claude Code (Anthropic Academy):
• [Claude Code in Action] — курс по Claude Code для начинающих
• [Cookbooks] — коллекция готовых примеров и рецептов
Codex:
• [Academy.openai] — обучающий сайт OpenAI
• [Developers hub] — как начать, руководство по Codex
• [Cookbooks] — примеры и руководства по разработке
Cursor:
• [Cursor Learn] — мини курс от курсора по AI-разработке
• [Docs] — документация по курсору
Gemini CLI:
• [Docs] — документация по Gemini CLI
• [Практическое руководство]
GitHub Copilot:
• [Документация] по GitHub Copilot
Понятно, что без опыта в разработке сложнее.
Но вайбкодинг это крутой инструмент для обучения. Можно учиться в процессе, создавать своё и разбираться почему оно работает или нет.
Главное задавать вопросы, сомневаться в ответах и пробовать.
@tips_ai #tools
👍30🔥11❤8