🚀 Релиз GLM-4.6V!
• GLM-4.6V (106B) - старшая модель.
• GLM-4.6V-Flash (9B) — лёгкая, быстрая, отлично подходит для локального использования.
🔥 Что внутри:
✅ Нативный multimodal tool calling -заточена на работу с изображениями и документами.
✅ Контекст 128K - переваривает 150-страничные документы или часовые видео за один прогон
✅ Visual → Action pipeline - мультимодальные агенты: “найди эту одежду онлайн” → возвращает структурированный список покупок
✅ На 50% дешевле GLM-4.5V-— ~1$ за миллион входных токенов. (На ModelScope API можно использовать бесплатно.)
→ modelscope.cn/collections/GLM-46V-37fabc27818446
• GLM-4.6V (106B) - старшая модель.
• GLM-4.6V-Flash (9B) — лёгкая, быстрая, отлично подходит для локального использования.
🔥 Что внутри:
✅ Нативный multimodal tool calling -заточена на работу с изображениями и документами.
✅ Контекст 128K - переваривает 150-страничные документы или часовые видео за один прогон
✅ Visual → Action pipeline - мультимодальные агенты: “найди эту одежду онлайн” → возвращает структурированный список покупок
✅ На 50% дешевле GLM-4.5V-— ~1$ за миллион входных токенов. (На ModelScope API можно использовать бесплатно.)
→ modelscope.cn/collections/GLM-46V-37fabc27818446
❤7👍4🔥3
🚀 Большое обновление Qwen Code v0.2.2–v0.3.0
✨ Два ключевых обновления:
🎯 Stream JSON
•
•
• 3-уровневая архитектура адаптеров + управление сессиями
• Идеально для SDK, автоматизации и CI/CD
🌍 Полная интернационализация
• Встроенные интерфейсы EN/CN + расширяемые языковые пакеты
•
•
• Сообщество может добавлять свои локализации 🌏
🛡️ Безопасность и стабильность выросли
• Защита от переполнения памяти
• Починили кодировки Windows
• Улучшена кроссплатформенность и определение ripgrep
• Переработана авторизация и управление authType
• Стабильный CI/CD и исправленные интеграционные тесты
• Поддержка провайдера ModelScope и stream_options
• Улучшены подсказки, уведомления в терминале и логика завершения промптов
• Множество внутренних фиксов - заметно более стабильная работа 💪
https://github.com/QwenLM/qwen-code
✨ Два ключевых обновления:
🎯 Stream JSON
•
--output-format stream-json — потоковый вывод•
--input-format stream-json — структурированный ввод• 3-уровневая архитектура адаптеров + управление сессиями
• Идеально для SDK, автоматизации и CI/CD
🌍 Полная интернационализация
• Встроенные интерфейсы EN/CN + расширяемые языковые пакеты
•
/language ui zh-EN - мгновенная смена языка•
/language output English - задаём язык ответов модели• Сообщество может добавлять свои локализации 🌏
🛡️ Безопасность и стабильность выросли
• Защита от переполнения памяти
• Починили кодировки Windows
• Улучшена кроссплатформенность и определение ripgrep
• Переработана авторизация и управление authType
• Стабильный CI/CD и исправленные интеграционные тесты
• Поддержка провайдера ModelScope и stream_options
• Улучшены подсказки, уведомления в терминале и логика завершения промптов
• Множество внутренних фиксов - заметно более стабильная работа 💪
https://github.com/QwenLM/qwen-code
👍9❤6🔥5
Media is too big
VIEW IN TELEGRAM
🌪️ Game Changer: Вихри в симуляции текучей среды
Новая научная работа (Wang et al., SIGGRAPH 2025) совершила невероятный прорыв, решив одну из самых сложных проблем компьютерной графики и инженерных симуляций: долговременное и точное моделирование вихревых потоков (vorticity).
❓ В чем проблема?
Вихри - это мельчайшие водовороты, которые определяют, как ведут себя газы и жидкости (дым, вода, воздух вокруг крыла самолета).
Точное моделирование их хаотичного поведения (турбулентности) критически важно, но чрезвычайно сложно:
- Сложность визуализации: Вихри часто невидимы (например, в воздухе), что требует сложных методов трассировки (как пузырьки или дым).
- Нестабильность симуляции: В большинстве прошлых методов вихри очень быстро разрушались, искажались или, в худшем случае, приводили к «взрыву» симуляции 💥 после нескольких шагов.
💡 Гениальное решение: «Частицы с памятью»
Исследователи возродили и обновили метод Vortex-in-Cell, используя гибридный подход, который наконец-то может справиться с хаосом:
- Сетка (Grid): Используется для расчета общей скорости и давления потока.
- Частицы (Particles): Внутри этой сетки размещаются частицы, которые действуют как «погодные зонды». Они несут в себе информацию о локальной ротации (вихревом потоке).
Сохранение «Травмы»: Главная хитрость: эти частицы «помнят» все растяжения и скручивания, которым они подверглись. Это позволяет вихрям оставаться четкими и стабильными, даже когда они взаимодействуют друг с другом и распадаются на более мелкие.
📈 Главный результат
Новый метод позволяет сохранять детализацию вихрей до 30 раз дольше, чем предыдущие, и впервые обеспечивает реалистичное моделирование таких сложных сцен, как:
🐋 Движение морского ящера в воде.
🌪️ Эволюция сложных узлов вихревых колец.
🚀 Выхлопные газы от ракеты или потоки воздуха вокруг сверхзвукового самолета.
🎯 Приложения
Эта беспрецедентная точность несет огромный потенциал:
- Прогнозирование Погоды: Более четкие и надежные модели ураганов и торнадо могут спасти жизни.
- Инженерия: Проектирование более тихих реактивных двигателей и аэродинамически эффективных автомобилей.
- Компьютерная Графика: Невероятно реалистичные спецэффекты для фильмов и игр!
Источник
Новая научная работа (Wang et al., SIGGRAPH 2025) совершила невероятный прорыв, решив одну из самых сложных проблем компьютерной графики и инженерных симуляций: долговременное и точное моделирование вихревых потоков (vorticity).
❓ В чем проблема?
Вихри - это мельчайшие водовороты, которые определяют, как ведут себя газы и жидкости (дым, вода, воздух вокруг крыла самолета).
Точное моделирование их хаотичного поведения (турбулентности) критически важно, но чрезвычайно сложно:
- Сложность визуализации: Вихри часто невидимы (например, в воздухе), что требует сложных методов трассировки (как пузырьки или дым).
- Нестабильность симуляции: В большинстве прошлых методов вихри очень быстро разрушались, искажались или, в худшем случае, приводили к «взрыву» симуляции 💥 после нескольких шагов.
💡 Гениальное решение: «Частицы с памятью»
Исследователи возродили и обновили метод Vortex-in-Cell, используя гибридный подход, который наконец-то может справиться с хаосом:
- Сетка (Grid): Используется для расчета общей скорости и давления потока.
- Частицы (Particles): Внутри этой сетки размещаются частицы, которые действуют как «погодные зонды». Они несут в себе информацию о локальной ротации (вихревом потоке).
Сохранение «Травмы»: Главная хитрость: эти частицы «помнят» все растяжения и скручивания, которым они подверглись. Это позволяет вихрям оставаться четкими и стабильными, даже когда они взаимодействуют друг с другом и распадаются на более мелкие.
📈 Главный результат
Новый метод позволяет сохранять детализацию вихрей до 30 раз дольше, чем предыдущие, и впервые обеспечивает реалистичное моделирование таких сложных сцен, как:
🐋 Движение морского ящера в воде.
🌪️ Эволюция сложных узлов вихревых колец.
🚀 Выхлопные газы от ракеты или потоки воздуха вокруг сверхзвукового самолета.
🎯 Приложения
Эта беспрецедентная точность несет огромный потенциал:
- Прогнозирование Погоды: Более четкие и надежные модели ураганов и торнадо могут спасти жизни.
- Инженерия: Проектирование более тихих реактивных двигателей и аэродинамически эффективных автомобилей.
- Компьютерная Графика: Невероятно реалистичные спецэффекты для фильмов и игр!
Источник
❤11🔥6👍2
🚀 Вышел Qwen-Image-i2L от DiffSynth-Studio - первый open-source инструмент, который умеет делать LoRA-модель из одной картинки. 🖼️➡️🧠
Что можно извлекать из изображения:
🎨 Style — только стиль и эстетика
🧩 Coarse — стиль + содержание сцены
✨ Fine — улучшение детализации 1024×1024 (используется вместе с Coarse)
⚖️ Bias — подстройка под фирменный визуальный почерк Qwen-Image
Модель построена на SigLIP2 + DINOv3 + Qwen-VL.
Итог — можно взять одну картинку и быстро натренировать под неё собственную LoRA, без больших датасетов.
🔗 ModelScope: modelscope.cn/models/DiffSynth-Studio/Qwen-Image-i2L/summary
💻 Код: github.com/modelscope/DiffSynth-Studio/blob/main/examples/qwen_image/model_inference_low_vram/Qwen-Image-i2L.py
Что можно извлекать из изображения:
🎨 Style — только стиль и эстетика
🧩 Coarse — стиль + содержание сцены
✨ Fine — улучшение детализации 1024×1024 (используется вместе с Coarse)
⚖️ Bias — подстройка под фирменный визуальный почерк Qwen-Image
Модель построена на SigLIP2 + DINOv3 + Qwen-VL.
Итог — можно взять одну картинку и быстро натренировать под неё собственную LoRA, без больших датасетов.
🔗 ModelScope: modelscope.cn/models/DiffSynth-Studio/Qwen-Image-i2L/summary
💻 Код: github.com/modelscope/DiffSynth-Studio/blob/main/examples/qwen_image/model_inference_low_vram/Qwen-Image-i2L.py
🔥16❤4👍4😢1
⚡️ Новый пост Andrej Karpathy : автоматическая оценка десятилетних обсуждений Hacker News с позиции «задним числом»
Он взял все 930 материалов и обсуждений с главной страницы Hacker News за декабрь 2015 года и прогнал их через GPT 5.1 Thinking API, попросив модель определить самые дальновидные и самые ошибочные комментарии.
Примерно 3 часа ушло на написание кода и ещё час и ~$60 - на запуск.
Почему это важно:
1. Анализ «задним числом»- мощный инструмент для тренировки собственного навыка прогнозирования. Чтение таких выводов помогает лучше понимать, где именно люди предугадывали будущее, а где промахивались.
2. Стоит задуматься, как будет выглядеть мир, когда будущие LLM смогут делать такие исследования намного дешевле, быстрее и точнее. Любой ваш комментарий в интернете может стать объектом глубокого анализа - бесплатно и в огромном масштабе. Как автор писал ранее: «будьте хорошими, будущие LLM за вами наблюдают».
🎉 Топ-10 аккаунтов: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth и johncolanduoni - GPT 5.1 Thinking признал их комментарии самыми точными и дальновидными в декабре 2015 года.
🔗 Полные материалы:
- Подробный разбор: karpathy.bearblog.dev/auto-grade-hn/
- Репозиторий проекта: github.com/karpathy/hn-time-capsule
- Готовые результаты: karpathy.ai/hncapsule/
@data_analysis_ml
Он взял все 930 материалов и обсуждений с главной страницы Hacker News за декабрь 2015 года и прогнал их через GPT 5.1 Thinking API, попросив модель определить самые дальновидные и самые ошибочные комментарии.
Примерно 3 часа ушло на написание кода и ещё час и ~$60 - на запуск.
Почему это важно:
1. Анализ «задним числом»- мощный инструмент для тренировки собственного навыка прогнозирования. Чтение таких выводов помогает лучше понимать, где именно люди предугадывали будущее, а где промахивались.
2. Стоит задуматься, как будет выглядеть мир, когда будущие LLM смогут делать такие исследования намного дешевле, быстрее и точнее. Любой ваш комментарий в интернете может стать объектом глубокого анализа - бесплатно и в огромном масштабе. Как автор писал ранее: «будьте хорошими, будущие LLM за вами наблюдают».
🎉 Топ-10 аккаунтов: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth и johncolanduoni - GPT 5.1 Thinking признал их комментарии самыми точными и дальновидными в декабре 2015 года.
🔗 Полные материалы:
- Подробный разбор: karpathy.bearblog.dev/auto-grade-hn/
- Репозиторий проекта: github.com/karpathy/hn-time-capsule
- Готовые результаты: karpathy.ai/hncapsule/
@data_analysis_ml
🔥13❤9👍6
🚀 Авито и getmatch запустили открытый тест для оценки уровня для DS-специалистов
Проект использует систему, на которой Авито проводит реальные интервью — с теми же принципами, форматами вопросов и логикой оценки 🧩
Что внутри:
📊 Определение уровня
Тест анализирует ответы и показывает предполагаемый грейд — от junior до senior — на основе компетенций и практических кейсов.
🧠 Разбор навыков
Даёт подсказки, какие области «проседают» и что стоит подтянуть, чтобы двигаться вверх по уровню.
💸 Ориентиры по рынку
Параллельно можно посмотреть, какие вилки сейчас встречаются у специалистов похожего уровня — это встроено через калькулятор getmatch.
Интересен сам формат: попытка собрать единый срез навыков и рыночных данных, но без собеседований, звонков и классического HR-скрининга.
➡️ Проверить свой уровень
Проект использует систему, на которой Авито проводит реальные интервью — с теми же принципами, форматами вопросов и логикой оценки 🧩
Что внутри:
📊 Определение уровня
Тест анализирует ответы и показывает предполагаемый грейд — от junior до senior — на основе компетенций и практических кейсов.
🧠 Разбор навыков
Даёт подсказки, какие области «проседают» и что стоит подтянуть, чтобы двигаться вверх по уровню.
💸 Ориентиры по рынку
Параллельно можно посмотреть, какие вилки сейчас встречаются у специалистов похожего уровня — это встроено через калькулятор getmatch.
Интересен сам формат: попытка собрать единый срез навыков и рыночных данных, но без собеседований, звонков и классического HR-скрининга.
➡️ Проверить свой уровень
❤11🔥2👍1🥴1
📘 Новая фундаментальная работа (65 страниц) от Stanford, Princeton, Harvard, University of Washington и других топ-университетов: впервые предлагается полная таксономия того, как современные агентные AI-системы адаптируются.
Главная идея:
Почти все сложные AI-агенты можно описать через всего 4 базовые типа адаптации - два связаны с обновлением самого агента, два других - с обновлением инструментов, которыми агент пользуется.
Что такое агентный AI:
Это большие модели, которые могут:
- вызывать инструменты,
- использовать память,
- выполнять задачи в несколько шагов.
Что такое адаптация:
Любое изменение агента или его инструментов на основе обратной связи, от проверки кода до человеческих оценок.
4 вида адаптации:
A1 - Agent Adaptation from Tool Execution
Агент обновляется на основе того, что произошло при вызове инструментов: код запустился или упал, поиск что-то нашёл или нет.
A2 — Agent Adaptation from Output Evaluation
Агент обновляется по оценкам качества своих итоговых действий: человеческим фидбеком, автопроверками ответов, качеством планов.
T1 - Tool Adaptation Independent of Agent
Инструменты обучаются отдельно, а агент остаётся “замороженным”. Например, заранее тренированный retriever или кодовый поисковик.
T2 - Tool Adaptation from Agent Signals
Агент остаётся фиксированным, но инструменты подстраиваются под его поведение — какие документы действительно помогли, какие подсказки улучшили выполнение задачи.
Почему это важно:
- Работа впервые системно упорядочивает методики адаптации агентных систем.
- Помогает понять компромиссы: стоимость обучения, гибкость, переносимость, модульные обновления.
- Показывает историю развития методов A1, A2 и T2, как они усложнялись и какие сигналы начали использовать.
Взгляд сводится к двум осям:
- можно менять агента,
- можно менять инструменты,
- а данные и фидбек служат топливом для обеих стратегий.
Эта таксономия помогает увидеть связи между десятками современных работ и понять, куда движутся агентные архитектуры нового поколения.
https://github.com/pat-jj/Awesome-Adaptation-of-Agentic-AI/blob/main/paper.pdf
Главная идея:
Почти все сложные AI-агенты можно описать через всего 4 базовые типа адаптации - два связаны с обновлением самого агента, два других - с обновлением инструментов, которыми агент пользуется.
Что такое агентный AI:
Это большие модели, которые могут:
- вызывать инструменты,
- использовать память,
- выполнять задачи в несколько шагов.
Что такое адаптация:
Любое изменение агента или его инструментов на основе обратной связи, от проверки кода до человеческих оценок.
4 вида адаптации:
A1 - Agent Adaptation from Tool Execution
Агент обновляется на основе того, что произошло при вызове инструментов: код запустился или упал, поиск что-то нашёл или нет.
A2 — Agent Adaptation from Output Evaluation
Агент обновляется по оценкам качества своих итоговых действий: человеческим фидбеком, автопроверками ответов, качеством планов.
T1 - Tool Adaptation Independent of Agent
Инструменты обучаются отдельно, а агент остаётся “замороженным”. Например, заранее тренированный retriever или кодовый поисковик.
T2 - Tool Adaptation from Agent Signals
Агент остаётся фиксированным, но инструменты подстраиваются под его поведение — какие документы действительно помогли, какие подсказки улучшили выполнение задачи.
Почему это важно:
- Работа впервые системно упорядочивает методики адаптации агентных систем.
- Помогает понять компромиссы: стоимость обучения, гибкость, переносимость, модульные обновления.
- Показывает историю развития методов A1, A2 и T2, как они усложнялись и какие сигналы начали использовать.
Взгляд сводится к двум осям:
- можно менять агента,
- можно менять инструменты,
- а данные и фидбек служат топливом для обеих стратегий.
Эта таксономия помогает увидеть связи между десятками современных работ и понять, куда движутся агентные архитектуры нового поколения.
https://github.com/pat-jj/Awesome-Adaptation-of-Agentic-AI/blob/main/paper.pdf
❤3👍2🔥2
🚀 OpenAI официально запускает GPT-5.2!
Новая линейка моделей - Instant, Thinking и Pro - начинает раскатываться для пользователей Plus, Pro, Business и Enterprise. Завтра доступ получат Free и Go. Модели уже доступны и в API, включая режим Codex.
🧠 GPT-5.2 Thinking
Модель для сложной профессиональной работы.
— Sota результаты в рассуждении
— Существенный прогресс в создании и анализе таблиц
— Первые значимые улучшения в создании презентаций
На бенчмарке GDPval - тесте «зрелой» офисной работы для 44 профессий - это первая модель, достигшая уровня эксперта-человека.
⚡ GPT-5.2 Instant
Ориентирована на повседневную работу и обучение.
— Такой же разговорный стиль, как у 5.1
— Более чёткие объяснения темы
— Улучшенные пошаговые инструкции
— Сильное техническое письмо и перевод
🔬 GPT-5.2 Pro
Самая мощная модель для сложных вопросов.
— Лучшие результаты в программировании
— Лучшая модель для учёных и исследовательских команд
GPT-5.1 останется доступной платным пользователям ещё три месяца в статусе legacy.
https://openai.com/index/introducing-gpt-5-2/
@data_analysis_ml
Новая линейка моделей - Instant, Thinking и Pro - начинает раскатываться для пользователей Plus, Pro, Business и Enterprise. Завтра доступ получат Free и Go. Модели уже доступны и в API, включая режим Codex.
🧠 GPT-5.2 Thinking
Модель для сложной профессиональной работы.
— Sota результаты в рассуждении
— Существенный прогресс в создании и анализе таблиц
— Первые значимые улучшения в создании презентаций
На бенчмарке GDPval - тесте «зрелой» офисной работы для 44 профессий - это первая модель, достигшая уровня эксперта-человека.
⚡ GPT-5.2 Instant
Ориентирована на повседневную работу и обучение.
— Такой же разговорный стиль, как у 5.1
— Более чёткие объяснения темы
— Улучшенные пошаговые инструкции
— Сильное техническое письмо и перевод
🔬 GPT-5.2 Pro
Самая мощная модель для сложных вопросов.
— Лучшие результаты в программировании
— Лучшая модель для учёных и исследовательских команд
GPT-5.1 останется доступной платным пользователям ещё три месяца в статусе legacy.
https://openai.com/index/introducing-gpt-5-2/
@data_analysis_ml
❤7🔥6👍2🥱1🥴1