Яндекс показал ИИ-инструмент для автоматизации научных исследований. Команды Yandex Crowd Solutions и Центра технологий для общества Yandex Cloud создали решение, которое помогает анализировать влияние стресса на поведение.
В чем суть:
– Для медицинских и когнитивных исследований ученые изучают поведение лабораторных мышей. Все наблюдения записывают на видео.
– Ручная разметка одного 10-минутного видео занимает около часа, а для одного исследования нужно проанализировать 90 часов записей.
– В итоге на ручную расшифровку видео у научных сотрудников уходят сотни часов.
Чтобы автоматизировать расшифровку, разработчики научили ИИ самостоятельно разбирать записи и структурировать все данные. Для этого они проанализировали и разметили 8 часов видеозаписей лабораторных экспериментов, выделив ключевые действия мышей.
Система состоит из двух компонентов: первый определяет ключевые точки на теле животного, второй — распознает его действия и положение в пространстве с точностью до 89%. Авторазметка фиксирует события покадрово, поэтому она эффективнее, чем глаз человека.
На выходе ученые получают более надежные данные для исследований и экономят до 500 часов ручной работы. Анализ автоматизируется на 90%. Пока решением пользуются в Институте цитологии и генетики СО РАН, но его можно адаптировать для других организаций. Кроме того, в ближайшее время компания планирует опубликовать исходный код инструмента.
В чем суть:
– Для медицинских и когнитивных исследований ученые изучают поведение лабораторных мышей. Все наблюдения записывают на видео.
– Ручная разметка одного 10-минутного видео занимает около часа, а для одного исследования нужно проанализировать 90 часов записей.
– В итоге на ручную расшифровку видео у научных сотрудников уходят сотни часов.
Чтобы автоматизировать расшифровку, разработчики научили ИИ самостоятельно разбирать записи и структурировать все данные. Для этого они проанализировали и разметили 8 часов видеозаписей лабораторных экспериментов, выделив ключевые действия мышей.
Система состоит из двух компонентов: первый определяет ключевые точки на теле животного, второй — распознает его действия и положение в пространстве с точностью до 89%. Авторазметка фиксирует события покадрово, поэтому она эффективнее, чем глаз человека.
На выходе ученые получают более надежные данные для исследований и экономят до 500 часов ручной работы. Анализ автоматизируется на 90%. Пока решением пользуются в Институте цитологии и генетики СО РАН, но его можно адаптировать для других организаций. Кроме того, в ближайшее время компания планирует опубликовать исходный код инструмента.
🔥50❤24👍14🥱11😁8👏3🤔2🤬2
Результаты:
- Qwen3 - 1 место
- DeepSeek R1 - 6 место
Обе модели обошли несколько американских LLM.
Что именно тестируют:
вопросы не про факты, а про смысл и руководство - почему существует страдание, как формировать духовные привычки, как жить правильно. Оценку проводили пасторы, богословы, психологи и специалисты по этике.
Как работает бенчмарк:
- 807 промптов
- 7 измерений
- ответы оцениваются христианскими judge-персонами
- важны библейская опора, богословская согласованность и моральная ясность
Это проверка ценностного рассуждения, а не знаний.
Многие популярные бенчмарки неявно исходят из секулярных культурных установок, из-за чего религиозные ответы оцениваются неконсистентно.
Важная оговорка:
высокий христианский скор не означает религиозной свободы - в Китае христианская практика и онлайн-проповеди жестко регулируются.
scmp.com/tech/article/3336642/chinas-qwen-and-deepseek-edge-out-us-ai-models-christian-values-benchmark
@ai_machinelearning_big_data
#ai #ml #news
Please open Telegram to view this post
VIEW IN TELEGRAM
33😁91👍27🤣13❤8🔥7🥱4🦄4🤨2🌭1😨1
Media is too big
VIEW IN TELEGRAM
Согласно внутренним финансовым отчетам, к октябрю 2025 года «вычислительная маржа» компании достигла 70%. Этот показатель, отражающий долю выручки, остающуюся после покрытия прямых затрат на работу моделей для пользователей, удвоился с начала 2024 года - тогда он составлял лишь 35%. Такая динамика указывает на успешную оптимизацию инфраструктуры инференса, что делает платных клиентов значительно рентабельнее.
Несмотря на техническую оптимизацию, компания остается глубоко убыточной. За первую половину 2025 года чистый убыток OpenAI составил $13,5 млрд, из которых $6,7 млрд пришлось на R&D и разработку новых моделей.
Тем не менее, бизнес-показатели продолжают расти: годовая выручка преодолела отметку в $12 млрд еще в июле, а к концу года аналитики прогнозируют выход на уровень $15–20 млрд.
theinformation.com
Компания уведомила китайских партнеров о планах отгрузить первую партию H200 в середине февраля. По информации инсайдеров, Nvidia намерена использовать имеющиеся складские запасы, чтобы поставить от 40 до 80 тысяч чипов (примерно 5–10 тысяч модулей). Это реакция смягчение политики Вашингтона: экспорт флагманского железа разрешили при условии уплаты специального 25-процентного сбора.
Основным препятствием остается позиция Пекина. Правительство Китая пока не согласовало закупки H200, и без официального одобрения местных регуляторов сделка не состоится. Если же политический вопрос будет урегулирован, Nvidia планирует не ограничиваться разовой партией и открыть слоты для новых производственных заказов под китайский рынок уже во втором квартале 2026 года.
reuters.com
GLM-4.7 - обновление линейки моделей, оптимизированное для разработчиков. При размере в 358 млрд. параметров модель показала существенный прирост производительности в программировании, работе с терминалом и созданию чистого UI-кода (функция Vibe Coding). На SWE-bench Verified модель улучшила результат до 73.8%, а в тестах на сложное математическое рассуждение прирост составил более 12%.
Архитектурное новшество релиза — развитие механизмов мышления. Функция Preserved Thinking позволяет модели сохранять и переиспользовать CoT между репликами, а механизм Interleaved Thinking дает время на анализ перед каждым вызовом внешних инструментов.
GLM-4.7 уже доступна через API и на OpenRouter, а веса модели выложены на HuggingFace и ModelScope.
z.ai
Инструмент кардинально упрощает процесс оценки безопасности моделей: вместо ручного написания тестов нужно просто описать искомое поведение (сикофанство, самосохранение или склонность к саботажу). На основе этого описания, Bloom автоматически генерирует сотни уникальных сценариев, симулирует диалоги с участием виртуальных пользователей и выносит вердикт о частоте и тяжести выявленных проявлений.
Фреймворк поддерживает интеграцию с W&B для трекинга и экспорт логов в формат Inspect. Вместе с релизом кода на GitHub компания опубликовала результаты проверки 16 моделей по 4 критическим категориям безопасности.
anthropic.com
Design View - интерфейс для редактирования графики в режиме point-and-click с сохранением исходной композиции и стиля. Дизайнеры могут менять цвета объектов, корректировать глубину сцены и исправлять текст прямо на холсте. Инструмент глубоко интегрирован в экосистему Manus: поддерживается редактирование презентаций, созданных Nano Banana Pro, а также доработка UI-элементов и иконок для мобильных приложений в реальном времени.
Функция уже доступна всем пользователям сервиса.
manus.im
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42👍22🔥6😁1🦄1
Российские генеративные модели Kandinsky 5.0 Video Lite и Pro в международной text-to-video арене
🔘 Pro версия является ТОП-1 опенсорсом в мире
🔘 Lite версия (2B параметров) лучше первой версии Sora
🔘 На данный момент Сбер уступает только топовым мировым бигтех компаниям: Google (Veo 3.1, Veo 3), OpenAI (Sora 2), Alibaba (Wan 2.5), KlingAI (Kling 2.5, 2.6); в паритете с Luma AI (Ray 3), MiniMax (Hailuo 2.3) — отрыв по ELO максимум 3 балла, при 95% доверительном интервале оценивания +-21 балла
🔘 Для российских генеративных моделей выход на международную арену — уникальное событие
🚀 Полезные ссылки:
🔘 Посмотреть весь лидерборд: lmarena
🔘 Почитать подробнее про Kandinsky 5.0: пост, техрепорт
🔘 Open Source Kandinsky 5.0: github и hf
🚀 Полезные ссылки:
Please open Telegram to view this post
VIEW IN TELEGRAM
👏106🔥38🤣31❤20👍8🤬3🌚2🤨1🦄1
Детище Alibaba, которое было выпущено отдельно от команд Wan и Qwen и стоит 5 долларов за 1000 изображений на Alibaba Cloud добралась до 1 места в рейтинге Artificial Analysis Image Arena.
Это модель с 6 млрд. параметров, которая может работать на потребительском оборудовании с объемом памяти всего 16 ГБ в полной точночти, а квантованные варианты запускаются на 8 ГБ.
Z-Image Turbo дешевле всех конкурентов: FLUX.2 [dev] ($12/1 тыс. изображений), HiDream-I1-Dev ($26/1 тыс. изображений) и Qwen-Image ($20/1 тыс. изображений), доступна под открытой лицензией Apache 2.0, что позволяет использовать ее в коммерческих целях без ограничений.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41❤17🥰6🔥2😁2🙈2🦄1
Решение автоматизирует ключевые этапы разработки: ИИ-агенты берут на себя до 50% рутинных задач и генерируют до 30% кода, снижая нагрузку на ИТ-команды.
Как это работает:
- AI Product Owner формирует бизнес-требования (−30% нагрузки на продакта);
- AI Analytic декомпозирует требования в техзадачи;
- AI Developer создает до 40% нового кода и собирает версии продукта;
- AI QA-агенты описывают тесты и проводят проверки (−50% времени тестирования).
@ai_machinelearning_big_data
#AI #ML #DevTools #MTS
Please open Telegram to view this post
VIEW IN TELEGRAM
❤20👍16🥱8😁6🔥4🗿2
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini 3 Flash открывает совершенно новый способ разработки. Ее возможности и навыки программирования позволяют проводить A/B тестирование кода в реальном времени.
Например, в этом плэйграунде Gemini 3 Flash создает идеальный лоадер загрузки настолько быстро, что он вам практически не нужен.
Как только вы начинаете процесс, система предлагает код для следующей версии лоадеров и показывает метрики задержки.
Вы выбираете понравившийся вариант, и следующая версия будет основана именно на нем.
Такой подход можно использовать для любого приложения, персонального ассистента или ПО, которое должно обучаться на основе предпочтений пользователя.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥37❤10👍8👏1🦄1
🚀 Вышел QwenLong-L1.5 - модель для long-context reasoning, которая на длинных контекстах конкурирует с GPT-5 и Gemini-2.5-Pro.
Коротко о модели
- 30B параметров, из них 3B активных
- Заточена под рассуждение на очень длинных контекстах
- Полностью открыты веса, код обучения и рецепты данных
Ключевые показатели:
- +31.7 балла на OpenAI MRCR при контексте 128K - SOTA среди всех моделей
- На уровне Gemini-2.5-Pro на 6 крупных long-QA бенчмарках
- +9.69 на CorpusQA
- +6.16 на LongBench-V2
Что интересного.
1. Синтетические данные в масштабе
14.1K длинных reasoning-сэмплов из 9.2B токенов без ручной разметки.
Средняя длина - 34K токенов, максимум - 119K.
2. Стабильное RL-обучение
Используется балансировка задач и Adaptive Entropy-Controlled Policy Optimization (AEPO), что позволяет стабильно обучать модели на длинных последовательностях.
3. Архитектура с памятью
Итеративные обновления памяти за пределами окна 256K токенов.
Результат - +9.48 балла на задачах с контекстом от 1M до 4M токенов.
QwenLong-L1.5 - это один из самых сильных open-source шагов в сторону реально масштабируемого ризонинга с длинным контекстом
Модель интересна не только результатами, но и тем, что весь стек обучения открыт.
GitHub: https://github.com/Tongyi-Zhiwen/Qwen-Doc
Paper: https://modelscope.cn/papers/2512.12967
Model: https://modelscope.cn/models/iic/QwenLong-L1.5-30B-A3B
HF: https://huggingface.co/Tongyi-Zhiwen/QwenLong-L1.5-30B-A3B
@ai_machinelearning_big_data
#AI, #LLM, #opensource, #long #Owen
Коротко о модели
- 30B параметров, из них 3B активных
- Заточена под рассуждение на очень длинных контекстах
- Полностью открыты веса, код обучения и рецепты данных
Ключевые показатели:
- +31.7 балла на OpenAI MRCR при контексте 128K - SOTA среди всех моделей
- На уровне Gemini-2.5-Pro на 6 крупных long-QA бенчмарках
- +9.69 на CorpusQA
- +6.16 на LongBench-V2
Что интересного.
1. Синтетические данные в масштабе
14.1K длинных reasoning-сэмплов из 9.2B токенов без ручной разметки.
Средняя длина - 34K токенов, максимум - 119K.
2. Стабильное RL-обучение
Используется балансировка задач и Adaptive Entropy-Controlled Policy Optimization (AEPO), что позволяет стабильно обучать модели на длинных последовательностях.
3. Архитектура с памятью
Итеративные обновления памяти за пределами окна 256K токенов.
Результат - +9.48 балла на задачах с контекстом от 1M до 4M токенов.
QwenLong-L1.5 - это один из самых сильных open-source шагов в сторону реально масштабируемого ризонинга с длинным контекстом
Модель интересна не только результатами, но и тем, что весь стек обучения открыт.
GitHub: https://github.com/Tongyi-Zhiwen/Qwen-Doc
Paper: https://modelscope.cn/papers/2512.12967
Model: https://modelscope.cn/models/iic/QwenLong-L1.5-30B-A3B
HF: https://huggingface.co/Tongyi-Zhiwen/QwenLong-L1.5-30B-A3B
@ai_machinelearning_big_data
#AI, #LLM, #opensource, #long #Owen
❤49👍25🔥17🦄1
Ключевыми изменениями стали улучшенные способности в точном следовании инструкциям (Instruction Following) и tool calling.
T-Pro 2.1 (32B): модель стала значительно лучше понимать сложные требования (ответы строго в формат JSON, лимиты длины, многошаговые инструкции) и увереннее работать в агентских сценариях. Она основана на базе Qwen3-32B и отвечает без “тысяч токенов рассуждений”.
T-Lite 2.1 (8B): популярная модель после обновления стала сильнее в прикладных задачах и при этом сохранила скорость и практичность для продакшена и локального запуска.
Для улучшения Instruction Following команда разработала собственный пайплайн генерации синтетических данных на основе подхода AutoIF. На RL-стадии использовался алгоритм GRPO с комбинированной reward-функцией, которая проверяла как выполнение формальных требований через верификационные функции, так и осмысленность ответа через штраф на основе Reward Model.
Это позволило избежать классической проблемы “reward hacking”, когда модель учится подстраиваться под проверку, а не давать хорошие ответы.
Для изменений в tool calling был разработан синтетический пайплайн. Сначала генерировались реалистичные наборы инструментов, а затем — сложные многошаговые диалоги с их использованием через мультиагентную симуляцию. Для обучения на этих данных применялся RL (GRPO) с бинарным reward, проверяющим корректность вызова, и балансировкой датасета.
На локализованном русскоязычном бенчмарке IFeval T-Pro 2.1 демонстрирует результат 0.8065, значительно опережая свою версию 2.0 (0.6865), а T-Lite 2.1 показывает 0.7585. На тесте BFCL v3 (RU), оценивающем tool calling, T-Pro 2.1 набирает 65.96 баллов, что является одним из лучших показателей среди открытых моделей, а T-Lite 2.1 — 56.45. В диалоговых аренах (Arena Hard Ru, WildChat) обновленные модели также показывают существенный рост качества ответов на реальные пользовательские запросы.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤51👍19🔥11🤣9👌1🤗1🦄1
Media is too big
VIEW IN TELEGRAM
🗣 Новая линейка Qwen3-TTS: VoiceDesign и VoiceClone
Qwen представили новое поколение TTS-моделей, которые выводят управление голосом и voice cloning на новый уровень. Быстрее, выразительнее и гибче, чем раньше.
VoiceDesign-VD-Flash
Модель для полного конструирования голоса с нуля.
Что умеет:
- полный контроль речи через обычные текстовые инструкции
- управление тоном, ритмом, эмоциями и персоной
- никаких готовых голосов - ты создаешь уникальную вокальную идентичность
- превосходит GPT-4o-mini-tts и Gemini-2.5-pro в role-play бенчмарках
Подходит для:
- игровых персонажей
- виртуальных ассистентов
- сторителлинга и диалогов
- AI-персонажей с характером
VoiceClone-VC-Flash
Фокус на быстрое и качественное клонирование голоса.
Ключевые возможности:
- клонирование любого голоса всего по 3 секундам аудио
- генерация речи на 10 языках (китайский, английский, японский, испанский и другие)
- на 15% ниже WER по сравнению с ElevenLabs и GPT-4o-Audio в мультиязычных тестах
- контекстно-зависимая интонация и ритм для более естественного звучания
https://x.com/Alibaba_Qwen/status/2003445076257656880
Попробовать:
• Qwen Chat: http://chat.qwen.ai
• Блог: https://qwen.ai/blog?id=qwen3-tts-vc-voicedesign
• VoiceDesign:
http://hf.co/spaces/Qwen/Qwen3-TTS-Voice-Design
http://modelscope.cn/studios/Qwen/Qwen3-TTS-Voice-Design
• VoiceClone:
http://hf.co/spaces/Qwen/Qwen-TTS-Clone-Demo
http://modelscope.cn/studios/Qwen/Qwen-TTS-Clone-Demo
@ai_machinelearning_big_data
#AI #TTS #voicecloning
Qwen представили новое поколение TTS-моделей, которые выводят управление голосом и voice cloning на новый уровень. Быстрее, выразительнее и гибче, чем раньше.
VoiceDesign-VD-Flash
Модель для полного конструирования голоса с нуля.
Что умеет:
- полный контроль речи через обычные текстовые инструкции
- управление тоном, ритмом, эмоциями и персоной
- никаких готовых голосов - ты создаешь уникальную вокальную идентичность
- превосходит GPT-4o-mini-tts и Gemini-2.5-pro в role-play бенчмарках
Подходит для:
- игровых персонажей
- виртуальных ассистентов
- сторителлинга и диалогов
- AI-персонажей с характером
VoiceClone-VC-Flash
Фокус на быстрое и качественное клонирование голоса.
Ключевые возможности:
- клонирование любого голоса всего по 3 секундам аудио
- генерация речи на 10 языках (китайский, английский, японский, испанский и другие)
- на 15% ниже WER по сравнению с ElevenLabs и GPT-4o-Audio в мультиязычных тестах
- контекстно-зависимая интонация и ритм для более естественного звучания
https://x.com/Alibaba_Qwen/status/2003445076257656880
Попробовать:
• Qwen Chat: http://chat.qwen.ai
• Блог: https://qwen.ai/blog?id=qwen3-tts-vc-voicedesign
• VoiceDesign:
http://hf.co/spaces/Qwen/Qwen3-TTS-Voice-Design
http://modelscope.cn/studios/Qwen/Qwen3-TTS-Voice-Design
• VoiceClone:
http://hf.co/spaces/Qwen/Qwen-TTS-Clone-Demo
http://modelscope.cn/studios/Qwen/Qwen-TTS-Clone-Demo
@ai_machinelearning_big_data
#AI #TTS #voicecloning
👍55❤18🔥10🍓1🦄1
Обновился лидерборд русскоязычного бенчмарка для оценки бизнес-OCR от MWS. В лидерах – Gemini и Alice AI
Полный лидерборд лежит на GitHub. В тройке лидеров, кроме Gemini — новая визуально-языковая модель Яндекса Alice AI VLM dev, часть большой Alice AI VLM, об обучении которой компания совсем недавно рассказала в техрепорте.
Оттуда можно заимствовать подход к обучению VLM под OCR-задачи и узнать об архитектурных изменениях в VLM Яндекса.
Полный лидерборд лежит на GitHub. В тройке лидеров, кроме Gemini — новая визуально-языковая модель Яндекса Alice AI VLM dev, часть большой Alice AI VLM, об обучении которой компания совсем недавно рассказала в техрепорте.
Оттуда можно заимствовать подход к обучению VLM под OCR-задачи и узнать об архитектурных изменениях в VLM Яндекса.
🤣31❤29❤🔥9🔥9🗿4👍3🦄2
В Microsoft поставили радикальную цель - полностью убрать C и C++ из своих кодовых баз к 2030 году и заменить их Rust.
Причем делать это собираются не вручную, а с помощью ИИ и алгоритмов, на скоростях, которые раньше казались фантастикой.
Новая «North Star» метрика Microsoft звучит так:
- 1 инженер
- 1 месяц
- 1 миллион строк кода
Об этом рассказал Galen Hunt, Distinguished Engineer в Microsoft, в своем посте на LinkedIn.
В чем идея
Microsoft строит инфраструктуру, которая объединяет:
- алгоритмический анализ кода
- графы зависимостей на масштабе миллионов строк
- AI-агентов для понимания и переписывания кода
По сути, компания хочет автоматизировать массовое переписывание самых больших и старых кодовых баз.
Как это будет работать
- алгоритмы строят масштабируемый граф исходного кода
- AI-системы анализируют и изучают код
- затем эти же системы модифицируют и переписывают его
- инфраструктура уже используется для задач понимания старого кода
Почему это звучит рискованно
- переписываются десятилетиями отлаженные системы
- Rust не избавляет от логических ошибок
- массовый rewrite - один из самых опасных процессов в инженерии
- высокая скорость повышает риск регрессий
Почему Microsoft все равно идет на это:
- большая часть критических уязвимостей исторически связана с C и C++
- Rust реально сокращает классы memory-багов
- ИИ впервые делает такой масштаб переписывания кода технически возможным
Источник:
linkedin.com/posts/galenh_principal-software-engineer-coreai-microsoft-activity-7407863239289729024-WTzf/
@ai_machinelearning_big_data
#Microsoft #Rust #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
😁118👍83🤣80❤19🙈14🤔13🔥12👀3🦄2🥰1🍓1
Media is too big
VIEW IN TELEGRAM
A2UI (Agent-to-User Interface) - открытый проект Google, который стандартизирует процесс создания визуальных интерфейсов нейросетями. Инструмент позволяет агентам генерировать полноценные интерактивные элементы (формы, карточки, дашборды) в реальном времени.
Проект декларирует безопасность через абстракцию. Вместо генерации исполняемого кода, который может нести риски, агент отправляет JSON-файл, описывающий структуру. Клиентское приложение само парсит этот манифест и отрисовывает компоненты, используя собственные проверенные библиотеки.
Экосистема уже включает поддержку веб-фреймворков и Flutter (через GenUI SDK), а в дорожной карте заявлена интеграция с React, Jetpack Compose и SwiftUI.
github.com
YouTube Gaming запустила закрытое бета-тестирование сервиса Playables Builder, которое позволяет авторам создавать мини-игры на основе промптов. Система работает на базе Gemini 3: чтобы превратить идею в рабочий интерактивный проект, достаточно загрузить короткое текстовое описание, видеофрагмент или изображение.
Новый инструмент нацелен на удержание аудитории через геймификацию контента. На данный момент доступ конструктору ограничен (требуется активный канал и одобрение заявки) и допускаются только пользователи из США, Канады, Великобритании и Австралии.
Youtube Gaming в сети X
Компания представила инструмент, позволяющий взглянуть на свою активность в чат-боте за прошедший год. Функция генерирует персонализированный отчет, присваивает награды-достижения и создает тематические стихи и изображения, базируясь на содержании диалогов.
Итоги года доступны только в США, Великобритании, Канаде, Австралии и Новой Зеландии для пользователей тарифов Free, Plus и Pro. Корпоративные и образовательные аккаунты остались без поддержки этой опции.
Для получения отчета необходимо, чтобы в настройках были включены история чатов и функция памяти, а сам аккаунт должен иметь достаточный объем накопленных данных. Запустить генерацию можно вручную через баннер на главной странице или прямым запросом к боту.
forbes.com
Материнская компания Google заключила соглашение о приобретении девелопера ЦОДов Intersect Power. Это первый случай, когда бигтех не просто заключает контракты на поставку электричества, а напрямую покупает крупного ресурсного игрока. Сделка, которую планируют закрыть в первой половине 2026 года, будет полностью оплачена денежными средствами.
Стратегический смысл покупки заключается в решении проблемы энерго-дефицита для обучения и работы ИИ. Google получает возможность строить дата-центры в едином комплексе с генерирующими мощностями, что позволяет избежать использования электросетей общего пользования.
Intersect сохранит операционную независимость, хотя ряд действующих активов в Техасе и Калифорнии будут выведены в отдельную структуру и не войдут в периметр сделки.
abc.xyz
Новая версия Qwen-Image-Edit-2511 пришла на смену сборке 2509 и предлагает ряд качественных изменений. Теперь модель лучше сохраняет консистентность персонажей и общую структуру кадра при внесении локальных правок.
Помимо стабильности, усилили способности к геометрическому рассуждению и генерации промышленного дизайна. Попробовать новинку можно через веб-интерфейс Qwen Chat, а веса для локального развертывания уже на HuggingFace и ModelScope.
TongyiLab в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍66❤16🔥11🤔1
В преддверии новогодних праздников платформа подготовила набор обучающих материалов по основным направлениям ИИ:
@ai_machinelearning_big_data
#AI #ML #HuggingFace
Please open Telegram to view this post
VIEW IN TELEGRAM
👍34❤28🔥12🦄1
А что, если можно проверить свой уровень в Data Science без собеседований, звонков и HR-скрининга?
Авито вместе с getmatch сделали тест по Data Science, основанный на реальных интервью DS-специалистов компании.
Что даёт тест:
🔍 Оценка компетенций
Поймёте, какие навыки уже хорошо прокачаны, а где есть точки роста – выводы основаны на практике, а не на абстрактной теории.
⚡️ Шанс стать заметнее для рекрутеров
Можно открыть доступ к результатам теста и повысить шансы на оффер.
☑️ Подробный разбор
В течение дня на почту придёт письмо с анализом ответов и рекомендациями.
Отличная возможность спокойно проверить себя на праздниках и понять, куда двигаться дальше.
Ссылку на тест оставили здесь.
Авито вместе с getmatch сделали тест по Data Science, основанный на реальных интервью DS-специалистов компании.
Что даёт тест:
Поймёте, какие навыки уже хорошо прокачаны, а где есть точки роста – выводы основаны на практике, а не на абстрактной теории.
Можно открыть доступ к результатам теста и повысить шансы на оффер.
В течение дня на почту придёт письмо с анализом ответов и рекомендациями.
Отличная возможность спокойно проверить себя на праздниках и понять, куда двигаться дальше.
Ссылку на тест оставили здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18❤11😁2🥰1🤬1🥱1🌭1🦄1
LM Studio в коллаборации с Unsloth опубликовали подробный туториал по файнтюнингу недавно выпущенной Google модели FunctionGemma.
FunctionGemma - уменьшенная версия Gemma (всего 270Ь параметров) для агентских сценариев и работы в качестве бэкенда приложений, которую можно запускать практически на любом устройстве.
Гайд состоит из подробного описания всего процесса от обучения модели вызову инструментов до преобразования в GGUF-формат и последующего запуска его в LM Studio
Туториал подойдет для локального трейна (Unsloth работает на NVIDIA, AMD и Intel), но есть и готовый Collab Notebook для тренировки в облаке.
⚠️ FunctionGemma не предназначена для использования в качестве прямой диалоговой модели.
@ai_machinelearning_big_data
#AI #ML #LLM #Tutorial #Unsloth #LMStudio
Please open Telegram to view this post
VIEW IN TELEGRAM
❤20🔥14🥰6👍1🦄1
Media is too big
VIEW IN TELEGRAM
Если к концу года ты чувствуешь, что устал и выгорел, хочется тепла и поддержки – этот новогодний подарок для тебя.
Сбер и Самокат выпустили сладкие подарки с важным напоминанием: твой талант и желание делать свою работу круто, – большая ценность. Поэтому «Лучший наш подарочек – это ты» – не только слоган проекта, но и настоящее признание от команды Сбера.
Начните 2026 год с настоящих изменений в карьере, ведь в Сбере возможно всё! 💚
Реклама. ООО «Умный Ритейл», ОГРН 1177847261602, г. Москва. 6+, erid: 2W5zFFzPemN
Сбер и Самокат выпустили сладкие подарки с важным напоминанием: твой талант и желание делать свою работу круто, – большая ценность. Поэтому «Лучший наш подарочек – это ты» – не только слоган проекта, но и настоящее признание от команды Сбера.
Начните 2026 год с настоящих изменений в карьере, ведь в Сбере возможно всё! 💚
Реклама. ООО «Умный Ритейл», ОГРН 1177847261602, г. Москва. 6+, erid: 2W5zFFzPemN
❤17🗿11😁5👍3🔥2🥰2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
В отличие от традиционных двуруких андроидов, Midea Group спроектировала платфору исключительно под утилитарную эффективность. Шесть бионических манипуляторов работают скоординированно: нижняя пара отвечает за силовые операции и подъем тяжестей, а верхние конечности выполняют точную сборку и крепеж.
Такая архитектура позволяет роботу выполнять до 3 задач одновременно, при этом сохраняя габариты человеческого торса для интеграции в производственные линии без их переделки.
MIRO U базируется на мобильном колесном шасси с возможностью вращения на 360 градусов и вертикальным лифтом. Midea, использующая наработки своего немецкого подразделения KUKA, уже начала пилотное внедрение системы на заводе в Уси.
Инженеры рассчитывают, что шестирукий форм-фактор повысит эффективность переналадки линий на 30%, минимизируя простои при смене выпускаемых моделей.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍35🔥21❤8🤩1🤗1
Forwarded from Sber AI
This media is not supported in your browser
VIEW IN TELEGRAM
Танцевали с роботом, прокачивали ГигаЧат и собирали лучших спецов на AI Journey 🤩
Подписчики Sber AI наблюдали этот год на максимальных скоростях — весь 2025-й мы генерировали настоящее и создавали будущее.
В этом видео — наш вайб! А в канале Sber AI:
◀️ Запрыгивайте на борт!
Подписчики Sber AI наблюдали этот год на максимальных скоростях — весь 2025-й мы генерировали настоящее и создавали будущее.
В этом видео — наш вайб! А в канале Sber AI:
🤩 инсайды AI-индустрии от разработчиков Сбера
🤩 гайды и лайфхаки по нейросетям
🤩 главные события из мира искусственного интеллекта — AI Journey всё ещё можно посмотреть тут
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣20👍10❤4🔥4😁1🗿1