Machine learning Interview – Telegram
Machine learning Interview
33.3K subscribers
1.45K photos
111 videos
13 files
999 links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
T5Gemma 2 - новое поколение энкодер-декодерных моделей от Google

Google представила T5Gemma 2 - энкодер-декодерную архитектуру, построенную на базе идей и ряда улучшений Gemma 3. Это не просто апдейт, а полноценный шаг вперед для задач генерации, перевода, суммаризации и мультимодального понимания.

T5Gemma 2 объединяет сильные стороны классического подхода T5 (encoder-decoder) с архитектурными улучшениями Gemma нового поколения, делая модель более эффективной, масштабируемой и универсальной.

Основные особенности
- Энкодер-декодерная архитектура нового поколения
- Общие эмбеддинги для энкодера и декодера, что снижает размер модели
- Объединенное self- и cross-attention в декодере для более эффективных вычислений
- Поддержка длинного контекста до 128 000 токенов
- Мультимодальность - работа с текстом и изображениями
- Многоязычная поддержка более 140 языков

Размеры моделей
T5Gemma 2 доступна в нескольких конфигурациях:
- 270M + 270M параметров
- 1B + 1B параметров
- 4B + 4B параметров

Такие размеры позволяют использовать модель как в исследованиях, так и в продакшене, включая on-device сценарии.

Модель демонстрирует отличное понимание контекста, более стабильную генерацию и высокое качество работы с длинными последовательностями. Особенно хорошо проявляет себя в задачах суммаризации, QA, перевода и мультимодальных сценариях.

Где это полезно
- Суммаризация документов
- Машинный перевод
- Поиск и RAG-системы
- Мультимодальные ассистенты
- Обработка длинных текстов без агрессивного чанкинга

T5Gemma 2 показывает, что encoder-decoder подход по-прежнему актуален и может конкурировать с decoder-only моделями, особенно в задачах понимания и структурированной генерации.

https://blog.google/technology/developers/t5gemma-2/
13👍4🔥4
🧠 Новая работа учит модели рассуждений «думать» на крошечном символическом языке — сохранять точность, но тратить в 4-16 раз меньше токенов.

Обычные reasoning-модели вроде DeepSeek R1 хорошо решают математику, но пишут длинные цепочки «саморазмышлений», из-за чего инференс становится медленным и дорогим.

Чтобы сократить это, авторы создают язык Mentalese - каждый шаг это короткий оператор + маленькое вычисление. Они собирают ~40K математических трейсов в этом формате.

Сначала небольшие модели дообучают на этих трейсах так, что каждая задача решается одним коротким Mentalese-скриптом. Длина резко сокращается, но падает точность.

Далее применяют RL с проверяющим: модель генерирует множество кандидатов, а версификатор оценивает их правильность.

Метод Shorter Length Preference Optimization сохраняет главным вознаграждение за корректность, но добавляет небольшой бонус за более короткий правильный трейс — при этом не наказывает единственный длинный правильный ответ.

Так рождаются модели ORION, они сохраняют сильную математическую точность, но потребляют в 4–16 раз меньше reasoning-токенов, делая обучение и инференс значительно дешевле.

📌 Paper: “ORION: Teaching Language Models to Reason Efficiently in the Language of Thought”
arxiv.org/abs/2511.22891
🔥126
Реклама
АО НПК «Криптонит»
ИНН 9701115253
Erid: 2Vtzqvk26d8
😁1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️«Криптонит» объявляет Новогодний розыгрыш!

Мы подарим два эксклюзивных новогодних набора нашим подписчикам — распаковку подарков оставили в видео🖤

Что для этого нужно сделать?
🟦Подписаться на наш канал «Криптонит. Разработка, наука, шифрование» (и не отписываться)
🟦Нажать внизу на кнопку «Участвовать»

Что в новогоднем подарке?
🟦Уникальный сборник рассказов «Доказательство чуда». В него входят редкие произведения научной фантастики известных советских и российских авторов: Кира Булычёва, Ивана Ефремова, Сергея Другаля и других. Этот сборник специально создан «Криптонитом» для друзей нашего бренда
🟦Мощная портативная зарядка
🟦Снимающиеся наклейки на ноутбук с самыми нужными фразами (например, «Не деплой в пятницу»)
🟦Стильная ремувка

Результаты подведём 22 декабря в 15:00. Бот выберет победителей случайным образом.

Полные правила конкурса можно почитать тут.
#конкурс #мерч
Please open Telegram to view this post
VIEW IN TELEGRAM
😁62😭1
🚀 Google выложила разбор того, как Gemini 3 Pro стала мощной системой для визуального понимания.

Она не просто “видит”, что на изображении — она рассуждает о сцене.

📌 Ключевые примеры возможностей:
• “Дерендеринг” — превращает грязные PDF и скриншоты в чистый код
• Понимание пространственных координат — полезно для робототехники
• Анализ сложных интерфейсов и динамичных видео
• Отображение документов, экранов, пространств и реальных сцен одной моделью

💡 Самое интересное — Gemini 3 Pro может генерировать код приложений по длинным видео и даёт разработчикам настройку точности: баланс между качеством и стоимостью обработки.

Итог: это уже не распознавание картинок, а полноценная визуальная система рассуждений для агентов, роботов и инструментов разработки.

https://blog.google/technology/developers/gemini-3-pro-vision/
👏104👍2
OpenAI неоднократно переходила в режим «Code Red», сообщает Bloomberg.

«Code Red» - это внутренний режим, когда команды временно бросают второстепенные задачи и фокусируются на одном приоритете. По словам главы исследований OpenAI Марка Чена, компания уже не раз использовала этот подход.

Причина простая: большие команды легко распыляются между агентами, рекламой и исследованиями, из-за чего основной продукт - чат, теряет скорость и надёжность.

Последний «Code Red» последовал сразу после релиза Google Gemini 3.

Ответ OpenAI:
- возврат фокуса на core-stack
- снижение latency
- рост uptime
- более жёсткие eval-циклы, чтобы ловить деградации качества до пользователей

Результат:
- релиз GPT-5.2 и GPT-5.2-Codex
- переработка ChatGPT Images до 4× быстрее генерация при сохранении стабильности деталей между правками

Следующий фокус - сам training engine: алгоритмы + инфраструктура для масштабных обучений. OpenAI обсуждает инвестиции порядка 1.4 трлн долларов в инфраструктуру на горизонте 8 лет.

bloomberg.com/news/articles/2025-12-18/openai-has-declared-code-red-multiple-times-executive-says
9🤣3👍2🔥2😨2
Российские генеративные модели Kandinsky 5.0 Video Lite и Pro в международной text-to-video арене

🔘Pro версия является ТОП-1 опенсорсом в мире

🔘Lite версия (2B параметров) лучше первой версии Sora

🔘На данный момент Сбер уступает только топовым мировым бигтех компаниям: Google (Veo 3.1, Veo 3), OpenAI (Sora 2), Alibaba (Wan 2.5), KlingAI (Kling 2.5, 2.6); в паритете с Luma AI (Ray 3), MiniMax (Hailuo 2.3) — отрыв по ELO максимум 3 балла, при 95% доверительном интервале оценивания +-21 балла

🔘Для российских генеративных моделей выход на международную арену — уникальное событие

🚀 Полезные ссылки:
🔘Посмотреть весь лидерборд: lmarena
🔘Почитать подробнее про Kandinsky 5.0: пост, техрепорт
🔘Open Source Kandinsky 5.0: github и hf
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16😁9
This media is not supported in your browser
VIEW IN TELEGRAM
🖼️ EditThinker: теперь редакторы изображений могут «думать» итеративно!

Meituan добавляет в любые модели редактирования изображений способность рассуждать: модель критикует результат, уточняет инструкции и повторяет цикл, пока не получит удовлетворяющий итог. Это имитация человеческого процесса мышления - Critique → Refine → Repeat.

EditThinker учится анализировать собственные ошибки, улучшать запросы и идти по итерациям, что значительно повышает качество следования инструкциям.

https://huggingface.co/papers/2512.05965
3👍3🔥2