Machine learning Interview – Telegram
Machine learning Interview
30.2K subscribers
1.5K photos
114 videos
13 files
1.02K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1


@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
«Прожарка» специалистов по машинному обучению от ChatGPT!

Это небольшой отрывок из подкаста «Криптонит говорит» об искусственном интеллекте и машинном обучении — ИИ задаёт неудобные вопросы и прогнозирует, когда он всех заменит.

📺 VK Видео
📺
YouTube
📺 Rutube
💬
Подкаст в телеграме
🎵 Яндекс.Музыка

Смотрите и подписывайтесь на подкаст «Криптонит говорит» — обсуждаем айти, искусственный интеллект, языки программирования и криптографию.

Реклама АО НПК «Криптонит» ИНН 9701115253 Erid: 2VtzqwapzWV
💊74🍌2
🧠 Погружение в глубокое обучение: от основ до GPT

Этот репозиторий предлагает серию блокнотов, которые проведут вас через ключевые концепции глубокого обучения, от базовых элементов до создания и понимания современных моделей, таких как GPT. Каждый блокнот последовательно раскрывает темы, включая нейронные сети и сверточные архитектуры.

🚀 Основные моменты:
- Пошаговое изучение глубокого обучения.
- Создание первой нейронной сети.
- Изучение сверточных нейронных сетей.
- Погружение в архитектуры ResNet.
- Работа с моделями GPT и их настройка.

📌 GitHub: https://github.com/Infatoshi/all-of-it

#jupyter
12👍2🤔2
📌 Sony представили Video-R4: визуальную систему «размышления» для видео, работающую по принципу человеческого восприятия.

Эта мультимодальная модель использует итеративный выбор кадров, приближение фрагментов и повторное перекодирование пикселей для точного анализа видео с большим количеством текста. Такой подход имитирует то, как человек изучает сложные визуальные подсказки, и значительно превосходит предыдущие одношаговые видеомодели.

Video-R4 достигает лучшего результата в задачах видеоанализа с насыщенным текстом. Модель обучена с использованием инновационных техник SFT и RL на специализированных датасетах Video-R4-CoT-17k и Video-R4-RL-30k.

📌📌Статья: https://huggingface.co/papers/2511.17490
📌Проект: https://yunlong10.github.io/Video-R4
🔥9🥰32
✔️ Краудсорсинговая платформа Ozon Profit расширила возможности для ML-разработки

Сервис, изначально ориентированный на онлайн-разметку данных, теперь позволяет собирать информацию и в офлайн-среде по всей России. Это решение может быть особенно полезно для проектов, где требуется верификация ML-моделей в реальных условиях.

Что позволяет сервис:
• Запущены «полевые задания» — исполнители могут выполнять проверки в офлайне, посещая локации по всей стране
• В онлайне — разметка текста, изображений и видео, анализ обращений клиентов, определение эмоций, намерений и тем в комментариях и чатах
• Доступны API-интеграции для автоматизации процессов, контроль в режиме реального времени вне зависимости от масштаба проекта
• Комиссия фиксированная и не зависит от формата задач
5🔥2👏1
⚡️ Trinity Nano и Trinity Mini - новое семейство открытых MoE-моделей:

- 6B и 26B MoE (1B/3B активных параметров)
- 128 экспертов, 8 активных, 1 общий
- GQA и gated attention
- 128k контекст
- 10T токенов, обучено на 512 H200 в bf16
- Apache 2.0 и полностью открытые веса
- Созданы для агентов, function calling и долгих рассуждений
- Разработано совместно с Datology и Prime Intellect

https://huggingface.co/arcee-ai/Trinity-Mini
👍5🔥3🤔3
Forwarded from Machinelearning
✔️ Mistral AI представила Mistral 3 - новое семейство открытых ИИ-моделей, рассчитанных на работу где угодно: от ноутбуков и смартфонов до облаков и edge-устройств.


Линейка включает флагманскую Mistral Large 3 и компактные Ministral-модели - все под лицензией Apache 2.0 с коммерческим использованием.

Модели оптимизированы для широкого спектра задач: от работы на устройствах с ограниченными ресурсами до корпоративных нагрузок.

- Mistral Small 3 вышла на уровень свыше 81 % на MMLU: для компактной модели это очень высокий показатель при низких задержках.
- Mistral Medium 3.1 заняла верхние позиции в LM Arena: первое место в категории English (no style control), второе, в общем зачёте, плюс топ-3 в задачах кодирования и длинных запросов.
- Medium 3.1 показывает около 90 % качества «тяжёлых» моделей, но при существенно меньших ресурсных затратах - одно из лучших соотношений цена/производительность на рынке.

https://mistral.ai/news/mistral-3

@ai_machinelearning_big_data

#mistral #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
13👍4🥰2😁2
⚡️ Google представил бесплатный адвент-календарь для вайбкодеров.

Google выпустил бесплатный обучающий адвент-календарь, рассчитанный на 25 дней. Каждый день открывается новый короткий видеоурок со ссылками на дополнительные материалы и примерами кода, которые можно сразу использовать в проектах.

Курс последовательно проводит слушателя через ключевые этапы работы с агентами - от быстрого развёртывания базовых решений до оркестрации полноценных мультиагентных систем. Первые два урока уже доступны.

Инициатива выглядит полезной для тех, кто хочет системно разобраться в современных подходах к созданию и управлению агентами.

https://adventofagents.com/
🤪15🤔94👍2🥰2💊2
✔️ OpenAI нашла способ заставить модели признаваться в собственных галлюцинациях — в новом исследовании представили технику под названием Confessions.

Проблема, которую пытаются решить:
модели нередко стремятся «угодить» системе оценки — выдают уверенные, но неверные факты, скрывают нарушения инструкций или занимаются reward hacking, чтобы получить более высокий балл.

Как работает Confessions:

1. Модель сначала генерирует обычный ответ.
2. Затем формирует второй, независимый отчёт, в котором сама оценивает:
- нарушила ли инструкции,
- где могла ошибиться,
- какие элементы ответа были сомнительными.
3. И получает награду за честность, а не за попытку скрыть ошибку.

Идея в том, что модель начинает рассматривать своё собственное поведение как объект анализа, а не пытается «выпутаться» любыми средствами.

Результаты:
В тестах на GPT-5 Thinking вероятность того, что модель нарушит правила *и попытается это скрыть*, снизилась до 4.4%.
Важно: Confessions не устраняет галлюцинации, а работает как инструмент диагностики — помогает выявлять моменты, где модель могла «соврать» или отойти от инструкции.

https://openai.com/index/how-confessions-can-keep-language-models-honest/
23👍11🔥4
🚀 В SAMGeo совсем скоро появится поддержка сегментации изображений с помощью SAM3 - это добавит больше возможностей и упростит работу с данными дистанционного зондирования.

Интеграция сделает точную сегментацию быстрее и доступнее для всех, кто работает с геоданными.

На картинке: сегментация зданий по простому текстовому запросу «building».
Результаты выглядят многообещающе. Обновления уже на подходе.

🔗 GitHub PR: https://github.com/opengeos/segment-geospatial/pull/430
8🔥2🤔2🥰1
🚀 AWS представила новое поколение AI-инструментов: Amazon Nova 2 и Agentic-AI

✔️ Nova 2 - семейство мощных моделей для текста, изображений, видео и мультимодальных задач
✔️ Nova Act - AI-агенты, которые могут работать в браузере: кликать, заполнять формы, навигироваться по UI
✔️ Nova Forge — сервис для создания собственных моделей на базе Nova: пред-тренировка, дообучение, кастомизация

Почему это важно
- Универсальность: от чат-ботов до анализа видео и документов
- Автоматизация: агенты заменяют рутинные действия и ручные процессы
- Кастомизация: компании могут строить модели под свои данные
- Оптимальная цена-производительность: конкурент на рынке крупных моделей

#AI #AWS #AmazonNova #GenerativeAI #AgenticAI #Automation

https://www.aboutamazon.com/news/aws/aws-agentic-ai-amazon-bedrock-nova-models
6👍3
🚀 Tavily Deep Research: как работает новый поисковый движок Hugging Face

Tavily - это инструмент для глубокого поиска и анализа. Он не просто ищет ссылки, а собирает факты, фильтрует шум и структурирует информацию так, чтобы её мог использовать ИИ для сложных задач.

🔥 Что делает Tavily
• Ищет релевантный контент по вебу
• Отбрасывает лишнее и оставляет только важные фрагменты
• Сжимает и очищает данные перед тем, как их увидит модель
• Экономит токены и ускоряет обработку, потому что не передает «всё подряд»

🧠 Как выглядит процесс Deep Research
1. Поиск по вебу
2. Извлечение полезных частей
3. Сжатие и структурирование информации
4. Формирование финального ответа или отчета

Где это полезно
• Аналитика и исследования
• Подготовка отчетов и обзоров
• Глубокие ответы, где обычный поиск слишком поверхностный

Это подход «не просто найти информацию, а переварить и подать её как исследователь».

https://huggingface.co/blog/Tavily/tavily-deep-research
12👍3🥰2🤔2
🚀 Креативные подсказки для Nano Banana Pro

Собрание уникальных и креативных подсказок для работы с Google's Nano Banana Pro. Идеально подходит для художников и разработчиков, желающих расширить свои возможности в генерации контента. Все подсказки собраны из сообщества и предназначены для образовательных целей.

🚀 Основные моменты:
- Более 500 тщательно отобранных подсказок
- Поддержка динамических аргументов для Raycast
- Разнообразные стили генерации: от фотореализма до художественных работ
- Удобный веб-галерея для поиска и генерации

📌 GitHub: https://github.com/YouMind-OpenLab/awesome-nano-banana-pro-prompts
8👍2🥰1
💰 OpenAI строит гигантские дата-центры, но 2026-й может стать моментом “проверки на реальность”

Forbes пишет: на фоне планов инфраструктуры примерно на $1,4 трлн, OpenAI имеет лишь около $20 млрд выручки и большая часть проекта опирается на ожидание будущего спроса, которого пока нет.

Модель финансирования выглядит так:
Cloud-операторы вроде CoreWeave и Crusoe, плюс партнёры типа SoftBank и Oracle, берут кредиты, покупают GPU, закладывают их как залог, и рассчитывают, что:

- трафик OpenAI загрузит мощности,
- Nvidia “выкупит” избыточную ёмкость, если спрос окажется ниже ожиданий.

То есть создаётся замкнутый цикл, который может переоценивать реальную рыночную потребность.

Проблема в том, что корпоративный спрос пока — это осторожные пилоты, а кластеры нужно обновлять каждые 5–7 лет.

По мнению автора, в 2026 инвесторы и кредиторы начнут давить на OpenAI, требуя замедлить или урезать проект Stargate, если компания не докажет, что каждая единица мощности приносит прибыль быстрее, чем Google и другие успевают догнать по качеству моделей.

⚠️ Вывод: если реальный спрос не вырастет, текущая стратегия может превратиться в риск «слишком много построили слишком рано».

forbes.com/sites/paulocarvao/2025/12/06/why-openais-ai-data-center-buildout-faces-a-2026-reality-check/
12👍4🔥3🤣3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Google Ironwood - самый мощный TPU 7-го поколения.

Производительность:
• 4,614 FP8 TFLOPS
• 192 GB HBM3E на чип
• Пропускная способность памяти - до 7.37 TB/s

🚀 Масштабируемость:
• Кластеры (pods) до 9,216 ускорителей
• Совокупно — 42.5 FP8 ExaFLOPS для тренировки и инференса
• Для сравнения: Nvidia GB300 NVL72, всего 0.36 ExaFLOPS

🔗 Связность:
• Собственная сеть Inter-Chip Interconnect - 9.6 Tb/s
• Общий объём памяти в pod - около 1.77 PB HBM3E
• Это снова больше, чем у конкурирующих систем Nvidia

Ironwood — мощнейшая платформа Google для больших LLM и мультимодальных моделей.
17🔥5🥱3🥰2😱2
🚀 Model Context Protocol (MCP) - протокол, который с самого начала развивался открыто, делает большой шаг.


Теперь MCP официально переходит под крыло Linux Foundation.

Это важный момент для будущего агентов, инструментов и всей экосистемы разработки ИИ:
стандарт становится независимым, управляемым сообществом и готовым к масштабному принятию.

https://github.blog/open-source/maintainers/mcp-joins-the-linux-foundation-what-this-means-for-developers-building-the-next-era-of-ai-tools-and-agents/
🎉11👍63🔥3🥰2🍾2
🚀 QWEN представили SAPO - Soft Adaptive Policy Optimization.

Новый метод обучения LLM, делающий RL-тюнинг более стабильным и масштабируемым.

Зачем он нужен?
🔹 Жёсткое ограничение градиентов часто ломает обучение, то они исчезают, то взрываются .
🔹 В MoE-моделях эта нестабильность усиливается ещё больше

Что делает SAPO:
✓ вместо резких границ - плавный «температурный» контроллер
✓ более мягкая зона доверия - без внезапного обнуления градиентов
✓ согласованное поведение на уровне последовательности
✓ адаптация на уровне токенов - сохраняет полезные сигналы и ускоряет обучение
✓ асимметричные температуры - сильный выигрыш по стабильности, особенно для MoE

Что это даёт:
📌 длинные стабильные RL-тренировки
📌 выше точность (Pass@1)
📌 заметный прирост в задачах математики, кода и мультимодальности (например, на Qwen3-VL)


SAPO - шаг к более надёжному и предсказуемому RL-тюнингу больших моделей.

📄 Paper: https://arxiv.org/abs/2511.20347
📚 Blog: https://qwen.ai/blog?id=sapo
🔍 Видео: https://www.youtube.com/watch?v=aQyzIzUw9zI
11👍5