Machine learning Interview – Telegram
Machine learning Interview
30.4K subscribers
1.54K photos
117 videos
13 files
1.04K links
Разбираем вопросы с собеседований по Machine Learning, Data Science, Deep Learning и Нейронным сетям, Python.

Вопросы - @notxxx1

@itchannels_telegram -🔥лучшие it каналы

РКН: clck.ru/3FmwRz
Download Telegram
⚡️ Anthropic закрыли своё самое сложное тестовое задание.
Причина - Claude сделал его лучше любого кандидата.


Разбор этого задания показал важную вещь:
оно проверяло не алгоритмы, а инженерное мышление уровня системной оптимизации.

Что это было за задание

Кандидатам нужно было оптимизировать алгоритм под «виртуальный ускоритель» - симуляцию специализированного AI-чипа.

Особенности задачи:
- медленная основная память (DRAM)
- маленькая, но быстрая локальная память (scratchpad)
- параллельное выполнение инструкций (VLIW)
- векторные операции (SIMD)

По сути - оптимизация под архитектуру уровня TPU.

Что проверялось на самом деле

Не знание Python.

А умение:
- минимизировать обращения к памяти
- правильно управлять данными
- распараллеливать вычисления
- мыслить throughput-ом, а не строками кода

Лучшие решения давали ускорение до 65×.

Claude справился с задачей за пару часов и показал результат выше большинства кандидатов.

Это сигнал:

AI уже способен:
- оптимизировать низкоуровневые системы
- понимать архитектурные ограничения
- находить инженерные решения, а не просто генерировать код

Рынок меняется.

AI уже:
- пишет код
- оптимизирует алгоритмы
- ускоряет системы

Теперь ценность разработчика смещается:

не написать код,
а спроектировать систему, ограничения и архитектуру.

Потому что оптимизацию всё чаще делает AI.

https://www.ikot.blog/anthropic-take-home-for-dummies
21👍5😁4🥰2
🐋 По сообщениям, DeepSeek обучал свою новую модель на новейших чипах NVIDIA Blackwell, несмотря на то, что их поставки в Китай запрещены экспортными ограничениями США.

По словам высокопоставленного американского чиновника, эти ускорители, вероятно, были собраны в кластер в дата-центре во Внутренней Монголии. Также предполагается, что DeepSeek может попытаться скрыть технические следы их использования, что вызывает новые опасения в области национальной безопасности и соблюдения санкций.

https://www.reuters.com/world/china/chinas-deepseek-trained-ai-model-nvidias-best-chip-despite-us-ban-official-says-2026-02-24/
🤣16👍75🔥3😁1
Папа Римский призвал священников не использовать ChatGPT для написания проповедей.

На встрече с духовенством Римской епархии Папа Лев XIV предупредил об «искушении» перекладывать подготовку проповедей на искусственный интеллект.

По его словам, если человек перестаёт тренировать собственное мышление, оно постепенно «атрофируется».

Он подчеркнул, что ИИ никогда не сможет по-настоящему проповедовать веру.

Понтифик также отметил, что христианство - это не формальное произнесение молитв, а живые отношения с Богом.
😁38👍106🤩4💯2
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Джеффри Хинтон: ИИ может обогнать людей в математике

Хинтон считает, что математика - это «закрытая система», а значит ИИ может работать с ней как с игрой с понятными правилами.

Модели уже умеют:

• ставить себе задачи
• проверять собственные доказательства
• учиться на своих же ошибках — без примеров от людей

«Я думаю, что ИИ станет гораздо лучше людей в математике - возможно, уже в ближайшие 10 лет».


💡 Если это случится, ИИ сможет не просто решать задачи, а открывать новые теоремы и методы, двигая науку еще быстрее, чем раньше.
🐳12😁118🕊6🔥5🥰1🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Sakana AI представили два исследования - Text-to-LoRA и Doc-to-LoRA, которые делают кастомизацию LLM быстрее и значительно проще.

Идея в том, чтобы модели могли мгновенно адаптироваться к новым задачам или информации — без долгого fine-tuning, сложных пайплайнов и огромных промптов.

Сегодня у LLM есть проблема:
чтобы обучить модель под новую задачу или добавить знания, обычно требуется:
- дорогое и длительное дообучение
- context distillation
- или длинные, затратные по памяти промпты

Sakana AI предложили другой подход.

Они обучили гиперсеть (Hypernetwork), которая генерирует LoRA-адаптеры «на лету».
Теперь вместо сложного процесса оптимизации достаточно одного forward-pass, чтобы:
- адаптировать модель под новую задачу
- или «встроить» в неё новый документ

Что показывают эксперименты:

Text-to-LoRA
- модель специализируется под новую задачу
- достаточно текстового описания на естественном языке

Doc-to-LoRA
- модель может «внутренне запомнить» длинный документ
- показывает почти идеальную точность на задачах, где текст в 5 раз длиннее контекстного окна
- способна переносить визуальные знания из vision-language модели в текстовую LLM

При этом обе технологии работают с задержкой меньше секунды.

Главное значение работы — снижение порога кастомизации.
Вместо сложного ML-процесса пользователь сможет специализировать модель простым текстовым запросом.

Код и исследования уже открыты для сообщества:

Doc-to-LoRA
Paper: https://arxiv.org/abs/2602.15902
Code: https://github.com/SakanaAI/Doc-to-LoRA

Text-to-LoRA
Paper: https://arxiv.org/abs/2506.06105
Code: https://github.com/SakanaAI/Text-to-LoRA

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
10🔥5🥰5
📌 Tencent выпустил новую open-source модель WeDLM-8B-Instruct :

WeDLM-8B-Instruct: модель на ~8 млрд параметров, настроенная для диалогов и выполнения команд. Работает быстрее многих авто-регрессионных моделей и хорошо подходит для практических задач.

🚀 Плюсы
- параллельная генерация — меньше задержек
- поддержка KV-кэша и современных оптимизаций
- в ряде задач быстрее аналогов (до 3–6× на бенчмарках)

📊 Производительность
Модель показывает уверенные результаты на бенчмарках по логике, коду и знаниям, опережая базовые версии в своём классе.

📌 Характеристики
- 8B параметров
- контекст до 32 768 токенов
- лицензия Apache-2.0

🔧 Как начать
Можно запускать через собственный движок WeDLM или через стандартный Transformers API.

👉 Подходит тем, кто хочет быстро и локально развернуть мощную LLM.

Ссылка: https://huggingface.co/tencent/WeDLM-8B-Instruct
👍9
ByteDance выпустила новую open-source модель для генерации изображений.

По первым отзывам, она показывает результаты лучше, чем Qwen-Image и Z-Image.

Главная особенность — модель работает в autoregressive-режиме.
Это означает, что изображение создаётся поэтапно, как текст в LLM, а не одним «шумовым» проходом, как в диффузионных моделях.

Такой подход даёт:
- лучшее понимание сцены и объектов
- более логичную композицию
- стабильность персонажей и деталей
- более «осмысленную» генерацию

Похожий принцип уже используют современные системы вроде GPT-Image и других новых генераторов.

GitHub: https://github.com/shallowdream204/BitDance
👍95
Как развернуть приватную LLM в Kubernetes

Selectel приглашает на вебинар, где покажут, весь путь до готового интерфейса, настройки мониторинга, распределенных моделей, интеграции и даже автоматизации инфраструктуры.

📅 12 марта, 12:00
📍Онлайн
👥Для DevOps и SRE-инженеров, Архитекторов и менеджеров ИТ-инфраструктуры.

👉Смотрите полную программу и регистрируйтесь: https://slc.tl/ak8d6

Чтобы не пропустить вебинар и узнавать о других событиях и бесплатных курсах Selectel, подписывайтесь на @selectel_events

Реклама. АО "Селектел". erid:2W5zFGuQF4d
🔥4👍3
📌 Microsoft Research и Salesforce показали проблему, о которой редко говорят: диалог резко снижает надёжность LLM.

В исследовании протестировали 15 топ-моделей (GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, o3, DeepSeek R1, Llama 4) на 200 000+ симулированных разговоров.

Результат:
- Один запрос → ~90% качества
- Многотуровый диалог → ~65%

Важно: дело не в «умности» модели. Способность решать задачи снизилась всего на ~15%.
Главная проблема — надёжность: количество ошибок и сбоев выросло на 112%.

Почему диалог ломает модели:
- Модель начинает отвечать до того, как вы дали полный контекст
- Первое неверное предположение закрепляется и тянется дальше
- Теряется часть информации из середины разговора
- Длинные ответы добавляют новые допущения → растёт вероятность ошибок

Что не помогает:
- reasoning-модели (o3, DeepSeek R1)
- больше «thinking tokens»
- температура = 0

Практический вывод:
Если нужна стабильность, давайте весь контекст, требования и ограничения одним сообщением, а не через длинную переписку.

Большинство бенчмарков тестирует single-turn в идеальных условиях.
В реальных диалогах надёжность падает у всех моделей и это критично для AI-агентов и продакшена.

https://arxiv.org/abs/2505.06120
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍81
Forwarded from Machinelearning
🌟 GUI-Libra: фреймворк обучения VLM-агентов задачам управления интерфейсами.

Microsoft, UIUC и UNC-Chapel Hill разработали систему дообучения VL-моделей для автономного управления графическими интерфейсами.

Авторы обнаружили 2 системных изъяна в существующих пайплайнах обучения GUI-агентов:

Cтандартный SFT с длинными CoT ухудшает визуальную локализацию (чем длиннее рассуждение, тем хуже модель попадает в нужный элемент интерфейса).

Пошаговое RLVR-обучение нестабильно, потому что GUI-среда частично верифицируема. На каждом шаге существует несколько корректных действий, но датасет фиксирует только одно. Как результат - за альтернативные, но правильные действия модель получает штраф.


🟡 Для решения первой проблемы предложили Action-Aware SFT

Метод смешивает данные с рассуждениями и без них, а затем перевзвешивает токены: action- и grounding-токены получают больший вес в лосс-функции, чем токены рассуждений. Это позволяет сохранить способность к CoT, не жертвуя точностью клика.

🟡Для второй - Conservative RL на базе GRPO с двумя дополнениями.

KL-регуляризация ограничивает дрейф политики относительно референсной модели, что улучшает корреляцию между офлайн- и онлайн-метриками. Success-Adaptive Negative Gradient Scaling динамически снижает вес отрицательных градиентов в зависимости от доли успешных действий в группе GRPO-сэмплов. Это защищает от штрафования валидных, но не задокументированных действий.

🟡Для трейна собрали датасет GUI-Libra-81K.

Он содержит больше токенов на рассуждение: в среднем 210 на шаг против 85 у AGUVIS Stage 2 L3 и 0 у большинства остальных.

Внутри - существующие открытые наборы, к которым GPT-4.1 дописывал подробные ризонинг-трассы. Фильтровали в два этапа: отсев шагов с точностью воспроизведения ниже 0.3 через Qwen3-VL-8B и верификация координат через bounding-box от Qwen3-VL-32B.

🟡Результаты

Тестовая GUI-Libra-3B улучшила базовую Qwen2.5-VL-3B на +15.6% по Pass@1 на AndroidControl-v2 и с 3.5 до 25.2 на AndroidWorld.

GUI-Libra-4B/8B на AndroidWorld выбила 42.6 (это столько же, сколько GPT-4o + UGround при использовании двух отдельных VLM-модулей.

Веса всех моделей размерностью 3, 4, 7 и 8 млрд. параметров, целевой датасет и код обучения выложены в открытый доступ.


📌Лицензирование: Apache 2.0 License.


🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🟡Набор датасетов
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #VLM #GUILibra #Microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍3🔥3
⚡️ Liquid AI представила LFM2.5-1.2B-Thinking - компактную reasoning-модель на 1.17 млрд параметров, которая работает менее чем на 900 МБ RAM и примерно в 2 раза быстрее сопоставимых моделей.

Модель ориентирована на небольшие устройства и edge-сценарии:

• конкурентные результаты на reasoning-бенчмарках
• подходит для агентных систем
• умеет оркестрировать инструменты
• извлекает данные
• запускает локальные workflow без облачных вычислений

Это ещё один шаг к тому, чтобы умные агенты жили прямо на устройстве - быстро, автономно и без зависимости от cloud-API.

https://www.liquid.ai/blog/lfm2-5-1-2b-thinking-on-device-reasoning-under-1gb
Please open Telegram to view this post
VIEW IN TELEGRAM
7
💼 Бизнес-ужин для тех, кто запускает ИИ-проекты или только планирует это сделать

На встрече команда провайдера ИТ-инфраструктуры Selectel:
• поделится трендами и вызовами в машинном обучении;
• объяснит, как инференс превращает модели в деньги;
• презентует инфраструктурные продукты для запуска ИИ-проектов.

👥Для собственников бизнеса, топ-менеджеров, технических директоров и ML-специалистов
🗓 18 марта, 19:00
📍Екатеринбург, Новосибирск, Казань

Смотрите полную программу и регистрируйтесь: https://slc.tl/2wqj0

Участие бесплатное, но нужно дождаться подтверждения вашей регистрации

Реклама. АО "Селектел". erid:2W5zFJBzqEh
3
⚡️ Claude Code для Уолл-стрит

Появился проект Dexter - автономный AI-финансовый аналитик, который проводит полноценное исследование компании без участия человека.

Вы задаёте вопрос, например:
*NVIDIA недооценена по DCF?*

Дальше система работает сама:
- строит план исследования
- подтягивает актуальные рыночные данные
- загружает финансовую отчётность за 5 лет
- считает ключевые метрики и мультипликаторы
- проверяет свои же расчёты на ошибки
- формирует итоговый инвестиционный вывод

И всё это — автономно.

Как это устроено:

Dexter разбивает задачу на несколько этапов:
- получает текущие цены
- анализирует исторические P/E
- сравнивает с отраслевыми значениями
- проводит оценку (включая DCF)
- проверяет согласованность данных
- собирает всё в финальный аналитический тезис

Внутри — несколько агентов:
- один планирует исследование
- второй выполняет сбор и расчёты
- третий проверяет корректность цифр
- четвёртый пишет итоговый отчёт

Система умеет:
- читать отчёты SEC (10-K, 10-Q, 8-K)
- работать с реальными финансовыми метриками
- делать полноценную DCF-оценку

По сути, это как команда аналитиков:
один ставит задачи, второй ищет данные, третий проверяет расчёты, четвёртый пишет отчёт.

Только вся команда - это AI, и запускается прямо в терминале.

https://github.com/virattt/dexter
🔥116👍5
🤣4916👍5😈3
Google Research показали способ научить LLM рассуждать более рационально - как байесовские модели.

Идея проста: вместо того чтобы просто генерировать текст, модель обучают обновлять свои убеждения при появлении новой информации, как это делает теория вероятностей.

Проблема в том, что обычные LLM плохо работают с неопределённостью. Когда появляется новая информация, они не всегда корректно пересматривают свои выводы и часто не улучшают предсказания даже при увеличении количества данных.

Исследователи предложили метод Bayesian Teaching:
модель обучают имитировать решения оптимальной байесовской модели, которая считается математически правильным способом рассуждать о вероятностях.

Что получилось:

- LLM начинают лучше обновлять свои предположения, когда получают новую информацию.
- Навык переносится на другие задачи, даже если модель обучали на одном типе задач.
- Улучшается принятие решений в условиях неопределённости.

Например, после такого обучения модель, обученная на задаче рекомендаций авиаперелётов, смогла применять тот же принцип рассуждений к выбору отелей и даже к онлайн-шопингу, хотя эти задачи сложнее и для них трудно задать точную байесовскую модель.

Главный вывод исследования:

LLM можно учить стратегиям рассуждения, а не только фактам.
И если обучить модель копировать правильную логику (например, байесовскую), она может переносить этот способ мышления на новые задачи.

https://research.google/blog/teaching-llms-to-reason-like-bayesians/

🎯Полезные Мл-ресурсы 🚀 Max

@machinelearning_interview
18🏆9👍7🔥4