#полезное
🛞 Machine Learning Q and AI — новая книга от мастодонта ML Себастьяна Рашки теперь в открытом доступе!
Автор — core‑разработчик Scikit‑learn, преподаватель, автор культовых пособий по машинному обучению.
Что внутри:
🟠 30 глав по нейросетям, компьютерному зрению, LLM, оценке и деплою моделей
🟠 Чёткая структура: теория → примеры → упражнения
🟠 Много практики, схем, визуализаций и Python‑кода
Это не просто справочник, а полный курс по Deep Learning, от основ до продвинутых тем.
Читать онлайн
👉 Новости 👉 База вопросов
Автор — core‑разработчик Scikit‑learn, преподаватель, автор культовых пособий по машинному обучению.
Что внутри:
Это не просто справочник, а полный курс по Deep Learning, от основ до продвинутых тем.
Читать онлайн
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #ScikitLearn
🤔 Как реализована кросс-валидация в Scikit-Learn и почему это важная техника?
B Scikit-Learn кросс-валидация реализована через модуль
👉 Новости 👉 База вопросов
B Scikit-Learn кросс-валидация реализована через модуль
model_selection, с функциями, такими как cross_val_score И cross_validate . Эти функции делят данные на несколько "слоёв" (folds), обучают модель на k-1 из них и тестируют на оставшемся. Этот процесс повторяется к раз с каждым слоем в роли тестового. Кросс-валидация помогает снизить переобучение и даёт более объективную оценку работы модели.Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😵💫 Apple рассматривает замену Siri на Claude или ChatGPT
Apple активно изучает возможность использования моделей Claude 3 Opus от Anthropic и GPT-4 Turbo от OpenAI для новой версии Siri, отказавшись от собственных LLM. Компания провела тестирование обеих моделей на закрытой облачной инфраструктуре, чтобы сравнить качество генерации, безопасность и способность к сложным диалогам.
Причины перехода:
— Собственная разработка LLM для Siri задерживается до 2026 года из-за проблем с качеством
— Необходимость ускорить вывод на рынок более интеллектуального голосового ассистента
— Усиленная конкуренция с Google Assistant и Microsoft Copilot
Что уже сделано:
— Тестирование Claude 3 Opus и GPT-4 Turbo на Private Cloud Compute Apple
— Смена руководства AI-подразделения: Майк Рокуэлл занял место Джона Джаннандреа
— Отмена запуска “LLM Siri” на WWDC 2025 из-за неготовности модели
Подробнее
👉 Новости 👉 База вопросов
Apple активно изучает возможность использования моделей Claude 3 Opus от Anthropic и GPT-4 Turbo от OpenAI для новой версии Siri, отказавшись от собственных LLM. Компания провела тестирование обеих моделей на закрытой облачной инфраструктуре, чтобы сравнить качество генерации, безопасность и способность к сложным диалогам.
Причины перехода:
— Собственная разработка LLM для Siri задерживается до 2026 года из-за проблем с качеством
— Необходимость ускорить вывод на рынок более интеллектуального голосового ассистента
— Усиленная конкуренция с Google Assistant и Microsoft Copilot
Что уже сделано:
— Тестирование Claude 3 Opus и GPT-4 Turbo на Private Cloud Compute Apple
— Смена руководства AI-подразделения: Майк Рокуэлл занял место Джона Джаннандреа
— Отмена запуска “LLM Siri” на WWDC 2025 из-за неготовности модели
Подробнее
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😎 Apple выложила Sage Mixtral 8x7B fine-tune с лицензией Apache
Это не просто ещё одна доработка LLM — модель использует State-Action Chains (SAC), чтобы встроить в диалоговую генерацию латентные переменные для эмоций и стратегий общения.
Что это даёт:
- SAC vs обычный fine-tune: модель получает грубое управление через state/action токены → диалоги становятся эмоционально насыщеннее, без потери на метриках
- Итеративная доработка: self-play + tree search позволяют оптимизировать диалоги по цепочкам действий, превзойдя базовые модели по оценкам LLM-судей
https://huggingface.co/apple/sage-ft-mixtral-8x7b
👉 Новости 👉 База вопросов
Это не просто ещё одна доработка LLM — модель использует State-Action Chains (SAC), чтобы встроить в диалоговую генерацию латентные переменные для эмоций и стратегий общения.
Что это даёт:
- SAC vs обычный fine-tune: модель получает грубое управление через state/action токены → диалоги становятся эмоционально насыщеннее, без потери на метриках
- Итеративная доработка: self-play + tree search позволяют оптимизировать диалоги по цепочкам действий, превзойдя базовые модели по оценкам LLM-судей
https://huggingface.co/apple/sage-ft-mixtral-8x7b
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🤓 Немецкие ученые выпустили модель, которая имитирует психику человека
Она называется Centaur и обучена предсказывать поведение людей. Для обучения использовали огромный датасет с 160 поведенческими экспериментами и порядком десяти миллионов кейсов человеческих реакций.
То есть модель смотрела на то, как ведут себя разные люди в той или иной ситуации -> запоминала -> училась имитировать.
И в итоге научилась неплохо: точность высокая даже на новых ситуациях, которые модель не видела на трейне. Более того, она может даже оценить время реакции и подробно объяснить, почему человек поведет себя так или иначе.
Звучит жутковато, конечно, но просто представьте, какой тут потенциал для приложений. Систему можно использовать как симуляцию для бесконечных экспериментов, и с помощью нее попытаться лучше понять когнитивную природу человека, его психику и причины разных расстройств. Это, по сути, то, о чем ученые мечтали веками: единая (эмпирическая) теория поведения.
Самое интересное, что Centaur даже согласуется с реальной мозговой активностью: активации сети коррелируют со сканами МРТ живых людей. А под капотом при этом просто Llama-3.1 70B, дотюненная с QLoRA.
Все веса выложены в опенсорс. Сделали даже вариант модели поменьше, его можно легко запустить в колабе.
www.nature.com/articles/s41586-025-09215-4
👉 Новости 👉 База вопросов
Она называется Centaur и обучена предсказывать поведение людей. Для обучения использовали огромный датасет с 160 поведенческими экспериментами и порядком десяти миллионов кейсов человеческих реакций.
То есть модель смотрела на то, как ведут себя разные люди в той или иной ситуации -> запоминала -> училась имитировать.
И в итоге научилась неплохо: точность высокая даже на новых ситуациях, которые модель не видела на трейне. Более того, она может даже оценить время реакции и подробно объяснить, почему человек поведет себя так или иначе.
Звучит жутковато, конечно, но просто представьте, какой тут потенциал для приложений. Систему можно использовать как симуляцию для бесконечных экспериментов, и с помощью нее попытаться лучше понять когнитивную природу человека, его психику и причины разных расстройств. Это, по сути, то, о чем ученые мечтали веками: единая (эмпирическая) теория поведения.
Самое интересное, что Centaur даже согласуется с реальной мозговой активностью: активации сети коррелируют со сканами МРТ живых людей. А под капотом при этом просто Llama-3.1 70B, дотюненная с QLoRA.
Все веса выложены в опенсорс. Сделали даже вариант модели поменьше, его можно легко запустить в колабе.
www.nature.com/articles/s41586-025-09215-4
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#Собес #ScikitLearn
🤔 Как функциональность pipeline в Scikit-Learn полезна для проекта машинного обучения?
Pipeline в Scikit-Learn упрощает процесс создания моделей машинного обучения, объединяя несколько шагов, таких как предобработка данных и обучение модели, в один объект. Это помогает улучшить читаемость кода, избежать ошибок при кросс-валидации и облегчить настройку гиперпараметров с ПОМОЩЬЮ
👉 Новости 👉 База вопросов
Pipeline в Scikit-Learn упрощает процесс создания моделей машинного обучения, объединяя несколько шагов, таких как предобработка данных и обучение модели, в один объект. Это помогает улучшить читаемость кода, избежать ошибок при кросс-валидации и облегчить настройку гиперпараметров с ПОМОЩЬЮ
GridSearchcv или RandomizedSearchCV .Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😊 Самый быстрый движок для сервинга LLM
LMCache — это движок для сервинга LLM, разработанный для минимизации time-to-first-token и повышения throughput, особенно в сценариях с длинным контекстом.
Он ускоряет vLLM, обеспечивая в 7 раз более быстрый доступ к кэшу ключей/значений (KV cache) и поддерживая объём в 100 раз больше.
Полностью опенсорс
👉 Новости 👉 База вопросов
LMCache — это движок для сервинга LLM, разработанный для минимизации time-to-first-token и повышения throughput, особенно в сценариях с длинным контекстом.
Он ускоряет vLLM, обеспечивая в 7 раз более быстрый доступ к кэшу ключей/значений (KV cache) и поддерживая объём в 100 раз больше.
Полностью опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
❤️🔥 Microsoft недавно выпустили бесплатный курс по созданию AI-агентов.
В нем 11 уроков с теорией, примерами кода на Python, заданиями и ссылками на доп. материалы
Гитхаб
👉 Новости 👉 База вопросов
В нем 11 уроков с теорией, примерами кода на Python, заданиями и ссылками на доп. материалы
Гитхаб
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#полезное
👋 OpenAI будет обучать учителей использовать ChatGPT в школах
Стартап присоединился к Американской федерации учителей и запускает пятилетнюю академию, в которой 400 000 учителей будут осваивать и практиковать применение ИИ в своей работе.
Если что, 400 000 – это примерно каждый десятый учитель в Штатах. Все они получат приоритетный доступ к продуктам OpenAI, гранд в виде токенов и кредитов API и бесплатную техподдержку. Плюс – семинары, митапы, воркшопы и онлайн курсы.
👉 Новости 👉 База вопросов
Стартап присоединился к Американской федерации учителей и запускает пятилетнюю академию, в которой 400 000 учителей будут осваивать и практиковать применение ИИ в своей работе.
Если что, 400 000 – это примерно каждый десятый учитель в Штатах. Все они получат приоритетный доступ к продуктам OpenAI, гранд в виде токенов и кредитов API и бесплатную техподдержку. Плюс – семинары, митапы, воркшопы и онлайн курсы.
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #ScikitLearn
🤔 Как обрабатывать пропущенные или поврежденные данные в наборе данных с использованием Scikit-Learn?
Scikit-Learn предоставляет класс
👉 Новости 👉 База вопросов
Scikit-Learn предоставляет класс
SimpleImputer , который заменяет пропущенные значения в данных на среднее, медиану или наиболее часто встречающееся значение в каждом столбце. Для поврежденных данных Scikit-Learn не предлагает прямых методов, но можно использовать другие библиотеки, такие как Pandas, для обработки таких данных до подачи их в модель.Please open Telegram to view this post
VIEW IN TELEGRAM
#видео
😎 Комбинация из трёх курсов, охватывающих важную математику для ML и DL.
Основное внимание уделяется теоретическим концепциям, сопровождаемым качественными разобранными задачами.
Смотреть видео
👉 Новости 👉 База вопросов
Основное внимание уделяется теоретическим концепциям, сопровождаемым качественными разобранными задачами.
Смотреть видео
Please open Telegram to view this post
VIEW IN TELEGRAM
#статьи
🤓 Что делать, если A/B-тесты врут
Классическая схема A/B-разбиения работает, только если пользователи не влияют друг на друга. Но что, если это не так?
⠀
Такси, доставка, соцсети — в таких системах старый добрый user_id → контроль / тест уже не спасает. Метрики искажаются, а выводы могут привести к ошибочным решениям.
⠀
В карточках — 5 важных выводов.
В статье — разбор альтернатив
👉 Новости 👉 База вопросов
Классическая схема A/B-разбиения работает, только если пользователи не влияют друг на друга. Но что, если это не так?
⠀
Такси, доставка, соцсети — в таких системах старый добрый user_id → контроль / тест уже не спасает. Метрики искажаются, а выводы могут привести к ошибочным решениям.
⠀
В карточках — 5 важных выводов.
В статье — разбор альтернатив
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM