Media is too big
VIEW IN TELEGRAM
#видео
🤯 Короткое видео от
Hunyuan, которое объясняет архитектуру гибридного трансформера Mamba, лежащего в основе моделей Hunyuan T1 и Turbo S.
Оригинал
👉 Новости 👉 База вопросов
Hunyuan, которое объясняет архитектуру гибридного трансформера Mamba, лежащего в основе моделей Hunyuan T1 и Turbo S.
Оригинал
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Что такое eager execution в TensorFlow и какие у него преимущества?
Eager execution в TensorFlow - это режим выполнения, при котором операции выполняются немедленно по мере их вызова в Python. Это упрощает отладку, делает интерфейс более интуитивным и позволяет использовать стандартный контроль потока Python вместо графового контроля, что особенно полезно при создании динамических моделей.
👉 Новости 👉 База вопросов
Eager execution в TensorFlow - это режим выполнения, при котором операции выполняются немедленно по мере их вызова в Python. Это упрощает отладку, делает интерфейс более интуитивным и позволяет использовать стандартный контроль потока Python вместо графового контроля, что особенно полезно при создании динамических моделей.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
#полезное
👍 Cloud․ru выкатил первый сервис для инференса LLM в облаке с разделением GPU
Облачный провайдер анонсировал управляемый сервис Evolution ML Inference с упором на гибкость и эффективность работы с GPU. На платформе впервые в России реализовали технологию Shared GPU, то есть можно будет использовать GPU не полностью, а потреблять только то количество vRAM, которое необходимо модели в конкретный момент.
Такой подход экономит от 15 до 45% ресурсов, а, следовательно, и костов (тарификация осуществляется as-you-go и только в момент обращения к модели).
А еще фишка в том, что на платформе можно будет в пару кликов развернуть не только встроенные модели, но и любую модельку с HF, и даже свою собственную LM.
При этом Cloud․ru берут на себя скейлинг, администрирование и обслуживание инфраструктуры. Плюс никаких проблем с 152-ФЗ: данные хранятся на российских серверах.
👉 Новости 👉 База вопросов
Облачный провайдер анонсировал управляемый сервис Evolution ML Inference с упором на гибкость и эффективность работы с GPU. На платформе впервые в России реализовали технологию Shared GPU, то есть можно будет использовать GPU не полностью, а потреблять только то количество vRAM, которое необходимо модели в конкретный момент.
Такой подход экономит от 15 до 45% ресурсов, а, следовательно, и костов (тарификация осуществляется as-you-go и только в момент обращения к модели).
А еще фишка в том, что на платформе можно будет в пару кликов развернуть не только встроенные модели, но и любую модельку с HF, и даже свою собственную LM.
При этом Cloud․ru берут на себя скейлинг, администрирование и обслуживание инфраструктуры. Плюс никаких проблем с 152-ФЗ: данные хранятся на российских серверах.
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😊 Почему обратимая матрица сохраняет объем в пространстве
🟠 Если рассматривать матрицу с геометрической точки зрения, она выполняет преобразование векторов в n-мерном пространстве. Когда матрица обратима, это означает, что преобразование является биективным, то есть оно не «сжимает» пространство в подпространство меньшей размерности.
🟠 Говоря проще, обратимая матрица сохраняет объем (хотя и может вращать или искажать его), но не уменьшает количество измерений.
🟠 Если ранг матрицы уменьшается, преобразование отображает векторы в пространство меньшей размерности, что означает потерю информации. В геометрии это проявляется в том, что объем пространства «сплющивается» или искажается до нулевого объема, что и приводит к нулевому детерминанту.
👉 Новости 👉 База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#видео
🤓 Полный краш-курс по MCP для Python-разработчиков
🟠 Что такое MCP и как он устроен
🟠 Как поднять свой MCP-сервер
🟠 Подключение Python-приложений к MCP
🟠 Интеграция LLM-моделей с MCP
🟠 MCP против function calling
🟠 Деплой в Docker
🟠 Управление жизненным циклом
Гайд для тех, кто хочет строить AI-системы на базе MCP и выйти за рамки базовых туториалов
📱 Смотреть тут
👉 Новости 👉 База вопросов
Гайд для тех, кто хочет строить AI-системы на базе MCP и выйти за рамки базовых туториалов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Какие случаи использования имеет APl tf.data в TensorFlow?
API tf.data в TensorFlow используется для создания сложных конвейеров обработки данных. Он позволяет эффективно работать с большими обьемами данных, поддерживает различные форматы и трансформации. Благодаря поддержке параллельной обработки и предвыборки данных, tf.data ускоряет обучение моделей и позволяет гибко управлять процессом.
👉 Новости 👉 База вопросов
API tf.data в TensorFlow используется для создания сложных конвейеров обработки данных. Он позволяет эффективно работать с большими обьемами данных, поддерживает различные форматы и трансформации. Благодаря поддержке параллельной обработки и предвыборки данных, tf.data ускоряет обучение моделей и позволяет гибко управлять процессом.
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
🥺 Anthropic инвестируют 50 миллионов долларов в интерпретируемость LLM
Точнее в стартап Goodfire, который специализируется на интерпретируемости. Вместе с Anthropic они теперь будут разрабатывать общедоступную платформу нейронного программирования Ember, которая сможет показывать «мысли» любой ИИ-модели.
Это, кстати, первая инвестиция Anthropic за все время существования компании
👉 Новости 👉 База вопросов
Точнее в стартап Goodfire, который специализируется на интерпретируемости. Вместе с Anthropic они теперь будут разрабатывать общедоступную платформу нейронного программирования Ember, которая сможет показывать «мысли» любой ИИ-модели.
Это, кстати, первая инвестиция Anthropic за все время существования компании
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😬 Подключите любую LLM к любому MCP-серверу
MCP-Use — это open-source способ подключить любую LLM к любому MCP-серверу и создавать кастомных агентов с доступом к инструментам без использования проприетарных решений или клиентских приложений.
Создавайте полностью локальные MCP-клиенты
👉 Новости 👉 База вопросов
MCP-Use — это open-source способ подключить любую LLM к любому MCP-серверу и создавать кастомных агентов с доступом к инструментам без использования проприетарных решений или клиентских приложений.
Создавайте полностью локальные MCP-клиенты
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
#полезное
😐 Стэнфорд выкатил свежий курс по LLM — CS336: Language Modeling from Scratch
Курс с фокусом на практику: вся теория по LLM раскрывается через создание собственной модели. Ты изучаешь всё end-to-end — от обработки данных и архитектуры трансформеров до RL и эвала
Ведёт курс Перси Лианг — профессор Стэнфорда и сооснователь TogetherAI.
Курс прямо сейчас идёт в Стэнфорде, и лекции заливаются по ходу — контент свежий, как только из печи
Первые лекции здесь, а домашка и ноутбуки — тут.
👉 Новости 👉 База вопросов
Курс с фокусом на практику: вся теория по LLM раскрывается через создание собственной модели. Ты изучаешь всё end-to-end — от обработки данных и архитектуры трансформеров до RL и эвала
Ведёт курс Перси Лианг — профессор Стэнфорда и сооснователь TogetherAI.
Курс прямо сейчас идёт в Стэнфорде, и лекции заливаются по ходу — контент свежий, как только из печи
Первые лекции здесь, а домашка и ноутбуки — тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Как использование графов потока данных в TensorFlow помогает в разработке моделей машинного обучения?
Графы данных в TensorFlow позволяют эффективно выполнять вычисления, улучшать параллельность и обеспечивать переносимость. Графы представляют вычисления как узлы, соединенные ребрами, что позволяет TensorFlow распределять вычисления по нескольким процессорам и GPU, повышая эффективность. Кроме того, абстракция графов упрощает создание моделей без необходимости учитывать аппаратные особенности.
👉 Новости 👉 База вопросов
Графы данных в TensorFlow позволяют эффективно выполнять вычисления, улучшать параллельность и обеспечивать переносимость. Графы представляют вычисления как узлы, соединенные ребрами, что позволяет TensorFlow распределять вычисления по нескольким процессорам и GPU, повышая эффективность. Кроме того, абстракция графов упрощает создание моделей без необходимости учитывать аппаратные особенности.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#видео
😎 Эта лекция о больших языковых моделях (LLM) обязательна к просмотру для инженеров в области ИИ.
Полуторачасовая лекция охватывает: токенизацию, законы масштабирования, дообучение, оценку, оптимизацию, вызовы, затраты и многое другое.
От Стэнфорда, около 1 млн просмотров
📱 Смотреть видео
👉 Новости 👉 База вопросов
Полуторачасовая лекция охватывает: токенизацию, законы масштабирования, дообучение, оценку, оптимизацию, вызовы, затраты и многое другое.
От Стэнфорда, около 1 млн просмотров
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
👨💻 Этот репозиторий на GitHub — настоящая находка для ML-специалистов
Репозиторий Kaggle Solutions собирает решения и идеи от лучших участников прошлых соревнований Kaggle. Список регулярно обновляется после каждого соревнования.
Он охватывает интервью по машинному обучению, лекции и решения
Гитхаб
👉 @DataSciencegx
Репозиторий Kaggle Solutions собирает решения и идеи от лучших участников прошлых соревнований Kaggle. Список регулярно обновляется после каждого соревнования.
Он охватывает интервью по машинному обучению, лекции и решения
Гитхаб
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Объясните, чем TensorFlow отличается от других платформ машинного обучения
TensorFlow отличается гибкостью и масштабируемостью. Он поддерживает широкий спектр нейронных сетей и алгоритмов, что делает его универсальным для различных задач. Благодаря модели вычислительных графов TensorFlow можно эффективно обрабатывать вычисления параллельно, что улучшает производительность на крупных системах. Также TensorFlow предоставляет инструменты для отладки и оптимизации моделей, такие как TensorBoard, и поддерживает развертывание на мобильных устройствах и вебе.
👉 Новости 👉 База вопросов
TensorFlow отличается гибкостью и масштабируемостью. Он поддерживает широкий спектр нейронных сетей и алгоритмов, что делает его универсальным для различных задач. Благодаря модели вычислительных графов TensorFlow можно эффективно обрабатывать вычисления параллельно, что улучшает производительность на крупных системах. Также TensorFlow предоставляет инструменты для отладки и оптимизации моделей, такие как TensorBoard, и поддерживает развертывание на мобильных устройствах и вебе.
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
👍 Вот как запустить модель случайного леса на GPU
Hummingbird компилирует обученные традиционные модели машинного обучения в тензорные вычисления. Это позволяет запускать их на аппаратных ускорителях, таких как GPU, для более быстрой инференции.
Инференция в 40 раз быстрее всего за 2 строки кода
👉 Новости 👉 База вопросов
Hummingbird компилирует обученные традиционные модели машинного обучения в тензорные вычисления. Это позволяет запускать их на аппаратных ускорителях, таких как GPU, для более быстрой инференции.
Инференция в 40 раз быстрее всего за 2 строки кода
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#новости
👋 В Китае закончился первый в мире полу-марафон для людей и роботов
Участие приняли более 20 двуногих роботов. Были и от ведущих китайских стартапов, но даже победители очень сильно отставали от людей (фух).
Пробежать нужно было, если что, 21 километр. Победитель от людей преодолел расстояние за 1 час 2 минуты. От роботов победил Tiangong Ultra. Его результат – 2 часа 40 минут.
👉 Новости 👉 База вопросов
Участие приняли более 20 двуногих роботов. Были и от ведущих китайских стартапов, но даже победители очень сильно отставали от людей (фух).
Пробежать нужно было, если что, 21 километр. Победитель от людей преодолел расстояние за 1 час 2 минуты. От роботов победил Tiangong Ultra. Его результат – 2 часа 40 минут.
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
📞 Вышел Qwen-3, встречаем новую открытую соту
Выпустили 2 MoE и 6 dense моделей в весах на любой вкус, 0.6В до 235B. Разбираем.
Самая большая модель на уровне со всеми звездами – Gemini 2.5 Pro, Grok-3, o1, R1. И это MoE всего с 22В активных параметров. На 30В MoE модель тоже крутая получилась: на бенчах видно, что она лучше предыдущего ризонера QwQ-32B (при этом активных параметров у нее всего 3В, то есть в 10 раз меньше).
Что еще стоит знать:
1⃣ Это полу-ризонеры, Sonnet 3.7 или Gemini 2.5 Pro. То есть модель будет «думать», если задать мод think, и не думать, если задать Non-Thinking. Бюджет рассуждений тоже можно контролировать.
2⃣ Модели мультиязычные (русский тоже есть), но не мультимодальные. Довольствуемся тем, что есть.
3⃣ Улучшены агентные способности на уровне поиска в браузере, использования интерпретатора и др. Что особенно приятно – добавили поддержку MCP.
4⃣ Претрейнинг был в три этапа: сначала на 30 триллионах токенов с контекстом 4К, затем отдельно на сложных научных текстах (5Т), потом на длинных контекстах до 32К токенов.
5⃣ Пост-трейнинг: файн-тюнинг на CoT + несколько стадий RL. Интересно, что мелкие модели до 30В обучали дистилляцией из крупных.
В общем, пробуем и наслаждаемся здесь
👉 Новости 👉 База вопросов
Выпустили 2 MoE и 6 dense моделей в весах на любой вкус, 0.6В до 235B. Разбираем.
Самая большая модель на уровне со всеми звездами – Gemini 2.5 Pro, Grok-3, o1, R1. И это MoE всего с 22В активных параметров. На 30В MoE модель тоже крутая получилась: на бенчах видно, что она лучше предыдущего ризонера QwQ-32B (при этом активных параметров у нее всего 3В, то есть в 10 раз меньше).
Что еще стоит знать:
В общем, пробуем и наслаждаемся здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Как использовать Keras APl в TensorFlow для создания моделей глубокого обучения?
Keras - это высокоуровневый АР| в TensorFlow, который упрощает создание, обучение и развертывание нейросетей. Чтобы создать модель, используется класс
👉 Новости 👉 База вопросов
Keras - это высокоуровневый АР| в TensorFlow, который упрощает создание, обучение и развертывание нейросетей. Чтобы создать модель, используется класс
Sequential или функциональный АРІ. Добавляются слои ( Dense , Conv2D и др.), затем модель компилируется с помощью compile() , указывая функцию потерь и оптимизатор. Обучение выполняется через fit() , оценка через evaluate() , а прогнозирование через predict() . Keras APl делает разработку моделей более удобной и читаемой.Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🤯 MLOps без воды: готовый пошаговый план
Готовый GitHub-репозиторий, который по шагам закрывает ключевые темы: от настройки проекта и контроля данных — до CI/CD, упаковки моделей и деплоя в AWS:
✅ Неделя 0: Базовая настройка проекта
✅ Неделя 1: Мониторинг моделей через Weights & Biases
✅ Неделя 2: Конфигурации с Hydra
✅ Неделя 3: Контроль версий данных с DVC
✅ Неделя 4: Упаковка моделей в ONNX
✅ Неделя 5: Упаковка моделей в Docker
✅ Неделя 6: CI/CD через GitHub Actions
✅ Неделя 7: Хранение контейнеров в AWS ECR
✅ Неделя 8: Серверлесс-деплой на AWS Lambda
✅ Неделя 9: Мониторинг предсказаний через Kibana
Ссылка на репозиторий
👉 Новости 👉 База вопросов
Готовый GitHub-репозиторий, который по шагам закрывает ключевые темы: от настройки проекта и контроля данных — до CI/CD, упаковки моделей и деплоя в AWS:
Ссылка на репозиторий
Please open Telegram to view this post
VIEW IN TELEGRAM