#Собес #TensorFlow
🤔 Как TensorFlow использует GPU и TPU для вычислений?
TensorFlow использует:
-
-
- Динамическое распределение вычислений между устройствами.
👉 Новости 👉 База вопросов
TensorFlow использует:
-
GPU (через CUDA) для ускоренных матричных операций.-
TPU (специальные чипы от Google) для высокопроизводительных ML-задач.- Динамическое распределение вычислений между устройствами.
Please open Telegram to view this post
VIEW IN TELEGRAM
#статьи
🛞 Огромная статья, которая посвящена оптимизации вывода (инференса) больших языковых моделей (LLM) с использованием одного графического процессора!
Автор делится опытом создания собственного движка для LLM на основе C++ и CUDA, фокусируясь на максимизации пропускной способности. Рассматриваются ключевые этапы, такие как загрузка модели, выполнение прямого прохода, использование кеша KV и многозадачность на CPU. Также подчеркивается важность пропускной способности памяти и квантования модели (например, FP16) для эффективного вывода. В статье приводятся бенчмарки и сравнение с другими фреймворками, такими как llama.cpp и Hugging Face, чтобы установить реалистичные цели по производительности.
Ссылка клик
👉 Новости 👉 База вопросов
Автор делится опытом создания собственного движка для LLM на основе C++ и CUDA, фокусируясь на максимизации пропускной способности. Рассматриваются ключевые этапы, такие как загрузка модели, выполнение прямого прохода, использование кеша KV и многозадачность на CPU. Также подчеркивается важность пропускной способности памяти и квантования модели (например, FP16) для эффективного вывода. В статье приводятся бенчмарки и сравнение с другими фреймворками, такими как llama.cpp и Hugging Face, чтобы установить реалистичные цели по производительности.
Ссылка клик
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😎 Мира Мурати получит 2 миллиарда долларов от крупнейшнего венчурного фонда a16z
Оценка при этом составит 10 миллиардов. Но самое занятное в этой сделке – ее условия, на которые чудом согласились инвесторы.
Дело в том, что Мира сохраняет за собой математическое абсолютное превосходство над советом директоров. Ее голос в совете равен (кол-во членов совета + 1), то есть он будет решающим в любом голосовании, даже если все остальные проголосуют иначе.
Кроме того, все учредители-основатели владеют акциями, повышающими их обычное количество голосов в 100 раз, а Мира может пользоваться этими голосами по доверенности. А значит, ей хватает прав в одиночку уволить или назначить кого угодно в совет.
👉 Новости 👉 База вопросов
Оценка при этом составит 10 миллиардов. Но самое занятное в этой сделке – ее условия, на которые чудом согласились инвесторы.
Дело в том, что Мира сохраняет за собой математическое абсолютное превосходство над советом директоров. Ее голос в совете равен (кол-во членов совета + 1), то есть он будет решающим в любом голосовании, даже если все остальные проголосуют иначе.
Кроме того, все учредители-основатели владеют акциями, повышающими их обычное количество голосов в 100 раз, а Мира может пользоваться этими голосами по доверенности. А значит, ей хватает прав в одиночку уволить или назначить кого угодно в совет.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😵💫 PySpur
PySpur — это полезны и легкий инструмент для создания и управления рабочими процессами, с минимальным количеством зависимостей.
Он позволяет легко добавлять новые узлы через файл на Python и использует формат JSON для настройки графов.
Инструмент поддерживает асинхронное выполнение задач, работу с несколькими модальностями данных и оптимизацию конвейеров. Кроме того, он предоставляет возможность генерации узлов с использованием технологий искусственного интеллекта.
Гитхаб
👉 Новости 👉 База вопросов
PySpur — это полезны и легкий инструмент для создания и управления рабочими процессами, с минимальным количеством зависимостей.
Он позволяет легко добавлять новые узлы через файл на Python и использует формат JSON для настройки графов.
Инструмент поддерживает асинхронное выполнение задач, работу с несколькими модальностями данных и оптимизацию конвейеров. Кроме того, он предоставляет возможность генерации узлов с использованием технологий искусственного интеллекта.
Гитхаб
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Как развернуть модель TensorFlow в продакшене?
Развертывание модели TensorFlow включает:
- Обучение и сохранение модели (
- Загрузку в TensorFlow Serving для АР|-запросов.
- Интеграцию с клиентским приложением через REST или gRPC.
- Мониторинг и обновление модели при необходимости.
👉 Новости 👉 База вопросов
Развертывание модели TensorFlow включает:
- Обучение и сохранение модели (
SavedModel ).- Загрузку в TensorFlow Serving для АР|-запросов.
- Интеграцию с клиентским приложением через REST или gRPC.
- Мониторинг и обновление модели при необходимости.
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😊 Один из лучших гайдов по выборке в больших языковых моделях (LLM Sampling) вышел, написанный создателем движка инференса Aphrodite (этот парень реально обожает сэмплеры)
Ссылка тут
👉 Новости 👉 База вопросов
Ссылка тут
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
📞 Создание трансформера с нуля
Реализация и подробное объяснение трансформера, с расчётом на полное отсутствие предварительных знаний.
👉 Новости 👉 База вопросов
Реализация и подробное объяснение трансформера, с расчётом на полное отсутствие предварительных знаний.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - DorsaRoh/Machine-Learning: ML from scratch
ML from scratch. Contribute to DorsaRoh/Machine-Learning development by creating an account on GitHub.
#полезное
❤️🔥 Cookiecutter Data Science v2: быстрый старт для ML-проектов
Cookiecutter Data Science — это шаблон проекта, который помогает быстро, логично и по best practices стартовать любой Data Science-проект.
Почему стоит попробовать:
🟠 Стандартизирует пайплайны и артефакты по всей команде
🟠 CLI ccds автоматизирует создание структуры: больше никакого «копипаста» старого проекта
🟠 Конфигурируется под стек: pip/conda, black/ruff, лицензии, S3/MLflow — всё на входе
🟠 Упор на воспроизводимость и читаемость (особенно при handover между командами)
Простая установка:
Пример запуска:
Дальше — просто отвечаете на вопросы. В результате получаете полностью готовую структуру: с README, тестами, логированием, конфигами и даже поддержкой MLflow.
Документация
👉 Новости 👉 База вопросов
Cookiecutter Data Science — это шаблон проекта, который помогает быстро, логично и по best practices стартовать любой Data Science-проект.
Почему стоит попробовать:
Простая установка:
pipx install cookiecutter-data-science
ccds
Пример запуска:
ccds https://github.com/drivendataorg/cookiecutter-data-science
Дальше — просто отвечаете на вопросы. В результате получаете полностью готовую структуру: с README, тестами, логированием, конфигами и даже поддержкой MLflow.
Документация
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Какова роль TensorFlow Dataset AP| и как он улучшает производительность?
tf. data. Dataset предназначен для загрузки и предварительной обработки данных перед обучением моделей. Он:
- Позволяет работать с файлами (CSV, TFRecord).
- Загружает данные потоками, уменьшая потребление памяти.
- Поддерживает параллельную обработку, увеличивая скорость.
- Интегрируется с Eager Execution , упрощая отладку.
👉 Новости 👉 База вопросов
tf. data. Dataset предназначен для загрузки и предварительной обработки данных перед обучением моделей. Он:
- Позволяет работать с файлами (CSV, TFRecord).
- Загружает данные потоками, уменьшая потребление памяти.
- Поддерживает параллельную обработку, увеличивая скорость.
- Интегрируется с Eager Execution , упрощая отладку.
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
#видео
😇 Наткнулись тут на YouTube на речь Дженсена Хуанга в честь получения премии Эдисона
Оказывается, предприниматель выиграл ее еще в апреле, но вручение произошло только на днях. Премия Эдисона – это очень престижная награда за самые важные и влиятельные коммерческие изобретения и проекты в мире.
Ранее премию получали Стив Джобс, Илон Маск, Тед Тернер (основатель канала CNN) и другие.
Кстати, в этом году Nvidia исполняется 32 года. Но Хуанг говорит, что ключевым моментом для компании стала «ставка на ИИ, сделанная 15 лет назад».
📱 Смотреть видео
👉 Новости 👉 База вопросов
Оказывается, предприниматель выиграл ее еще в апреле, но вручение произошло только на днях. Премия Эдисона – это очень престижная награда за самые важные и влиятельные коммерческие изобретения и проекты в мире.
Ранее премию получали Стив Джобс, Илон Маск, Тед Тернер (основатель канала CNN) и другие.
Кстати, в этом году Nvidia исполняется 32 года. Но Хуанг говорит, что ключевым моментом для компании стала «ставка на ИИ, сделанная 15 лет назад».
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😊 DocsGPT — открытый RAG-ассистент для работы с документами. Это не просто чат-бот, а целая экосистема, которая умеет извлекать информацию из PDF, DOCX, веб-страниц и даже GitHub-репозиториев, сохраняя привязку к исходным данным.
Что выделяет проект:
🟠 Поддержка локальных моделей (Ollama, llama.cpp) и облачных API (OpenAI, Anthropic)
🟠 Готовые интеграции для Discord, Telegram и веб-сайтов
🟠 Возможность расширения функционала через инструменты и вебхуки
Для старта достаточно клонировать репозиторий и запустить setup-скрипт — через пару минут вы получите работающий инстанс с интерфейсом на localhost.
Гитхаб
👉 Новости 👉 База вопросов
Что выделяет проект:
Для старта достаточно клонировать репозиторий и запустить setup-скрипт — через пару минут вы получите работающий инстанс с интерфейсом на localhost.
Гитхаб
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😊 Исследователи из лабы SakanaAI предложили новую архитектуру нейросетей, вдохновленную биологическими нейронными процессами – Continuous Thought Machine
Кстати, SakanaAI – это та самая японская лаборатория, выпустившая ИИ-ученого, статья которого прошла рецензирование на ICLR воркшоп. Ну так вот⬇️
Ключевая фишка CTM (Continuous Thought Machine) в наличии тиков мыслей. Аналогия с мозгом тут в том, что человек на самом деле не получает ответы за один "проход" по нейронам, как это делается, например, в трансформерах.
Живые нейроны активны всё время, через миллисекунды после первого сигнала информация осмысливается глубже, подключаются новые области коры и тд. Это и называется "тик". В нейросетях один тик – это как бы один прямой проход. В трансформерах для получения ответа тик всегда один, а в CTM их может быть и 5, и 10, и 50. Модель сама решает, сколько ей нужно – в зависимости от сложности задачи.
При этом проходы не независимые. Для каждого нейрона мы храним историю пред- и пост-активаций, чтобы он мог «смотреть» на свою динамику на предыдущих тиках. И, кстати, нейроны в CTM тоже необычные. Здесь это не просто сумма взвешенных входов, как в большинстве моделей, а самостоятельный мини-перцептрон (MLP). Все это тоже построено на аналогиях из биологии.
Ну и еще одна ключевая особенность CTM – это синхронизация нейронов. В нейробиологии считается, что важны не столько независимые активации нейронов, сколько то, как и когда они активируются относительно друг друга. Нейроны, чьи осцилляции или пики потенциала происходят синхронно, чаще участвуют в совместной обработке информации.
Поэтому здесь специально вычисляется так называемая матрица синхронизаций. Она показывает скалярные корреляции временных рядов активаций. Самые важные подмножества затем идут либо в слой внимания, либо напрямую проецируются в логиты.
И да, все это вполне прилично (и иногда лучше классических архитектур) работает на классических задачах типа ImageNet-1K, CIFAR-10 и MNIST, а еще модель отлично решает лабиринты.
В общем, работа большая и сложная, но в статье все расписано вполне доходчиво, так что советуем почитать полностью или полистать интерактивный репорт
Код в опенсорсе
👉 Новости 👉 База вопросов
Кстати, SakanaAI – это та самая японская лаборатория, выпустившая ИИ-ученого, статья которого прошла рецензирование на ICLR воркшоп. Ну так вот
Ключевая фишка CTM (Continuous Thought Machine) в наличии тиков мыслей. Аналогия с мозгом тут в том, что человек на самом деле не получает ответы за один "проход" по нейронам, как это делается, например, в трансформерах.
Живые нейроны активны всё время, через миллисекунды после первого сигнала информация осмысливается глубже, подключаются новые области коры и тд. Это и называется "тик". В нейросетях один тик – это как бы один прямой проход. В трансформерах для получения ответа тик всегда один, а в CTM их может быть и 5, и 10, и 50. Модель сама решает, сколько ей нужно – в зависимости от сложности задачи.
При этом проходы не независимые. Для каждого нейрона мы храним историю пред- и пост-активаций, чтобы он мог «смотреть» на свою динамику на предыдущих тиках. И, кстати, нейроны в CTM тоже необычные. Здесь это не просто сумма взвешенных входов, как в большинстве моделей, а самостоятельный мини-перцептрон (MLP). Все это тоже построено на аналогиях из биологии.
Ну и еще одна ключевая особенность CTM – это синхронизация нейронов. В нейробиологии считается, что важны не столько независимые активации нейронов, сколько то, как и когда они активируются относительно друг друга. Нейроны, чьи осцилляции или пики потенциала происходят синхронно, чаще участвуют в совместной обработке информации.
Поэтому здесь специально вычисляется так называемая матрица синхронизаций. Она показывает скалярные корреляции временных рядов активаций. Самые важные подмножества затем идут либо в слой внимания, либо напрямую проецируются в логиты.
И да, все это вполне прилично (и иногда лучше классических архитектур) работает на классических задачах типа ImageNet-1K, CIFAR-10 и MNIST, а еще модель отлично решает лабиринты.
В общем, работа большая и сложная, но в статье все расписано вполне доходчиво, так что советуем почитать полностью или полистать интерактивный репорт
Код в опенсорсе
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
#Собес #TensorFlow
🤔 Как реализовать рекуррентную нейронную сеть (RNN) в TensorFlow?
Чтобы реализовать RNN в TensorFlow, необходимо:
- Импортировать библиотеки и определить гиперпараметры.
- Подготовить входные данные и создать слои сети, используя
- Определить функцию потерь и оптимизатор, например Adam .
- Обучить модель, используя
- Оценить качество на тестовых данных.
👉 Новости 👉 База вопросов
Чтобы реализовать RNN в TensorFlow, необходимо:
- Импортировать библиотеки и определить гиперпараметры.
- Подготовить входные данные и создать слои сети, используя
tf. keras. layers.SimpleRNN, LSTM ИЛИ GRU .- Определить функцию потерь и оптимизатор, например Adam .
- Обучить модель, используя
model. fit().- Оценить качество на тестовых данных.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😵💫 Hugging Face представили бесплатного Open Computer Agent — открытый аналог Operator, запускающийся на виртуальной Linux-машине. Этот агент умеет искать и бронировать билеты, заказывать столик в ресторане и решать множество других задач.
Есть два «но»: он иногда не справляется с CAPTCHA, а из-за высокой нагрузки ответы могут идти чуть дольше. Зато всё бесплатно и с открытым исходным кодом!
Попробовать можно прямо сейчас: тык
👉 Новости 👉 База вопросов
Есть два «но»: он иногда не справляется с CAPTCHA, а из-за высокой нагрузки ответы могут идти чуть дольше. Зато всё бесплатно и с открытым исходным кодом!
Попробовать можно прямо сейчас: тык
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from YeaHub
На этой неделе мы побили рекорд по количеству регистраций — и это важный для нас рубеж! 🚀 Мы не останавливаемся на достигнутом и готовим крутые обновления:
- Обновленный лендинг — станет еще информативнее и удобнее;
- Публичные страницы коллекций — делитесь своими подборками с сообществом;
- Избранное для вопросов — сохраняйте самое важное в один клик;
- Горячий режим 🔥 — для дополнительной мотивации;
- Мультипрофили — удобное переключение между аккаунтами;
- Новый сервис "Полезные ресурсы" — всё необходимое для развития в одном месте.
А еще мы будем еженедельно пополнять коллекции актуальными вопросами с собеседований по всем направлениям.
И это только начало! В планах — запуск 20+ новых сервисов для развития, нетворкинга и досуга. Оставайтесь с нами — будет ещё круче! 💪
Please open Telegram to view this post
VIEW IN TELEGRAM
#видео
🤓 Нашел видеоуроки по построению DeepSeek с нуля — уже вышло 25 выпусков. Объясняется неплохо, можно смотреть вместе с руководством по построению DeepSeek с нуля на HuggingFace.
Ссылка
👉 Новости 👉 База вопросов
Ссылка
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Как использовать APl tf.Gradient Таре для автоматического дифференцирования и градиентного спуска в TensorFlow?
API tf.Gradient Tape в TensorFlow позволяет записывать операции для автоматического вычисления градиентов. Он используется для выполнения дифференцирования в нейронных сетях и позволяет вычислять градиенты и обновлять параметры модели для минимизации ошибки с помощью градиентного спуска.
👉 Новости 👉 База вопросов
API tf.Gradient Tape в TensorFlow позволяет записывать операции для автоматического вычисления градиентов. Он используется для выполнения дифференцирования в нейронных сетях и позволяет вычислять градиенты и обновлять параметры модели для минимизации ошибки с помощью градиентного спуска.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
👍 Нарыл годную визуализацию для тех, кто хочет на пальцах понять, как устроены LLM. Тут можно не просто почитать про слои моделей, а буквально пощупать их, покрутить со всех сторон в 3D
Есть GPT-2, nanoGPT, GPT-2 XL и GPT-3
Лучше запускать с компа, на мобиле не так красиво
👉 Новости 👉 База вопросов
Есть GPT-2, nanoGPT, GPT-2 XL и GPT-3
Лучше запускать с компа, на мобиле не так красиво
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🛞 Qwen официально выпустили квантованные версии Qwen3!
Теперь Qwen3 можно развернуть через Ollama, LM Studio, SGLang и vLLM — выбирайте удобный формат (GGUF, AWQ или GPTQ) для локального деплоя.
Все модели доступны в коллекции Qwen3 на Hugging Face и ModelScope:
Hugging Face: https://huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f
ModelScope: https://modelscope.cn/collections/Qwen3-9743180bdc6b48
👉 Новости 👉 База вопросов
Теперь Qwen3 можно развернуть через Ollama, LM Studio, SGLang и vLLM — выбирайте удобный формат (GGUF, AWQ или GPTQ) для локального деплоя.
Все модели доступны в коллекции Qwen3 на Hugging Face и ModelScope:
Hugging Face: https://huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f
ModelScope: https://modelscope.cn/collections/Qwen3-9743180bdc6b48
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🤯 Reader от Jina AI — переводчик веб-страниц для языковых моделей. Этот необычный проект решает проблему всех RAG-систем, превращая контент веб-страниц в удобоваримый для LLM формат. Просто добавьте
Также запрос через
GitHub
👉 Новости 👉 База вопросов
https://r.jina.ai/ перед любой ссылкой и получите очищенный от рекламы, JS-кода и лишних элементов текст с автоматически подписанными изображениями. Также запрос через
s.jina.ai не просто выдает список ссылок, а сразу загружает и обрабатывает топ-5 результатов. Технология уже используется в продакшене и полностью бесплатна. GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Как справляться с переобучением и недообучением в моделях TensorFlow?
Для борьбы с переобучением в TensorFlow можно использовать регуляризацию (L1, L2), dropout, раннюю остановку или увеличивать обьем данных. Для борьбы с недообучением стоит увеличить сложность модели, добавить больше признаков или уменьшить регуляризацию.
👉 Новости 👉 База вопросов
Для борьбы с переобучением в TensorFlow можно использовать регуляризацию (L1, L2), dropout, раннюю остановку или увеличивать обьем данных. Для борьбы с недообучением стоит увеличить сложность модели, добавить больше признаков или уменьшить регуляризацию.
Please open Telegram to view this post
VIEW IN TELEGRAM