#полезное
😬 Топ на выходные: 3 сайта с задачками для прокачки ML-навыков
Линейная алгебра, machine и deep learning — разный уровень сложности: задачи отсортированы по Easy, Mediums и Hard. Автоматическая проверка и подсказки в комплекте
Deep-ML, Tensorgym и ML cекция на NeetCode — не благодарите
👉 Новости 👉 База вопросов
Линейная алгебра, machine и deep learning — разный уровень сложности: задачи отсортированы по Easy, Mediums и Hard. Автоматическая проверка и подсказки в комплекте
Deep-ML, Tensorgym и ML cекция на NeetCode — не благодарите
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🫠 Внутренности PyTorch
Подробное руководство о том, как разобраться в кодовой базе PyTorch и начать вносить вклад в её развитие
Тык сюда
👉 Новости 👉 База вопросов
Подробное руководство о том, как разобраться в кодовой базе PyTorch и начать вносить вклад в её развитие
Тык сюда
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Как TensorFlow использует GPU и TPU для вычислений?
TensorFlow использует:
-
-
- Динамическое распределение вычислений между устройствами.
👉 Новости 👉 База вопросов
TensorFlow использует:
-
GPU (через CUDA) для ускоренных матричных операций.-
TPU (специальные чипы от Google) для высокопроизводительных ML-задач.- Динамическое распределение вычислений между устройствами.
Please open Telegram to view this post
VIEW IN TELEGRAM
#статьи
🛞 Огромная статья, которая посвящена оптимизации вывода (инференса) больших языковых моделей (LLM) с использованием одного графического процессора!
Автор делится опытом создания собственного движка для LLM на основе C++ и CUDA, фокусируясь на максимизации пропускной способности. Рассматриваются ключевые этапы, такие как загрузка модели, выполнение прямого прохода, использование кеша KV и многозадачность на CPU. Также подчеркивается важность пропускной способности памяти и квантования модели (например, FP16) для эффективного вывода. В статье приводятся бенчмарки и сравнение с другими фреймворками, такими как llama.cpp и Hugging Face, чтобы установить реалистичные цели по производительности.
Ссылка клик
👉 Новости 👉 База вопросов
Автор делится опытом создания собственного движка для LLM на основе C++ и CUDA, фокусируясь на максимизации пропускной способности. Рассматриваются ключевые этапы, такие как загрузка модели, выполнение прямого прохода, использование кеша KV и многозадачность на CPU. Также подчеркивается важность пропускной способности памяти и квантования модели (например, FP16) для эффективного вывода. В статье приводятся бенчмарки и сравнение с другими фреймворками, такими как llama.cpp и Hugging Face, чтобы установить реалистичные цели по производительности.
Ссылка клик
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😎 Мира Мурати получит 2 миллиарда долларов от крупнейшнего венчурного фонда a16z
Оценка при этом составит 10 миллиардов. Но самое занятное в этой сделке – ее условия, на которые чудом согласились инвесторы.
Дело в том, что Мира сохраняет за собой математическое абсолютное превосходство над советом директоров. Ее голос в совете равен (кол-во членов совета + 1), то есть он будет решающим в любом голосовании, даже если все остальные проголосуют иначе.
Кроме того, все учредители-основатели владеют акциями, повышающими их обычное количество голосов в 100 раз, а Мира может пользоваться этими голосами по доверенности. А значит, ей хватает прав в одиночку уволить или назначить кого угодно в совет.
👉 Новости 👉 База вопросов
Оценка при этом составит 10 миллиардов. Но самое занятное в этой сделке – ее условия, на которые чудом согласились инвесторы.
Дело в том, что Мира сохраняет за собой математическое абсолютное превосходство над советом директоров. Ее голос в совете равен (кол-во членов совета + 1), то есть он будет решающим в любом голосовании, даже если все остальные проголосуют иначе.
Кроме того, все учредители-основатели владеют акциями, повышающими их обычное количество голосов в 100 раз, а Мира может пользоваться этими голосами по доверенности. А значит, ей хватает прав в одиночку уволить или назначить кого угодно в совет.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😵💫 PySpur
PySpur — это полезны и легкий инструмент для создания и управления рабочими процессами, с минимальным количеством зависимостей.
Он позволяет легко добавлять новые узлы через файл на Python и использует формат JSON для настройки графов.
Инструмент поддерживает асинхронное выполнение задач, работу с несколькими модальностями данных и оптимизацию конвейеров. Кроме того, он предоставляет возможность генерации узлов с использованием технологий искусственного интеллекта.
Гитхаб
👉 Новости 👉 База вопросов
PySpur — это полезны и легкий инструмент для создания и управления рабочими процессами, с минимальным количеством зависимостей.
Он позволяет легко добавлять новые узлы через файл на Python и использует формат JSON для настройки графов.
Инструмент поддерживает асинхронное выполнение задач, работу с несколькими модальностями данных и оптимизацию конвейеров. Кроме того, он предоставляет возможность генерации узлов с использованием технологий искусственного интеллекта.
Гитхаб
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Как развернуть модель TensorFlow в продакшене?
Развертывание модели TensorFlow включает:
- Обучение и сохранение модели (
- Загрузку в TensorFlow Serving для АР|-запросов.
- Интеграцию с клиентским приложением через REST или gRPC.
- Мониторинг и обновление модели при необходимости.
👉 Новости 👉 База вопросов
Развертывание модели TensorFlow включает:
- Обучение и сохранение модели (
SavedModel ).- Загрузку в TensorFlow Serving для АР|-запросов.
- Интеграцию с клиентским приложением через REST или gRPC.
- Мониторинг и обновление модели при необходимости.
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😊 Один из лучших гайдов по выборке в больших языковых моделях (LLM Sampling) вышел, написанный создателем движка инференса Aphrodite (этот парень реально обожает сэмплеры)
Ссылка тут
👉 Новости 👉 База вопросов
Ссылка тут
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
📞 Создание трансформера с нуля
Реализация и подробное объяснение трансформера, с расчётом на полное отсутствие предварительных знаний.
👉 Новости 👉 База вопросов
Реализация и подробное объяснение трансформера, с расчётом на полное отсутствие предварительных знаний.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - DorsaRoh/Machine-Learning: ML from scratch
ML from scratch. Contribute to DorsaRoh/Machine-Learning development by creating an account on GitHub.
#полезное
❤️🔥 Cookiecutter Data Science v2: быстрый старт для ML-проектов
Cookiecutter Data Science — это шаблон проекта, который помогает быстро, логично и по best practices стартовать любой Data Science-проект.
Почему стоит попробовать:
🟠 Стандартизирует пайплайны и артефакты по всей команде
🟠 CLI ccds автоматизирует создание структуры: больше никакого «копипаста» старого проекта
🟠 Конфигурируется под стек: pip/conda, black/ruff, лицензии, S3/MLflow — всё на входе
🟠 Упор на воспроизводимость и читаемость (особенно при handover между командами)
Простая установка:
Пример запуска:
Дальше — просто отвечаете на вопросы. В результате получаете полностью готовую структуру: с README, тестами, логированием, конфигами и даже поддержкой MLflow.
Документация
👉 Новости 👉 База вопросов
Cookiecutter Data Science — это шаблон проекта, который помогает быстро, логично и по best practices стартовать любой Data Science-проект.
Почему стоит попробовать:
Простая установка:
pipx install cookiecutter-data-science
ccds
Пример запуска:
ccds https://github.com/drivendataorg/cookiecutter-data-science
Дальше — просто отвечаете на вопросы. В результате получаете полностью готовую структуру: с README, тестами, логированием, конфигами и даже поддержкой MLflow.
Документация
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Какова роль TensorFlow Dataset AP| и как он улучшает производительность?
tf. data. Dataset предназначен для загрузки и предварительной обработки данных перед обучением моделей. Он:
- Позволяет работать с файлами (CSV, TFRecord).
- Загружает данные потоками, уменьшая потребление памяти.
- Поддерживает параллельную обработку, увеличивая скорость.
- Интегрируется с Eager Execution , упрощая отладку.
👉 Новости 👉 База вопросов
tf. data. Dataset предназначен для загрузки и предварительной обработки данных перед обучением моделей. Он:
- Позволяет работать с файлами (CSV, TFRecord).
- Загружает данные потоками, уменьшая потребление памяти.
- Поддерживает параллельную обработку, увеличивая скорость.
- Интегрируется с Eager Execution , упрощая отладку.
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
#видео
😇 Наткнулись тут на YouTube на речь Дженсена Хуанга в честь получения премии Эдисона
Оказывается, предприниматель выиграл ее еще в апреле, но вручение произошло только на днях. Премия Эдисона – это очень престижная награда за самые важные и влиятельные коммерческие изобретения и проекты в мире.
Ранее премию получали Стив Джобс, Илон Маск, Тед Тернер (основатель канала CNN) и другие.
Кстати, в этом году Nvidia исполняется 32 года. Но Хуанг говорит, что ключевым моментом для компании стала «ставка на ИИ, сделанная 15 лет назад».
📱 Смотреть видео
👉 Новости 👉 База вопросов
Оказывается, предприниматель выиграл ее еще в апреле, но вручение произошло только на днях. Премия Эдисона – это очень престижная награда за самые важные и влиятельные коммерческие изобретения и проекты в мире.
Ранее премию получали Стив Джобс, Илон Маск, Тед Тернер (основатель канала CNN) и другие.
Кстати, в этом году Nvidia исполняется 32 года. Но Хуанг говорит, что ключевым моментом для компании стала «ставка на ИИ, сделанная 15 лет назад».
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😊 DocsGPT — открытый RAG-ассистент для работы с документами. Это не просто чат-бот, а целая экосистема, которая умеет извлекать информацию из PDF, DOCX, веб-страниц и даже GitHub-репозиториев, сохраняя привязку к исходным данным.
Что выделяет проект:
🟠 Поддержка локальных моделей (Ollama, llama.cpp) и облачных API (OpenAI, Anthropic)
🟠 Готовые интеграции для Discord, Telegram и веб-сайтов
🟠 Возможность расширения функционала через инструменты и вебхуки
Для старта достаточно клонировать репозиторий и запустить setup-скрипт — через пару минут вы получите работающий инстанс с интерфейсом на localhost.
Гитхаб
👉 Новости 👉 База вопросов
Что выделяет проект:
Для старта достаточно клонировать репозиторий и запустить setup-скрипт — через пару минут вы получите работающий инстанс с интерфейсом на localhost.
Гитхаб
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😊 Исследователи из лабы SakanaAI предложили новую архитектуру нейросетей, вдохновленную биологическими нейронными процессами – Continuous Thought Machine
Кстати, SakanaAI – это та самая японская лаборатория, выпустившая ИИ-ученого, статья которого прошла рецензирование на ICLR воркшоп. Ну так вот⬇️
Ключевая фишка CTM (Continuous Thought Machine) в наличии тиков мыслей. Аналогия с мозгом тут в том, что человек на самом деле не получает ответы за один "проход" по нейронам, как это делается, например, в трансформерах.
Живые нейроны активны всё время, через миллисекунды после первого сигнала информация осмысливается глубже, подключаются новые области коры и тд. Это и называется "тик". В нейросетях один тик – это как бы один прямой проход. В трансформерах для получения ответа тик всегда один, а в CTM их может быть и 5, и 10, и 50. Модель сама решает, сколько ей нужно – в зависимости от сложности задачи.
При этом проходы не независимые. Для каждого нейрона мы храним историю пред- и пост-активаций, чтобы он мог «смотреть» на свою динамику на предыдущих тиках. И, кстати, нейроны в CTM тоже необычные. Здесь это не просто сумма взвешенных входов, как в большинстве моделей, а самостоятельный мини-перцептрон (MLP). Все это тоже построено на аналогиях из биологии.
Ну и еще одна ключевая особенность CTM – это синхронизация нейронов. В нейробиологии считается, что важны не столько независимые активации нейронов, сколько то, как и когда они активируются относительно друг друга. Нейроны, чьи осцилляции или пики потенциала происходят синхронно, чаще участвуют в совместной обработке информации.
Поэтому здесь специально вычисляется так называемая матрица синхронизаций. Она показывает скалярные корреляции временных рядов активаций. Самые важные подмножества затем идут либо в слой внимания, либо напрямую проецируются в логиты.
И да, все это вполне прилично (и иногда лучше классических архитектур) работает на классических задачах типа ImageNet-1K, CIFAR-10 и MNIST, а еще модель отлично решает лабиринты.
В общем, работа большая и сложная, но в статье все расписано вполне доходчиво, так что советуем почитать полностью или полистать интерактивный репорт
Код в опенсорсе
👉 Новости 👉 База вопросов
Кстати, SakanaAI – это та самая японская лаборатория, выпустившая ИИ-ученого, статья которого прошла рецензирование на ICLR воркшоп. Ну так вот
Ключевая фишка CTM (Continuous Thought Machine) в наличии тиков мыслей. Аналогия с мозгом тут в том, что человек на самом деле не получает ответы за один "проход" по нейронам, как это делается, например, в трансформерах.
Живые нейроны активны всё время, через миллисекунды после первого сигнала информация осмысливается глубже, подключаются новые области коры и тд. Это и называется "тик". В нейросетях один тик – это как бы один прямой проход. В трансформерах для получения ответа тик всегда один, а в CTM их может быть и 5, и 10, и 50. Модель сама решает, сколько ей нужно – в зависимости от сложности задачи.
При этом проходы не независимые. Для каждого нейрона мы храним историю пред- и пост-активаций, чтобы он мог «смотреть» на свою динамику на предыдущих тиках. И, кстати, нейроны в CTM тоже необычные. Здесь это не просто сумма взвешенных входов, как в большинстве моделей, а самостоятельный мини-перцептрон (MLP). Все это тоже построено на аналогиях из биологии.
Ну и еще одна ключевая особенность CTM – это синхронизация нейронов. В нейробиологии считается, что важны не столько независимые активации нейронов, сколько то, как и когда они активируются относительно друг друга. Нейроны, чьи осцилляции или пики потенциала происходят синхронно, чаще участвуют в совместной обработке информации.
Поэтому здесь специально вычисляется так называемая матрица синхронизаций. Она показывает скалярные корреляции временных рядов активаций. Самые важные подмножества затем идут либо в слой внимания, либо напрямую проецируются в логиты.
И да, все это вполне прилично (и иногда лучше классических архитектур) работает на классических задачах типа ImageNet-1K, CIFAR-10 и MNIST, а еще модель отлично решает лабиринты.
В общем, работа большая и сложная, но в статье все расписано вполне доходчиво, так что советуем почитать полностью или полистать интерактивный репорт
Код в опенсорсе
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
#Собес #TensorFlow
🤔 Как реализовать рекуррентную нейронную сеть (RNN) в TensorFlow?
Чтобы реализовать RNN в TensorFlow, необходимо:
- Импортировать библиотеки и определить гиперпараметры.
- Подготовить входные данные и создать слои сети, используя
- Определить функцию потерь и оптимизатор, например Adam .
- Обучить модель, используя
- Оценить качество на тестовых данных.
👉 Новости 👉 База вопросов
Чтобы реализовать RNN в TensorFlow, необходимо:
- Импортировать библиотеки и определить гиперпараметры.
- Подготовить входные данные и создать слои сети, используя
tf. keras. layers.SimpleRNN, LSTM ИЛИ GRU .- Определить функцию потерь и оптимизатор, например Adam .
- Обучить модель, используя
model. fit().- Оценить качество на тестовых данных.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😵💫 Hugging Face представили бесплатного Open Computer Agent — открытый аналог Operator, запускающийся на виртуальной Linux-машине. Этот агент умеет искать и бронировать билеты, заказывать столик в ресторане и решать множество других задач.
Есть два «но»: он иногда не справляется с CAPTCHA, а из-за высокой нагрузки ответы могут идти чуть дольше. Зато всё бесплатно и с открытым исходным кодом!
Попробовать можно прямо сейчас: тык
👉 Новости 👉 База вопросов
Есть два «но»: он иногда не справляется с CAPTCHA, а из-за высокой нагрузки ответы могут идти чуть дольше. Зато всё бесплатно и с открытым исходным кодом!
Попробовать можно прямо сейчас: тык
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from YeaHub
На этой неделе мы побили рекорд по количеству регистраций — и это важный для нас рубеж! 🚀 Мы не останавливаемся на достигнутом и готовим крутые обновления:
- Обновленный лендинг — станет еще информативнее и удобнее;
- Публичные страницы коллекций — делитесь своими подборками с сообществом;
- Избранное для вопросов — сохраняйте самое важное в один клик;
- Горячий режим 🔥 — для дополнительной мотивации;
- Мультипрофили — удобное переключение между аккаунтами;
- Новый сервис "Полезные ресурсы" — всё необходимое для развития в одном месте.
А еще мы будем еженедельно пополнять коллекции актуальными вопросами с собеседований по всем направлениям.
И это только начало! В планах — запуск 20+ новых сервисов для развития, нетворкинга и досуга. Оставайтесь с нами — будет ещё круче! 💪
Please open Telegram to view this post
VIEW IN TELEGRAM
#видео
🤓 Нашел видеоуроки по построению DeepSeek с нуля — уже вышло 25 выпусков. Объясняется неплохо, можно смотреть вместе с руководством по построению DeepSeek с нуля на HuggingFace.
Ссылка
👉 Новости 👉 База вопросов
Ссылка
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #TensorFlow
🤔 Как использовать APl tf.Gradient Таре для автоматического дифференцирования и градиентного спуска в TensorFlow?
API tf.Gradient Tape в TensorFlow позволяет записывать операции для автоматического вычисления градиентов. Он используется для выполнения дифференцирования в нейронных сетях и позволяет вычислять градиенты и обновлять параметры модели для минимизации ошибки с помощью градиентного спуска.
👉 Новости 👉 База вопросов
API tf.Gradient Tape в TensorFlow позволяет записывать операции для автоматического вычисления градиентов. Он используется для выполнения дифференцирования в нейронных сетях и позволяет вычислять градиенты и обновлять параметры модели для минимизации ошибки с помощью градиентного спуска.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
👍 Нарыл годную визуализацию для тех, кто хочет на пальцах понять, как устроены LLM. Тут можно не просто почитать про слои моделей, а буквально пощупать их, покрутить со всех сторон в 3D
Есть GPT-2, nanoGPT, GPT-2 XL и GPT-3
Лучше запускать с компа, на мобиле не так красиво
👉 Новости 👉 База вопросов
Есть GPT-2, nanoGPT, GPT-2 XL и GPT-3
Лучше запускать с компа, на мобиле не так красиво
Please open Telegram to view this post
VIEW IN TELEGRAM