Исчерпывающий гайд o Support Vector Machine (SVM), начиная с его базовых принципов и математического обоснования, и до практической реализации в Python. Статья содержит информацию о разных типах алгоритмов SVM, работе с ядрами, выборе гиперпараметров и другом.
В дополнение можно пройтись по данной статье, где SVM рассматривается более визуально.
В дополнение можно пройтись по данной статье, где SVM рассматривается более визуально.
👍7❤🔥2🔥2
Статья охватывает тему многоклассовой классификации с использованием softmax-регрессии, рассматривает ее применения, преимущества и недостатки, а также предоставляет практическую реализацию на Python и в PyTorch.
https://spotintelligence.com/2023/08/16/softmax-regression/
https://spotintelligence.com/2023/08/16/softmax-regression/
❤🔥6
📣 Подробное руководство по пониманию и написанию кода для BERT с использованием PyTorch.
📎Охватывает его компоненты и различия с другими языковыми моделями.
Статья включает preprocessing, построени модели, определение функции потерь и оптимизации, а также обучение.
📎Автор объясняет характер BERT, его задачи предварительного обучения (модель языка с маскированными токенами и предсказание следующего предложения) и способность превосходить другие модели в различных задачах.
https://neptune.ai/blog/how-to-code-bert-using-pytorch-tutorial
📎Охватывает его компоненты и различия с другими языковыми моделями.
Статья включает preprocessing, построени модели, определение функции потерь и оптимизации, а также обучение.
📎Автор объясняет характер BERT, его задачи предварительного обучения (модель языка с маскированными токенами и предсказание следующего предложения) и способность превосходить другие модели в различных задачах.
https://neptune.ai/blog/how-to-code-bert-using-pytorch-tutorial
❤🔥3
📣 Подробное руководство по пониманию и написанию кода для BERT с использованием PyTorch.
📎Охватывает его компоненты и различия с другими языковыми моделями.
Статья включает preprocessing, построени модели, определение функции потерь и оптимизации, а также обучение.
📎Автор объясняет характер BERT, его задачи предварительного обучения (модель языка с маскированными токенами и предсказание следующего предложения) и способность превосходить другие модели в различных задачах.
https://neptune.ai/blog/how-to-code-bert-using-pytorch-tutorial
📎Охватывает его компоненты и различия с другими языковыми моделями.
Статья включает preprocessing, построени модели, определение функции потерь и оптимизации, а также обучение.
📎Автор объясняет характер BERT, его задачи предварительного обучения (модель языка с маскированными токенами и предсказание следующего предложения) и способность превосходить другие модели в различных задачах.
https://neptune.ai/blog/how-to-code-bert-using-pytorch-tutorial
❤🔥6🔥4 3
https://www.learndatasci.com/tutorials/intro-feature-engineering-machine-learning-python/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥3🔥2👍1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥5
Митап для DS и ML-разработчиков от МТС
4 июля | 18:30
Офлайн в Москве | Онлайн
Что будет в программе:
— Эксперты из RnD расскажут, как как адаптировать Open Source-модели генеративного ИИ, чтобы с минимальными ресурсами получить приемлемое качество дообучения.
— Обсудим, что такое персональные ИИ-решения и как в МТС создавали персональных Аватара и Ассистента.
— Узнаем про LLM от экспертов MTS AI.
Очных участников ждут нетворкинг и ламповый вечер в пространстве летнего кинотеатра в парке «Музеон». Все желающие смогут присоединиться онлайн.
Регистрируйтесь по ссылке.
4 июля | 18:30
Офлайн в Москве | Онлайн
Что будет в программе:
— Эксперты из RnD расскажут, как как адаптировать Open Source-модели генеративного ИИ, чтобы с минимальными ресурсами получить приемлемое качество дообучения.
— Обсудим, что такое персональные ИИ-решения и как в МТС создавали персональных Аватара и Ассистента.
— Узнаем про LLM от экспертов MTS AI.
Очных участников ждут нетворкинг и ламповый вечер в пространстве летнего кинотеатра в парке «Музеон». Все желающие смогут присоединиться онлайн.
Регистрируйтесь по ссылке.
🔥6
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥2 1
Рубрика поддержи друзей 🌝
Собственно, наш друг занимается торговлей, поэтому просим вас поддержать.
По ссылке детский надувной круг.
Как поддержать?
- купить
- оставить отзыв
- сделать репост
https://ozon.ru/t/7wJRRN2
Собственно, наш друг занимается торговлей, поэтому просим вас поддержать.
По ссылке детский надувной круг.
Как поддержать?
- купить
- оставить отзыв
- сделать репост
https://ozon.ru/t/7wJRRN2
❤🔥5🔥2 1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤🔥3
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤🔥1👍1
В данной статье предложены методы subbagging для оценки больших данных с ограничениями по памяти. Исследованы теоретические свойства, показано, что subbagging оценка может достичь √N-состоятельности и асимптотической нормальности при определенных условиях. Проведены эксперименты симуляции для демонстрации производительности на конечных выборках.
https://arxiv.org/pdf/2103.00631.pdf
https://arxiv.org/pdf/2103.00631.pdf
👍4❤🔥1🔥1
Автор разбирает подход к обучению нейронок, при котором вместо использования планировщиков скорости обучения предлагается увеличивать размер батча. Автор показывает, что это может привести к более быстрой сходимости и не худшим результатам обучения.
Темы статьи включают общие проблемы нейронных сетей, влияние размера батча на обобщающую способность модели и сравнение методов регулирования скорости обучения и размера батча.
Темы статьи включают общие проблемы нейронных сетей, влияние размера батча на обобщающую способность модели и сравнение методов регулирования скорости обучения и размера батча.
🔥3❤🔥1 1