Основы и последние достижения в методах глубокого полу-обучения (SSL) с точки зрения проектирования модели и функций потерь без учителя. Представлена таксономия методов, включая методы регуляризации, графовые методы, методы с псевдо-разметкой и гибридные методы, а также подробно рассмотрены 52 представительных метода с визуальным сравнением по типам потерь, вкладам и различиям в архитектуре.
https://arxiv.org/pdf/2103.00550.pdf
https://arxiv.org/pdf/2103.00550.pdf
❤🔥5🔥3
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤🔥2🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤🔥1👍1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤🔥1🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥7👍3🔥3
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥7🔥4⚡2
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥6🔥2
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥6🔥2
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤🔥2🍓1 1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥3❤🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥3❤🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤🔥2💯1
Please open Telegram to view this post
VIEW IN TELEGRAM
Статья рассматривает Gated Recurrent Unit (GRU) — специализированный вариант рекуррентных нейронных сетей (RNN), созданный для преодоления проблемы затухающего градиента. В ней подробно разбирается архитектура, математические уравнения и преимущества GRU, предоставляя практическое понимание их роли в различных областях, таких как обработка естественного языка и прогнозирование временных рядов.
https://www.educative.io/answers/what-is-a-gated-recurrent-unit-gru
https://www.educative.io/answers/what-is-a-gated-recurrent-unit-gru
🔥6 4❤🔥3
Автор представляет структуру под названием Patchscopes и показывает, как ее можно использовать для ответа на широкий спектр вопросов о вычислениях LLM.
https://arxiv.org/abs/2401.06102
https://arxiv.org/abs/2401.06102
👍6 5❤🔥3
В этой статье затронуты десять наиболее распространенных ошибок при обучении распределенных моделей и предложены решения каждой из них.
https://neptune.ai/blog/distributed-training-errors
https://neptune.ai/blog/distributed-training-errors
👍5❤🔥2
В этой статье автор рассмотрел широкий спектр визуализаций глубокого обучения и обсудил их применимость. Попутно он поделился множеством практических примеров и указал на библиотеки и подробные руководства по отдельным методам.
👍5❤🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥4🔥3⚡2
@dataminingteam
Please open Telegram to view this post
VIEW IN TELEGRAM
https://arxiv.org/abs/2401.04874
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥5