Data Mining | Анализ данных🚀 – Telegram
Data Mining | Анализ данных🚀
3.28K subscribers
1.73K photos
10 videos
5 files
1.7K links
• Купить рекламу: t.me/sahib_space
Админ: sahib_space
• Стоимость: https://www.notion.so/sahibspace/69ece414a4af49f2bdbdfe455e553e58?pvs=3&qid=
• Группа в ВК: vk.com/datamining.team
Download Telegram
🔥 Полный обзор на многоруких бандитов. Сохраняй себе!

Авторы рассматривают:
🟣Введение в модели принятия решений и компромисс между исследованием и использованием.
🟣Стратегия Epsilon-Greedy: Реализация на Python, вызовы и динамическая природа параметра исследования.
🟣Введение в алгоритм Softmax как улучшение по сравнению с стратегиями Epsilon-Greedy.
🟣Метод имитации отжига (Simulated Annealing): Постепенное уменьшение коэффициента исследования со временем.
🟣Введение в алгоритм Upper Confidence Bound (UCB) и его выбор на основе верхних границ уверенности.
🟣Байесовские бандиты: Введение в алгоритм Выборка Томпсона и байесовскую статистику.
🟣Объяснение теоремы Байеса и ее применение в принятии решений.
🟣Использование сопряженных априорных распределений и байесовской статистики в контексте бернуллиевских наград с бета-распределением.
🟣Ссылки для дополнительного изучения байесовской статистики.

Статья включает фрагменты кода на Python для реализации алгоритмов.

Ваш @dataminingteam🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥6🔥42
1️⃣Как перевернуть генератор?

2️⃣ Что такое pycache AND файлы .pyc?

3️⃣Как передать необязательные или ключевые параметры из одной функции в другую?

4️⃣Чем отличаются iter и next?

5️⃣Как работать с транзитивными зависимостями?

Ставь «🔥» и пиши свои ответы комментах👇

Ваш @dataminingteam🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥6🔥51
This media is not supported in your browser
VIEW IN TELEGRAM
Когда доделываешь последний таск и наконец можно расслабиться
😁10💯2
🔆 Статья вдается в суть проблемы исчезающего градиента в нейронных сетях, подчеркивая ее важность в контексте глубокого обучения. Предлагаются методы ее решения и подробно рассматривая расчеты градиентов, причины и признаки этой проблемы.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥6🔥31
📌 Обзор на Layer-wise Relevance Propagation (LRP) предоставляет понимание того, как обеспечить объяснимость прогнозов сложных нейронных сетей, выражая предсказания в терминах входных признаков.

🤩 Метод LRP обладает привлекательными свойствами, такими как эффективная и модульная реализация propagation rules в большинстве программных средств нейронных сетей, встроенных в фреймворк Deep Taylor Decomposition.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤‍🔥21
Помощь Ямилю Намазбаеву

Студент 2 курса магистратуры Ямиль Намазбаев сейчас проходит крайне сложное медицинское лечение.

Он и его семья нуждаются в финансовой поддержке.

Ямилю 28 лет. Крайние десять лет он работал в образовании и активно занимался продвижением и сохранением башкирского языка и башкирской культуры: работал учителем  в сельской школе, преподавал историю и обществознание детям-сиротам, преподавал башкирский на курсах при МГУ и в арабском центре, был активным участником курултая башкир Москвы и Московской области.

Ямиль один из самых отзывчивых, добрых и сердечных людей, который никогда не оставил бы друга или просто знакомого в беде.
И мы не должны оставлять его.

Перевести любую сумму можно по номеру карты его мамы:

2202202380463400

(Сбер, Айгуль Нуритдиновна X.) в комментарии к переводу обязательно указать: ЯМИЛЬ.
💯17
🤩Разбор регуляризации в глубоком обучении, подробно рассматривая компромисс между bias и variance для предотвращения переобучения и недообучения.

🩶Авторы охватывают различные методы регуляризации, включая L1, L2, Elastic Net, а также техники, такие как отсев, нормализация по батчам и аугментация данных, предоставляя обширный обзор для эффективного построения устойчивых моделей глубокого обучения.

https://theaisummer.com/regularization/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥72
😁11🐳3❤‍🔥2
🤩Все о метрикax оценки алгоритмов обучения без учителя, включая аксиомы Клейнберга (инвариантность масштаба, согласованность и тд.), вопросы гиперпараметрической настройки алгоритмов кластеризации и метрики внутренней валидации, такие как когенетический коэффициент корреляции и статистика Хьюберта.

🟡 Также вопросы внешней валидации и метрик, основанных на теории информации, методы определения тенденций кластеризации в данных и оценки качества результатов кластеризации.


https://arxiv.org/pdf/1905.05667.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥62❤‍🔥1💯1
Статья затрагивает важные темы статистики, такие как вероятность, плотность вероятности, MLE (максимальное правдоподобие), а также их применение в линейной регрессии и классификации. Дополнительно рассматривается влияние использования MSE (среднеквадратичная ошибка) в бинарной классификации и бинарной кросс-энтропии.

https://theaisummer.com/mle/#quantifying-distribution-closeness-kl-div
❤‍🔥5🔥32
1️⃣ Приведите пример использования filter и reduce над итерируемым объектом.

2️⃣ Как сделать копию объекта? Как сделать глубокую копию объекта?

3️⃣ Что такое магические методы (dunder-методы)?

4️⃣ Что такое контекстный менеджер? Зачем он нужен?

5️⃣ Как передать необязательные или ключевые параметры из одной функции в другую?

Ставь «🔥» и пиши свои ответы комментах👇

Ваш @dataminingteam🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤‍🔥2
👨‍💻 Туториал по основам геопространственных данных, включая векторные и растровые форматы, системы координат, библиотеки Python (Shapely, Geopandas), а также автор проводит кейс-анализ вспышки холеры 1854 года с использованием геоданных, предоставляя практические примеры и визуализациию.

https://www.learndatasci.com/tutorials/geospatial-data-python-geopandas-shapely/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥7
📌 В статье предоставляется пошаговое объяснение Deep Q Networks c Experience Replay.

⏩️ Рассматриваются основные концепции RL, методы решения, алгоритмы без модели, Q-обучение, а также policy-based методы и алгоритмы actor-critic в предстоящих статьях.
Please open Telegram to view this post
VIEW IN TELEGRAM
3
➡️ KNN (k-Nearest Neighbors) - простой метод классификации, который определяет класс образца путем измерения его сходства с другими близкими точками.

🤩Статья рассматривает принципы работы KNN в машинном обучении, преимущества и недостатки, а также включает Python-код для лучшего понимания.

https://www.scaler.com/topics/machine-learning/knn-algorithm-in-machine-learning/
Please open Telegram to view this post
VIEW IN TELEGRAM
💯4❤‍🔥1
📌 Разбор методов представления временных рядов и алгоритмы кластеризации, включая k-Means, Agglomerative Hierarchical Clustering, и Fuzzy c-Means.

🤩Исследование выявляет преимущества и недостатки различных методов (в форме таблиц), обсуждает вызовы выбора подходящих метрик расстояния и прототипов, а также уделяет внимание аспектам шума, чувствительности и точности определения прототипов кластера.
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥4❤‍🔥2
1️⃣Что такое MRO? Как это работает?

2️⃣Как аргументы передаются в функции: по значению или по ссылке?

3️⃣ Как сделать python-скрипт исполняемым в различных операционных системах?

4️⃣ Что такое @ classmethod, @ staticmethod, @ property?

5️⃣ Почему пустой список нельзя использовать как аргумент по умолчанию?

Ставь «🔥» и пиши свои ответы комментах👇

Ваш @dataminingteam🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤‍🔥22
🤩Обзор решения проблемы неравномерных данных в ML, где неравномерное распределение классов может привести к предвзятым прогнозам и низкой производительности моделей.

🍂Автор предлагает различные техники, undersampling и oversampling, cost-sensitive learning и использование ансамблевых моделей. Статья также подчеркивает важность предварительной обработки данных для создания сбалансированных наборов данных.

https://www.blog.trainindata.com/machine-learning-with-imbalanced-data/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥5💯32
🔥Крутое пособие по Discrete Latent Structurein in Neural Networks. Рассматриваются вызовы детерминированных выборов, регуляризированных операторов argmax, категориальной релаксации, глобальных структурированных релаксаций и attention mechanisms.

Затем следует подробное изучение градиентов-заменителей и вероятностных латентных переменных, охватывая явное маргинализирование, оценку градиента методом Монте-Карло и трюк репараметризации. Дополнительно рассматриваются градиентные оценщики Score Function и методы разрежения распределения.


https://arxiv.org/pdf/2301.07473.pdf
🍓5❤‍🔥21