Data Mining | Анализ данных🚀 – Telegram
Data Mining | Анализ данных🚀
3.28K subscribers
1.73K photos
10 videos
5 files
1.7K links
• Купить рекламу: t.me/sahib_space
Админ: sahib_space
• Стоимость: https://www.notion.so/sahibspace/69ece414a4af49f2bdbdfe455e553e58?pvs=3&qid=
• Группа в ВК: vk.com/datamining.team
Download Telegram
Помощь Ямилю Намазбаеву

Студент 2 курса магистратуры Ямиль Намазбаев сейчас проходит крайне сложное медицинское лечение.

Он и его семья нуждаются в финансовой поддержке.

Ямилю 28 лет. Крайние десять лет он работал в образовании и активно занимался продвижением и сохранением башкирского языка и башкирской культуры: работал учителем  в сельской школе, преподавал историю и обществознание детям-сиротам, преподавал башкирский на курсах при МГУ и в арабском центре, был активным участником курултая башкир Москвы и Московской области.

Ямиль один из самых отзывчивых, добрых и сердечных людей, который никогда не оставил бы друга или просто знакомого в беде.
И мы не должны оставлять его.

Перевести любую сумму можно по номеру карты его мамы:

2202202380463400

(Сбер, Айгуль Нуритдиновна X.) в комментарии к переводу обязательно указать: ЯМИЛЬ.
💯17
🤩Разбор регуляризации в глубоком обучении, подробно рассматривая компромисс между bias и variance для предотвращения переобучения и недообучения.

🩶Авторы охватывают различные методы регуляризации, включая L1, L2, Elastic Net, а также техники, такие как отсев, нормализация по батчам и аугментация данных, предоставляя обширный обзор для эффективного построения устойчивых моделей глубокого обучения.

https://theaisummer.com/regularization/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥72
😁11🐳3❤‍🔥2
🤩Все о метрикax оценки алгоритмов обучения без учителя, включая аксиомы Клейнберга (инвариантность масштаба, согласованность и тд.), вопросы гиперпараметрической настройки алгоритмов кластеризации и метрики внутренней валидации, такие как когенетический коэффициент корреляции и статистика Хьюберта.

🟡 Также вопросы внешней валидации и метрик, основанных на теории информации, методы определения тенденций кластеризации в данных и оценки качества результатов кластеризации.


https://arxiv.org/pdf/1905.05667.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥62❤‍🔥1💯1
Статья затрагивает важные темы статистики, такие как вероятность, плотность вероятности, MLE (максимальное правдоподобие), а также их применение в линейной регрессии и классификации. Дополнительно рассматривается влияние использования MSE (среднеквадратичная ошибка) в бинарной классификации и бинарной кросс-энтропии.

https://theaisummer.com/mle/#quantifying-distribution-closeness-kl-div
❤‍🔥5🔥32
1️⃣ Приведите пример использования filter и reduce над итерируемым объектом.

2️⃣ Как сделать копию объекта? Как сделать глубокую копию объекта?

3️⃣ Что такое магические методы (dunder-методы)?

4️⃣ Что такое контекстный менеджер? Зачем он нужен?

5️⃣ Как передать необязательные или ключевые параметры из одной функции в другую?

Ставь «🔥» и пиши свои ответы комментах👇

Ваш @dataminingteam🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤‍🔥2
👨‍💻 Туториал по основам геопространственных данных, включая векторные и растровые форматы, системы координат, библиотеки Python (Shapely, Geopandas), а также автор проводит кейс-анализ вспышки холеры 1854 года с использованием геоданных, предоставляя практические примеры и визуализациию.

https://www.learndatasci.com/tutorials/geospatial-data-python-geopandas-shapely/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥7
📌 В статье предоставляется пошаговое объяснение Deep Q Networks c Experience Replay.

⏩️ Рассматриваются основные концепции RL, методы решения, алгоритмы без модели, Q-обучение, а также policy-based методы и алгоритмы actor-critic в предстоящих статьях.
Please open Telegram to view this post
VIEW IN TELEGRAM
3
➡️ KNN (k-Nearest Neighbors) - простой метод классификации, который определяет класс образца путем измерения его сходства с другими близкими точками.

🤩Статья рассматривает принципы работы KNN в машинном обучении, преимущества и недостатки, а также включает Python-код для лучшего понимания.

https://www.scaler.com/topics/machine-learning/knn-algorithm-in-machine-learning/
Please open Telegram to view this post
VIEW IN TELEGRAM
💯4❤‍🔥1
📌 Разбор методов представления временных рядов и алгоритмы кластеризации, включая k-Means, Agglomerative Hierarchical Clustering, и Fuzzy c-Means.

🤩Исследование выявляет преимущества и недостатки различных методов (в форме таблиц), обсуждает вызовы выбора подходящих метрик расстояния и прототипов, а также уделяет внимание аспектам шума, чувствительности и точности определения прототипов кластера.
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥4❤‍🔥2
1️⃣Что такое MRO? Как это работает?

2️⃣Как аргументы передаются в функции: по значению или по ссылке?

3️⃣ Как сделать python-скрипт исполняемым в различных операционных системах?

4️⃣ Что такое @ classmethod, @ staticmethod, @ property?

5️⃣ Почему пустой список нельзя использовать как аргумент по умолчанию?

Ставь «🔥» и пиши свои ответы комментах👇

Ваш @dataminingteam🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤‍🔥22
🤩Обзор решения проблемы неравномерных данных в ML, где неравномерное распределение классов может привести к предвзятым прогнозам и низкой производительности моделей.

🍂Автор предлагает различные техники, undersampling и oversampling, cost-sensitive learning и использование ансамблевых моделей. Статья также подчеркивает важность предварительной обработки данных для создания сбалансированных наборов данных.

https://www.blog.trainindata.com/machine-learning-with-imbalanced-data/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥5💯32
🔥Крутое пособие по Discrete Latent Structurein in Neural Networks. Рассматриваются вызовы детерминированных выборов, регуляризированных операторов argmax, категориальной релаксации, глобальных структурированных релаксаций и attention mechanisms.

Затем следует подробное изучение градиентов-заменителей и вероятностных латентных переменных, охватывая явное маргинализирование, оценку градиента методом Монте-Карло и трюк репараметризации. Дополнительно рассматриваются градиентные оценщики Score Function и методы разрежения распределения.


https://arxiv.org/pdf/2301.07473.pdf
🍓5❤‍🔥21
🤩Детальный разбор Convolutions on Graphs. Авторы охватывают проблемы вычислений на графах, представляют способы расширения сверток на графах, включая полиномиальные фильтры и современные графовые нейронные сети.

🍂Рассматриваются темы от локальных до глобальных сверток, спектральные свертки и обучение параметров графовых нейронных сетей.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥73🔥2
💻 Yandex Cloud выпустила большое обновление платформы для работы с данными

Облачная платформа запустила сервис для управления метаданными Yandex MetaData Hub, повысила безопасность баз данных, а инструмент BI-аналитики Yandex DataLens получил новые возможности. Всё это позволит компаниям быстро и надёжно создавать дата-проекты в облаке — от корпоративных хранилищ данных до аналитических и рекомендательных систем.

💬 Больше об обновлениях платформы данных читайте в статье.
Please open Telegram to view this post
VIEW IN TELEGRAM
61❤‍🔥1
🤩В данной работе представлен алгоритм LLE-HKAP для высокоразмерных наборов данных. Алгоритм решает проблемы, связанные с неопределенностью центра кластера и количеством кластеров, используя двухчастную стратегию, включающую метод Locally Linear Embedding (LLE) для снижения размерности и алгоритм Hybrid Kernel Affinity Propagation (HKAP). Алгоритм LLE-HKAP демонстрирует эффективность в точном определении числа кластеров и хорошей производительности по различным метрикам.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤‍🔥22
1⃣ В чём разница между пакетами и модулями? 

2⃣ Как проверить файл .py на синтаксические ошибки, не запуская его?

3⃣ Что такое *args и **kwargs в определении функции?

4⃣ Чем отличаются многопоточное и многопроцессорное приложение?

5⃣ Как работать с транзитивными зависимостями?

Ставь «🔥» и пиши свои ответы комментах👇

Ваш @dataminingteam🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥82
🤩Представление классификаторов минимаксного риска (MRC), минимизирующих потери в худшем случае для общих правил классификации и обеспечивающих точные гарантии производительности.

🍂Показано, как можно надежно оценить внесемпловую производительность MRC в процессе обучения, и что ошибка MRC из-за конечных размеров обучающих выборок определяется точностью оценок математических ожиданий. Кроме того, показано, что MRC являются сильно всесторонне согласованными в ситуациях, аналогичных тем, что соответствуют методам на основе ядра.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥5🔥32