Data Mining | Анализ данных🚀 – Telegram
Data Mining | Анализ данных🚀
3.3K subscribers
1.73K photos
10 videos
5 files
1.7K links
• Купить рекламу: t.me/sahib_space
Админ: sahib_space
• Стоимость: https://www.notion.so/sahibspace/69ece414a4af49f2bdbdfe455e553e58?pvs=3&qid=
• Группа в ВК: vk.com/datamining.team
Download Telegram
Статья описывает методы обучения с использованием SVM, включая классификацию и регрессию.

Она объясняет основные параметры моделей SVM, их применение для линейных и нелинейных данных, а также методы оптимизации и выбора гиперпараметров для улучшения точности модели.

https://scikit-learn.ru/stable/modules/svm.html
7
Статья охватывает методы обучения машинных моделей без использования меток данных, включая обучение без учителя, самообучение и генеративные модели.

Эти подходы минимизируют зависимость от размеченных наборов данных и находят применение в задачах кластеризации, обработки изображений и текстов.

https://habr.com/ru/amp/publications/842444/
🔥32
Статья описывает концепцию GraphRAG, объединяющая графы знаний с методами RAG для улучшения поиска и генерации ответов на основе структурированных данных.

Это позволяет моделям, таким как LLM, эффективно обрабатывать сложные и специализированные запросы, улучшая точность ответов.

https://www.kdnuggets.com/an-introduction-to-graph-rag
👍32❤‍🔥1
Статья о том, как GraphRAG улучшает традиционный метод RAG, интегрируя графы знаний с большими языковыми моделями, что позволяет более точно и контекстуализированно извлекать информацию для генерации ответов.

Автор описывает различные архитектуры GraphRAG, а также трудности, связанные с построением и поддержанием графов знаний.

https://gradientflow.substack.com/p/graphrag-design-patterns-challenges
❤‍🔥6🔥3
Статья рассказывает о том, как DS используется в социальных проектах для решения глобальных проблем, таких как экология, здравоохранение и образование.

Приводятся примеры реальных инициатив, где аналитика данных помогает организациям повысить свою эффективность и достичь позитивных изменений в обществе.

https://www.kdnuggets.com/data-science-for-social-good-real-world-projects-making-a-difference
🔥6
Пять шпаргалок в DS, которые обобщают ключевые концепции и инструменты в области DS, ML статистики.

Эти ресурсы помогают быстро освоить основные методы и алгоритмы, необходимые для успешного старта в сфере данных.

https://www.kdnuggets.com/5-cheat-sheets-getting-started-data-science
🔥4👍1
Статья знакомит с новым Python-менеджером пакетов, который призван улучшить работу с зависимостями и ускорить процесс разработки за счет оптимизированной архитектуры.

Инструмент предлагает решение для быстрого обновления пакетов и эффективного управления проектами, снижая сложность интеграции сторонних библиотек.

https://www.kdnuggets.com/new-python-package-manager
👍4
В статье описываются ключевые принципы создания устойчивых ETL пайплайнов для обработки данных, акцентируя внимание на автоматизации, масштабируемости и обработке ошибок.

Также рассматриваются лучшие практики для интеграции различных инструментов и обеспечения качества данных в процессе анализа и ML.

https://www.kdnuggets.com/developing-robust-etl-pipelines-for-data-science-projects
👍42❤‍🔥1
Статья раскрывает оптимизацию RAG через интеграцию ГБД, улучшая семантическое извлечение и контекстуализацию для LLM, что снижает галлюцинации.

Архитектурные подходы, включая кластеризацию и схемы, усиливают точность и осведомленность моделей в специфических доменах.

https://arxiv.org/abs/2411.09702
👍11
Статья представляет метод SG-Mixed применяет техники машинного обучения для повышения эффективности ГМ, комбинируя различные стратегии обучения с ограничениями на векторные представления.

Этот подход улучшает точность генерации при ограниченных данных, снижая вычислительные затраты.

https://arxiv.org/abs/2411.09678
👍7🔥2
Статья предлагает использование трансформеров (T) в контексте RL с механизмами внимания (A), что улучшает эффективность ГМ, минимизируя вычислительные расходы через оптимизацию векторных представлений (e).

Такой подход усиливает обучение на малых выборках, балансируя сложность архитектуры и ресурсные затраты.

https://arxiv.org/abs/2411.09591
👍6🔥2❤‍🔥1
В статье предложен метод, где модели создают данные, подражая существующим примерам, минимизируя необходимость в разметке.

Этот подход улучшает генерацию, обучая модели эффективно воспроизводить поведение без явных меток.

https://arxiv.org/abs/2411.09229
🔥4👍1
Статья исследует современные методы федеративного обучения, акцентируя внимание на решении проблем безопасности и оптимизации коммуникаций в распределённых системах.

Обсуждаются новые подходы для повышения эффективности и конфиденциальности данных.

https://dl.acm.org/doi/10.1145/3676164
🔥42
Статья анализирует комбинацию глубоких сетей и алгоритмов RL, рассматривая стабилизацию обучения и улучшение представлений.

Освещаются проблемы вычислений и оптимизация баланса между исследованием и эксплуатацией.

https://dl.acm.org/doi/10.1145/3539604
❤‍🔥2🐳22
Статья анализирует использование графовых генеративных моделей, таких как GraphGAN и GraphVAE, для синтеза данных, сохраняющих сложные топологические и зависимые структуры.

Рассматриваются теоретические подходы, методы оптимизации и их применение в области молекулярного дизайна, сетевого анализа и рекомендательных систем.

https://arxiv.org/abs/2411.08640
❤‍🔥4🔥22
Статья представляет обзор методов и архитектур PLMs для обработки естественного языка, таких как BERT, GPT и T5.

А также рассматривает подходы к их предобучению и дообучению для решения разнообразных задач NLP.

https://www.jmlr.org/papers/volume25/23-0386/23-0386.pdf
❤‍🔥3🐳1
В статье автор рассматривает архитектуру LLM в NLP, акцентируя внимание на трансформерах, их механизмах и подходах к обучению.

https://medium.com/@vipra_singh/llm-architectures-explained-nlp-fundamentals-part-1-de5bf75e553a
🐳5
В статье рассматриваются способы представления слов в виде многомерных векторов, которые используются для обработки и анализа текста, а также их роль в обучении моделей

https://medium.com/@vipra_singh/llm-architectures-explained-word-embeddings-part-2-ff6b9cf1d82d
👍7
Статья объясняет архитектуры RNN, LSTM и GRU, которые используются в моделях для обработки последовательных данных.

Далее писываются их особенности, преимущества и недостатки, а также их роль в улучшении производительности LMs.

https://medium.com/@vipra_singh/llm-architectures-explained-rnn-lstm-grus-part-3-c5e1cbfeda1d
4❤‍🔥3🍓3
Статья объясняет архитектуру энкодер-декодер и как она разделяет процесс кодирования, декодирования информации для улучшения производительности в задачах с последовательными данными.

https://medium.com/@vipra_singh/llm-architectures-explained-encoder-decoder-architecture-part-4-b96ace71394c
❤‍🔥2👍2🐳22
Статья разбирает механизм внимания, позволяющий моделям фокусироваться на различных частях входных данных при их обработке.

Этот механизм значительно улучшает эффективность и точность обработки длинных последовательностей, особенно в задачах перевода и обработки текста.

https://medium.com/@vipra_singh/llm-architectures-explained-attention-part-5-495bbe3d278e
🔥5