Data Mining | Анализ данных🚀 – Telegram
Data Mining | Анализ данных🚀
3.31K subscribers
1.73K photos
10 videos
5 files
1.7K links
• Купить рекламу: t.me/sahib_space
Админ: sahib_space
• Стоимость: https://www.notion.so/sahibspace/69ece414a4af49f2bdbdfe455e553e58?pvs=3&qid=
• Группа в ВК: vk.com/datamining.team
Download Telegram
Статья сравнивает два подхода к созданию игры “Пинг-Понг” на языке Go с использованием нейросетей DeepSeek и ChatGPT.
Основное внимание уделено различиям в реализации кода, результаты можно прочесть ⤵️

https://habr.com/ru/articles/878766/
❤‍🔥2
Работа посвящена теоретическому анализу широко используемого типа MDM.
Авторы показали, что её эффективность сильно зависит от целевой метрики оценки.

Все выводы подтверждены эмпирическими исследованиями.

https://arxiv.org/pdf/2502.09622
👍3
В материале объясняется, что выбор метода ML зависит от множества факторов, таких как данные и цели проекта.

Также представлена шпаргалка по алгоритмам Microsoft Azure, которая поможет выбрать оптимальный подход для предсказательной аналитики.

https://habr.com/ru/companies/microsoft/articles/317512/
🍓2
OpenAI выпустили гайд по тому, как правильно обращаться с ризонинг-моделями.

В гайде объясняется, чем модели логического рассуждения отличаются от GPT-моделей, а также даются рекомендации по их применению и эффективному формулированию запросов.

https://platform.openai.com/docs/guides/reasoning-best-practices
❤‍🔥2
В статье представлен PREFEVAL — бенчмарк для оценки способности LLM учитывать предпочтения пользователей в длинных контекстах.

Эксперименты показали, что даже с продвинутыми методами LLM сталкиваются с трудностями, но дообучение на PREFEVAL значительно улучшает результаты.

https://arxiv.org/pdf/2502.09597
🍓2
ScaleAI обнаружили уязвимость Jailbreaking-to-Jailbreak (J2), при которой модель, обученная на отказах, может взломать другие ИИ и даже себя.

Это позволяет обходить защиту с успешностью в 93%, выявляя фундаментальную уязвимость в системах ИИ.

https://scale.com/research/j2
❤‍🔥3🔥31
DeepSeek предложили NSA (Native Sparse Attention), разреженный механизм внимания, который делит процесс на три части: Token Compression, Token Selection и Sliding Window, что позволяет эффективно обрабатывать длинные последовательности.

Этот подход ускоряет вычисления и в некоторых случаях превосходит традиционное внимание.

arxiv.org/pdf/2502.11089
🍓3❤‍🔥1🐳1
Автор рассматривает инструменты для развёртывания моделей ML , которые помогают масштабировать и управлять жизненным циклом, включая сервинг, мониторинг и управление API‑эндпоинтами.

Особое внимание уделяется выбору и применению инструментов для эффективной интеграции MLOps‑решений.

https://habr.com/ru/companies/otus/articles/883894/
👍4🍓2
Умение грамотно управлять данными — конкурентное преимущество. 
Но как прокачивать навыки работы с ними?
Один из способов — читать правильную литературу.

В этом посте
собран список книг о базовых принципах реляционных баз данных и SQL, продвинутых инструментах и языках программирования и многом другом.

https://habr.com/ru/companies/ru_mts/articles/884678/
👍2
DeepCircuitX — это всесторонний набор данных для улучшения понимания и генерации RTL кода, включая аннотации Chain of Thought и PPA метрики.

Он служит важным ресурсом для разработки машинного обучения в области автоматизации проектирования аппаратного обеспечения.

https://arxiv.org/pdf/2502.18297
🍓2
Команда API Яндекс Карт разработала масштабируемый геокодер с использованием глубокого обучения, который точно определяет локации, даже при опечатках и неформальных запросах на разных языках.

Геокодер быстро адаптируется для работы в новых странах, применяя методы активного обучения, аугментации данных и контрастивного обучения.

https://habr.com/ru/companies/yandex/articles/877086/
🔥3
Статья вводит в теоретические основы асинхронных и параллельных методов, начиная с оптимальности SGD для одного устройства, и сравнивает Minibatch SGD, Asynchronous SGD и Rennala SGD по временной сложности с учетом различного времени вычислений.

https://habr.com/ru/companies/airi/articles/883266/
❤‍🔥2
OpenAI выяснили, что их модели могут сознательно избегать сложных задач и обманывать систему наград, что называется reward-hacking.

Вместо оптимизации моделей, они предлагают мониторить их поведение с помощью другой модели для более эффективного выявления нарушений.

openai.com/index/chain-of-thought-monitoring/
🐳2
Исследование объясняет, как нелинейные активационные функции влияют на «имплицитный уклон» нейронных сетей, который способствует их хорошей обобщающей способности, несмотря на переобучение.

Рассматриваются теоретические подходы, включая связь с преобразованием Радона и минимизацию высокочастотных компонентов.

https://arxiv.org/abs/2503.10587
🔥3
В статье рассматривается создание системы распознавания жестов с использованием акселерометра MPU 6050 и машинного обучения на платформе ESP32.

Описывается процесс сбора данных, обучения модели с помощью TensorFlow и реализации решения для распознавания жестов с передачей данных по Bluetooth LE.

https://habr.com/ru/articles/891314/
👍5
В статье описывается алгоритм DAPO, который улучшает обучение LLM с использованием методов обучения с подкреплением.

Авторы открыто публикуют свои решения, включая ключевые технические детали, что способствует воспроизводимости их результатов и поддерживает будущие исследования в области RL для LLM.

https://arxiv.org/pdf/2503.14476
👍4
Обзор посвящён глубокому разбору математической формализации дистилляции, включая её уравнения и оптимизацию, а также примерам реализации на PyTorch и обсуждению нюансов исследований.

Он ориентирован на тех, кто хочет не просто использовать дистилляцию, а понять её принципиальные основы и применить осознанно в своих проектах.

https://habr.com/ru/articles/891284/
❤‍🔥5
Reasoning-LLM — это модели, специально разработанные для логического рассуждения и пошагового решения сложных задач, что отличает их от обычных LLM.

В статье рассматриваются принципы их работы, особенности архитектуры и передовые модели, а также даются рекомендации по использованию этих технологий.

https://habr.com/ru/companies/selectel/articles/892600/
🔥5
AlphaTensor-Quantum использует глубокое обучение с подкреплением для минимизации T-гейтов в квантовых схемах, значительно улучшая их эффективность. Модель обучена оптимизировать вычисления, экономя время и ресурсы по сравнению с традиционными методами.

www.nature.com/articles/s42256-025-01001-1
🔥2
Исследование предлагает новую постобработочную рамочную структуру LoGoFair для достижения как локальной, так и глобальной справедливости в федерированном обучении, решая ключевые проблемы статистической гетерогенности и достижения справедливости при модели, не зависящей от конкретных характеристик.

https://arxiv.org/pdf/2503.17231
🐳3