Data Mining | Анализ данных🚀 – Telegram
Data Mining | Анализ данных🚀
3.31K subscribers
1.73K photos
10 videos
5 files
1.7K links
• Купить рекламу: t.me/sahib_space
Админ: sahib_space
• Стоимость: https://www.notion.so/sahibspace/69ece414a4af49f2bdbdfe455e553e58?pvs=3&qid=
• Группа в ВК: vk.com/datamining.team
Download Telegram
Для балансировки нагрузки используется Nginx upstream, который проксирует WebSocket-соединения на различные реплики и разрывает соединение через 15 минут неактивности.

Реплики сохраняют историю переписки в Redis, обеспечивая восстановление контекста, а управление репликами осуществляется через PM2.

https://habr.com/ru/articles/896222/
👍2
Статья описывает проблемы галлюцинаций в языковых моделях, где они могут давать неверные ответы из-за случайных факторов, а также проблемы с протоколами вызова инструментов, например, неправильный XML-формат.

Также подчеркивается важность корректного заполнения форм и правильной ротации сообщений, чтобы не нарушить бизнес-логику системы.

https://habr.com/ru/articles/892866/
👍2
Статья рассматривает создание многопользовательского чат-бота на основе LLM, подчеркивая важность разделения бизнес-логики и провайдера модели для гибкости в выборе LLM и предотвращения галлюцинаций.

Также акцентируется внимание на необходимости тестового окружения для оценки стабильности при смене моделей, учитывая их частые обновления и изменения в поведении.

https://habr.com/ru/articles/878658/
👍3
Статья рассматривает четыре основных подхода к созданию и улучшению моделей рассуждений в контексте LLM, включая их преимущества, недостатки и методологию DeepSeek R1.

Также обсуждаются советы по разработке таких моделей с ограниченным бюджетом, а также влияние DeepSeek V3 и R1 на развитие области.

https://habr.com/ru/articles/894688/
👍2
AI меняет рабочие процессы, при этом акцент смещается на качество пользовательского опыта, а не на количество функций.

Профессионалы предпочитают комбинировать специализированные инструменты, что помогает повысить продуктивность и избежать неудовлетворенности от универсальных решений.

https://habr.com/ru/articles/893202/
🐳2👍1
Автор статьи объясняет, как развернуть виртуальный хостинг с использованием Python для создания веб-сервисов и Webhook.

В материале подробно описан процесс создания сайта, настройки базы данных и размещения Python-кода на платформе Netangels.

https://habr.com/ru/companies/digitalleague/articles/763866/
🔥3
Статья оценивает методы выбора признаков, основанные на LLM и предлагает гибридную стратегию LLM4FS, которая сочетает LLM с традиционными методами, такими как случайный лес и последовательный выбор признаков.

Результаты показывают, что эта стратегия превосходит как LLM, так и традиционные методы в задаче выбора признаков, но имеет свои ограничения при применении в принятии решений.

https://arxiv.org/pdf/2503.24157
👍3
PaperBench — это новый бенчмарк от OpenAI для оценки способности ИИ-агентов воспроизводить передовые исследования в области ИИ, основанный на статьях конференции ICML 2024.

Лучший результат среди протестированных моделей показал агент Claude 3.5 Sonnet с 21% точности воспроизведения, однако все модели отстают от уровня экспертов.

cdn.openai.com/papers/22265bac-3191-44e5-b057-7aaacd8e90cd/paperbench.pdf
👍2
LLM Scraper — это инструмент для парсинга веб-страниц с использованием языковых моделей, который понимает контекст и адаптируется к изменениям вёрстки.

Он поддерживает различные форматы входных данных, включая HTML и скриншоты, и использует Playwright для рендеринга JavaScript-страниц.

https://github.com/mishushakov/llm-scraper
🔥3
Автор статьи развеивает мифы о сложности работы с LLM и делится личным опытом внедрения таких моделей в продукты.

Он предлагает пошаговое руководство по использованию LLM, фокусируясь на практической стороне внедрения, стратегии и тактике, без углубления в теорию или обучение моделей с нуля, а также предоставляет список литературы.

https://habr.com/ru/articles/896598/
👍2
Статья описывает эксперимент по запуску клиента нейросети DeepSeek на старой операционной системе MS-DOS, используя современный сервер для обработки запросов.

Автор делится опытом настройки локальной версии DeepSeek и подключения к ней через MS-DOS с помощью сетевых драйверов и утилит mTCP.

https://habr.com/ru/companies/ru_mts/articles/888756/
❤‍🔥2
Представили новую технику оптимизации в DL — AYLA, которая улучшает сходимость и стабильность с помощью преобразования функции потерь и динамической скорости обучения.

Эксперименты показывают, что AYLA превосходит существующие методы, такие как SGD и ADAM, в различных задачах, таких как синтетические полиномы и классификация изображений.

https://arxiv.org/pdf/2504.01875
❤‍🔥3
CFIRE — алгоритм для создания глобальных правил решений из локальных объяснений с использованием майнинга частых элементов.

Он решает проблему несогласованности методов объяснения и показывает высокую точность и производительность на 700 моделях черного ящика и 14 наборах данных.

https://arxiv.org/pdf/2504.00930
❤‍🔥1
GraphMaster — первая многоагентная система для синтеза графовых данных в условиях ограниченных данных.

Она использует четыре специализированных агента LLM для оптимизации процесса синтеза, обеспечивая семантическую согласованность и структурную целостность, и демонстрирует превосходство по сравнению с традиционными методами синтеза.

https://arxiv.org/pdf/2504.00711
❤‍🔥1
В данной работе предлагается новая методика MetaLoRA, которая сочетает принципы мета-обучения и низкоранговой адаптации для эффективного подстраивания нейронных сетей под новые задачи.

MetaLoRA улучшает существующие методы, позволяя динамически настраивать параметры и лучше учитывать особенности различных задач, сохраняя при этом вычислительную эффективность.

https://arxiv.org/pdf/2504.00460
❤‍🔥2
Статья объясняет, как использовать данные из «Яндекс.Метрики» для глубокого анализа и интеграции с другими источниками, такими как CRM-системы, для получения инсайтов и проверки гипотез.

В ней также приводится инструкция по получению OAuth-токена и примеры Python-кода для работы с API Яндекс.Метрики.

https://habr.com/ru/companies/digitalleague/articles/742156/
👍2
Google DeepMind исследует, как LLM учат факты, обнаружив, что процесс происходит в три этапа: от запоминания статистических закономерностей до формирования связей между элементами текста и, наконец, к точному воспроизведению фактов.

Это исследование помогает понять причины “катастрофического забывания” при добавлении новых данных.

https://arxiv.org/pdf/2503.21676
👍2
II-Thought-RL-v0 — датасет для RL с 340 тысячами задач, решающий проблемы старых наборов данных, такие как дублирование и низкое качество.

Он включает верификацию и фильтрацию для повышения точности, но имеет дисбаланс, с преобладанием математики и программирования.

https://www.ii.inc/web/blog/post/ii-thought
❤‍🔥2