Автор статьи развеивает мифы о сложности работы с LLM и делится личным опытом внедрения таких моделей в продукты.
Он предлагает пошаговое руководство по использованию LLM, фокусируясь на практической стороне внедрения, стратегии и тактике, без углубления в теорию или обучение моделей с нуля, а также предоставляет список литературы.
https://habr.com/ru/articles/896598/
Он предлагает пошаговое руководство по использованию LLM, фокусируясь на практической стороне внедрения, стратегии и тактике, без углубления в теорию или обучение моделей с нуля, а также предоставляет список литературы.
https://habr.com/ru/articles/896598/
👍2
Статья описывает эксперимент по запуску клиента нейросети DeepSeek на старой операционной системе MS-DOS, используя современный сервер для обработки запросов.
Автор делится опытом настройки локальной версии DeepSeek и подключения к ней через MS-DOS с помощью сетевых драйверов и утилит mTCP.
https://habr.com/ru/companies/ru_mts/articles/888756/
Автор делится опытом настройки локальной версии DeepSeek и подключения к ней через MS-DOS с помощью сетевых драйверов и утилит mTCP.
https://habr.com/ru/companies/ru_mts/articles/888756/
❤🔥2
Представили новую технику оптимизации в DL — AYLA, которая улучшает сходимость и стабильность с помощью преобразования функции потерь и динамической скорости обучения.
Эксперименты показывают, что AYLA превосходит существующие методы, такие как SGD и ADAM, в различных задачах, таких как синтетические полиномы и классификация изображений.
https://arxiv.org/pdf/2504.01875
Эксперименты показывают, что AYLA превосходит существующие методы, такие как SGD и ADAM, в различных задачах, таких как синтетические полиномы и классификация изображений.
https://arxiv.org/pdf/2504.01875
❤🔥3
CFIRE — алгоритм для создания глобальных правил решений из локальных объяснений с использованием майнинга частых элементов.
Он решает проблему несогласованности методов объяснения и показывает высокую точность и производительность на 700 моделях черного ящика и 14 наборах данных.
https://arxiv.org/pdf/2504.00930
Он решает проблему несогласованности методов объяснения и показывает высокую точность и производительность на 700 моделях черного ящика и 14 наборах данных.
https://arxiv.org/pdf/2504.00930
❤🔥1
GraphMaster — первая многоагентная система для синтеза графовых данных в условиях ограниченных данных.
Она использует четыре специализированных агента LLM для оптимизации процесса синтеза, обеспечивая семантическую согласованность и структурную целостность, и демонстрирует превосходство по сравнению с традиционными методами синтеза.
https://arxiv.org/pdf/2504.00711
Она использует четыре специализированных агента LLM для оптимизации процесса синтеза, обеспечивая семантическую согласованность и структурную целостность, и демонстрирует превосходство по сравнению с традиционными методами синтеза.
https://arxiv.org/pdf/2504.00711
❤🔥1
В данной работе предлагается новая методика MetaLoRA, которая сочетает принципы мета-обучения и низкоранговой адаптации для эффективного подстраивания нейронных сетей под новые задачи.
MetaLoRA улучшает существующие методы, позволяя динамически настраивать параметры и лучше учитывать особенности различных задач, сохраняя при этом вычислительную эффективность.
https://arxiv.org/pdf/2504.00460
MetaLoRA улучшает существующие методы, позволяя динамически настраивать параметры и лучше учитывать особенности различных задач, сохраняя при этом вычислительную эффективность.
https://arxiv.org/pdf/2504.00460
❤🔥2
Статья объясняет, как использовать данные из «Яндекс.Метрики» для глубокого анализа и интеграции с другими источниками, такими как CRM-системы, для получения инсайтов и проверки гипотез.
В ней также приводится инструкция по получению OAuth-токена и примеры Python-кода для работы с API Яндекс.Метрики.
https://habr.com/ru/companies/digitalleague/articles/742156/
В ней также приводится инструкция по получению OAuth-токена и примеры Python-кода для работы с API Яндекс.Метрики.
https://habr.com/ru/companies/digitalleague/articles/742156/
👍2
Google DeepMind исследует, как LLM учат факты, обнаружив, что процесс происходит в три этапа: от запоминания статистических закономерностей до формирования связей между элементами текста и, наконец, к точному воспроизведению фактов.
Это исследование помогает понять причины “катастрофического забывания” при добавлении новых данных.
https://arxiv.org/pdf/2503.21676
Это исследование помогает понять причины “катастрофического забывания” при добавлении новых данных.
https://arxiv.org/pdf/2503.21676
👍2
II-Thought-RL-v0 — датасет для RL с 340 тысячами задач, решающий проблемы старых наборов данных, такие как дублирование и низкое качество.
Он включает верификацию и фильтрацию для повышения точности, но имеет дисбаланс, с преобладанием математики и программирования.
https://www.ii.inc/web/blog/post/ii-thought
Он включает верификацию и фильтрацию для повышения точности, но имеет дисбаланс, с преобладанием математики и программирования.
https://www.ii.inc/web/blog/post/ii-thought
❤🔥2