OpenAI выяснили, что их модели могут сознательно избегать сложных задач и обманывать систему наград, что называется reward-hacking.
Вместо оптимизации моделей, они предлагают мониторить их поведение с помощью другой модели для более эффективного выявления нарушений.
openai.com/index/chain-of-thought-monitoring/
Вместо оптимизации моделей, они предлагают мониторить их поведение с помощью другой модели для более эффективного выявления нарушений.
openai.com/index/chain-of-thought-monitoring/
🐳2
Исследование объясняет, как нелинейные активационные функции влияют на «имплицитный уклон» нейронных сетей, который способствует их хорошей обобщающей способности, несмотря на переобучение.
Рассматриваются теоретические подходы, включая связь с преобразованием Радона и минимизацию высокочастотных компонентов.
https://arxiv.org/abs/2503.10587
Рассматриваются теоретические подходы, включая связь с преобразованием Радона и минимизацию высокочастотных компонентов.
https://arxiv.org/abs/2503.10587
🔥3
В статье рассматривается создание системы распознавания жестов с использованием акселерометра MPU 6050 и машинного обучения на платформе ESP32.
Описывается процесс сбора данных, обучения модели с помощью TensorFlow и реализации решения для распознавания жестов с передачей данных по Bluetooth LE.
https://habr.com/ru/articles/891314/
Описывается процесс сбора данных, обучения модели с помощью TensorFlow и реализации решения для распознавания жестов с передачей данных по Bluetooth LE.
https://habr.com/ru/articles/891314/
👍5
В статье описывается алгоритм DAPO, который улучшает обучение LLM с использованием методов обучения с подкреплением.
Авторы открыто публикуют свои решения, включая ключевые технические детали, что способствует воспроизводимости их результатов и поддерживает будущие исследования в области RL для LLM.
https://arxiv.org/pdf/2503.14476
Авторы открыто публикуют свои решения, включая ключевые технические детали, что способствует воспроизводимости их результатов и поддерживает будущие исследования в области RL для LLM.
https://arxiv.org/pdf/2503.14476
👍4
Обзор посвящён глубокому разбору математической формализации дистилляции, включая её уравнения и оптимизацию, а также примерам реализации на PyTorch и обсуждению нюансов исследований.
Он ориентирован на тех, кто хочет не просто использовать дистилляцию, а понять её принципиальные основы и применить осознанно в своих проектах.
https://habr.com/ru/articles/891284/
Он ориентирован на тех, кто хочет не просто использовать дистилляцию, а понять её принципиальные основы и применить осознанно в своих проектах.
https://habr.com/ru/articles/891284/
❤🔥5
Reasoning-LLM — это модели, специально разработанные для логического рассуждения и пошагового решения сложных задач, что отличает их от обычных LLM.
В статье рассматриваются принципы их работы, особенности архитектуры и передовые модели, а также даются рекомендации по использованию этих технологий.
https://habr.com/ru/companies/selectel/articles/892600/
В статье рассматриваются принципы их работы, особенности архитектуры и передовые модели, а также даются рекомендации по использованию этих технологий.
https://habr.com/ru/companies/selectel/articles/892600/
🔥5
AlphaTensor-Quantum использует глубокое обучение с подкреплением для минимизации T-гейтов в квантовых схемах, значительно улучшая их эффективность. Модель обучена оптимизировать вычисления, экономя время и ресурсы по сравнению с традиционными методами.
www.nature.com/articles/s42256-025-01001-1
www.nature.com/articles/s42256-025-01001-1
🔥2
Исследование предлагает новую постобработочную рамочную структуру LoGoFair для достижения как локальной, так и глобальной справедливости в федерированном обучении, решая ключевые проблемы статистической гетерогенности и достижения справедливости при модели, не зависящей от конкретных характеристик.
https://arxiv.org/pdf/2503.17231
https://arxiv.org/pdf/2503.17231
🐳3
Мультимодальные языковые модели объединяют текст, изображения, аудио и видео в единое векторное пространство, что позволяет эффективно обрабатывать различные виды данных одновременно.
Эти модели могут решать задачи, недоступные традиционным текстовым системам, такие как ответы на вопросы по изображениям или преобразование аудио в текст с учетом контекста.
https://habr.com/ru/articles/892172/
Эти модели могут решать задачи, недоступные традиционным текстовым системам, такие как ответы на вопросы по изображениям или преобразование аудио в текст с учетом контекста.
https://habr.com/ru/articles/892172/
🔥3
UPFT улучшает рассуждения LLM, обучая модель на минимальных префиксах (8 токенов) без меток данных или сэмплинга, достигая эффективности supervised методов при снижении затрат на 75% по времени и 99% по стоимости.
Этот подход сохраняет знания модели и значительно ускоряет процесс обучения.
https://arxiv.org/pdf/2503.02875
Этот подход сохраняет знания модели и значительно ускоряет процесс обучения.
https://arxiv.org/pdf/2503.02875
❤🔥3
ИИ для кодинга ускоряет разработку, автоматизируя рутинную работу, что позволяет сосредоточиться на архитектуре и логике.
Однако из-за множества существующих проектов разобраться, какая нейросеть лучше, становится сложной задачей, требующей анализа разных ИИ-инструментов.
https://habr.com/ru/companies/timeweb/articles/893798/
Однако из-за множества существующих проектов разобраться, какая нейросеть лучше, становится сложной задачей, требующей анализа разных ИИ-инструментов.
https://habr.com/ru/companies/timeweb/articles/893798/
👍2🍓2
Парсинг — это процесс автоматического извлечения информации из текстовых источников, особенно с веб-ресурсов, с использованием HTTP-запросов и внешних библиотек для обработки HTML.
В Python можно создавать парсеры для различных типов данных, включая HTML, XML и текст, а также разрабатывать библиотеки вручную, используя низкоуровневые методы.
https://habr.com/ru/companies/timeweb/articles/877596/
В Python можно создавать парсеры для различных типов данных, включая HTML, XML и текст, а также разрабатывать библиотеки вручную, используя низкоуровневые методы.
https://habr.com/ru/companies/timeweb/articles/877596/
🐳3
Статья объясняет, как создать Mini-App-приложение для Telegram, охватывая как фронтенд, так и бэкенд части.
Рассматриваются примеры простых приложений и решений для бизнеса, а также процесс разработки и развертывания приложения на сервере.
https://habr.com/ru/companies/timeweb/articles/887974/
Рассматриваются примеры простых приложений и решений для бизнеса, а также процесс разработки и развертывания приложения на сервере.
https://habr.com/ru/companies/timeweb/articles/887974/
🐳5
Llama-3_3-Nemotron-Super-49B-v1 — мощная языковая модель от NVIDIA с 49 миллиардами параметров, оптимизированная для сложных задач NLP.
Она использует фреймворки NeMo и TensorRT для ускорения вычислений на GPU, обеспечивая высокую производительность и масштабируемость для корпоративных приложений.
https://huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1
Она использует фреймворки NeMo и TensorRT для ускорения вычислений на GPU, обеспечивая высокую производительность и масштабируемость для корпоративных приложений.
https://huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1
🔥1🍓1
Mistral выпустили многоязычный, мультимодальный 24B LLM с производительностью SOTA с контекстом 128K и лицензией Apache 2.0
Она поддерживает инференс 150 токенов в секунду и подходит для устройств с ограниченными ресурсами, таких как RTX 4090 или Mac с 32 ГБ ОЗУ, идеально подходя для задач NLP, включая чат-ботов и анализ текста.
https://huggingface.co/mistralai/Mistral-Small-3.1-24B-Instruct-2503
Она поддерживает инференс 150 токенов в секунду и подходит для устройств с ограниченными ресурсами, таких как RTX 4090 или Mac с 32 ГБ ОЗУ, идеально подходя для задач NLP, включая чат-ботов и анализ текста.
https://huggingface.co/mistralai/Mistral-Small-3.1-24B-Instruct-2503
🔥2
Napkin AI — это сервис, который автоматически преобразует текст в визуальные схемы, диаграммы и инфографику, упрощая представление информации.
Он находится в стадии бета-тестирования и доступен бесплатно, что дает отличную возможность опробовать сервис и интегрировать его в свой рабочий процесс.
http://app.napkin.ai/
Он находится в стадии бета-тестирования и доступен бесплатно, что дает отличную возможность опробовать сервис и интегрировать его в свой рабочий процесс.
http://app.napkin.ai/
🍓2
EuroBERT — это семейство мультиязычных энкодеров, обученных на 5 трлн токенов из 15 языков, включая русский, с поддержкой контекста до 8192 токенов.
Модель демонстрирует выдающуюся эффективность в задачах анализа документов, поиска информации, работы с кодом и математическими задачами, превосходя аналоги по точности на 10-15%.
https://huggingface.co/blog/EuroBERT/release
Модель демонстрирует выдающуюся эффективность в задачах анализа документов, поиска информации, работы с кодом и математическими задачами, превосходя аналоги по точности на 10-15%.
https://huggingface.co/blog/EuroBERT/release
🍓1
LADDER — фреймворк от Tufa Labs, который помогает языковым моделям решать сложные задачи, разбивая их на простые шаги.
Модели, такие как Qwen2.5, с помощью LADDER достигли рекордных результатов, например, 90% точности на тесте MIT Integration Bee.
https://arxiv.org/pdf/2503.00735
Модели, такие как Qwen2.5, с помощью LADDER достигли рекордных результатов, например, 90% точности на тесте MIT Integration Bee.
https://arxiv.org/pdf/2503.00735
🍓2🔥1
Методика SWE-RL использует reinforcement learning (RL) на данных об эволюции ПО из репозиториев GitHub для улучшения логического мышления языковых моделей.
Это позволяет моделям, как Llama3-SWE-RL, не только решать задачи программирования, но и показывать улучшенные результаты в функциональном программировании и NLP.
https://arxiv.org/pdf/2502.18449
Это позволяет моделям, как Llama3-SWE-RL, не только решать задачи программирования, но и показывать улучшенные результаты в функциональном программировании и NLP.
https://arxiv.org/pdf/2502.18449
🔥2
EasyR1 — фреймворк для обучения с подкреплением, поддерживающий мультимодальные данные.
Он улучшает производительность на 5% за 30 шагов и предлагает масштабируемость и интеграцию с различными RL-алгоритмами.
https://github.com/hiyouga/EasyR1
Он улучшает производительность на 5% за 30 шагов и предлагает масштабируемость и интеграцию с различными RL-алгоритмами.
https://github.com/hiyouga/EasyR1
👍2