Data Science | Machinelearning [ru] – Telegram
Data Science | Machinelearning [ru]
20.1K subscribers
630 photos
39 videos
29 files
3.52K links
Все о Data Science, машинном обучении и искусственном интеллекте: от базовой теории до cutting-edge исследований и LLM.

По вопросам рекламы или разработки - @g_abashkin

РКН: https://vk.cc/cJPGXD
Download Telegram
​​📇Атрибутивное распознавание документов

В этой статье хочу обсудить подходы к решению задачи атрибутивного распознавания, а также проблемы с которыми я сталкивался за 10 лет практики в этой области.

Читать...
​​🥳 TexGen: генерация 3D-текстур на основе текста с многоракурсной выборкой и повторной выборкой

Новая структура выборки и повторной выборки нескольких видов для генерации текстур, использующую предварительно обученную модель диффузии текста в изображение.

Благодаря обширному количеству качественных и количественных оценок метод обеспечивает значительно лучшее качество текстур для разнообразных 3D-объектов с высокой степенью согласованности вида и богатой детализацией внешнего вида, превосходя современные методы.

Кроме того, этот метод генерации текстур может также применяться для редактирования текстур с сохранением исходной идентичности.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться
​​✉️Маршрутизация обращений: автоматизация в ИТ-поддержке с помощью ИИ и языковых моделей

В этой статье я расскажу, как нам удалось преобразовать подход к обслуживанию ИT‑запросов поддержки пользователей через проект интеллектуальной классификации и маршрутизации.

Читать...
​​😵Как анализировать тысячи отзывов с ChatGPT? Частые ошибки и пример на реальных данных

В этой статье автор расскажет про свой опыт решения рабочей задачи — анализ отзывов пользователей о компании, а также мы разберём возможные ошибки и посмотрим на пример кода и реальных данных.

Читать...
​​🗣Как мы сломали языковой барьер с помощью одной модели?

В этой статье я расскажу о реализации моего бесшовного модуля мультиязычности.

Читать...
​​🚀LLaVA-OneVision: простая визуальная передача задач

LLaVA-OneVision — семейство открытых больших мультимодальных моделей (LMM), разработанных путем консолидации наших идей в области данных, моделей и визуальных представлений в серии блогов LLaVA-NeXT.

Модель, которая может одновременно раздвигать границы производительности открытых LMM в трех важных сценариях компьютерного зрения: сценарии с одним изображением, несколькими изображениями и видео.

Важно отметить, что конструкция LLaVA-OneVision допускает сильный перенос обучения между различными модальностями/сценариями, что дает новые появляющиеся возможности.

В частности, сильное понимание видео и возможности кросс-сценариев демонстрируются посредством переноса задач с изображений на видео.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться
​​🔍Как мы построили сервис, который поможет сократить поиск видео контента в огромной базе данных

В этой статье мы расскажем, как мы использовали современные AI-технологии, чтобы сделать поиск видео быстрым и точным.

Читать...
​​⚡️LLM-DetectAIve: инструмент для точного машинного обнаружения текста

Система, разработанная для детального обнаружения MGT.

Она способна классифицировать тексты по четырем категориям: написанные человеком, сгенерированные машиной, написанные машиной-очеловеченные и написанные машиной-отшлифованные.

В отличие от предыдущих детекторов MGT, которые выполняют бинарную классификацию, введение двух дополнительных категорий в LLM-DetectiAIve дает представление о различных степенях вмешательства LLM во время создания текста.

Это может быть полезно в некоторых областях, таких как образование, где любое вмешательство LLM обычно запрещено.

Эксперименты показывают, что LLM-DetectAIve может эффективно определять авторство текстового контента, доказывая его полезность для повышения целостности в образовании, академической среде и других областях.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться
​​👍Оценка LLM с большим окном контекста

В этой статье мы расскажем как получилось достичь уровня gpt-4 на собственном ограниченном датасете большого контекста.

Читать...
​​🤖Transformer Explainer: Интерактивное обучение текстогенерирующим моделям

Этот инструмент помогает пользователям понять сложные концепции трансформеров, интегрируя обзор модели и обеспечивая плавные переходы между уровнями абстракции математических операций и структур моделей.

Он запускает живой экземпляр GPT-2 локально в браузере пользователя, позволяя пользователям экспериментировать с собственным вводом и наблюдать в реальном времени, как внутренние компоненты и параметры трансформера работают вместе, чтобы предсказывать следующие токены.

Инструмент не требует установки или специального оборудования, расширяя образовательный доступ общественности к современным генеративным методам ИИ.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться
​​🦙Опенсорс на арене: правда ли так хороша Llama 3.1 405B?

В этой статье мы проведем независимое расследование: сравним возможности Llama 3.1 405B с GPT-4o и Claude 3.5 Sonnet на ряду задач, от программирования до творческого письма, и попробуем понять, насколько она готова к практическому применению.

Читать...
​​👾Transfer learning: подробный гайд для начинающих

В этой статье мы расскажем, как работает TL, где оно используется, и разберем конкретные кейсы.

Читать...
​​🔥VITA: Towards Open-Source Interactive Omni Multimodal LLM

Мультимодальная большая языковая модель (MLLM) с открытым исходным кодом, которая способна одновременно обрабатывать и анализировать модальности видео, изображений, текста и аудио, и в то же время обладает передовым мультимодальным интерактивным опытом.

Она демонстрирует надежные базовые возможности многоязычного, визуального и аудиопонимания, о чем свидетельствует ее высокая производительность в ряде как унимодальных, так и мультимодальных тестов.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться
​​🗣Fine-tuning больших языковых моделей в 2024 году

В этой статье мы рассмотрим жизненный цикл LLM, включая этапы концепции, выбора модели и оценки точности.

Читать...
​​🦾ControlNeXt: Powerful and Efficient Control for Image and Video Generation

ControlNeXt — мощный и эффективный метод для контролируемой генерации изображений и видео.

Метод легко интегрируется с другими весами LoRA, позволяя изменять стиль без необходимости дополнительного обучения.

Были проведены различные эксперименты с различными базовыми моделями для изображений и видео, продемонстрировав надежность нашего метода.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться
👍1
​​😉Уроки, извлеченные из масштабирования до многотерабайтных датасетов

В этой статье я расскажу, с какими сложностями столкнулся при увеличении масштабов датасета и как их удалось решить.

Читать...
​​🤖UniT: унифицированное тактильное представление для обучения роботов

Новый подход к обучению тактильному представлению, использующий VQVAE для изучения компактного скрытого пространства и служащий тактильным представлением.

Он использует тактильные изображения, полученные от одного простого объекта, для обучения представлению с возможностью переноса и обобщения.

Эффективность UniT в обучении политике продемонстрирована на трех реальных задачах, включающих разнообразные манипулируемые объекты и сложные взаимодействия робота-объекта-среды.

Благодаря обширным экспериментам UniT показал себя простым в обучении, подключаемым и работающим, но широко эффективным методом обучения тактильному представлению.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться
​​⚡️Рекурсивный отбор признаков. Динамический шаг в танце feature selection

В статье рассматривается выбор оптимального шага при рекурсивном отборе признаков (RFE), а также предлагаются три подхода: фиксированный шаг, динамический шаг, зависящий от количества признаков, и динамический шаг, основанный на значимости признаков.

Читать...
​​🧐InfinityMATH: масштабируемый набор данных для настройки инструкций в программных математических рассуждениях

Конвейер построения делает акцент на разделении чисел от математических задач для синтеза независимых от чисел программ, что обеспечивает эффективное и гибкое масштабирование при минимизации зависимости от конкретных числовых значений.

Эксперименты по тонкой настройке с открытым исходным кодом языковых и кодовых моделей, таких как Llama2 и CodeLlama, демонстрируют практические преимущества InfinityMATH.

Эти тонко настроенные модели показали значительные относительные улучшения как в области, так и вне области бенчмарков, в среднем от 184,7% до 514,3%.

Кроме того, эти модели продемонстрировали высокую надежность на тестах GSM8K+ и MATH+, которые являются улучшенной версией тестовых наборов с простыми вариациями чисел.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться