🥳 TexGen: генерация 3D-текстур на основе текста с многоракурсной выборкой и повторной выборкой
Новая структура выборки и повторной выборки нескольких видов для генерации текстур, использующую предварительно обученную модель диффузии текста в изображение.
Благодаря обширному количеству качественных и количественных оценок метод обеспечивает значительно лучшее качество текстур для разнообразных 3D-объектов с высокой степенью согласованности вида и богатой детализацией внешнего вида, превосходя современные методы.
Кроме того, этот метод генерации текстур может также применяться для редактирования текстур с сохранением исходной идентичности.
🤗 Hugging Face
💾 Arxiv
📂 PDF
@Devsp — Подписаться
Новая структура выборки и повторной выборки нескольких видов для генерации текстур, использующую предварительно обученную модель диффузии текста в изображение.
Благодаря обширному количеству качественных и количественных оценок метод обеспечивает значительно лучшее качество текстур для разнообразных 3D-объектов с высокой степенью согласованности вида и богатой детализацией внешнего вида, превосходя современные методы.
Кроме того, этот метод генерации текстур может также применяться для редактирования текстур с сохранением исходной идентичности.
🤗 Hugging Face
💾 Arxiv
@Devsp — Подписаться
🚀LLaVA-OneVision: простая визуальная передача задач
LLaVA-OneVision — семейство открытых больших мультимодальных моделей (LMM), разработанных путем консолидации наших идей в области данных, моделей и визуальных представлений в серии блогов LLaVA-NeXT.
Модель, которая может одновременно раздвигать границы производительности открытых LMM в трех важных сценариях компьютерного зрения: сценарии с одним изображением, несколькими изображениями и видео.
Важно отметить, что конструкция LLaVA-OneVision допускает сильный перенос обучения между различными модальностями/сценариями, что дает новые появляющиеся возможности.
В частности, сильное понимание видео и возможности кросс-сценариев демонстрируются посредством переноса задач с изображений на видео.
🤗 Hugging Face
💾 Arxiv
📂 PDF
@Devsp — Подписаться
LLaVA-OneVision — семейство открытых больших мультимодальных моделей (LMM), разработанных путем консолидации наших идей в области данных, моделей и визуальных представлений в серии блогов LLaVA-NeXT.
Модель, которая может одновременно раздвигать границы производительности открытых LMM в трех важных сценариях компьютерного зрения: сценарии с одним изображением, несколькими изображениями и видео.
Важно отметить, что конструкция LLaVA-OneVision допускает сильный перенос обучения между различными модальностями/сценариями, что дает новые появляющиеся возможности.
В частности, сильное понимание видео и возможности кросс-сценариев демонстрируются посредством переноса задач с изображений на видео.
🤗 Hugging Face
💾 Arxiv
@Devsp — Подписаться
⚡️LLM-DetectAIve: инструмент для точного машинного обнаружения текста
Система, разработанная для детального обнаружения MGT.
Она способна классифицировать тексты по четырем категориям: написанные человеком, сгенерированные машиной, написанные машиной-очеловеченные и написанные машиной-отшлифованные.
В отличие от предыдущих детекторов MGT, которые выполняют бинарную классификацию, введение двух дополнительных категорий в LLM-DetectiAIve дает представление о различных степенях вмешательства LLM во время создания текста.
Это может быть полезно в некоторых областях, таких как образование, где любое вмешательство LLM обычно запрещено.
Эксперименты показывают, что LLM-DetectAIve может эффективно определять авторство текстового контента, доказывая его полезность для повышения целостности в образовании, академической среде и других областях.
🤗 Hugging Face
💾 Arxiv
📂 PDF
@Devsp — Подписаться
Система, разработанная для детального обнаружения MGT.
Она способна классифицировать тексты по четырем категориям: написанные человеком, сгенерированные машиной, написанные машиной-очеловеченные и написанные машиной-отшлифованные.
В отличие от предыдущих детекторов MGT, которые выполняют бинарную классификацию, введение двух дополнительных категорий в LLM-DetectiAIve дает представление о различных степенях вмешательства LLM во время создания текста.
Это может быть полезно в некоторых областях, таких как образование, где любое вмешательство LLM обычно запрещено.
Эксперименты показывают, что LLM-DetectAIve может эффективно определять авторство текстового контента, доказывая его полезность для повышения целостности в образовании, академической среде и других областях.
🤗 Hugging Face
💾 Arxiv
@Devsp — Подписаться
🤖Transformer Explainer: Интерактивное обучение текстогенерирующим моделям
Этот инструмент помогает пользователям понять сложные концепции трансформеров, интегрируя обзор модели и обеспечивая плавные переходы между уровнями абстракции математических операций и структур моделей.
Он запускает живой экземпляр GPT-2 локально в браузере пользователя, позволяя пользователям экспериментировать с собственным вводом и наблюдать в реальном времени, как внутренние компоненты и параметры трансформера работают вместе, чтобы предсказывать следующие токены.
Инструмент не требует установки или специального оборудования, расширяя образовательный доступ общественности к современным генеративным методам ИИ.
🤗 Hugging Face
💾 Arxiv
📂 PDF
@Devsp — Подписаться
Этот инструмент помогает пользователям понять сложные концепции трансформеров, интегрируя обзор модели и обеспечивая плавные переходы между уровнями абстракции математических операций и структур моделей.
Он запускает живой экземпляр GPT-2 локально в браузере пользователя, позволяя пользователям экспериментировать с собственным вводом и наблюдать в реальном времени, как внутренние компоненты и параметры трансформера работают вместе, чтобы предсказывать следующие токены.
Инструмент не требует установки или специального оборудования, расширяя образовательный доступ общественности к современным генеративным методам ИИ.
🤗 Hugging Face
💾 Arxiv
@Devsp — Подписаться
🦙Опенсорс на арене: правда ли так хороша Llama 3.1 405B?
В этой статье мы проведем независимое расследование: сравним возможности Llama 3.1 405B с GPT-4o и Claude 3.5 Sonnet на ряду задач, от программирования до творческого письма, и попробуем понять, насколько она готова к практическому применению.
Читать...
В этой статье мы проведем независимое расследование: сравним возможности Llama 3.1 405B с GPT-4o и Claude 3.5 Sonnet на ряду задач, от программирования до творческого письма, и попробуем понять, насколько она готова к практическому применению.
Читать...
🖥 Самые интересные статьи за последние дни:
• Как мы построили сервис, который поможет сократить поиск видео контента в огромной базе данных
• Опенсорс на арене: правда ли так хороша Llama 3.1 405B?
• Оценка LLM с большим окном контекста
• Как мы построили сервис, который поможет сократить поиск видео контента в огромной базе данных
• Опенсорс на арене: правда ли так хороша Llama 3.1 405B?
• Оценка LLM с большим окном контекста
🔥VITA: Towards Open-Source Interactive Omni Multimodal LLM
Мультимодальная большая языковая модель (MLLM) с открытым исходным кодом, которая способна одновременно обрабатывать и анализировать модальности видео, изображений, текста и аудио, и в то же время обладает передовым мультимодальным интерактивным опытом.
Она демонстрирует надежные базовые возможности многоязычного, визуального и аудиопонимания, о чем свидетельствует ее высокая производительность в ряде как унимодальных, так и мультимодальных тестов.
🤗 Hugging Face
💾 Arxiv
📂 PDF
@Devsp — Подписаться
Мультимодальная большая языковая модель (MLLM) с открытым исходным кодом, которая способна одновременно обрабатывать и анализировать модальности видео, изображений, текста и аудио, и в то же время обладает передовым мультимодальным интерактивным опытом.
Она демонстрирует надежные базовые возможности многоязычного, визуального и аудиопонимания, о чем свидетельствует ее высокая производительность в ряде как унимодальных, так и мультимодальных тестов.
🤗 Hugging Face
💾 Arxiv
@Devsp — Подписаться
🦾ControlNeXt: Powerful and Efficient Control for Image and Video Generation
ControlNeXt — мощный и эффективный метод для контролируемой генерации изображений и видео.
Метод легко интегрируется с другими весами LoRA, позволяя изменять стиль без необходимости дополнительного обучения.
Были проведены различные эксперименты с различными базовыми моделями для изображений и видео, продемонстрировав надежность нашего метода.
🤗 Hugging Face
💾 Arxiv
📂 PDF
@Devsp — Подписаться
ControlNeXt — мощный и эффективный метод для контролируемой генерации изображений и видео.
Метод легко интегрируется с другими весами LoRA, позволяя изменять стиль без необходимости дополнительного обучения.
Были проведены различные эксперименты с различными базовыми моделями для изображений и видео, продемонстрировав надежность нашего метода.
🤗 Hugging Face
💾 Arxiv
@Devsp — Подписаться
👍1
🤖UniT: унифицированное тактильное представление для обучения роботов
Новый подход к обучению тактильному представлению, использующий VQVAE для изучения компактного скрытого пространства и служащий тактильным представлением.
Он использует тактильные изображения, полученные от одного простого объекта, для обучения представлению с возможностью переноса и обобщения.
Эффективность UniT в обучении политике продемонстрирована на трех реальных задачах, включающих разнообразные манипулируемые объекты и сложные взаимодействия робота-объекта-среды.
Благодаря обширным экспериментам UniT показал себя простым в обучении, подключаемым и работающим, но широко эффективным методом обучения тактильному представлению.
🤗 Hugging Face
💾 Arxiv
📂 PDF
@Devsp — Подписаться
Новый подход к обучению тактильному представлению, использующий VQVAE для изучения компактного скрытого пространства и служащий тактильным представлением.
Он использует тактильные изображения, полученные от одного простого объекта, для обучения представлению с возможностью переноса и обобщения.
Эффективность UniT в обучении политике продемонстрирована на трех реальных задачах, включающих разнообразные манипулируемые объекты и сложные взаимодействия робота-объекта-среды.
Благодаря обширным экспериментам UniT показал себя простым в обучении, подключаемым и работающим, но широко эффективным методом обучения тактильному представлению.
🤗 Hugging Face
💾 Arxiv
@Devsp — Подписаться
⚡️Рекурсивный отбор признаков. Динамический шаг в танце feature selection
В статье рассматривается выбор оптимального шага при рекурсивном отборе признаков (RFE), а также предлагаются три подхода: фиксированный шаг, динамический шаг, зависящий от количества признаков, и динамический шаг, основанный на значимости признаков.
Читать...
В статье рассматривается выбор оптимального шага при рекурсивном отборе признаков (RFE), а также предлагаются три подхода: фиксированный шаг, динамический шаг, зависящий от количества признаков, и динамический шаг, основанный на значимости признаков.
Читать...
🧐InfinityMATH: масштабируемый набор данных для настройки инструкций в программных математических рассуждениях
Конвейер построения делает акцент на разделении чисел от математических задач для синтеза независимых от чисел программ, что обеспечивает эффективное и гибкое масштабирование при минимизации зависимости от конкретных числовых значений.
Эксперименты по тонкой настройке с открытым исходным кодом языковых и кодовых моделей, таких как Llama2 и CodeLlama, демонстрируют практические преимущества InfinityMATH.
Эти тонко настроенные модели показали значительные относительные улучшения как в области, так и вне области бенчмарков, в среднем от 184,7% до 514,3%.
Кроме того, эти модели продемонстрировали высокую надежность на тестах GSM8K+ и MATH+, которые являются улучшенной версией тестовых наборов с простыми вариациями чисел.
🤗 Hugging Face
💾 Arxiv
📂 PDF
@Devsp — Подписаться
Конвейер построения делает акцент на разделении чисел от математических задач для синтеза независимых от чисел программ, что обеспечивает эффективное и гибкое масштабирование при минимизации зависимости от конкретных числовых значений.
Эксперименты по тонкой настройке с открытым исходным кодом языковых и кодовых моделей, таких как Llama2 и CodeLlama, демонстрируют практические преимущества InfinityMATH.
Эти тонко настроенные модели показали значительные относительные улучшения как в области, так и вне области бенчмарков, в среднем от 184,7% до 514,3%.
Кроме того, эти модели продемонстрировали высокую надежность на тестах GSM8K+ и MATH+, которые являются улучшенной версией тестовых наборов с простыми вариациями чисел.
🤗 Hugging Face
💾 Arxiv
@Devsp — Подписаться