🐶Лапочки с характером: Как машинное обучение помогает определить тип личности ваших пёсиков
В данной статье описывается успешная попытка применить методы искусственного интеллекта и ML для классификации и прогнозирования личностных качеств собак с использованием поведенческих данных, полученных из базы данных C-BARQ.
Читать...
В данной статье описывается успешная попытка применить методы искусственного интеллекта и ML для классификации и прогнозирования личностных качеств собак с использованием поведенческих данных, полученных из базы данных C-BARQ.
Читать...
🌐NanoSAM: Real-Time Object Segmentation on NVIDIA Jetson Orin Platforms with NVIDIA TensorRT
NanoSAM — это вариант модели Segment Anything (SAM), который способен работать в реальном времени на платформах NVIDIA Jetson Orin с NVIDIA TensorRT. Он обучается путем дистилляции кодера изображений MobileSAM на немаркированных изображениях. Для ознакомления с дистилляцией знаний мы рекомендуем ознакомиться с этим руководством.
🖥Github: https://github.com/NVIDIA-AI-IOT/nanosam
⏩Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_nanosam.html
@Devsp — Подписаться
NanoSAM — это вариант модели Segment Anything (SAM), который способен работать в реальном времени на платформах NVIDIA Jetson Orin с NVIDIA TensorRT. Он обучается путем дистилляции кодера изображений MobileSAM на немаркированных изображениях. Для ознакомления с дистилляцией знаний мы рекомендуем ознакомиться с этим руководством.
🖥Github: https://github.com/NVIDIA-AI-IOT/nanosam
⏩Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_nanosam.html
@Devsp — Подписаться
🚀Maximizing NanoDB Efficiency: A Guide to Containerized Image Management and Operations
NanoDB — это мультимодальная векторная база данных, оптимизированная для CUDA, которая использует встраивания из преобразователя изображения CLIP для поиска по сходству txt2img и img2img.
🖥 Github: https://github.com/dusty-nv/jetson-containers/blob/master/packages/vectordb/nanodb/README.md
⏩ Tutorial: https://www.jetson-ai-lab.com/tutorial_nanodb.html
@Devsp — Подписаться
NanoDB — это мультимодальная векторная база данных, оптимизированная для CUDA, которая использует встраивания из преобразователя изображения CLIP для поиска по сходству txt2img и img2img.
🖥 Github: https://github.com/dusty-nv/jetson-containers/blob/master/packages/vectordb/nanodb/README.md
⏩ Tutorial: https://www.jetson-ai-lab.com/tutorial_nanodb.html
@Devsp — Подписаться
🎉Deep Learning Research on Audio Generation with AudioCraft: A PyTorch Library
AudioCraft — это библиотека PyTorch для исследований в области глубокого обучения генерации звука. AudioCraft содержит код вывода и обучения для двух современных генеративных моделей искусственного интеллекта, создающих высококачественный звук: AudioGen и MusicGen.
🖥 Github: https://github.com/facebookresearch/audiocraft
⏩ Tutorial: https://www.jetson-ai-lab.com/tutorial_audiocraft.html
@Devsp — Подписаться
AudioCraft — это библиотека PyTorch для исследований в области глубокого обучения генерации звука. AudioCraft содержит код вывода и обучения для двух современных генеративных моделей искусственного интеллекта, создающих высококачественный звук: AudioGen и MusicGen.
🖥 Github: https://github.com/facebookresearch/audiocraft
⏩ Tutorial: https://www.jetson-ai-lab.com/tutorial_audiocraft.html
@Devsp — Подписаться
🦾LLaVA: Large Language and Vision Assistant
LLaVA is a popular multimodal vision/language model that you can run locally on Jetson to answer questions about image prompts and queries.
🖥 Github: https://llava-vl.github.io/
⏩ Tutorial: https://www.jetson-ai-lab.com/tutorial_llava.html
@Devsp — Подписаться
LLaVA is a popular multimodal vision/language model that you can run locally on Jetson to answer questions about image prompts and queries.
🖥 Github: https://llava-vl.github.io/
⏩ Tutorial: https://www.jetson-ai-lab.com/tutorial_llava.html
@Devsp — Подписаться
🗣Whisper: A Multitasking Speech Recognition Model for Multilingual Applications
Whisper — это универсальная модель распознавания речи. Он обучен на большом наборе данных разнообразного аудио, а также представляет собой многозадачную модель, которая может выполнять многоязычное распознавание речи, перевод речи и идентификацию языка.
🖥 Github: https://github.com/openai/whisper
⏩ Tutorial: https://www.jetson-ai-lab.com/tutorial_whisper.html
@Devsp — Подписаться
Whisper — это универсальная модель распознавания речи. Он обучен на большом наборе данных разнообразного аудио, а также представляет собой многозадачную модель, которая может выполнять многоязычное распознавание речи, перевод речи и идентификацию языка.
🖥 Github: https://github.com/openai/whisper
⏩ Tutorial: https://www.jetson-ai-lab.com/tutorial_whisper.html
@Devsp — Подписаться
🚀Optimizing Real-Time Object Detection with NanoOWL: Enhancing OWL-ViT on NVIDIA Jetson Platforms
NanoOWL — это проект, который оптимизирует OWL-ViT для работы в реальном времени на платформах NVIDIA Jetson Orin с NVIDIA TensorRT. NanoOWL также представляет новый конвейер «обнаружения деревьев», который сочетает в себе OWL-ViT и CLIP, чтобы обеспечить вложенное обнаружение и классификацию чего угодно на любом уровне, просто предоставляя текст.
🖥 Github: https://github.com/NVIDIA-AI-IOT/nanoowl
⏩ Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_nanoowl.html
@Devsp — Подписаться
NanoOWL — это проект, который оптимизирует OWL-ViT для работы в реальном времени на платформах NVIDIA Jetson Orin с NVIDIA TensorRT. NanoOWL также представляет новый конвейер «обнаружения деревьев», который сочетает в себе OWL-ViT и CLIP, чтобы обеспечить вложенное обнаружение и классификацию чего угодно на любом уровне, просто предоставляя текст.
🖥 Github: https://github.com/NVIDIA-AI-IOT/nanoowl
⏩ Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_nanoowl.html
@Devsp — Подписаться
🥸Advancing Object Segmentation with SAM: A Meta AI Research Project from FAIR
Модель Segment Anything Model (SAM) создает высококачественные маски объектов из подсказок ввода, таких как точки или прямоугольники, и ее можно использовать для создания масок для всех объектов на изображении.
🖥 Github: https://github.com/facebookresearch/segment-anything
⏩ Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_sam.html
@Devsp — Подписаться
Модель Segment Anything Model (SAM) создает высококачественные маски объектов из подсказок ввода, таких как точки или прямоугольники, и ее можно использовать для создания масок для всех объектов на изображении.
🖥 Github: https://github.com/facebookresearch/segment-anything
⏩ Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_sam.html
@Devsp — Подписаться
😎Track-Anything: A Flexible and Interactive Tool for Video Object Tracking and Segmentation
Track-Anything — это гибкий и интерактивный инструмент для отслеживания и сегментации видеообъектов. Он разработан на основе Segment Anything и может указывать что-либо для отслеживания и сегментации только с помощью кликов пользователя.
🖥 Github: https://github.com/gaomingqi/Track-Anything
⏩ Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_tam.html
@Devsp — Подписаться
Track-Anything — это гибкий и интерактивный инструмент для отслеживания и сегментации видеообъектов. Он разработан на основе Segment Anything и может указывать что-либо для отслеживания и сегментации только с помощью кликов пользователя.
🖥 Github: https://github.com/gaomingqi/Track-Anything
⏩ Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_tam.html
@Devsp — Подписаться
😎Track-Anything: A Flexible and Interactive Tool for Video Object Tracking and Segmentation
Track-Anything — это гибкий и интерактивный инструмент для отслеживания и сегментации видеообъектов. Он разработан на основе Segment Anything и может указывать что-либо для отслеживания и сегментации только с помощью кликов пользователя.
🖥 Github: https://github.com/gaomingqi/Track-Anything
⏩ Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_tam.html
@Devsp — Подписаться
Track-Anything — это гибкий и интерактивный инструмент для отслеживания и сегментации видеообъектов. Он разработан на основе Segment Anything и может указывать что-либо для отслеживания и сегментации только с помощью кликов пользователя.
🖥 Github: https://github.com/gaomingqi/Track-Anything
⏩ Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_tam.html
@Devsp — Подписаться
😎Track-Anything: A Flexible and Interactive Tool for Video Object Tracking and Segmentation
Track-Anything — это гибкий и интерактивный инструмент для отслеживания и сегментации видеообъектов. Он разработан на основе Segment Anything и может указывать что-либо для отслеживания и сегментации только с помощью кликов пользователя.
🖥 Github: https://github.com/gaomingqi/Track-Anything
⏩ Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_tam.html
@Devsp — Подписаться
Track-Anything — это гибкий и интерактивный инструмент для отслеживания и сегментации видеообъектов. Он разработан на основе Segment Anything и может указывать что-либо для отслеживания и сегментации только с помощью кликов пользователя.
🖥 Github: https://github.com/gaomingqi/Track-Anything
⏩ Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_tam.html
@Devsp — Подписаться
⚡️ByteDance presents SDXL-Lightning: a lightning fast 1024px text-to-image generation model
SDXL-Lightning — это молниеносная модель преобразования текста в изображение. Он может генерировать высококачественные изображения размером 1024 пикселей за несколько шагов.
▪HF: https://huggingface.co/ByteDance/SDXL-Lightning
@Devsp — Подписаться
SDXL-Lightning — это молниеносная модель преобразования текста в изображение. Он может генерировать высококачественные изображения размером 1024 пикселей за несколько шагов.
▪HF: https://huggingface.co/ByteDance/SDXL-Lightning
@Devsp — Подписаться
👤Learning to Learn Faster from Human Feedback with Language Model Predictive Control
В этой работе мы изучаем тонкую настройку LLM для написания кода роботами, чтобы запомнить их контекстное взаимодействие и улучшить их обучаемость, т. е. насколько эффективно они адаптируются к вводу человека (измеряется средним количеством исправлений, прежде чем пользователь сочтет задачу успешной).
▪proj: https://robot-teaching.github.io
▪paper: https://arxiv.org/abs/2402.11450
▪code: https://colab.research.google.com/drive/1YcRN_kklw3cVVJNvgK_IEV6nDce9EJWK
@Devsp — Подписаться
В этой работе мы изучаем тонкую настройку LLM для написания кода роботами, чтобы запомнить их контекстное взаимодействие и улучшить их обучаемость, т. е. насколько эффективно они адаптируются к вводу человека (измеряется средним количеством исправлений, прежде чем пользователь сочтет задачу успешной).
▪proj: https://robot-teaching.github.io
▪paper: https://arxiv.org/abs/2402.11450
▪code: https://colab.research.google.com/drive/1YcRN_kklw3cVVJNvgK_IEV6nDce9EJWK
@Devsp — Подписаться
⚡️HASSOD: Hierarchical Adaptive Self-Supervised Object Detection
HASSOD — это полностью самоконтролируемый подход к обнаружению объектов и сегментации экземпляров, демонстрирующий значительное улучшение по сравнению с предыдущими современными методами за счет обнаружения более широкого диапазона объектов.
🖥Github: https://github.com/Shengcao-Cao/HASSOD
📚 Paper: https://arxiv.org/abs/2402.03311
⏩Project: https://hassod-neurips23.github.io/
💻Video: https://www.youtube.com/watch?v=s8u7tEKg5ew
@Devsp — Подписаться
HASSOD — это полностью самоконтролируемый подход к обнаружению объектов и сегментации экземпляров, демонстрирующий значительное улучшение по сравнению с предыдущими современными методами за счет обнаружения более широкого диапазона объектов.
🖥Github: https://github.com/Shengcao-Cao/HASSOD
📚 Paper: https://arxiv.org/abs/2402.03311
⏩Project: https://hassod-neurips23.github.io/
💻Video: https://www.youtube.com/watch?v=s8u7tEKg5ew
@Devsp — Подписаться
😎Magic-Me: Identity-Specific Video Customized Diffusion
Создание контента для конкретной личности (ID) продемонстрировало значительный интерес в области генеративных моделей. В области генерации текста в изображение (T2I) генерация тематического контента достигла большого прогресса благодаря управляемому идентификатору в изображениях. Однако прямое распространение его на генерацию видео недостаточно изучено.
▪Github: https://github.com/Zhen-Dong/Magic-Me
▪Colab: https://colab.research.google.com/drive/1gMialn4nkGeDZ72yx1Wob1E1QBgrqeGa
▪Project: https://magic-me-webpage.github.io
▪Paper: arxiv.org/abs/2402.09368
@Devsp — Подписаться
Создание контента для конкретной личности (ID) продемонстрировало значительный интерес в области генеративных моделей. В области генерации текста в изображение (T2I) генерация тематического контента достигла большого прогресса благодаря управляемому идентификатору в изображениях. Однако прямое распространение его на генерацию видео недостаточно изучено.
▪Github: https://github.com/Zhen-Dong/Magic-Me
▪Colab: https://colab.research.google.com/drive/1gMialn4nkGeDZ72yx1Wob1E1QBgrqeGa
▪Project: https://magic-me-webpage.github.io
▪Paper: arxiv.org/abs/2402.09368
@Devsp — Подписаться
Forwarded from Neural Networks | Нейронные сети
⚡️Разыгрываем Macbook Air, airpods,обучающие курсы и книги Python.
Мы развиваемся и благодарим вас за то, что читаете нас, и поэтому мы устраиваем крупный розыгрыш.
Условия:
1. Подписаться на t.me/ai_machinelearning_big_data
2. Подписаться на t.me/vistehno
3. Нажать кнопку «Участвовать»
Итоги розыгрыша 8 марта.
Мы развиваемся и благодарим вас за то, что читаете нас, и поэтому мы устраиваем крупный розыгрыш.
Условия:
1. Подписаться на t.me/ai_machinelearning_big_data
2. Подписаться на t.me/vistehno
3. Нажать кнопку «Участвовать»
Итоги розыгрыша 8 марта.
😶🌫DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models
DeepSeekMath-Instruct 7B — это модель настройки с математическими инструкциями, полученная на основе DeepSeekMath-Base 7B, а DeepSeekMath-RL 7B обучается на основе DeepSeekMath-Instruct 7B с использованием предложенного нами алгоритма групповой относительной политики оптимизации (GRPO).
🖥Github: https://github.com/deepseek-ai/deepseek-math
📚 Paper: https://arxiv.org/abs/2402.03300v1
🦾 Dataset: https://paperswithcode.com/dataset/math
@Devsp — Подписаться
DeepSeekMath-Instruct 7B — это модель настройки с математическими инструкциями, полученная на основе DeepSeekMath-Base 7B, а DeepSeekMath-RL 7B обучается на основе DeepSeekMath-Instruct 7B с использованием предложенного нами алгоритма групповой относительной политики оптимизации (GRPO).
🖥Github: https://github.com/deepseek-ai/deepseek-math
📚 Paper: https://arxiv.org/abs/2402.03300v1
🦾 Dataset: https://paperswithcode.com/dataset/math
@Devsp — Подписаться
🥸InstructIR: High-Quality Image Restoration Following Human Instructions
InstructIR принимает на вход изображение и написанную человеком инструкцию по улучшению этого изображения. Нейронная модель выполняет комплексное восстановление изображения. InstructIR достигает самых современных результатов при выполнении нескольких задач восстановления, включая шумоподавление, уменьшение размытия, удаление дымки и улучшение изображения (при слабом освещении).
🖥Code: https://github.com/mv-lab/InstructIR
🚀Project: mv-lab.github.io/InstructIR/
🎮Colab: https://colab.research.google.com/drive/1OrTvS-i6uLM2Y8kIkq8ZZRwEQxQFchfq
📚Paper: https://arxiv.org/abs/2401.16468
@Devsp — Подписаться
InstructIR принимает на вход изображение и написанную человеком инструкцию по улучшению этого изображения. Нейронная модель выполняет комплексное восстановление изображения. InstructIR достигает самых современных результатов при выполнении нескольких задач восстановления, включая шумоподавление, уменьшение размытия, удаление дымки и улучшение изображения (при слабом освещении).
🖥Code: https://github.com/mv-lab/InstructIR
🚀Project: mv-lab.github.io/InstructIR/
🎮Colab: https://colab.research.google.com/drive/1OrTvS-i6uLM2Y8kIkq8ZZRwEQxQFchfq
📚Paper: https://arxiv.org/abs/2401.16468
@Devsp — Подписаться