Data Science | Machinelearning [ru] – Telegram
Data Science | Machinelearning [ru]
20.1K subscribers
633 photos
38 videos
29 files
3.52K links
Все о Data Science, машинном обучении и искусственном интеллекте: от базовой теории до cutting-edge исследований и LLM.

По вопросам рекламы или разработки - @g_abashkin

РКН: https://vk.cc/cJPGXD
Download Telegram
​​🧐Почему нельзя сделать прогноз CLTV с помощью одной модели

В статье я расскажу что это за задача CLTV и для чего ее нужно решать банкам.

Читать...
​​👀Краткий обзор TinyML

В этой статье автор расскажет, как сделать ии или простые модельки доступным для самых маленьких устройств.

Читать...
​​🤔Как мы считали экономику продукта «Семья» через uplift CLTV

В этой статье я поделюсь с вами моим опытом решения задачи uplift-моделирования для оценки экономики продукта «Семья» с точки зрения CLTV.

Читать...
​​🧑‍💻Baldur и Thor снова в игре: Путь к совершенному ПО

В данной статье я познакомлю вас со всей теоретической и практической подноготной данной модели, этапами реализации и оценки метода, чтобы стать чуточку ближе к созданию идеального ПО.

Читать...
​​🤫Моя большая практическая шпаргалка SQL (SQLite) с готовыми запросами

В этой статье мы рассмотрим примеры довольно сложных запросов с агрегирующими функциями, триггерами, длинными подзапросами, с оконными функциями.

Читать...
​​👥«Душа молчит, хоть слышит всё вокруг»: как мы отучаем генеративные модели галлюцинировать

В этой статье мы расскажем, как заставить генеративные модели перестать придумывать несуществующие факты и как научиться находить эти ошибки, если они всё же случаются.

Читать...
​​🗣Распознавание и перевод жестовых языков: обзор подходов

В этой статье речь пойдет о распознавании и переводе жестового языка и передовых подходах для их решениях.

Читать...
​​📔Использование Jupyter Notebook для разведочного анализа данных

В этой статье мы поговорим о блокнотах Jupyter именно с точки зрения бизнеса, с точки зрения их применения в работе над реальными продуктами.

Читать...
​​🐶Лапочки с характером: Как машинное обучение помогает определить тип личности ваших пёсиков

В данной статье описывается успешная попытка применить методы искусственного интеллекта и ML для классификации и прогнозирования личностных качеств собак с использованием поведенческих данных, полученных из базы данных C-BARQ.

Читать...
​​🌐NanoSAM: Real-Time Object Segmentation on NVIDIA Jetson Orin Platforms with NVIDIA TensorRT

NanoSAM — это вариант модели Segment Anything (SAM), который способен работать в реальном времени на платформах NVIDIA Jetson Orin с NVIDIA TensorRT. Он обучается путем дистилляции кодера изображений MobileSAM на немаркированных изображениях. Для ознакомления с дистилляцией знаний мы рекомендуем ознакомиться с этим руководством.

🖥Github: https://github.com/NVIDIA-AI-IOT/nanosam

Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_nanosam.html

@DevspПодписаться
​​🚀Maximizing NanoDB Efficiency: A Guide to Containerized Image Management and Operations

NanoDB — это мультимодальная векторная база данных, оптимизированная для CUDA, которая использует встраивания из преобразователя изображения CLIP для поиска по сходству txt2img и img2img.

🖥 Github: https://github.com/dusty-nv/jetson-containers/blob/master/packages/vectordb/nanodb/README.md

Tutorial: https://www.jetson-ai-lab.com/tutorial_nanodb.html

@DevspПодписаться
​​🎉Deep Learning Research on Audio Generation with AudioCraft: A PyTorch Library

AudioCraft — это библиотека PyTorch для исследований в области глубокого обучения генерации звука. AudioCraft содержит код вывода и обучения для двух современных генеративных моделей искусственного интеллекта, создающих высококачественный звук: AudioGen и MusicGen.

🖥 Github: https://github.com/facebookresearch/audiocraft

Tutorial: https://www.jetson-ai-lab.com/tutorial_audiocraft.html

@DevspПодписаться
​​🦾LLaVA: Large Language and Vision Assistant

LLaVA is a popular multimodal vision/language model that you can run locally on Jetson to answer questions about image prompts and queries.

🖥 Github: https://llava-vl.github.io/

Tutorial: https://www.jetson-ai-lab.com/tutorial_llava.html

@DevspПодписаться
​​🗣Whisper: A Multitasking Speech Recognition Model for Multilingual Applications

Whisper — это универсальная модель распознавания речи. Он обучен на большом наборе данных разнообразного аудио, а также представляет собой многозадачную модель, которая может выполнять многоязычное распознавание речи, перевод речи и идентификацию языка.

🖥 Github: https://github.com/openai/whisper

Tutorial: https://www.jetson-ai-lab.com/tutorial_whisper.html

@DevspПодписаться
​​🚀Optimizing Real-Time Object Detection with NanoOWL: Enhancing OWL-ViT on NVIDIA Jetson Platforms

NanoOWL — это проект, который оптимизирует OWL-ViT для работы в реальном времени на платформах NVIDIA Jetson Orin с NVIDIA TensorRT. NanoOWL также представляет новый конвейер «обнаружения деревьев», который сочетает в себе OWL-ViT и CLIP, чтобы обеспечить вложенное обнаружение и классификацию чего угодно на любом уровне, просто предоставляя текст.

🖥 Github: https://github.com/NVIDIA-AI-IOT/nanoowl

Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_nanoowl.html

@DevspПодписаться
​​🥸Advancing Object Segmentation with SAM: A Meta AI Research Project from FAIR

Модель Segment Anything Model (SAM) создает высококачественные маски объектов из подсказок ввода, таких как точки или прямоугольники, и ее можно использовать для создания масок для всех объектов на изображении.

🖥 Github: https://github.com/facebookresearch/segment-anything

Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_sam.html

@DevspПодписаться
​​😎Track-Anything: A Flexible and Interactive Tool for Video Object Tracking and Segmentation

Track-Anything — это гибкий и интерактивный инструмент для отслеживания и сегментации видеообъектов. Он разработан на основе Segment Anything и может указывать что-либо для отслеживания и сегментации только с помощью кликов пользователя.

🖥 Github: https://github.com/gaomingqi/Track-Anything

Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_tam.html

@DevspПодписаться
​​😎Track-Anything: A Flexible and Interactive Tool for Video Object Tracking and Segmentation

Track-Anything — это гибкий и интерактивный инструмент для отслеживания и сегментации видеообъектов. Он разработан на основе Segment Anything и может указывать что-либо для отслеживания и сегментации только с помощью кликов пользователя.

🖥 Github: https://github.com/gaomingqi/Track-Anything

Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_tam.html

@DevspПодписаться
​​😎Track-Anything: A Flexible and Interactive Tool for Video Object Tracking and Segmentation

Track-Anything — это гибкий и интерактивный инструмент для отслеживания и сегментации видеообъектов. Он разработан на основе Segment Anything и может указывать что-либо для отслеживания и сегментации только с помощью кликов пользователя.

🖥 Github: https://github.com/gaomingqi/Track-Anything

Tutorial: https://www.jetson-ai-lab.com/vit/tutorial_tam.html

@DevspПодписаться
​​⚡️ByteDance presents SDXL-Lightning: a lightning fast 1024px text-to-image generation model

SDXL-Lightning — это молниеносная модель преобразования текста в изображение. Он может генерировать высококачественные изображения размером 1024 пикселей за несколько шагов.

HF: https://huggingface.co/ByteDance/SDXL-Lightning

@DevspПодписаться
​​👤Learning to Learn Faster from Human Feedback with Language Model Predictive Control

В этой работе мы изучаем тонкую настройку LLM для написания кода роботами, чтобы запомнить их контекстное взаимодействие и улучшить их обучаемость, т. е. насколько эффективно они адаптируются к вводу человека (измеряется средним количеством исправлений, прежде чем пользователь сочтет задачу успешной).

proj: https://robot-teaching.github.io
paper: https://arxiv.org/abs/2402.11450
code: https://colab.research.google.com/drive/1YcRN_kklw3cVVJNvgK_IEV6nDce9EJWK

@DevspПодписаться