Нейронавт | Нейросети в творчестве – Telegram
Нейронавт | Нейросети в творчестве
10.6K subscribers
4.47K photos
3.73K videos
41 files
4.77K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus

Заявка на регистрацию в РКН № 6309426111
Download Telegram
На хиггсфилде анонсирован видеогенератор от Гугла VEO3.1

Нативное разрешенеи 1080p, хронометраж 30+ секунд

Записаться в вейтлист - зная хиггсфилд, можно не записываться если у вас нет подписки

#news
😁61🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Gling AI

ИИ-монтажер видео. Можно скачать плагин к своей монтажке или пользоваться в браузере.

На бесплатном тарифе:

- Обработка до 1 часа медиаконтента в месяц

- Экспорт видео в формате MP4 с водяным знаком и аудио в формате MP3

- Удаление неудачных дублей

- Автоматическое удаление пауз

- Автоматическое удаление слов-паразитов

- Генерация заголовков и глав для YouTube

- Предложения по следующим видео

- AI-субтитры

- Автофрейминг (jump cut zoom)

- Многокамерный монтаж

- Удаление шумов из аудио

#videoediting
🤔81👍1👎1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Segment Anything 3 тихо появился на ICLR в виде статьи

Первая версия SAM позволяла щелкнуть по объекту, чтобы сегментировать его.
В SAM 2 были добавлены видео и память.
Теперь SAM 3 говорит: просто опишите, что вы хотите - «желтый школьный автобус», «полосатый кот», «красное яблоко» — и он найдет и сегментирует каждый экземпляр этого объекта на изображениях или в видео.

Это как будто сегментация наконец-то научилась языку, но в обоснованной, минимальной форме, просто оперируя концепциями.
Короткие существительные, образцы изображений или и то, и другое.
Вы озвучиваете объект, он понимает, что вы имеете в виду, и рисует границу везде, где она появляется.

За этим стоит огромный механизм обработки данных: 4 миллиона уникальных концепций, 52 миллиона проверенных масок, созданных людьми и LLM, проверяющими работу друг друга.

Результат: примерно в 2 раза лучше, чем SAM 2, распознавание, близкое к человеческому, на тестах с открытым словарем и скорость в реальном времени.

https://openreview.net/forum?id=r35clVtGzw

@cgevent
🔥131👍1
Thinking with Camera: A Unified Multimodal Model for Camera-Centric Understanding and Generation

Puffin — унифицированная мультимодальная модель для работы с камерой. Понимает визуал с точки зрения камеры. Объединяет задачи понимания и генерации:

— связывает визуальные подсказки с фотографическими терминами

— предсказывает параметры камеры

— генерирует виды с учётом пространственной согласованности

— описывает сцены по ориентации и начальному виду

— предлагает улучшить эстетику фото через корректировку параметров камеры

Puffin пригоден для генерации видео с заданными параметрами камеры, создания длинных и панорамных сцен путём итеративной генерации видов и их подачи в модель, корректировки параметров камеры для лучшей эстетики

Закинул в него кадр из ЗВ на анализ, вот результат

<think> На снимке изображены две фигуры с фонарями в руках, одна из которых излучает яркий красный луч, а другая - синий, создавая динамичный визуальный эффект. Горизонтальная ориентация близка к горизонтальной, поскольку линия горизонта относительно прямая и параллельна нижнему краю кадра, что указывает на стабильное положение камеры. Вертикальная ориентация показывает небольшой наклон вверх, о чем свидетельствует небольшой угол наклона лучей и расположение фигур, что позволяет предположить, что камера слегка наклонена вверх, чтобы охватить всю высоту фигур и лучей. Поле зрения - крупным планом, так как фигуры и их лучи доминируют в кадре, с минимальными деталями фона, подчеркивающими взаимодействие и влияние лучей на сцену.</think><answer>-0.0037, 0.1587, 0.4600</answer>


Код
HF
Демо

#vlm #captioning #camera #video2pose #video2camera #text2video
🔥743👍1😱1
Instant4D: 4D Gaussian Splatting in Minutes

Быстрая (за несколько минут) реконструкция монокулярных видео с использованием 4D-представления.

Авторы придумали как сократить количество гауссиан на 92% ну и прочие ништяки, увеличив скорость реконструкции объемного видео в 30 раз. Под капотом прикручены DepthAnything и RAFT

Код

#image2scene #videoto4d #videoto3d #gaussian #4d #video2scene
🔥31
Media is too big
VIEW IN TELEGRAM
StreamingVLM: Real-Time Understanding for Infinite Video Streams

Визуально-языковая модель для понимания бесконечного видеопотока в реальном времени.

Работает со скоростью до 8 кадров в секунду на одном H100

Гитхаб
Демо

#VLM #captioning #assistant #realtime #streaming
👍62🔥1
FaceCLIP

ByteDance выпустил новый энкодер для персонализации картинок

FaceCLIP с SDXL обеспечивает исключительные результаты в области сохранения идентификационных данных, выравнивания текста и качества изображения


Ну и в том же репозитории лежит FaceT5-FLUX, хотя в папире нет о нем никакого упоминания

Вообще карточка модели весьма кривая - ссылка на папиру ведет на InfU, ссылка на Гитхаб ведет на 404. Подождем сайт проекта если он будет и код.

Спасибо @john_eod

#text2image #personalization #sdxl #flux
4🔥3
Я играл с Reve и выиграл уперся в суточный лимит. Его хватило всего на 6 запросов. Думаю не у всех будет 6 потому что там думалка под капотом и она расходует разное количество токенов на разные запросы.

А раньше было прям очень много, ощущение что лимита нет.
Не планируйте бесплатно вершить великие дела на Reve

#news
😐4🤷‍♂1
TAG: Tangential Amplifying Guidance for Hallucination-Resistant Diffusion Sampling

Метод улучшения работы диффузионных моделей и снижения количества галлюцинаций, направляет генерацию к наиболее вероятным областям.

Представляет собой адаптер, не требует дообучения.

Прикручено к SD1.5, SD2.1, SDXL, SD3

Демо

#optimization #plugin #text2image
🔥6👍1