Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
"To the moon" 🌝
А вот как реагирует рынок на всю эту мышиную возню с AI.
Я как-то зассал, когда всё начало падать в 2022 и на некоторое время перестал покупать тех стоки, если не считать, что я по уши в Мете сижу. Сейчас буду потихоньку возобновлять регулярные покупки избранных компаний.
@ai_newz
А вот как реагирует рынок на всю эту мышиную возню с AI.
Я как-то зассал, когда всё начало падать в 2022 и на некоторое время перестал покупать тех стоки, если не считать, что я по уши в Мете сижу. Сейчас буду потихоньку возобновлять регулярные покупки избранных компаний.
@ai_newz
😁12
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Вот это новость от AMD! Как долго я этого ждал.
AMD наконец вступила в Deep Learning игру и показывает серьезную заявку пошатнуть монополию NVIDIA на рынке AI чипов.
Сегодня они представили новую видеокарту для обучения и инференса нейронных сетей — AMD MI300X.
Эта крошка вполне может тягаться с Nvidia H100.
Вот её характеристики:
— 192 Gb VRAM на одном чипе, (против 80Gb у H100, NVL версия не в счёт)
— 5.2Tb пропускная способность памяти (против 3.35 y H100)
— Бенчмарков по скорости пока нет, но одна Mi300X легко тянет 40B языковую модель Falcon в риалтайме (см на видео). Это первая видеокарта, которая вмещает модель такого размера полность в своей памяти.
Ещё (это очень важно) AMD договорились с Pytorch Foundation о том, что их софтовый стэк ROCm и все обновления будет поддерживаться и сразу запиливаться в Pytorch 2.0. То есть теперь гонять сети на картах AMD станет также легко как и на гпу от Nvidia! Это чудесные новости!
@ai_newz
AMD наконец вступила в Deep Learning игру и показывает серьезную заявку пошатнуть монополию NVIDIA на рынке AI чипов.
Сегодня они представили новую видеокарту для обучения и инференса нейронных сетей — AMD MI300X.
Эта крошка вполне может тягаться с Nvidia H100.
Вот её характеристики:
— 192 Gb VRAM на одном чипе, (против 80Gb у H100, NVL версия не в счёт)
— 5.2Tb пропускная способность памяти (против 3.35 y H100)
— Бенчмарков по скорости пока нет, но одна Mi300X легко тянет 40B языковую модель Falcon в риалтайме (см на видео). Это первая видеокарта, которая вмещает модель такого размера полность в своей памяти.
Ещё (это очень важно) AMD договорились с Pytorch Foundation о том, что их софтовый стэк ROCm и все обновления будет поддерживаться и сразу запиливаться в Pytorch 2.0. То есть теперь гонять сети на картах AMD станет также легко как и на гпу от Nvidia! Это чудесные новости!
@ai_newz
🔥40❤3
Forwarded from ЭйАйЛера
This media is not supported in your browser
VIEW IN TELEGRAM
Colab MusicGen с простым интерфейсом, но без очереди как на HuggingFace
После появления Mubert мы все ждали новых инструментов с генерацией музыки в опенсорсе. MusicGen классный релиз, но к нему непросто добраться на HF и возможности были ограничены, вариант без интерфейса тоже нравится не всем.
Можно вставлять мелодии как референс, можно генерировать до двух минут музыки.
Сгенерировала без референта славянскую фольклорную песню о любви, по-моему здорово и достаточно качественно вышло!
Инструкция по запуску тут
За ссылку спасибо St Laurent Jr
После появления Mubert мы все ждали новых инструментов с генерацией музыки в опенсорсе. MusicGen классный релиз, но к нему непросто добраться на HF и возможности были ограничены, вариант без интерфейса тоже нравится не всем.
Можно вставлять мелодии как референс, можно генерировать до двух минут музыки.
Сгенерировала без референта славянскую фольклорную песню о любви, по-моему здорово и достаточно качественно вышло!
Инструкция по запуску тут
За ссылку спасибо St Laurent Jr
🔥12👍2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Произошел очередной отвал жепы башки на поприще ИИ-ассистентов!
Даем на входе видео с ютуба, скриншот из дискорда, и говорим: я вот дошел до этого шага на видео, покажи на скриншоте, куда мне кликать дальше.
Агенты ищут в видео кусок, описанный юзером, смотрят, что идет дальше, ищут нужный кусок скриншота.
Какой простор для оптимизации техподдержки, 99% работы которой сводится к совместному чтению уже существующих мануалов вместе с юзером.
Hold on to yourjobs papers, what a time to be alive intensifies
Магия, да и только!
paper
tweet
Даем на входе видео с ютуба, скриншот из дискорда, и говорим: я вот дошел до этого шага на видео, покажи на скриншоте, куда мне кликать дальше.
Агенты ищут в видео кусок, описанный юзером, смотрят, что идет дальше, ищут нужный кусок скриншота.
Какой простор для оптимизации техподдержки, 99% работы которой сводится к совместному чтению уже существующих мануалов вместе с юзером.
Hold on to your
Магия, да и только!
paper
tweet
❤27🔥17
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Ох, свершилось. Кто-то наконец-то сделал виртуальную примерочную. И не кто-то, а Google.
Над этой проблемой бились долго, и много стартапов полегло. А тут взяли диффузию, на вход фото человека, виесто промто еще одно фото целевой одежды, джынь-брынь и готово! На выходе – человек, переодетый в заданную одежду.
Попробовать можно прямо в Google Shopping
Кстати, примерно 2.5 года назад гугл выпустил похожий продукт — виртуальную примерку помад.
А вот ещё подборка постов, где я писал про попытки сделать виртуальную примерку а помощью ГАНов (это технология для генерации картинок, которая была актуальна до прихода диффузионок). Можете проследить, как сильно результаты улучшились всего за 2 года:
https://news.1rj.ru/str/ai_newz/60
https://news.1rj.ru/str/ai_newz/694
https://news.1rj.ru/str/ai_newz/733
https://news.1rj.ru/str/ai_newz/914
Сайт проекта (CVPR 2023)
Блогпост
@ai_newz
Над этой проблемой бились долго, и много стартапов полегло. А тут взяли диффузию, на вход фото человека, виесто промто еще одно фото целевой одежды, джынь-брынь и готово! На выходе – человек, переодетый в заданную одежду.
Попробовать можно прямо в Google Shopping
Кстати, примерно 2.5 года назад гугл выпустил похожий продукт — виртуальную примерку помад.
А вот ещё подборка постов, где я писал про попытки сделать виртуальную примерку а помощью ГАНов (это технология для генерации картинок, которая была актуальна до прихода диффузионок). Можете проследить, как сильно результаты улучшились всего за 2 года:
https://news.1rj.ru/str/ai_newz/60
https://news.1rj.ru/str/ai_newz/694
https://news.1rj.ru/str/ai_newz/733
https://news.1rj.ru/str/ai_newz/914
Сайт проекта (CVPR 2023)
Блогпост
@ai_newz
🔥23👍2😁1
Forwarded from r/ретранслятор
This media is not supported in your browser
VIEW IN TELEGRAM
Midjourney показала польского «Гарри Поттера».
– Kurwa… After all this time?
– Always.
➡️ r/ретранслятор⬅️
– Kurwa… After all this time?
– Always.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23😁12👍2😱2😢2❤1
Forwarded from Denis Sexy IT 🤖
Интересную нейронку показали разработчики Wayve (компания которая делает автопилот для машин):
GAIA-1 обучена на тексте, видео и действиях автомобиля (!) собранных в реальном мире, то есть это что-то вроде текст-в-видео, но только в рамках автовождения. Ну или нейронный GTA, только для ученых.
Интересным мне показалось это:
>Истинное чудо GAIA-1 заключается в ее способности проявлять генеративные правила, которые лежат в основе мира, в котором мы живем. Благодаря обширному обучению на разнообразных данных о вождении, наша модель синтезирует структуру и закономерности, присущие реальному миру, что позволяет ей генерировать удивительно реалистичные и разнообразные сцены вождения.
То есть модель, например, может предсказать, что будет в синтетическом мире, если резко остановиться, сделать 360-бублик на дороге, и тп. Все "участники" синтезированного мира будут реагировать соответственно.
Модель будут использовать для улучшения работы автопилота, и видимо именно благодаря этой задаче мы и приблизимся к нормальному генеративному кино (это мое мнение).
Анонс тут:
https://wayve.ai/thinking/introducing-gaia1/
GAIA-1 обучена на тексте, видео и действиях автомобиля (!) собранных в реальном мире, то есть это что-то вроде текст-в-видео, но только в рамках автовождения. Ну или нейронный GTA, только для ученых.
Интересным мне показалось это:
>Истинное чудо GAIA-1 заключается в ее способности проявлять генеративные правила, которые лежат в основе мира, в котором мы живем. Благодаря обширному обучению на разнообразных данных о вождении, наша модель синтезирует структуру и закономерности, присущие реальному миру, что позволяет ей генерировать удивительно реалистичные и разнообразные сцены вождения.
То есть модель, например, может предсказать, что будет в синтетическом мире, если резко остановиться, сделать 360-бублик на дороге, и тп. Все "участники" синтезированного мира будут реагировать соответственно.
Модель будут использовать для улучшения работы автопилота, и видимо именно благодаря этой задаче мы и приблизимся к нормальному генеративному кино (это мое мнение).
Анонс тут:
https://wayve.ai/thinking/introducing-gaia1/
😱15🔥2