Derp Learning – Telegram
Derp Learning
13.1K subscribers
3.16K photos
912 videos
9 files
1.32K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
🤣4918🤡10😁4
This media is not supported in your browser
VIEW IN TELEGRAM
Как выглядит утечка 🦆 данных
😁84👀13🤩8😱5🤡4🫡21
Икона для вашего рабочего места ✝️
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥4912🤡4😁1
Forwarded from Dev Meme / devmeme
🤣78😁12👀5🔥2🤡2🫡1
Небольшому стартапу опять не хватает олимпиадников
😁108👀10🗿5
This media is not supported in your browser
VIEW IN TELEGRAM
Joe Biden achieved internally
😁119🔥12🤣7😱21👨‍💻1
😁56🤡5😱2
😁767👍3🤡3
Forwarded from Neural Shit
Лол
😁96🤩14
Forwarded from Denis Sexy IT 🤖
Уроки геометрии от Apple:
😁72🤡9🔥5🏆3🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
Субботний щитпост
😁43🤣14🤡32🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Red Alert Tesla Coil achieved internally
🔥68😱268🏆52🤬1
Forwarded from Dev Meme / devmeme
🤣46👍228
Media is too big
VIEW IN TELEGRAM
Разоблачаю сам себя: как создаются нейрокаверы

Впервые за 3 года я показываю свой рабочий процесс — от гитары и вокала до финальной обработки нейросетями и в Ableton.
Никакой магии, только честный взгляд изнутри.

В этом видео:
▫️ как я записываю гитару и вокал
▫️ где и зачем использую нейросети (RVC и др.)
▫️ как свожу трек в Ableton
▫️ почему ИИ — это всего лишь инструмент, как гитара или синтезатор

Поддержать мой проект и получить эксклюзивные материалы можно на Boosty: https://boosty.to/aigitarist/posts/143c72ce-a030-4d83-8465-6ae0445c21b2?share=success_publish_link

👇 Пишите в комментариях, что думаете о таком «закулисье» и какие темы разобрать в следующих видео!

https://youtu.be/1gDZwmvP0sk

#айгитарист #нейрокавер #aicover
🔥13🤡21
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Новости от Хуньяньского

HunyuanImage 3.0


Тут есть две пачки новостей, хорошая и плохая.

Хорошая:
Open Source - https://github.com/Tencent-Hunyuan/HunyuanImage-3.0

Мазохисты могут попробовать тут: https://hunyuan.tencent.com/image/en?tabIndex=0 (чорная кнопка справа от huggingface)

Я уже пробую тут: https://fal.ai/models/fal-ai/hunyuan-image/v3/text-to-image/playground
Есть на репликейт и вейвспид.

HunyuanImage 3.0 это крупнейшая и самая мощная (если брать голые цифры параметров) на сегодняшний день модель преобразования текста в изображение с открытым исходным кодом, имеющая более 80 миллиардов параметров, из которых 13 миллиардов активируются на каждый токен во время вывода.

В отличие от традиционных моделей генерации изображений с архитектурой DiT, архитектура MoE HunyuanImage 3.0 использует подход на основе Transfusion для глубокой связи обучения Diffusion и LLM в единой системе. Построенная на Hunyuan-A13B, HunyuanImage 3.0 была обучена на огромном наборе данных: 5 миллиардах пар изображений и текстов, видеокадрах, чередующихся данных изображений и текстов и 6 триллионах токенов текстовых корпусов. Это гибридное обучение, охватывающее мультимодальное генерирование, понимание и возможности LLM, позволяет модели беспрепятственно интегрировать несколько задач.

Итого:
На борту ризонинг с использованием мирового знания
Понимание огромных промптов на тысячи слов
Убойная работа с текстами
Трушная мультимодальность


Все это я проверил на ОДНОМ примере.

Вместо промпта написал ей:
solve this:
8x + 10 = 18
and make picture with soulution


Результат вы видите в шапке поста. Впечатляет.

Черрипики на сайте
https://hunyuan.tencent.com/image/en?tabIndex=0
довольно мощные, но давайте навалимся и протестируем сами (ссылка на fal.ai).

В общем выглядит прельстивейше.

А теперь Чорные Новости:

Нет (пока) image2image
Нет (пока) VLLM
Веса весят (пардон) СТО СЕМЬДЕСЯТ ГИГОВ

Ну и самое горькое: для запуска вам понадобится ЧЕТЫРЕ карты по 80GB VRAM КАЖДАЯ (4х80GB VRAM)

Там вроде MoE c 64 экспертами юзают не все 80B параметров, а только 13B активных. Ждем оптимизаций, выгрузок, и нам также обещаны дистиллированные веса (тут мы такие - дистилят для слабаков и плохого качества)

То есть это вроде бы опен сорс, но не для людей, а для олигархов с видеосерверами на 320GB VRAM на кухне.
Предлагаю называть это элитный опен сорс.

Отзывы в твитторах противоречивые. Есть проблемы с анатомией и текстурой кожи, но надо пробовать самим.

А вообще Хунь, в отличие от Алибабы и Квена, любит бахнуть на Гитхаб сырой код, огромные веса, формальное описание типа "мы смогли, а вы держитесь"

Пока тестируем на агрегаторах.

@cgevent
13🔥6🤩3👍2👨‍💻2🤗1
Forwarded from Dev Meme / devmeme
We surely have a timeline where this is real
🫡37
Forwarded from Dev Meme / devmeme
🤣70😁13🔥7😢3
Forwarded from Neural Shit
Лайфхак
1🔥63😁26🤡14🤣7🤬42😱1
Forwarded from AI для Всех
F9K2DM

Если вы хотели попробовать Sora 2, но не знали где взять инвайт, то вот вам код от исследователя из команды Sora, для первых 10.000 человек
👍12🤡91
Пользователи выяснили, что Sora 2 генерирует очень реалистичные видео, но при этом совершенно не может показать человека, который садится в машину.

Видеографы могут спать спокойно. Пока могут
r/#OpenAI
😁903👍1