Derp Learning – Telegram
Derp Learning
13.1K subscribers
3.16K photos
912 videos
9 files
1.32K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
Мелкомягкие выкатили пучок instruct моделей Phi-3:

Phi-3-Vision (mini, 4B, 128k context)
Phi-3-mini (4b, 128k)
Phi-3-small (7B, 128k)
Phi-3-medium (14B, 128)

Также есть и 4k контекст.

На бенчмарках vision-mini ведет себя на уровне 7B опенсорсных и некоторых проприетарных моделей. Сразу видно, обучали на лучших тестсетах.
😁40🤩8👍2
Forwarded from Denis Sexy IT 🤖
Люди: SORA иногда генерирует какой-то неправдоподобный бред

Реальный мир:
😁64🔥10🤣7😱1🤗1
Forwarded from Dev Meme / devmeme
😁91💯9😎4👍2
Dev Meme / devmeme
Photo
Надеемся, Openai не решат устроить battle royale
😁18🔥2
Если этот ваш ai такой клёвый, то почему до их пор нет ai 2?
😁464🔥3
Forwarded from эйай ньюз
Небольшой апдейт по истории: Vox получили доступ к договору, который вынуждали подписывать экс-сотрудников, и ряду других внутренних документов OpenAI. В этих документах есть чудесный пункт о возможностях компании обнулить акции любого экс-сотрудника вообще без повода. На всех этих прекрасных документах либо подписи COO и VP of People либо лично Альтмана. Как, после таких откровений, звучат заявления о том что "руководство ничего не знало" - решайте сами.

not consistently candid in his communications with the board звучит всё понятнее и понятнее

@ai_newz
🫡20😁13👍2👀21
Forwarded from Dev Meme / devmeme
👀32🔥8😱7🤣51
Штош, Nvidia стоит дороже Германии 🥲
🔥92👀28🤣12👨‍💻6😁5
Forwarded from эйай ньюз
GPT-2 за двадцать долларов

Три недели назад llm.c был просто быстрым, на игрушечных датасетах и одной видеокарте. Но Карпатый на месте не стоял - он уже тренирует небольшие модели на десятках миллиардов токенов и восьми видеокартах. И при этом сохраняя огромную пропускную способность: GPT-2 Small выдаёт 180k токенов за секунду на каждую видеокарту. И при такой скорости тренировки, совсем не жертвуют точностью - результаты даже лучше чем у оригинальной GPT-2, при том что датасет похожий, а количество токенов такое же.

Small версию вообще можно натренировать за полтора часа на одной машине с 8 видеокартами. Стоить такое удовольствие будет всего двадцать долларов. Тренировка Medium обойдётся уже в $200, а XL в $2,5k, но проект всё ещё есть куда оптимизировать.

Пока что натренированы только Small и Medium размеры GPT-2, но с такой бешенной скоростью разработки поддержка моделей побольше будет уже в ближайшие дни.

Следующие майлстоуны:
Тренировка 770m и 1.5B моделек
Поддержка нескольких нод
Поддержка H100 и с ней fp8
Воспроизводимая тренировка - чтобы можно было тренировать модель на двух разных машинах с побитово идентичными результатами

Нужно всё-таки попытаться потренировать на фритюрнице

@ai_newz
😁24🔥20👍83
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
ToonCrafter: Аниматоры напряглись, аниме-любители радуются

Пока мы ждем сору, вот вам ToonCrafter — прикольная модель для тех, кто делает двигающиеся картинки в стиле аниме.

Я уже вижу, как китайские аниме-студии сразу сокращают количество кадров. Собственно для этого она и создавалась в соавторах Tencent AI Lab.

Есть три режима:

- межкадровая интерполяция. Модель дорисует кадры между двумя key frames. Причем не просто линейным поступательным движением, как это сделано в других работах по интерполяции видео, а полноценная анимация.

- интерполяция, но на башне скетчей. Когда цвета нет.

- окрашивание. Перед тем как анимешку сделают цветной, сначала делают полноценный анимированный эскиз в чб. Вот его теперь будут красить автоматически.

Непонятно, насколько мощный черипик в примерах. Выглядит ну как-то уж слишком хорошо. Хоть здесь и используются для каких-то более сложных вещей эскизы как референсы.

У них, оказывается, уже есть демо. Сгенерил простенькую кошечку — работает офигенно, хоть и две секунды и разрешение шакальное.

Как этого достигли?
1. Хитро зафайнтюнили DynamiCrafter на аниме видосах. Там есть своя специфика, ведь в мультиках много регионов без текстур, и нет motion блура, как в реальных видео.
2. Натренировали специальный 3D декодер, который берет на вход кроме latent векторов фреймов, ещё и дополнительно исходные первый и последний кадры, чтобы сохранить точную информацию о внешности объектов.

Project Page с примерами. Рекомендую глянуть.
Пейпер
Код на гитхабе
Демо на обнимающем лице

@ai_newz
16🔥8👍2🤩1😎1
Возлежание машин!
😁64
Forwarded from BOGDANISSSIMO
Мечтает ли GPT-4o о сегментации картинок...?

Рассказал на Habr найденный способ как заставить GPT-4o работать с детекцией объектов на картинке и выдавать координаты (bounding boxes), с которыми можно работать.

Внутри много деталей о том, с какими препятствиями и нюансами мы сталкиваемся в Vibe AI при парсинге сообщений со скриншотов переписки.

Приятного прочтения, буду благодарен вашей обратной связи, лайкам, репостам ❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
10🔥7👍43
Forwarded from Dev Meme / devmeme
Your "totally not wrong" versions are very welcome !
😁66🎉31🔥1😢1
😁104💯7🔥42
Forwarded from Labrats
🫡64😁43💯2👀1
Elon Musk founding OpenAI be like
😁65🤣7
😁66🤣8🤩31