Нейросетевые мемы – Telegram
Нейросетевые мемы
3.15K subscribers
5.22K photos
1.02K videos
9 files
790 links
По всем вопросам писать https://news.1rj.ru/str/kostyanchik_94
Download Telegram
Forwarded from Сиолошная
Новая модель:
— контекст длиннее. 128K токенов (365 страниц обычной книги)
— модель более аккуратна при работе с длинным текстом, не теряет то, что было в серединке
— фича для разрабов: можно заставить модель писать ответы в JSON-формате
— можно вызывать несколько функций за раз
— можно указать seed генерации, чтобы получать воспроизводимость
— скоро добавят logprobs в API
— Retrieval прямо из коробки, можно загружать документы на платформу и они будут подтягиватсья (F стартапам chatWithPDF)
— Теперь модель знает события не до сентября 2021го, а апреля 2023го
— Эта новая модель принимает картинки на вход через API

— DALLE-3 + text-to-speech (6 голосов) сегодня появятся в API
— Для GPT-4 появится файнтюнинг сегодня (но на узкую выборку пользователей)
— Custom Models: программа плотной работыт инженеров OpenAI с вашей компанией, чтобы помочь адаптировать тренировку под ваши проблемы

ЦЕНА НА GPT-4-TURBO (Sam говорит, что эта модель ещё и умнее GPT-4) уменьшена в 3 раза для промпта и в 2 раза для генерации!

Обещают скоро ещё больше ускорить GPT-4 Turbo
👍81
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI Text-To-Speech API with Gradio

Демоспейс для попробовать генератор речи от OpenAI.
А он неплох.

#tts #text2speech
👍5
Forwarded from эйай ньюз
🔥Consistency Decoder

Среди недавних релизов OpenAI больше всего в мое сердечко запал их новый декодер для LDM - Consistency Decoder.

Напомню, что Stable Diffusion генерирует изображения в Latent пространстве, которое затем декодируется VQ-VAE декодером (на картинке выше, кажется, его назвали GAN Decoder). Такой декодер довольно легковесен, но он не может точно восстанавливать мелки детали типа лиц людей на заднем плане. Поэтому парни из OpenAI решили натренировать еще одну диффузию вместо VAE декодера.

Но диффузия работает медленно и требует много шагов во время инференса... Тут на помощь пришла дистилляция из диффузии в Consistency Model, которая может неплохо работать за 1-2 шага, если руки не кривые.

В статье про Dalle-3 было вскользь упомянуто, что в новой архитектуре для перевода скрытого кода в RGB они как раз используют такой Consistency Decoder, который работает за 2 шага.

Consistency Decoder - это тоже Unet, и довольно большой, 620 M параметров (для сравнения SD 1.5 ~900M параметров). Но это все равно допустимая жертва ради улучшенного качества восстановления лиц, мелких деталей и регулярных линий.

Жаль, только, что кода тренировки нет, и остается только заниматься реверс-инженирингом и экспериментировать, чтобы понять как они натренировали этот декодер. Выложили только инференс и веса декодера, который совместим с базовым Stable Diffusion 1.x - 2x и может использоваться как drop-in replacement вместо стандартного декодера.

➡️ Код и веса

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Forwarded from Aamir Khan
https://github.com/AUTOMATIC1111/stable-diffusion-webui/tree/consistency-dec - ветка автоматика с этим декодером VAE type for decode поменять на Consistency Decoderв настройках.
https://colab.research.google.com/drive/1k3ejvTOraWFbuxj17dPFYDAULliDW0JN?usp=sharing
вот колаб
помоему в статье всеже чери пикинг но результат есть и меньше мешанины в кадре. Но я только на 1.5 стандартной тестил возможно с другими моделями лучше пойдет
💩1
Илья Давыдов 2024! Хватит это терпеть!
52😍11👍8🤮8😁6🤩1🍌1