Нейросетевые мемы – Telegram
Нейросетевые мемы
3.15K subscribers
5.22K photos
1.02K videos
9 files
790 links
По всем вопросам писать https://news.1rj.ru/str/kostyanchik_94
Download Telegram
Forwarded from Zhovner Hub
На двачах пацаны абузят нейросеть от майкрософт, умудряются обходить цензуру и генерировать всякий треш: от сумашедшего порно до фотографий индусов из “копро софт” летающих на поносе https://2ch.hk/b/res/295428138.html


Описание по обходу цензуры это чисто киберпанк, зацените сами.
(Собакой называют последнюю нейросеть которая цензурирует финальне сгенерированные изображения)


1) Вы взаимодействуйте не с одной нейросетью, а с комплексом нейросеток. Есть нейросеть генерирующая картинки(далли); есть простая нейросеть, которая анализирует промт на "запретность" (фильтр слов); есть нейросеть, которая визуально смотрит на получившиеся картинки и блокирует если определяет на них что-то запретное (собака), есть нейросеть-переводчик. Фильтр слов и собака составляют цензуру. Понимание их работы - ключ к генерации того что вы хотите.
3) У каждого слова и словосочетания есть определенная температура. Используя оригинальное описание, составленное из слов с низкой температурой, можно добиться того, что собака будет почти игнорировать содержимое картинки, пропуская около-порно. И наоборот, если писать "покажи сиськи" ничего не выйдет.
4) Именно фильтр слов руководит собакой, определяя, насколько внимательно она будет изучать картинку на предмет запрещенного содержимого, заодно подсказывая ей что искать(оружие, сиськи, кровь). Вы добавляете больше "горяченьких" подробностей в промт, фильтр слов, даже если пропускает промт, все равно это замечает…

Через пару лет в даркнете можно будет арендовать нейросети без цензуры, на которых будут генерировать скам, фейки политиков, реалестичное порно с известными людьми, поддельные доказательства с камер, писать вредоносный код и т.д.
🎃10👍21🔥1🌚1
Forwarded from эйай ньюз
OpenAI DevDay - ждем новых анонсов по моделям и API

Через 16 минут OpenAI будет проводить свою первую конференцию для девелоперов. Ходит много слухов о том, что будут представлять. Возможно появится GPT4-TURBO - более быстрая и дешевая версия GPT4. А так же ожидается куча новостей по поводу плагинов, интеграции ChatGPT с разными приложениями и маркетплейс чатботов на базе ChatGPT.

Некоторые даже сравнивают эту конфу с тем моментом, когда Джобс анонсировал первый Iphone. Я, честно, не верю, что это будет что-то настолько же большое, но посмотреть интересно.

Смотрим стрим на YouTube

@ai_newz
Мэл и F1ashko готовятся к Cake Speedrun Cup 2. Решил их порисовать
15
Forwarded from Сиолошная
Новая модель:
— контекст длиннее. 128K токенов (365 страниц обычной книги)
— модель более аккуратна при работе с длинным текстом, не теряет то, что было в серединке
— фича для разрабов: можно заставить модель писать ответы в JSON-формате
— можно вызывать несколько функций за раз
— можно указать seed генерации, чтобы получать воспроизводимость
— скоро добавят logprobs в API
— Retrieval прямо из коробки, можно загружать документы на платформу и они будут подтягиватсья (F стартапам chatWithPDF)
— Теперь модель знает события не до сентября 2021го, а апреля 2023го
— Эта новая модель принимает картинки на вход через API

— DALLE-3 + text-to-speech (6 голосов) сегодня появятся в API
— Для GPT-4 появится файнтюнинг сегодня (но на узкую выборку пользователей)
— Custom Models: программа плотной работыт инженеров OpenAI с вашей компанией, чтобы помочь адаптировать тренировку под ваши проблемы

ЦЕНА НА GPT-4-TURBO (Sam говорит, что эта модель ещё и умнее GPT-4) уменьшена в 3 раза для промпта и в 2 раза для генерации!

Обещают скоро ещё больше ускорить GPT-4 Turbo
👍81
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI Text-To-Speech API with Gradio

Демоспейс для попробовать генератор речи от OpenAI.
А он неплох.

#tts #text2speech
👍5
Forwarded from эйай ньюз
🔥Consistency Decoder

Среди недавних релизов OpenAI больше всего в мое сердечко запал их новый декодер для LDM - Consistency Decoder.

Напомню, что Stable Diffusion генерирует изображения в Latent пространстве, которое затем декодируется VQ-VAE декодером (на картинке выше, кажется, его назвали GAN Decoder). Такой декодер довольно легковесен, но он не может точно восстанавливать мелки детали типа лиц людей на заднем плане. Поэтому парни из OpenAI решили натренировать еще одну диффузию вместо VAE декодера.

Но диффузия работает медленно и требует много шагов во время инференса... Тут на помощь пришла дистилляция из диффузии в Consistency Model, которая может неплохо работать за 1-2 шага, если руки не кривые.

В статье про Dalle-3 было вскользь упомянуто, что в новой архитектуре для перевода скрытого кода в RGB они как раз используют такой Consistency Decoder, который работает за 2 шага.

Consistency Decoder - это тоже Unet, и довольно большой, 620 M параметров (для сравнения SD 1.5 ~900M параметров). Но это все равно допустимая жертва ради улучшенного качества восстановления лиц, мелких деталей и регулярных линий.

Жаль, только, что кода тренировки нет, и остается только заниматься реверс-инженирингом и экспериментировать, чтобы понять как они натренировали этот декодер. Выложили только инференс и веса декодера, который совместим с базовым Stable Diffusion 1.x - 2x и может использоваться как drop-in replacement вместо стандартного декодера.

➡️ Код и веса

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2