Илья суцкевер, подписавший требование к борде о восстановлении уволенных после того, как сам инициировал звонок об увольнении:
#openai
#openai
😁51
runwayml: че-то там новое выкатывает.
мы:
(Они классные, но момент для релиза явно не лучший 😅)
мы:
(Они классные, но момент для релиза явно не лучший 😅)
😁23❤5
Совет директоров openai обсуждает с anthropic возможность слияния
Инвесторы, юзеры, да и сам anthropic:
Сорс
Инвесторы, юзеры, да и сам anthropic:
Сорс
❤23😁12😱6
Forwarded from Love. Death. Transformers.
tile.gif
17.8 MB
#чтивонаночь по быстрому
есть человек про которого никто не знает, а с ним стоит рисовать иконы - Robin Rombah. Чел соавтор laion, sd1.5, e-diff и много чего еще. ОН БУКВАЛЬНО ГЕНИЙ, У НЕГО ОХУЕННО РАБОТАЕТ ГОЛОВА и это заметно по всему к чему он прикасается. [его scholar]
Ну а стабилити как уважающая себя компания с огромным бюджетом тупо спиздили архитектуру[8] и с таким ебалом😬 обучили модель на фильтрованных данных.
Модель получилась прям крутая, по метрикам даже лучше gen2 от соседнего runwayml, но оригинальную архитектуру почти никак не упоминали, а это печально хоть и выкупили робина
А еще вам для обучения такой модели не нужно ничего учить с нуля - у вас все умеет диффузия, ставишь temporal блоки между слоями(типа временной control net), учишь ТОЛЬКО их, затем доучиваешь VAE предиктить много кадров за раз и дело в шляпе!
[8]ориг папир
stability fork
есть человек про которого никто не знает, а с ним стоит рисовать иконы - Robin Rombah. Чел соавтор laion, sd1.5, e-diff и много чего еще. ОН БУКВАЛЬНО ГЕНИЙ, У НЕГО ОХУЕННО РАБОТАЕТ ГОЛОВА и это заметно по всему к чему он прикасается. [его scholar]
Ну а стабилити как уважающая себя компания с огромным бюджетом тупо спиздили архитектуру[8] и с таким ебалом
Модель получилась прям крутая, по метрикам даже лучше gen2 от соседнего runwayml, но оригинальную архитектуру почти никак не упоминали, а это печально хоть и выкупили робина
А еще вам для обучения такой модели не нужно ничего учить с нуля - у вас все умеет диффузия, ставишь temporal блоки между слоями(типа временной control net), учишь ТОЛЬКО их, затем доучиваешь VAE предиктить много кадров за раз и дело в шляпе!
Thus, in contrast
to previous works, we draw on simple latent video diffusion baselines [8] for which we fix architecture and training
scheme and assess the effect of data curation. To this end,
we first identify three different video training stages that
we find crucial for good performance: text-to-image pretraining, video pretraining on a large dataset at low resolution, and high-resolution video finetuning on a much smaller
dataset with higher-quality videos
[8]ориг папир
stability fork
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10
Forwarded from Сиолошная
Ну ладно, интриги интригами, а релизы — по расписанию.
Теперь голосовая версия ChatGPT доступна всем пользователям приложения бесплатно.
На всякий случай напомню, что приложение НЕ доступно аккаунтам из РФ (и дело не в VPN).
🤔 интересно, а что с нехваткой GPU и ресурсов?
Как писали сотрудники OpenAI,
Ну и это...лицо команды Apple Siri представили?👀 😆
Теперь голосовая версия ChatGPT доступна всем пользователям приложения бесплатно.
На всякий случай напомню, что приложение НЕ доступно аккаунтам из РФ (и дело не в VPN).
Как писали сотрудники OpenAI,
committed to the team and the mission 🫡
Ну и это...лицо команды Apple Siri представили?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11😁5👍3❤2😢1
Forwarded from Kali Novskaya (Tatiana Shavrina)
🌸Альтернативы OpenAI API🌸
#nlp #про_nlp
Если после последних событий вы задумываетесь о том, не начать ли подбирать запасной вариант помимо chatGPT, GPT-4 от OpenAI, то вот несколько альтернатив.
🟣 Anthropic
Пожалуй, основной конкурент сейчас (ключевая команда — выходцы из OpenAI).
Есть 2 версии модели — Claude Instant и Claude 2, преподносятся как аналоги GPT-3.5 и GPT-4 (одна модель быстрее, вторая — умнее)
Языков заявлено много, основные метрики и безопасность — сравнимо высокие.
Из очевидных плюсов:
— цены дешевле OpenAI
— для большого траффика есть инференс через Amazon Bedrock
Из недостатков — все промты придется мигрировать специальным образом, с упором на XML (так устроено структурирование запросов к моделям).
Документация
🟣 Cohere
Ассистенты Coral и Command на основе RAG (retrieval-augmented generation) — хорошо решает задачи, связанные с извлечением информации, поиском, чтением документов, меньше галлюцинирует. Есть готовые интенты для продолжения чата, написания текстов, суммаризации, поиска.
Есть готовое API, много документации и готовых юз-кейсов.
Но в основном только английский язык.
Документация
🟣 Inflection AI
Основной продукт стартапа — ассистент Pi. Заявленные функции почти такие же как у OpenAI, есть все стандартные ожидаемые функции — персональная поддержка, планирование календаря, креативные задачи, помощь в написании текстов со сложной структурой.
Для получения API надо становиться в waitlist
🟣 Stability AI
Stability AI (Stable Diffusion) в основном продает API моделей генерации изображений и апскейлинга, но совсем недавно к семейству их разработок добавились и языковые модели Stable LM.
Самая последняя разработка — модель Stable Beluga с 70 млрд параметров — пока по API напрямую недоступна, ждем ее добавления в линейку доступных по API.
🟣 Perplexity AI
Готовый API-сервис для оптимизированного быстрого инференса открытых LLM: Mistral 7B, Llama2 13B, Code Llama 34B, Llama2 70B, replit-code-v1.5-3b
Своей модели среди доступных нет.
🟣 Amazon Bedrock (AWS)
Дешево и сердито — подключиться к моделям, уже доступным на AWS. Готовый инференс большого числа моделей, в том числе вышеупомянутых стартапов — а также Llama 2 (Meta), Jurassic (A21 labs), Titan (Amazon research).
Документация
#nlp #про_nlp
Если после последних событий вы задумываетесь о том, не начать ли подбирать запасной вариант помимо chatGPT, GPT-4 от OpenAI, то вот несколько альтернатив.
Пожалуй, основной конкурент сейчас (ключевая команда — выходцы из OpenAI).
Есть 2 версии модели — Claude Instant и Claude 2, преподносятся как аналоги GPT-3.5 и GPT-4 (одна модель быстрее, вторая — умнее)
Языков заявлено много, основные метрики и безопасность — сравнимо высокие.
Из очевидных плюсов:
— цены дешевле OpenAI
— для большого траффика есть инференс через Amazon Bedrock
Из недостатков — все промты придется мигрировать специальным образом, с упором на XML (так устроено структурирование запросов к моделям).
Документация
Ассистенты Coral и Command на основе RAG (retrieval-augmented generation) — хорошо решает задачи, связанные с извлечением информации, поиском, чтением документов, меньше галлюцинирует. Есть готовые интенты для продолжения чата, написания текстов, суммаризации, поиска.
Есть готовое API, много документации и готовых юз-кейсов.
Но в основном только английский язык.
Документация
Основной продукт стартапа — ассистент Pi. Заявленные функции почти такие же как у OpenAI, есть все стандартные ожидаемые функции — персональная поддержка, планирование календаря, креативные задачи, помощь в написании текстов со сложной структурой.
Для получения API надо становиться в waitlist
Stability AI (Stable Diffusion) в основном продает API моделей генерации изображений и апскейлинга, но совсем недавно к семейству их разработок добавились и языковые модели Stable LM.
Самая последняя разработка — модель Stable Beluga с 70 млрд параметров — пока по API напрямую недоступна, ждем ее добавления в линейку доступных по API.
Готовый API-сервис для оптимизированного быстрого инференса открытых LLM: Mistral 7B, Llama2 13B, Code Llama 34B, Llama2 70B, replit-code-v1.5-3b
Своей модели среди доступных нет.
Дешево и сердито — подключиться к моделям, уже доступным на AWS. Готовый инференс большого числа моделей, в том числе вышеупомянутых стартапов — а также Llama 2 (Meta), Jurassic (A21 labs), Titan (Amazon research).
Документация
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍1🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
Колаб со stable-video, который влезает в 16гб
За три минуты сгенерило мне вот такой шедевр например. Анимация просто невероятной сложности :D
image2video
За три минуты сгенерило мне вот такой шедевр например. Анимация просто невероятной сложности :D
image2video
😁34🎉6❤1🔥1😢1
This media is not supported in your browser
VIEW IN TELEGRAM
Атсрологи объявили неделю упоротых каверов
Очередной text2audio сервис с неожиданно кошерными результатами
Дают сгенерить 15 раз в день, дальше - плоти.
При этом блочит за копирайченные тексты песен, но кредиты может списать (но ессесно рус.яз. не блочит, но генерит)
потыкать
Очередной text2audio сервис с неожиданно кошерными результатами
Дают сгенерить 15 раз в день, дальше - плоти.
При этом блочит за копирайченные тексты песен, но кредиты может списать (но ессесно рус.яз. не блочит, но генерит)
потыкать
❤27👍2😁1
Forwarded from Dankest Memes // Данкест Мемс
This media is not supported in your browser
VIEW IN TELEGRAM
🔥31😁18
Forwarded from Нейросети и Блендер
This media is not supported in your browser
VIEW IN TELEGRAM
ComfyUI Stable Diffusion Video
ComfyUI теперь поддерживает Stable Diffusion Video и при этом инференс влезает в 8GB VRAM, что позволит генерить даже на T4.
Некоторые пояснения к параметрам:
— video_frames: количество генерируемых видеокадров. (В зависимости от моделей от 1 до 24)
— motion_bucket_id: чем выше число, тем больше движения будет в видео.
— fps: чем выше частота кадров, тем менее прерывистым будет видео.
— augmentation level: количество шума, добавляемого к начальному изображению. Чем оно выше, тем меньше видео будет похоже на исходное изображение. Увеличьте его для большего движения.
— VideoLinearCFGGuidance: этот узел немного улучшает выборку для этих видеомоделей, он линейно масштабирует cfg по разным кадрам.
Качество генераций очень нравится, еще бы поддержку ControlNet и Lora, и станет заменой AnimateDiff.
В комментах скидываю два .json для ComfyUI.
ComfyUI теперь поддерживает Stable Diffusion Video и при этом инференс влезает в 8GB VRAM, что позволит генерить даже на T4.
Некоторые пояснения к параметрам:
— video_frames: количество генерируемых видеокадров. (В зависимости от моделей от 1 до 24)
— motion_bucket_id: чем выше число, тем больше движения будет в видео.
— fps: чем выше частота кадров, тем менее прерывистым будет видео.
— augmentation level: количество шума, добавляемого к начальному изображению. Чем оно выше, тем меньше видео будет похоже на исходное изображение. Увеличьте его для большего движения.
— VideoLinearCFGGuidance: этот узел немного улучшает выборку для этих видеомоделей, он линейно масштабирует cfg по разным кадрам.
Качество генераций очень нравится, еще бы поддержку ControlNet и Lora, и станет заменой AnimateDiff.
Если возникнет ошибка при генерации связанная с xformers, то при запуске добавить параметр:
--use-pytorch-cross-attentionВ комментах скидываю два .json для ComfyUI.
🔥20👍1