Forwarded from Агенты ИИ | AGI_and_RL
This media is not supported in your browser
VIEW IN TELEGRAM
Вышла Ллама 3.
8B, 70B. (8192 tokens)
После тестиков в ближайшее время узнаем что в реальности по бенчам.
Веса (придется формочку заполнить)
https://huggingface.co/collections/meta-llama/meta-llama-3-66214712577ca38149ebb2b6
Код
https://github.com/meta-llama/llama3
Обещают 400B+ модельку. Марк Цукерберг все еще тренирует её. (на видео)
8B, 70B. (8192 tokens)
После тестиков в ближайшее время узнаем что в реальности по бенчам.
Веса (придется формочку заполнить)
https://huggingface.co/collections/meta-llama/meta-llama-3-66214712577ca38149ebb2b6
Код
https://github.com/meta-llama/llama3
Обещают 400B+ модельку. Марк Цукерберг все еще тренирует её. (на видео)
👍2🔥2😁2
Forwarded from Технологии | Нейросети | Боты
— Из-за дороговизны обучения нейросетей, частные компании значительно обгоняют научные организации по выпуску ИИ;
— ИИ стали чаще использовать в науке: GNoME помог открыть 380 тыс. новых стабильных материалов для производства технологий, а AlphaDev — представил более быстрые алгоритмы сортировки;
— ИИ влияет на повышение качества труда: люди выполняют задачи быстрее и лучше, используя нейросети;
— Открытого кода стало больше. Из 149 нейросетевых моделей 98 с исходным кодом. Однако закрытые модели остаются более производительными;
— Автоматизированных рейтингов для оценки генеративных моделей уже не хватает, поэтому всё более важным становится мнение людей об ИИ. Например, та же Chatbot Arena Leaderboard;
— Люди стали больше думать о нейросетях. Процент тех, кто считает, что ИИ серьезно повлияет на их жизнь, выросла с с 60% до 66%.
• Полный доклад
@aiaiai
Please open Telegram to view this post
VIEW IN TELEGRAM
SuperDuperAI - сервис генерации видео с помощью ИИ. Предназначен для упрощения создания наративного видеоконтента с помощью генеративного ИИ для маркетинга.
Мы используем Stable Diffusion для генерации изображений и видео и различные LLM через Langchain (OpenAi, Mixtral).
Наша архитектура разработана для масштабируемости в облаке, при поддержке Microsoft для Ai стартапов, что позволяет нам развертывать узлы OpenAI в Azure.
Безопасное управление данными: использование Okta Auth0 для безопасного хранения данных.
Система построена на основе Kubernetes, Airflow ETL и Python для асинхронной обработки тысяч заказов.
Про сервис👇
https://vc.ru/tribuna/1141585
Мы используем Stable Diffusion для генерации изображений и видео и различные LLM через Langchain (OpenAi, Mixtral).
Наша архитектура разработана для масштабируемости в облаке, при поддержке Microsoft для Ai стартапов, что позволяет нам развертывать узлы OpenAI в Azure.
Безопасное управление данными: использование Okta Auth0 для безопасного хранения данных.
Система построена на основе Kubernetes, Airflow ETL и Python для асинхронной обработки тысяч заказов.
Про сервис👇
https://vc.ru/tribuna/1141585
vc.ru
SuperDuperAI - сервис генерации видео с помощью ИИ — Трибуна на vc.ru
SuperDuperAi, предназначен для упрощения создания наративного видеоконтента с помощью генеративного искусственного интеллекта для маркетинга.
👍2😁1
Forwarded from Machinelearning
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥3❤2
Forwarded from AI для Всех (Kirill)
Gazelle - первая open source VoiceToLLM модель
TincansAI объявил о выпуске Gazelle v0.2, инновационной речевой модели, которая может может обрабатывать устные запросы и длинные аудиофайлы напрямую, без их транскрипции или распознавания речи.
Благодаря прямой обработке аудио данных, модель быстрее, точнее, а также способна интерпретировать эмоции и даже сарказм в речи.
Код "из коробки", с абсолютно нулевой оптимизацией и работающий с полной точностью, достигает скорости 120 миллисекунд до первого токена, что значительно быстрее, чем любой другой сопоставимый подход. По оценкам авторов, задержка более сложной системы с синтезом составит менее 300 миллисекунд, что меньше воспринимаемой человеком задержки в реальном времени
Насколько известно авторам, данная модель является первой и единственной open source моделью, способной вести диалог в реальном времени. Кроме того, разработчики публично проводят оценку безопасности и сообщают об успешных атаках на речевую модель. Наконец, это первая речевая модель, в которой применяется мультимодальная оптимизация предпочтений.
Производительность Gazelle оптимизирована для реальных приложений, таких как поддержка клиентов, телефонные звонки и общение в чате.
🌐 Сайт
🤗 HuggingFace
👨💻 Демо1
✖️ Демо2
TincansAI объявил о выпуске Gazelle v0.2, инновационной речевой модели, которая может может обрабатывать устные запросы и длинные аудиофайлы напрямую, без их транскрипции или распознавания речи.
Благодаря прямой обработке аудио данных, модель быстрее, точнее, а также способна интерпретировать эмоции и даже сарказм в речи.
Код "из коробки", с абсолютно нулевой оптимизацией и работающий с полной точностью, достигает скорости 120 миллисекунд до первого токена, что значительно быстрее, чем любой другой сопоставимый подход. По оценкам авторов, задержка более сложной системы с синтезом составит менее 300 миллисекунд, что меньше воспринимаемой человеком задержки в реальном времени
Насколько известно авторам, данная модель является первой и единственной open source моделью, способной вести диалог в реальном времени. Кроме того, разработчики публично проводят оценку безопасности и сообщают об успешных атаках на речевую модель. Наконец, это первая речевая модель, в которой применяется мультимодальная оптимизация предпочтений.
Производительность Gazelle оптимизирована для реальных приложений, таких как поддержка клиентов, телефонные звонки и общение в чате.
🌐 Сайт
🤗 HuggingFace
✖️ Демо2
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡4❤1👍1
Forwarded from Denis Sexy IT 🤖
– Показали GPT4-4o, самую мощную новую модель: она будет доступна для платных и ДЛЯ БЕСПЛАТНЫХ пользователей ChatGPT (даже без регистрации). Модель сейчас на первом месте по тестам сравнивая с другими лучшими моделями — и в коде и в других задачах.
– GPT4-4o это «Омнимодель» натренированная сразу на тексте, фото и видео — то есть та самая мультимодальность которую мы ждали.
– GPT4-4o уже доступна через API и стоит в два раза дешевле, и работает в 2 раза быстрее.
– Показали улучшенную версию аудио-чата через ассистента — она теперь шутит, понимает ваши эмоции; теперь ассистента можно перебивать своим голосом и сам ассистент говорит с эмоциями, и вы можете просить ее менять эти эмоции (даже петь). Переводчик с помощью GPT4-4o просто работает как в Sci-Fi кино (не путаясь и не требуя дополнительных нажатий кнопок).
– Запустят десктопные приложение наконец-то, чтобы не в вебе сидеть; в десктопном приложении ей можно показывать экран целиком и просить ее подправить код, что-то рассказать и тп. То есть это ассистент, который всегда видит ваш экран.
Дополнительные мелочи:
— Заявленные фичи выкатят через пару недель.
— Теперь через приложение можно просто ей показывать видео фид и она будет давать советы как решить какую-то задачу (не нужно фоткать ничего, работает как стрим);
— Во время демки ассистент тормозил хехе.
А вот что я предсказывал в посте выше и что сбылось или не сбылось:
✅ Демку ассистента как из фильма Her
✅ Полную мультимодальность: модель будет обучена сразу на видео, аудио, картинках и тексте
❓ Размер контекстного окна в 1М (мы не знаем пока)
✅ Новую архитектуру к новой модели, у которой сразу будут все фишки выше
✅ GPT4 обновление с лучшим написанием кода, или 4.5 или 4.1 (с названиями, они, конечно, не консистентны)
❌ Новую версию Dalle 3, с улучшенным фотореализмом
– GPT4-4o это «Омнимодель» натренированная сразу на тексте, фото и видео — то есть та самая мультимодальность которую мы ждали.
– GPT4-4o уже доступна через API и стоит в два раза дешевле, и работает в 2 раза быстрее.
– Показали улучшенную версию аудио-чата через ассистента — она теперь шутит, понимает ваши эмоции; теперь ассистента можно перебивать своим голосом и сам ассистент говорит с эмоциями, и вы можете просить ее менять эти эмоции (даже петь). Переводчик с помощью GPT4-4o просто работает как в Sci-Fi кино (не путаясь и не требуя дополнительных нажатий кнопок).
– Запустят десктопные приложение наконец-то, чтобы не в вебе сидеть; в десктопном приложении ей можно показывать экран целиком и просить ее подправить код, что-то рассказать и тп. То есть это ассистент, который всегда видит ваш экран.
Дополнительные мелочи:
— Заявленные фичи выкатят через пару недель.
— Теперь через приложение можно просто ей показывать видео фид и она будет давать советы как решить какую-то задачу (не нужно фоткать ничего, работает как стрим);
— Во время демки ассистент тормозил хехе.
А вот что я предсказывал в посте выше и что сбылось или не сбылось:
✅ Демку ассистента как из фильма Her
✅ Полную мультимодальность: модель будет обучена сразу на видео, аудио, картинках и тексте
❓ Размер контекстного окна в 1М (мы не знаем пока)
✅ Новую архитектуру к новой модели, у которой сразу будут все фишки выше
✅ GPT4 обновление с лучшим написанием кода, или 4.5 или 4.1 (с названиями, они, конечно, не консистентны)
❌ Новую версию Dalle 3, с улучшенным фотореализмом
👍3
Forwarded from e/acc
Сегодня твиттер взорвался. Экс-сотрудник OpenAI из команды Superalignment опубликовал 165-страничный документ о будущем ИИ.
Там много деталей, фактов, индукции и вполне разумных прогнозов, поэтому прежде чем строчить гневные и безумные комментарии крайне советую прочитать сам документ.
- AGI к 2027 году более чем вероятен.
- После AGI переход к ASI (сверхинтеллекту) за счет самообучения будет очень быстрым, почти мгновенным
- AGI — это самый существенный геополитический ресурс, куда важнее, чем ядерное оружение и страны пойдут на многое, чтобы получить его первым. В статье приводятся примеры того как китайцы шпионят за ИИ-компаниями в США.
- сегодня большой дата-центр это единицы или десятки мегаватт, но с ИИ потребность вырастет на, как минимум, 4 порядка (x 10,000)
- мы увидим единый вычислительный кластер стоимостью в триллион долларов в течении пяти лет. самая рациональная инвестиция со стороны state actors и big tech — это compute, атомная энергия и инфраструктура для первых двух.
- NVIDIA, MSFT, AMZN, GOOG уже сегодня планируют капекс в $100B в квартал на датацентры только для ИИ
- к 2030 году ежегодно и глобально будет инвестироваться $8T в ИИ (включая чипы и компьют), а так же только для ИИ будет потребляться больше чем 100% э/э генерируемой в США сегодня
- к 2026 году выручка одной из big tech компаний от ИИ превысит $100B
- это не безумно, и сравнимые расходы и сдвиги происходили во время Манхеттенского проекта или Промышленной революции и строительства ж/д
Завтра продолжу со второй частью
Если вам лень читать, то можете послушать вышедший сегодня 4-часовой подкаст о том же самом: https://www.dwarkeshpatel.com/p/leopold-aschenbrenner
Там много деталей, фактов, индукции и вполне разумных прогнозов, поэтому прежде чем строчить гневные и безумные комментарии крайне советую прочитать сам документ.
- AGI к 2027 году более чем вероятен.
- После AGI переход к ASI (сверхинтеллекту) за счет самообучения будет очень быстрым, почти мгновенным
- AGI — это самый существенный геополитический ресурс, куда важнее, чем ядерное оружение и страны пойдут на многое, чтобы получить его первым. В статье приводятся примеры того как китайцы шпионят за ИИ-компаниями в США.
- сегодня большой дата-центр это единицы или десятки мегаватт, но с ИИ потребность вырастет на, как минимум, 4 порядка (x 10,000)
- мы увидим единый вычислительный кластер стоимостью в триллион долларов в течении пяти лет. самая рациональная инвестиция со стороны state actors и big tech — это compute, атомная энергия и инфраструктура для первых двух.
- NVIDIA, MSFT, AMZN, GOOG уже сегодня планируют капекс в $100B в квартал на датацентры только для ИИ
- к 2030 году ежегодно и глобально будет инвестироваться $8T в ИИ (включая чипы и компьют), а так же только для ИИ будет потребляться больше чем 100% э/э генерируемой в США сегодня
- к 2026 году выручка одной из big tech компаний от ИИ превысит $100B
- это не безумно, и сравнимые расходы и сдвиги происходили во время Манхеттенского проекта или Промышленной революции и строительства ж/д
Завтра продолжу со второй частью
Если вам лень читать, то можете послушать вышедший сегодня 4-часовой подкаст о том же самом: https://www.dwarkeshpatel.com/p/leopold-aschenbrenner
👍5🔥4🐳4🥴2❤1
Forwarded from Machinelearning
⚡️ Qwen2 - самый крутой релиз откртых LLM со времен Llama 3!
Alibaba только что выпустили свое новое семейство мультиязычных моделей, которых превосходят по производительности Llama 3 по многим параметрам.
🤯 Qwen2 выпущен в 5 размерах, обучен на 29 языках!
5️⃣ Размеры: 0.5B, 1.5B, 7B, 57B-14B (MoE), 72B.
✅ Контекст: 32k для 0.5B & 1.5B, 64k для 57B MoE, 128k для 7B и 72B
✅ Поддерживает 29 языков.
📜 Выпущены под лицензией Apache 2.0, за исключением версии 72B.
📖 BLOG: https://qwenlm.github.io/blog/qwen2/
🤗 HF collection: https://huggingface.co/collections/Qwen/qwen2-6659360b33528ced941e557f
🤖 https://modelscope.cn/organization/qwen
💻 GitHub: https://github.com/QwenLM/Qwen2
@ai_machinelearning_big_data
Alibaba только что выпустили свое новое семейство мультиязычных моделей, которых превосходят по производительности Llama 3 по многим параметрам.
🤯 Qwen2 выпущен в 5 размерах, обучен на 29 языках!
5️⃣ Размеры: 0.5B, 1.5B, 7B, 57B-14B (MoE), 72B.
✅ Контекст: 32k для 0.5B & 1.5B, 64k для 57B MoE, 128k для 7B и 72B
✅ Поддерживает 29 языков.
📜 Выпущены под лицензией Apache 2.0, за исключением версии 72B.
📖 BLOG: https://qwenlm.github.io/blog/qwen2/
🤗 HF collection: https://huggingface.co/collections/Qwen/qwen2-6659360b33528ced941e557f
🤖 https://modelscope.cn/organization/qwen
💻 GitHub: https://github.com/QwenLM/Qwen2
@ai_machinelearning_big_data
👍7🔥3❤1
Forwarded from gonzo-обзоры ML статей
Сергей Марков дописал свою большую двухтомную книгу про ИИ «Охота на электроовец: большая книга искусственного интеллекта»! Поздравляем!
Я читал ранние версии и знаю, что Сергей проделал огромную работу по сбору исторического материала. Абсолютно разумно и без хайпа, с технически достоверными обзорами архитектур. Рекомендую.
Полные электронные версии книги (epub, docx, pdf) можно скачать с сайта бесплатно:
https://markoff.science
Я читал ранние версии и знаю, что Сергей проделал огромную работу по сбору исторического материала. Абсолютно разумно и без хайпа, с технически достоверными обзорами архитектур. Рекомендую.
Полные электронные версии книги (epub, docx, pdf) можно скачать с сайта бесплатно:
https://markoff.science
⚡2
Forwarded from Machinelearning
Stability AI опубликовала в открытом доступе модель Stable Audio, предназначенную для генерации музыки, звуковых эффектов и окружения.
Stable Audio Open — открытая модель в формате Text-to-Audio, которая генерирует 47-секундные музыкальные семплы и звуковые эффекты. К примеру, можно попросить нейросеть создать партию на фортепиано, барабанный бит, гитарный риф, пение соловья или шум дождя. Для генерации надо отправить текстовый запрос. Примечательно, что пользователи могут генерировать музыку на своих данных. К примеру, барабанщик может загрузить записи своих битов и на их основе создавать новые.
В блоге компании рассказали, что открытая модель отличается от одноимённой коммерческой. Закрытая версия Stable Audio может генерировать трёхминутные треки с проработанной структурой. Также поддерживается режим Audio-to-Audio, в котором в качестве запроса можно передать уже готовый трек.
Открытую модель Stable Audio Open обучили на данных сервисов FreeSound и Free Music Archive, что позволило соблюсти все требования к авторским правам. При этом для доступа к нейросети всё равно необходимо ознакомиться с лицензией использования.
🤗 Модель и веса опубликованы на Hugging Face.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2🔥1
Forwarded from Machinelearning
Flash Diffusion — ускорение любой диффузионной модели генерации изображений в несколько шагов
Так называется работа, которую на днях опубликовали Clément Chadebec, Onur Tasar и их коллеги.
Это метод дистилляции для создания быстрых диффузионных моделей.
При обучении модели таким методом на наборах данных COCO2014 и COCO2017 показатели FID и CLIP-Score достигают хороших значений; при этом требуется всего несколько часов обучения на GPU и меньшее количество параметров модели, чем требуют существующие методы.
🟡 Страничка Flash Diffusion
🖥 GitHub
🤗 Flash SD
🤗 Flash SDXL
@ai_machinelearning_big_data
Так называется работа, которую на днях опубликовали Clément Chadebec, Onur Tasar и их коллеги.
Это метод дистилляции для создания быстрых диффузионных моделей.
При обучении модели таким методом на наборах данных COCO2014 и COCO2017 показатели FID и CLIP-Score достигают хороших значений; при этом требуется всего несколько часов обучения на GPU и меньшее количество параметров модели, чем требуют существующие методы.
🤗 Flash SD
🤗 Flash SDXL
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2❤1🔥1
Forwarded from эйай ньюз
Stability релизнули Stable Diffusion 3 Medium. Она бесплатна для некоммерческого пользования. За коммерческое использование придётся платить: $20 в месяц для индивидуальных пользователей и небольших бизнесов, для бизнесов побольше - энтерпрайз лицензия.
Блогпост
Веса
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Последние новости в области ИИ
Stable Diffusion 3
Stability AI анонсировала запуск третьей версии своей модели генерации изображений по тексту, Stable Diffusion 3 (SD3). Основные улучшения включают повышенное качество изображения, лучшее понимание сложных запросов и улучшенную генерацию текста на изображениях. Новая модель использует архитектуру мультимодального диффузионного трансформера, что позволяет ей обрабатывать сложные задачи, такие как реалистичное отображение рук и повторяющихся узоров. SD3 также обеспечивает высокую производительность, создавая изображения разрешением 1024x1024 пикселей за 35 секунд на GPU Nvidia RTX 4090
Apple представила iOS 18 с нейросетями, новой Siri:
Apple представила Apple Intelligence, AI . Это система искусственного интеллекта, которая будет выполнять роль помощника. Она анализирует действия пользователя, запоминает информацию и помогает владельцу Айфона.
* Siri получила значительные улучшения, теперь она лучше понимает ошибки в речи, поддерживает контекст диалога и может принимать текстовые команды. Siri также интегрирована с функцией просмотра контента на экране и может обращаться к ChatGPT для получения более точных ответов.
Генераторы текста в видео
Разработка генераторов текста в видео стремительно развивается. Новые модели способны преобразовывать текстовые описания в видеоролики, создавая их с высоким уровнем реализма. Эти технологии находят применение в различных областях, от создания контента для социальных сетей до профессиональной кинематографии. Одним из стал
Luma Labs, которые выкатили свой text2video и дают создать 30 видео в месяц бесплатно. Качество на уровне SORA
https://lumalabs.ai/dream-machine/creations
Кто уже тестил? Как вам?
Подпишись Generative Ai
Stable Diffusion 3
Stability AI анонсировала запуск третьей версии своей модели генерации изображений по тексту, Stable Diffusion 3 (SD3). Основные улучшения включают повышенное качество изображения, лучшее понимание сложных запросов и улучшенную генерацию текста на изображениях. Новая модель использует архитектуру мультимодального диффузионного трансформера, что позволяет ей обрабатывать сложные задачи, такие как реалистичное отображение рук и повторяющихся узоров. SD3 также обеспечивает высокую производительность, создавая изображения разрешением 1024x1024 пикселей за 35 секунд на GPU Nvidia RTX 4090
Apple представила iOS 18 с нейросетями, новой Siri:
Apple представила Apple Intelligence, AI . Это система искусственного интеллекта, которая будет выполнять роль помощника. Она анализирует действия пользователя, запоминает информацию и помогает владельцу Айфона.
* Siri получила значительные улучшения, теперь она лучше понимает ошибки в речи, поддерживает контекст диалога и может принимать текстовые команды. Siri также интегрирована с функцией просмотра контента на экране и может обращаться к ChatGPT для получения более точных ответов.
Генераторы текста в видео
Разработка генераторов текста в видео стремительно развивается. Новые модели способны преобразовывать текстовые описания в видеоролики, создавая их с высоким уровнем реализма. Эти технологии находят применение в различных областях, от создания контента для социальных сетей до профессиональной кинематографии. Одним из стал
Luma Labs, которые выкатили свой text2video и дают создать 30 видео в месяц бесплатно. Качество на уровне SORA
https://lumalabs.ai/dream-machine/creations
Кто уже тестил? Как вам?
Подпишись Generative Ai
🔥7👍2