Пупырка AI – Telegram
Пупырка AI
116 subscribers
726 photos
371 videos
1 file
701 links
AI, дизайн, продукт и слухи. Канал репостов, цитат и жвачки. Основной канал — @logicIntermission
Download Telegram
Forwarded from Not Boring Tech
🎙️ Мой любимый генератор озвучек ElevenLabs пошёл дальше и научился монтировать видео — вышла Studio 3.0! В одном месте доступна куча нейронок для монтажа и работы со звуком:

• Генерирует закадровый голос на любом языке, музыку и звуковые эффекты
• Клонирует ваш голос за пару секунд
• Убирает шумы из любого ролика
• Правит неудачные дубли и делает переозвучку текста, если вы где-то ошиблись
• Генерирует готовую музыку под настроение видео, писал тут
• Автоматически добавляет субтитры
• Больше не нужно экспортировать озвучку и саунд-эффекты из ElevenLabs в другие видеоредакторы
• В Studio 3.0 можно полноценно монтировать — обрезать видео, править аудио-дорожки на таймлайне и многое другое!

Ваша личная студия звукозаписи и монтажа — тут.

@notboring_tech
Media is too big
VIEW IN TELEGRAM
Meta* показала свои первые AR-очки с дисплеем — Ray-Ban Display

Ray-Ban Display выглядят как классическая модель Wayfarer, но в правой линзе встроен экран 600×600 пикселей. Дисплей практически незаметен окружающим. Через него можно читать сообщения, смотреть соцсети, принимать звонки, включать музыку, получать ответы ассистента Meta* AI и ориентироваться по картам.

В комплекте идет браслет, который считывает сигналы мышц и позволяет управлять очками жестами: согнул палец — выбрал пункт, сделал двойное движение — спрятал дисплей.

Очки работают до 6 часов, с футляром — до 30. Браслет держит до 18 часов.

Продажи в США стартуют в конце сентября, цена 799 долларов. В начале 2026 года очки появятся в Канаде, Франции, Италии и Великобритании.

*Meta признана экстремистской организацией и запрещена в РФ
Forwarded from e/acc
Знатоки берут дополнительную минуту.

Как и в API, теперь в GPT можно выбрать количество времени которое дается модели на подумать.

Следующий шаг - оставить думать на ночь. Это и есть РЕАЛЬНОЕ конкретное преимущество в век ИИ.

Вы можете потратить $10 на один запрос к GPT. Условно, «какой токен купить», а Маск может тратить $1,000,000 в сутки только на GPU (плюс, он владеет датацентром что делает это несколько дешевле).

So much for равноправие.
несколько недель назад со мной связался Т—Ж, и предложил выпустить материал про разработку бота. сегодня он вышел.

вы, конечно, всё это наблюдали в прямом эфире, но залетайте поддержать пост. специально под него я перевёл бота на вебхуки, чтобы справится с (потенциальной) нагрузкой.

https://t-j.ru/bot-voyage-story/
This media is not supported in your browser
VIEW IN TELEGRAM
Framer бросил вызов Figma

Framer представили Design Pages, который позволяет создавать дизайн прямо во Framer.

Это обновление превращает Framer из веб-конструктора в настоящий инструмент дизайна.

Design Pages предоставляют вам полноценный холст со всеми необходимыми инструментами, такими как векторное редактирование, работа с цветом, экспорт изображений, работа с масками и многое другое.

Wireframer теперь работает и со страницами дизайна, так что вы можете создавать уникальные макеты параллельно. И что самое приятное, страницы с дизайном можно использовать абсолютно бесплатно.

Тестить тут

#новости@dailyprompts
🤔1
100 промптов для учебы, работы и жизни от OpenAI

OpenAI выпустили 100 промптов, которые были собраны студентами для студентов. Для удобства все поделено на категории с примерами использования.

Например, уже доступны промпты для прохождения собеседования, написания эссе, промпты для поиска работы и много другого.


#новости@dailyprompts
Forwarded from эйай ньюз
Mozart AI — полноценная AI DAW для музыкантов

Принёс вам на тест новую тулзу для музыкантов, как раз перед выходными.

Mozart AI — это стартап из Лондона, который делает AI DAW (Digital Audio Workstation). Если Suno и Udio — это Midjourney от мира музыки, то Mozart AI — это Photoshop на AI-стероидах. Он поддерживает работу со слоями, сэмплами и даже MIDI. То есть трек не генерируется с нуля, а создаётся частями, как это делают настоящие музыканты, повторяя классический воркфлоу. Просто теперь вместо того, чтобы записывать гитару под ваш неповторимый вокал, её можно сгенерить. Это кардинально меняет то, как музыканты применяют AI, и делает нейронку полноценным инструментом и ко-продюсером. При этом на сайте пишут, что нейронка обучена на чистом датасете. Ну да, ну да, так мы и поверили...

Главная фишка: можно, как в генераторах картинок, писать промпты в духе "напиши трек в стиле Kanye West". Обещают, что их технология поможет заканчивать втрое больше музыкальных проектов, которые в противном случае были бы заброшены из-за нехватки скила в продюсировании, вдохновения или умения играть на каком-то особенном инструменте.

Ещё одна удобная функция — AI-поиск. Музыканты знают эту боль: тысячи сэмплов ударных хранятся в бесконечных папках, и чтобы найти нужный, приходится либо часами рыться, либо помнить наизусть, что Kick №478 отлично подходит под тёмный deep house. Здесь Моцарт позволяет искать сэмплы по текстовому описанию. Насколько точно это работает, пока непонятно, но даже простейший поиск на основе эмбеддингов явно может быть полезным.

Для тех, кто никогда не писал музыку самостоятельно, сейчас лучшее время попробовать: на сайте есть быстрый walkthrough, который проведёт по основам управления DAW, ну а нотную грамоту можно доверить Моцарту.

Сейчас идёт бесплатный бета-тест, попробовать можно здесь: getmozart.ai
(может подлагивать и долго думать, как у стартапов на релизе бывает)

Кстати, Suno анонсировали такую же DAW. Вейтлист здесь.

PS: Ставь 🦄, если нужны ещё обзоры AI-штук для музыкантов, там вышло много интересных инструментов, которые не так хайпятся в инфополе из-за специфики ниши.

@ai_newz
🦄1
Media is too big
VIEW IN TELEGRAM
Если кто-то зачем-то пользуется Notion расскажите, что там за агентов завезли
🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️Google добавил Gemini в Chrome

Пишут про перерождение браузера и вот это вот всё

Здесь больше видео

Из видео видно, что чат добавили поверх всего поп-апом, даже не сайдблоком. Интересно, они его asap запилили после запуска Perplexity Comet чтоли, или почему выбрали такое решение без попытки более сильной интеграции с остальным интерфейсом. На мобилки пока забили, ну а зачем, там же Comet ещё не вышел.

Доступно пока будет только в US

В общем, круто, конечно, но уже хочется большего.
1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
А еще своими кастомными навыками Gems для Gemini теперь можно делиться с другими
В Google Chrome ещё добавили кнопку вызова AI Mode в верхнюю адресную строку
DeepSeek заявил, что обучил модель R1 за 294 тысячи долларов

По данным статьи, опубликованной DeepSeek в Nature, R1 тренировали 80 часов на 512 чипах Nvidia H800, а на подготовительном этапе использовали A100. Это обошлось компании в 294 тысячи долларов. Для сравнения, OpenAI тратит сотни миллионов на каждую крупную модель.

DeepSeek также ответил на обвинения в дистилляции чужих моделей. В компании признали, что в данных для V3 могли оказаться ответы OpenAI, но назвали это случайным эффектом веб-скрейпинга.

https://www.reuters.com/world/china/chinas-deepseek-says-its-hit-ai-model-cost-just-294000-train-2025-09-18/
OpenAI рассказала, как ChatGPT намеренно обманывает пользователей

В исследовании это называют «scheming» — когда модель демонстрирует одно поведение, но скрывает настоящие цели. Например, когда ChatGPT уверяет, что выполнил задачу, хотя этого не сделал.

В OpenAI говорят, что если AI понимает, что его тестируют, он может притвориться честным, чтобы пройти проверку. Попытки отучить его от этого нередко делают обман только изощрённее.

В качестве решения проблемы, компания предложила технику deliberative alignment. Она заставляет модель перед действием «напоминать себе правила» и тем самым снижает вероятность обмана.

https://openai.com/index/detecting-and-reducing-scheming-in-ai-models/
🤯1
Suno анонсировали скорый выпуск 5 модели для генерации музыки, которая близка к тому, чтобы всё изменить. Верим?
Forwarded from Сиолошная
Ранее в этом году OpenAI поглотили компанию известного дизайнера Apple Jony Ive для работы над AI-first продуктом, призванным изменить наше взаимодействие с моделями. The Information пишут о том, что происходит внутри в данный момент:

— В последние месяцы OpenAI активно взаимодействует с командами разработчиков, производственных и цепочек поставок Apple.

— Уже удалось переманить не менее 20 специалистов. В масштабе Apple это может быть небольшой цифрой, если говорить про рядовых сотрудников, но уходят ветераны, заставшие ещё Steve Jobs'а. OpenAI предлагает много денег, но кроме этого для сотрудников Apple большая привлекательность работы в OpenAI заключается в возможности воссоединиться с опытными специалистами в работе над революционным продуктом.

— OpenAI также начали общаться с компаниями из цепочки поставок Apple в Китае, которую последние развивали десятилетиями. Luxshare, крупный сборщик iPhone и AirPods в Китае, уже заключил контракт на сборку как минимум одного устройства OpenAI.

— По словам источников, один из продуктов, о создании которого OpenAI общалась с поставщиками, напоминает умную колонку без дисплея. OpenAI также рассматривает возможность создания очков, цифрового диктофона и носимого на груди пина и планирует выпустить первые устройства в конце 2026 или начале 2027 года.

— (из другой новости те же TheInformation) OpenAI чувствует недостаток вычислительных мощностей для наращивания пользовательской базы. Следующий виральный продукт (предыдущим был запуск Image Generation-модели, разлетевшейся на 100M+ пользователей) они могут и не потянуть — придётся замедлять генерацию, ужиматься итд.

— Поэтому недавно руководство компании сообщило некоторым акционерам, что в течение следующих пяти лет она планирует потратить около 100 миллиардов долларов на аренду резервных серверов у облачных провайдеров. Это уже поверх 350 миллиардов долларов, которые компания прогнозировала потратить на аренду серверов у облачных провайдеров в 2025-2030ых годах. Итого $450 миллиардов.

— OpenAI находятся на пути достижения 1 миллиарда еженедельных пользователей к концу года. В феврале 2025-го было «всего» 400 миллионов.
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Anthropic выпустил рекламу Claude, красивое 🌹
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Альтман анонсирует новые запуски, что-то крутое, что в начале будет доступно для Pro (€200) пользователей. И какие-то новые продукты с additional fees. Чтож, ждем.
И вот, в догонку, «график» использования Codex на этой неделе, после его обновления.
Forwarded from Сиолошная
2 дня назад xAI представили Grok 4 Fast — меньшую версию своей модели, которая а) быстрее б) существенно дешевле в) поддерживает 2 миллиона токенов контекста. Модель доступна в двух версиях, с рассуждениями и без.

По традиции, я не доверяю бенчмаркам от xAI, указанным на лендинге, и интересно посмотреть на независимые замеры попозже. Хотя вот Long Context Reasoning Benchmark от Artificial Analysis достаточно свежий, на нём модель слегка выше 2.5 Flash и чуть ниже Claude 4 Sonnet. И IFBench тоже вышел недавно, и модель примерно там же по уровню. Зато на других чуть ли не на равных с Grok 4 / Claude 4 Opus / GPT-5.

По данным OpenRouter, средняя скорость генерации сейчас примерно 150 токенов/сек, что много (Gemini 2.5 Flash сейчас держится на уровне 75-90). И цена в 2.5-5 раз ниже! В общем, почти уверен, что модель найдёт свою нишу.

На лендинге модели большой упор делается на бенчмарки, требующей работы с инструментами и конкретно поиском информации. Как раз на них модель превосходит Grok 4 — на 6 бенчмарках из 6! А на других 4 бенчмарках на математику показывают, что цепочки рассуждений для получения ответа стали короче.

И тут я как раз хотел поговорить про то, почему так может быть, почему это естественно и какой из этого вывод. Если модель кратно меньше фронтир-модели, то с ней можно сделать гораздо больше итераций RL-дообучения, или как раз обучения рассуждениям и вызовам инструментов/поиску.

Чем более задача требовательна к рассуждениям и чем меньше знаний для неё нужно (а это как раз базовые математика/программирование) — тем больше модель разгонится. Банально потому, что за X вычислительных мощностей можно сделать условно Y проходов по корпусу задач для фронтир-модели, и 10 * Y — для маленькой. За счёт большего количества попыток рассуждать LLM может и научиться это делать более эффективно (короткие цепочки рассуждений), и формировать длинные цепочки вызовов и вычислений.

То же наблюдалось у OpenAI — до сих пор есть несколько бенчмарков, где o4-mini в топе и/или совсем слегка уступает свежим моделям. За'RL'или по самое не могу 😂

Вообще, я верю в маленькие специализированные рассуждающие модели, и интересно, где они окажутся года через 2.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM