Forwarded from эйай ньюз
Mozart AI — полноценная AI DAW для музыкантов
Принёс вам на тест новую тулзу для музыкантов, как раз перед выходными.
Mozart AI — это стартап из Лондона, который делает AI DAW (Digital Audio Workstation). Если Suno и Udio — это Midjourney от мира музыки, то Mozart AI — это Photoshop на AI-стероидах. Он поддерживает работу со слоями, сэмплами и даже MIDI. То есть трек не генерируется с нуля, а создаётся частями, как это делают настоящие музыканты, повторяя классический воркфлоу. Просто теперь вместо того, чтобы записывать гитару под ваш неповторимый вокал, её можно сгенерить. Это кардинально меняет то, как музыканты применяют AI, и делает нейронку полноценным инструментом и ко-продюсером. При этом на сайте пишут, что нейронка обучена на чистом датасете. Ну да, ну да, так мы и поверили...
Главная фишка: можно, как в генераторах картинок, писать промпты в духе "напиши трек в стиле Kanye West". Обещают, что их технология поможет заканчивать втрое больше музыкальных проектов, которые в противном случае были бы заброшены из-за нехватки скила в продюсировании, вдохновения или умения играть на каком-то особенном инструменте.
Ещё одна удобная функция — AI-поиск. Музыканты знают эту боль: тысячи сэмплов ударных хранятся в бесконечных папках, и чтобы найти нужный, приходится либо часами рыться, либо помнить наизусть, что Kick №478 отлично подходит под тёмный deep house. Здесь Моцарт позволяет искать сэмплы по текстовому описанию. Насколько точно это работает, пока непонятно, но даже простейший поиск на основе эмбеддингов явно может быть полезным.
Для тех, кто никогда не писал музыку самостоятельно, сейчас лучшее время попробовать: на сайте есть быстрый walkthrough, который проведёт по основам управления DAW, ну а нотную грамоту можно доверить Моцарту.
Сейчас идёт бесплатный бета-тест, попробовать можно здесь: getmozart.ai
(может подлагивать и долго думать, как у стартапов на релизе бывает)
Кстати, Suno анонсировали такую же DAW. Вейтлист здесь.
PS: Ставь 🦄, если нужны ещё обзоры AI-штук для музыкантов, там вышло много интересных инструментов, которые не так хайпятся в инфополе из-за специфики ниши.
@ai_newz
Принёс вам на тест новую тулзу для музыкантов, как раз перед выходными.
Mozart AI — это стартап из Лондона, который делает AI DAW (Digital Audio Workstation). Если Suno и Udio — это Midjourney от мира музыки, то Mozart AI — это Photoshop на AI-стероидах. Он поддерживает работу со слоями, сэмплами и даже MIDI. То есть трек не генерируется с нуля, а создаётся частями, как это делают настоящие музыканты, повторяя классический воркфлоу. Просто теперь вместо того, чтобы записывать гитару под ваш неповторимый вокал, её можно сгенерить. Это кардинально меняет то, как музыканты применяют AI, и делает нейронку полноценным инструментом и ко-продюсером. При этом на сайте пишут, что нейронка обучена на чистом датасете. Ну да, ну да, так мы и поверили...
Главная фишка: можно, как в генераторах картинок, писать промпты в духе "напиши трек в стиле Kanye West". Обещают, что их технология поможет заканчивать втрое больше музыкальных проектов, которые в противном случае были бы заброшены из-за нехватки скила в продюсировании, вдохновения или умения играть на каком-то особенном инструменте.
Ещё одна удобная функция — AI-поиск. Музыканты знают эту боль: тысячи сэмплов ударных хранятся в бесконечных папках, и чтобы найти нужный, приходится либо часами рыться, либо помнить наизусть, что Kick №478 отлично подходит под тёмный deep house. Здесь Моцарт позволяет искать сэмплы по текстовому описанию. Насколько точно это работает, пока непонятно, но даже простейший поиск на основе эмбеддингов явно может быть полезным.
Для тех, кто никогда не писал музыку самостоятельно, сейчас лучшее время попробовать: на сайте есть быстрый walkthrough, который проведёт по основам управления DAW, ну а нотную грамоту можно доверить Моцарту.
Сейчас идёт бесплатный бета-тест, попробовать можно здесь: getmozart.ai
(может подлагивать и долго думать, как у стартапов на релизе бывает)
Кстати, Suno анонсировали такую же DAW. Вейтлист здесь.
PS: Ставь 🦄, если нужны ещё обзоры AI-штук для музыкантов, там вышло много интересных инструментов, которые не так хайпятся в инфополе из-за специфики ниши.
@ai_newz
🦄1
Media is too big
VIEW IN TELEGRAM
Если кто-то зачем-то пользуется Notion расскажите, что там за агентов завезли
🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️Google добавил Gemini в Chrome
Пишут про перерождение браузера и вот это вот всё
Здесь больше видео
Из видео видно, что чат добавили поверх всего поп-апом, даже не сайдблоком. Интересно, они его asap запилили после запуска Perplexity Comet чтоли, или почему выбрали такое решение без попытки более сильной интеграции с остальным интерфейсом. На мобилки пока забили, ну а зачем, там же Comet ещё не вышел.
Доступно пока будет только в US
В общем, круто, конечно, но уже хочется большего.
Пишут про перерождение браузера и вот это вот всё
Здесь больше видео
Из видео видно, что чат добавили поверх всего поп-апом, даже не сайдблоком. Интересно, они его asap запилили после запуска Perplexity Comet чтоли, или почему выбрали такое решение без попытки более сильной интеграции с остальным интерфейсом. На мобилки пока забили, ну а зачем, там же Comet ещё не вышел.
Доступно пока будет только в US
В общем, круто, конечно, но уже хочется большего.
⚡1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
А еще своими кастомными навыками Gems для Gemini теперь можно делиться с другими
Forwarded from GPT/ChatGPT/AI Central Александра Горного
DeepSeek заявил, что обучил модель R1 за 294 тысячи долларов
По данным статьи, опубликованной DeepSeek в Nature, R1 тренировали 80 часов на 512 чипах Nvidia H800, а на подготовительном этапе использовали A100. Это обошлось компании в 294 тысячи долларов. Для сравнения, OpenAI тратит сотни миллионов на каждую крупную модель.
DeepSeek также ответил на обвинения в дистилляции чужих моделей. В компании признали, что в данных для V3 могли оказаться ответы OpenAI, но назвали это случайным эффектом веб-скрейпинга.
https://www.reuters.com/world/china/chinas-deepseek-says-its-hit-ai-model-cost-just-294000-train-2025-09-18/
По данным статьи, опубликованной DeepSeek в Nature, R1 тренировали 80 часов на 512 чипах Nvidia H800, а на подготовительном этапе использовали A100. Это обошлось компании в 294 тысячи долларов. Для сравнения, OpenAI тратит сотни миллионов на каждую крупную модель.
DeepSeek также ответил на обвинения в дистилляции чужих моделей. В компании признали, что в данных для V3 могли оказаться ответы OpenAI, но назвали это случайным эффектом веб-скрейпинга.
https://www.reuters.com/world/china/chinas-deepseek-says-its-hit-ai-model-cost-just-294000-train-2025-09-18/
Forwarded from GPT/ChatGPT/AI Central Александра Горного
OpenAI рассказала, как ChatGPT намеренно обманывает пользователей
В исследовании это называют «scheming» — когда модель демонстрирует одно поведение, но скрывает настоящие цели. Например, когда ChatGPT уверяет, что выполнил задачу, хотя этого не сделал.
В OpenAI говорят, что если AI понимает, что его тестируют, он может притвориться честным, чтобы пройти проверку. Попытки отучить его от этого нередко делают обман только изощрённее.
В качестве решения проблемы, компания предложила технику deliberative alignment. Она заставляет модель перед действием «напоминать себе правила» и тем самым снижает вероятность обмана.
https://openai.com/index/detecting-and-reducing-scheming-in-ai-models/
В исследовании это называют «scheming» — когда модель демонстрирует одно поведение, но скрывает настоящие цели. Например, когда ChatGPT уверяет, что выполнил задачу, хотя этого не сделал.
В OpenAI говорят, что если AI понимает, что его тестируют, он может притвориться честным, чтобы пройти проверку. Попытки отучить его от этого нередко делают обман только изощрённее.
В качестве решения проблемы, компания предложила технику deliberative alignment. Она заставляет модель перед действием «напоминать себе правила» и тем самым снижает вероятность обмана.
https://openai.com/index/detecting-and-reducing-scheming-in-ai-models/
🤯1
Forwarded from Сиолошная
Ранее в этом году OpenAI поглотили компанию известного дизайнера Apple Jony Ive для работы над AI-first продуктом, призванным изменить наше взаимодействие с моделями. The Information пишут о том, что происходит внутри в данный момент:
— В последние месяцы OpenAI активно взаимодействует с командами разработчиков, производственных и цепочек поставок Apple.
— Уже удалось переманить не менее 20 специалистов. В масштабе Apple это может быть небольшой цифрой, если говорить про рядовых сотрудников, но уходят ветераны, заставшие ещё Steve Jobs'а. OpenAI предлагает много денег, но кроме этого для сотрудников Apple большая привлекательность работы в OpenAI заключается в возможности воссоединиться с опытными специалистами в работе над революционным продуктом.
— OpenAI также начали общаться с компаниями из цепочки поставок Apple в Китае, которую последние развивали десятилетиями. Luxshare, крупный сборщик iPhone и AirPods в Китае, уже заключил контракт на сборку как минимум одного устройства OpenAI.
— По словам источников, один из продуктов, о создании которого OpenAI общалась с поставщиками, напоминает умную колонку без дисплея. OpenAI также рассматривает возможность создания очков, цифрового диктофона и носимого на груди пина и планирует выпустить первые устройства в конце 2026 или начале 2027 года.
— (из другой новости те же TheInformation) OpenAI чувствует недостаток вычислительных мощностей для наращивания пользовательской базы. Следующий виральный продукт (предыдущим был запуск Image Generation-модели, разлетевшейся на 100M+ пользователей) они могут и не потянуть — придётся замедлять генерацию, ужиматься итд.
— Поэтому недавно руководство компании сообщило некоторым акционерам, что в течение следующих пяти лет она планирует потратить около 100 миллиардов долларов на аренду резервных серверов у облачных провайдеров. Это уже поверх 350 миллиардов долларов, которые компания прогнозировала потратить на аренду серверов у облачных провайдеров в 2025-2030ых годах. Итого $450 миллиардов.
— OpenAI находятся на пути достижения 1 миллиарда еженедельных пользователей к концу года. В феврале 2025-го было «всего» 400 миллионов.
— В последние месяцы OpenAI активно взаимодействует с командами разработчиков, производственных и цепочек поставок Apple.
— Уже удалось переманить не менее 20 специалистов. В масштабе Apple это может быть небольшой цифрой, если говорить про рядовых сотрудников, но уходят ветераны, заставшие ещё Steve Jobs'а. OpenAI предлагает много денег, но кроме этого для сотрудников Apple большая привлекательность работы в OpenAI заключается в возможности воссоединиться с опытными специалистами в работе над революционным продуктом.
— OpenAI также начали общаться с компаниями из цепочки поставок Apple в Китае, которую последние развивали десятилетиями. Luxshare, крупный сборщик iPhone и AirPods в Китае, уже заключил контракт на сборку как минимум одного устройства OpenAI.
— По словам источников, один из продуктов, о создании которого OpenAI общалась с поставщиками, напоминает умную колонку без дисплея. OpenAI также рассматривает возможность создания очков, цифрового диктофона и носимого на груди пина и планирует выпустить первые устройства в конце 2026 или начале 2027 года.
— (из другой новости те же TheInformation) OpenAI чувствует недостаток вычислительных мощностей для наращивания пользовательской базы. Следующий виральный продукт (предыдущим был запуск Image Generation-модели, разлетевшейся на 100M+ пользователей) они могут и не потянуть — придётся замедлять генерацию, ужиматься итд.
— Поэтому недавно руководство компании сообщило некоторым акционерам, что в течение следующих пяти лет она планирует потратить около 100 миллиардов долларов на аренду резервных серверов у облачных провайдеров. Это уже поверх 350 миллиардов долларов, которые компания прогнозировала потратить на аренду серверов у облачных провайдеров в 2025-2030ых годах. Итого $450 миллиардов.
— OpenAI находятся на пути достижения 1 миллиарда еженедельных пользователей к концу года. В феврале 2025-го было «всего» 400 миллионов.
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Anthropic выпустил рекламу Claude, красивое 🌹
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Forwarded from Сиолошная
2 дня назад xAI представили Grok 4 Fast — меньшую версию своей модели, которая а) быстрее б) существенно дешевле в) поддерживает 2 миллиона токенов контекста. Модель доступна в двух версиях, с рассуждениями и без.
По традиции, я не доверяю бенчмаркам от xAI, указанным на лендинге, и интересно посмотреть на независимые замеры попозже. Хотя вот Long Context Reasoning Benchmark от Artificial Analysis достаточно свежий, на нём модель слегка выше 2.5 Flash и чуть ниже Claude 4 Sonnet. И IFBench тоже вышел недавно, и модель примерно там же по уровню. Зато на других чуть ли не на равных с Grok 4 / Claude 4 Opus / GPT-5.
По данным OpenRouter, средняя скорость генерации сейчас примерно 150 токенов/сек, что много (Gemini 2.5 Flash сейчас держится на уровне 75-90). И цена в 2.5-5 раз ниже! В общем, почти уверен, что модель найдёт свою нишу.
На лендинге модели большой упор делается на бенчмарки, требующей работы с инструментами и конкретно поиском информации. Как раз на них модель превосходит Grok 4 — на 6 бенчмарках из 6! А на других 4 бенчмарках на математику показывают, что цепочки рассуждений для получения ответа стали короче.
И тут я как раз хотел поговорить про то, почему так может быть, почему это естественно и какой из этого вывод. Если модель кратно меньше фронтир-модели, то с ней можно сделать гораздо больше итераций RL-дообучения, или как раз обучения рассуждениям и вызовам инструментов/поиску.
Чем более задача требовательна к рассуждениям и чем меньше знаний для неё нужно (а это как раз базовые математика/программирование) — тем больше модель разгонится. Банально потому, что за X вычислительных мощностей можно сделать условно Y проходов по корпусу задач для фронтир-модели, и 10 * Y — для маленькой. За счёт большего количества попыток рассуждать LLM может и научиться это делать более эффективно (короткие цепочки рассуждений), и формировать длинные цепочки вызовов и вычислений.
То же наблюдалось у OpenAI — до сих пор есть несколько бенчмарков, где o4-mini в топе и/или совсем слегка уступает свежим моделям. За'RL'или по самое не могу😂
Вообще, я верю в маленькие специализированные рассуждающие модели, и интересно, где они окажутся года через 2.
По традиции, я не доверяю бенчмаркам от xAI, указанным на лендинге, и интересно посмотреть на независимые замеры попозже. Хотя вот Long Context Reasoning Benchmark от Artificial Analysis достаточно свежий, на нём модель слегка выше 2.5 Flash и чуть ниже Claude 4 Sonnet. И IFBench тоже вышел недавно, и модель примерно там же по уровню. Зато на других чуть ли не на равных с Grok 4 / Claude 4 Opus / GPT-5.
По данным OpenRouter, средняя скорость генерации сейчас примерно 150 токенов/сек, что много (Gemini 2.5 Flash сейчас держится на уровне 75-90). И цена в 2.5-5 раз ниже! В общем, почти уверен, что модель найдёт свою нишу.
На лендинге модели большой упор делается на бенчмарки, требующей работы с инструментами и конкретно поиском информации. Как раз на них модель превосходит Grok 4 — на 6 бенчмарках из 6! А на других 4 бенчмарках на математику показывают, что цепочки рассуждений для получения ответа стали короче.
И тут я как раз хотел поговорить про то, почему так может быть, почему это естественно и какой из этого вывод. Если модель кратно меньше фронтир-модели, то с ней можно сделать гораздо больше итераций RL-дообучения, или как раз обучения рассуждениям и вызовам инструментов/поиску.
Чем более задача требовательна к рассуждениям и чем меньше знаний для неё нужно (а это как раз базовые математика/программирование) — тем больше модель разгонится. Банально потому, что за X вычислительных мощностей можно сделать условно Y проходов по корпусу задач для фронтир-модели, и 10 * Y — для маленькой. За счёт большего количества попыток рассуждать LLM может и научиться это делать более эффективно (короткие цепочки рассуждений), и формировать длинные цепочки вызовов и вычислений.
То же наблюдалось у OpenAI — до сих пор есть несколько бенчмарков, где o4-mini в топе и/или совсем слегка уступает свежим моделям. За'RL'или по самое не могу
Вообще, я верю в маленькие специализированные рассуждающие модели, и интересно, где они окажутся года через 2.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Для подписки за €200 Perlexity выпустили Email агента.
https://www.perplexity.ai/assistant/
Пользуюсь обычным агентом в ChatGPT иногда, удобно. У ребят анонсировано больше функций, но кажется, что ради почты покупать Макс подписку это довольно узкий сегмент ЦА у них будет. Зато просто плюс фича в набор
https://www.perplexity.ai/assistant/
Пользуюсь обычным агентом в ChatGPT иногда, удобно. У ребят анонсировано больше функций, но кажется, что ради почты покупать Макс подписку это довольно узкий сегмент ЦА у них будет. Зато просто плюс фича в набор
Media is too big
VIEW IN TELEGRAM
Genspark добавили голосовое управление AI-редактором фото
Пупырка AI
Продолжая тему про генерацию картинок и видео. Зацените какой бесшовный пинтерест-лайк флоу с погружением и управлением лентой. Раньше дети привыкали к тыкать в сенсорные экраны, а теперь AI будет частью их обычной жизни и ожидаемое поведение приложений.…
Если вы думаете а нужен ли кому голосовой фото-редактор, напомню это видео
Forwarded from TechSparks
Мустафа Сулейман (CEO Microsoft AI, сооснователь Google DeepMind) давно в своих выступлениях подчеркивает, что ИИ уже становится, а местами даже стал, чем-то гораздо большим, чем пресловутый “инструмент”. Мне лично его мнение ценно не столько тем, что я его очень разделяю, сколько тем, что это не мнение стороннего эксперта, сколь угодно эрудированного, а мнение человека давно и глубоко погруженного а разработку и продуктовые воплощения фундаментальных новинок в ИИ.
Год назад он использовал выражение “digital species”, но сам же был недоволен, теперь он пытается подобрать другие слова: при описании принципиально нового со словарем всегда проблемы.
Выработка нового словаря и вообще способа описания — штука важная, поэтому приведу длинную его цитату в переводе:
«Сложность момента, в который мы входим с новой эрой ИИ-агентов, в том, что эти системы становятся не просто механизмами распознавания, а полноценными агентами, с поведением которых нам всё чаще придётся взаимодействовать, как если бы это были своего рода цифровые личности. И это — пороговая трансформация в истории нашего вида: они уже не инструменты, они явно не люди, не часть природы. Это как бы четвёртое отношение, новый эмерджентный тип… Я не знаю, как иначе это назвать, кроме как “четвёртое отношение”.»
Под тремя предыдущими, привычными отношениями он подразумевает
• отношения с другими людьми (human to human),
• отношения с природой (human to nature),
• отношения с инструментами/технологиями (human to tools or objects)
Это важная и пока что редкая мысль: сейчас большая часть дискуссий сводится к спорам, куда приписать взаимодействие с ИИ в рамках как раз этих трех привычных отношений, и сторонники отношений с инструментом не на шутку рубятся со сторонниками отношений как с личностью, обсуждая угрозы или плюсы антропоморфизации.
Трудно признавать, что столкнулись с чем-то по-настоящему новым.
Да и в целом больше чем полтора часа разговора по ссылке интересны и вполне оптимистичны, удовольствие слушать. Но если нет полутора часов, сейчас всегда можно и перевод и краткий пересказ нажатием пары кнопок получить:) Очень рекомендую!
https://youtu.be/tQ5wO1lznCQ?si=DY1XXBS_kZglAvFh
Год назад он использовал выражение “digital species”, но сам же был недоволен, теперь он пытается подобрать другие слова: при описании принципиально нового со словарем всегда проблемы.
Выработка нового словаря и вообще способа описания — штука важная, поэтому приведу длинную его цитату в переводе:
«Сложность момента, в который мы входим с новой эрой ИИ-агентов, в том, что эти системы становятся не просто механизмами распознавания, а полноценными агентами, с поведением которых нам всё чаще придётся взаимодействовать, как если бы это были своего рода цифровые личности. И это — пороговая трансформация в истории нашего вида: они уже не инструменты, они явно не люди, не часть природы. Это как бы четвёртое отношение, новый эмерджентный тип… Я не знаю, как иначе это назвать, кроме как “четвёртое отношение”.»
Под тремя предыдущими, привычными отношениями он подразумевает
• отношения с другими людьми (human to human),
• отношения с природой (human to nature),
• отношения с инструментами/технологиями (human to tools or objects)
Это важная и пока что редкая мысль: сейчас большая часть дискуссий сводится к спорам, куда приписать взаимодействие с ИИ в рамках как раз этих трех привычных отношений, и сторонники отношений с инструментом не на шутку рубятся со сторонниками отношений как с личностью, обсуждая угрозы или плюсы антропоморфизации.
Трудно признавать, что столкнулись с чем-то по-настоящему новым.
Да и в целом больше чем полтора часа разговора по ссылке интересны и вполне оптимистичны, удовольствие слушать. Но если нет полутора часов, сейчас всегда можно и перевод и краткий пересказ нажатием пары кнопок получить:) Очень рекомендую!
https://youtu.be/tQ5wO1lznCQ?si=DY1XXBS_kZglAvFh
YouTube
Mustafa Suleyman: Will AI Save Humanity or End It?
Trevor (who is also Microsoft’s “Chief Questions Officer”) and Mustafa Suleyman, CEO of Microsoft AI and co-founder of Google’s DeepMind, do a deep dive into whether the benefits of Artificial Intelligence (AI) to the human race outweigh its unprecedented…
👍1
Forwarded from GPT/ChatGPT/AI Central Александра Горного
Вышла Qwen3-Omni — модель, с которой можно общаться в видеочате
Qwen3-Omni принимает на вход текст, изображения, аудио и видео, а также отвечает текстом и голосом в режиме реального времени. Поддерживается русский язык.
Попробовать можно тут: https://chat.qwen.ai/?models=qwen3-omni-flash
Qwen3-Omni принимает на вход текст, изображения, аудио и видео, а также отвечает текстом и голосом в режиме реального времени. Поддерживается русский язык.
Попробовать можно тут: https://chat.qwen.ai/?models=qwen3-omni-flash