Forwarded from (Заметим в скобках)
несколько недель назад со мной связался Т—Ж, и предложил выпустить материал про разработку бота. сегодня он вышел.
вы, конечно, всё это наблюдали в прямом эфире, но залетайте поддержать пост. специально под него я перевёл бота на вебхуки, чтобы справится с (потенциальной) нагрузкой.
https://t-j.ru/bot-voyage-story/
вы, конечно, всё это наблюдали в прямом эфире, но залетайте поддержать пост. специально под него я перевёл бота на вебхуки, чтобы справится с (потенциальной) нагрузкой.
https://t-j.ru/bot-voyage-story/
Т—Ж
Я создал бота-экскурсовода, который отправляет интересные факты о месте на основе геолокации
Опыт читателя
Forwarded from Ринат Шакиров | Промпты для Midjourney | ChatGPT (Ринат Шакиров)
This media is not supported in your browser
VIEW IN TELEGRAM
Framer бросил вызов Figma
Framer представили Design Pages, который позволяет создавать дизайн прямо во Framer.
Это обновление превращает Framer из веб-конструктора в настоящий инструмент дизайна.
Design Pages предоставляют вам полноценный холст со всеми необходимыми инструментами, такими как векторное редактирование, работа с цветом, экспорт изображений, работа с масками и многое другое.
Wireframer теперь работает и со страницами дизайна, так что вы можете создавать уникальные макеты параллельно. И что самое приятное, страницы с дизайном можно использовать абсолютно бесплатно.
Тестить тут
#новости@dailyprompts
Framer представили Design Pages, который позволяет создавать дизайн прямо во Framer.
Это обновление превращает Framer из веб-конструктора в настоящий инструмент дизайна.
Design Pages предоставляют вам полноценный холст со всеми необходимыми инструментами, такими как векторное редактирование, работа с цветом, экспорт изображений, работа с масками и многое другое.
Wireframer теперь работает и со страницами дизайна, так что вы можете создавать уникальные макеты параллельно. И что самое приятное, страницы с дизайном можно использовать абсолютно бесплатно.
Тестить тут
#новости@dailyprompts
🤔1
Forwarded from Ринат Шакиров | Промпты для Midjourney | ChatGPT (Ринат Шакиров)
100 промптов для учебы, работы и жизни от OpenAI
OpenAI выпустили 100 промптов, которые были собраны студентами для студентов. Для удобства все поделено на категории с примерами использования.
#новости@dailyprompts
OpenAI выпустили 100 промптов, которые были собраны студентами для студентов. Для удобства все поделено на категории с примерами использования.
Например, уже доступны промпты для прохождения собеседования, написания эссе, промпты для поиска работы и много другого.
#новости@dailyprompts
Forwarded from эйай ньюз
Mozart AI — полноценная AI DAW для музыкантов
Принёс вам на тест новую тулзу для музыкантов, как раз перед выходными.
Mozart AI — это стартап из Лондона, который делает AI DAW (Digital Audio Workstation). Если Suno и Udio — это Midjourney от мира музыки, то Mozart AI — это Photoshop на AI-стероидах. Он поддерживает работу со слоями, сэмплами и даже MIDI. То есть трек не генерируется с нуля, а создаётся частями, как это делают настоящие музыканты, повторяя классический воркфлоу. Просто теперь вместо того, чтобы записывать гитару под ваш неповторимый вокал, её можно сгенерить. Это кардинально меняет то, как музыканты применяют AI, и делает нейронку полноценным инструментом и ко-продюсером. При этом на сайте пишут, что нейронка обучена на чистом датасете. Ну да, ну да, так мы и поверили...
Главная фишка: можно, как в генераторах картинок, писать промпты в духе "напиши трек в стиле Kanye West". Обещают, что их технология поможет заканчивать втрое больше музыкальных проектов, которые в противном случае были бы заброшены из-за нехватки скила в продюсировании, вдохновения или умения играть на каком-то особенном инструменте.
Ещё одна удобная функция — AI-поиск. Музыканты знают эту боль: тысячи сэмплов ударных хранятся в бесконечных папках, и чтобы найти нужный, приходится либо часами рыться, либо помнить наизусть, что Kick №478 отлично подходит под тёмный deep house. Здесь Моцарт позволяет искать сэмплы по текстовому описанию. Насколько точно это работает, пока непонятно, но даже простейший поиск на основе эмбеддингов явно может быть полезным.
Для тех, кто никогда не писал музыку самостоятельно, сейчас лучшее время попробовать: на сайте есть быстрый walkthrough, который проведёт по основам управления DAW, ну а нотную грамоту можно доверить Моцарту.
Сейчас идёт бесплатный бета-тест, попробовать можно здесь: getmozart.ai
(может подлагивать и долго думать, как у стартапов на релизе бывает)
Кстати, Suno анонсировали такую же DAW. Вейтлист здесь.
PS: Ставь 🦄, если нужны ещё обзоры AI-штук для музыкантов, там вышло много интересных инструментов, которые не так хайпятся в инфополе из-за специфики ниши.
@ai_newz
Принёс вам на тест новую тулзу для музыкантов, как раз перед выходными.
Mozart AI — это стартап из Лондона, который делает AI DAW (Digital Audio Workstation). Если Suno и Udio — это Midjourney от мира музыки, то Mozart AI — это Photoshop на AI-стероидах. Он поддерживает работу со слоями, сэмплами и даже MIDI. То есть трек не генерируется с нуля, а создаётся частями, как это делают настоящие музыканты, повторяя классический воркфлоу. Просто теперь вместо того, чтобы записывать гитару под ваш неповторимый вокал, её можно сгенерить. Это кардинально меняет то, как музыканты применяют AI, и делает нейронку полноценным инструментом и ко-продюсером. При этом на сайте пишут, что нейронка обучена на чистом датасете. Ну да, ну да, так мы и поверили...
Главная фишка: можно, как в генераторах картинок, писать промпты в духе "напиши трек в стиле Kanye West". Обещают, что их технология поможет заканчивать втрое больше музыкальных проектов, которые в противном случае были бы заброшены из-за нехватки скила в продюсировании, вдохновения или умения играть на каком-то особенном инструменте.
Ещё одна удобная функция — AI-поиск. Музыканты знают эту боль: тысячи сэмплов ударных хранятся в бесконечных папках, и чтобы найти нужный, приходится либо часами рыться, либо помнить наизусть, что Kick №478 отлично подходит под тёмный deep house. Здесь Моцарт позволяет искать сэмплы по текстовому описанию. Насколько точно это работает, пока непонятно, но даже простейший поиск на основе эмбеддингов явно может быть полезным.
Для тех, кто никогда не писал музыку самостоятельно, сейчас лучшее время попробовать: на сайте есть быстрый walkthrough, который проведёт по основам управления DAW, ну а нотную грамоту можно доверить Моцарту.
Сейчас идёт бесплатный бета-тест, попробовать можно здесь: getmozart.ai
(может подлагивать и долго думать, как у стартапов на релизе бывает)
Кстати, Suno анонсировали такую же DAW. Вейтлист здесь.
PS: Ставь 🦄, если нужны ещё обзоры AI-штук для музыкантов, там вышло много интересных инструментов, которые не так хайпятся в инфополе из-за специфики ниши.
@ai_newz
🦄1
Media is too big
VIEW IN TELEGRAM
Если кто-то зачем-то пользуется Notion расскажите, что там за агентов завезли
🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️Google добавил Gemini в Chrome
Пишут про перерождение браузера и вот это вот всё
Здесь больше видео
Из видео видно, что чат добавили поверх всего поп-апом, даже не сайдблоком. Интересно, они его asap запилили после запуска Perplexity Comet чтоли, или почему выбрали такое решение без попытки более сильной интеграции с остальным интерфейсом. На мобилки пока забили, ну а зачем, там же Comet ещё не вышел.
Доступно пока будет только в US
В общем, круто, конечно, но уже хочется большего.
Пишут про перерождение браузера и вот это вот всё
Здесь больше видео
Из видео видно, что чат добавили поверх всего поп-апом, даже не сайдблоком. Интересно, они его asap запилили после запуска Perplexity Comet чтоли, или почему выбрали такое решение без попытки более сильной интеграции с остальным интерфейсом. На мобилки пока забили, ну а зачем, там же Comet ещё не вышел.
Доступно пока будет только в US
В общем, круто, конечно, но уже хочется большего.
⚡1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
А еще своими кастомными навыками Gems для Gemini теперь можно делиться с другими
Forwarded from GPT/ChatGPT/AI Central Александра Горного
DeepSeek заявил, что обучил модель R1 за 294 тысячи долларов
По данным статьи, опубликованной DeepSeek в Nature, R1 тренировали 80 часов на 512 чипах Nvidia H800, а на подготовительном этапе использовали A100. Это обошлось компании в 294 тысячи долларов. Для сравнения, OpenAI тратит сотни миллионов на каждую крупную модель.
DeepSeek также ответил на обвинения в дистилляции чужих моделей. В компании признали, что в данных для V3 могли оказаться ответы OpenAI, но назвали это случайным эффектом веб-скрейпинга.
https://www.reuters.com/world/china/chinas-deepseek-says-its-hit-ai-model-cost-just-294000-train-2025-09-18/
По данным статьи, опубликованной DeepSeek в Nature, R1 тренировали 80 часов на 512 чипах Nvidia H800, а на подготовительном этапе использовали A100. Это обошлось компании в 294 тысячи долларов. Для сравнения, OpenAI тратит сотни миллионов на каждую крупную модель.
DeepSeek также ответил на обвинения в дистилляции чужих моделей. В компании признали, что в данных для V3 могли оказаться ответы OpenAI, но назвали это случайным эффектом веб-скрейпинга.
https://www.reuters.com/world/china/chinas-deepseek-says-its-hit-ai-model-cost-just-294000-train-2025-09-18/
Forwarded from GPT/ChatGPT/AI Central Александра Горного
OpenAI рассказала, как ChatGPT намеренно обманывает пользователей
В исследовании это называют «scheming» — когда модель демонстрирует одно поведение, но скрывает настоящие цели. Например, когда ChatGPT уверяет, что выполнил задачу, хотя этого не сделал.
В OpenAI говорят, что если AI понимает, что его тестируют, он может притвориться честным, чтобы пройти проверку. Попытки отучить его от этого нередко делают обман только изощрённее.
В качестве решения проблемы, компания предложила технику deliberative alignment. Она заставляет модель перед действием «напоминать себе правила» и тем самым снижает вероятность обмана.
https://openai.com/index/detecting-and-reducing-scheming-in-ai-models/
В исследовании это называют «scheming» — когда модель демонстрирует одно поведение, но скрывает настоящие цели. Например, когда ChatGPT уверяет, что выполнил задачу, хотя этого не сделал.
В OpenAI говорят, что если AI понимает, что его тестируют, он может притвориться честным, чтобы пройти проверку. Попытки отучить его от этого нередко делают обман только изощрённее.
В качестве решения проблемы, компания предложила технику deliberative alignment. Она заставляет модель перед действием «напоминать себе правила» и тем самым снижает вероятность обмана.
https://openai.com/index/detecting-and-reducing-scheming-in-ai-models/
🤯1
Forwarded from Сиолошная
Ранее в этом году OpenAI поглотили компанию известного дизайнера Apple Jony Ive для работы над AI-first продуктом, призванным изменить наше взаимодействие с моделями. The Information пишут о том, что происходит внутри в данный момент:
— В последние месяцы OpenAI активно взаимодействует с командами разработчиков, производственных и цепочек поставок Apple.
— Уже удалось переманить не менее 20 специалистов. В масштабе Apple это может быть небольшой цифрой, если говорить про рядовых сотрудников, но уходят ветераны, заставшие ещё Steve Jobs'а. OpenAI предлагает много денег, но кроме этого для сотрудников Apple большая привлекательность работы в OpenAI заключается в возможности воссоединиться с опытными специалистами в работе над революционным продуктом.
— OpenAI также начали общаться с компаниями из цепочки поставок Apple в Китае, которую последние развивали десятилетиями. Luxshare, крупный сборщик iPhone и AirPods в Китае, уже заключил контракт на сборку как минимум одного устройства OpenAI.
— По словам источников, один из продуктов, о создании которого OpenAI общалась с поставщиками, напоминает умную колонку без дисплея. OpenAI также рассматривает возможность создания очков, цифрового диктофона и носимого на груди пина и планирует выпустить первые устройства в конце 2026 или начале 2027 года.
— (из другой новости те же TheInformation) OpenAI чувствует недостаток вычислительных мощностей для наращивания пользовательской базы. Следующий виральный продукт (предыдущим был запуск Image Generation-модели, разлетевшейся на 100M+ пользователей) они могут и не потянуть — придётся замедлять генерацию, ужиматься итд.
— Поэтому недавно руководство компании сообщило некоторым акционерам, что в течение следующих пяти лет она планирует потратить около 100 миллиардов долларов на аренду резервных серверов у облачных провайдеров. Это уже поверх 350 миллиардов долларов, которые компания прогнозировала потратить на аренду серверов у облачных провайдеров в 2025-2030ых годах. Итого $450 миллиардов.
— OpenAI находятся на пути достижения 1 миллиарда еженедельных пользователей к концу года. В феврале 2025-го было «всего» 400 миллионов.
— В последние месяцы OpenAI активно взаимодействует с командами разработчиков, производственных и цепочек поставок Apple.
— Уже удалось переманить не менее 20 специалистов. В масштабе Apple это может быть небольшой цифрой, если говорить про рядовых сотрудников, но уходят ветераны, заставшие ещё Steve Jobs'а. OpenAI предлагает много денег, но кроме этого для сотрудников Apple большая привлекательность работы в OpenAI заключается в возможности воссоединиться с опытными специалистами в работе над революционным продуктом.
— OpenAI также начали общаться с компаниями из цепочки поставок Apple в Китае, которую последние развивали десятилетиями. Luxshare, крупный сборщик iPhone и AirPods в Китае, уже заключил контракт на сборку как минимум одного устройства OpenAI.
— По словам источников, один из продуктов, о создании которого OpenAI общалась с поставщиками, напоминает умную колонку без дисплея. OpenAI также рассматривает возможность создания очков, цифрового диктофона и носимого на груди пина и планирует выпустить первые устройства в конце 2026 или начале 2027 года.
— (из другой новости те же TheInformation) OpenAI чувствует недостаток вычислительных мощностей для наращивания пользовательской базы. Следующий виральный продукт (предыдущим был запуск Image Generation-модели, разлетевшейся на 100M+ пользователей) они могут и не потянуть — придётся замедлять генерацию, ужиматься итд.
— Поэтому недавно руководство компании сообщило некоторым акционерам, что в течение следующих пяти лет она планирует потратить около 100 миллиардов долларов на аренду резервных серверов у облачных провайдеров. Это уже поверх 350 миллиардов долларов, которые компания прогнозировала потратить на аренду серверов у облачных провайдеров в 2025-2030ых годах. Итого $450 миллиардов.
— OpenAI находятся на пути достижения 1 миллиарда еженедельных пользователей к концу года. В феврале 2025-го было «всего» 400 миллионов.
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Anthropic выпустил рекламу Claude, красивое 🌹
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Forwarded from Сиолошная
2 дня назад xAI представили Grok 4 Fast — меньшую версию своей модели, которая а) быстрее б) существенно дешевле в) поддерживает 2 миллиона токенов контекста. Модель доступна в двух версиях, с рассуждениями и без.
По традиции, я не доверяю бенчмаркам от xAI, указанным на лендинге, и интересно посмотреть на независимые замеры попозже. Хотя вот Long Context Reasoning Benchmark от Artificial Analysis достаточно свежий, на нём модель слегка выше 2.5 Flash и чуть ниже Claude 4 Sonnet. И IFBench тоже вышел недавно, и модель примерно там же по уровню. Зато на других чуть ли не на равных с Grok 4 / Claude 4 Opus / GPT-5.
По данным OpenRouter, средняя скорость генерации сейчас примерно 150 токенов/сек, что много (Gemini 2.5 Flash сейчас держится на уровне 75-90). И цена в 2.5-5 раз ниже! В общем, почти уверен, что модель найдёт свою нишу.
На лендинге модели большой упор делается на бенчмарки, требующей работы с инструментами и конкретно поиском информации. Как раз на них модель превосходит Grok 4 — на 6 бенчмарках из 6! А на других 4 бенчмарках на математику показывают, что цепочки рассуждений для получения ответа стали короче.
И тут я как раз хотел поговорить про то, почему так может быть, почему это естественно и какой из этого вывод. Если модель кратно меньше фронтир-модели, то с ней можно сделать гораздо больше итераций RL-дообучения, или как раз обучения рассуждениям и вызовам инструментов/поиску.
Чем более задача требовательна к рассуждениям и чем меньше знаний для неё нужно (а это как раз базовые математика/программирование) — тем больше модель разгонится. Банально потому, что за X вычислительных мощностей можно сделать условно Y проходов по корпусу задач для фронтир-модели, и 10 * Y — для маленькой. За счёт большего количества попыток рассуждать LLM может и научиться это делать более эффективно (короткие цепочки рассуждений), и формировать длинные цепочки вызовов и вычислений.
То же наблюдалось у OpenAI — до сих пор есть несколько бенчмарков, где o4-mini в топе и/или совсем слегка уступает свежим моделям. За'RL'или по самое не могу😂
Вообще, я верю в маленькие специализированные рассуждающие модели, и интересно, где они окажутся года через 2.
По традиции, я не доверяю бенчмаркам от xAI, указанным на лендинге, и интересно посмотреть на независимые замеры попозже. Хотя вот Long Context Reasoning Benchmark от Artificial Analysis достаточно свежий, на нём модель слегка выше 2.5 Flash и чуть ниже Claude 4 Sonnet. И IFBench тоже вышел недавно, и модель примерно там же по уровню. Зато на других чуть ли не на равных с Grok 4 / Claude 4 Opus / GPT-5.
По данным OpenRouter, средняя скорость генерации сейчас примерно 150 токенов/сек, что много (Gemini 2.5 Flash сейчас держится на уровне 75-90). И цена в 2.5-5 раз ниже! В общем, почти уверен, что модель найдёт свою нишу.
На лендинге модели большой упор делается на бенчмарки, требующей работы с инструментами и конкретно поиском информации. Как раз на них модель превосходит Grok 4 — на 6 бенчмарках из 6! А на других 4 бенчмарках на математику показывают, что цепочки рассуждений для получения ответа стали короче.
И тут я как раз хотел поговорить про то, почему так может быть, почему это естественно и какой из этого вывод. Если модель кратно меньше фронтир-модели, то с ней можно сделать гораздо больше итераций RL-дообучения, или как раз обучения рассуждениям и вызовам инструментов/поиску.
Чем более задача требовательна к рассуждениям и чем меньше знаний для неё нужно (а это как раз базовые математика/программирование) — тем больше модель разгонится. Банально потому, что за X вычислительных мощностей можно сделать условно Y проходов по корпусу задач для фронтир-модели, и 10 * Y — для маленькой. За счёт большего количества попыток рассуждать LLM может и научиться это делать более эффективно (короткие цепочки рассуждений), и формировать длинные цепочки вызовов и вычислений.
То же наблюдалось у OpenAI — до сих пор есть несколько бенчмарков, где o4-mini в топе и/или совсем слегка уступает свежим моделям. За'RL'или по самое не могу
Вообще, я верю в маленькие специализированные рассуждающие модели, и интересно, где они окажутся года через 2.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Для подписки за €200 Perlexity выпустили Email агента.
https://www.perplexity.ai/assistant/
Пользуюсь обычным агентом в ChatGPT иногда, удобно. У ребят анонсировано больше функций, но кажется, что ради почты покупать Макс подписку это довольно узкий сегмент ЦА у них будет. Зато просто плюс фича в набор
https://www.perplexity.ai/assistant/
Пользуюсь обычным агентом в ChatGPT иногда, удобно. У ребят анонсировано больше функций, но кажется, что ради почты покупать Макс подписку это довольно узкий сегмент ЦА у них будет. Зато просто плюс фича в набор