Forwarded from 42 секунды
CNBC: Мрачный прогноз Amazon по прибыли затмил результаты квартала, которые превзошли ожидания
– Выручка Amazon за Q2 2025 выросла на 13%, до $167,7 млрд
– Доходы сегмента AWS увеличились на 18%, до $30,87 млрд
– AWS остается лидером на рынке облачной инфраструктуры
– При этом Microsoft Azure и Google Cloud выросли на 39 и 32%
– Рекламный бизнес Amazon вырос на 23%, до $15,69 млрд
– Amazon является 3-й по величине платформой цифр. рекламы
– В этом году пошлины не повлияли на спрос, рост цен и др.
– Продажи e-commerce выросли на 11%, составив $61,5 млрд
– Доходы от сервисов для продавцов были $40,3 млрд (+11%)
– Выручка за новый квартал будет $174-179,5 млрд (+10-13%)
– Amazon ожидает $15,5-20,5 млрд операц. прибыли за квартал
– Аналитики ожидали, что сред. показатель будет $19,48 млрд
– Заявление напугало инвесторов, ожидающих эффекта от ИИ
– Из-за слабого прогноза акции Amazon показали падение на 7%
– Amazon намерена потратить до $100 млрд на ИИ за этот год
@ftsec
– Выручка Amazon за Q2 2025 выросла на 13%, до $167,7 млрд
– Доходы сегмента AWS увеличились на 18%, до $30,87 млрд
– AWS остается лидером на рынке облачной инфраструктуры
– При этом Microsoft Azure и Google Cloud выросли на 39 и 32%
– Рекламный бизнес Amazon вырос на 23%, до $15,69 млрд
– Amazon является 3-й по величине платформой цифр. рекламы
– В этом году пошлины не повлияли на спрос, рост цен и др.
– Продажи e-commerce выросли на 11%, составив $61,5 млрд
– Доходы от сервисов для продавцов были $40,3 млрд (+11%)
– Выручка за новый квартал будет $174-179,5 млрд (+10-13%)
– Amazon ожидает $15,5-20,5 млрд операц. прибыли за квартал
– Аналитики ожидали, что сред. показатель будет $19,48 млрд
– Заявление напугало инвесторов, ожидающих эффекта от ИИ
– Из-за слабого прогноза акции Amazon показали падение на 7%
– Amazon намерена потратить до $100 млрд на ИИ за этот год
@ftsec
Forwarded from 42 секунды
The Information: Годовая выручка Anthropic достигла почти $5 млрд
– Anthropic собирается привлечь до $5 млрд нового финансирования
– Изначально целью были $3 млрд, но повлиял интерес инвесторов
– Оценка Anthropic при новом раунде может составить уже $170 млрд
– Внимание уделяют инвесторам, которые выпишут крупные чеки
– Показатель ARR вырос до $5 млрд, месяц назад он был $4+ млрд
– Стартапу нужен капитал для работы и обучения моделей Claude
– Расходы за 2025 могут составить $3 млрд (за 2024 были $5,6 млрд)
– Anthropic занимает 42% рынка генерации кода, доля OpenAI – 21%
– Весь объем рынка генерации кода может составлять $1,9 млрд
– Ранее $1,2 млрд ARR приходилось на двух крупнейших клиентов
– Вероятно, речь идет про сервис Cursor и GitHub Copilot от Microsoft
– Даже без них ARR стартапа за год мог бы увеличиться в 11 раз
@ftsec
– Anthropic собирается привлечь до $5 млрд нового финансирования
– Изначально целью были $3 млрд, но повлиял интерес инвесторов
– Оценка Anthropic при новом раунде может составить уже $170 млрд
– Внимание уделяют инвесторам, которые выпишут крупные чеки
– Показатель ARR вырос до $5 млрд, месяц назад он был $4+ млрд
– Стартапу нужен капитал для работы и обучения моделей Claude
– Расходы за 2025 могут составить $3 млрд (за 2024 были $5,6 млрд)
– Anthropic занимает 42% рынка генерации кода, доля OpenAI – 21%
– Весь объем рынка генерации кода может составлять $1,9 млрд
– Ранее $1,2 млрд ARR приходилось на двух крупнейших клиентов
– Вероятно, речь идет про сервис Cursor и GitHub Copilot от Microsoft
– Даже без них ARR стартапа за год мог бы увеличиться в 11 раз
@ftsec
Forwarded from 42 секунды
NYT: OpenAI привлекла $8,3 млрд при оценке $300 млрд
– Инвестиции стали частью общего плана на сумму $40 млрд
– SoftBank обязался предоставить $30 млрд до конца года
– В новом раунде OpenAI приняли участие новые инвесторы
– Среди новых инвесторов: Blackstone, T. Rowe Price и TPG
– Они могут помочь внедрить ИИ для портфельных компаний
– Также инвесторы: Fidelity, Sequoia, Coatue, Tiger Global, AH и др.
– Заявки на участие в раунде превысили предложение в 5 раз
– Некоторых инвесторов разочаровала небольшая доля
– OpenAI отдала приоритет новым стратегич. инвесторам
– Ведущим инвестором стал фонд Dragoneer Investment Group
– Фонд выделил $2,8 млрд (необычно много для одного)
– Dragoneer является инвестором Airbnb, Spotify, Uber и др.
– Показатель ARR OpenAI вырос уже до уровня $13 млрд
– Ожидается, что до конца года ARR может достичь $20 млрд
@ftsec
– Инвестиции стали частью общего плана на сумму $40 млрд
– SoftBank обязался предоставить $30 млрд до конца года
– В новом раунде OpenAI приняли участие новые инвесторы
– Среди новых инвесторов: Blackstone, T. Rowe Price и TPG
– Они могут помочь внедрить ИИ для портфельных компаний
– Также инвесторы: Fidelity, Sequoia, Coatue, Tiger Global, AH и др.
– Заявки на участие в раунде превысили предложение в 5 раз
– Некоторых инвесторов разочаровала небольшая доля
– OpenAI отдала приоритет новым стратегич. инвесторам
– Ведущим инвестором стал фонд Dragoneer Investment Group
– Фонд выделил $2,8 млрд (необычно много для одного)
– Dragoneer является инвестором Airbnb, Spotify, Uber и др.
– Показатель ARR OpenAI вырос уже до уровня $13 млрд
– Ожидается, что до конца года ARR может достичь $20 млрд
@ftsec
Forwarded from эйай ньюз
Gemini Deep Think завезли в Ultra подписку
Оптимизированная версия модели, выигравшей золото на IMO. Она сама по себе способна получить бронзу, а доступ к полноценной модели дали ряду математиков. Работает она примерно как o3 Pro — запускает несколько параллельных потоков рассуждения и потом комбинирует результаты.
Модель разваливает Grok 4 и o3 без тулюза на Humanity's Last Exam и прочих бенчах. Не дают доступа к внешним инструментам чтобы сравнить модели в одинаковых условиях, тем не менее Deep Think умеет выполнять код и пользоваться поиском.
Если не помните, Google AI Ultra — это максимальный тир ИИ подписки от Google. Он более дорогой чем ChatGPT Pro или Claude Max — $250, но в подписку, кроме Veo 3 и продвинутой Gemini, входит ещё и 30 терабайт на Google Drive. На первые три месяца делают 50% скидку.
@ai_newz
Оптимизированная версия модели, выигравшей золото на IMO. Она сама по себе способна получить бронзу, а доступ к полноценной модели дали ряду математиков. Работает она примерно как o3 Pro — запускает несколько параллельных потоков рассуждения и потом комбинирует результаты.
Модель разваливает Grok 4 и o3 без тулюза на Humanity's Last Exam и прочих бенчах. Не дают доступа к внешним инструментам чтобы сравнить модели в одинаковых условиях, тем не менее Deep Think умеет выполнять код и пользоваться поиском.
Если не помните, Google AI Ultra — это максимальный тир ИИ подписки от Google. Он более дорогой чем ChatGPT Pro или Claude Max — $250, но в подписку, кроме Veo 3 и продвинутой Gemini, входит ещё и 30 терабайт на Google Drive. На первые три месяца делают 50% скидку.
@ai_newz
Forwarded from Apple Pro Daily News
Выручка за Q3 2025 составила $94 млрд (+10% против Q3 2024). Разбивка по категориям:
• iPhone: $44,6 млрд (+13,5%)
• iPad: $6,6 млрд (-8%)
• Mac: $8 млрд (+14,8%)
• Носимые устройства, аксессуары и Умный дом: $7,4 млрд (-8,6%)
• Сервисы: $27,4 млрд (+13,1%)
Наибольший прирост прибыли от продаж – до 25%, в азиатском регионе.
Показатели услуг и сервисов в очередной раз достигли рекордно высокого уровня.
Получена прибыль на акцию в размере $1,57 (+12%). Совет директоров Apple установил дивиденды в размере $0,26/акция – они будут выплачены 14 августа акционерам, зарегистрированным по состоянию на 11 августа 2025 года.
$AAPL
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Apple Pro Daily News
Что нового платного?
• Рейтинг в профиле пользователя – новый значок, число на котором зависит от объёма успешных транзакций с вами за Telegram Stars
• Новый публичный поиск постов среди всех общедоступных публикаций в Telegram – находится во вкладке «Посты». Поиск доступен только подписчикам
• Premium-подарки – скоро появятся супер-мега-ультра эксклюзивные подарки нового типа для пользователей только с
• Альбомы с Историями – как «Актуальное» в одной там соцсети, только альбомы под любым названием и тематикой, которые вы выберете. Бизнес-аккаунты и авторы контента могут также сделать альбомы в своих каналах для демонстрации товара и контента (доступно с
Что нового бесплатного?
• Коллекции подарков – теперь можно добавлять подарки в профиле в виде блоков, который вы можете выделить как вам угодно, причем один и тот же подарок может входить сразу в несколько коллекций;
• Мини приложение BotFather – комплексный центр управления всеми вашими Telegram-ботами, а также возможность создания и редактирования мини-приложения для бота;
• Исправления ошибок и прочие улучшения.
Подробнее о новшествах в официальном блоге
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Нейродвиж
Ваши чаты с ChatGPT больше не будут попадать в Google — в OpenAI посмотрели на шумиху вокруг этой фичи и отрубили ее.
Маленькая победа😊
Маленькая победа
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from vc.ru
This media is not supported in your browser
VIEW IN TELEGRAM
Google создала шрифт для программистов Google Sans Code. В компании заявляют, что он «очень легко читается» даже при «крошечных» размерах в редакторе кода.
Особое внимание в Google Sans Code уделили символам i, l и 1 — чтобы «исключить двусмысленность» и обеспечить читаемость каждой строки кода
vc.ru/design/2133691
Особое внимание в Google Sans Code уделили символам i, l и 1 — чтобы «исключить двусмысленность» и обеспечить читаемость каждой строки кода
vc.ru/design/2133691
❤3
У Google есть канал для AI Developer’ов. Они там выложили несколько проектов сделанных дизайнерами, просто приколюхи. Я смог скачать не все, остальные по ссылке
❤1
Forwarded from Cерафимодальный AI
GPT тупеет, когда её заставляют общаться как человек
The Information выпустил лонгрид о состоянии дел в OpenAI накануне выхода GPT-5 и за последний год.
Завтра её будут пересказывать все телеграм каналы, так что давайте их опередим.
https://www.theinformation.com/articles/inside-openais-rocky-path-gpt-5
Самое интересное: модель-учитель о3 была невероятно умной и показывала высокий уровень понимания самых разных областей. А потом из неё сделали чат-бот, и он отупел: видимо, когда модель заставляют вести себя как человек, она теряет в когнитивных свойствах. Я тоже.
Из других интересных деталей: ещё в июне из-за технических сложностей ни одна внутренняя модель не была достаточно хороша, чтобы назвать её GPT-5. А изначально GPT-5 вообще должна была стать Orion, но она не оправдала вложенных в неё надежд; в итоге её выложили как 4.5 и сейчас потихоньку отключают.
Тезисный пересказ с моими комментариями (курсивом).
- o3 показал удивительный буст в решении сложных задач (бенчмарк ARC). Но когда эту модель адаптировали под чат-версию, этот прирост исчез.
- Новая GPT-5 модель значительно лучше справляется с созданием приложений, которые хорошо выглядят. (Я уже пробовал GPT-5 на арене, и она действительно выдаёт более симпатичный результат)
- GPT-5 лучше справляется с агентскими задачами из многих действий, пример — определять, когда чат поддержки должен вернуть покупателю средства.
- Разница не будет настолько большой, как между GPT-3 и GPT-4 (мне кажется, это не правда. Вы вообще помните, какой плохой была GPT-4 на релизе?)
- Orion это 4.5, и он не оправдал надежд. Скорее всего из-за качества претрейна, но также и потому, что те улучшения, которые повышали качество моделей поменьше, не сработали на огромной.
- Зато сработал другой подход, делать более длинные цепочки размышлений — так появились ризонеры.
- Как и o1, модель o3 основывалась на GPT-4o. Однако «родительская модель» (учитель) для o3 достигала куда больших высот в понимании научных и других концептов. Частично — потому что для неё использовалось куда больше чипов Nvidia. А частично — потому что ей дали возможность искать в вебе и по репозиториям с кодом.
- Ну и кусок про reinforcement learning (немного путанный, The Information точно правильно всё понял?): родительские модели просили сгенерировать тысячи ответов на сложные вопросы по биологии, медицине и инженерии, и затем обучали на тех ответах, которые совпали с теми, что дали мясные эксперты.
- Наконец, то, ради чего была написана статья: когда модель-учитель конвертировали в чат-версию модели («модель-ученик»), она не показала себя сильно лучше, чем o1. (Опять же, по моим ощущениям это не так, o3 гораздо лучше показывает себя в реальных задачах. Но вероятно речь про конкретные математические или кодовые применения).
- Одно из подозрений — что способ, которым модель понимает сложные концепты, достаточно далёк от того, как общаются люди (ну… да, но разве мы понимаем вещи в общении? Странный пассаж тоже).
- Тем не менее, звонкая цитата: чат-бот версия o3 значительно тупее обычной, потому что вынуждена говорить на человеческом языке, а не своём собственном.
- Этому косвенно свидетельствует белиберда, которую модель генерирует в процессе «думания».
- Сразу — гипотеза от меня: что, если размышляющие модели настолько лучше не потому, что они долго думают, а потому, что могут на время отойти от формата чат-бота, который их тупит?
- Наконец, o-нейминг окончательно запутал пользователей, поэтому Альтман сказал возвращаться к привычной нумерации.
- Однако ещё даже в июне из-за технических трудностей ни одна из разрабатываемых моделей не была достаточно хороша, чтобы назваться GPT-5.
- У OpenAI есть ещё один туз в рукаве: универсальный верификатор — инструмент, который автоматизирует процесс проверки, что модель нагенерировала на RL-этапе качественных ответов (и снова звучит как будто The Information чего-то недопоняли. Это же ровно то, что сделал DeepSeek, какой ещё туз в рукаве).
[чуть не влез по длине, финал первым комментом].
The Information выпустил лонгрид о состоянии дел в OpenAI накануне выхода GPT-5 и за последний год.
Завтра её будут пересказывать все телеграм каналы, так что давайте их опередим.
https://www.theinformation.com/articles/inside-openais-rocky-path-gpt-5
Самое интересное: модель-учитель о3 была невероятно умной и показывала высокий уровень понимания самых разных областей. А потом из неё сделали чат-бот, и он отупел: видимо, когда модель заставляют вести себя как человек, она теряет в когнитивных свойствах. Я тоже.
Из других интересных деталей: ещё в июне из-за технических сложностей ни одна внутренняя модель не была достаточно хороша, чтобы назвать её GPT-5. А изначально GPT-5 вообще должна была стать Orion, но она не оправдала вложенных в неё надежд; в итоге её выложили как 4.5 и сейчас потихоньку отключают.
Тезисный пересказ с моими комментариями (курсивом).
- o3 показал удивительный буст в решении сложных задач (бенчмарк ARC). Но когда эту модель адаптировали под чат-версию, этот прирост исчез.
- Новая GPT-5 модель значительно лучше справляется с созданием приложений, которые хорошо выглядят. (Я уже пробовал GPT-5 на арене, и она действительно выдаёт более симпатичный результат)
- GPT-5 лучше справляется с агентскими задачами из многих действий, пример — определять, когда чат поддержки должен вернуть покупателю средства.
- Разница не будет настолько большой, как между GPT-3 и GPT-4 (мне кажется, это не правда. Вы вообще помните, какой плохой была GPT-4 на релизе?)
- Orion это 4.5, и он не оправдал надежд. Скорее всего из-за качества претрейна, но также и потому, что те улучшения, которые повышали качество моделей поменьше, не сработали на огромной.
- Зато сработал другой подход, делать более длинные цепочки размышлений — так появились ризонеры.
- Как и o1, модель o3 основывалась на GPT-4o. Однако «родительская модель» (учитель) для o3 достигала куда больших высот в понимании научных и других концептов. Частично — потому что для неё использовалось куда больше чипов Nvidia. А частично — потому что ей дали возможность искать в вебе и по репозиториям с кодом.
- Ну и кусок про reinforcement learning (немного путанный, The Information точно правильно всё понял?): родительские модели просили сгенерировать тысячи ответов на сложные вопросы по биологии, медицине и инженерии, и затем обучали на тех ответах, которые совпали с теми, что дали мясные эксперты.
- Наконец, то, ради чего была написана статья: когда модель-учитель конвертировали в чат-версию модели («модель-ученик»), она не показала себя сильно лучше, чем o1. (Опять же, по моим ощущениям это не так, o3 гораздо лучше показывает себя в реальных задачах. Но вероятно речь про конкретные математические или кодовые применения).
- Одно из подозрений — что способ, которым модель понимает сложные концепты, достаточно далёк от того, как общаются люди (ну… да, но разве мы понимаем вещи в общении? Странный пассаж тоже).
- Тем не менее, звонкая цитата: чат-бот версия o3 значительно тупее обычной, потому что вынуждена говорить на человеческом языке, а не своём собственном.
- Этому косвенно свидетельствует белиберда, которую модель генерирует в процессе «думания».
- Сразу — гипотеза от меня: что, если размышляющие модели настолько лучше не потому, что они долго думают, а потому, что могут на время отойти от формата чат-бота, который их тупит?
- Наконец, o-нейминг окончательно запутал пользователей, поэтому Альтман сказал возвращаться к привычной нумерации.
- Однако ещё даже в июне из-за технических трудностей ни одна из разрабатываемых моделей не была достаточно хороша, чтобы назваться GPT-5.
- У OpenAI есть ещё один туз в рукаве: универсальный верификатор — инструмент, который автоматизирует процесс проверки, что модель нагенерировала на RL-этапе качественных ответов (и снова звучит как будто The Information чего-то недопоняли. Это же ровно то, что сделал DeepSeek, какой ещё туз в рукаве).
[чуть не влез по длине, финал первым комментом].
The Information
Inside OpenAI’s Rocky Path to GPT-5
OpenAI made waves across the industry in December when it published the results from its tests of artificial intelligence that performs better on tasks when it gets more time and computing power to process them. The results implied ChatGPT customers were…
Forwarded from GPT/ChatGPT/AI Central Александра Горного
This media is not supported in your browser
VIEW IN TELEGRAM
ChatGPT-агенту дали ссылку на публичную камеру на пристани и попросили найти определенную лодку. Он подвигал камеру, поувеличивал картинку и справился с задачей.
Forwarded from Cody
* Работает только у пользователей с подпиской Pro и Max
1. Устанавливаем расширение Requestly;
2. Переходим на страницу правил и создаём новое(+ New Rule);
3. В API Mocking выбираем тип «Modify Request Body»;
4. В Select Resource Type выбираем тип «REST API»;
5. В If request-секции выбираем условия:⚪️ URL; Contains; вместо example пишем perplexity_ask⚪️ В Request Body выбираем «Dynamic (JavaScript)»⚪️ Вставляем код в поле под Request Body;
6. Сохраняем правило (Save rule | Ctrl + S);
7. Открываем Perplexity, отправляем любой запрос - готово!
function modifyRequestBody(args) {
const { method, url, body, bodyAsJson } = args;
if (method === "POST" && bodyAsJson) {
const modifiedBody = { ...bodyAsJson };
if (!modifiedBody.params) {
modifiedBody.params = {};
}
modifiedBody.params.model_preference = "gpt5";
return JSON.stringify(modifiedBody);
}
return body;
}Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Cody
^ подписчик говорит, что, вероятно, нашел способ делать запросы к GPT-5 в Perplexity. Сделали пару проверок в чате, может быть похоже на правду: SVG рисует неплохо (как в твиттере рассказвают), перемножает без вызова кода 20-значные числа, Doom смогла закодить: https://www.perplexity.ai/search/create-html-game-like-a-doom-w-_Bap6EpDRHSacXWPtCKb6A
Скидывайте ваши тесты в комментарии. Пока я бы оценил свою уверенность того, что это правда одна из версий GPT-5, на 60%
UPD: после ещё пары примеров поднимаю уверенность до 75%
Скидывайте ваши тесты в комментарии. Пока я бы оценил свою уверенность того, что это правда одна из версий GPT-5, на 60%
UPD: после ещё пары примеров поднимаю уверенность до 75%
Forwarded from e/acc
Вместо того чтобы объяснять шестилетке как работает умножение и деление, мы с ним завайбкодили игру. Вместе с Клодом, втроем у нас заняло около часа на всю реализацию. Игру можно добавить на айпад ребенку — весело, приятно и полезно.
Мой воркфлоу:
— прошу gemini собрать общую идею в единый док
— прошу клод на основе него собрать PRD и план реализации
— прошу клод имплементировать им же написанный план, обязательно начиная с тестов
— тестирую сам; если что-то не работает, прошу исправить
— прошу клод сделать план на следующую версию
и так далее
Играть: https://supermath-wheat.vercel.app/
Мой воркфлоу:
— прошу gemini собрать общую идею в единый док
— прошу клод на основе него собрать PRD и план реализации
— прошу клод имплементировать им же написанный план, обязательно начиная с тестов
— тестирую сам; если что-то не работает, прошу исправить
— прошу клод сделать план на следующую версию
и так далее
Играть: https://supermath-wheat.vercel.app/
Forwarded from Ai molodca (Dobrokotov)
Media is too big
VIEW IN TELEGRAM
Ну что ж, добро пожаловать в эру контекстных видео-моделей. 😅
Runway Aleph — в каждой второй новости и будто бы вновь заставляет перегретый нейросетями мозг испытать то самое забытое чувство техномагии.
А что на деле? Для теста выбрал шедевр кинематографа, с которым вы наверняка знакомы. Промпты — одноклеточные, из серии: Make (что-то).
Первое впечатление:
1) В целом — жесть, круто.
2) Жаль, что пока только пять секунд.
3) Плохо справляется с мелкими объектами, динамичными или комплексными движениями камеры, нестандартными концептами — в общем, всё те же болячки видео-моделей.
4) Кредиты сгорают со скоростью света — берите анлим.
5) В целом — круто, жесть.
Продолжаю тестировать и жду заявленный аналог от Luma. Думаю, скоро подтянутся Kling и прочие китайские товарищи.
Runway Aleph — в каждой второй новости и будто бы вновь заставляет перегретый нейросетями мозг испытать то самое забытое чувство техномагии.
А что на деле? Для теста выбрал шедевр кинематографа, с которым вы наверняка знакомы. Промпты — одноклеточные, из серии: Make (что-то).
Первое впечатление:
1) В целом — жесть, круто.
2) Жаль, что пока только пять секунд.
3) Плохо справляется с мелкими объектами, динамичными или комплексными движениями камеры, нестандартными концептами — в общем, всё те же болячки видео-моделей.
4) Кредиты сгорают со скоростью света — берите анлим.
5) В целом — круто, жесть.
Продолжаю тестировать и жду заявленный аналог от Luma. Думаю, скоро подтянутся Kling и прочие китайские товарищи.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from vc.ru
После публикации финансового отчёта Тим Кук провёл общее совещание с сотрудниками Apple, где напомнил о важности ИИ-революции. Он считает, что компания может наверстать разрыв с другими игроками.
«Мы редко были первыми. ПК были до Mac, смартфоны — до iPhone, планшеты — до iPad», но компания создавала их «современные» версии, — сказал он
vc.ru/apple/2136123
«Мы редко были первыми. ПК были до Mac, смартфоны — до iPhone, планшеты — до iPad», но компания создавала их «современные» версии, — сказал он
vc.ru/apple/2136123
Forwarded from e/acc
если сводить ИИ прогресс к единой метрике — то это количество минут, в течение которых ИИ способен выполнять автономную и полезную работу, которая по эффективности не хуже того, что делает эксперт в данной области.
2023: менее 1 минуты
2024: 3–4 минуты
2025: 5–15 минут
2026: я ожидаю (и вижу уже по непубличным демо) от 30 минут до пары часов
2023: менее 1 минуты
2024: 3–4 минуты
2025: 5–15 минут
2026: я ожидаю (и вижу уже по непубличным демо) от 30 минут до пары часов