GPT Image 1.5 — встречаем новую рисовалку от OpenAI
В ChatGPT добавили новую модель создания изображений от OpenAI.Официального анонса пока не было (а вот и он), но по изменившемуся стилю видно, что модель совершенно другая. Я некоторое время гонял ее на LMArena и попробовал прямо сейчас, пока не уперся в лимит генераций, ниже впечатления.
1. Модель как минимум уровня Google Nano Banana Pro со своими сильными и слабыми сторонами. А может и сильнее.
2. Знаменитый yellow tint – желтый оттенок на снимках – сделали меньше, но полностью не убрали. И это даже хорошо: в отличие от Nano Banana, у новой модели есть свой узнаваемый стиль.
3. Самое главное – модель стала намного лучше редактировать снимки. Раньше внешний вид людей “уползал” буквально после пары редактур, а через 10-12 кадров модель рисовала откровенных уродцев. Теперь у меня получилось сделать долгую серию с девушкой – после десятка попыток модель “держит” внешность даже лучше Nano Banana Pro. Одежду и время суток меняет с легкостью.
4. Заметно ускорили генерацию – если раньше ChatGPT рисовал картинку по минуте и дольше, то теперь справляется секунд за десять.
5. Модель “думающая” – иногда прямо в процессе генерации видно, как она начинает создавать “черновик”, а затем переделывает его. Например, на одном из фото при первой попытке девушка была выше мужчины – модель это заметила и исправила рост.
6. Очень достойное понимание физики и сложных сцен. Та же самая Nano Banana Pro с трудом рисует изображения, где мужчина держит женщину на руках. ChatGPT справилась с первого раза.
7. Ghibli не рисует, но предложил “сделать в похожем стиле”. Получилось или нет – судить вам.
Апдейт: Уже после того, как написал впечатления, OpenAI выкатили анонс – и из него особо много и не добавить. Модель называется GPT Image 1.5, обещают улучшенное следование инструкциям, работу со шрифтами и поддержку разных стилей.
Скорость работы увеличена в 4 раза, при этом модель доступна на всех подписках ChatGPT, вплоть до бесплатной – но вряд ли со щедрыми лимитами.
Интересно, что на Design Arena новинка заняла твердое первое место, обойдя Nano Banana Pro сразу на 88 очков. Отзывы в сети более смешанные – кому-то GPT Image 1.5 нравится, кто-то утверждает, что она и в подметки не годится "бананке".
Я сам продолжу тестировать в ближайшие дни, пока впечатления такие, что GPT Image 1.5 лучше подходит для "художественных" изображений, а Nano Banana Pro для реалистичных и инфографики.
В ChatGPT добавили новую модель создания изображений от OpenAI.
1. Модель как минимум уровня Google Nano Banana Pro со своими сильными и слабыми сторонами. А может и сильнее.
2. Знаменитый yellow tint – желтый оттенок на снимках – сделали меньше, но полностью не убрали. И это даже хорошо: в отличие от Nano Banana, у новой модели есть свой узнаваемый стиль.
3. Самое главное – модель стала намного лучше редактировать снимки. Раньше внешний вид людей “уползал” буквально после пары редактур, а через 10-12 кадров модель рисовала откровенных уродцев. Теперь у меня получилось сделать долгую серию с девушкой – после десятка попыток модель “держит” внешность даже лучше Nano Banana Pro. Одежду и время суток меняет с легкостью.
4. Заметно ускорили генерацию – если раньше ChatGPT рисовал картинку по минуте и дольше, то теперь справляется секунд за десять.
5. Модель “думающая” – иногда прямо в процессе генерации видно, как она начинает создавать “черновик”, а затем переделывает его. Например, на одном из фото при первой попытке девушка была выше мужчины – модель это заметила и исправила рост.
6. Очень достойное понимание физики и сложных сцен. Та же самая Nano Banana Pro с трудом рисует изображения, где мужчина держит женщину на руках. ChatGPT справилась с первого раза.
7. Ghibli не рисует, но предложил “сделать в похожем стиле”. Получилось или нет – судить вам.
Апдейт: Уже после того, как написал впечатления, OpenAI выкатили анонс – и из него особо много и не добавить. Модель называется GPT Image 1.5, обещают улучшенное следование инструкциям, работу со шрифтами и поддержку разных стилей.
Скорость работы увеличена в 4 раза, при этом модель доступна на всех подписках ChatGPT, вплоть до бесплатной – но вряд ли со щедрыми лимитами.
Интересно, что на Design Arena новинка заняла твердое первое место, обойдя Nano Banana Pro сразу на 88 очков. Отзывы в сети более смешанные – кому-то GPT Image 1.5 нравится, кто-то утверждает, что она и в подметки не годится "бананке".
Я сам продолжу тестировать в ближайшие дни, пока впечатления такие, что GPT Image 1.5 лучше подходит для "художественных" изображений, а Nano Banana Pro для реалистичных и инфографики.
3👍82🔥31❤20😁5🥰3
Gemini 3 Flash: анонс и первые впечатления
Когда несколько недель назад CEO Google Сундар Пичаи анонсировал Gemini 3 Flash, он назвал ее “возможно, лучшей моделью в истории Google”. Тогда это выглядело как красивый рекламный слоган: как модель классом ниже может превзойти Gemini 3 Pro. Но после нескольких часов работы с ней, закрадывается мысль – может.
Давайте сначала с сухого анонса. Все бенчмарки подробно разбирать не буду – если кому-то надо, почитайте мой анонс Gemini 3 Pro. Отмечу же главное: “легкая” Flash близка к Pro, а иногда лучше.
Важен бенчмарк ARC-AGI-2, в котором оценивается способность ИИ к абстрактным рассуждениям и умению использовать только полученные навыки для решения похожих задач. Flash в нем обходит Pro – и это удивительный результат. Также Flash чуточку лучше в SWE-bench Verified – бенчмарке, по которому обычно оценивают эффективность в кодинге.
В API Flash в четыре раза дешевле: $0,50 за миллион входящих токенов и $3,00 за миллион исходящих. В Google AI Studio обе модели (Flash и Pro) доступны бесплатно. Наконец, именно Flash теперь основная в веб-версии и мобильных приложениях Gemini, рассчитанных на широкую аудиторию.
Если Gemini 2.5 Flash сама решала, отвечать ей быстро или перейти в рассуждающий режим, то в Gemini 3 режимы разделены: Fast, Thinking и Pro (переключение на Gemini 3 Pro). Thinking выглядит лучшим вариантом: в нем модель не делает глупых ошибок, решает математические задачи и хорошо кодит, и отвечает быстро. Плюс в отличие от моделей OpenAI, у Gemini в режиме рассуждений не портится стиль письма (хотя в GPT-5.2 это улучшили).
Хороший русский язык – вообще фирменная фишка всей линейки Gemini. Я использую Claude Sonnet/Opus 4.5 для написания, сегодня же попробовал в фоне кидать те же промпты в Gemini 3 Flash – пока ничуть не хуже.
Другой мой популярный сценарий – сложный поиск в сети. В нем меня очень разочаровала Gemini 3 Pro: если GPT-5.2 ищет медленно, но тщательно проверяет факты, то модель от Google находила данные по основному запросу, и “цепляла” к ним пачку своих галлюцинаций.
Flash на похожих запросах ведет себя лучше:
1. В рассказе про дата-центры Microsoft Fairwater, модель не только грамотно описывает их инфраструктуру, но предполагает, что обучать в этих ДЦ будут такие ИИ как GPT-6 и далее. Gemini 3 Pro утверждала, что дата-центры строят для обучения GPT-5, проигнорировав, что она уже вышла.
2. В рассказе про новые ИИ-чипы NVIDIA она упоминает и линейку игровых видеокарт RTX 50Х0. В то время как Gemini 3 Pro у меня считала, что эти видеокарты не вышли, поэтому NVIDIA возьмет в них технологии из своих ИИ-чипов.
3. GPT-5.2 Thinking все еще лучший выбор для детального поиска, но она часто ищет по 3-4 минуты. Gemini 3 Flash выглядит хорошей парой. Закинул один промпт в две модели – если Flash справилась, то берешь ее вариант, если нет, ждешь вариант GPT-5.2.
Где Gemini 3 Pro и Flash нет равных – это в распознавании изображений и видео. На картинках модель узнает даже мелкие детали, понимает расположение предметов относительно друг друга. А если закинуть видео в 20-30 минут – то начинается настоящая фантастика.
Gemini 3 Flash (и Pro, повторюсь) отвечает так, будто она “посмотрела” видео. Она может описать любую сцену: кто и во что одет, что на заднем фоне, что происходит. Может найти забавные моменты, описать их, указать на тайминг.
Монтажеры, с которыми иногда работаю, отмечают, что были случаи, когда Gemini 3 Pro замечала в материале мелкие детали, которые они сами пропускают. А в X есть рассказ пользователя, который загрузил в Gemini 3 Flash видео прогулки по Лондону – она распознала все основные локации и нарисовала на карте маршрут героев.
Gemini 3 Flash очень неплохо подходит на роль болтуна: модель подстраивается под настроение, двигает разговор дальше, удивляет необычными идеями. Чуточку не хватает критичности GPT-5.2 – но не быть же всем ИИ одинаковыми!
P.S. У Gemini традиционно сильный региональный блок: в конце этого обзора рассказывал, как частично решить проблему.
Когда несколько недель назад CEO Google Сундар Пичаи анонсировал Gemini 3 Flash, он назвал ее “возможно, лучшей моделью в истории Google”. Тогда это выглядело как красивый рекламный слоган: как модель классом ниже может превзойти Gemini 3 Pro. Но после нескольких часов работы с ней, закрадывается мысль – может.
Давайте сначала с сухого анонса. Все бенчмарки подробно разбирать не буду – если кому-то надо, почитайте мой анонс Gemini 3 Pro. Отмечу же главное: “легкая” Flash близка к Pro, а иногда лучше.
Важен бенчмарк ARC-AGI-2, в котором оценивается способность ИИ к абстрактным рассуждениям и умению использовать только полученные навыки для решения похожих задач. Flash в нем обходит Pro – и это удивительный результат. Также Flash чуточку лучше в SWE-bench Verified – бенчмарке, по которому обычно оценивают эффективность в кодинге.
В API Flash в четыре раза дешевле: $0,50 за миллион входящих токенов и $3,00 за миллион исходящих. В Google AI Studio обе модели (Flash и Pro) доступны бесплатно. Наконец, именно Flash теперь основная в веб-версии и мобильных приложениях Gemini, рассчитанных на широкую аудиторию.
Если Gemini 2.5 Flash сама решала, отвечать ей быстро или перейти в рассуждающий режим, то в Gemini 3 режимы разделены: Fast, Thinking и Pro (переключение на Gemini 3 Pro). Thinking выглядит лучшим вариантом: в нем модель не делает глупых ошибок, решает математические задачи и хорошо кодит, и отвечает быстро. Плюс в отличие от моделей OpenAI, у Gemini в режиме рассуждений не портится стиль письма (хотя в GPT-5.2 это улучшили).
Хороший русский язык – вообще фирменная фишка всей линейки Gemini. Я использую Claude Sonnet/Opus 4.5 для написания, сегодня же попробовал в фоне кидать те же промпты в Gemini 3 Flash – пока ничуть не хуже.
Другой мой популярный сценарий – сложный поиск в сети. В нем меня очень разочаровала Gemini 3 Pro: если GPT-5.2 ищет медленно, но тщательно проверяет факты, то модель от Google находила данные по основному запросу, и “цепляла” к ним пачку своих галлюцинаций.
Flash на похожих запросах ведет себя лучше:
1. В рассказе про дата-центры Microsoft Fairwater, модель не только грамотно описывает их инфраструктуру, но предполагает, что обучать в этих ДЦ будут такие ИИ как GPT-6 и далее. Gemini 3 Pro утверждала, что дата-центры строят для обучения GPT-5, проигнорировав, что она уже вышла.
2. В рассказе про новые ИИ-чипы NVIDIA она упоминает и линейку игровых видеокарт RTX 50Х0. В то время как Gemini 3 Pro у меня считала, что эти видеокарты не вышли, поэтому NVIDIA возьмет в них технологии из своих ИИ-чипов.
3. GPT-5.2 Thinking все еще лучший выбор для детального поиска, но она часто ищет по 3-4 минуты. Gemini 3 Flash выглядит хорошей парой. Закинул один промпт в две модели – если Flash справилась, то берешь ее вариант, если нет, ждешь вариант GPT-5.2.
Где Gemini 3 Pro и Flash нет равных – это в распознавании изображений и видео. На картинках модель узнает даже мелкие детали, понимает расположение предметов относительно друг друга. А если закинуть видео в 20-30 минут – то начинается настоящая фантастика.
Gemini 3 Flash (и Pro, повторюсь) отвечает так, будто она “посмотрела” видео. Она может описать любую сцену: кто и во что одет, что на заднем фоне, что происходит. Может найти забавные моменты, описать их, указать на тайминг.
Монтажеры, с которыми иногда работаю, отмечают, что были случаи, когда Gemini 3 Pro замечала в материале мелкие детали, которые они сами пропускают. А в X есть рассказ пользователя, который загрузил в Gemini 3 Flash видео прогулки по Лондону – она распознала все основные локации и нарисовала на карте маршрут героев.
Gemini 3 Flash очень неплохо подходит на роль болтуна: модель подстраивается под настроение, двигает разговор дальше, удивляет необычными идеями. Чуточку не хватает критичности GPT-5.2 – но не быть же всем ИИ одинаковыми!
P.S. У Gemini традиционно сильный региональный блок: в конце этого обзора рассказывал, как частично решить проблему.
2👍59❤33🔥12🥰4
Шэньчжэньский проект
8 декабря Дональд Трамп разрешил Nvidia поставлять в Китай ускорители H200, критически важные для обучения ИИ. Правда с оговорками: во-первых, поставки обложены дополнительным сбором в 25%, во-вторых, новейшие чипы B100/B200 и будущие Rubin поставлять запрещено.
Парадоксальным образом в Китае новость прошла почти незамеченной. Источники сообщают, что власти страны в последние месяцы сами препятствуют поставкам чипов Nvidia, в том числе через “серые” каналы: их задерживают на таможне, а новым дата-центрам с государственным участием предписано перейти на местные ускорители от Huawei, Cambricon и других компаний.
Это выглядит немного странным: по всем оценкам, ускорители от китайских компаний отстают от западных в 2-3 раза. По слухам, летом была попытка обучить DeepSeek R2 на GPU Huawei Ascend 910 – и она завершилась провалом несмотря на активное участие разработчиков ускорителя.
Но похоже, что у Китая есть повод для уверенности.
По данным Reuters, в начале 2025 года в засекреченной лаборатории в Шэньчжэне заработал прототип EUV-литографа, который генерирует экстремальный ультрафиолет. Это нужно для массового производства чипов на техпроцессах ниже доступного Китаю в 7нм. Сейчас подобной технологией обладает только голландская ASML, продукция которой запрещена к продаже в Китай. Передовые чипы уже делаются про процессу 3нм, так что отставание здесь критическое.
Источники рассказали подробности того, что в Reuters уже называют китайским “Манхэттенским проектом”. Над прототипом работала команда из бывших инженеров ASML, в помощь которым дали сотню выпускников китайских ВУЗов. На площадках вроде Alibaba по всему Китаю и за пределами страны покупали подержанные запчасти литографов ASML. Их доставляли в Шэньчжэн, где инженеры занимались реверс-инжинирингом – разбирали компоненты, изучали, как они устроены, а затем создавали копии.
Пока что прототип генерирует только излучение, а до устойчивого выпуска чипов еще далеко. Источники Reuters называют 2028 год, а некоторые эксперты склоняются к 2030-му. Но даже вторая дата очень хороша: в свое время у ASML ушло 18 лет на дорогу от прототипа к производству чипов.
Тем более, что прототип в Шэнчьжэне – не единственный подобный проект. Весной уже сообщалось об испытаниях китайского прототипа EUV-сканера. Однако в той новости указывалась площадка Huawei в Дунгуане. И если шэнчженский образец использует скопированную у ASML технологию LPP, то эта разработка опирается на альтернативный подход LDP.
Это тоже интересная заявка: если в LPP всю работу делает лазер, то в LDP лазер лишь запускает процесс, а основную энергию вносит электрический разряд. То есть китайцы уже не просто копируют западное, но одновременно разрабатывают конкурирующую технологию.
Запуск прототипа в Дунгуане обещали в третьем квартале 2025 года, а массовое производство – в 2026-м. С весны о проекте нет новостей, но это как раз неудивительно – подобные разработки обычно серьезно защищаются государством. Под вопросом остается другой важный компонент литографов – зеркала. Китайские производители сильно отстают от Carl Zeiss, поставляющих свою продукцию ASML – но я уверен, что-нибудь да придумают.
Ну а до появления EUV-сканеров китайцы выкручиваются как могут. Крупнейший в стране производитель чипов SMIC научился производить чипы близкого к 5нм уровня на оборудовании DUV (глубокий ультрафиолет). Изначально DUV рассчитан на 7нм, но SMIC научились использовать многократное формирование рисунка, чтобы обойти это ограничение. Теоретически такой подход повышает процент бракованных чипов, но то, что на техпроцессе 5нм делают массовые чипы Huawei Kirin 9030, указывает, что китайцы как-то смогли добиться стабильной работы.
Так что ждем передовые китайские чипы к концу десятилетия, а параллельно смотрим, как до этого компании будут выкручиваться на текущих технологиях. Гонка Орла и Дракона продолжается – кстати, если вы пропустили мой предыдущий пост по теме, обязательно почитайте, там тоже интересно.
8 декабря Дональд Трамп разрешил Nvidia поставлять в Китай ускорители H200, критически важные для обучения ИИ. Правда с оговорками: во-первых, поставки обложены дополнительным сбором в 25%, во-вторых, новейшие чипы B100/B200 и будущие Rubin поставлять запрещено.
Парадоксальным образом в Китае новость прошла почти незамеченной. Источники сообщают, что власти страны в последние месяцы сами препятствуют поставкам чипов Nvidia, в том числе через “серые” каналы: их задерживают на таможне, а новым дата-центрам с государственным участием предписано перейти на местные ускорители от Huawei, Cambricon и других компаний.
Это выглядит немного странным: по всем оценкам, ускорители от китайских компаний отстают от западных в 2-3 раза. По слухам, летом была попытка обучить DeepSeek R2 на GPU Huawei Ascend 910 – и она завершилась провалом несмотря на активное участие разработчиков ускорителя.
Но похоже, что у Китая есть повод для уверенности.
По данным Reuters, в начале 2025 года в засекреченной лаборатории в Шэньчжэне заработал прототип EUV-литографа, который генерирует экстремальный ультрафиолет. Это нужно для массового производства чипов на техпроцессах ниже доступного Китаю в 7нм. Сейчас подобной технологией обладает только голландская ASML, продукция которой запрещена к продаже в Китай. Передовые чипы уже делаются про процессу 3нм, так что отставание здесь критическое.
Источники рассказали подробности того, что в Reuters уже называют китайским “Манхэттенским проектом”. Над прототипом работала команда из бывших инженеров ASML, в помощь которым дали сотню выпускников китайских ВУЗов. На площадках вроде Alibaba по всему Китаю и за пределами страны покупали подержанные запчасти литографов ASML. Их доставляли в Шэньчжэн, где инженеры занимались реверс-инжинирингом – разбирали компоненты, изучали, как они устроены, а затем создавали копии.
Пока что прототип генерирует только излучение, а до устойчивого выпуска чипов еще далеко. Источники Reuters называют 2028 год, а некоторые эксперты склоняются к 2030-му. Но даже вторая дата очень хороша: в свое время у ASML ушло 18 лет на дорогу от прототипа к производству чипов.
Тем более, что прототип в Шэнчьжэне – не единственный подобный проект. Весной уже сообщалось об испытаниях китайского прототипа EUV-сканера. Однако в той новости указывалась площадка Huawei в Дунгуане. И если шэнчженский образец использует скопированную у ASML технологию LPP, то эта разработка опирается на альтернативный подход LDP.
Это тоже интересная заявка: если в LPP всю работу делает лазер, то в LDP лазер лишь запускает процесс, а основную энергию вносит электрический разряд. То есть китайцы уже не просто копируют западное, но одновременно разрабатывают конкурирующую технологию.
Запуск прототипа в Дунгуане обещали в третьем квартале 2025 года, а массовое производство – в 2026-м. С весны о проекте нет новостей, но это как раз неудивительно – подобные разработки обычно серьезно защищаются государством. Под вопросом остается другой важный компонент литографов – зеркала. Китайские производители сильно отстают от Carl Zeiss, поставляющих свою продукцию ASML – но я уверен, что-нибудь да придумают.
Ну а до появления EUV-сканеров китайцы выкручиваются как могут. Крупнейший в стране производитель чипов SMIC научился производить чипы близкого к 5нм уровня на оборудовании DUV (глубокий ультрафиолет). Изначально DUV рассчитан на 7нм, но SMIC научились использовать многократное формирование рисунка, чтобы обойти это ограничение. Теоретически такой подход повышает процент бракованных чипов, но то, что на техпроцессе 5нм делают массовые чипы Huawei Kirin 9030, указывает, что китайцы как-то смогли добиться стабильной работы.
Так что ждем передовые китайские чипы к концу десятилетия, а параллельно смотрим, как до этого компании будут выкручиваться на текущих технологиях. Гонка Орла и Дракона продолжается – кстати, если вы пропустили мой предыдущий пост по теме, обязательно почитайте, там тоже интересно.
🔥61❤26👍20👏11🥰2
Когда они пришли за копирайтерами – мы молчали
Достаточно прочесть несколько постов на этом канале, чтобы понять – я верю, что ИИ поможет нам рано или поздно построить лучшую версию будущего. Но много раз писал, что на дороге к этому будущему окажется достаточно ухабов. И если видеть их заранее, то есть шанс проскочить без синяков.
В свежей рассылке Blood in the Machine Брайан Мерчант попросил профессиональных копирайтеров рассказать, как ИИ меняет их индустрию. Спойлер: дальше будет больно.
Жак-Руле II руководил службой поддержки софтовой компании, которая много раз получала награды за качество. В мае 2025 года он обратил внимание, что его работа теперь почти полностью сводится к обучению чат-ботов, а за неделю до Дня благодарения его сократили – посчитали, что ИИ теперь справится сам. Жак переехал в Мексику, где дешевле жить, и ищет новую работу.
Маркусу Виснеру пока повезло больше. В лучшие годы его агентство зарабатывало 600 тысяч долларов на копирайтинге для стартапов. В 2025-м едва удалось наскрести 10 тысяч. Маркус уволил сестру, брата с женой – а затем закрылся. Его друзья владеют курортом и взяли Маркуса маркетологом, но он уверен – ИИ придет и за этой профессией.
Так как многие копирайтеры работают вне штата, то зачастую компании или сокращают заказы, или просто перестают присылать их – а через некоторое время на сайте появляются ИИ-кейсы.
Интересен пример редактора Gracenote, который занимался метаданными для ТВ-гидов. В январе 2024 года в компании внедрили инструмент для автоматической приоритизации – и выяснилось, что его два года тренировали на работах сотрудников без их ведома.
Далеко не всех копирайтеров увольняют – некоторым предлагают переквалифицироваться и начать вычитывать нейросетевые тексты. Но эта работа считается более простой и оплачивается хуже. Да и сами авторы не очень довольны: “Я не хочу быть оператором – хочу быть человеком-копирайтером”.
По словам собеседников Брайна, руководители многих компаний понимают, что качество ИИ-текстов хуже. Но все равно используют их, ведь ИИ – это дешево, быстро и модно.
Давайте попробуем ответить на вопрос – как с этим жить дальше? Начну с того, что если вы тренируете ИИ – то это должен быть ваш собственный ИИ. На этот канал я пишу исключительно сам, но в сборе информации, редактуре и корректуре мне давно помогают ChatGPT, Gemini, а с недавних пор и Claude – и в некоторых случаях сокращают время на подготовку в разы.
На других проектах я экспериментирую с нейросетевыми текстами, написанными Gemini и Claude. Как редактор с опытом скажу, что обе модели могут писать очень прилично, но для этого их надо аккуратно натренировать, а с результатом – хоть немного поработать. Большинство же ИИ-текстов, которые я вижу вокруг, пишутся по схеме “Эй, ChatGPT, забабахай мне лонгрид на тему ХХХ!” – и быстро умирают на задворках блог-площадок.
Ну и повторю то, о чем писал ранее: уже в ближайшие годы ИИ заберут тексты, где не важна личность авторов. То есть значительную часть новостных подборок, описания товаров и услуг, стандартные тексты на сайты разных клиник, школ, магазинов и так далее. Но ИИ никогда не смогут генерировать мнения, заставляющие тысячи читателей соглашаться, критиковать, спорить друг с другом. ИИ-текст пишется чисто под ваш запрос – и поэтому он не интересен другим людям.
В журналистике принято считать, что сильные авторские тексты, вроде колонок, репортажей и рецензий – это высшая лига, попасть в которую можно лишь накопирайтив сотни тысяч знаков.
Но это не совсем так. Авторские тексты не обязаны быть идеальными – они обязаны быть вашими. Ищите, в чем ваша сила. Возможно, вы пишите эмоционально. Или играете метафорами. Или можете вытащить из книг по истории интересный эпизод и рассказать о нем так, что соберет тысячи комментариев. Даже сгенерировать ср@ч, который будет греметь неделю – тоже большой талант.
Ищите, в чем ваша сила, подумайте, как удвоить ее с помощью ИИ. И тогда за вами не придут.
Достаточно прочесть несколько постов на этом канале, чтобы понять – я верю, что ИИ поможет нам рано или поздно построить лучшую версию будущего. Но много раз писал, что на дороге к этому будущему окажется достаточно ухабов. И если видеть их заранее, то есть шанс проскочить без синяков.
В свежей рассылке Blood in the Machine Брайан Мерчант попросил профессиональных копирайтеров рассказать, как ИИ меняет их индустрию. Спойлер: дальше будет больно.
Жак-Руле II руководил службой поддержки софтовой компании, которая много раз получала награды за качество. В мае 2025 года он обратил внимание, что его работа теперь почти полностью сводится к обучению чат-ботов, а за неделю до Дня благодарения его сократили – посчитали, что ИИ теперь справится сам. Жак переехал в Мексику, где дешевле жить, и ищет новую работу.
Маркусу Виснеру пока повезло больше. В лучшие годы его агентство зарабатывало 600 тысяч долларов на копирайтинге для стартапов. В 2025-м едва удалось наскрести 10 тысяч. Маркус уволил сестру, брата с женой – а затем закрылся. Его друзья владеют курортом и взяли Маркуса маркетологом, но он уверен – ИИ придет и за этой профессией.
Так как многие копирайтеры работают вне штата, то зачастую компании или сокращают заказы, или просто перестают присылать их – а через некоторое время на сайте появляются ИИ-кейсы.
Интересен пример редактора Gracenote, который занимался метаданными для ТВ-гидов. В январе 2024 года в компании внедрили инструмент для автоматической приоритизации – и выяснилось, что его два года тренировали на работах сотрудников без их ведома.
Далеко не всех копирайтеров увольняют – некоторым предлагают переквалифицироваться и начать вычитывать нейросетевые тексты. Но эта работа считается более простой и оплачивается хуже. Да и сами авторы не очень довольны: “Я не хочу быть оператором – хочу быть человеком-копирайтером”.
По словам собеседников Брайна, руководители многих компаний понимают, что качество ИИ-текстов хуже. Но все равно используют их, ведь ИИ – это дешево, быстро и модно.
Давайте попробуем ответить на вопрос – как с этим жить дальше? Начну с того, что если вы тренируете ИИ – то это должен быть ваш собственный ИИ. На этот канал я пишу исключительно сам, но в сборе информации, редактуре и корректуре мне давно помогают ChatGPT, Gemini, а с недавних пор и Claude – и в некоторых случаях сокращают время на подготовку в разы.
На других проектах я экспериментирую с нейросетевыми текстами, написанными Gemini и Claude. Как редактор с опытом скажу, что обе модели могут писать очень прилично, но для этого их надо аккуратно натренировать, а с результатом – хоть немного поработать. Большинство же ИИ-текстов, которые я вижу вокруг, пишутся по схеме “Эй, ChatGPT, забабахай мне лонгрид на тему ХХХ!” – и быстро умирают на задворках блог-площадок.
Ну и повторю то, о чем писал ранее: уже в ближайшие годы ИИ заберут тексты, где не важна личность авторов. То есть значительную часть новостных подборок, описания товаров и услуг, стандартные тексты на сайты разных клиник, школ, магазинов и так далее. Но ИИ никогда не смогут генерировать мнения, заставляющие тысячи читателей соглашаться, критиковать, спорить друг с другом. ИИ-текст пишется чисто под ваш запрос – и поэтому он не интересен другим людям.
В журналистике принято считать, что сильные авторские тексты, вроде колонок, репортажей и рецензий – это высшая лига, попасть в которую можно лишь накопирайтив сотни тысяч знаков.
Но это не совсем так. Авторские тексты не обязаны быть идеальными – они обязаны быть вашими. Ищите, в чем ваша сила. Возможно, вы пишите эмоционально. Или играете метафорами. Или можете вытащить из книг по истории интересный эпизод и рассказать о нем так, что соберет тысячи комментариев. Даже сгенерировать ср@ч, который будет греметь неделю – тоже большой талант.
Ищите, в чем ваша сила, подумайте, как удвоить ее с помощью ИИ. И тогда за вами не придут.
1❤89👍52🔥19😁6
Позор года
Я много лет проработал в видеоигровой индустрии и до сих пор с интересом слежу за ее новостями. Сейчас вот прилетела история прямо по теме канала, причем касается она не только игр. Нашумевшую Clair Obscur: Expedition 33 лишили двух наград Indie Game Awards - “Игра года” и “Дебют года”. Причина – использование ИИ в разработке игры.
Авторы Clair Obscur, конечно, сами тоже накосячили: в правилах IGA указано, что игры, при создании которых пользовались генеративным ИИ, не принимаются. При подаче заявки они подтвердили, что никакого ИИ, вы что. Но в день трансляции церемонии проговорились, что да, использовали. Награду пока отдали занявшей второе место Blue Prince, однако журналисты утверждают, что при создании этой игры без ИИ тоже не обошлось.
В общем, врать - нехорошо. Говорить правду - тоже так себе идея. Но хуже всего – придумывать откровенное вредительство вроде запрета на использование ИИ в инди-играх, сделанных небольшими независимыми командами.
Современная видеоигровая индустрия очень высокобюджетна: ААА-проекты стоят сотни миллионов долларов и разрабатываются годами – уровень кинематографа, а местами и выше. С такими деньгами топ-студии могут позволить хороших специалистов во всех сферах: от визуала и интерфейсов до написания текстов и разработки приличного веб-сайта.
На другой стороне у нас инди-разработчики. Часто это команда из всего нескольких человек – студентов или просто энтузиастов. Они умеют программировать и придумали гениальную идею, которая точно покорит сердца миллионов людей.
В компанию ищутся дизайнер и композитор среди таких же энтузиастов, тексты пишутся корявым языком и в последний момент, а на роль PR-менеджера торжественно назначают девушку одного из основателей студии, которая учится на журфаке. Кстати, такие вот “пиарщицы поневоле” обычно очень стараются, работают по учебнику и в срок. Умнички.
А дальше начинается суровая реальность. От “уметь программировать” до создать работающий продукт – огромная дорога. Дизайнер хорошо рисует персонажей, но не справляется с интерфейсами. Композитору надо кормить двоих детей, поэтому он записывает один трек в три месяца. Сайт не обновляют с момента запуска, а тексты внутри игры написаны жутким языком и полны грамматических ошибок.
В итоге большинство таких проектов разваливаются до выхода, а те, что выходят, зачастую оказываются такого качества, что без слез не взглянешь. И лишь крошечный процент получается более или менее приличного уровня.
Кстати, Clair Obscur по меркам инди настоящий гигант – сделавшая ее студия Sandfall Interactive располагала приличным бюджетом и командой в десятки сотрудников, а к “инди” ее отнесли за творческую независимость. И даже Sandfall пришлось выкручиваться с помощью ИИ – чтобы выйти в срок, нейронкой нарисовали некоторое количество текстур, которые быстро заменили на нормальные.
Простая мысль: современный ИИ нужен не для того, чтобы выдавать результат на уровне лучших людей, а для того, чтобы расширить наши возможности на среднем уровне. Кто-то вообще не умеет писать тексты, но обладает шикарными знаниями и идеями в других областях – ИИ поможет оформить их в приличную статью. Я хорошо пишу, но для работы даже над блогом этого недостаточно – надо постоянно разбирать сложную информацию, иногда рисовать графику и даже уточнять юридические моменты. В издательстве задач еще больше – и без ИИ я бы многие делал в разы дольше.
Внедрение нейросетей в больших компаниях буксует потому, что у них достаточно денег, чтобы закрыть задачи живыми специалистами. А вот маленькие команды, вроде разработчиков инди-игр, такой роскоши лишены. Где-то они профессионалы и сами сделают хорошо, а где-то – или сделают отвратительно руками, или добьются нормального качества с помощью ИИ. Так как продукт оценивают по совокупности характеристик, то второй подход лучше.
Ну а Clair Obscur: Expedition 33 забрала 9 из 12 статуэток на The Game Awards – награде даже более почетной. Надеюсь, там ничего отзывать не будут.
Я много лет проработал в видеоигровой индустрии и до сих пор с интересом слежу за ее новостями. Сейчас вот прилетела история прямо по теме канала, причем касается она не только игр. Нашумевшую Clair Obscur: Expedition 33 лишили двух наград Indie Game Awards - “Игра года” и “Дебют года”. Причина – использование ИИ в разработке игры.
Авторы Clair Obscur, конечно, сами тоже накосячили: в правилах IGA указано, что игры, при создании которых пользовались генеративным ИИ, не принимаются. При подаче заявки они подтвердили, что никакого ИИ, вы что. Но в день трансляции церемонии проговорились, что да, использовали. Награду пока отдали занявшей второе место Blue Prince, однако журналисты утверждают, что при создании этой игры без ИИ тоже не обошлось.
В общем, врать - нехорошо. Говорить правду - тоже так себе идея. Но хуже всего – придумывать откровенное вредительство вроде запрета на использование ИИ в инди-играх, сделанных небольшими независимыми командами.
Современная видеоигровая индустрия очень высокобюджетна: ААА-проекты стоят сотни миллионов долларов и разрабатываются годами – уровень кинематографа, а местами и выше. С такими деньгами топ-студии могут позволить хороших специалистов во всех сферах: от визуала и интерфейсов до написания текстов и разработки приличного веб-сайта.
На другой стороне у нас инди-разработчики. Часто это команда из всего нескольких человек – студентов или просто энтузиастов. Они умеют программировать и придумали гениальную идею, которая точно покорит сердца миллионов людей.
В компанию ищутся дизайнер и композитор среди таких же энтузиастов, тексты пишутся корявым языком и в последний момент, а на роль PR-менеджера торжественно назначают девушку одного из основателей студии, которая учится на журфаке. Кстати, такие вот “пиарщицы поневоле” обычно очень стараются, работают по учебнику и в срок. Умнички.
А дальше начинается суровая реальность. От “уметь программировать” до создать работающий продукт – огромная дорога. Дизайнер хорошо рисует персонажей, но не справляется с интерфейсами. Композитору надо кормить двоих детей, поэтому он записывает один трек в три месяца. Сайт не обновляют с момента запуска, а тексты внутри игры написаны жутким языком и полны грамматических ошибок.
В итоге большинство таких проектов разваливаются до выхода, а те, что выходят, зачастую оказываются такого качества, что без слез не взглянешь. И лишь крошечный процент получается более или менее приличного уровня.
Кстати, Clair Obscur по меркам инди настоящий гигант – сделавшая ее студия Sandfall Interactive располагала приличным бюджетом и командой в десятки сотрудников, а к “инди” ее отнесли за творческую независимость. И даже Sandfall пришлось выкручиваться с помощью ИИ – чтобы выйти в срок, нейронкой нарисовали некоторое количество текстур, которые быстро заменили на нормальные.
Простая мысль: современный ИИ нужен не для того, чтобы выдавать результат на уровне лучших людей, а для того, чтобы расширить наши возможности на среднем уровне. Кто-то вообще не умеет писать тексты, но обладает шикарными знаниями и идеями в других областях – ИИ поможет оформить их в приличную статью. Я хорошо пишу, но для работы даже над блогом этого недостаточно – надо постоянно разбирать сложную информацию, иногда рисовать графику и даже уточнять юридические моменты. В издательстве задач еще больше – и без ИИ я бы многие делал в разы дольше.
Внедрение нейросетей в больших компаниях буксует потому, что у них достаточно денег, чтобы закрыть задачи живыми специалистами. А вот маленькие команды, вроде разработчиков инди-игр, такой роскоши лишены. Где-то они профессионалы и сами сделают хорошо, а где-то – или сделают отвратительно руками, или добьются нормального качества с помощью ИИ. Так как продукт оценивают по совокупности характеристик, то второй подход лучше.
Ну а Clair Obscur: Expedition 33 забрала 9 из 12 статуэток на The Game Awards – награде даже более почетной. Надеюсь, там ничего отзывать не будут.
2👍102❤47👏8🔥3
Как GPT-1.5 Image и Nano Banana Pro меняют нашу работу с ИИ
Я много работаю с текстами и значительную часть внимания уделяю чат-ботам. Но в последнее время есть ощущение, что именно здесь прогресс для меня замедлился. Вышедшая полтора месяца назад GPT-5.1 надежно закрыла большинство моих задач – от веб-поиска до проверки и критики идей. GPT-5.2 выросла в бенчмарках, но переход на нее я не заметил. Иногда пользуюсь Claude Opus 4.5 и Gemini 3 Pro – но это именно вопрос предпочтений, а не какого-то прорывного улучшения моделей.
Сейчас чат-боты все больше упираются не в качество моделей, а в формат, в котором мы с ними работаем: в большинстве случаев это просто стены текста без визуала. ChatGPT, Gemini и Grok умеют находить в сети изображения и вставлять в ответы, но делают это лениво, а еще часто находят совсем не то, что нужно.
Но этот пробел уже можно закрыть с помощью Nano Banana Pro и GPT-1.5 Image. Если летом графические модели создавали красивые изображения, которые были далеки от реальности, то последние версии приблизились к иллюстрациям уровня познавательной детской книги.
Простейший пример – при помощи ChatGPT я повторяю античную историю. Классическая проблема такого изучения – нужно постоянно держать перед глазами карту, чтобы понимать, кто и где находится. В бумажных учебниках с этим проблем нет, а вот в случае с ChatGPT приходилось напоминать модели найти карту, а временами и самому бегать в Google. При этом не всегда в сети быстро находятся карты, точно подходящие под нужный период.
Вся эта история мне надоела к выходу GPT-1.5 Image – и я ради эксперимента решил сгенерировать несколько нужных карт, а затем проверил их вручную и с помощью Gemini 3 Pro (у нее очень крутое компьютерное зрение). Модель выдала на удивление неплохой результат: в учебник ставить рано, но чтобы понять, кто, где и против кого – вполне хватит.
Я подключил Nano Banana Pro, попробовал еще несколько сценариев – и получилось круто.
— Происхождение приматов и человека с момента вымирания динозавров – ИИ вполне аккуратно нарисовал доисторическую белку Пургаториса и обезьянку Тейярдину, которые являются нашими древними предками.
— Динозавры – отдельное большое развлечение, их научный облик постоянно меняется и модели об этом знают. На картинке "спилберговский" велоцираптор и его современная версия.
— Извержение Тобы – инфографика с наглядным пояснением, что произошло.
— То же самое изучение истории – можно попросить показать улицы античных городов, как выглядели люди, во что одевались.
Да и многое другое – все зависит от вашего воображения.
Теперь к практическим советам.
Готовить иллюстрацию лучше в несколько этапов. Сначала просим модель рассказать о каком-то событии. Затем – “Напиши промпт для иллюстрации своего последнего ответа. Опирайся на актуальные научные представления”. И только после этого просите модель собственно рисовать. Иногда промпт приходится немного отредактировать.
Если не уверены в результате – то загружаем готовую картинку в Gemini 3 Flash или Pro, поясняем, о чем речь и просим оценить, насколько реалистично вышло. У модели очень крутое компьютерное зрение: в моих тестах она даже находила неверное положение пальцев на лапах.
Да и в целом Gemini 3 + Nano Banana Pro (можно и обычную) лучше подходят для этого сценария. Сама Gemini 3 рассказывает намного более живым языком, чем GPT-5.2 – жаль только, что иногда увлекается спорными идеями и теориями. Ну а GPT-1.5 Image рисует скорее “художественно”, в то время как Nano Banana Pro отличается большим вниманием к деталям. Ну и инфографика у нее выходит лучше.
Пока все это приходится делать с помощью дополнительных промптов и лишних сообщений. Но видя скорость прогресса генеративного ИИ, я практически уверен, что такие иллюстрации станут стандартным элементом работы в тех же ChatGPT и Gemini уже в следующем году. Возможно – даже в первой его половине.
#сбежавшая_нейросеть_промпты
Я много работаю с текстами и значительную часть внимания уделяю чат-ботам. Но в последнее время есть ощущение, что именно здесь прогресс для меня замедлился. Вышедшая полтора месяца назад GPT-5.1 надежно закрыла большинство моих задач – от веб-поиска до проверки и критики идей. GPT-5.2 выросла в бенчмарках, но переход на нее я не заметил. Иногда пользуюсь Claude Opus 4.5 и Gemini 3 Pro – но это именно вопрос предпочтений, а не какого-то прорывного улучшения моделей.
Сейчас чат-боты все больше упираются не в качество моделей, а в формат, в котором мы с ними работаем: в большинстве случаев это просто стены текста без визуала. ChatGPT, Gemini и Grok умеют находить в сети изображения и вставлять в ответы, но делают это лениво, а еще часто находят совсем не то, что нужно.
Но этот пробел уже можно закрыть с помощью Nano Banana Pro и GPT-1.5 Image. Если летом графические модели создавали красивые изображения, которые были далеки от реальности, то последние версии приблизились к иллюстрациям уровня познавательной детской книги.
Простейший пример – при помощи ChatGPT я повторяю античную историю. Классическая проблема такого изучения – нужно постоянно держать перед глазами карту, чтобы понимать, кто и где находится. В бумажных учебниках с этим проблем нет, а вот в случае с ChatGPT приходилось напоминать модели найти карту, а временами и самому бегать в Google. При этом не всегда в сети быстро находятся карты, точно подходящие под нужный период.
Вся эта история мне надоела к выходу GPT-1.5 Image – и я ради эксперимента решил сгенерировать несколько нужных карт, а затем проверил их вручную и с помощью Gemini 3 Pro (у нее очень крутое компьютерное зрение). Модель выдала на удивление неплохой результат: в учебник ставить рано, но чтобы понять, кто, где и против кого – вполне хватит.
Я подключил Nano Banana Pro, попробовал еще несколько сценариев – и получилось круто.
— Происхождение приматов и человека с момента вымирания динозавров – ИИ вполне аккуратно нарисовал доисторическую белку Пургаториса и обезьянку Тейярдину, которые являются нашими древними предками.
— Динозавры – отдельное большое развлечение, их научный облик постоянно меняется и модели об этом знают. На картинке "спилберговский" велоцираптор и его современная версия.
— Извержение Тобы – инфографика с наглядным пояснением, что произошло.
— То же самое изучение истории – можно попросить показать улицы античных городов, как выглядели люди, во что одевались.
Да и многое другое – все зависит от вашего воображения.
Теперь к практическим советам.
Готовить иллюстрацию лучше в несколько этапов. Сначала просим модель рассказать о каком-то событии. Затем – “Напиши промпт для иллюстрации своего последнего ответа. Опирайся на актуальные научные представления”. И только после этого просите модель собственно рисовать. Иногда промпт приходится немного отредактировать.
Если не уверены в результате – то загружаем готовую картинку в Gemini 3 Flash или Pro, поясняем, о чем речь и просим оценить, насколько реалистично вышло. У модели очень крутое компьютерное зрение: в моих тестах она даже находила неверное положение пальцев на лапах.
Да и в целом Gemini 3 + Nano Banana Pro (можно и обычную) лучше подходят для этого сценария. Сама Gemini 3 рассказывает намного более живым языком, чем GPT-5.2 – жаль только, что иногда увлекается спорными идеями и теориями. Ну а GPT-1.5 Image рисует скорее “художественно”, в то время как Nano Banana Pro отличается большим вниманием к деталям. Ну и инфографика у нее выходит лучше.
Пока все это приходится делать с помощью дополнительных промптов и лишних сообщений. Но видя скорость прогресса генеративного ИИ, я практически уверен, что такие иллюстрации станут стандартным элементом работы в тех же ChatGPT и Gemini уже в следующем году. Возможно – даже в первой его половине.
#сбежавшая_нейросеть_промпты
2🔥62👍41❤25
Держите сразу два мини-обзора: на Claude Opus 4.5 и Genspark
Предыстория следующая. Я давно работаю с ИИ, но почти не пробовал Claude. После выхода Opus 4.5 решил заполнить пробел, подписался за $20 – и проникся.
Каждый день я пишу много текстов. И если каналом занимаюсь сам, то на новости, техзадания и пресс-релизы уже не хватает сил. GPT-5.2 для текстов совсем не нравится – у Thinking-версии “рубленый” язык, Instant лучше, но все равно на тройку. У Gemini 3 Pro русский хорош, но это рассказчик, а не писатель деловых текстов.
А вот Claude Opus 4.5 попал в мой вкус. Мелкие правки нужны – заменить не переведенное слово, например – но ритм текста отличный. Написанные “Опусом” новости читаются на одном дыхании и не ощущаются как ИИ.
Хороший текст с помощью ИИ нельзя писать одним промптом. Вот как делаю я:
— Прошу собрать информацию по теме. Если история сложная, то на этом этапе подключаю ChatGPT, так как она ищет лучше.
— Даю короткие правила: стиль, длина заголовка, объем новости и еще несколько пунктов.
— Прошу цепляющие заголовки, выбираю лучший, иногда собираю один из двух.
— Если новость сложная, то прошу несколько планов с разными углами подачи, и выбираю лучший. Простая — пишет сразу.
— Прошу “сделай даблчек своей новости”. Если находит ошибки – исправляем.
Уходит 10-15 минут, но есть проблема – подписка Anthropic так ограничена, что недельный лимит на Opus 4.5 у меня заканчивался уже в среду-четверг. И даже Sonnet 4.5 хватало не всегда – а он хуже.
Переходить на план за $100 не хотелось, расставаться с Claude – тоже. Поискал по wrapper-ам – сторонним сервисам, которые дают доступ к ИИ разных компаний в одной подписке и оболочке. Самый известный Perplexity, но в нем Opus только в 200-долларовом плане.
Дальше наткнулся на Genspark – и обалдел. Подписка стоит 25 долларов и дает безлимит к Claude Opus 4.5 (плюс Sonnet и Haiku), Gemini 3 Pro/Flash, Grok 4 и нескольким версиям GPT-5.x. Eсть даже GPT-5.2 Pro, но с выключенным веб-поиском – все-таки очень мощная и дорогая модель.
Бесплатно доступно много рисовалок: Nano Banana Pro, GPT-1.5 Image, Seedream V4.5 и т. д. Еще дают 10 тысяч кредитов, их можно тратить на видео (разные модели, хватит на 60-70 роликов) и агентов. Последних много: для презентаций, дизайна логотипов, глубокого поиска, факт-чекинга и так далее.
Понравился агент для кодинга. Можно собрать простой веб‑проект или full‑stack (аутентификация, backend, база), Flutter‑приложение, либо подключить существующий GitHub‑репозиторий/SSH‑сервер; есть предпросмотр и выгрузка в GitHub/публикация.
В общем, играюсь уже много дней, лишь иногда переключаясь в ChatGPT или Gemini. Но и минусы есть. Для веб-поиска лучше подходит ChatGPT, на худой конец Grok или Perplexity. А в Genspark даже агент глубокого поиска выдает средний результат, а базовый поиск – уровня продвинутого Google.
Интерфейс Genspark сильно перегружен – обычный чат с моделью трудно найти среди иконок разных агентов. Плюс нет моей любимой функции памяти, когда ИИ собирает знания о пользователе и подстраивает ответы под него. Увы, Genspark не работает с российским IP, да и оплачивать сложно – я пополнял App Store США подарочными картами и платил с него.
Еще читатели часто спрашивают, не используются ли в сервисах вроде Genspark и Perplexity урезанные версии моделей. Серьезно затупить ИИ можно только квантизацией – это дорого и доступно только самим разработчикам моделей. Еще можно снизить настройки в API: уменьшить длину контекста, подрезать ресурсы на рассуждения, накинуть системный промпт, зажимающий модель.
По опыту могу сказать, что Opus 4.5 в Genspark на моих задачах не отличается от версии у Anthropic, а вот GPT-5.2 Thinking хуже из-за поиска в сети. Зато радует GPT-5.2 Pro – медленная, но мощная. У Genspark есть небольшой бесплатный лимит даже на мощные модели – так что можно попробовать и решить для себя.
Предыстория следующая. Я давно работаю с ИИ, но почти не пробовал Claude. После выхода Opus 4.5 решил заполнить пробел, подписался за $20 – и проникся.
Каждый день я пишу много текстов. И если каналом занимаюсь сам, то на новости, техзадания и пресс-релизы уже не хватает сил. GPT-5.2 для текстов совсем не нравится – у Thinking-версии “рубленый” язык, Instant лучше, но все равно на тройку. У Gemini 3 Pro русский хорош, но это рассказчик, а не писатель деловых текстов.
А вот Claude Opus 4.5 попал в мой вкус. Мелкие правки нужны – заменить не переведенное слово, например – но ритм текста отличный. Написанные “Опусом” новости читаются на одном дыхании и не ощущаются как ИИ.
Хороший текст с помощью ИИ нельзя писать одним промптом. Вот как делаю я:
— Прошу собрать информацию по теме. Если история сложная, то на этом этапе подключаю ChatGPT, так как она ищет лучше.
— Даю короткие правила: стиль, длина заголовка, объем новости и еще несколько пунктов.
— Прошу цепляющие заголовки, выбираю лучший, иногда собираю один из двух.
— Если новость сложная, то прошу несколько планов с разными углами подачи, и выбираю лучший. Простая — пишет сразу.
— Прошу “сделай даблчек своей новости”. Если находит ошибки – исправляем.
Уходит 10-15 минут, но есть проблема – подписка Anthropic так ограничена, что недельный лимит на Opus 4.5 у меня заканчивался уже в среду-четверг. И даже Sonnet 4.5 хватало не всегда – а он хуже.
Переходить на план за $100 не хотелось, расставаться с Claude – тоже. Поискал по wrapper-ам – сторонним сервисам, которые дают доступ к ИИ разных компаний в одной подписке и оболочке. Самый известный Perplexity, но в нем Opus только в 200-долларовом плане.
Дальше наткнулся на Genspark – и обалдел. Подписка стоит 25 долларов и дает безлимит к Claude Opus 4.5 (плюс Sonnet и Haiku), Gemini 3 Pro/Flash, Grok 4 и нескольким версиям GPT-5.x. Eсть даже GPT-5.2 Pro, но с выключенным веб-поиском – все-таки очень мощная и дорогая модель.
Бесплатно доступно много рисовалок: Nano Banana Pro, GPT-1.5 Image, Seedream V4.5 и т. д. Еще дают 10 тысяч кредитов, их можно тратить на видео (разные модели, хватит на 60-70 роликов) и агентов. Последних много: для презентаций, дизайна логотипов, глубокого поиска, факт-чекинга и так далее.
Понравился агент для кодинга. Можно собрать простой веб‑проект или full‑stack (аутентификация, backend, база), Flutter‑приложение, либо подключить существующий GitHub‑репозиторий/SSH‑сервер; есть предпросмотр и выгрузка в GitHub/публикация.
В общем, играюсь уже много дней, лишь иногда переключаясь в ChatGPT или Gemini. Но и минусы есть. Для веб-поиска лучше подходит ChatGPT, на худой конец Grok или Perplexity. А в Genspark даже агент глубокого поиска выдает средний результат, а базовый поиск – уровня продвинутого Google.
Интерфейс Genspark сильно перегружен – обычный чат с моделью трудно найти среди иконок разных агентов. Плюс нет моей любимой функции памяти, когда ИИ собирает знания о пользователе и подстраивает ответы под него. Увы, Genspark не работает с российским IP, да и оплачивать сложно – я пополнял App Store США подарочными картами и платил с него.
Еще читатели часто спрашивают, не используются ли в сервисах вроде Genspark и Perplexity урезанные версии моделей. Серьезно затупить ИИ можно только квантизацией – это дорого и доступно только самим разработчикам моделей. Еще можно снизить настройки в API: уменьшить длину контекста, подрезать ресурсы на рассуждения, накинуть системный промпт, зажимающий модель.
По опыту могу сказать, что Opus 4.5 в Genspark на моих задачах не отличается от версии у Anthropic, а вот GPT-5.2 Thinking хуже из-за поиска в сети. Зато радует GPT-5.2 Pro – медленная, но мощная. У Genspark есть небольшой бесплатный лимит даже на мощные модели – так что можно попробовать и решить для себя.
3👍74❤31🔥21
Хотите повысить эффективность с помощью ИИ в 10 раз? Готовьтесь работать в два раза больше!
Это я прямо под новогодние праздники подобрал заголовок, да. Андрей Карпати, один из лучших экспертов по ИИ, опубликовал пост, который актуален для любого, кто работает с нейросетями. Карпати пишет с позиции программиста, но сказанное можно переложить на любую другую область. Вот краткий пересказ от GPT-5.2 Pro:
Работа с нейросетью действительно подразумевает понимание ее устройства. Важно знать, что ИИ не “думает” в человеческом понимании – постоянно и непрерывно – его “сознательность” включается в момент выполнения задачи, и только для нее. Так как ИИ обучают заранее, то у него есть knowledge cutoff – дата, после которой он не помнит события на уровне весов и пытается найти их в сети с переменным успехом. С событиями после нее работаем максимально аккуратно.
Промптинг – отдельное искусство, где, кажется, вообще нереально достичь совершенства. Надо одновременно четко изложить ИИ задачу, дать нужный контекст, но не перегрузить лишними инструкциями и подробностями, которые будут сбивать с толку. А работающее решение важно пересматривать, добавляя актуальную информацию и просто экспериментируя.
Стохастичность ИИ – вещь, которую я до сих пор не принял полностью. Мы привыкли: если что-то запускается на компьютере – это программа, которая выдает один и тот же ожидаемый результат. А если не выдает – в коде ошибка и ее надо поправить.
Дайте ИИ одну и ту же задачу несколько раз – и каждый раз вы получите в чем-то новый ответ. Понять, какой из них лучше – отдельный навык. Равно как и в целом валидация результатов работы ИИ, когда ты проверяешь сомнительные моменты и задаешь уточняющие вопросы.
Скорость развития ИИ просто ураганная. Модели теперь обновляют раз в 1-2 месяца, параллельно выходят новые интерфейсные функции, а сообщество экспериментирует с разными техниками промптинга. Мой коллега, курирующий разработку курсов по ИИ, жалуется, что некоторые курсы по-хорошему надо переделывать сразу после публикации – так быстро все меняется.
Осваивая ИИ, важно не потерять свои навыки – ведь принимать результат его работы и использовать его предстоит вам. Уже не Андрей Карпати, а глава Nvidia Дженсен Хуанг высказал мнение, что благодаря ИИ люди скоро будут работать меньше, но парадоксальным образом станут более занятыми.
Когда ИИ забирает на себя рутину и выполняет ее быстрее, на людях растет нагрузка в другой сфере – принятии решений и готовности нести за них ответственность. А это – одни из самых изматывающих занятий в принципе.
Стать эффективнее с помощью ИИ можно, но потребуется плата за вход: настроить процесс, научиться проверять и обновлять привычки. И в нелегкой задаче освоения ИИ ваш лучший партнер – это сам ИИ (и мой блог, конечно). Когда я хочу выполнить новую задачу с помощью ИИ, то первое, что делаю – спрашиваю саму нейронку, как бы она ее решила, какая информация нужна, сколько понадобится времени, какие есть риски и где потребуется помощь человека.
Впереди каникулы. Выберите задачу, которую было бы интересно выполнять с помощью ИИ. Возьмите одну или несколько нейронок, поясните задачу, соберите варианты решения, попробуйте один или несколько. И тогда в трудовой год вы точно войдете с новыми для себя навыками.
Это я прямо под новогодние праздники подобрал заголовок, да. Андрей Карпати, один из лучших экспертов по ИИ, опубликовал пост, который актуален для любого, кто работает с нейросетями. Карпати пишет с позиции программиста, но сказанное можно переложить на любую другую область. Вот краткий пересказ от GPT-5.2 Pro:
Карпати пишет, что впервые в карьере чувствует себя «отстающим» как программист: за последний год профессия резко меняется, а прямой вклад человека в код становится меньше — многое делают ИИ-инструменты. Чтобы реально получить рост (условные “10x”), нужно освоить новый слой поверх обычной разработки: агенты, промпты, контекст/память, режимы и разрешения, инструменты/плагины, интеграции с IDE и готовые рабочие процессы. При этом работать приходится с сущностями, которые по природе стохастичны, ненадежны и непрозрачны, и все это смешивается с классической инженерией. По ощущениям это как “инопланетная технология без инструкции”: ее раздали всем, и теперь надо срочно учиться ею пользоваться, пока индустрию трясет.
Работа с нейросетью действительно подразумевает понимание ее устройства. Важно знать, что ИИ не “думает” в человеческом понимании – постоянно и непрерывно – его “сознательность” включается в момент выполнения задачи, и только для нее. Так как ИИ обучают заранее, то у него есть knowledge cutoff – дата, после которой он не помнит события на уровне весов и пытается найти их в сети с переменным успехом. С событиями после нее работаем максимально аккуратно.
Промптинг – отдельное искусство, где, кажется, вообще нереально достичь совершенства. Надо одновременно четко изложить ИИ задачу, дать нужный контекст, но не перегрузить лишними инструкциями и подробностями, которые будут сбивать с толку. А работающее решение важно пересматривать, добавляя актуальную информацию и просто экспериментируя.
Стохастичность ИИ – вещь, которую я до сих пор не принял полностью. Мы привыкли: если что-то запускается на компьютере – это программа, которая выдает один и тот же ожидаемый результат. А если не выдает – в коде ошибка и ее надо поправить.
Дайте ИИ одну и ту же задачу несколько раз – и каждый раз вы получите в чем-то новый ответ. Понять, какой из них лучше – отдельный навык. Равно как и в целом валидация результатов работы ИИ, когда ты проверяешь сомнительные моменты и задаешь уточняющие вопросы.
Скорость развития ИИ просто ураганная. Модели теперь обновляют раз в 1-2 месяца, параллельно выходят новые интерфейсные функции, а сообщество экспериментирует с разными техниками промптинга. Мой коллега, курирующий разработку курсов по ИИ, жалуется, что некоторые курсы по-хорошему надо переделывать сразу после публикации – так быстро все меняется.
Осваивая ИИ, важно не потерять свои навыки – ведь принимать результат его работы и использовать его предстоит вам. Уже не Андрей Карпати, а глава Nvidia Дженсен Хуанг высказал мнение, что благодаря ИИ люди скоро будут работать меньше, но парадоксальным образом станут более занятыми.
Когда ИИ забирает на себя рутину и выполняет ее быстрее, на людях растет нагрузка в другой сфере – принятии решений и готовности нести за них ответственность. А это – одни из самых изматывающих занятий в принципе.
Стать эффективнее с помощью ИИ можно, но потребуется плата за вход: настроить процесс, научиться проверять и обновлять привычки. И в нелегкой задаче освоения ИИ ваш лучший партнер – это сам ИИ (и мой блог, конечно). Когда я хочу выполнить новую задачу с помощью ИИ, то первое, что делаю – спрашиваю саму нейронку, как бы она ее решила, какая информация нужна, сколько понадобится времени, какие есть риски и где потребуется помощь человека.
Впереди каникулы. Выберите задачу, которую было бы интересно выполнять с помощью ИИ. Возьмите одну или несколько нейронок, поясните задачу, соберите варианты решения, попробуйте один или несколько. И тогда в трудовой год вы точно войдете с новыми для себя навыками.
3🔥86👍63❤38😁4🥰1
ИИ-пожелания на 2026 год
Прогнозы – неблагодарный жанр, особенно в ИИ, где все переворачивается с ног на голову каждые несколько месяцев. Поэтому для завершения года я выбрал немного другой формат – распишу те вещи, которые я хочу увидеть в ИИ в 2026-м с позиции обычного пользователя.
Расширенная память о пользователе
Почти все исследователи ИИ сходятся в одном: следующим прорывом будет разработка непрерывного обучения моделей и появление “долгой” памяти. Я как раз изучаю эту тему подробнее и пока прихожу к выводу, что в 2026-м мы вряд ли увидим массовое внедрение этих технологий. Есть многообещающие разработки вроде Nested Learning от Google, но пока это экспериментальные прототипы.
Непрерывное обучение нужно скорее для бизнес-задач и пресловутого AGI, а конечному пользователю важно, чтобы ИИ как можно больше знал про него: был в курсе предпочтений, планов, нужных форматов ответов.
Я рассказывал, что сейчас память — это набор фактов + история чатов. Это приносит пользу, но до полной адаптации еще далеко – ИИ часто зацикливаются на одном-двух фактах, плохо понимают контекст, регулярно используя рабочие воспоминания в личных беседах и наоборот.
Сэм Альтман говорил, что текущая память лишь прототип – а в будущей GPT-6 попробуют реализовать полную подстройку ответов под характер пользователя. Вплоть до того, что система научится менять свои политические взгляды. Посмотрим, что получится.
Интерактивные ответы
ИИ называют одним из главных изобретений человечества, но общаемся мы с ним читая и печатая буквы. Даже подобрать картинку в тему и вставить ее в ответ у современных чат-ботов получается не всегда.
При этом модели вроде Nano Banana Pro и GPT Image 1.5 генерируют близкие к достоверным картинки и инфографику, а сами нейронки легко могут навайбкодить небольшой веб-сайт или приложение, когда это нужно.
Уверен, скоро поле для ответа начнет превращаться в интерактивное пространство, куда ИИ будет помещать контент в разных форматах. Это текст и голос, картинки (найденные в сети и сгенерированные самостоятельно), мини-приложения, а со временем – видео и виртуальные пространства, созданные в наследницах Veo 3 и Genie 3.
Агентность
В последние дни много экспериментирую с GPT-5.2 Pro: это мощная модель, но для повседневного использования она дорогая и медленная. Но что мне нравится – GPT-5.2 Pro не стесняется задавать встречные вопросы. Как бы хорошо пользователь не писал промпты, есть риск что-то упустить – ИИ же смотрят на задачу комплексно и такие пропуски подмечают.
И это не Pro-технология – задавать вопросы и обсуждать план выполнения задачи умеют DeepResearch и ChatGPT Agent, которые входят в подписку ChatGPT Plus. Так что теоретически можно добавить уровень “вопросов и планирования” в обычный чат с GPT-5.2, дав совсем другой опыт.
OpenAI зря забросили ChatGPT Agent – просто развивать его надо не отдельно, а как “агентские” функции в основном чат-боте. Мне, например, во время работы с GPT-5.2 часто не хватает виртуального браузера для ИИ, чтобы модель сама “покликала” сайт и рассмотрела графики с таблицами.
Меньше галлюцинаций, лучше поиск, выше скорость
GPT-5.x – первая модель, которой я доверяю на 98%. OpenAI, с одной стороны, снизили уровень галлюцинаций, с другой – реализовали лучший среди нейронок поиск, когда модель проверяет каждое свое утверждение.
Минус – скорость работы. У меня GPT-5.2 регулярно тратит по несколько минут на ответ. С другой стороны, Gemini 3 Pro и Claude Opus 4.5 ищут в сети быстро и поверхностно – поэтому регулярно не добирают нужную информацию. И если Opus 4.5 умеет признавать, когда чего-то не знает, то Gemini 3 Pro регулярно фантазирует откровенную ерунду – из-за этого я свел до минимума работу с этой, интересной на самом деле, моделью. Вот это все надо править для лучшего опыта.
P.S. И, конечно, в 2026-м я жду хотя бы одного большого научного открытия, сделанного при активном участии ИИ – все предпосылки для этого уже есть. Уверен, год будет интересный.
С праздниками!
Прогнозы – неблагодарный жанр, особенно в ИИ, где все переворачивается с ног на голову каждые несколько месяцев. Поэтому для завершения года я выбрал немного другой формат – распишу те вещи, которые я хочу увидеть в ИИ в 2026-м с позиции обычного пользователя.
Расширенная память о пользователе
Почти все исследователи ИИ сходятся в одном: следующим прорывом будет разработка непрерывного обучения моделей и появление “долгой” памяти. Я как раз изучаю эту тему подробнее и пока прихожу к выводу, что в 2026-м мы вряд ли увидим массовое внедрение этих технологий. Есть многообещающие разработки вроде Nested Learning от Google, но пока это экспериментальные прототипы.
Непрерывное обучение нужно скорее для бизнес-задач и пресловутого AGI, а конечному пользователю важно, чтобы ИИ как можно больше знал про него: был в курсе предпочтений, планов, нужных форматов ответов.
Я рассказывал, что сейчас память — это набор фактов + история чатов. Это приносит пользу, но до полной адаптации еще далеко – ИИ часто зацикливаются на одном-двух фактах, плохо понимают контекст, регулярно используя рабочие воспоминания в личных беседах и наоборот.
Сэм Альтман говорил, что текущая память лишь прототип – а в будущей GPT-6 попробуют реализовать полную подстройку ответов под характер пользователя. Вплоть до того, что система научится менять свои политические взгляды. Посмотрим, что получится.
Интерактивные ответы
ИИ называют одним из главных изобретений человечества, но общаемся мы с ним читая и печатая буквы. Даже подобрать картинку в тему и вставить ее в ответ у современных чат-ботов получается не всегда.
При этом модели вроде Nano Banana Pro и GPT Image 1.5 генерируют близкие к достоверным картинки и инфографику, а сами нейронки легко могут навайбкодить небольшой веб-сайт или приложение, когда это нужно.
Уверен, скоро поле для ответа начнет превращаться в интерактивное пространство, куда ИИ будет помещать контент в разных форматах. Это текст и голос, картинки (найденные в сети и сгенерированные самостоятельно), мини-приложения, а со временем – видео и виртуальные пространства, созданные в наследницах Veo 3 и Genie 3.
Агентность
В последние дни много экспериментирую с GPT-5.2 Pro: это мощная модель, но для повседневного использования она дорогая и медленная. Но что мне нравится – GPT-5.2 Pro не стесняется задавать встречные вопросы. Как бы хорошо пользователь не писал промпты, есть риск что-то упустить – ИИ же смотрят на задачу комплексно и такие пропуски подмечают.
И это не Pro-технология – задавать вопросы и обсуждать план выполнения задачи умеют DeepResearch и ChatGPT Agent, которые входят в подписку ChatGPT Plus. Так что теоретически можно добавить уровень “вопросов и планирования” в обычный чат с GPT-5.2, дав совсем другой опыт.
OpenAI зря забросили ChatGPT Agent – просто развивать его надо не отдельно, а как “агентские” функции в основном чат-боте. Мне, например, во время работы с GPT-5.2 часто не хватает виртуального браузера для ИИ, чтобы модель сама “покликала” сайт и рассмотрела графики с таблицами.
Меньше галлюцинаций, лучше поиск, выше скорость
GPT-5.x – первая модель, которой я доверяю на 98%. OpenAI, с одной стороны, снизили уровень галлюцинаций, с другой – реализовали лучший среди нейронок поиск, когда модель проверяет каждое свое утверждение.
Минус – скорость работы. У меня GPT-5.2 регулярно тратит по несколько минут на ответ. С другой стороны, Gemini 3 Pro и Claude Opus 4.5 ищут в сети быстро и поверхностно – поэтому регулярно не добирают нужную информацию. И если Opus 4.5 умеет признавать, когда чего-то не знает, то Gemini 3 Pro регулярно фантазирует откровенную ерунду – из-за этого я свел до минимума работу с этой, интересной на самом деле, моделью. Вот это все надо править для лучшего опыта.
P.S. И, конечно, в 2026-м я жду хотя бы одного большого научного открытия, сделанного при активном участии ИИ – все предпосылки для этого уже есть. Уверен, год будет интересный.
С праздниками!
3❤100👍49🔥31🥰9
Две на первый взгляд не связанные новости
Во второй половине 2025 года цены на память улетели в небеса: 2х16 ГБ DDR5 стали стоить примерно в два раза дороже. Причина – ИИ-бум. Современные модели требуют огромное количество памяти: если на один ускоритель Nvidia H100 ставили 80 ГБ, то B200 несет уже 192 ГБ, а B300 – 288 ГБ.
Плюс ускорители упираются в пропускную способность памяти. Поэтому та же Nvidia использует скоростную HBM3e и планирует перейти на HBM4/HBM4e. Производство HBM выгоднее – поэтому производители переориентируются на нее с DDR5.
Нарастить выпуск памяти обещают к 2027 году. Nvidia параллельно ищет, где сэкономить. Компания готовит ускоритель Rubin CPX, предназначенный специально для инференса (запуска ИИ для пользователей) – задача менее требовательная к памяти, поэтому хватит всего 128 ГБ DDR7.
В конце 2025-го компания отвалила 20 млрд долларов за стартап Groq – его основал Джонатан Росс, создатель Google TPU, ИИ-ускорителей, которые сейчас конкурируют с Nvidia. Groq также сосредоточился на инференсе и у компании интересное решение: используется быстрая SRAM прямо на кристалле. Она еще дороже, но есть шанс, что финальное решение будет более экономичным за счет скорости.
В общем, надежда на стабилизацию в 2027-м вроде и есть, но тут на арену выходит Уильям Стэнли Джевонс с “парадоксом Джевонса”: чем дешевле становится та или иная услуга, тем активнее ее начинают использовать.
Сейчас массовое использование ИИ – это чат-боты, которые генерят ответ за секунды, а потом “засыпают”. Следующий этап – ИИ-агенты, которые непрерывно работают десятки минут, все это время нагружая GPU. А в отдаленном будущем нас ждут наследницы Genie 3, генерирующие полноценные виртуальные миры.
Поэтому прогноз по ценам скорее грустный. Маловероятно, что увлечение ИИ окажется пузырем, который с треском лопнет. Скорее мощная локальная электроника на долгое время станет дорогим удовольствием. Из-за роста цен на DDR5 и SSD собрать ПК уже стоит больше, чем годом ранее. Дорожают видеокарты и ноутбуки, следом подтянутся смартфоны и консоли; выход новинок могут отложить – по слухам, это уже обсуждают для GeForce.
Теперь ко второй новости – появились утечки об ИИ-устройствах OpenAI. Источники называют AR-очки, умные колонки, но самый забавный вариант – умная ручка. Это стилус, который общается с пользователем голосом и оснащен камерой, чтобы “видеть” обстановку вокруг. А при подключении к более крупному устройству сможет преобразовывать рукописный ввод в текст. Производство разворачивается на мощностях Foxconn, продажи ждем к концу 2026-го.
Идея выглядит странной, но не буду оценивать перспективы устройства. Интереснее другое: подорожание железа может привести к смене концепции с “мощные ПК/лэптоп и смартфон + ChatGPT Plus” на “дорогая ИИ-подписка (или даже несколько) + “тонкие” устройства”.
Вычисления уедут в облако и в чем-то это будет даже плюсом: “входной билет” может оказаться дешевле (особенно если введут “промежуточные” 50-долларовые тарифные планы для ИИ), а возможности ИИ растут каждые 2-3 месяца. Дешевое локальное железо не так греется и лучше работает от батареи – и служит дольше.
Но и минусы очевидны. Вырастет зависимость от ИИ-провайдеров – от изменений цены подписки до передачи личной информации. Критической станет зависимость от интернет-соединения. Подорожают задачи, все еще требующие вычислительной мощности на месте – от экспериментов с локальными моделями до большинства видеоигр.
В итоге мы можем получить расслоение: массовый пользователь на тонких клиентах с подписками, и энтузиасты/профессионалы, готовые платить премиум за локальную мощность. Примерно как сейчас с фотографией – большинству хватает смартфона, но профессиональные камеры никуда не делись. Вопрос в том, где окажется граница между этими мирами – и сколько будет стоить ее пересечь.
Во второй половине 2025 года цены на память улетели в небеса: 2х16 ГБ DDR5 стали стоить примерно в два раза дороже. Причина – ИИ-бум. Современные модели требуют огромное количество памяти: если на один ускоритель Nvidia H100 ставили 80 ГБ, то B200 несет уже 192 ГБ, а B300 – 288 ГБ.
Плюс ускорители упираются в пропускную способность памяти. Поэтому та же Nvidia использует скоростную HBM3e и планирует перейти на HBM4/HBM4e. Производство HBM выгоднее – поэтому производители переориентируются на нее с DDR5.
Нарастить выпуск памяти обещают к 2027 году. Nvidia параллельно ищет, где сэкономить. Компания готовит ускоритель Rubin CPX, предназначенный специально для инференса (запуска ИИ для пользователей) – задача менее требовательная к памяти, поэтому хватит всего 128 ГБ DDR7.
В конце 2025-го компания отвалила 20 млрд долларов за стартап Groq – его основал Джонатан Росс, создатель Google TPU, ИИ-ускорителей, которые сейчас конкурируют с Nvidia. Groq также сосредоточился на инференсе и у компании интересное решение: используется быстрая SRAM прямо на кристалле. Она еще дороже, но есть шанс, что финальное решение будет более экономичным за счет скорости.
В общем, надежда на стабилизацию в 2027-м вроде и есть, но тут на арену выходит Уильям Стэнли Джевонс с “парадоксом Джевонса”: чем дешевле становится та или иная услуга, тем активнее ее начинают использовать.
Сейчас массовое использование ИИ – это чат-боты, которые генерят ответ за секунды, а потом “засыпают”. Следующий этап – ИИ-агенты, которые непрерывно работают десятки минут, все это время нагружая GPU. А в отдаленном будущем нас ждут наследницы Genie 3, генерирующие полноценные виртуальные миры.
Поэтому прогноз по ценам скорее грустный. Маловероятно, что увлечение ИИ окажется пузырем, который с треском лопнет. Скорее мощная локальная электроника на долгое время станет дорогим удовольствием. Из-за роста цен на DDR5 и SSD собрать ПК уже стоит больше, чем годом ранее. Дорожают видеокарты и ноутбуки, следом подтянутся смартфоны и консоли; выход новинок могут отложить – по слухам, это уже обсуждают для GeForce.
Теперь ко второй новости – появились утечки об ИИ-устройствах OpenAI. Источники называют AR-очки, умные колонки, но самый забавный вариант – умная ручка. Это стилус, который общается с пользователем голосом и оснащен камерой, чтобы “видеть” обстановку вокруг. А при подключении к более крупному устройству сможет преобразовывать рукописный ввод в текст. Производство разворачивается на мощностях Foxconn, продажи ждем к концу 2026-го.
Идея выглядит странной, но не буду оценивать перспективы устройства. Интереснее другое: подорожание железа может привести к смене концепции с “мощные ПК/лэптоп и смартфон + ChatGPT Plus” на “дорогая ИИ-подписка (или даже несколько) + “тонкие” устройства”.
Вычисления уедут в облако и в чем-то это будет даже плюсом: “входной билет” может оказаться дешевле (особенно если введут “промежуточные” 50-долларовые тарифные планы для ИИ), а возможности ИИ растут каждые 2-3 месяца. Дешевое локальное железо не так греется и лучше работает от батареи – и служит дольше.
Но и минусы очевидны. Вырастет зависимость от ИИ-провайдеров – от изменений цены подписки до передачи личной информации. Критической станет зависимость от интернет-соединения. Подорожают задачи, все еще требующие вычислительной мощности на месте – от экспериментов с локальными моделями до большинства видеоигр.
В итоге мы можем получить расслоение: массовый пользователь на тонких клиентах с подписками, и энтузиасты/профессионалы, готовые платить премиум за локальную мощность. Примерно как сейчас с фотографией – большинству хватает смартфона, но профессиональные камеры никуда не делись. Вопрос в том, где окажется граница между этими мирами – и сколько будет стоить ее пересечь.
2👍82❤34🔥26👏2
Вайб-кодинг: демократия или анархия?
На днях прочел пост Игоря про то, как неугомонный наш Андрей Карпати с помощью Claude Code расковырял API Lutron – это американская компания, которая выпускает системы умного дома. Claude самостоятельно нашел контроллеры Lutron в домашней Wi-Fi-сети и подключился к ним. Затем нашел в интернете документацию, обнаружил все устройства, подключился к ним и для теста, включил и выключил свет. Так как Карпати не нравится официальное приложение Lutron, то теперь он пишет собственный “центр управления” домом.
Мы вступаем в интересную эпоху. API есть у множества разных продуктов, а порог входа в вайб-кодинг снижается с каждым месяцем. Не нужно быть Андреем Карпати, чтобы создать собственное приложение для фитнес-браслета, хитрую надстройку над банковским софтом и даже систему управления сельхозфермой.
Но есть и обратная сторона. Каким бы кривым не было официальное приложение, ответственность за его работу несет сама компания. Что-то пошло не так – обращаемся в поддержку или даже идем в суд. Когда приложение криво завайбкодили вы сами – то и отвечать вам. И хорошо, если оно будет просто моргать светом, а не заблокирует входную дверь или не выставит ночью отопление на максимум. И я молчу про дыры в безопасности – их в таком софте окажется больше.
Выходов вижу два. Во-первых, не забывать использовать ИИ для тестирования – хотя бы попросить ту же нейронку, с помощью которой вайбкодили, прогнать базовые тесты (llm их знают, просто надо отдельный промпт). Во-вторых, практически уверен, что со временем появятся приложения с “ИИ-слоем” – грубо говоря, профессиональный разработчик все еще отвечает за движок, а пользователь с помощью нейронки создает интерфейс, который нравится и подходит под его задачи. Интересно посмотреть, кто первый додумается до такой штуки.
Еще раз рекомендую канал Игоря Tips AI | IT & AI. Это один из каналов, которые я регулярно читаю на тему ИИ, беру оттуда не только свежие новости, но и интересные идеи. Про Claude Code у него, кстати, есть отдельный лонгрид с 50 примерами необычного использования.
На днях прочел пост Игоря про то, как неугомонный наш Андрей Карпати с помощью Claude Code расковырял API Lutron – это американская компания, которая выпускает системы умного дома. Claude самостоятельно нашел контроллеры Lutron в домашней Wi-Fi-сети и подключился к ним. Затем нашел в интернете документацию, обнаружил все устройства, подключился к ним и для теста, включил и выключил свет. Так как Карпати не нравится официальное приложение Lutron, то теперь он пишет собственный “центр управления” домом.
Мы вступаем в интересную эпоху. API есть у множества разных продуктов, а порог входа в вайб-кодинг снижается с каждым месяцем. Не нужно быть Андреем Карпати, чтобы создать собственное приложение для фитнес-браслета, хитрую надстройку над банковским софтом и даже систему управления сельхозфермой.
Но есть и обратная сторона. Каким бы кривым не было официальное приложение, ответственность за его работу несет сама компания. Что-то пошло не так – обращаемся в поддержку или даже идем в суд. Когда приложение криво завайбкодили вы сами – то и отвечать вам. И хорошо, если оно будет просто моргать светом, а не заблокирует входную дверь или не выставит ночью отопление на максимум. И я молчу про дыры в безопасности – их в таком софте окажется больше.
Выходов вижу два. Во-первых, не забывать использовать ИИ для тестирования – хотя бы попросить ту же нейронку, с помощью которой вайбкодили, прогнать базовые тесты (llm их знают, просто надо отдельный промпт). Во-вторых, практически уверен, что со временем появятся приложения с “ИИ-слоем” – грубо говоря, профессиональный разработчик все еще отвечает за движок, а пользователь с помощью нейронки создает интерфейс, который нравится и подходит под его задачи. Интересно посмотреть, кто первый додумается до такой штуки.
Еще раз рекомендую канал Игоря Tips AI | IT & AI. Это один из каналов, которые я регулярно читаю на тему ИИ, беру оттуда не только свежие новости, но и интересные идеи. Про Claude Code у него, кстати, есть отдельный лонгрид с 50 примерами необычного использования.
Telegram
Tips AI | IT & AI
Про возможности Claude Code
Вчера у Андрея Карпаты вышел интересный пост — он решил посмотреть, сможет ли Claude Code залезть в его домашнюю автоматизацию Lutron.
CC нашёл контроллеры в локалке, просканировал порты, сам нагуглил документацию, объяснил…
Вчера у Андрея Карпаты вышел интересный пост — он решил посмотреть, сможет ли Claude Code залезть в его домашнюю автоматизацию Lutron.
CC нашёл контроллеры в локалке, просканировал порты, сам нагуглил документацию, объяснил…
👍34❤14🔥5😁2🥰1👏1
Пал Эрдёш, GPT-5.2 Pro и Aristotle
Пал Эрдёш (1913–1996) – легендарный венгерский математик, один из самых продуктивных в истории. Он посвятил всю жизнь математике и опубликовал более 1500 научных статей, а также оставил после себя список “задач Эрдёша” – проблем математики, за решение которых он был готов заплатить от 25 до 10 000 долларов.
Сегодня решением списка Эрдёша занимаются на сайте erdosproblems.com, где собрано 1133 задачи, из которых только 40% закрыты. Стоит отметить, что это не список всех главных задач математики, а скорее список проблем, которые волновали самого Пала. Задачи неоднородные по сложности, а также важности для науки.
На erdosproblems.com собралось совершенно уникальное коммьюнити. С одной стороны, решением проблем занимается Теренс Тао – живая легенда математики. С другой – в сообществе рады аспирантам, студентам и просто любителям. А с недавнего времени там активно экспериментируют с ИИ: задачи Эрдёша – идеальный способ оценить, справляются ли современные нейросети с серьезной наукой.
Первая попытка завершилась курьезом. Когда осенью нерешенные задачи Эрдёша скормили GPT-5 Pro та… неожиданно для всех нашла уже существовавшие решения для более десятка примеров. Это подсветило другую проблему современной науки: когда ежегодно публикуется около 3 млн научных статей, есть шанс, что какая-то работа просто затеряется.
Несколько раз системы вроде GPT-5 Pro, Google AlphaEvolve и Aristotle (про нее позже) подбирались к решению действительно открытых проблем, но в последний момент все обидно срывалось – были даже случаи, когда люди-математики обходили ИИ буквально на недели.
И вот – свершилось. 6 января стало известно, что связка GPT-5.2 Thinking, GPT-5.2 Pro и Aristotle решила задачу Эрдёша #728 – открытую проблему о делимости факториалов, поставленную в 1975 году. Студент-математик под ником AcerFur (KStarGamer_) и пользователь Reddit ThunderBeanage показали, что для любых констант 0 < C₁ < C₂ существует бесконечно много решений с b = n/2, a = n/2 + O(log n), что соответствует изначальному замыслу авторов задачи. Успешное решение подтвердил Теренс Тао.
Интересна организация работы. Сначала использовали более дешевую GPT-5.2 Thinking, которая исследовала задачу и предложила подход к решению. GPT-5.2 Pro далее генерировала идеи и оформила неформальное доказательство в LaTeX – на этом этапе модель совершила ошибки, но после того, как ей на них указали, все исправила.
Последним включился Aristotle. Это специальный математический ИИ, который переводит доказательства в Lean – фактически это “язык программирования” для математики, с помощью которого любое решение можно проверить компьютером на отсутствие ошибок.
Задача #728 считается “низковисящим фруктом” – она не очень сложна и не слишком важна для “большой” науки, поэтому профессиональные математики до нее просто не добрались. Но как написал Томас Блум из Манчестерского университета: “Это первый случай, когда AI сгенерировал доказательство, с которым аспирант мог бы прийти ко мне, и я бы сказал — это стоит опубликовать”.
И знаете, это ценно само по себе. В свежем видео физик и популяризатор науки Сабина Хоссенфельдер заявляет, что в ближайшие 3-10 лет ИИ изменит науку до неузнаваемости. Мнение Сабины в том, что “интеллект” просто станет ресурсом, который можно купить за деньги. Зачем руководителям научных лабораторий нанимать студентов и молодых ученых для "черновой" работы, если можно будет оплатить вычислительное время условной GPT-7 Pro?
Это важное предостережение, но отмечу, что задачу #728 с помощью ИИ решили не “руководители”, а студент-математик и просто любитель с Реддита. Раз за разом случается интересная история: пока нас пугают, что ИИ станет мега-оружием в руках корпораций, которые предпочтут его людям, практика показывает противоположение – совершенно обычные люди с помощью общедоступных моделей творят будущее.
Ждем GPT-5.5 Pro и новых открытий.
Пал Эрдёш (1913–1996) – легендарный венгерский математик, один из самых продуктивных в истории. Он посвятил всю жизнь математике и опубликовал более 1500 научных статей, а также оставил после себя список “задач Эрдёша” – проблем математики, за решение которых он был готов заплатить от 25 до 10 000 долларов.
Сегодня решением списка Эрдёша занимаются на сайте erdosproblems.com, где собрано 1133 задачи, из которых только 40% закрыты. Стоит отметить, что это не список всех главных задач математики, а скорее список проблем, которые волновали самого Пала. Задачи неоднородные по сложности, а также важности для науки.
На erdosproblems.com собралось совершенно уникальное коммьюнити. С одной стороны, решением проблем занимается Теренс Тао – живая легенда математики. С другой – в сообществе рады аспирантам, студентам и просто любителям. А с недавнего времени там активно экспериментируют с ИИ: задачи Эрдёша – идеальный способ оценить, справляются ли современные нейросети с серьезной наукой.
Первая попытка завершилась курьезом. Когда осенью нерешенные задачи Эрдёша скормили GPT-5 Pro та… неожиданно для всех нашла уже существовавшие решения для более десятка примеров. Это подсветило другую проблему современной науки: когда ежегодно публикуется около 3 млн научных статей, есть шанс, что какая-то работа просто затеряется.
Несколько раз системы вроде GPT-5 Pro, Google AlphaEvolve и Aristotle (про нее позже) подбирались к решению действительно открытых проблем, но в последний момент все обидно срывалось – были даже случаи, когда люди-математики обходили ИИ буквально на недели.
И вот – свершилось. 6 января стало известно, что связка GPT-5.2 Thinking, GPT-5.2 Pro и Aristotle решила задачу Эрдёша #728 – открытую проблему о делимости факториалов, поставленную в 1975 году. Студент-математик под ником AcerFur (KStarGamer_) и пользователь Reddit ThunderBeanage показали, что для любых констант 0 < C₁ < C₂ существует бесконечно много решений с b = n/2, a = n/2 + O(log n), что соответствует изначальному замыслу авторов задачи. Успешное решение подтвердил Теренс Тао.
Интересна организация работы. Сначала использовали более дешевую GPT-5.2 Thinking, которая исследовала задачу и предложила подход к решению. GPT-5.2 Pro далее генерировала идеи и оформила неформальное доказательство в LaTeX – на этом этапе модель совершила ошибки, но после того, как ей на них указали, все исправила.
Последним включился Aristotle. Это специальный математический ИИ, который переводит доказательства в Lean – фактически это “язык программирования” для математики, с помощью которого любое решение можно проверить компьютером на отсутствие ошибок.
Задача #728 считается “низковисящим фруктом” – она не очень сложна и не слишком важна для “большой” науки, поэтому профессиональные математики до нее просто не добрались. Но как написал Томас Блум из Манчестерского университета: “Это первый случай, когда AI сгенерировал доказательство, с которым аспирант мог бы прийти ко мне, и я бы сказал — это стоит опубликовать”.
И знаете, это ценно само по себе. В свежем видео физик и популяризатор науки Сабина Хоссенфельдер заявляет, что в ближайшие 3-10 лет ИИ изменит науку до неузнаваемости. Мнение Сабины в том, что “интеллект” просто станет ресурсом, который можно купить за деньги. Зачем руководителям научных лабораторий нанимать студентов и молодых ученых для "черновой" работы, если можно будет оплатить вычислительное время условной GPT-7 Pro?
Это важное предостережение, но отмечу, что задачу #728 с помощью ИИ решили не “руководители”, а студент-математик и просто любитель с Реддита. Раз за разом случается интересная история: пока нас пугают, что ИИ станет мега-оружием в руках корпораций, которые предпочтут его людям, практика показывает противоположение – совершенно обычные люди с помощью общедоступных моделей творят будущее.
Ждем GPT-5.5 Pro и новых открытий.
2🔥90👍42❤21👏13🥰3😁3
Как оплачивать популярные ИИ из России?
Часто пишут с таким вопросом, поэтому решил сделать отдельный пост. Но сразу отмечу – идеального способа платить из РФ нет. Везде свои риски, поэтому давайте договоримся: если выберете один из перечисленных далее – ответственность лежит на вас. Я для себя выработал простое правило: быть готовым к тому, что сумма, которую я потратил на ИИ, может “сгореть”. Хотя пока проносило.
Карта зарубежного банка
Вариант удобен тем, что платеж под вашим контролем: заводите аккаунт страны, в которой выпустили карту, вбиваете данные – и все. Остальное, увы, не так здорово. Хотя бы потому, что цены у посредников начинаются от 20 тысяч рублей за карты стран СНГ и Турции – разумно, если оплачиваете много подписок.
Чтобы минимизировать риск нарваться на мошенников, ищите компанию с большим количеством отзывов, которая давно ведет соцсети и блоги на крупных площадках. Есть небольшая вероятность, что что-то поменяется в законах страны выпуска карты или в правилах выпустившего банка – и вы останетесь без карточки.
Услуги посредников
Находим посредника, оплачиваем стоимость подписки и комиссию (примерно 10-25%), передаем аккаунт, он заходит на него и оплачивает. Как и в случае с оформлением карты, стоит искать посредника с активными соцсетями и блогами. А если пользуетесь маркет-площадкой – смотрите на количество отзывов и как долго работает. (один из подписчиков посоветовал МТС-оплату — как пропробую, расскажу)
Минус в необходимости передачи аккаунта ИИ третьему лицу. По логике риск небольшой: фирмы зарабатывают на посреднических услугах и любая утечка ударит по репутации. Но как выстроена работа, кто занимается оплатой, насколько высока надежность этих сотрудников – неизвестно, так что осторожнее.
Если решите воспользоваться способом, то поменяйте пароль на время оплаты, а также убедитесь, что не обсуждали с ИИ какие-то чувствительные темы (например, пароли и прочие доступы к другим своим аккаунтам).
Подарочные карты App Store
Муторный, но сравнительно безопасный способ. Сначала надо купить на посреднической площадке аккаунт App Store США. Вообще он обязателен любому пользователю iOS/MacOS, так как без него не скачать приложения большинства нейросетей – их в российском регионе просто нет.
Затем на тех же площадках покупаются подарочные карты США на нужный номинал и активируются на аккаунт. Когда система запросит платежный адрес – ищите на Google Maps отель во Флориде (в этом штате не платят налог при онлайн-платежах) и вбивайте его адрес. И платите со счета аккаунта.
Кстати, в российском App Store можно официально оплатить подписку Perplexity – платежи проходят с МТС и Билайна.
Кроилово и возможное попадалово
Теперь переходим к вариантам сэкономить и их рискам.
– Аккаунты ChatGPT Plus за 300 рублей и ChatGPT Pro за 2 000 рублей. В лучшем случае это официальная подписка, которую продадут параллельно нескольким десяткам пользователей. Работать, когда ваши запросы видны куче народа – то еще удовольствие.
– Годовые аккаунты Perplexity и Google AI Pro за 200-1000 рублей. В случае с Perplexity речь о промо-кодах, которые компания распространяла в ходе акций и которые теперь перепродают. Их в последнее время стали активно банить, так что не рекомендую. Дешевые Google AI Pro – это студенческие годовые подписки, которые Google раздает в разных странах в подарок. Так как их создают на подставные e-mail и сразу пачками, то риск попасть под бан тоже высок.
– Способ сэкономить с Google AI Pro – скинуться с друзьями, купить подписку и разделить ее в рамках семейного доступа. В семью можно добавить до шести аккаунтов, в таком случае подписка каждому обойдется в 3 с небольшим доллара.
– Иногда попадаются варианты Grok ценой примерно в 1000 рублей. Это оплата из региона Индии, там Грок в три раза дешевле. Минус – нужно передавать аккаунт третьему лицу.
Если знаете еще работающие варианты – кидайте в бота. И будьте осторожны при оплате!
Часто пишут с таким вопросом, поэтому решил сделать отдельный пост. Но сразу отмечу – идеального способа платить из РФ нет. Везде свои риски, поэтому давайте договоримся: если выберете один из перечисленных далее – ответственность лежит на вас. Я для себя выработал простое правило: быть готовым к тому, что сумма, которую я потратил на ИИ, может “сгореть”. Хотя пока проносило.
Карта зарубежного банка
Вариант удобен тем, что платеж под вашим контролем: заводите аккаунт страны, в которой выпустили карту, вбиваете данные – и все. Остальное, увы, не так здорово. Хотя бы потому, что цены у посредников начинаются от 20 тысяч рублей за карты стран СНГ и Турции – разумно, если оплачиваете много подписок.
Чтобы минимизировать риск нарваться на мошенников, ищите компанию с большим количеством отзывов, которая давно ведет соцсети и блоги на крупных площадках. Есть небольшая вероятность, что что-то поменяется в законах страны выпуска карты или в правилах выпустившего банка – и вы останетесь без карточки.
Услуги посредников
Находим посредника, оплачиваем стоимость подписки и комиссию (примерно 10-25%), передаем аккаунт, он заходит на него и оплачивает. Как и в случае с оформлением карты, стоит искать посредника с активными соцсетями и блогами. А если пользуетесь маркет-площадкой – смотрите на количество отзывов и как долго работает. (один из подписчиков посоветовал МТС-оплату — как пропробую, расскажу)
Минус в необходимости передачи аккаунта ИИ третьему лицу. По логике риск небольшой: фирмы зарабатывают на посреднических услугах и любая утечка ударит по репутации. Но как выстроена работа, кто занимается оплатой, насколько высока надежность этих сотрудников – неизвестно, так что осторожнее.
Если решите воспользоваться способом, то поменяйте пароль на время оплаты, а также убедитесь, что не обсуждали с ИИ какие-то чувствительные темы (например, пароли и прочие доступы к другим своим аккаунтам).
Подарочные карты App Store
Муторный, но сравнительно безопасный способ. Сначала надо купить на посреднической площадке аккаунт App Store США. Вообще он обязателен любому пользователю iOS/MacOS, так как без него не скачать приложения большинства нейросетей – их в российском регионе просто нет.
Затем на тех же площадках покупаются подарочные карты США на нужный номинал и активируются на аккаунт. Когда система запросит платежный адрес – ищите на Google Maps отель во Флориде (в этом штате не платят налог при онлайн-платежах) и вбивайте его адрес. И платите со счета аккаунта.
Кстати, в российском App Store можно официально оплатить подписку Perplexity – платежи проходят с МТС и Билайна.
Кроилово и возможное попадалово
Теперь переходим к вариантам сэкономить и их рискам.
– Аккаунты ChatGPT Plus за 300 рублей и ChatGPT Pro за 2 000 рублей. В лучшем случае это официальная подписка, которую продадут параллельно нескольким десяткам пользователей. Работать, когда ваши запросы видны куче народа – то еще удовольствие.
– Годовые аккаунты Perplexity и Google AI Pro за 200-1000 рублей. В случае с Perplexity речь о промо-кодах, которые компания распространяла в ходе акций и которые теперь перепродают. Их в последнее время стали активно банить, так что не рекомендую. Дешевые Google AI Pro – это студенческие годовые подписки, которые Google раздает в разных странах в подарок. Так как их создают на подставные e-mail и сразу пачками, то риск попасть под бан тоже высок.
– Способ сэкономить с Google AI Pro – скинуться с друзьями, купить подписку и разделить ее в рамках семейного доступа. В семью можно добавить до шести аккаунтов, в таком случае подписка каждому обойдется в 3 с небольшим доллара.
– Иногда попадаются варианты Grok ценой примерно в 1000 рублей. Это оплата из региона Индии, там Грок в три раза дешевле. Минус – нужно передавать аккаунт третьему лицу.
Если знаете еще работающие варианты – кидайте в бота. И будьте осторожны при оплате!
1🔥19❤12👍9😁4👏2