Про обучение
Для одного из других своих каналов я писал пост про то, как сложно сделать первые шаги в новой теме, когда ты не знаешь что гуглить, как гуглить, каким ресурсам можно доверять, а каких лучше посторониться. Так вот, если кратко, то вся суть поста сводилась к тому, что алгоритмы ютуба понимают тебя настолько хорошо, что по твоим поисковым запросам и просмотренным видео выстраивают тебе кривую обучения и тебе только и остаётся смотреть ролики, которые предлагает ютуб, чтобы разобраться в теме.
И это по-прежнему так, и я разобрался во многих топиках, которые мне не поддавались другим образом, либо на которые не было времени, через эксплуатацию алгоритмов ютуба, но 8 августа всё изменилось. Вышел GPT-5.
И мне не хватит пальцев на руках, чтобы пересчитать людей, с которыми я лично общался, которые не поняли, что в тот день произошла революция. Зато с запасом хватит пальцев, чтобы пересчитать людей, которые поняли, что произошло. И мне будет очень интересно разобрать эту тему в другом посте, но сейчас об обучении.
Незадолго до выхода GPT-5 в ChatGPT появилась функция «Study and Learn», которая по сути заменяет тебе учителя. Но в до-gpt-5 эре в ней было не так много пользы, так как все предудыщие модели сильно страдали от двух проблем: галлюцинаций и потери контекста. В GPT-5 эти проблемы не устранены, но над ними провели огромную работу над ошибками, в связи с чем GPT-5 значительно меньше галлюционирует и реально тебя слушает, а не додумывает.
Помимо этого GPT-5 может делать крутые интерактивные примеры, отвечает только по делу, и как я написал выше: реально помнит контекст, что крайне важно в вопросе обучения.
Вообще на написание этого поста меня подтолкнуло то, что я захотел закрыть свои пробелы в frontend-разработке, используя эту фичу и результат превзошёл все мои ожидания: GPT-5 задаёт действительно глубокие вопросы, создаёт крутые примеры и общается с тобой «на равных» как разработчик, с разработчиком, а не как нейросеть с пятилетним ребенком.
Очень советую попробовать эту фичу в той области знаний, которой вы хотели разобраться, но у вас не получилось с прежними методами. Ну, и конечно, пробуйте только на платной версии, так как на бесплатной ваши впечатления будут СИЛЬНО смазаны.
Для одного из других своих каналов я писал пост про то, как сложно сделать первые шаги в новой теме, когда ты не знаешь что гуглить, как гуглить, каким ресурсам можно доверять, а каких лучше посторониться. Так вот, если кратко, то вся суть поста сводилась к тому, что алгоритмы ютуба понимают тебя настолько хорошо, что по твоим поисковым запросам и просмотренным видео выстраивают тебе кривую обучения и тебе только и остаётся смотреть ролики, которые предлагает ютуб, чтобы разобраться в теме.
И это по-прежнему так, и я разобрался во многих топиках, которые мне не поддавались другим образом, либо на которые не было времени, через эксплуатацию алгоритмов ютуба, но 8 августа всё изменилось. Вышел GPT-5.
И мне не хватит пальцев на руках, чтобы пересчитать людей, с которыми я лично общался, которые не поняли, что в тот день произошла революция. Зато с запасом хватит пальцев, чтобы пересчитать людей, которые поняли, что произошло. И мне будет очень интересно разобрать эту тему в другом посте, но сейчас об обучении.
Незадолго до выхода GPT-5 в ChatGPT появилась функция «Study and Learn», которая по сути заменяет тебе учителя. Но в до-gpt-5 эре в ней было не так много пользы, так как все предудыщие модели сильно страдали от двух проблем: галлюцинаций и потери контекста. В GPT-5 эти проблемы не устранены, но над ними провели огромную работу над ошибками, в связи с чем GPT-5 значительно меньше галлюционирует и реально тебя слушает, а не додумывает.
Помимо этого GPT-5 может делать крутые интерактивные примеры, отвечает только по делу, и как я написал выше: реально помнит контекст, что крайне важно в вопросе обучения.
Вообще на написание этого поста меня подтолкнуло то, что я захотел закрыть свои пробелы в frontend-разработке, используя эту фичу и результат превзошёл все мои ожидания: GPT-5 задаёт действительно глубокие вопросы, создаёт крутые примеры и общается с тобой «на равных» как разработчик, с разработчиком, а не как нейросеть с пятилетним ребенком.
Очень советую попробовать эту фичу в той области знаний, которой вы хотели разобраться, но у вас не получилось с прежними методами. Ну, и конечно, пробуйте только на платной версии, так как на бесплатной ваши впечатления будут СИЛЬНО смазаны.
🔥2👏1💯1
Coinbase уволили всех айтишников, которые не освоили ИИ в работе. И это только начало. Моё предсказание такое, что в худшем случае программисты в привычном нам понимании перестанут существовать к 2027 году, а в лучшем к 2029 году.
Почему так? ИИ сильно ускоряет работу, чтобы там не показывали различные исследования от METR, MIT, VK и других контор.
Почему исследования показывают замедление в разработке? Во всех трёх исследованиях о которых я знаю, люди либо не умели проводить исследования, либо причиной было skill issue самих разработчиков. ИИ нельзя просто взять, сказать ему «построй дворец, такой как я задумал» и ожидать, что он сделает то, что вы его попросили — это просто не сработает, но если постепенно, шаг за шагом, рассказывать ИИ о том, что ты от него хочешь, местами исправляя его работу, то ты получишь результат значительно быстрее. Многие разработчики не хотят разбираться в новом инструменте, и я могу их понять, но те, кто не успеют адаптироваться в скором времени просто окажутся за бортом.
В будущем разработка сильно упростится, по сравнению с тем, что есть сейчас. Нам не придётся хранить в голове миллионы строк кода — ИИ точно ответит на любой вопрос по коду, а сам контекст проекта не будет раскидан на десятки, а то и сотни человек, что тоже упростит разработку за счёт того, что один человек будет понимать гораздо большую часть проекта, чем сейчас, с другой стороны повысится bus-фактор. Но вероятно ИИ также поможет нам и с этим, за счёт того, что будет генерировать интерактивные курсы к проектам.
В любом случае прямо сейчас ясно одно: всем, кто не адаптируется к новым реалиям, в новом мире, уже совсем скоро, не будет места.
Почему так? ИИ сильно ускоряет работу, чтобы там не показывали различные исследования от METR, MIT, VK и других контор.
Почему исследования показывают замедление в разработке? Во всех трёх исследованиях о которых я знаю, люди либо не умели проводить исследования, либо причиной было skill issue самих разработчиков. ИИ нельзя просто взять, сказать ему «построй дворец, такой как я задумал» и ожидать, что он сделает то, что вы его попросили — это просто не сработает, но если постепенно, шаг за шагом, рассказывать ИИ о том, что ты от него хочешь, местами исправляя его работу, то ты получишь результат значительно быстрее. Многие разработчики не хотят разбираться в новом инструменте, и я могу их понять, но те, кто не успеют адаптироваться в скором времени просто окажутся за бортом.
В будущем разработка сильно упростится, по сравнению с тем, что есть сейчас. Нам не придётся хранить в голове миллионы строк кода — ИИ точно ответит на любой вопрос по коду, а сам контекст проекта не будет раскидан на десятки, а то и сотни человек, что тоже упростит разработку за счёт того, что один человек будет понимать гораздо большую часть проекта, чем сейчас, с другой стороны повысится bus-фактор. Но вероятно ИИ также поможет нам и с этим, за счёт того, что будет генерировать интерактивные курсы к проектам.
В любом случае прямо сейчас ясно одно: всем, кто не адаптируется к новым реалиям, в новом мире, уже совсем скоро, не будет места.
💯2🤯1👨💻1
Forwarded from NN
Coinbase уволили всех айтишников за отказ от нейронок. Под раздачу попали все, кому не хватило пары дней на освоение Cursor или GitHub Copilot.
Заявил CEO Брайан Армстронг. А потом уволил всех, кто к моменту встречи не был в отпуске и не успел освоить ИИ-агентов.
К концу сентября Coinbase хотят скинуть на ИИ написание 50% кода — это почти весь фронтенд. Главное, чтобы к тому моменту в компании остались айтишники-люди.
В субботу я встречусь со всеми, кто этого не сделал. Я хочу понять мотивы
Заявил CEO Брайан Армстронг. А потом уволил всех, кто к моменту встречи не был в отпуске и не успел освоить ИИ-агентов.
К концу сентября Coinbase хотят скинуть на ИИ написание 50% кода — это почти весь фронтенд. Главное, чтобы к тому моменту в компании остались айтишники-люди.
Инструмент улучшающий промпты по клику!
Думаю, что все мы время от времени ленимся написать корректный, красивый, полноценный промпт, потому что во-первых это занимает много времени, а во-вторых, что важнее, написание комплексного промпта заставляет наши мозговые мюсли двигаться, чего мы как вид стараемся избегать всеми силами.
PrettyPrompt решает эту задачу. Он не единственный в своём роде, но самый удобный точно.
🤔 Что?
Это браузерное расширение, улучшающее ваш промпт прямо в интерфейсе ChatGPT, Claude или Gemini по одному клику.
🧠 Как?
У расширения есть два режима:
1. Improve: одной кнопкой улучшает ваш промпт и рассказывает что сделал;
2. Refine: задаёт вопросы по вашему промпту, внося изменения в соответствии с вашими ответами.
💵 Почём?
Пять промптов в день можно улучшить бесплатно, а за безлимтное улучшение просят $12 в месяц... Что само собой дофига, но если вы общаетесь с LLM лишь время от времени, то это отличный вариант!
Из hassle-free решений могу ещё порекомендовать платформу от OpenAI. Она полностью бесплатная, но не такая удобная и быстрая, а также нацелена исключительно на решение задач разработки.
Думаю, что все мы время от времени ленимся написать корректный, красивый, полноценный промпт, потому что во-первых это занимает много времени, а во-вторых, что важнее, написание комплексного промпта заставляет наши мозговые мюсли двигаться, чего мы как вид стараемся избегать всеми силами.
PrettyPrompt решает эту задачу. Он не единственный в своём роде, но самый удобный точно.
🤔 Что?
Это браузерное расширение, улучшающее ваш промпт прямо в интерфейсе ChatGPT, Claude или Gemini по одному клику.
🧠 Как?
У расширения есть два режима:
1. Improve: одной кнопкой улучшает ваш промпт и рассказывает что сделал;
2. Refine: задаёт вопросы по вашему промпту, внося изменения в соответствии с вашими ответами.
💵 Почём?
Пять промптов в день можно улучшить бесплатно, а за безлимтное улучшение просят $12 в месяц... Что само собой дофига, но если вы общаетесь с LLM лишь время от времени, то это отличный вариант!
Из hassle-free решений могу ещё порекомендовать платформу от OpenAI. Она полностью бесплатная, но не такая удобная и быстрая, а также нацелена исключительно на решение задач разработки.
🔥2❤1👏1
💫 Подборка сервисов и инструментов на случай, если вы хотите собрать небольшое приложение, прототип или полноценный звездолёт
🐣 База
Google Opal подойдёт, если вы хотите собрать что-то очень простенькое, но при этом то, чем вы сможете управлять. Сервис по сути представляет собой гибрид Lovable (создаёт сайт) и n8n (создаёт строительные no-code блоки, через которые реализуется логика).
Прямо сейчас он полностью бесплатный, но нужен американский VPN.
🚧 Прототип
Lovable уже не превратит вашу логику в no-code блоки, но полноценный код, который вы потом можете перенести к себе в проект на Github и даже привязать к нему базу данных и бэкенд прямо в интерфейсе сайта очень даже напишет. Отлично подходит для того, чтобы сделать прототип, либо даже полноценный инструмент без участия разработчиков.
В день дают 5 бесплатных кредитов, а за $25 в месяц можно получить ещё 100 сверху тех 5, что выдают ежедневно.
👹 Хардкор
Shotgun Code не опубликует сайт за вас по клику кнопки, не привяжет базу данных без промпта и не сгенерирует no-code блоки. Это уже полноценный инструмент для разработчиков, которые в душе чувствуют себя архитекторами. Под капотом крутится сеть агентов, которые анализируют контекст твоего проекта, затем на основе твоего запроса продумывают архитектуру и план, пишут код, проходят несколько циклов код-ревью и выдают вам результат. Грубо говоря, это Cursor на максималках с контекстом вашего проекта.
Open-source версия бесплатная. Автор плотно работает над выпуском улучшенной платной версии, ожидаем её в ближайшие пару недель.
🐣 База
Google Opal подойдёт, если вы хотите собрать что-то очень простенькое, но при этом то, чем вы сможете управлять. Сервис по сути представляет собой гибрид Lovable (создаёт сайт) и n8n (создаёт строительные no-code блоки, через которые реализуется логика).
Прямо сейчас он полностью бесплатный, но нужен американский VPN.
🚧 Прототип
Lovable уже не превратит вашу логику в no-code блоки, но полноценный код, который вы потом можете перенести к себе в проект на Github и даже привязать к нему базу данных и бэкенд прямо в интерфейсе сайта очень даже напишет. Отлично подходит для того, чтобы сделать прототип, либо даже полноценный инструмент без участия разработчиков.
В день дают 5 бесплатных кредитов, а за $25 в месяц можно получить ещё 100 сверху тех 5, что выдают ежедневно.
👹 Хардкор
Shotgun Code не опубликует сайт за вас по клику кнопки, не привяжет базу данных без промпта и не сгенерирует no-code блоки. Это уже полноценный инструмент для разработчиков, которые в душе чувствуют себя архитекторами. Под капотом крутится сеть агентов, которые анализируют контекст твоего проекта, затем на основе твоего запроса продумывают архитектуру и план, пишут код, проходят несколько циклов код-ревью и выдают вам результат. Грубо говоря, это Cursor на максималках с контекстом вашего проекта.
Open-source версия бесплатная. Автор плотно работает над выпуском улучшенной платной версии, ожидаем её в ближайшие пару недель.
❤🔥1👍1🔥1👏1
Как хакатон поменял мой взгляд на продуктовую разработку
С 4 по 5-е сентября у нас в Додо проходил хакатон. По сути, это такое соревнование, в котором вы меряетесьписьками продуктами, которые создали с нуля за отведенный промежуток времени.
Наш хакатон длился 24 часа... в ленивые дни за такой промежуток времени я успеваю написать небольшой компонент, а в очень продуктивный день я сверстаю целую страницу, либо проведу основательный рефакторинг. По меркам индустрии это считается крутой скоростью, и меня часто хвалят за то, как быстро я работаю, но, как я выяснил на хакатоне, — это медленно, а я сломан продуктовой разработкой.
Моя сверстанная страница за "продуктивный" день работы на хакатоне никого не удивит, потому что другие команды за это время успеют построить звездолёт. Ребята, у которых нет опыта в разработке и которым ты сам же поставил задачу несколько часов назад...
Давайте же разберемся, почему так произошло. Во время хакатона я старался сделать не MVP, а продукт. Ключевое различие между ними в том, что первое ты делаешь, чтобы проверить теорию, а второе — чтобы им пользовались люди. На хакатоне никто не ждёт от тебя, что ты сделаешь продукт, от тебя ждут MVP. И в этом смысле продуктовая разработка меня сломала: я уже не могу «бац-бац и в продакшен», что-то навайбкодить, вообще не смотреть на то, что получилось, и просить AI исправить что-то за меня, не трогая код ручками.
Я знаю, насколько сложно поддерживать спагетти-код.
Я знаю, насколько сложно добавлять в него фичи.
Я знаю, что по мере роста кодовой базы, проект может стать неподдерживаемым.
Ребята в моей команде не знали.
И буквально произошла история: «я не знал, что так нельзя, поэтому сделал это».
Так получилось, что мы параллельно писали два приложения: одно — я, другое — Саша, которая никогда не писала код.
И к тому времени, когда у меня было готово относительно красивое приложение только с базовым функционалом, в котором я продумал UX и к которому я планировал прикрутить ещё пару базовых фичей...
...у Саши уже был готов звездолёт: приложение со всеми фичами, которые мы обсуждали (даже с теми, что не собирались реализовывать в связи с жёстким дедлайном), с прикрученным бекендом, с интересным визуалом, с авторизацией, с интеграцией AI в двух разных частях приложения!!! Вау!
Не буду скрывать. Когда я это увидел, у меня отвисла челюсть. В последний раз я был так сильно удивлён, когда вышла GPT-5. На короткий период я даже словил приступ синдрома самозванца — настолько увиденное было круто!
Когда Саша скинула мне ссылку на репозиторий, я тоже был сильно удивлён, но уже тем, что там было жуткое спаггети, в котором ориентироваться мог только ранее упомянутый GPT-5.
И в этот момент меня осенило во второй раз: я слишком сильно зациклился на реализации, пытался довести код до совершенства там, где это вообще не требовалось. Я, как и 100% разработчиков, попал в «ловушку хорошей реализации» и забыл прикладную истину: «всем похер чо под капотом, покуда едет». Честно говоря, я думал, что уже давно не страдаю этим и могу легко смещать фокус с качества на скорость там, где это требуется, но когда я увидел, что в проекте Саши буквально каждый файл был красным от ошибок, а без AI в нём невозможно было ориентироваться (хотя AI на удивление хорошо понимал проект и то, что я просил его сделать), и что при этом всё прекрасно работало, выдавало требуемый результат и всё это происходило без ошибок для пользователей. В этот момент я пересмотрел свою картину мира, и задумался о том, как я могу использовать себе на пользу.
В общем, хакатон реально приоткрыл мне глаза и мне самому не терпится узнать, во что это выльется в будущем!
Спасибо моей команде и ребятам из IT-бренда за организацию этой движухи ❤️
С 4 по 5-е сентября у нас в Додо проходил хакатон. По сути, это такое соревнование, в котором вы меряетесь
Наш хакатон длился 24 часа... в ленивые дни за такой промежуток времени я успеваю написать небольшой компонент, а в очень продуктивный день я сверстаю целую страницу, либо проведу основательный рефакторинг. По меркам индустрии это считается крутой скоростью, и меня часто хвалят за то, как быстро я работаю, но, как я выяснил на хакатоне, — это медленно, а я сломан продуктовой разработкой.
Моя сверстанная страница за "продуктивный" день работы на хакатоне никого не удивит, потому что другие команды за это время успеют построить звездолёт. Ребята, у которых нет опыта в разработке и которым ты сам же поставил задачу несколько часов назад...
Давайте же разберемся, почему так произошло. Во время хакатона я старался сделать не MVP, а продукт. Ключевое различие между ними в том, что первое ты делаешь, чтобы проверить теорию, а второе — чтобы им пользовались люди. На хакатоне никто не ждёт от тебя, что ты сделаешь продукт, от тебя ждут MVP. И в этом смысле продуктовая разработка меня сломала: я уже не могу «бац-бац и в продакшен», что-то навайбкодить, вообще не смотреть на то, что получилось, и просить AI исправить что-то за меня, не трогая код ручками.
Я знаю, насколько сложно поддерживать спагетти-код.
Я знаю, насколько сложно добавлять в него фичи.
Я знаю, что по мере роста кодовой базы, проект может стать неподдерживаемым.
Ребята в моей команде не знали.
И буквально произошла история: «я не знал, что так нельзя, поэтому сделал это».
Так получилось, что мы параллельно писали два приложения: одно — я, другое — Саша, которая никогда не писала код.
И к тому времени, когда у меня было готово относительно красивое приложение только с базовым функционалом, в котором я продумал UX и к которому я планировал прикрутить ещё пару базовых фичей...
...у Саши уже был готов звездолёт: приложение со всеми фичами, которые мы обсуждали (даже с теми, что не собирались реализовывать в связи с жёстким дедлайном), с прикрученным бекендом, с интересным визуалом, с авторизацией, с интеграцией AI в двух разных частях приложения!!! Вау!
Не буду скрывать. Когда я это увидел, у меня отвисла челюсть. В последний раз я был так сильно удивлён, когда вышла GPT-5. На короткий период я даже словил приступ синдрома самозванца — настолько увиденное было круто!
Когда Саша скинула мне ссылку на репозиторий, я тоже был сильно удивлён, но уже тем, что там было жуткое спаггети, в котором ориентироваться мог только ранее упомянутый GPT-5.
И в этот момент меня осенило во второй раз: я слишком сильно зациклился на реализации, пытался довести код до совершенства там, где это вообще не требовалось. Я, как и 100% разработчиков, попал в «ловушку хорошей реализации» и забыл прикладную истину: «всем похер чо под капотом, покуда едет». Честно говоря, я думал, что уже давно не страдаю этим и могу легко смещать фокус с качества на скорость там, где это требуется, но когда я увидел, что в проекте Саши буквально каждый файл был красным от ошибок, а без AI в нём невозможно было ориентироваться (хотя AI на удивление хорошо понимал проект и то, что я просил его сделать), и что при этом всё прекрасно работало, выдавало требуемый результат и всё это происходило без ошибок для пользователей. В этот момент я пересмотрел свою картину мира, и задумался о том, как я могу использовать себе на пользу.
В общем, хакатон реально приоткрыл мне глаза и мне самому не терпится узнать, во что это выльется в будущем!
Спасибо моей команде и ребятам из IT-бренда за организацию этой движухи ❤️
❤🔥5👍5🔥2
Вышло продолжение одного из самых интересных сериалов про AI!
Если не смотрели «прошлые серии» — ничего страшного, можете начать прямо здесь, автор кратко пересказывает что происходило в «сериале» последние несколько лет.
Если коротко, то это видеоэссе о том, как человек обучает AI побеждать других человеков в старой гоночной игре. Не звучит захватывающе, да? Я тоже так думал два года назад, когда мне его порекомендовали, но всё-таки решил дать ему шанс и это стало толчком к более глубокому погружению в AI — настолько оно мне понравилось! Это же видео ещё лучше))
Кстати, интересно наблюдать как навыки сторителлинга автора развиваются, хоть он и выпускает видео всего раз в полгода.
Если не смотрели «прошлые серии» — ничего страшного, можете начать прямо здесь, автор кратко пересказывает что происходило в «сериале» последние несколько лет.
Если коротко, то это видеоэссе о том, как человек обучает AI побеждать других человеков в старой гоночной игре. Не звучит захватывающе, да? Я тоже так думал два года назад, когда мне его порекомендовали, но всё-таки решил дать ему шанс и это стало толчком к более глубокому погружению в AI — настолько оно мне понравилось! Это же видео ещё лучше))
Кстати, интересно наблюдать как навыки сторителлинга автора развиваются, хоть он и выпускает видео всего раз в полгода.
YouTube
AI just Broke Trackmania's Greatest Record
I trained an AI in Trackmania with reinforcement learning, to beat A01’s World Record.
Note: As mentioned at the end of the video, Eddie’s 23.79 record was beaten a few weeks ago by Rollin with a 23.78. But as you’ll see, this doesn’t change the outcome…
Note: As mentioned at the end of the video, Eddie’s 23.79 record was beaten a few weeks ago by Rollin with a 23.78. But as you’ll see, this doesn’t change the outcome…
❤1👍1🔥1
История о том, как НЕ стоит делать свои продукты
Всего пару постов назад я делился расширением PrettyPrompt, которое позволяет улучшать промпты по клику. И казалось бы: ну, поделился и поделился, чё бухтеть тут. И бухтеть было бы не о чем, если бы ребята, которые создают это расширение не были бы мамкиными стартаперами. Я думаю, что это было понятно уже из того факта, что они за своё расширение просят $12. Но как оказалось, это только вершина айсберга...
Почему я изначально поделился этим расширением?
Да, потому что оно тупо удобное! Я прекрасно знаю, что тоже самое можно сделать в любой LLM, но... я просто ленивый, а это расширение просто удобное — у нас произошел мэтч!
Собственно, поэтому я оформил 3-х дневную пробную подписку на PrettyPrompt с неограниченным количеством улучшений промптов. Всё шло классно: промпты улучшались, задачи решались.
Правда, позже оказалось, что ребята прикрутили Stripe, сделали лендинг, сделали пространство в Slack с десятком каналов и модерацией, записали видосики на YouTube, интегрировали расширение прямо в интерфейс популярных LLM, да и ещё кучу всего «полезного», но как-то забыли о кнопке «отписаться»...
И когда с меня списали $12 прекрасным субботним утром мой гнев было не остановить. Я тут же написал ребятам на почту о том, какие они «молодцы», что забыли добавить эту кнопку, а также оставил им гневный комментарий в магазине расширений.
Не прошло и трёх минут, как на моей карте снова оказались родные $12, на почте был ответ, а в магазине приложений был произведён дэмэдж-контрол с упоминанием того, что всё уже решено, а отписаться можно написав им на почту. Отдаю должное — отвечают ребята супер-быстро.
Ну, я не гордый, извинился за то, что вспылил, удалил гневный отзыв с магазина расширений и даже предложил поболтать в формате интервью с CEO этой доморощенной компашки. И помимо этого напрямую сказал, что их продукт слишком дорогой, и что я был бы не против купить подписку за $5 в месяц.
В своём ответном письме CEO мне сказал, что готов пообщаться и будет рад предоставить мне промокод на скидку 25% на 6 месяцев.
Стоп. Что? ПРОМОКОД?! Ещё раз: у вас нет кнопки отписаться, но вы реализовали даже промокоды?!
Здесь я уже не выдержал и пошёл писать своё расширение, идентичное по функционалу PrettyPrompt.
Так чуть меньше чем за два дня и $10.60 (которые пошли на комиссию Chrome Web Store и оплату OpenAI API) появилась Looma ✨.
Looma решает ту же задачу, что и PrettyPrompt, но использует для этого более продвинутую модель — gpt-5-mini, а также абсолютна бесплатна!
Кстати, думаю вам интересно сколько запросов могут проглотить $12, которые авторы PrettyPrompt просят за свой сервис. Так вот, за эти деньги можно сделать 12 000 обращений к gpt-5-mini. Это просто безумное число запросов, которое почти нереально потратить за месяц...
И даже при всём при этом ребята под капотом используют какую-то дешевую модель без thinking. Выводы делайте сами)
А Looma доступна для установки прямо сейчас! 😉
Всего пару постов назад я делился расширением PrettyPrompt, которое позволяет улучшать промпты по клику. И казалось бы: ну, поделился и поделился, чё бухтеть тут. И бухтеть было бы не о чем, если бы ребята, которые создают это расширение не были бы мамкиными стартаперами. Я думаю, что это было понятно уже из того факта, что они за своё расширение просят $12. Но как оказалось, это только вершина айсберга...
Почему я изначально поделился этим расширением?
Да, потому что оно тупо удобное! Я прекрасно знаю, что тоже самое можно сделать в любой LLM, но... я просто ленивый, а это расширение просто удобное — у нас произошел мэтч!
Собственно, поэтому я оформил 3-х дневную пробную подписку на PrettyPrompt с неограниченным количеством улучшений промптов. Всё шло классно: промпты улучшались, задачи решались.
Правда, позже оказалось, что ребята прикрутили Stripe, сделали лендинг, сделали пространство в Slack с десятком каналов и модерацией, записали видосики на YouTube, интегрировали расширение прямо в интерфейс популярных LLM, да и ещё кучу всего «полезного», но как-то забыли о кнопке «отписаться»...
И когда с меня списали $12 прекрасным субботним утром мой гнев было не остановить. Я тут же написал ребятам на почту о том, какие они «молодцы», что забыли добавить эту кнопку, а также оставил им гневный комментарий в магазине расширений.
Не прошло и трёх минут, как на моей карте снова оказались родные $12, на почте был ответ, а в магазине приложений был произведён дэмэдж-контрол с упоминанием того, что всё уже решено, а отписаться можно написав им на почту. Отдаю должное — отвечают ребята супер-быстро.
Ну, я не гордый, извинился за то, что вспылил, удалил гневный отзыв с магазина расширений и даже предложил поболтать в формате интервью с CEO этой доморощенной компашки. И помимо этого напрямую сказал, что их продукт слишком дорогой, и что я был бы не против купить подписку за $5 в месяц.
В своём ответном письме CEO мне сказал, что готов пообщаться и будет рад предоставить мне промокод на скидку 25% на 6 месяцев.
Стоп. Что? ПРОМОКОД?! Ещё раз: у вас нет кнопки отписаться, но вы реализовали даже промокоды?!
Здесь я уже не выдержал и пошёл писать своё расширение, идентичное по функционалу PrettyPrompt.
Так чуть меньше чем за два дня и $10.60 (которые пошли на комиссию Chrome Web Store и оплату OpenAI API) появилась Looma ✨.
Looma решает ту же задачу, что и PrettyPrompt, но использует для этого более продвинутую модель — gpt-5-mini, а также абсолютна бесплатна!
Кстати, думаю вам интересно сколько запросов могут проглотить $12, которые авторы PrettyPrompt просят за свой сервис. Так вот, за эти деньги можно сделать 12 000 обращений к gpt-5-mini. Это просто безумное число запросов, которое почти нереально потратить за месяц...
И даже при всём при этом ребята под капотом используют какую-то дешевую модель без thinking. Выводы делайте сами)
А Looma доступна для установки прямо сейчас! 😉
🔥4❤2👏1
Никогда не думал, что напишу что-то подобное... но попробуйте новый Grok 4 Fast!
Эта модель по сути GPT-5 на спидах. И это огромный комплимент для любой модели, но для Grok... это даже не комплимент, а просто что-то невообразимое.
Кто ещё полтора месяца назад, когда вышла GPT-5, мог подумать, что именно xAI сделают следующий прорыв в этой области, по сути выпустив скоростную и очень дешевую GPT-5? Точно не я. Тем не менее имеем, что имеем.
Модель прямо сейчас доступна на официальном сайте, а также во всех AI IDE под именем code-supernova. Модель настолько дешевая, что по сути бесплатная, а в AI IDE прямо сейчас, ограниченное время, реально бесплатная.
И всё-таки немного оговорюсь:
— Модель почти такая же умная как GPT-5, но учитывая насколько она быстрая и дешевая, этот небольшой разрыв в интеллекте с лихвой окупается;
— Также нигде не подтверждено, что code-supernova это именно Grok 4 Fast, но по совокупности факторов я на 99% уверен, что это она.
Эта модель по сути GPT-5 на спидах. И это огромный комплимент для любой модели, но для Grok... это даже не комплимент, а просто что-то невообразимое.
Кто ещё полтора месяца назад, когда вышла GPT-5, мог подумать, что именно xAI сделают следующий прорыв в этой области, по сути выпустив скоростную и очень дешевую GPT-5? Точно не я. Тем не менее имеем, что имеем.
Модель прямо сейчас доступна на официальном сайте, а также во всех AI IDE под именем code-supernova. Модель настолько дешевая, что по сути бесплатная, а в AI IDE прямо сейчас, ограниченное время, реально бесплатная.
И всё-таки немного оговорюсь:
— Модель почти такая же умная как GPT-5, но учитывая насколько она быстрая и дешевая, этот небольшой разрыв в интеллекте с лихвой окупается;
— Также нигде не подтверждено, что code-supernova это именно Grok 4 Fast, но по совокупности факторов я на 99% уверен, что это она.
❤2🔥2👏1
Две проблемы с Grok 4 Fast
Прежде всего, модель действительно топовая, но GPT-5 меняиспортил приучил к хорошему, поэтому о проблемах Grok 4 Fast
1. Модель любит делать то, что ты её не просишь.
GPT-5 это как твой личный помощник, который внимает каждому твоему слову, нежно записывает это всё в «тетрадочку», а потом слово в слово следует твоим указаниям, помня что ты его попросил (ведь всё записано в тетрадочке, всегда есть куда подсмотреть).
Grok 4 Fast в этом плане обычная модель. Такая же как и все остальные, типа Claude 4.1 Opus или Gemini 2.5 Pro. Его можно сравнить с помощником-стажером: он тебя послушает, но потом сделает немного по-своему. Заказал латте на кокосовом? Он принесёт тебе латте на кокосовом с веточкой ванили. Разница особенно заметна, когда ты просишь его сделать большие изменения. С другой стороны, в этих изменениях зачастую он не делает ничего плохого, частенько даже полезное, но, когда ты хочешь свой латте на кокосовом, эта веточка ванили может не входить в твои планы.
2. Модель не даёт информацию о размышлениях
Да, и если честно, то вообще никакую информацию о промежуточных шагах, только саммари в конце, поэтому не понятно а в каком направлении сейчас вообще идёт работа, сложно отловить когда нужно вернуть её обратно на рельсы. Вероятно, это эффект стелс-модели и на полноценном релизе она будет делиться размышлениями, но пока как есть.
В противовес GPT-5 даёт тебе, наверное, слишком много информации о размышлениях, но лучше так, чем совсем ничего.
При этом модель всё ещё огонь! Токены генерирует как бешенная. За три дня, что я её использую она сожгла токенов больше, чем GPT-5 за 3 недели использования.
Удивительно, но плохие стороны модели значительно меньше заметны, учитывая насколько быстро она работает.
Плохой ответ? Да, пофиг. Дополнил контекст, закинул новый запрос, через минуту получил новый ответ.
В то время как с GPT-5 ты пишешь в параллель несколько запросов, потому что пока выполняется один, ты можешь сделать второй, написать код для решения третьей задачи самостоятельно и ещё попить кофе с друзьями. Тем не менее GPT-5 всё ещё огромный прорыв, пускай и медленный.
Прежде всего, модель действительно топовая, но GPT-5 меня
1. Модель любит делать то, что ты её не просишь.
GPT-5 это как твой личный помощник, который внимает каждому твоему слову, нежно записывает это всё в «тетрадочку», а потом слово в слово следует твоим указаниям, помня что ты его попросил (ведь всё записано в тетрадочке, всегда есть куда подсмотреть).
Grok 4 Fast в этом плане обычная модель. Такая же как и все остальные, типа Claude 4.1 Opus или Gemini 2.5 Pro. Его можно сравнить с помощником-стажером: он тебя послушает, но потом сделает немного по-своему. Заказал латте на кокосовом? Он принесёт тебе латте на кокосовом с веточкой ванили. Разница особенно заметна, когда ты просишь его сделать большие изменения. С другой стороны, в этих изменениях зачастую он не делает ничего плохого, частенько даже полезное, но, когда ты хочешь свой латте на кокосовом, эта веточка ванили может не входить в твои планы.
2. Модель не даёт информацию о размышлениях
Да, и если честно, то вообще никакую информацию о промежуточных шагах, только саммари в конце, поэтому не понятно а в каком направлении сейчас вообще идёт работа, сложно отловить когда нужно вернуть её обратно на рельсы. Вероятно, это эффект стелс-модели и на полноценном релизе она будет делиться размышлениями, но пока как есть.
В противовес GPT-5 даёт тебе, наверное, слишком много информации о размышлениях, но лучше так, чем совсем ничего.
При этом модель всё ещё огонь! Токены генерирует как бешенная. За три дня, что я её использую она сожгла токенов больше, чем GPT-5 за 3 недели использования.
Удивительно, но плохие стороны модели значительно меньше заметны, учитывая насколько быстро она работает.
Плохой ответ? Да, пофиг. Дополнил контекст, закинул новый запрос, через минуту получил новый ответ.
В то время как с GPT-5 ты пишешь в параллель несколько запросов, потому что пока выполняется один, ты можешь сделать второй, написать код для решения третьей задачи самостоятельно и ещё попить кофе с друзьями. Тем не менее GPT-5 всё ещё огромный прорыв, пускай и медленный.
🔥4❤2👍1
Использование AI замедляет разработку
Я недоумеваю каждый раз, когда слышу этот тейк. В этот четверг на нашем внутреннем митапе в Додо, во время обсуждения доклада, я в очередной раз услышал эту мысль — от тех же людей и с той же аргументацией, что и раньше. И если раньше я пытался «бороться» с этим, показать им красоту и эффективность такого подхода, то сейчас я уже просто принял это.
Сначала я искренне полагал, что дело в тулах — типа технологии ещё не настолько продвинуты, чтобы угодить запросам некоторых людей. И я их прекрасно понимал, пока state-of-the-art моделями были дорогие и непослушные Claude.
Правда, после выхода GPT-5 ничего не поменялось: те, кто успешно применял AI в разработке, продолжили применять его, а те, кто не использовал — продолжили бухтеть, только теперь уже на GPT-5.
Почему так? Почему одни трубят о том, что AI-assisted разработка ускоряет их, а другие либо утверждают, что с таким подходом невозможно решить ни одну задачу, либо говорят, что код на выходе неподдерживаемый, либо же ссылаются на «те самые исследования», в которых говорится, что подобная разработка на самом деле снижает производительность разработчиков?
Лично я пришёл к выводу, что это просто skill issue конкретных людей. Если даже Линус Торвальдс согласен принимать код, сгенерированный AI, то оправдания насчёт качества такого кода кажутся мне абсолютно неуместными (и нет, это не значит, что любой сгенерированный код можно не глядя пушить в прод). А что касается «тех самых исследований» — у меня ещё запланирован большой пост на эту тему. А если бы AI действительно не был способен решать задачи, мы бы с вами вообще не собрались здесь.
Причём я считаю, что самое важное преимущество использования AI — это даже не усиление уже имеющихся навыков, а то, что он позволяет тебе стать:
немного девопсом,
немного бэкендером,
немного фронтендером,
немного дизайнером,
немного менеджером,
немного (подставь своё).
Мне сложно даже перечислить, сколько улучшений AI принёс в мой Developer Experience: позволил локально запускать E2E-тесты, помог перевезти легаси-фронтенд написанный Angular (с которым я знаком только благодаря поддержке этого самого проекта) на современный стек (речь об обновлении 50+ зависимостей, некоторые из которых перестали существовать, пока проект не поддерживали, и семи мажорных версий Angular), а также улучшить имеющиеся и создать новые GitHub-джобы.
И ни одно из этих улучшений не было бы возможно, если бы я занимался ими самостоятельно. Одни — потому что я не знал, как это сделать, а обучение заняло бы кучу времени. Другие — потому что они просто требовали бы слишком много времени на реализацию. В продуктовой разработке зачастую просто не хватает ресурсов, чтобы закрывать такие задачи (хотя менее важными они от этого не становятся).
Если подводить итог:
1. Да, использовать AI нужно уметь. Это полноценный отдельный скилл, и качество ответов напрямую зависит от уровня вашего понимания LLM.
2. Да, со временем ситуация будет улучшаться: LLM будут становиться умнее, а значит — будут выдавать более толковые ответы, вне зависимости от вашего уровня владения LLM. Но есть проблемы, которые в ближайшее время решены не будут, и главная из них — проблема контекста (речь как об обогащении запроса контекстом, так и о размере контекстного окна, а также о росте количества галлюцинаций с увеличением контекста в рамках чата).
Проблемы работы с контекстом сейчас полностью лежат на пользователе. И умение работать с контекстом — это базовый минимум, которому нужно обучиться, чтобы успешно использовать AI для решения своих задач.
Я недоумеваю каждый раз, когда слышу этот тейк. В этот четверг на нашем внутреннем митапе в Додо, во время обсуждения доклада, я в очередной раз услышал эту мысль — от тех же людей и с той же аргументацией, что и раньше. И если раньше я пытался «бороться» с этим, показать им красоту и эффективность такого подхода, то сейчас я уже просто принял это.
Сначала я искренне полагал, что дело в тулах — типа технологии ещё не настолько продвинуты, чтобы угодить запросам некоторых людей. И я их прекрасно понимал, пока state-of-the-art моделями были дорогие и непослушные Claude.
Правда, после выхода GPT-5 ничего не поменялось: те, кто успешно применял AI в разработке, продолжили применять его, а те, кто не использовал — продолжили бухтеть, только теперь уже на GPT-5.
Почему так? Почему одни трубят о том, что AI-assisted разработка ускоряет их, а другие либо утверждают, что с таким подходом невозможно решить ни одну задачу, либо говорят, что код на выходе неподдерживаемый, либо же ссылаются на «те самые исследования», в которых говорится, что подобная разработка на самом деле снижает производительность разработчиков?
Лично я пришёл к выводу, что это просто skill issue конкретных людей. Если даже Линус Торвальдс согласен принимать код, сгенерированный AI, то оправдания насчёт качества такого кода кажутся мне абсолютно неуместными (и нет, это не значит, что любой сгенерированный код можно не глядя пушить в прод). А что касается «тех самых исследований» — у меня ещё запланирован большой пост на эту тему. А если бы AI действительно не был способен решать задачи, мы бы с вами вообще не собрались здесь.
Причём я считаю, что самое важное преимущество использования AI — это даже не усиление уже имеющихся навыков, а то, что он позволяет тебе стать:
немного девопсом,
немного бэкендером,
немного фронтендером,
немного дизайнером,
немного менеджером,
немного (подставь своё).
Мне сложно даже перечислить, сколько улучшений AI принёс в мой Developer Experience: позволил локально запускать E2E-тесты, помог перевезти легаси-фронтенд написанный Angular (с которым я знаком только благодаря поддержке этого самого проекта) на современный стек (речь об обновлении 50+ зависимостей, некоторые из которых перестали существовать, пока проект не поддерживали, и семи мажорных версий Angular), а также улучшить имеющиеся и создать новые GitHub-джобы.
И ни одно из этих улучшений не было бы возможно, если бы я занимался ими самостоятельно. Одни — потому что я не знал, как это сделать, а обучение заняло бы кучу времени. Другие — потому что они просто требовали бы слишком много времени на реализацию. В продуктовой разработке зачастую просто не хватает ресурсов, чтобы закрывать такие задачи (хотя менее важными они от этого не становятся).
Если подводить итог:
1. Да, использовать AI нужно уметь. Это полноценный отдельный скилл, и качество ответов напрямую зависит от уровня вашего понимания LLM.
2. Да, со временем ситуация будет улучшаться: LLM будут становиться умнее, а значит — будут выдавать более толковые ответы, вне зависимости от вашего уровня владения LLM. Но есть проблемы, которые в ближайшее время решены не будут, и главная из них — проблема контекста (речь как об обогащении запроса контекстом, так и о размере контекстного окна, а также о росте количества галлюцинаций с увеличением контекста в рамках чата).
Проблемы работы с контекстом сейчас полностью лежат на пользователе. И умение работать с контекстом — это базовый минимум, которому нужно обучиться, чтобы успешно использовать AI для решения своих задач.
YouTube
Torvalds Speaks: Impact of Artificial Intelligence on Programming
🚀 Torvalds delves into the transformative influence of Artificial Intelligence on the world of coding.
🚀 Key Topics:
* Evolution of programming languages in the era of AI.
* Enhancements in development workflows through machine learning.
* Predictions for…
🚀 Key Topics:
* Evolution of programming languages in the era of AI.
* Enhancements in development workflows through machine learning.
* Predictions for…
🔥2❤1👍1🥰1
Cursor 2.0
Немного потыкал обновление, пока ничего революционного не заметил. Немного страшно наблюдать за тем, как Cursor с каждым обновлением из «IDE с чатиком» превращается в монструозный комбайн, в котором уже сложно ориентироваться.
Что интересного в обнове?
• В Cursor теперь есть встроенный браузер! Через него можно буквально указывать, в какой части интерфейса нужно сделать правки. Круто! Правда, он какой-то порезанный и не смог справиться с первой же задачей, которую я ему поставил... ну, будем надеяться, что в будущем поправят.
• Code Review от Cursor. Ребята выкатили свой ответ CodeRabbit, но получился скорее ответ ревью от GitHub Copilot, потому что для диффа на 1000+ строк он не оставил ни одного комментария. Опять есть ощущение довольно сырой фичи, за которую, само собой, тоже просят плату.
• Новая модель «Composer 1». Пока рано делать выводы, но моделька классная, когда нужно что-то очень простое, очень быстро сделать. По скорости обгоняет даже Grok 4 Fast и стоит примерно столько же, так что для самых элементарных задач сейчас использую её.
После обновления в моём пуле активно используемых моделей произошли подвижки:
1. Что-то очень мелкое и предсказуемое уходит в Composer 1. По ощущениям, работает она раза в 3 быстрее Grok 4 Fast, а это, между прочим, дофига быстро!
2. Большинство задач по-прежнему отдаю Grok 4 Fast (и он с ними прекрасно справляется);
3. Тяжеловесные задачи или просто те, с которыми не справился Grok, отдаю GPT-5 Codex.
Вообще интересно наблюдать за тем, как со временем я всё меньше и меньше пишу код ручками. Я всё ещё высокоуровнево представляю код у себя в голове, но теперь не перевожу его в конкретные команды, а отдаю высокоуровневую задачу дешёвой модельке, что на одной-двух задачах может показаться незначительным, но в долгосрочной перспективе значительно экономит время.
Немного потыкал обновление, пока ничего революционного не заметил. Немного страшно наблюдать за тем, как Cursor с каждым обновлением из «IDE с чатиком» превращается в монструозный комбайн, в котором уже сложно ориентироваться.
Что интересного в обнове?
• В Cursor теперь есть встроенный браузер! Через него можно буквально указывать, в какой части интерфейса нужно сделать правки. Круто! Правда, он какой-то порезанный и не смог справиться с первой же задачей, которую я ему поставил... ну, будем надеяться, что в будущем поправят.
• Code Review от Cursor. Ребята выкатили свой ответ CodeRabbit, но получился скорее ответ ревью от GitHub Copilot, потому что для диффа на 1000+ строк он не оставил ни одного комментария. Опять есть ощущение довольно сырой фичи, за которую, само собой, тоже просят плату.
• Новая модель «Composer 1». Пока рано делать выводы, но моделька классная, когда нужно что-то очень простое, очень быстро сделать. По скорости обгоняет даже Grok 4 Fast и стоит примерно столько же, так что для самых элементарных задач сейчас использую её.
После обновления в моём пуле активно используемых моделей произошли подвижки:
1. Что-то очень мелкое и предсказуемое уходит в Composer 1. По ощущениям, работает она раза в 3 быстрее Grok 4 Fast, а это, между прочим, дофига быстро!
2. Большинство задач по-прежнему отдаю Grok 4 Fast (и он с ними прекрасно справляется);
3. Тяжеловесные задачи или просто те, с которыми не справился Grok, отдаю GPT-5 Codex.
Вообще интересно наблюдать за тем, как со временем я всё меньше и меньше пишу код ручками. Я всё ещё высокоуровнево представляю код у себя в голове, но теперь не перевожу его в конкретные команды, а отдаю высокоуровневую задачу дешёвой модельке, что на одной-двух задачах может показаться незначительным, но в долгосрочной перспективе значительно экономит время.
❤4👍1🔥1
Почти час бился над багом. И так его покрутил, и сяк. Во все возможные LLM его засунул, сам голову сломал что там не так. Потратил $5 на запросы. В конце концов дошло, что просто залагал ESLint и нужно было перезагрузить редактор 🤦♂️
Такая пятница 🤷♂️
А завтра ещё рабочий день🫠
Такая пятница 🤷♂️
А завтра ещё рабочий день
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯4❤2😱1
Женя, расскажи про AI
Cursor 2.0 Немного потыкал обновление, пока ничего революционного не заметил. Немного страшно наблюдать за тем, как Cursor с каждым обновлением из «IDE с чатиком» превращается в монструозный комбайн, в котором уже сложно ориентироваться. Что интересного…
Кстати, в Cursor пофиксили встроенный браузер. Во всяком случае те баги, что я ловил раньше больше не воспроизводятся. Можно пользоваться!
❤2
Composer 1 — SOTA для поиска по коду
Последние пару недель я активно использую Composer 1. За это время я дропнул из своего арсенала Grok 4 Fast, так как Composer 1 делает всё тоже самое, но лучше и сильно быстрее.
И Composer 1 просто летает! Ответ генерируется за считанные секунды и за этим так приятно наблюдать после 30-40 минутных ранов GPT-5 (оно всё ещё того стоит, особенно когда GPT-5 думает минут 20 и потом исправляет всего одну строчку в коде, которая ломало абсолютно всё).
И вот что интересное я заметил для себя: Composer 1 в задаче поиска кода обгоняет вообще всё, что представлено на рынке. Для одного из проектов (о котором расскажу в одном из следующих постов) мне нужно было написать много, много, оооочень много тестов (более 2 тысяч тест кейсов). Но вот проблема: я не знаю какие файлы не протестированы, какие протестированы но не полностью, для каких нужны юнит-тесты, а для каких не обойтись без E2E.
И так как я активно пользуюсь Composer 1 она и стала моим поисковым движком. Я буквально спрашивал её: «а вот этот файл протестирован? а вот этот? а вон тот?!». И каждый божий раз она мне за секунды выдавала максимально точную информацию по каждому из файлов. Ни одного ложного срабатывания или галлюцинации. Это ощущалось как если бы тулы, которые проверяют покрытие кода тестами были бы реально полезными.
Я стал использовать её для всех операций поиска по коду и она до сих пор не выдала мне ни единой ошибки: всё в точку.
Но с Composer 1 есть другая проблема: она плоха примерно во всём остальном. Я её использую только для мелких, предсказуемых задач по типу исправления небольших ошибок линта или тайпскрипта, и как сказал выше — поиска по коду.
Поэтому, когда передо мной встала задача глобального поиска с аналитикой по всем файлам я всё-таки решил обратиться к GPT-5.1 Codex... И она успешно провалила задачу: переусложнила поиск (я запускал его дважды) и придумала кучу несуществующих фактов о покрытии кода тестами.
Я уже было подумал, что с этой задачей мне придётся возиться вручную, но закинул тот же самый промпт в Composer 1 и оно сработало! Причём сильно лучше, чем я того ожидал.
В общем, я в глобальном шоке от того, насколько Composer 1 рвёт всех остальных в поиске. Безумно интересно узнать как ребята из Cursor добились этого.
Последние пару недель я активно использую Composer 1. За это время я дропнул из своего арсенала Grok 4 Fast, так как Composer 1 делает всё тоже самое, но лучше и сильно быстрее.
И Composer 1 просто летает! Ответ генерируется за считанные секунды и за этим так приятно наблюдать после 30-40 минутных ранов GPT-5 (оно всё ещё того стоит, особенно когда GPT-5 думает минут 20 и потом исправляет всего одну строчку в коде, которая ломало абсолютно всё).
И вот что интересное я заметил для себя: Composer 1 в задаче поиска кода обгоняет вообще всё, что представлено на рынке. Для одного из проектов (о котором расскажу в одном из следующих постов) мне нужно было написать много, много, оооочень много тестов (более 2 тысяч тест кейсов). Но вот проблема: я не знаю какие файлы не протестированы, какие протестированы но не полностью, для каких нужны юнит-тесты, а для каких не обойтись без E2E.
И так как я активно пользуюсь Composer 1 она и стала моим поисковым движком. Я буквально спрашивал её: «а вот этот файл протестирован? а вот этот? а вон тот?!». И каждый божий раз она мне за секунды выдавала максимально точную информацию по каждому из файлов. Ни одного ложного срабатывания или галлюцинации. Это ощущалось как если бы тулы, которые проверяют покрытие кода тестами были бы реально полезными.
Я стал использовать её для всех операций поиска по коду и она до сих пор не выдала мне ни единой ошибки: всё в точку.
Но с Composer 1 есть другая проблема: она плоха примерно во всём остальном. Я её использую только для мелких, предсказуемых задач по типу исправления небольших ошибок линта или тайпскрипта, и как сказал выше — поиска по коду.
Поэтому, когда передо мной встала задача глобального поиска с аналитикой по всем файлам я всё-таки решил обратиться к GPT-5.1 Codex... И она успешно провалила задачу: переусложнила поиск (я запускал его дважды) и придумала кучу несуществующих фактов о покрытии кода тестами.
Я уже было подумал, что с этой задачей мне придётся возиться вручную, но закинул тот же самый промпт в Composer 1 и оно сработало! Причём сильно лучше, чем я того ожидал.
В общем, я в глобальном шоке от того, насколько Composer 1 рвёт всех остальных в поиске. Безумно интересно узнать как ребята из Cursor добились этого.
🔥4❤1👏1
Gemini 3 Pro уже на этой неделе!!1!!
...говорят уже несколько месяцев. Но судя по тому как то тут, то там люди последние полторы недели «случайно» получают доступ к превью Gemini 3 Pro, который затем обрубают через пару часов, то чувствую, что модель действительно скоро выйдет.
Цифры на скриншоте, конечно, поражают воображение, но как показывает практика они ничего не значат. Согласно некоторым метрикам Claude 4.5 Sonnet и Kimi K2 обгоняют GPT-5 в задаче написания кода, что настолько же близко к правде как то, что до луны можно добраться пешком.
В любом случае очень жду этот релиз, хотя бы чтобы проверить насколько Google близки к OpenAI. Правда, судя по тем же циферкам со скриншота модель дешевой не будет...
...говорят уже несколько месяцев. Но судя по тому как то тут, то там люди последние полторы недели «случайно» получают доступ к превью Gemini 3 Pro, который затем обрубают через пару часов, то чувствую, что модель действительно скоро выйдет.
Цифры на скриншоте, конечно, поражают воображение, но как показывает практика они ничего не значат. Согласно некоторым метрикам Claude 4.5 Sonnet и Kimi K2 обгоняют GPT-5 в задаче написания кода, что настолько же близко к правде как то, что до луны можно добраться пешком.
В любом случае очень жду этот релиз, хотя бы чтобы проверить насколько Google близки к OpenAI. Правда, судя по тем же циферкам со скриншота модель дешевой не будет...
❤6🔥2👍1
Пока пишу полноценный обзор на Gemini 3 Pro (там всё оказалось сложнее, чем хотелось бы) столкнулся с двумя вещами:
• Gemini 3 Pro просто отвратительно работает в Cursor/Windsurf, а в Copilot мне пока не раскатили доступ;
• Google Antigravity очень сложно воспользоваться на территории РФ — нужно подтвердить, что ты живёшь не в России, Беларуси, Китае и так далее.
Собственно, есть способ убить двух зайцев сразу. Для этого нужно всего лишь... получить нигерийский аккаунт😧
В общем, заходим сюда, покупаем аккаунт, логинимся с европейским/американским VPN, сразу меняем данные аккаунта и уже с этими данными логинимся в Antigravity. Вуаля, у вас есть доступ!
Для тех, кто находится на разрешенных территориях, но в Antigravity всё равно не пускает — можно просто сменить регион аккаунта здесь
По первым ощущениям Gemini 3 Pro в Antigravity работает стабильнее, но есть ощущение, что сервера Google всё равно не выдерживают такой нагрузки и запросы каждые пару минут стабильно падают с ошибкой и приходится промптить модель, чтобы она продолжала работать
• Gemini 3 Pro просто отвратительно работает в Cursor/Windsurf, а в Copilot мне пока не раскатили доступ;
• Google Antigravity очень сложно воспользоваться на территории РФ — нужно подтвердить, что ты живёшь не в России, Беларуси, Китае и так далее.
Собственно, есть способ убить двух зайцев сразу. Для этого нужно всего лишь... получить нигерийский аккаунт
В общем, заходим сюда, покупаем аккаунт, логинимся с европейским/американским VPN, сразу меняем данные аккаунта и уже с этими данными логинимся в Antigravity. Вуаля, у вас есть доступ!
Для тех, кто находится на разрешенных территориях, но в Antigravity всё равно не пускает — можно просто сменить регион аккаунта здесь
По первым ощущениям Gemini 3 Pro в Antigravity работает стабильнее, но есть ощущение, что сервера Google всё равно не выдерживают такой нагрузки и запросы каждые пару минут стабильно падают с ошибкой и приходится промптить модель, чтобы она продолжала работать
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍1🔥1

