Андруша пишет код – Telegram
Андруша пишет код
1.25K subscribers
137 photos
1 video
1 file
218 links
Download Telegram
Если вы находитесь в другом городе и устали, нужен интернет и розетка, то попробуйте на карте поискать ближайшую публичную библиотеку.

Если вы в последний раз были в ней лет 20-30 назад и у вас остались совковые впечатления, то всё поменялось. Сейчас библиотеки - это бесплатные мини коровкинги без переговорок.
Так что не стесняйтесь. Вам будут только рады.
👍305💩2🤡2
Сегодня решил чуток повайбкодить и опять обделался, так как приходится включать мозг(

Особенно разочаровало то, что дизигнеры всё же нужны и не отправляются в отдел кадров. Запрос к чатгпт или же гуглу простой:

Нарисуй схематическое упражнение "rope press-down". В схеме должен быть мускулистый мужчина. Мужчина слева. Тренажёр справа. У мужчины должны быть подсвечены трицепсы красным, так как они работают во время упражнения. Бицепсы же не должны подсвечиваться.


Итог: получаем что-то похожее(в случае чатгпт) и что-то не очень похожее(в случае гугла). И вот уточнения перестают помогать. Картинка или портится полностью, или же делает что-то не то.
Впечатления полностью совпадают с программированием: 80% работы выполняется, а остальное приходится руками дорабатывать напильником.
Человеки, увы, пока что ещё нужны. Специфичность - это пока что то в чём мы превосходим железки.
😁151💩1🤡1💯1
Разработка дорожает, милорд.

https://github.blog/news-insights/product-news/github-copilot-agent-mode-activated/#premium-model-requests

Гитхаб такие молодцы: и агентов выкатили, и MCP поддержали, и лимиты ввели на запросы.
Теперь можно сказать покедова безлимитным моделям через copilot. Все нормальные модели только за денюжку. Причём деньги какие-то космические в базовом тарифе. Если курсор или windserf даёт 500 запросов, то copilot всего лишь 300.

И нормальное количество(1500) только в подписке за 40 баксов в месяц.
Только есть один нюанс: в нейронку напрямую вы можете ходить с полным контекстом, а в копайлот - до 60к токенов.

Теперь я совершенно не вижу смысла в подписке за 10 баксов. Это просто деньги на ветер.
👍92🤡2🤬1😢1💩1
Deep-reseach

Если делать что-то чуть сложнее тупой вёрстки и покраски кнопок, то, увы, приходится включать мозг и время от времени гуглить, чтобы уточнить информацию или какие-то гипотезы.
Но, ура, теперь мозг можно включать ещё чуть меньше и автоматизировать эту бесячую фазу поиска информации.

DeepReseach - это, наверное, самая важная фича нейронок, которая у нас есть. Это штука, которая ищет в интернете за вас в куче источников и позволяет скомпилировать ответ на вопрос, который вы задали.
Я сейчас время от времени допиливаю свой бандлер для библиотек и сейчас работаю над поддержкой монореп. И deep-research зашёл как никогда хорошо

https://g.co/gemini/share/7a58c2e5ce60
https://chatgpt.com/share/67f2e174-9dd4-8010-bc52-87cc8e5b2670
https://x.com/i/grok/share/28OICLkiQD4cGKhQOWqnI5kUt

Я задал один и тот же вопрос gemini и chatgpt. На моё удивление, гугл справился раза в 3 быстрее, посетил 200 сайтов и дал почти что корректный ответ. Чатгпт же работал долго, посетил 20 сайтов и дал на 100% верный ответ.
Но есть одно НО: гугл бесплатный и, вроде как, безлимитный. А чатгпт стоит 20 баксов в месяц и даёт 10 запусков в месяц.

Так что если вы что-то ищите по своим вопросам, возможно, стоит просто пойти в gemini и попросить нейронку поискать за вас.

UPD: добавил ссылку на результат грока на тот же запрос. Получилось весьма недурно. На уровне chatgpt, кмк
👍112🔥2💩1🤡1
Тут последний крупный игрок, наконец-то вступил в гонку агентов AI.
https://blog.jetbrains.com/blog/2025/04/16/jetbrains-ides-go-ai/
Самое главное: они включили платный tier в All Products Pack. Так что если у вас такой тариф, то вперёд пробовать.

По моему мнению, они рвут cursor и windsurf и уж точно copilot. Причём Junie мне кажется выигрышным в этом отношении, так как они первые кто продаёт подход, а не просто набор тулов.
Поясню:
Junie на каждую команду строит пайплайн решения задачи(показывая его пользователю) и выполняет его шаг за шагом. Остальные же агенты просто являются черным яшиком, поведение которого ты предсказать никак не можешь.
И это даёт огромное преимущество, так как ты можешь заранее предугадать и исправить ошибки системы, а не пытаться потом править нагорячую.

Но у релиза минусы тоже есть. Лендинг просто отвратительный. Для меня главные вопросы: стоимость и лимиты.
И ни на один из них текущий лендинг ответа не даёт(
Есть такие-то кредиты, которые тратятся непонятно как.
Есть 2 подписки, которые отличаются только количеством кредитов(а что за кредиты всё ещё непонятно).

Так же непонятно что с ценами. Я обычно покупаю All Products Pack, но теперь AI Pro включен в эту подписку. А AI Ultimate стоит уже 20 баксов в месяц. Ну, и покупать ещё одну полноценную подписку, хотя у меня есть усеченная, желания мало. Переплачивать неохота.

Но Антон Архипов(Advocate в JetBrains) уже сказал, что это временные проблемы и будут исправлены за 2-3 недели.
👍12🔥3💩2🤡2
Там openai за последние дни презентовала целую россыпь новых моделей

4.1 - новая версия GPT модели, которая лучше 4o в программировании, но хуже 4.5 в остальных задачах.
Самое главное достоинство этой модели - это контекстное окно в 1M токенов. Как минимум за счёт этого она может быть лучше 3.7 Sonnet в программировании

o3 - замена o1, которая и умнее(по словам openai), но и дешевле по апи: 40 баксов аутпута против 60. Ещё пару поколений и можно будет свободно гонять oX модели через апи. Доступна уже в приложении чатгпт вместо o1.
Что я заметил: у меня она думала спокойно 2 минуты, что плюс. o1 у меня всегда думала максимум 1 минуту

o4-mini - более дешевая и умный(по словам openai) аналог o3-mini. Из минусов: всё то же контекстное окно в 200к токенов. Т.е. с помощью неё не поконтруировать длинные и можные промпты. С этой точки зрения gemini 2.5pro вне конкуренции.

Так же openai представили https://github.com/openai/codex, который является конкурентом, очевидно, claude code. Теперь, похоже что, провайдеры будут конкурировать не только моделями, но и клиентами к ним.

=======

Для тех кто не вошёл в эту всю движуху по ai и всему такому, я горячо рекомендую попробовать гугловую модель gemini 2.5pro и Сline/RooCode. Или же windsurf, которые на неделю раздают модели openai бесплатно.
У гугла есть программа на Google Cloud, где они новым пользователям дают 300 баксов на 3 месяца. Этого с лихвой хватит чтобы наиграться и понять прелесть современного агентного программирования
👍10💩3🤡3🔥1🤮1
The new Cookie Store API

Внезапно узнал, что уже 4 года как существует новое API для работы с куками, которое давно доступно в Chrome, недавно стало доступно в Safari и все еще недоступно в Firefox - Cookie Store API

Новое API намного удобнее. Хотя любое API, по сравнению со старым, будет удобнее.

Первое, что бросается в глаза - это человеческий интерфейс для установки. Если вам нужно просто установить значение - cookieStore.set("cookie1", "cookie1-value");. Если вам нужна полная настройка:

cookieStore.set({
name: 'theme',
value: 'dark',
path: '/',
partitioned: false,
sameSite: 'strict',
});


Второе, что бросается в глаза - это то, что все взаимодействие стало асинхронным
  try {
await cookieStore.set("cookie1", "cookie1-value");
} catch (error) {
console.log(`Error setting cookie1: ${error}`);
}


Тут я не совсем понял смысла от асинхронщины, но методы будут бросать ошибки - что тоже хорошо.

Еще 1 фича не бросается в глаза, но она очень крутая - можно наконец-то подписаться на изменения кук и увидеть измененные и удаленные куки
cookieStore.addEventListener('change', (event) => {
console.log(event);
});


Пример использования из статьи: синхронизируем состояние стора с состоянием куки
cookieStore.addEventListener('change', (event) => {
const deleted = ev.deleted.find((c) => c.name === THEME_COOKIE_NAME);

if (deleted) {
setStoredTheme(undefined);
return;
}

const changed = ev.changed.find((c) => c.name === THEME_COOKIE_NAME);

if (changed) {
setStoredTheme(changed.value);
return;
}
})


В общем, выглядит многообещающе. Ждем открытия без флага в Firefox и можно юзать. Но если хочется уже использовать, то должны быть рабочие полифилы.

https://fotis.xyz/posts/the-new-cookie-store-api/

#development #javanoscript #cookie
👍18💩1🤡1
локальные ллм

Тут пару дней назад релизнулись новые типапроизводительные модели qwen3 и все их хвалят
- https://news.1rj.ru/str/artalog/1633
- https://news.1rj.ru/str/itbeard/1738

А мне как раз сегодня(уже через час) лететь куда-то. И так как в полёте всё равно делать особо нечего, то можно по идее попрограммировать.
Мой выбор упал на ollama для запуска моделей, так как я уже давно её использую и вроде как терпимо всё работает. Но в этот раз без приключений не обошлось.
1. Сначала был гемор со скачиванием 30b модели. У меня ломалось скачивание модели на середине, так как стояла не последняя версия ollama(это я уже узнал потом через час мучений)
2. Потом эта штука начала тормозить и вылетать, так как не хватало памяти. Спасибо, закрыл лишние программы
3. После чего оказалось, что ни RooCode, ни Cline или Continue нормально работать с ними не хотят. Просто шлют какой-то свой промпт и уходят в бесконечный цикл(см. скриншот)
И только aider из-за его простоты и тупости нормально +- работал с ollama+qwen:30b

Благо, что есть 2 товарища выше, которые не настолько упороты, чтобы предпочитать консольные тулы как я. Они посоветовали LM Studio.
И это просто сказка по сравнению с ollama. Оно и ставится из brew, и сама скачивает оптимизированную модель именно под M архитектуру(так называемую MLX) и одной кнопкой экспоузит сервер для внешних приложений, и графический чат имеет. Радости полные штаны от человека, который не хочет заморачиваться с этим всем openai compatibility.

Если хотите всё же попробовать локальные модели, то

brew install --cask lm-studio

И особо не заморачивайтесь. Потом, если понадобится(прямо если реально понадобится), то уже будете упарываться и копаться внутри. А так - опенсорс опять сделать вроде как нормальный продукт, хоть и со второй попытки.

P.S. MLX версия на моём M1 Max+64RAM занимает всего лишь 22гига памяти для 50k токенов контекста и выдаёт 60 токенов в секунду, что весьма быстро.
👍13💩4🔥21🤡1
Андруша пишет код
локальные ллм Тут пару дней назад релизнулись новые типапроизводительные модели qwen3 и все их хвалят - https://news.1rj.ru/str/artalog/1633 - https://news.1rj.ru/str/itbeard/1738 А мне как раз сегодня(уже через час) лететь куда-то. И так как в полёте всё равно делать особо нечего…
Кроме того что я в поездку себе настроил локальные LLMки для работы(было вполне сносно), я взял с собой ещё одну игрушку: travel router Cudy TR300

Это роутер, размером с 8 коробков от спичек, который спокойно работает от павербанка. И я хотел проверить насколько он имеет смысл в моём путешествии, так как мы провели 8 дней в отдельном доме, а работу и прочие интернет-хотелки никто не отменял.

Из плюсов:
- Поддержка openwrt из коробки
- Я имел доступ к домашней сети через wireguard, что позволило мне иметь доступы к внутреннему серверу и использовать все наработки по типу резалок рекламы и автоматического обхода блокировок, которые я уже давно настроил на своём роутере.
- 2.4Ghz моего роутера пробивали стены на порядки лучше чем роутер, который стоял в том доме. Я спокойно сидел с улицы с ноутбуком, когда мои друзья не могли пользоваться Wi-Fi
- Не нужно подключать всю свою ораву устройств к новой сети. Ты просто пользуешься тем что привык, так как для тебя сеть та же самая
- Я попробовал роутер в аэропорту. И travelmate для openwrt позволяет пробивать все эти страницы по типу "нажмите на кнопку, чтобы получить интернет на 30 минут" автоматически. Очень удобно.

Из минусов:
- Пришлось почти что сразу сносить родную прошивку и ставить openwrt, так как мне нужна поддержка VPN до дома, а в родной прошивке поддержки не оказалось(хотя на сайте было обещание этого)
- Только 2 антенны. Я ожидал что их будет 4, чтобы я мог первую пару использовать для подключения к внешней сети, а другими раздавать свою сеть. В итоге пришлось подключиться по 5Ghz и раздавать 2.4Ghz. Не особо жалуюсь, но всё же неприятно
- Пришлось чуток изучать сети, так как openwrt совсем не френдли. Но минут 20 и chatgpt помогли мне настроить то что мне требуется

На тусовке я встретил ещё одну людину(Женя, привет). Он пользуется тревел роутером, но от Gl.inet. По его словам, там куда более дружелюбный интерфейс к дебилам как я. Из коробки и tailscale поднимается, и wifi-сети создаются, и всё чики-пуки. Но особой жалости что я не взял себе игрушку от них у меня нет, так как я ожидал что буду перешивать роутер для себя, так как openwrt куда развесистее штука.

Нужна ли эта штука каждому человеку? Кмк - нет. Но она прямо сильно упрощает жизнь. Если у вас в поездке хотя бы 2 ноутбука и несколько телефонов, то возможно стоит заложить 100 евро на будущие путешествия. Как минимум возможность не клацать эту дибильную кнопку "дай мне ещё 15 минут интернета" в кафешке стоит того.
👍22🔥3💩1🤡1
Надо время от времени напоминать себе что корпорации тебе не друзья.

https://x.com/rbuckton/status/1922364558426911039
Сначала ты работаешь над переписыванием TS на гошечку, сидишь в комитете по развитию языка javanoscript, а потом тебя через пару месяцев сокращают, так как твою работу может заменить ИИ.

https://apnews.com/article/microsoft-layoffs-d1f2de54ebad6f099deac8fbd3375835
🤯14👍4💩2🤡2🔥1😁1
https://openai.com/index/introducing-codex/

Openai уже превращается в настоящую корпорацию по типу гугла:
- есть cli тула для написания кода - codex
- по слухам планируют выкупить windsurf - ещё одна IDE
- выпускают ещё один продукт для кодинга, но в этот раз на удалённой машине.

А так же теперь у них есть целых 4 продукта под названием codex:
- старый codex, который даже не смог запуститься нормально. Существует только в анонсах
- codex как cli тула
- codex как продукт для облачной разработки
- codex как название модели.


Приятно что компания не изменяет себе в традициях

===

А если по сути: если вы заносите денег openai, то дадут пощупать бесплатно вскоре, а потом будут доить гоев
👍9💩5🤡4🔥1
Не так давно openai добавила в chatgpt поддержку deep-research по гитхабу.

Я решил попробовать, так как мне пришла интересная мысль:
- Можно же проанализировать репозитории openai codex, cline, roocode, aider. Ведь из исходников можно вытащить интересные фичи, которые позволят оптимизировать пайплайн работы с нейронками для достижения лучшего результата.

И вот новость: подключать можно только свои репозитории. Причём форки за свои не считаются. Я ждал дня 2 и форки не появились. openai обещает появление в течении 5 минут же. Да, можно скачать репу и залить к себе, но пока я ленив для такого


Но у меня есть свои полузаброшенные проектики и я решил исследовать как реализовать одну геморную фичу: поддержку монореп для бандлера.
Для начала я составил промпт из своего ломанного английского с помощью o4-mini:
https://chatgpt.com/share/682af052-ac7c-8010-8312-fd50c1ad3256. Не пишите промпты руками. Используйте думающие нейронки для такого

И потом итоговый промпт отправил в дип ресёрч.
https://chatgpt.com/share/682aef60-f878-8010-a00d-76482f1099a9
Ответ получился чуть-чуть кривоватый, но хороший. Если бы я над этой темой не думал в фоне месяца 2, то точно посчитал бы его отличным. А так - подчерпнул чуток новых идей.

Как использовать эту тулу? Для себя я вижу следующие варианты: форкать популярные репы и просто спрашивать какую-то сложную шизу, в которой я не могу разобраться. Обычно истории коммитов достаточно для исследований
👍11🤡5🔥3💩2
Подписки на AI

https://support.anthropic.com/en/articles/11145838-using-claude-code-with-your-pro-or-max-plan

В мире ничего не происходит вне AI мира, что даже скучно.
Тут не так давно Anthropic выпустили подписку. За фикс денег вы получаете практически безлимит для работы Claude Code.

И это реальное изменение в работе лично для меня.
- Jetbrains AI имеют небольшие лимиты, которые спокойно можно использовать за пару дней. Я, к примеру, исчерпал их за сутки, пиля небольшой проект(напишу об этом позже)
- Курсор имеет хороший тулинг, но всё ещё дорогой. Его 500 кредитов за 20 баксов заканчиваются буквально за сутки. А потом ты платишь просто за API. Потратить 100+ баксов за неделю можно спокойно
- Windsurf - примерно такая же ситуация как и с курсором. У них такая же бизнес модель

А claude позволяет сбрасывает лимиты каждые 5 часов. И в подписке за 100 баксов в месяц я не сумел исчерпать лимиты, полностью работая над проектом за эти 5 часов. Буквально, я имею безлимитный доступ к лучшим нейронкам на рынке за такую небольшую сумму.

Почему это важно? Я начинаю использовать нейронки по-максимуму. Из примеров:
- спрашивать о том как работает код. Мы держим код в монорепе и зачастую единственный способ узнать что делает тот или иной эндпоинт на бекенде - спросить у человека, который писал этот бекенд. С безлимитом к нейронкам я делаю очень просто: спрашиваю у клод кода или же просто беру мой запрос и спрашиваю "а почему не работает?". И после этого клод код анализирует эту джаву и гошечку и выдаёт мне ответ в чём я или бекендер не прав. Это очень экономит время, так как мне не нужно ждать ответа бекендера и отвлекать его.
- написание различных cli тулов. За эту неделю я написал экстрактор i18n ключей из нашей кодовой базы, чтобы понять какие ключи мы используем, а какие нет. Код писался практически полностью клод кодом. Результат можете увидеть тут: https://github.com/XaveScor/i18next-keys-extractor
Или же я продолжил работать над смартбандлом. Сейчас я наконец-то реализую монорепы: https://github.com/XaveScor/smartbundle/tree/144-monorepo-support. Тоже почти всё с помощью клод кода
- обновление зависимостей и поиск ошибок без гемора. Недавно вышел storybook@9 и я не сумел обновить его сполпинка. Простая фраза: "скачай исходники через гит и найди что падает" сразу выдало мне в чём проблема.
- Сложные рефакторинги. На удивление, клод код может делать и это. К примеру, у меня нормально получилось написать компонент и "найти все использования куда я могу воткнуть этот компонент". Причём клод код так же подсказал какие места потенциально хорошие, если я внесу несколько изменений

Мир реально изменился. Теперь я знаю что за мелкие деньги я могу делать почти что угодно. И я могу не играничивать себя в хотелках.

Единственное что мне хочется - это чтобы кто-то вытащил подписку из клодкода и засунул в Cline/RooCode. Или же чтобы OpenAI сделала тоже подписку на свои модели. Предсказуемые траты делают чудеса
1👍115💩4🤡2💯1
Возможность убрать людей из своей работы мне кажется такой важной, что этот кейс я считаю самым главным открытием для меня.

И безлимит даёт прямо желание творить любую наркоманию, не смотря на траты. Думаю, что кучу ручной работы благодаря этой подписке можно будет автоматизировать.
1👍7💩7🤡51🔥1🤔1💯1
OpenAI начинает ценовую войну, снижая цену на их флагманскую модель o3 в 5 раз. Причём это выглядит настолько шизово, что древняя 4o теперь тупо дороже флагманской модели.
Приятно, что все клиенты(курсор, виндсёрф, копайлот) мигом подстроились и снизили цены на неё в том числе.

Кроме того, OpenAI представили o3-pro, которая стала в 8 раз дешевле, чем их предыдущее поколение o1-pro.
Правда по первым обзорам https://www.latent.space/p/o3-pro, o3-pro это не "чатовая" модель. С ней надо жить абсолютно по другому: накидать кучу данных в контекст и ждать выхлоп. Общаться с ней смысла нет.

В итоге, пока что потребитель в плюсе. Ждём ответа от гугла и антропика, потому что теперь их модели до неприличия дорогие на фоне openAI.
👍9💩5🤡4🔥3🤔2
https://github.com/sst/opencode/blob/dev/packages/opencode/src/auth/anthropic.ts

А вот и первые умельцы, которые вытащили аутентификацию из Claude Code, чтобы встроить подписку клода в своё приложение. Ждём подобного же в RooCode/Cline и прочие опенсорсные клиенты
🤡7💩4👍21🔥1