Андруша пишет код – Telegram
Андруша пишет код
1.25K subscribers
137 photos
1 video
1 file
218 links
Download Telegram
Тут недавно мне понадобилось другу сделать страницу приглашений на свадьбу. И, оказывается, куча вещей прямо валяется бесплатно чуть ли не на полу.

Страницу я захостил в github pages, а БД выступили google sheets, но самое главное, что я онаружил какие резиновые лимиты у клаудфлера на их лямбды: 100к запросов в сутки
https://developers.cloudflare.com/workers/platform/limits/#worker-limits

А если надо что-то хранить между запросами, то есть Cloudflare D1 https://developers.cloudflare.com/d1/platform/pricing/#billing-metrics, где тоже даётся 5 лямов чтений и 100к записей в сутки.

Какую-нибудь фигню по типу домашней страницы, портфолио, блога или чего-то подобного, где не предвидится большой трафик можно смело там размещать. Главное домен прикупить.
👍20🤡3🔥1💩1
Если чо, хочется напомнить, что Google Global Cache, из-за чего отвалился ютуб, в РФ деградировал чуть больше года назад. Быстро же время летит
🤡10💩4👍1
https://x.com/_liasam/status/1961363466763350381

Тут чуток завирусился в твиттере на первый взгляд шизовый взгляд на организацию жизни - буквально всё планировать в календаре чуть ли не почасово. И наверное он берёт своё именно шизовостью и желанием превратить себя в робота, но в реальности такой подход, но при небольшом упрощении неплохо так заходит.

Неплохо так заходит - это конечно же оправдашка, потому что я его именно использую. Я так же использую календарь для фиксированных событий, таких как встречи с кем либо или интересующие меня события(хоккейный матч или гран-при Ф1). Но для обычных дел я использую простую тудушницу.

Отличие от календаря простое - оно не мозолит глаза конкретным временем. Ты просто оставляешь себе пометку что надо бы сделать что-то тебе нужное в какой-то день: оплатить кредит, убраться дома или т.п.
Причём в итоге этот подход эволюционировал в то, что я использую тудушку просто как внешнюю память: мне что-то порекомендовали - записал на сегодня. Что-то увидел интересное? - закинул как задачу. И т.д.

Я так живу уже около двух лет и тут есть и плюсы, и минусы.
Минусы: память начала работать куда хуже, так как я её по-факту почти не использую. Почти всё записывается в тудушку. Но, во-первых, внезапно, информации не так много. А второе - так я вообще ничего не забываю, потому что всё записано.
Плюсы: Ничего не забывается и нет того морального напряжения если ты что-то не сделал. Потому что запись в тудушку не обозначает необходимость сделать это. Если мне лень, она просто улетит в overdue и будет мне мозолить глаза по утрам.

Можно сказать, я реально стал киборгом: перенёс часть мозга в приложение и отупел на эту же перенесённую часть.
🔥17💩5🤡3🤝3👍2
Я просто оставлю это здесь. https://www.youtube.com/watch?v=vdQIZg6mFg4

Вроде как очередная история как чувак зазвездился и не вывез, но учитывая что это происходило на моих глазах, то прямо сурово долбануло. Когда ты типа весь такой постироничный, но в реальности готов любого обосрать и кинуть, даже своих корешей

Оффтопный вопрос: зачем люди вообще к Саньку ходят?)
🤡5👍1💩1
Forwarded from Sandbox
Дорогие друзья, вот и пришло время двигаться дальше.

Я открыт к поиску новой работы.
У меня за плечами более 6 лет опыта лет опыта разработки бекенда.

Рассматриваю вакансии в аккредитованных IT-компаниях РФ со стеками: C#, Java, Go

Связаться со мной можно в телеграм: @LarymarTwit. Буду рад вакансиям или вашим реферальным ссылкам

Спасибо, что читаете лайкаете и комментируете.
Репостам я тоже буду благодарен.

Nudosos son los caminos del Milagro
💩8🤓4
Обновляли сегодня зависимости и локфайлы?
Значит получили к себе на машину очередную криптофигню, так как затронуты очень популярные пакеты:


ansi-styles@6.2.2
debug@4.4.2
chalk@5.6.1
supports-color@10.2.1
strip-ansi@7.1.1
ansi-regex@6.2.1
wrap-ansi@9.0.1
color-convert@3.1.1
color-name@2.0.1
is-arrayish@0.3.3
slice-ansi@7.1.1
color@5.0.1
color-string@2.1.1
simple-swizzle@0.2.3
supports-hyperlinks@4.1.1
has-ansi@6.0.1
chalk-template@1.1.1
backslash@0.2.1

https://github.com/debug-js/debug/issues/1005#issuecomment-3266868187

Лучше всё же откатиться назад или запинить точно "безопасные" версии зависимостей
🤡16🤯3😱3💩1
ts в последнее время выбешивает отсутсвием спеки. 2 истории у меня про это:
История первая. Дженерики.

Короч, как вы знаете у TS есть условия на типах, которые выглядят как

type A<T> = T extends string ? T : number;

Этот механизм позволяет пилить довольно суровую наркоманию по типу той, которая находится на скриншоте. Однако эта штука не только суровая, забористая, так что её нормально не смогли спроектировать перед добавлением даже ребята из MS.

Мы имеем на проекте styled-components(SC), react-select(RS), react-hook-form(RHF) и собственную логику для стилизации этих селектов(далее L). И наш код выглядит как-то так:
RHF(L(SC(RS()))). Т.е. декораторы, которые декораторами погоняют, то бишь обычный код для дизайн системы.

В итоге, так как RHF и RS имеют долбанутые дженерики в своей логике, то TS в какой-то момент превращает тип type X<T> = T extends true ? string : number просто в string | number. Потому что походу вычисления достаточно сложные и, так как нет спеки, можно и захачить костыль, из-за чего весь код превращается в единую семантическую ошибку.

Как это решать? Я пока выработал одно правило. Если ты пишешь декораторы, то под ними желательно не иметь дженериков в принципе. А если они нужны, то хотя бы избегать условий в них, чтобы в неожиданный момент эти условия не схлопнулись.
Для избегания условий можно поступать в стиле golang и писать что-то в стиле

type SingleSelect<OT> = ReactSelect<OT, false>;
type MultiSelect<OT> = ReactSelect<OT, true>;


Да, получается шумно, но оно хотя бы работает
🤡14💩9
https://www.nvidia.com/en-us/products/workstations/dgx-spark/
Сейчас в мире домашнего запуска ЛЛМ происходит забавная драма.

Nvidia около года назад анонсировала свой Project Digits - железка, которая строится на "революционном G10 чипе", имеющая 1Tflops и 128 гигов unified памяти(Т.е. её может использовать как CPU, так и GPU). И это офигенное на бумаге предложение, так как видеопамять сейчас стоит не просто дорого, а архидорого.

Но потом начинается веселье:
Сначала обнаруживается, что эта память - LPDDR5. Т.е. та, которую вы можете просто купить в любом магазине. Даже не быстрая GDDR6 или выше, которая ставится, к примеру, в игровые консоли и видеокарты. Это первый звоночек, так как скорость работы с памятью архиважна для работы с ЛЛМками

Второе веселье обнаружилось позже. Нвидиа имеет 2 варианта своего апи - для домашних пользователей и для серверов. Т.е. если вы ставите драйвера для дома, то вы получаете преимущество в играх, всяких видеоредакторах и всём таком. Для серверов же ситуация обратная - очень быстрый компью и поддержка всяких нативных fp4 вычислений.
И вот у "Digits" поддержка апи именно для домашних пользователей. И все высокопроизводительные вычисления идут в пень. Отличный способ не каннибализировать продажи собственных видеокарт за десятки тысяч долларов!

Третье: цена поделки от Nvidia - 4к баксов. Цена же mac studio m4 max на 128гб ОЗУ - 3.5к баксов. А по тестам слив идёт даже по сравнению с M1 Max 4летней давности(См. тесты. Фото 2)

Итог: полный слив на фоне решений от эпла, которые и стоят дешевле, и содержит не только видюху но и норм проц. Полный провал со стороны PR у нвидии.

P.S. Да, возможно в обучении нейронок и всего такого спарк и лучше, но пока что в моём пузыре людей, которые просто запускают нейронки куда больше, чем тех кто тренирует.
👍10💩5🤡2
Андруша пишет код
https://www.nvidia.com/en-us/products/workstations/dgx-spark/ Сейчас в мире домашнего запуска ЛЛМ происходит забавная драма. Nvidia около года назад анонсировала свой Project Digits - железка, которая строится на "революционном G10 чипе", имеющая 1Tflops…
https://www.apple.com/newsroom/2025/10/apple-unleashes-m5-the-next-big-leap-in-ai-performance-for-apple-silicon/

Второй этап драмы - это сегодняшние анонсы эпла, где эпол бьёт по самым больным точкам текущей поделки от нвидии:
- рост перфа на 20-30%
- рост пропускной сопосбности памяти на 20-30%

Через полгода поделка от нвидии вообще может никому быть не нужной, так как разрыв по ОЗУ будет катастрофическим

Чот нвидиа засиделась в своём монополизме и совсем не видит рынок
🤡11💩8👍61🙏1
Тут ребята сделали неплохую поделку, которая проливает свет на то как именно давать данные ЛЛМ, чтобы не засирать полностью контекст.
https://github.com/toon-format/toon

Но печально, что именно эта тема стала поводом для шуток, что зумеры в очередной раз изобрели фигню, потому что ребята реально подошли с умом и тестируют формат не только н размер, на который не плевать, конечно, но и на то насколько ЛЛМ может ориентироваться в данных.
И тут, кмк, у них победа. Они не только сократили контекст, но и повысили видимость данных.

Но с PR'ом провал полнейший. Почти все мои знакомые увидели шутки и сразу прошли мимо, как "хайпится очередная фигня".
👍9💩5🤡21
https://www.githubstatus.com
Сегодня день падений.

И если падение клаудфлера во многом мешало развлекаться, то сейчас упал гитхаб

UPD: вернулся
🤬3💩1🤡1
Андруша пишет код
Сегодня решил чуток повайбкодить и опять обделался, так как приходится включать мозг( Особенно разочаровало то, что дизигнеры всё же нужны и не отправляются в отдел кадров. Запрос к чатгпт или же гуглу простой: Нарисуй схематическое упражнение "rope press…
А новая моделька по генерации картинок неплоха. Походу наконец-то появился инструмент, который позволит качественно всякие схемы несложные визуализировать быстро.

Модель: gemini-3-pro-image-preview
Запрос:

Draw a schematic illustration of the rope press-down exercise. The diagram should feature a muscular man. The man is on the left, and the machine is on the right. The man's triceps should be highlighted in red, since they are working during the exercise. The biceps should not be highlighted.

Правда вот цена - это капец: $0.134 за картинку.

Попробовать тута: https://aistudio.google.com/
🔥9🤡21💩1
Тут хочется поздравить человечество, что мы опять в жопе как и в 2020-2022, но в данный момент дефицит не чипов, а модулей памяти.

Причём во всём виноваты все те же нейронки. https://www.tomshardware.com/pc-components/dram/openais-stargate-project-to-consume-up-to-40-percent-of-global-dram-output-inks-deal-with-samsung-and-sk-hynix-to-the-tune-of-up-to-900-000-wafers-per-month. До 40% всего спроса на чипы памяти обеспечивает одна OpenAI. А ещё есть всякие амазоны, гуглы, твиттеры и прочие ребята, которые хотят построить кучу датацентров.

Чтобы понять насколько ситуация шизовая - память HBM3 продаётся дешевле чем DDR4. А hbm3 в нормальном рынке была раз в 15 дороже чем DDR. https://www.techpowerup.com/343074/nvidia-demand-may-double-lpddr5x-and-server-dram-prices-in-2026

Так что если есть желание купить готовое решение по типу ноутбука или же какого-нибудь стационарного компьютера, по типу макмини, то лучше это делать пока есть сток и цена на него не меняется. А уже следующие ревизии железок будут учитывать цену памяти и рост может быть очень неприятным. А учитывая, что резервы openai до конца 2026 года, то дороговизна с нами спокойно может быть год, а то и дольше.
👍7💩2🤡1
Я тут последний месяц 100% времени посидел на опенаишном codex. И, это провал полный.

Если очень вкратце:
- Нет архитект мода. Ты не можешь сначала порассуждать о плане выполнения задачи, а потом запустить выполнение. Это архинеудобно
- Переключение reasoning в процессе работы слишком геморное. Сначала надо выбрать модель, а потом уже качество ризонинга.
Причём место настолько неочевидное, что я его не сумел загуглить нормально, и узнал о нём только из комментов.
- codex как и claude code позволяет остановить работу в любом месте и докинуть исправление в промпт. Но это тупо не работает. Клиент тебя игнорирует и попросту продолжает свой изначально построенный план
- claude code умеет в офигенную фишку: если ты в какой-нибудь директории сделаешь CLAUDE.md, то клиент прочтёт этот файл, если ему нужен какой-либо ресурс из этой директории. Это позволяет удобно бить документацию по пакетам. В codex же подобного нет. Есть только центральный AGENTS.md, остальное игнорируется. В итоге часть промпта занимает описание этого поведения, который иногда игнорится.
- codex не умеет ходить по вебу. У него попросту нет встроенных для этого тулов.

И если взять подписку на chatgpt, то ты получаешь работу и в codex. Однако есть нюансы:
- у anthropic есть подписки 3 уровней: 20/100/200. А у openai только 20/200. Ну, вот для меня 200 слишком дорого, а лимитов на 20 тупо не хватает. Ценовая политика по сравнению с конкурентами, увы, проигрывает
- claude code может не устраивать людей по качеству, но это не проблема. Можно взять альтернативные клиенты, по типу opencode, которые возьмут твою подписку и будут работать по-другому, что может больше тебе подходить. Я сам лично знаю таких людей.
Но с codex история другая. Они проверяют абсолютно все аргументы на сервере. Послал не ту куку? Пока. Послал не то название клиента? Покедова. И тут самое главное: послал другой системный запрос? Тоже работать не будет.
В итоге я могу продолжить платить антропику, даже если мне не нравятся его продукты. А вот с openai ты гвоздями прибит к их плохому софту.

Выводы неутешительные: openai сейчас не может предложить тупо ничего программисту, что не было бы покрыто антропиком. антропик тупо во всём лучше, причём за те же деньги
👍14💩64🤡2