Андруша пишет код – Telegram
Андруша пишет код
1.25K subscribers
137 photos
1 video
1 file
218 links
Download Telegram
Тут произошла небольшая пушка, которая потенциально сулит нам микрореволюцией
https://x.com/sama/status/1889755723078443244

ТЛДР: обычных GPT моделей больше не будет. Будут только ризонинг.
Это революция, так как прямо сейчас самым эффективным способом работы является разделение работы на 2 части: с помощью ризонинга вы планируете работу и описываете её, а сам код пишет уже gpt модель. Пока что o3-mini на моей работе всё же хуже чем антропик по части написания кода. Но в будущем походу мы будем менять то как мы работаем и будем как-то подстраиваться под только ризонинг модели, так как GPT перестанут развиваться.

Практика показала, что OpenAI действует максимально бизнесово: не выпускают ничего пока их не догонят конкуренты. Не так давно появились модели от DeepSeek(которые, кмк, не дотягивают даже до o1-mini модели) и гугла(кмк, паритет), поэтому openai анонсирует новые модели.
Вполне возможно, я заменю клод 3.5 соннет на chatgpt 4.5 в своём пайплайне, но это не точно. Всё будет зависеть от точности и скорости работы. Но как минимум мы имеем подтверждение того, что опенаи считает, что конкуренты их уже догнали, так что не стесняйтесь смотреть на gemini 2.0.

Так же у меня есть планы записать небольшое видео на ютуб, в котором я подведу итоги как же в реальности работать программисту с кодом через нейронки и почему это ни в коем случае не кнопка "сделать красиво". Но оказалось, что запись видео и всего такого - чуток гемор для меня, поэтому хочется узнать скольки именно людям подобная фигня нужна. Просьба, поставьте палец вверх этому посту, если вам интересно подобное видео, так как тратить 3-4 часа своего времени просто так желания маловато.

Edited: Ну и если есть желание, чтобы я затронул какие-то конкретные вопросы - велком ту коммент.
👍1341🔥1💩1🤡1🌭1🍌1👻1
docs driven development
Пока я готовлю видео, поделюсь ещё одной мыслёй.

Как я писал ранее, люди очень плохи в том, чтобы формулировать задачи. Зачастую нам просто лень, так как мы подразумеваем, что контекст задачи есть в голове и у других людей и поэтому его не надо уточнять. Но это не так. И это проявляется как на практике, где время по согласованию задачи растёт по экспоненте от количества людей, так и с нейронками.

Первое, что я увидел - это был архитект мод: режим в котором ты сначала заставляешь нейронку формулировать задачу, а потом заставляешь выполнять задачу, относительно этой формулировки. И это работает, но не так хорошо как хотелось бы. У меня ни разу не получалось сделать задачу полностью с помощью этого метода. Нейрока тупо забывала свои же инструкции.

Поэтому я выработал другой подход: docs driven development
1. Генерим какую-то документацию к библиотеке
2. Скармливаем документацию нейронке и говорим выполнить задачу по ней
3. Смотрим что она предлагает и активно спорим, если она что-то делает не так
4. В момент, когда мы понимаем, что нейронка делает как нам хочется, запрещаем ей решать задачу и говорим ей исправить документацию: нейронка должна описать почему она не поняла задачу только по доке и что нужно в этой документации исправить
5. Обрываем сессию и возвращаемся ко второму шагу.

Почему документация важна? Потому что я прихожу к тому, что с нейронками эффективно можно жить только в монорепе с кучей мелких библиотек. Увы, и никак иначе. И документация нужна для того, чтобы нейронки понимали как работают соседние модули.

Подход выше мне упрощает работу очень сильно, так как по документации можно сразу сгенерить и тесты любых видов, и отдавать эту либу людям, что упрощает работу других людей. Одни плюсы.

Из минусов: я пока не уверен, что это прямо правильный путь. В интернете тупо 0 инфы о таком подходе. Как будто я первый кто до этого додумался. Но, главное что оно работает
👍15🤔5🤡2💩1😐1
Андруша пишет код
Полезные ссылки: aider.chat - рекомендую прочитать всё от корки до корки. Это концентрированная дока про то как работают клиенты к нейронкам https://docs.cline.bot - дока по Cline. Менее полезная, с моей колокольни, но тоже важный источник данных https://cline.bot/blog…
https://platform.openai.com/docs/guides/reasoning-best-practices

Ну и оказывается у openai тоже есть несколько годных статей про ИИшки в дополнение к вышеописанных разделам.

ТЛДР: как выбрать нужную модель для задачи.

Если вы не умеете формулировать задачу, то вам к ризонинг модели. Если можете - вам достаточно ГПТ.

А почему так - по ссылке выше.
👍82💩1🥱1
Я стараюсь не материться в канале, но они чо ебанулись с такими ценами? Какие 75/150 баксов?

https://openai.com/api/pricing/

А я считал 15 долларов у антропика космосом
😁11🥰2😱2🤡2💩1
https://yandex.cloud/ru/docs/foundation-models/

Я тут в рамках видоса попробовал YandexGPT, так как по идее они должны быть лучше для кириллических текстов чем конкуренты. Всё же Яндекс специализируется на русскоязычном рынке. И это правда так:
- у них лучше токенизация(до 25% процентов эффективнее чем openAI)
- их тексты не такие машинные, на мой взгляд(этот текст почти полностью сгенерирован YandexGPT с моими небольшими правками)
- за счёт лучшей токенизации результат получается дешевле.

И я бы перелез бы на их нейронку для, к примеру, текстов в этом бложике, но блин:
- У них собственный протокол общения с сервером
- Из SDK доступен только питон и HTTP. Всё остальное извольте писать самому. Использовать уже де-факто стандартный openAI API - не, это не для Яндекса. Ведь все создатели тулов точно прогнутся под Яндекс. Не то что какой-то Антропик, к примеру. Или DeepSeek, или Grok, или кто угодно другой.
- Совершенно ублюдочная система монетизации: есть не только токены, но и юниты, которые как-то между собой связаны. И вот после этого приседай с математикой, чтобы примерно прикинуть затраты
- Документация - это рак. Удачи узнать размер контекстного окна у какой-нибудь из моделей. Знаете, где я нашёл его? Верно. В ченжлоге. Пососите OpenAI, которые практически на главной вывешивают все тарифы. https://openai.com/api/pricing/
- Ну и контекстное окно в 32к токенов - это смех.
- Демо токенизации - это тоже идиотизм. Вот почему openai сделали демку https://platform.openai.com/tokenizer, а у вас только поход через апи? Вы напрямую хвастаетесь в пресс-релизе о том что у вас зашибенная токенизация русского языка.

И самое тупое, что почти всё - это пролёты в маркетинговой части. Такое чувство, что целью было максимально вбить палки в колёса, чтобы желание полностью было отбито. И у меня оно почти что отбито. Если в GPT5, релиз которого обещали через пару месяцев, поддержка русского языка будет на уровне, то Яндексовую модель можно будет выкидывать на помойку всем, кто не находится под страхом санкций и всего такого
👍14😁2🤡2💩1💯1
Напоминание о важности результата

У нас в проекте есть кодген openAPI схемы, который генерирует нам типобезопасный код для работы с API. Т.е. мы теперь вместо написания fetch(...) можем напрямую писать getUser() в коде и не заморачиваться над тем как корректно отсылать запросы.

Всё было хорошо пока не пришла эра ИИ. Наш кодген генерировал по 1 файлу на сервис. И этот файл мог достигать монструозных размеров: до 100-150к токенов на файл. И никакой клиент просто не вытягивал подобное: CLine вылетал с превышением контекста, а всякие курсоры просто забивали на его контент. В общем, решение нашлось - можно разбить файл на кучу файлов, каждый из которых будет содержать ровно по 1 функции.

Есть ещё один важный нюанс: мы используем Bazel для того чтобы поддерживать нашу монорепу. И у него есть один нюанс: все его задачи обязаны явно описывать output-файлы. Причём поддержки директорий тупо нет в нормальном исполнении. А в плане выше невозможно предугадать какие файлы будут созданы из-за того, что у каждого сервиса бекенда разное количество эндпоинтов. Или же можно, но тогда пришлось бы тупо дублировать логику в базере и в кодгене.

И тут пришло в голову отвратительнейшее решение: создать 100500 файлов 1.ts, 2.ts, ..., N.ts и руками подобрать N. Тогда мы точно будем знать какие файлы будут сгенерены и сможем указать их в параметрах задачи базеля.
Для сервисов, у которых эндпоинтов меньше N просто оставляем лишние файлы пустыми.
Решение максимально кривое и отвратительное, но оно работает. И я сэкономил наверно неделю времени, которое мог бы потратить на нормальное решение.

После этой задачи я чуток прикинул то что делал раньше и понимаю, что мог бы сэкономить кучу времени, если бы не работал над красотой и обходом костылей. Но если поправить костыль не так сложно(до 1 дня), то зачастую я просто не замечаю сколько времени я трачу на подобный рефакторинг.
Возможно, моё мнение сильно изменилось после того как я начал управлять ИИшкой и забивать на качество кода. Возможно, пора забивать и на качество своих решений, а не только на качество решений ИИшки.
👍10💩72🤡1😭1
Claude MAX

Cursor IDE сейчас одна из самых продвинутых IDE с возможностью пошерудить нейронками с точки зрения цена/качество. Всего лишь за 20 баксов вы получаете как агента, так и продвинутый автокомплит, так как свякие прибамбахи типа RAG'а для документации и подобного.

Но есть нюанс: курсор, как и все остальные продукты, ходит в API за денюжку за каждый запрос(а точнее за X токенов). И предоставлять безлимитное использование нейронками, если тебе каждый запрос попадает в копеечку - это очень странно. Особенно на фоне недавнего анонса Claude Code, который спокойно может жрать токены миллионами и тратить деньги безлимитно.

И даже если у них специальные бизнес-контракты с провайдерами нейронок с 99.9% скидками, то они всё равно пролетают по лимитам, так как поехавших и отправляющих запросы к нейронкам 24/7 вайбкодеров предостаточно. Поэтому у них есть не только особые контракты, но и, теперь подтверждённые, лимиты на использование нейронок. Непонятно что именно, но я, исходя из использования, как и другие(достаточно пошариться по сети) считаю, что это лимиты на размеры контекстного окна. Но это не точно.

Теперь же Cursor представляет особый тариф Claude MAX. По огромной цене 0.05$ за запрос или за MCP call. Что является просто огромной суммой для такого уровня услуг. Но зато у вас наконец-то есть возможность ходить к claude без ограничений. Эта сумма большая, так как в процентах 70-80 случаев прямой поход к claude будет на порядки дешевле. И это если не учитывать MCP вызовы.
И представление этого решения является максимально странным, так как это не ответ ни на что. Конкуренты не показывали ничего на что надо так отвечать и мне кажется, что у курсора проблемы с бизнес моделью, когда каждый платный пользователь просто уводит их в минус.

А со своей стороны я рекомендую пользоваться Cline или RooCode, которые не придумывают разные непрозрачности, чтобы сэкономить на качестве вашей работы. По простой причине - это опенсорс и они не хотят от вас денег. А в качестве бекенда можно спокойно использовать Github Copilot, который по такой же подписке даёт безлимитное количество запросов.

P.S. из интересного, в zed тоже не так давно появилась интеграция с копайлотом. Возможно, его можно как-то вытащить и заиспользовать у себя в работе, раз майки одобряют его работу в разных приложениях. Но это уже другая история
👍112🤔2🤡2💩1
https://goblin.tools

Набор бесплатных тулов, которые с помощью ИИшки делает "магию". Мне больше всего нравится тудушка: явно расписывает шаги, которые требуется выполнить для достижения цели.

Отключать мозг и просто выполнять что говорят становится ещё проще
👍15💩4🥴3🤡1
удалил(-а) Вас из группы

UPD: если вы пропустили смишнявку на 1 апреля, то она выглядела так
🤡69🤣15💩5😁3🤯3😱2🎉2🥴21🥰1
Если вы находитесь в другом городе и устали, нужен интернет и розетка, то попробуйте на карте поискать ближайшую публичную библиотеку.

Если вы в последний раз были в ней лет 20-30 назад и у вас остались совковые впечатления, то всё поменялось. Сейчас библиотеки - это бесплатные мини коровкинги без переговорок.
Так что не стесняйтесь. Вам будут только рады.
👍305💩2🤡2
Сегодня решил чуток повайбкодить и опять обделался, так как приходится включать мозг(

Особенно разочаровало то, что дизигнеры всё же нужны и не отправляются в отдел кадров. Запрос к чатгпт или же гуглу простой:

Нарисуй схематическое упражнение "rope press-down". В схеме должен быть мускулистый мужчина. Мужчина слева. Тренажёр справа. У мужчины должны быть подсвечены трицепсы красным, так как они работают во время упражнения. Бицепсы же не должны подсвечиваться.


Итог: получаем что-то похожее(в случае чатгпт) и что-то не очень похожее(в случае гугла). И вот уточнения перестают помогать. Картинка или портится полностью, или же делает что-то не то.
Впечатления полностью совпадают с программированием: 80% работы выполняется, а остальное приходится руками дорабатывать напильником.
Человеки, увы, пока что ещё нужны. Специфичность - это пока что то в чём мы превосходим железки.
😁151💩1🤡1💯1
Разработка дорожает, милорд.

https://github.blog/news-insights/product-news/github-copilot-agent-mode-activated/#premium-model-requests

Гитхаб такие молодцы: и агентов выкатили, и MCP поддержали, и лимиты ввели на запросы.
Теперь можно сказать покедова безлимитным моделям через copilot. Все нормальные модели только за денюжку. Причём деньги какие-то космические в базовом тарифе. Если курсор или windserf даёт 500 запросов, то copilot всего лишь 300.

И нормальное количество(1500) только в подписке за 40 баксов в месяц.
Только есть один нюанс: в нейронку напрямую вы можете ходить с полным контекстом, а в копайлот - до 60к токенов.

Теперь я совершенно не вижу смысла в подписке за 10 баксов. Это просто деньги на ветер.
👍92🤡2🤬1😢1💩1
Deep-reseach

Если делать что-то чуть сложнее тупой вёрстки и покраски кнопок, то, увы, приходится включать мозг и время от времени гуглить, чтобы уточнить информацию или какие-то гипотезы.
Но, ура, теперь мозг можно включать ещё чуть меньше и автоматизировать эту бесячую фазу поиска информации.

DeepReseach - это, наверное, самая важная фича нейронок, которая у нас есть. Это штука, которая ищет в интернете за вас в куче источников и позволяет скомпилировать ответ на вопрос, который вы задали.
Я сейчас время от времени допиливаю свой бандлер для библиотек и сейчас работаю над поддержкой монореп. И deep-research зашёл как никогда хорошо

https://g.co/gemini/share/7a58c2e5ce60
https://chatgpt.com/share/67f2e174-9dd4-8010-bc52-87cc8e5b2670
https://x.com/i/grok/share/28OICLkiQD4cGKhQOWqnI5kUt

Я задал один и тот же вопрос gemini и chatgpt. На моё удивление, гугл справился раза в 3 быстрее, посетил 200 сайтов и дал почти что корректный ответ. Чатгпт же работал долго, посетил 20 сайтов и дал на 100% верный ответ.
Но есть одно НО: гугл бесплатный и, вроде как, безлимитный. А чатгпт стоит 20 баксов в месяц и даёт 10 запусков в месяц.

Так что если вы что-то ищите по своим вопросам, возможно, стоит просто пойти в gemini и попросить нейронку поискать за вас.

UPD: добавил ссылку на результат грока на тот же запрос. Получилось весьма недурно. На уровне chatgpt, кмк
👍112🔥2💩1🤡1
Тут последний крупный игрок, наконец-то вступил в гонку агентов AI.
https://blog.jetbrains.com/blog/2025/04/16/jetbrains-ides-go-ai/
Самое главное: они включили платный tier в All Products Pack. Так что если у вас такой тариф, то вперёд пробовать.

По моему мнению, они рвут cursor и windsurf и уж точно copilot. Причём Junie мне кажется выигрышным в этом отношении, так как они первые кто продаёт подход, а не просто набор тулов.
Поясню:
Junie на каждую команду строит пайплайн решения задачи(показывая его пользователю) и выполняет его шаг за шагом. Остальные же агенты просто являются черным яшиком, поведение которого ты предсказать никак не можешь.
И это даёт огромное преимущество, так как ты можешь заранее предугадать и исправить ошибки системы, а не пытаться потом править нагорячую.

Но у релиза минусы тоже есть. Лендинг просто отвратительный. Для меня главные вопросы: стоимость и лимиты.
И ни на один из них текущий лендинг ответа не даёт(
Есть такие-то кредиты, которые тратятся непонятно как.
Есть 2 подписки, которые отличаются только количеством кредитов(а что за кредиты всё ещё непонятно).

Так же непонятно что с ценами. Я обычно покупаю All Products Pack, но теперь AI Pro включен в эту подписку. А AI Ultimate стоит уже 20 баксов в месяц. Ну, и покупать ещё одну полноценную подписку, хотя у меня есть усеченная, желания мало. Переплачивать неохота.

Но Антон Архипов(Advocate в JetBrains) уже сказал, что это временные проблемы и будут исправлены за 2-3 недели.
👍12🔥3💩2🤡2
Там openai за последние дни презентовала целую россыпь новых моделей

4.1 - новая версия GPT модели, которая лучше 4o в программировании, но хуже 4.5 в остальных задачах.
Самое главное достоинство этой модели - это контекстное окно в 1M токенов. Как минимум за счёт этого она может быть лучше 3.7 Sonnet в программировании

o3 - замена o1, которая и умнее(по словам openai), но и дешевле по апи: 40 баксов аутпута против 60. Ещё пару поколений и можно будет свободно гонять oX модели через апи. Доступна уже в приложении чатгпт вместо o1.
Что я заметил: у меня она думала спокойно 2 минуты, что плюс. o1 у меня всегда думала максимум 1 минуту

o4-mini - более дешевая и умный(по словам openai) аналог o3-mini. Из минусов: всё то же контекстное окно в 200к токенов. Т.е. с помощью неё не поконтруировать длинные и можные промпты. С этой точки зрения gemini 2.5pro вне конкуренции.

Так же openai представили https://github.com/openai/codex, который является конкурентом, очевидно, claude code. Теперь, похоже что, провайдеры будут конкурировать не только моделями, но и клиентами к ним.

=======

Для тех кто не вошёл в эту всю движуху по ai и всему такому, я горячо рекомендую попробовать гугловую модель gemini 2.5pro и Сline/RooCode. Или же windsurf, которые на неделю раздают модели openai бесплатно.
У гугла есть программа на Google Cloud, где они новым пользователям дают 300 баксов на 3 месяца. Этого с лихвой хватит чтобы наиграться и понять прелесть современного агентного программирования
👍10💩3🤡3🔥1🤮1
The new Cookie Store API

Внезапно узнал, что уже 4 года как существует новое API для работы с куками, которое давно доступно в Chrome, недавно стало доступно в Safari и все еще недоступно в Firefox - Cookie Store API

Новое API намного удобнее. Хотя любое API, по сравнению со старым, будет удобнее.

Первое, что бросается в глаза - это человеческий интерфейс для установки. Если вам нужно просто установить значение - cookieStore.set("cookie1", "cookie1-value");. Если вам нужна полная настройка:

cookieStore.set({
name: 'theme',
value: 'dark',
path: '/',
partitioned: false,
sameSite: 'strict',
});


Второе, что бросается в глаза - это то, что все взаимодействие стало асинхронным
  try {
await cookieStore.set("cookie1", "cookie1-value");
} catch (error) {
console.log(`Error setting cookie1: ${error}`);
}


Тут я не совсем понял смысла от асинхронщины, но методы будут бросать ошибки - что тоже хорошо.

Еще 1 фича не бросается в глаза, но она очень крутая - можно наконец-то подписаться на изменения кук и увидеть измененные и удаленные куки
cookieStore.addEventListener('change', (event) => {
console.log(event);
});


Пример использования из статьи: синхронизируем состояние стора с состоянием куки
cookieStore.addEventListener('change', (event) => {
const deleted = ev.deleted.find((c) => c.name === THEME_COOKIE_NAME);

if (deleted) {
setStoredTheme(undefined);
return;
}

const changed = ev.changed.find((c) => c.name === THEME_COOKIE_NAME);

if (changed) {
setStoredTheme(changed.value);
return;
}
})


В общем, выглядит многообещающе. Ждем открытия без флага в Firefox и можно юзать. Но если хочется уже использовать, то должны быть рабочие полифилы.

https://fotis.xyz/posts/the-new-cookie-store-api/

#development #javanoscript #cookie
👍18💩1🤡1
локальные ллм

Тут пару дней назад релизнулись новые типапроизводительные модели qwen3 и все их хвалят
- https://news.1rj.ru/str/artalog/1633
- https://news.1rj.ru/str/itbeard/1738

А мне как раз сегодня(уже через час) лететь куда-то. И так как в полёте всё равно делать особо нечего, то можно по идее попрограммировать.
Мой выбор упал на ollama для запуска моделей, так как я уже давно её использую и вроде как терпимо всё работает. Но в этот раз без приключений не обошлось.
1. Сначала был гемор со скачиванием 30b модели. У меня ломалось скачивание модели на середине, так как стояла не последняя версия ollama(это я уже узнал потом через час мучений)
2. Потом эта штука начала тормозить и вылетать, так как не хватало памяти. Спасибо, закрыл лишние программы
3. После чего оказалось, что ни RooCode, ни Cline или Continue нормально работать с ними не хотят. Просто шлют какой-то свой промпт и уходят в бесконечный цикл(см. скриншот)
И только aider из-за его простоты и тупости нормально +- работал с ollama+qwen:30b

Благо, что есть 2 товарища выше, которые не настолько упороты, чтобы предпочитать консольные тулы как я. Они посоветовали LM Studio.
И это просто сказка по сравнению с ollama. Оно и ставится из brew, и сама скачивает оптимизированную модель именно под M архитектуру(так называемую MLX) и одной кнопкой экспоузит сервер для внешних приложений, и графический чат имеет. Радости полные штаны от человека, который не хочет заморачиваться с этим всем openai compatibility.

Если хотите всё же попробовать локальные модели, то

brew install --cask lm-studio

И особо не заморачивайтесь. Потом, если понадобится(прямо если реально понадобится), то уже будете упарываться и копаться внутри. А так - опенсорс опять сделать вроде как нормальный продукт, хоть и со второй попытки.

P.S. MLX версия на моём M1 Max+64RAM занимает всего лишь 22гига памяти для 50k токенов контекста и выдаёт 60 токенов в секунду, что весьма быстро.
👍13💩4🔥21🤡1
Андруша пишет код
локальные ллм Тут пару дней назад релизнулись новые типапроизводительные модели qwen3 и все их хвалят - https://news.1rj.ru/str/artalog/1633 - https://news.1rj.ru/str/itbeard/1738 А мне как раз сегодня(уже через час) лететь куда-то. И так как в полёте всё равно делать особо нечего…
Кроме того что я в поездку себе настроил локальные LLMки для работы(было вполне сносно), я взял с собой ещё одну игрушку: travel router Cudy TR300

Это роутер, размером с 8 коробков от спичек, который спокойно работает от павербанка. И я хотел проверить насколько он имеет смысл в моём путешествии, так как мы провели 8 дней в отдельном доме, а работу и прочие интернет-хотелки никто не отменял.

Из плюсов:
- Поддержка openwrt из коробки
- Я имел доступ к домашней сети через wireguard, что позволило мне иметь доступы к внутреннему серверу и использовать все наработки по типу резалок рекламы и автоматического обхода блокировок, которые я уже давно настроил на своём роутере.
- 2.4Ghz моего роутера пробивали стены на порядки лучше чем роутер, который стоял в том доме. Я спокойно сидел с улицы с ноутбуком, когда мои друзья не могли пользоваться Wi-Fi
- Не нужно подключать всю свою ораву устройств к новой сети. Ты просто пользуешься тем что привык, так как для тебя сеть та же самая
- Я попробовал роутер в аэропорту. И travelmate для openwrt позволяет пробивать все эти страницы по типу "нажмите на кнопку, чтобы получить интернет на 30 минут" автоматически. Очень удобно.

Из минусов:
- Пришлось почти что сразу сносить родную прошивку и ставить openwrt, так как мне нужна поддержка VPN до дома, а в родной прошивке поддержки не оказалось(хотя на сайте было обещание этого)
- Только 2 антенны. Я ожидал что их будет 4, чтобы я мог первую пару использовать для подключения к внешней сети, а другими раздавать свою сеть. В итоге пришлось подключиться по 5Ghz и раздавать 2.4Ghz. Не особо жалуюсь, но всё же неприятно
- Пришлось чуток изучать сети, так как openwrt совсем не френдли. Но минут 20 и chatgpt помогли мне настроить то что мне требуется

На тусовке я встретил ещё одну людину(Женя, привет). Он пользуется тревел роутером, но от Gl.inet. По его словам, там куда более дружелюбный интерфейс к дебилам как я. Из коробки и tailscale поднимается, и wifi-сети создаются, и всё чики-пуки. Но особой жалости что я не взял себе игрушку от них у меня нет, так как я ожидал что буду перешивать роутер для себя, так как openwrt куда развесистее штука.

Нужна ли эта штука каждому человеку? Кмк - нет. Но она прямо сильно упрощает жизнь. Если у вас в поездке хотя бы 2 ноутбука и несколько телефонов, то возможно стоит заложить 100 евро на будущие путешествия. Как минимум возможность не клацать эту дибильную кнопку "дай мне ещё 15 минут интернета" в кафешке стоит того.
👍22🔥3💩1🤡1