Ну все, блохеры побежали наперебой рассказывать о невероятных преимуществах курсора 2
Правда же в том, что это проходняк.
Имеют значение только модели. Если их собственная моделька получилась хотя бы уровня соннета, то есть какой-то смысл. Все остальное — фентифлюшки. Вон, половина разбирающихся людей кодит вообще без всяких ide 🙂
Короче, не разделяю взгляда на сенсационность обновления. А хайп им конечно приходится держать, поэтому восторженные отклики еще увидим.
Правда же в том, что это проходняк.
Имеют значение только модели. Если их собственная моделька получилась хотя бы уровня соннета, то есть какой-то смысл. Все остальное — фентифлюшки. Вон, половина разбирающихся людей кодит вообще без всяких ide 🙂
Короче, не разделяю взгляда на сенсационность обновления. А хайп им конечно приходится держать, поэтому восторженные отклики еще увидим.
👍23❤10👌6💊2🌭1🍌1
Ну вот модель мне их пока нравится. Хорошая. Не пробовал ей давать что-то без ТЗ, но по SDD работает как бы и не хуже кодекса, только быстрее раз в 50.
UI рисует неплохо.
Буду дальше тестить.
UI рисует неплохо.
Буду дальше тестить.
🔥24
А я чуток притормозил в канале писать — веду курс для новичков в AI-кодинге, много времени это занимает 🙂
Медленно и обстоятельно постигаем гит, докер, курсор и первые шаги (они, как оказывается, довольно неочевидные для многих).
Современный кодинг это архитектурная работа. Нужно знать компоненты и подходы, а не языки. С этой позиции и делаю курс. Эдакая "архитектура для начинающих". На следующей неделе, например, буду рассказывать про многокомпонентную архитектуру (фронт/бэк/бд), что для чего берем и когда.
Разрабы это конечно все знают, поэтому курс не для них. Для разрабов хочу отдельные бесплатные лекции выложить по SDD и контекст-инженерии, нужно только собраться с силами 🙂
Если вдруг вы хотели бы вкатится в вайбкодинговую движуху, но тяжко — присоединяйтесь, еще можно нагнать, либо просто взять тариф с видео и идти в своем темпе.
Медленно и обстоятельно постигаем гит, докер, курсор и первые шаги (они, как оказывается, довольно неочевидные для многих).
Современный кодинг это архитектурная работа. Нужно знать компоненты и подходы, а не языки. С этой позиции и делаю курс. Эдакая "архитектура для начинающих". На следующей неделе, например, буду рассказывать про многокомпонентную архитектуру (фронт/бэк/бд), что для чего берем и когда.
Разрабы это конечно все знают, поэтому курс не для них. Для разрабов хочу отдельные бесплатные лекции выложить по SDD и контекст-инженерии, нужно только собраться с силами 🙂
Если вдруг вы хотели бы вкатится в вайбкодинговую движуху, но тяжко — присоединяйтесь, еще можно нагнать, либо просто взять тариф с видео и идти в своем темпе.
1🔥37👍13❤6💊6
День использования Composer на реальных задачах.
Лучшее применение модели — фиксить баги типизации в TS 😁 Быстро и без проблем. А это класс задач лично меня который все время раздражает. Вроде мелочь, но каждый раз откусывает время.
Верстку тоже делает симпатично.
Простой бэк и круды вполне ок.
Бэк посложнее, с алгоритмами — проигрывает GPT-5 и Кодексу сильно. Авторизация, крипто, графы, многопоточность с кэшированием — все мимо. Косячит.
На удивление, кстати, неплоха в разборе проблем девопса. Прям codex-lvl. То есть очень быстро и точно способна починить, например, ваши беды с докер-контейнерами и пробросом портов.
В целом — старшие модели ради нее я конечно не выкину, но для быстрофиксов очень даже полезно. Можно брать в арсенал.
Лучшее применение модели — фиксить баги типизации в TS 😁 Быстро и без проблем. А это класс задач лично меня который все время раздражает. Вроде мелочь, но каждый раз откусывает время.
Верстку тоже делает симпатично.
Простой бэк и круды вполне ок.
Бэк посложнее, с алгоритмами — проигрывает GPT-5 и Кодексу сильно. Авторизация, крипто, графы, многопоточность с кэшированием — все мимо. Косячит.
На удивление, кстати, неплоха в разборе проблем девопса. Прям codex-lvl. То есть очень быстро и точно способна починить, например, ваши беды с докер-контейнерами и пробросом портов.
В целом — старшие модели ради нее я конечно не выкину, но для быстрофиксов очень даже полезно. Можно брать в арсенал.
3👍16👌5❤3🌚1🍾1💋1
This media is not supported in your browser
VIEW IN TELEGRAM
Страдаю ерундой 😁
Захотелось сделать движок для бесконечного зума. Три дня заняло до текущего состояния, есть еще куда оптимизировать. Просто потому что могу 😂
Под капотом redis cassandra go pixi.js
Захотелось сделать движок для бесконечного зума. Три дня заняло до текущего состояния, есть еще куда оптимизировать. Просто потому что могу 😂
Под капотом redis cassandra go pixi.js
🔥19❤6
В твиттерах скандальчик, что новые собственные модельки Курсора и Windsurf представляют собой дообученых китайцев.
Чтож, если это так, что впервые можно сказать, что китайцы уже на что-то способны. Раньше это были слезы, так что вести отрадные для всех (для РФ же это значит, что не за горами аналоги от Яндекса и Т-банка, которыми уже более менее можно пользоваться).
Чтож, если это так, что впервые можно сказать, что китайцы уже на что-то способны. Раньше это были слезы, так что вести отрадные для всех (для РФ же это значит, что не за горами аналоги от Яндекса и Т-банка, которыми уже более менее можно пользоваться).
❤32
Как нарисовать карту
Думаю, тут очень многие это знают, но меня всегда дико прикалывала магия технологий, так что поделюсь с теми, кто не в курсе.
Например, вам нужно отобразить огромную картинку. Типа там 100 тысяч на 100 тысяч пикселей. Один пиксель 4 байта, так что ваша картинка будет весить ~40 гигабайт.
Сколько-то можно сжать, но все равно у вас будет десяток гигабайт данных, которые ну никак и никуда.
И вот на выход приходит алгоритм:
— А давайте нарежем огромное исходное полотно на кусочки, например 256x256 пикселей. Это будет самый детальный слой (например, 10). Сами такие кусочки принято называть "тайлы".
Затем четыре кусочка объединим вместе и сохраним тоже как 256 пикселей (это называется down-sampling). Это будет слой 9 — в нем будет ровно в 4 раза меньше кусков, чем в слое 10.
По тому же принципу из слоя 9 делаем слой 8.
И так далее, до нулевого.
Возникает эдакое "дерево". Где ствол - это первый нулевой слой. И далее от на каждом шаге у него становится в 4 раза больше веток и соответственно, в два раза больше информации.
А теперь магия.
1) На самом деле на экране мы видим всегда ограниченную область. Например 1920*1280 пикселей. Это максимум 54 тайла по 256 пикселей. Иначе говоря, на нашем дереве это всегда срез определенной ширины. И занимающий мегабайты, а вовсе не гигабайты.
2) Когда мы приближаем нашу картинку, то по сути мы проходим по дереву, от его ствола до веточек. Выбирая те 54 тайла которые должны быть показаны на экране ровно из текущего уровня приближения.
Называется это все квад-дерево (так как каждый шаг мы пилим ветвь на 4 части).
В алгоритме этом нет ничего сложного, он довольно интуитивен, и широко используется в картографии, графике и построении 3d сцен (там четверки квадратов заменяются на восьмерки кубов, и дерево называется не квад-деревом, а октодеревом)
Какое это имеет отношение к ИИ? Такое, что если вы не знаете про существование этих алгоритмов, то вам очень сложно будет их реализовать.
А если знаете, то ИИ-шка воспроизводит их в два счета, что я тут по ходу дела и демонстрирую 🙂
В общем и целом это про знание архитектуры, которое со всеми этими новомодными инструментами становится все важнее и важнее.
Думаю, тут очень многие это знают, но меня всегда дико прикалывала магия технологий, так что поделюсь с теми, кто не в курсе.
Например, вам нужно отобразить огромную картинку. Типа там 100 тысяч на 100 тысяч пикселей. Один пиксель 4 байта, так что ваша картинка будет весить ~40 гигабайт.
Сколько-то можно сжать, но все равно у вас будет десяток гигабайт данных, которые ну никак и никуда.
И вот на выход приходит алгоритм:
— А давайте нарежем огромное исходное полотно на кусочки, например 256x256 пикселей. Это будет самый детальный слой (например, 10). Сами такие кусочки принято называть "тайлы".
Затем четыре кусочка объединим вместе и сохраним тоже как 256 пикселей (это называется down-sampling). Это будет слой 9 — в нем будет ровно в 4 раза меньше кусков, чем в слое 10.
По тому же принципу из слоя 9 делаем слой 8.
И так далее, до нулевого.
Возникает эдакое "дерево". Где ствол - это первый нулевой слой. И далее от на каждом шаге у него становится в 4 раза больше веток и соответственно, в два раза больше информации.
А теперь магия.
1) На самом деле на экране мы видим всегда ограниченную область. Например 1920*1280 пикселей. Это максимум 54 тайла по 256 пикселей. Иначе говоря, на нашем дереве это всегда срез определенной ширины. И занимающий мегабайты, а вовсе не гигабайты.
2) Когда мы приближаем нашу картинку, то по сути мы проходим по дереву, от его ствола до веточек. Выбирая те 54 тайла которые должны быть показаны на экране ровно из текущего уровня приближения.
Называется это все квад-дерево (так как каждый шаг мы пилим ветвь на 4 части).
В алгоритме этом нет ничего сложного, он довольно интуитивен, и широко используется в картографии, графике и построении 3d сцен (там четверки квадратов заменяются на восьмерки кубов, и дерево называется не квад-деревом, а октодеревом)
Какое это имеет отношение к ИИ? Такое, что если вы не знаете про существование этих алгоритмов, то вам очень сложно будет их реализовать.
А если знаете, то ИИ-шка воспроизводит их в два счета, что я тут по ходу дела и демонстрирую 🙂
В общем и целом это про знание архитектуры, которое со всеми этими новомодными инструментами становится все важнее и важнее.
❤45🔥25👍14💅2🥴1
Самое крутое применение ИИ в кодинге
Допустим, вы сениор разраб. Вам все вокруг говорят вайбкод ололо, но вы и сами пишете неплохо.
И где вам профит от ИИ?
Я готов рассказать вам момент, где это просто люто решает.
А именно — поиск и запуск всякой чужой гадости с гитхаба. Ну и заодно ее допил.
Например, вам нужно сделать какой-то алгоритм. Под это вы нашли в интернетах пару юпитер ноутбуков, и какой-то странный код 22 года с пятью звездочками.
Пытаетесь запустить — ничего не работает, ошибки и вообще ничего не понятно.
Как было раньше? Нужно гадать и шаманить, что ж не так. И скорее всего, просто выкинуть.
Как сейчас? Пишем агенту "запусти эту хрень. Кстати, о чем это вообще, составь доку?"
И все запускается!
Более того, если вам что-то не нравится в подобном коде, то это допиливается в мгновение ока. Там где раньше оупенсорс по сути был одним названием, сейчас это реальная возможность писать код кому-то, кроме автора репозитория.
В итоге. Я вижу достаточно революционную ситуацию на оупенсорс-сцене. С одной стороны ИИ мешает крупным устоявшимся репам, ибо всякие ноунеймы заваливают их тупыми патчами.
С другой стороны, это дает дикий буст к продуктивности работы с 99% странных, мелких и эзотерических реп. Что особенно хорошо, когда вам нужно имплементировать мудреные алгоритмы или подходы, ибо там все такое. Если раньше в вашей поделке никто бы и не захотел разбираться, то сейчас есть шанс, что ее не только смогут установить, но и по возможности допилят.
PS А еще, я любую гадость просто сразу по дефолту оборачиваю ИИ-шкой в докер, и не думаю о том, что что-то там может быть небезопасно. Раньше бы пришлось отдельно поднимать виртуалку и вообще, париться. Сейчас один промпт и все готово.
Допустим, вы сениор разраб. Вам все вокруг говорят вайбкод ололо, но вы и сами пишете неплохо.
И где вам профит от ИИ?
Я готов рассказать вам момент, где это просто люто решает.
А именно — поиск и запуск всякой чужой гадости с гитхаба. Ну и заодно ее допил.
Например, вам нужно сделать какой-то алгоритм. Под это вы нашли в интернетах пару юпитер ноутбуков, и какой-то странный код 22 года с пятью звездочками.
Пытаетесь запустить — ничего не работает, ошибки и вообще ничего не понятно.
Как было раньше? Нужно гадать и шаманить, что ж не так. И скорее всего, просто выкинуть.
Как сейчас? Пишем агенту "запусти эту хрень. Кстати, о чем это вообще, составь доку?"
И все запускается!
Более того, если вам что-то не нравится в подобном коде, то это допиливается в мгновение ока. Там где раньше оупенсорс по сути был одним названием, сейчас это реальная возможность писать код кому-то, кроме автора репозитория.
В итоге. Я вижу достаточно революционную ситуацию на оупенсорс-сцене. С одной стороны ИИ мешает крупным устоявшимся репам, ибо всякие ноунеймы заваливают их тупыми патчами.
С другой стороны, это дает дикий буст к продуктивности работы с 99% странных, мелких и эзотерических реп. Что особенно хорошо, когда вам нужно имплементировать мудреные алгоритмы или подходы, ибо там все такое. Если раньше в вашей поделке никто бы и не захотел разбираться, то сейчас есть шанс, что ее не только смогут установить, но и по возможности допилят.
PS А еще, я любую гадость просто сразу по дефолту оборачиваю ИИ-шкой в докер, и не думаю о том, что что-то там может быть небезопасно. Раньше бы пришлось отдельно поднимать виртуалку и вообще, париться. Сейчас один промпт и все готово.
2❤41👍25💯16🔥14
А вот это вот интересно
Cloudflare, оказывается, выпустили в оупенсорс конструктор вайбкод-приложений.
Смысл в том, что вы делаете сайт, и позволяете любому клиенту запустить и разрабатывать на нем свое вайбкод приложение. Изоляция, хостинг, работа с множеством ллм из коробки.
Короче говоря, любой может запустить свой lovable.
Сумасшедшая вещь, если подумать. Под Mit лицензией, то есть можно использовать для всего.
Внимание, вопрос, кто-нибудь ставил/тестил у себя? Звучит слишком хорошо. Хочу узнать подводные камни 🙂
https://github.com/cloudflare/vibesdk
Cloudflare, оказывается, выпустили в оупенсорс конструктор вайбкод-приложений.
Смысл в том, что вы делаете сайт, и позволяете любому клиенту запустить и разрабатывать на нем свое вайбкод приложение. Изоляция, хостинг, работа с множеством ллм из коробки.
Короче говоря, любой может запустить свой lovable.
Сумасшедшая вещь, если подумать. Под Mit лицензией, то есть можно использовать для всего.
Внимание, вопрос, кто-нибудь ставил/тестил у себя? Звучит слишком хорошо. Хочу узнать подводные камни 🙂
https://github.com/cloudflare/vibesdk
GitHub
GitHub - cloudflare/vibesdk: An open-source vibe coding platform that helps you build your own vibe-coding platform, built entirely…
An open-source vibe coding platform that helps you build your own vibe-coding platform, built entirely on Cloudflare stack - GitHub - cloudflare/vibesdk: An open-source vibe coding platform that h...
👍10❤3🦄3🔥2🫡1
Продолжаю упарываться в разное тупо по приколу.
На этот раз меня не устроила производительность питона, поэтому мы с нейронкой на выходных научились писать скрипты на CUDA. И самое смешное, что это заработало 🥹
Вайбкод решает короче, раньше я обходил такое за километр. А тут ничего, оно само там свои векторы рисует, а мне знай бизнес-задачи формулируй.
Мы с вами буквально живем в техногиковском раю, где только взять столько времени, чтобы это все опробовать 🙂
На этот раз меня не устроила производительность питона, поэтому мы с нейронкой на выходных научились писать скрипты на CUDA. И самое смешное, что это заработало 🥹
Вайбкод решает короче, раньше я обходил такое за километр. А тут ничего, оно само там свои векторы рисует, а мне знай бизнес-задачи формулируй.
Мы с вами буквально живем в техногиковском раю, где только взять столько времени, чтобы это все опробовать 🙂
🔥73💯27👍10🙏6🤯1
Шотган Про выйдет в оупенсорс
Я понял фишку нового Шотгана. Это идеальная машина для описания спек.
Кодить может миллион агентов. Шотган делает это местами неплохо, но сильно отстает по привычному UI.
А спеки в Шотгане крайне удобно и бюджетно. Не знаю ни одного инструмента, где бы это было хотя бы близко по результату.
И важная новость. Я решил, что скоро выложу его в оупенсорс. Понимаю, что не вывожу разработку в одиночку/маленькой командой, а доделывать еще кучу всего.
Будет открытая лицензия для инди.
В первую очередь нужны в помощь умельцы, которые смогут улучшить скан/сделать его более надежным/заставить работать на дешевых или локальных моделях.
Если вы такой умелец — буду рад вашему участию 👍
Я понял фишку нового Шотгана. Это идеальная машина для описания спек.
Кодить может миллион агентов. Шотган делает это местами неплохо, но сильно отстает по привычному UI.
А спеки в Шотгане крайне удобно и бюджетно. Не знаю ни одного инструмента, где бы это было хотя бы близко по результату.
И важная новость. Я решил, что скоро выложу его в оупенсорс. Понимаю, что не вывожу разработку в одиночку/маленькой командой, а доделывать еще кучу всего.
Будет открытая лицензия для инди.
В первую очередь нужны в помощь умельцы, которые смогут улучшить скан/сделать его более надежным/заставить работать на дешевых или локальных моделях.
Если вы такой умелец — буду рад вашему участию 👍
5❤64🔥54👍26
Есть такой проект — OpenSCAD, представляет собой язык и среду исполнения для рисования 3d моделек нормальным способом (через код), а не мудохаясь в редакторе.
Пользуюсь ей уже лет десять.
А еще, у софтины есть форк, в котором можно рисовать все на питоне — PythonSCAD. Он работает аналогично, но питон взял как раз для чистоты — тут уж не погрешить, что модель просто не знает языка.
Так вот. Решил в нем порисовать. Засунул в курсор и кинул задачу GPT-5.
Ожидаемо, вердикт — пространственное мышление амебы. Модель тупа как пробка.
Благо в математику она еще немного может, то есть запараметризировать какую-нибудь сеть ей удается. Но комбинации фигур — сразу вилы.
А жаль. Жду недождусь, когда агенты станут способны так же лихо программировать в 3d, как сейчас в питоне. Ух я развернусь тогда с 3d принтером 😎
Пользуюсь ей уже лет десять.
А еще, у софтины есть форк, в котором можно рисовать все на питоне — PythonSCAD. Он работает аналогично, но питон взял как раз для чистоты — тут уж не погрешить, что модель просто не знает языка.
Так вот. Решил в нем порисовать. Засунул в курсор и кинул задачу GPT-5.
Ожидаемо, вердикт — пространственное мышление амебы. Модель тупа как пробка.
Благо в математику она еще немного может, то есть запараметризировать какую-нибудь сеть ей удается. Но комбинации фигур — сразу вилы.
А жаль. Жду недождусь, когда агенты станут способны так же лихо программировать в 3d, как сейчас в питоне. Ух я развернусь тогда с 3d принтером 😎
3🔥19❤9👍9
Итак, правильный ответ.
Я вас вчера немножко дезинформировал, так как пока сидел, нашел еще парочку хороших моделей 😎
В итоге две модельки из топа смогли корректно распознать как размытый текст с передней части упаковки, так и перевернутую табличку.
1️⃣ Qwen3 VL 235b - самый качественный результат
2️⃣ Gemini 2.5 flash - уровень по ощущениям чуть ниже qwen, но почти-почти
3️⃣ GLM 4.5 VL - распознал много, но уже не все.
Вся первая троица уложилась в 0.2 цента за запрос
Отдельная номинация — малые модели спецом под OCR. Тестил Paddleocr-VL и granite-docling-258m
Обе они с этой картинкой не справились совсем. Однако, для более простых случаев они работают хорошо, а еще — сохраняют позиционную информацию, поэтому подходят для массовой экстракции текстов из сканов.
С paddleocr-vl я смог отсканить здоровенный учебник на 200 страниц с формулами и т.д. И все это заняло 2 часа на моей дохлой ноутбучной 3060 видеокарте.
"Из коробки" заработало не все, но пошаманив с постобработкой bbox и формул, смог добиться очень похожего воспроизведения pdf страниц в виде html. Очень даже годно, можно пользоваться.
Доклинг показался мне похуже, но тут большой разброс какие именно брать бенчмарки, мой вывод очень субъективен.
Итого: если вам нужно сканить всякую рандомную дичь, то я бы брал квен. Если дешево и на большом потоке какие-то бумажные странички, то paddleocr-vl
PS Самое же удивительное для меня, это то, что в конце 2025 года все еще нет решения уровня "засунул, оно пожужжало и идеально отсканило". Даже с крутыми модельками куча шаманства и пайплайнинга, чтобы получить какой-то полезный итоговый результат.
Я вас вчера немножко дезинформировал, так как пока сидел, нашел еще парочку хороших моделей 😎
В итоге две модельки из топа смогли корректно распознать как размытый текст с передней части упаковки, так и перевернутую табличку.
1️⃣ Qwen3 VL 235b - самый качественный результат
2️⃣ Gemini 2.5 flash - уровень по ощущениям чуть ниже qwen, но почти-почти
3️⃣ GLM 4.5 VL - распознал много, но уже не все.
Вся первая троица уложилась в 0.2 цента за запрос
Отдельная номинация — малые модели спецом под OCR. Тестил Paddleocr-VL и granite-docling-258m
Обе они с этой картинкой не справились совсем. Однако, для более простых случаев они работают хорошо, а еще — сохраняют позиционную информацию, поэтому подходят для массовой экстракции текстов из сканов.
С paddleocr-vl я смог отсканить здоровенный учебник на 200 страниц с формулами и т.д. И все это заняло 2 часа на моей дохлой ноутбучной 3060 видеокарте.
"Из коробки" заработало не все, но пошаманив с постобработкой bbox и формул, смог добиться очень похожего воспроизведения pdf страниц в виде html. Очень даже годно, можно пользоваться.
Доклинг показался мне похуже, но тут большой разброс какие именно брать бенчмарки, мой вывод очень субъективен.
Итого: если вам нужно сканить всякую рандомную дичь, то я бы брал квен. Если дешево и на большом потоке какие-то бумажные странички, то paddleocr-vl
PS Самое же удивительное для меня, это то, что в конце 2025 года все еще нет решения уровня "засунул, оно пожужжало и идеально отсканило". Даже с крутыми модельками куча шаманства и пайплайнинга, чтобы получить какой-то полезный итоговый результат.
👍39❤11🔥10
Решил выпустить подгон для любителей минимализма. Шотган про в форм-факторе шотгана 1 😁
Подбор контекста по кнопке + отправка результатов промпта в апишку и получение ответа. Скоро залью.
Вот чего пока нет — нету скана системы. Помогите мне сделать скан. С ним контекст будет подбираться на порядок качественнее. Репа открыта — нужен умелец, который вкорячит сюда SGR процесс. Подход из большого шотгана объясню и покажу как работает. Напишите 🙂
Подбор контекста по кнопке + отправка результатов промпта в апишку и получение ответа. Скоро залью.
Вот чего пока нет — нету скана системы. Помогите мне сделать скан. С ним контекст будет подбираться на порядок качественнее. Репа открыта — нужен умелец, который вкорячит сюда SGR процесс. Подход из большого шотгана объясню и покажу как работает. Напишите 🙂
2🔥30👍5❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Пока что впечатления самые приятные, очень мощная модель, как минимум уровень GPT-5.
Отмечу, что ровно держит инструкции. Дал в одной таске пять разнородных задач и она смогла выполнить их все, а не как обычно — половину забыв, а половину сломав.
Надо делать скидку на то что это превью, обычно при старте наливают моделям максимум мощности.
Для примера — кнопочка со сложной анимацией. Заваншотал и визуал и функционал и связку с бд и вьюху на соседней вкладке.
Отмечу, что ровно держит инструкции. Дал в одной таске пять разнородных задач и она смогла выполнить их все, а не как обычно — половину забыв, а половину сломав.
Надо делать скидку на то что это превью, обычно при старте наливают моделям максимум мощности.
Для примера — кнопочка со сложной анимацией. Заваншотал и визуал и функционал и связку с бд и вьюху на соседней вкладке.
👍17❤7🔥1