Ладно, раз такой праздник, я капитально обновил первый шотган.
— Теперь можно автоподбирать контекст и автоэкзекьютить промпты с помощью ллм по вкусу
— История промптов хранится в приложении, всегда можно посмотреть.
— Сильно ускорил работу всех частей
Ну и обновил условия использования. Потому что этот ваш уопенсорс какая-то безблагодать.
Так что если вы зарабатываете более 1 млн долларов, то приходите за платной лицензией 😁
Забирать тут https://github.com/glebkudr/shotgun_code
Для новеньких. Шотган — это маленькая десктопная утилита, которая помогает вам компоновать файлы в контекст при работе с другими кодинговыми агентами, а так же моделями из веба. Незаменимая штука в арсенале разработчика.
— Теперь можно автоподбирать контекст и автоэкзекьютить промпты с помощью ллм по вкусу
— История промптов хранится в приложении, всегда можно посмотреть.
— Сильно ускорил работу всех частей
Ну и обновил условия использования. Потому что этот ваш уопенсорс какая-то безблагодать.
Так что если вы зарабатываете более 1 млн долларов, то приходите за платной лицензией 😁
Забирать тут https://github.com/glebkudr/shotgun_code
Для новеньких. Шотган — это маленькая десктопная утилита, которая помогает вам компоновать файлы в контекст при работе с другими кодинговыми агентами, а так же моделями из веба. Незаменимая штука в арсенале разработчика.
23🔥61❤🔥14👍2👏1
Gemini 3 pro очень сильная модель
В двух разных задачах вчера предложила очень элегантные оптимизации, до которых я бы не догадался самостоятельно. Посмотрите, насколько быстрее стал работать Шотган вчерашней версии — это его заслуга.
Ни с одной сеткой раньше такого не было — все их решения были для меня очевидны.
Баги тоже щелкает влет.
Так что текущий базовый пайплайн проапгрейжен:
— Пишем спеки/ищем баги: gemini 3, через ai studio (все еще бесплатно!). Под это как раз и зарелизил новый шотган.
— Пишем код по спекам: codex в codex cli для сложных задач и gpt-5.1 high в курсоре для мейнстрима.
В двух разных задачах вчера предложила очень элегантные оптимизации, до которых я бы не догадался самостоятельно. Посмотрите, насколько быстрее стал работать Шотган вчерашней версии — это его заслуга.
Ни с одной сеткой раньше такого не было — все их решения были для меня очевидны.
Баги тоже щелкает влет.
Так что текущий базовый пайплайн проапгрейжен:
— Пишем спеки/ищем баги: gemini 3, через ai studio (все еще бесплатно!). Под это как раз и зарелизил новый шотган.
— Пишем код по спекам: codex в codex cli для сложных задач и gpt-5.1 high в курсоре для мейнстрима.
2🔥48❤9
Gemini3 за 5 минут ваншотнул универсальную библиотеку на Go для доступа к любым LLM через любых провайдеров, с использованием всех особенностей каждой из моделей.
Как работает еще не проверял 😅
😁69👍10🤣9❤1🆒1
Глеб Кудрявцев про AI кодинг
Gemini3 за 5 минут ваншотнул универсальную библиотеку на Go для доступа к любым LLM через любых провайдеров, с использованием всех особенностей каждой из моделей. Как работает еще не проверял 😅
Попробовал поработать с ним как с основной моделью.
Ну, короче, в Курсоре гемини 3 убог донельзя. Не используйте. Похоже у него очень плохой тулинг, либо квантизация, либо контекста жестко зажимают. Очень поверхностно правит. Откатился для имплементаций на кодекс.
А гемини пока для планов. Через шотган 🥰
Ну, короче, в Курсоре гемини 3 убог донельзя. Не используйте. Похоже у него очень плохой тулинг, либо квантизация, либо контекста жестко зажимают. Очень поверхностно правит. Откатился для имплементаций на кодекс.
А гемини пока для планов. Через шотган 🥰
❤14😱4👌2💯2
Гугл
— с помпой релизит gemini 3 pro
Факт: модель вообще не тащит в агентском кодинге
OpenAI
— ну у нас тут codex-max вышел, может долго работать (нахера?). Ну и еще у него такое название как будто он только для богатых (нет), мы просто не умеем называть модели.
Факт: модель лютый вин. Умная и хорошо работает с контекстом, делает все детально как нужно. Полностью на нее переключился 🙂
— с помпой релизит gemini 3 pro
Факт: модель вообще не тащит в агентском кодинге
OpenAI
— ну у нас тут codex-max вышел, может долго работать (нахера?). Ну и еще у него такое название как будто он только для богатых (нет), мы просто не умеем называть модели.
Факт: модель лютый вин. Умная и хорошо работает с контекстом, делает все детально как нужно. Полностью на нее переключился 🙂
1🔥31❤18😁7🤬2
Forwarded from Ильшат Габдуллин
"Сходил" вчера вечером на онлайн-конференцию по применению ИИ в бизнесе.
Прошел бы мимо, но некоторых докладчиков знаю давно — например, Всеволода Устинова. И знаю, что они люди прагматичные, работают на результат и имеют за спиной опыт создания серьёзных вещей (в том числе приносящих прибыль - как критерий нужности того, что они делают). Подумал, что если бы ИИ им не давал реального преимущества (снятие личной рутины, доп.эффективность в бизнес-процессах и пр), то они бы этим не занимались и решил-таки послушать.
Пошел с целью пособирать "кубики для лего", т.е. посмотреть, какие атомарные функции люди отдают на откуп ИИ-нежити (писал про это в этом посте — там, где про салат). Но кроме этого получил оглушительную порцию почвы для размышлений и экспериментов. Такое ощущение, что парни-докладчики прилетели с какой-то параллельной планеты Земля, где время идет вперед лет на 50.
Чтобы не оказаться в состоянии бездумного ИИ-фанатизма, вот немного рациональных наблюдений и мыслей.
Общий паттерн, который встречался почти в каждом докладе: если у человека нет профессиональных знаний в своей предметной области, то надёжного и качественного результата в каких-то серьезных вещах ИИ не даст. Будет много мусора на входе и очень много мусора на выходе. Для меня это своеобразный маркер (не единственный и не 100% точный), что докладчик - не инфоцыган, который пытается втянуть тебя в свою воронку и что-то продать на хайпе темы ИИ, говоря про нулевую цену входа в новую предметку без опыта ("ща покажу как настроить ИИшечку и будете собирать бабло лопатами, не надо даже уметь читать").
Любая деятельность на реальный результат - это всё еще необходимость думать человеческим мозгом и тяжелый труд. Просто можно сделать его на порядки быстрее и с меньшим количеством ресурсов (в этом плане мне понравилась концепция "One-room company", по которую рассказывает Дмитрий Алексеев из DNS).
Пара цитат из докладов (местами не совсем дословных):
- в программировани: ИИ-инструменты не сильно помогут, если совсем никогда не писал код. Нужно быть инженером
- в видеопродакшене: платят не за то, что умеешь писать промты — сейчас это умеют все. Платят за экспертизу. А ИИ - это расширитель вашего таланта. Решает вкус, понимание композиции, насмотренность, понимание, что есть хорошо, а что плохо, внимание к деталям и пр.
- при создании текстов: без опыта и понимания что такое хороший текст - будут получаться бездумные статьи, которые никто не захочет читать — ими завален интернет.
А я посмею сделать еще более дерзкое предположение — чтобы получить гораздо более мощный буст, под этим всем должен быть ещё слой фундаментальных знаний, переносимых между разными предметными областями. И это даже не про понимание того, как устроены нейросети — хотя понимать это было бы хорошо (так можно вообще ювелирно точно требовать от них то, что хочешь под свою задачу). Это я про эти все душные системноинженерные штуки (применимые хоть для инженеров-ракетостроителей, хоть для танцоров), про которые вещаю из каждого своего утюга с 2018 года. По моей личой статистике - из тех, кому я про это рассказывал за все эти годы — только один человек более-менее прорвался через это зубодробительное знание (у него, кстати, все прекрасно с карьерой, причем не в ИТ, а в нефтедобыче). Ну может это даже к лучшему.
В общем, кроме всего прочего получил для себя очередное подтверждение, что вложение сил в освоение фундаментальных знаний — это отличная инвестиция, которая пригодится в том числе для ИИ-усиления человеческих возможностей. И мой интерес к теме ИИ (в плане практического/рационального) применения продолжает потихоньку расти.
* Иллюстрацию к посту взял из доклада Павла Молянова
Прошел бы мимо, но некоторых докладчиков знаю давно — например, Всеволода Устинова. И знаю, что они люди прагматичные, работают на результат и имеют за спиной опыт создания серьёзных вещей (в том числе приносящих прибыль - как критерий нужности того, что они делают). Подумал, что если бы ИИ им не давал реального преимущества (снятие личной рутины, доп.эффективность в бизнес-процессах и пр), то они бы этим не занимались и решил-таки послушать.
Пошел с целью пособирать "кубики для лего", т.е. посмотреть, какие атомарные функции люди отдают на откуп ИИ-нежити (писал про это в этом посте — там, где про салат). Но кроме этого получил оглушительную порцию почвы для размышлений и экспериментов. Такое ощущение, что парни-докладчики прилетели с какой-то параллельной планеты Земля, где время идет вперед лет на 50.
Чтобы не оказаться в состоянии бездумного ИИ-фанатизма, вот немного рациональных наблюдений и мыслей.
Общий паттерн, который встречался почти в каждом докладе: если у человека нет профессиональных знаний в своей предметной области, то надёжного и качественного результата в каких-то серьезных вещах ИИ не даст. Будет много мусора на входе и очень много мусора на выходе. Для меня это своеобразный маркер (не единственный и не 100% точный), что докладчик - не инфоцыган, который пытается втянуть тебя в свою воронку и что-то продать на хайпе темы ИИ, говоря про нулевую цену входа в новую предметку без опыта ("ща покажу как настроить ИИшечку и будете собирать бабло лопатами, не надо даже уметь читать").
Любая деятельность на реальный результат - это всё еще необходимость думать человеческим мозгом и тяжелый труд. Просто можно сделать его на порядки быстрее и с меньшим количеством ресурсов (в этом плане мне понравилась концепция "One-room company", по которую рассказывает Дмитрий Алексеев из DNS).
Пара цитат из докладов (местами не совсем дословных):
- в программировани: ИИ-инструменты не сильно помогут, если совсем никогда не писал код. Нужно быть инженером
- в видеопродакшене: платят не за то, что умеешь писать промты — сейчас это умеют все. Платят за экспертизу. А ИИ - это расширитель вашего таланта. Решает вкус, понимание композиции, насмотренность, понимание, что есть хорошо, а что плохо, внимание к деталям и пр.
- при создании текстов: без опыта и понимания что такое хороший текст - будут получаться бездумные статьи, которые никто не захочет читать — ими завален интернет.
А я посмею сделать еще более дерзкое предположение — чтобы получить гораздо более мощный буст, под этим всем должен быть ещё слой фундаментальных знаний, переносимых между разными предметными областями. И это даже не про понимание того, как устроены нейросети — хотя понимать это было бы хорошо (так можно вообще ювелирно точно требовать от них то, что хочешь под свою задачу). Это я про эти все душные системноинженерные штуки (применимые хоть для инженеров-ракетостроителей, хоть для танцоров), про которые вещаю из каждого своего утюга с 2018 года. По моей личой статистике - из тех, кому я про это рассказывал за все эти годы — только один человек более-менее прорвался через это зубодробительное знание (у него, кстати, все прекрасно с карьерой, причем не в ИТ, а в нефтедобыче). Ну может это даже к лучшему.
В общем, кроме всего прочего получил для себя очередное подтверждение, что вложение сил в освоение фундаментальных знаний — это отличная инвестиция, которая пригодится в том числе для ИИ-усиления человеческих возможностей. И мой интерес к теме ИИ (в плане практического/рационального) применения продолжает потихоньку расти.
* Иллюстрацию к посту взял из доклада Павла Молянова
2❤30👍17💯9🔥2😁1
Мы тут конфу вчера провели по AI в бизнесе. Такие вот отзывы пишут. Приятно ☺️
На самом деле в принципе хорошо получилось. Много практических кейсов, не только из кодинга (там про это я говорил), а в принципе из разных дисциплин. Классные были доклады про то как тексты писать, как креативы делать и т.д.
Доклады оформим и выложим в ютубе, поделюсь потом ссылочкой.
Дух, наверное, удалось уловить — нейронки — это для тех, кто умеет и хочет включать мозг. Тем они дают x100. А кто не умеет и не может — ну... Учитесь, пока не поздно 😁
На самом деле в принципе хорошо получилось. Много практических кейсов, не только из кодинга (там про это я говорил), а в принципе из разных дисциплин. Классные были доклады про то как тексты писать, как креативы делать и т.д.
Доклады оформим и выложим в ютубе, поделюсь потом ссылочкой.
Дух, наверное, удалось уловить — нейронки — это для тех, кто умеет и хочет включать мозг. Тем они дают x100. А кто не умеет и не может — ну... Учитесь, пока не поздно 😁
ai.careerfactory.ru
AI в бизнесе 2025 — практическая онлайн‑конференция CareerFactory
20 ноября • 6 экспертов и 6 часов практики. Реальные кейсы применения ИИ в продукте, маркетинге и продажах. Бесплатная регистрация, записи — в полном доступе.
🔥30❤12
Ищу альтернативу gpt-4o-mini, потестил на досуге разные модельки.
Могу сказать, что Grok-4.1 хороша. Она практически такая же по цене, но на два порядка умнее. Рекомендую присмотреться.
Могу сказать, что Grok-4.1 хороша. Она практически такая же по цене, но на два порядка умнее. Рекомендую присмотреться.
1🔥36👀5
Контекст — это всё
То, какой результат вы получаете от нейросетей, напрямую связан с умением подавать в них правильный контекст.
В четверг 27 ноября в 16 часов по Москве проведу открытую лекцию по контексту нейросетей.
Лекция для новичков. Ничего не нужно знать про сети и то, как они работают. Подойдет как разработчикам и сотрудникам ИТ компаний, так и не-айтишникам.
Вы выйдете с пониманием, как работают приложения на их основе, и как сделать свое.
— Как часто начинать новые чаты?
— Что такое страшные слова типа structured output, или mcp — простым языком?
— Какой длины должен быть промпт? (вы удивитесь)
Лекция бесплатная.
Регистрация тут
То, какой результат вы получаете от нейросетей, напрямую связан с умением подавать в них правильный контекст.
В четверг 27 ноября в 16 часов по Москве проведу открытую лекцию по контексту нейросетей.
Лекция для новичков. Ничего не нужно знать про сети и то, как они работают. Подойдет как разработчикам и сотрудникам ИТ компаний, так и не-айтишникам.
Вы выйдете с пониманием, как работают приложения на их основе, и как сделать свое.
— Как часто начинать новые чаты?
— Что такое страшные слова типа structured output, или mcp — простым языком?
— Какой длины должен быть промпт? (вы удивитесь)
Лекция бесплатная.
Регистрация тут
1👍40❤🔥4
Купил себе мак, буду делать iOS приложения.
Напишите в комментарии лучший сетап вайбкода под них.
— Какая ide? (Xcode понятно, что-то еще?)
— Какой фреймворк (Native Swift понятно, может что-то другое?)
В наличии подписки на chatgpt (кодекс) и курсор.
Последний раз прогал под iOS 13 лет назад, с тех пор все сильно изменилось 😅
Напишите в комментарии лучший сетап вайбкода под них.
— Какая ide? (Xcode понятно, что-то еще?)
— Какой фреймворк (Native Swift понятно, может что-то другое?)
В наличии подписки на chatgpt (кодекс) и курсор.
Последний раз прогал под iOS 13 лет назад, с тех пор все сильно изменилось 😅
2🔥26😁13👍11
Вышел новый Опус и вот уже пересуды, дескать, круче ли модель всего существующего, или нет.
И многие судят по странным бенчмаркам, типа "о господи, она работала 5/20/50/100500 минут и все сделала как нужно!"
Я и сам грешным делом этому поддаюсь.
На деле же риал шит риал толк в том, насколько модель может имплементировать фичу с высокой связностью для большого проекта.
Ну а по-проще, бенчмарк — это если она корректно и без подсказок сделала фичу, для которой уже есть с десяток методов, разбросанных в разных файлах, каждый из которых нельзя изобретать заново, а нужно использовать имеющийся.
И при этом проект имеет размер не в жалкие 5 тысяч строк/50к контекста, а что-нибудь типа от миллиона, а лучше от пяти.
В идеале еще, чтобы эта фича использовала свойства новых библиотек (вышедших вот вчера), то есть для корректной разработки нужно бы еще и погуглить, и не запутаться в версиях.
Вот тогда можно назвать модель прорывной в задачах кодинга. Потому что с более примитивными задачами они и так справляются почти все нормально, и отличия там небольшие.
И многие судят по странным бенчмаркам, типа "о господи, она работала 5/20/50/100500 минут и все сделала как нужно!"
Я и сам грешным делом этому поддаюсь.
На деле же риал шит риал толк в том, насколько модель может имплементировать фичу с высокой связностью для большого проекта.
Ну а по-проще, бенчмарк — это если она корректно и без подсказок сделала фичу, для которой уже есть с десяток методов, разбросанных в разных файлах, каждый из которых нельзя изобретать заново, а нужно использовать имеющийся.
И при этом проект имеет размер не в жалкие 5 тысяч строк/50к контекста, а что-нибудь типа от миллиона, а лучше от пяти.
В идеале еще, чтобы эта фича использовала свойства новых библиотек (вышедших вот вчера), то есть для корректной разработки нужно бы еще и погуглить, и не запутаться в версиях.
Вот тогда можно назвать модель прорывной в задачах кодинга. Потому что с более примитивными задачами они и так справляются почти все нормально, и отличия там небольшие.
1❤35👍20💯13🔥3😱1
Пообщались в сентябре с @neuraldeep про ЛЛМ-ки и RAG'и. Он очень глубокий практик, так что было очень интересно послушать его мысли.
Наконец-то домонтировали выпуск. Enjoy 🙂
https://www.youtube.com/watch?v=6MJ7cUN5xbc
Наконец-то домонтировали выпуск. Enjoy 🙂
https://www.youtube.com/watch?v=6MJ7cUN5xbc
YouTube
Зачем нужен RAG и как его готовить
Канал Глеба: https://news.1rj.ru/str/gleb_pro_ai
ТГ канал Валерия Ковальского https://news.1rj.ru/str/neuraldeep
Стать разработчиком с AI: https://ai.careerfactory.ru/
Ютуб Валерия https://www.youtube.com/@neuralkovalskii
Вместе с Валерием Ковальским, head of AI в RedMed Robot…
ТГ канал Валерия Ковальского https://news.1rj.ru/str/neuraldeep
Стать разработчиком с AI: https://ai.careerfactory.ru/
Ютуб Валерия https://www.youtube.com/@neuralkovalskii
Вместе с Валерием Ковальским, head of AI в RedMed Robot…
1🔥20❤13👍4👏2
Нужно мне сделать много-много иконок к приложению.
Сделал одну штуку в банане про. Пошел в следующий диалог - говорю, сделай вот таких иконок по списку, и кидаю список сущностей из json.
Она дает лист 4x4 с разными иконками.
Иду в Гемини и говорю — дай скрипт питона который мне это нарежет на иконки так, чтобы они были центрированы и одинакового размера.
Он дает скрипт.
Тащу спрайт с иконками и скрипт в opus 4.5 в курсоре и говорю - вот тебе скрипт, нарежь мне иконок и прицепи к соответствующим сущностям из json
Режет, прицепляет.
Итог: в приложении иконки из бананы, времени ушло 10 минут.
Чертовая магия, господа.
Особенно порадовало, что опус умеет на иконки смотреть, понимать что там находится и самостоятельно сопоставлять их с текстами. Не ожидал, что это будет работать, но работает прекрасно.
PS До этого мучился заставляя их рисовать noscript. Рисуют, но такое, со спрайтами оказалось работать намного удобнее.
Сделал одну штуку в банане про. Пошел в следующий диалог - говорю, сделай вот таких иконок по списку, и кидаю список сущностей из json.
Она дает лист 4x4 с разными иконками.
Иду в Гемини и говорю — дай скрипт питона который мне это нарежет на иконки так, чтобы они были центрированы и одинакового размера.
Он дает скрипт.
Тащу спрайт с иконками и скрипт в opus 4.5 в курсоре и говорю - вот тебе скрипт, нарежь мне иконок и прицепи к соответствующим сущностям из json
Режет, прицепляет.
Итог: в приложении иконки из бананы, времени ушло 10 минут.
Чертовая магия, господа.
Особенно порадовало, что опус умеет на иконки смотреть, понимать что там находится и самостоятельно сопоставлять их с текстами. Не ожидал, что это будет работать, но работает прекрасно.
PS До этого мучился заставляя их рисовать noscript. Рисуют, но такое, со спрайтами оказалось работать намного удобнее.
5❤47👍32🔥19💯2😢1
Ну просто как пример. Исходник — большой спрайт, дальше детекция и нарезка.
Ну бутылке, кстати, артефакт. Вниз расперло 🙂
PS Пишут, чего иконки мыльные. Так их целевой размер 40 пикселей 🙂 Телега не умеет просто в повышенной четкости показывать, а так-то они мелкие совсем.
Ну бутылке, кстати, артефакт. Вниз расперло 🙂
PS Пишут, чего иконки мыльные. Так их целевой размер 40 пикселей 🙂 Телега не умеет просто в повышенной четкости показывать, а так-то они мелкие совсем.
1🔥51😍6❤4🥴1