Шотган Про выйдет в оупенсорс
Я понял фишку нового Шотгана. Это идеальная машина для описания спек.
Кодить может миллион агентов. Шотган делает это местами неплохо, но сильно отстает по привычному UI.
А спеки в Шотгане крайне удобно и бюджетно. Не знаю ни одного инструмента, где бы это было хотя бы близко по результату.
И важная новость. Я решил, что скоро выложу его в оупенсорс. Понимаю, что не вывожу разработку в одиночку/маленькой командой, а доделывать еще кучу всего.
Будет открытая лицензия для инди.
В первую очередь нужны в помощь умельцы, которые смогут улучшить скан/сделать его более надежным/заставить работать на дешевых или локальных моделях.
Если вы такой умелец — буду рад вашему участию 👍
Я понял фишку нового Шотгана. Это идеальная машина для описания спек.
Кодить может миллион агентов. Шотган делает это местами неплохо, но сильно отстает по привычному UI.
А спеки в Шотгане крайне удобно и бюджетно. Не знаю ни одного инструмента, где бы это было хотя бы близко по результату.
И важная новость. Я решил, что скоро выложу его в оупенсорс. Понимаю, что не вывожу разработку в одиночку/маленькой командой, а доделывать еще кучу всего.
Будет открытая лицензия для инди.
В первую очередь нужны в помощь умельцы, которые смогут улучшить скан/сделать его более надежным/заставить работать на дешевых или локальных моделях.
Если вы такой умелец — буду рад вашему участию 👍
5❤64🔥54👍26
Есть такой проект — OpenSCAD, представляет собой язык и среду исполнения для рисования 3d моделек нормальным способом (через код), а не мудохаясь в редакторе.
Пользуюсь ей уже лет десять.
А еще, у софтины есть форк, в котором можно рисовать все на питоне — PythonSCAD. Он работает аналогично, но питон взял как раз для чистоты — тут уж не погрешить, что модель просто не знает языка.
Так вот. Решил в нем порисовать. Засунул в курсор и кинул задачу GPT-5.
Ожидаемо, вердикт — пространственное мышление амебы. Модель тупа как пробка.
Благо в математику она еще немного может, то есть запараметризировать какую-нибудь сеть ей удается. Но комбинации фигур — сразу вилы.
А жаль. Жду недождусь, когда агенты станут способны так же лихо программировать в 3d, как сейчас в питоне. Ух я развернусь тогда с 3d принтером 😎
Пользуюсь ей уже лет десять.
А еще, у софтины есть форк, в котором можно рисовать все на питоне — PythonSCAD. Он работает аналогично, но питон взял как раз для чистоты — тут уж не погрешить, что модель просто не знает языка.
Так вот. Решил в нем порисовать. Засунул в курсор и кинул задачу GPT-5.
Ожидаемо, вердикт — пространственное мышление амебы. Модель тупа как пробка.
Благо в математику она еще немного может, то есть запараметризировать какую-нибудь сеть ей удается. Но комбинации фигур — сразу вилы.
А жаль. Жду недождусь, когда агенты станут способны так же лихо программировать в 3d, как сейчас в питоне. Ух я развернусь тогда с 3d принтером 😎
3🔥19❤9👍9
Итак, правильный ответ.
Я вас вчера немножко дезинформировал, так как пока сидел, нашел еще парочку хороших моделей 😎
В итоге две модельки из топа смогли корректно распознать как размытый текст с передней части упаковки, так и перевернутую табличку.
1️⃣ Qwen3 VL 235b - самый качественный результат
2️⃣ Gemini 2.5 flash - уровень по ощущениям чуть ниже qwen, но почти-почти
3️⃣ GLM 4.5 VL - распознал много, но уже не все.
Вся первая троица уложилась в 0.2 цента за запрос
Отдельная номинация — малые модели спецом под OCR. Тестил Paddleocr-VL и granite-docling-258m
Обе они с этой картинкой не справились совсем. Однако, для более простых случаев они работают хорошо, а еще — сохраняют позиционную информацию, поэтому подходят для массовой экстракции текстов из сканов.
С paddleocr-vl я смог отсканить здоровенный учебник на 200 страниц с формулами и т.д. И все это заняло 2 часа на моей дохлой ноутбучной 3060 видеокарте.
"Из коробки" заработало не все, но пошаманив с постобработкой bbox и формул, смог добиться очень похожего воспроизведения pdf страниц в виде html. Очень даже годно, можно пользоваться.
Доклинг показался мне похуже, но тут большой разброс какие именно брать бенчмарки, мой вывод очень субъективен.
Итого: если вам нужно сканить всякую рандомную дичь, то я бы брал квен. Если дешево и на большом потоке какие-то бумажные странички, то paddleocr-vl
PS Самое же удивительное для меня, это то, что в конце 2025 года все еще нет решения уровня "засунул, оно пожужжало и идеально отсканило". Даже с крутыми модельками куча шаманства и пайплайнинга, чтобы получить какой-то полезный итоговый результат.
Я вас вчера немножко дезинформировал, так как пока сидел, нашел еще парочку хороших моделей 😎
В итоге две модельки из топа смогли корректно распознать как размытый текст с передней части упаковки, так и перевернутую табличку.
1️⃣ Qwen3 VL 235b - самый качественный результат
2️⃣ Gemini 2.5 flash - уровень по ощущениям чуть ниже qwen, но почти-почти
3️⃣ GLM 4.5 VL - распознал много, но уже не все.
Вся первая троица уложилась в 0.2 цента за запрос
Отдельная номинация — малые модели спецом под OCR. Тестил Paddleocr-VL и granite-docling-258m
Обе они с этой картинкой не справились совсем. Однако, для более простых случаев они работают хорошо, а еще — сохраняют позиционную информацию, поэтому подходят для массовой экстракции текстов из сканов.
С paddleocr-vl я смог отсканить здоровенный учебник на 200 страниц с формулами и т.д. И все это заняло 2 часа на моей дохлой ноутбучной 3060 видеокарте.
"Из коробки" заработало не все, но пошаманив с постобработкой bbox и формул, смог добиться очень похожего воспроизведения pdf страниц в виде html. Очень даже годно, можно пользоваться.
Доклинг показался мне похуже, но тут большой разброс какие именно брать бенчмарки, мой вывод очень субъективен.
Итого: если вам нужно сканить всякую рандомную дичь, то я бы брал квен. Если дешево и на большом потоке какие-то бумажные странички, то paddleocr-vl
PS Самое же удивительное для меня, это то, что в конце 2025 года все еще нет решения уровня "засунул, оно пожужжало и идеально отсканило". Даже с крутыми модельками куча шаманства и пайплайнинга, чтобы получить какой-то полезный итоговый результат.
👍39❤11🔥10
Решил выпустить подгон для любителей минимализма. Шотган про в форм-факторе шотгана 1 😁
Подбор контекста по кнопке + отправка результатов промпта в апишку и получение ответа. Скоро залью.
Вот чего пока нет — нету скана системы. Помогите мне сделать скан. С ним контекст будет подбираться на порядок качественнее. Репа открыта — нужен умелец, который вкорячит сюда SGR процесс. Подход из большого шотгана объясню и покажу как работает. Напишите 🙂
Подбор контекста по кнопке + отправка результатов промпта в апишку и получение ответа. Скоро залью.
Вот чего пока нет — нету скана системы. Помогите мне сделать скан. С ним контекст будет подбираться на порядок качественнее. Репа открыта — нужен умелец, который вкорячит сюда SGR процесс. Подход из большого шотгана объясню и покажу как работает. Напишите 🙂
2🔥30👍5❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Пока что впечатления самые приятные, очень мощная модель, как минимум уровень GPT-5.
Отмечу, что ровно держит инструкции. Дал в одной таске пять разнородных задач и она смогла выполнить их все, а не как обычно — половину забыв, а половину сломав.
Надо делать скидку на то что это превью, обычно при старте наливают моделям максимум мощности.
Для примера — кнопочка со сложной анимацией. Заваншотал и визуал и функционал и связку с бд и вьюху на соседней вкладке.
Отмечу, что ровно держит инструкции. Дал в одной таске пять разнородных задач и она смогла выполнить их все, а не как обычно — половину забыв, а половину сломав.
Надо делать скидку на то что это превью, обычно при старте наливают моделям максимум мощности.
Для примера — кнопочка со сложной анимацией. Заваншотал и визуал и функционал и связку с бд и вьюху на соседней вкладке.
👍17❤7🔥1
Ладно, раз такой праздник, я капитально обновил первый шотган.
— Теперь можно автоподбирать контекст и автоэкзекьютить промпты с помощью ллм по вкусу
— История промптов хранится в приложении, всегда можно посмотреть.
— Сильно ускорил работу всех частей
Ну и обновил условия использования. Потому что этот ваш уопенсорс какая-то безблагодать.
Так что если вы зарабатываете более 1 млн долларов, то приходите за платной лицензией 😁
Забирать тут https://github.com/glebkudr/shotgun_code
Для новеньких. Шотган — это маленькая десктопная утилита, которая помогает вам компоновать файлы в контекст при работе с другими кодинговыми агентами, а так же моделями из веба. Незаменимая штука в арсенале разработчика.
— Теперь можно автоподбирать контекст и автоэкзекьютить промпты с помощью ллм по вкусу
— История промптов хранится в приложении, всегда можно посмотреть.
— Сильно ускорил работу всех частей
Ну и обновил условия использования. Потому что этот ваш уопенсорс какая-то безблагодать.
Так что если вы зарабатываете более 1 млн долларов, то приходите за платной лицензией 😁
Забирать тут https://github.com/glebkudr/shotgun_code
Для новеньких. Шотган — это маленькая десктопная утилита, которая помогает вам компоновать файлы в контекст при работе с другими кодинговыми агентами, а так же моделями из веба. Незаменимая штука в арсенале разработчика.
23🔥61❤🔥14👍2👏1
Gemini 3 pro очень сильная модель
В двух разных задачах вчера предложила очень элегантные оптимизации, до которых я бы не догадался самостоятельно. Посмотрите, насколько быстрее стал работать Шотган вчерашней версии — это его заслуга.
Ни с одной сеткой раньше такого не было — все их решения были для меня очевидны.
Баги тоже щелкает влет.
Так что текущий базовый пайплайн проапгрейжен:
— Пишем спеки/ищем баги: gemini 3, через ai studio (все еще бесплатно!). Под это как раз и зарелизил новый шотган.
— Пишем код по спекам: codex в codex cli для сложных задач и gpt-5.1 high в курсоре для мейнстрима.
В двух разных задачах вчера предложила очень элегантные оптимизации, до которых я бы не догадался самостоятельно. Посмотрите, насколько быстрее стал работать Шотган вчерашней версии — это его заслуга.
Ни с одной сеткой раньше такого не было — все их решения были для меня очевидны.
Баги тоже щелкает влет.
Так что текущий базовый пайплайн проапгрейжен:
— Пишем спеки/ищем баги: gemini 3, через ai studio (все еще бесплатно!). Под это как раз и зарелизил новый шотган.
— Пишем код по спекам: codex в codex cli для сложных задач и gpt-5.1 high в курсоре для мейнстрима.
2🔥48❤9
Gemini3 за 5 минут ваншотнул универсальную библиотеку на Go для доступа к любым LLM через любых провайдеров, с использованием всех особенностей каждой из моделей.
Как работает еще не проверял 😅
😁69👍10🤣9❤1🆒1
Глеб Кудрявцев про AI кодинг
Gemini3 за 5 минут ваншотнул универсальную библиотеку на Go для доступа к любым LLM через любых провайдеров, с использованием всех особенностей каждой из моделей. Как работает еще не проверял 😅
Попробовал поработать с ним как с основной моделью.
Ну, короче, в Курсоре гемини 3 убог донельзя. Не используйте. Похоже у него очень плохой тулинг, либо квантизация, либо контекста жестко зажимают. Очень поверхностно правит. Откатился для имплементаций на кодекс.
А гемини пока для планов. Через шотган 🥰
Ну, короче, в Курсоре гемини 3 убог донельзя. Не используйте. Похоже у него очень плохой тулинг, либо квантизация, либо контекста жестко зажимают. Очень поверхностно правит. Откатился для имплементаций на кодекс.
А гемини пока для планов. Через шотган 🥰
❤14😱4👌2💯2
Гугл
— с помпой релизит gemini 3 pro
Факт: модель вообще не тащит в агентском кодинге
OpenAI
— ну у нас тут codex-max вышел, может долго работать (нахера?). Ну и еще у него такое название как будто он только для богатых (нет), мы просто не умеем называть модели.
Факт: модель лютый вин. Умная и хорошо работает с контекстом, делает все детально как нужно. Полностью на нее переключился 🙂
— с помпой релизит gemini 3 pro
Факт: модель вообще не тащит в агентском кодинге
OpenAI
— ну у нас тут codex-max вышел, может долго работать (нахера?). Ну и еще у него такое название как будто он только для богатых (нет), мы просто не умеем называть модели.
Факт: модель лютый вин. Умная и хорошо работает с контекстом, делает все детально как нужно. Полностью на нее переключился 🙂
1🔥31❤18😁7🤬2
Forwarded from Ильшат Габдуллин
"Сходил" вчера вечером на онлайн-конференцию по применению ИИ в бизнесе.
Прошел бы мимо, но некоторых докладчиков знаю давно — например, Всеволода Устинова. И знаю, что они люди прагматичные, работают на результат и имеют за спиной опыт создания серьёзных вещей (в том числе приносящих прибыль - как критерий нужности того, что они делают). Подумал, что если бы ИИ им не давал реального преимущества (снятие личной рутины, доп.эффективность в бизнес-процессах и пр), то они бы этим не занимались и решил-таки послушать.
Пошел с целью пособирать "кубики для лего", т.е. посмотреть, какие атомарные функции люди отдают на откуп ИИ-нежити (писал про это в этом посте — там, где про салат). Но кроме этого получил оглушительную порцию почвы для размышлений и экспериментов. Такое ощущение, что парни-докладчики прилетели с какой-то параллельной планеты Земля, где время идет вперед лет на 50.
Чтобы не оказаться в состоянии бездумного ИИ-фанатизма, вот немного рациональных наблюдений и мыслей.
Общий паттерн, который встречался почти в каждом докладе: если у человека нет профессиональных знаний в своей предметной области, то надёжного и качественного результата в каких-то серьезных вещах ИИ не даст. Будет много мусора на входе и очень много мусора на выходе. Для меня это своеобразный маркер (не единственный и не 100% точный), что докладчик - не инфоцыган, который пытается втянуть тебя в свою воронку и что-то продать на хайпе темы ИИ, говоря про нулевую цену входа в новую предметку без опыта ("ща покажу как настроить ИИшечку и будете собирать бабло лопатами, не надо даже уметь читать").
Любая деятельность на реальный результат - это всё еще необходимость думать человеческим мозгом и тяжелый труд. Просто можно сделать его на порядки быстрее и с меньшим количеством ресурсов (в этом плане мне понравилась концепция "One-room company", по которую рассказывает Дмитрий Алексеев из DNS).
Пара цитат из докладов (местами не совсем дословных):
- в программировани: ИИ-инструменты не сильно помогут, если совсем никогда не писал код. Нужно быть инженером
- в видеопродакшене: платят не за то, что умеешь писать промты — сейчас это умеют все. Платят за экспертизу. А ИИ - это расширитель вашего таланта. Решает вкус, понимание композиции, насмотренность, понимание, что есть хорошо, а что плохо, внимание к деталям и пр.
- при создании текстов: без опыта и понимания что такое хороший текст - будут получаться бездумные статьи, которые никто не захочет читать — ими завален интернет.
А я посмею сделать еще более дерзкое предположение — чтобы получить гораздо более мощный буст, под этим всем должен быть ещё слой фундаментальных знаний, переносимых между разными предметными областями. И это даже не про понимание того, как устроены нейросети — хотя понимать это было бы хорошо (так можно вообще ювелирно точно требовать от них то, что хочешь под свою задачу). Это я про эти все душные системноинженерные штуки (применимые хоть для инженеров-ракетостроителей, хоть для танцоров), про которые вещаю из каждого своего утюга с 2018 года. По моей личой статистике - из тех, кому я про это рассказывал за все эти годы — только один человек более-менее прорвался через это зубодробительное знание (у него, кстати, все прекрасно с карьерой, причем не в ИТ, а в нефтедобыче). Ну может это даже к лучшему.
В общем, кроме всего прочего получил для себя очередное подтверждение, что вложение сил в освоение фундаментальных знаний — это отличная инвестиция, которая пригодится в том числе для ИИ-усиления человеческих возможностей. И мой интерес к теме ИИ (в плане практического/рационального) применения продолжает потихоньку расти.
* Иллюстрацию к посту взял из доклада Павла Молянова
Прошел бы мимо, но некоторых докладчиков знаю давно — например, Всеволода Устинова. И знаю, что они люди прагматичные, работают на результат и имеют за спиной опыт создания серьёзных вещей (в том числе приносящих прибыль - как критерий нужности того, что они делают). Подумал, что если бы ИИ им не давал реального преимущества (снятие личной рутины, доп.эффективность в бизнес-процессах и пр), то они бы этим не занимались и решил-таки послушать.
Пошел с целью пособирать "кубики для лего", т.е. посмотреть, какие атомарные функции люди отдают на откуп ИИ-нежити (писал про это в этом посте — там, где про салат). Но кроме этого получил оглушительную порцию почвы для размышлений и экспериментов. Такое ощущение, что парни-докладчики прилетели с какой-то параллельной планеты Земля, где время идет вперед лет на 50.
Чтобы не оказаться в состоянии бездумного ИИ-фанатизма, вот немного рациональных наблюдений и мыслей.
Общий паттерн, который встречался почти в каждом докладе: если у человека нет профессиональных знаний в своей предметной области, то надёжного и качественного результата в каких-то серьезных вещах ИИ не даст. Будет много мусора на входе и очень много мусора на выходе. Для меня это своеобразный маркер (не единственный и не 100% точный), что докладчик - не инфоцыган, который пытается втянуть тебя в свою воронку и что-то продать на хайпе темы ИИ, говоря про нулевую цену входа в новую предметку без опыта ("ща покажу как настроить ИИшечку и будете собирать бабло лопатами, не надо даже уметь читать").
Любая деятельность на реальный результат - это всё еще необходимость думать человеческим мозгом и тяжелый труд. Просто можно сделать его на порядки быстрее и с меньшим количеством ресурсов (в этом плане мне понравилась концепция "One-room company", по которую рассказывает Дмитрий Алексеев из DNS).
Пара цитат из докладов (местами не совсем дословных):
- в программировани: ИИ-инструменты не сильно помогут, если совсем никогда не писал код. Нужно быть инженером
- в видеопродакшене: платят не за то, что умеешь писать промты — сейчас это умеют все. Платят за экспертизу. А ИИ - это расширитель вашего таланта. Решает вкус, понимание композиции, насмотренность, понимание, что есть хорошо, а что плохо, внимание к деталям и пр.
- при создании текстов: без опыта и понимания что такое хороший текст - будут получаться бездумные статьи, которые никто не захочет читать — ими завален интернет.
А я посмею сделать еще более дерзкое предположение — чтобы получить гораздо более мощный буст, под этим всем должен быть ещё слой фундаментальных знаний, переносимых между разными предметными областями. И это даже не про понимание того, как устроены нейросети — хотя понимать это было бы хорошо (так можно вообще ювелирно точно требовать от них то, что хочешь под свою задачу). Это я про эти все душные системноинженерные штуки (применимые хоть для инженеров-ракетостроителей, хоть для танцоров), про которые вещаю из каждого своего утюга с 2018 года. По моей личой статистике - из тех, кому я про это рассказывал за все эти годы — только один человек более-менее прорвался через это зубодробительное знание (у него, кстати, все прекрасно с карьерой, причем не в ИТ, а в нефтедобыче). Ну может это даже к лучшему.
В общем, кроме всего прочего получил для себя очередное подтверждение, что вложение сил в освоение фундаментальных знаний — это отличная инвестиция, которая пригодится в том числе для ИИ-усиления человеческих возможностей. И мой интерес к теме ИИ (в плане практического/рационального) применения продолжает потихоньку расти.
* Иллюстрацию к посту взял из доклада Павла Молянова
2❤30👍17💯9🔥2😁1
Мы тут конфу вчера провели по AI в бизнесе. Такие вот отзывы пишут. Приятно ☺️
На самом деле в принципе хорошо получилось. Много практических кейсов, не только из кодинга (там про это я говорил), а в принципе из разных дисциплин. Классные были доклады про то как тексты писать, как креативы делать и т.д.
Доклады оформим и выложим в ютубе, поделюсь потом ссылочкой.
Дух, наверное, удалось уловить — нейронки — это для тех, кто умеет и хочет включать мозг. Тем они дают x100. А кто не умеет и не может — ну... Учитесь, пока не поздно 😁
На самом деле в принципе хорошо получилось. Много практических кейсов, не только из кодинга (там про это я говорил), а в принципе из разных дисциплин. Классные были доклады про то как тексты писать, как креативы делать и т.д.
Доклады оформим и выложим в ютубе, поделюсь потом ссылочкой.
Дух, наверное, удалось уловить — нейронки — это для тех, кто умеет и хочет включать мозг. Тем они дают x100. А кто не умеет и не может — ну... Учитесь, пока не поздно 😁
ai.careerfactory.ru
AI в бизнесе 2025 — практическая онлайн‑конференция CareerFactory
20 ноября • 6 экспертов и 6 часов практики. Реальные кейсы применения ИИ в продукте, маркетинге и продажах. Бесплатная регистрация, записи — в полном доступе.
🔥30❤12
Ищу альтернативу gpt-4o-mini, потестил на досуге разные модельки.
Могу сказать, что Grok-4.1 хороша. Она практически такая же по цене, но на два порядка умнее. Рекомендую присмотреться.
Могу сказать, что Grok-4.1 хороша. Она практически такая же по цене, но на два порядка умнее. Рекомендую присмотреться.
1🔥36👀5
Контекст — это всё
То, какой результат вы получаете от нейросетей, напрямую связан с умением подавать в них правильный контекст.
В четверг 27 ноября в 16 часов по Москве проведу открытую лекцию по контексту нейросетей.
Лекция для новичков. Ничего не нужно знать про сети и то, как они работают. Подойдет как разработчикам и сотрудникам ИТ компаний, так и не-айтишникам.
Вы выйдете с пониманием, как работают приложения на их основе, и как сделать свое.
— Как часто начинать новые чаты?
— Что такое страшные слова типа structured output, или mcp — простым языком?
— Какой длины должен быть промпт? (вы удивитесь)
Лекция бесплатная.
Регистрация тут
То, какой результат вы получаете от нейросетей, напрямую связан с умением подавать в них правильный контекст.
В четверг 27 ноября в 16 часов по Москве проведу открытую лекцию по контексту нейросетей.
Лекция для новичков. Ничего не нужно знать про сети и то, как они работают. Подойдет как разработчикам и сотрудникам ИТ компаний, так и не-айтишникам.
Вы выйдете с пониманием, как работают приложения на их основе, и как сделать свое.
— Как часто начинать новые чаты?
— Что такое страшные слова типа structured output, или mcp — простым языком?
— Какой длины должен быть промпт? (вы удивитесь)
Лекция бесплатная.
Регистрация тут
1👍40❤🔥4
Купил себе мак, буду делать iOS приложения.
Напишите в комментарии лучший сетап вайбкода под них.
— Какая ide? (Xcode понятно, что-то еще?)
— Какой фреймворк (Native Swift понятно, может что-то другое?)
В наличии подписки на chatgpt (кодекс) и курсор.
Последний раз прогал под iOS 13 лет назад, с тех пор все сильно изменилось 😅
Напишите в комментарии лучший сетап вайбкода под них.
— Какая ide? (Xcode понятно, что-то еще?)
— Какой фреймворк (Native Swift понятно, может что-то другое?)
В наличии подписки на chatgpt (кодекс) и курсор.
Последний раз прогал под iOS 13 лет назад, с тех пор все сильно изменилось 😅
2🔥26😁13👍11
Вышел новый Опус и вот уже пересуды, дескать, круче ли модель всего существующего, или нет.
И многие судят по странным бенчмаркам, типа "о господи, она работала 5/20/50/100500 минут и все сделала как нужно!"
Я и сам грешным делом этому поддаюсь.
На деле же риал шит риал толк в том, насколько модель может имплементировать фичу с высокой связностью для большого проекта.
Ну а по-проще, бенчмарк — это если она корректно и без подсказок сделала фичу, для которой уже есть с десяток методов, разбросанных в разных файлах, каждый из которых нельзя изобретать заново, а нужно использовать имеющийся.
И при этом проект имеет размер не в жалкие 5 тысяч строк/50к контекста, а что-нибудь типа от миллиона, а лучше от пяти.
В идеале еще, чтобы эта фича использовала свойства новых библиотек (вышедших вот вчера), то есть для корректной разработки нужно бы еще и погуглить, и не запутаться в версиях.
Вот тогда можно назвать модель прорывной в задачах кодинга. Потому что с более примитивными задачами они и так справляются почти все нормально, и отличия там небольшие.
И многие судят по странным бенчмаркам, типа "о господи, она работала 5/20/50/100500 минут и все сделала как нужно!"
Я и сам грешным делом этому поддаюсь.
На деле же риал шит риал толк в том, насколько модель может имплементировать фичу с высокой связностью для большого проекта.
Ну а по-проще, бенчмарк — это если она корректно и без подсказок сделала фичу, для которой уже есть с десяток методов, разбросанных в разных файлах, каждый из которых нельзя изобретать заново, а нужно использовать имеющийся.
И при этом проект имеет размер не в жалкие 5 тысяч строк/50к контекста, а что-нибудь типа от миллиона, а лучше от пяти.
В идеале еще, чтобы эта фича использовала свойства новых библиотек (вышедших вот вчера), то есть для корректной разработки нужно бы еще и погуглить, и не запутаться в версиях.
Вот тогда можно назвать модель прорывной в задачах кодинга. Потому что с более примитивными задачами они и так справляются почти все нормально, и отличия там небольшие.
1❤35👍20💯13🔥3😱1