Forwarded from [31/100] Витя Тарнавский
Выращиваем код в огороде
Всех с прошедшими 🎉 Открываю год статьёй от Cursor про построение долго работающих автономных кодинг агентов.
Ребятам удалось создать систему из сотен параллельно работающих агентов, которая может работать недели (!) над одним проектом и не разваливаться.
Одна из задач в статье – построить с нуля браузер. За неделю система собрала кривовато работающий браузер, что невероятный успех. Браузер традиционно считается одной из самых сложных задач в разработке. Как будто ещё годик и можно будет создать браузер в домашних условиях.
Считаю что будущее разработки за такими автономными долго работающими системами. Код будет выращиваться как в огороде. Разработчик будущего – проектировщик огорода и специалист в выборе удобрений, семян и теплиц.
Всем Копатыч🌟
https://cursor.com/blog/scaling-agents
Всех с прошедшими 🎉 Открываю год статьёй от Cursor про построение долго работающих автономных кодинг агентов.
Ребятам удалось создать систему из сотен параллельно работающих агентов, которая может работать недели (!) над одним проектом и не разваливаться.
Одна из задач в статье – построить с нуля браузер. За неделю система собрала кривовато работающий браузер, что невероятный успех. Браузер традиционно считается одной из самых сложных задач в разработке. Как будто ещё годик и можно будет создать браузер в домашних условиях.
Считаю что будущее разработки за такими автономными долго работающими системами. Код будет выращиваться как в огороде. Разработчик будущего – проектировщик огорода и специалист в выборе удобрений, семян и теплиц.
Всем Копатыч
https://cursor.com/blog/scaling-agents
Please open Telegram to view this post
VIEW IN TELEGRAM
Cursor
Scaling long-running autonomous coding
We've been experimenting with running coding agents autonomously for weeks at a time.
❤🔥6👏3 1
Ollama добавила поддержку Anthropic Messages API. Проще говоря: теперь Claude Code и агентные инструменты Claude можно запускать через Ollama, в том числе с локальными моделями.
Мы движемся к гибридному AI-стеку:
локальные модели
Следующий этап — автономные AI-ассистенты, которые работают локально, но используют лучшие практики топ-провайдеров.
И Ollama явно метит в роль стандарта такого стека.
#ai #agentic #claude #ollama #dev #agents #future
Please open Telegram to view this post
VIEW IN TELEGRAM
Ollama
Claude Code with Anthropic API compatibility· Ollama Blog
Ollama is now compatible with the Anthropic Messages API, making it possible to use tools like Claude Code with open models.
Forwarded from 42 секунды
The Information: TSMC не может производить ИИ-чипы слишком быстро
– Nvidia и Broadcom просят TSMC предоставить доп. мощности
– TSMC не может предоставить им столько, сколько они хотят
– Расширение TSMC внутри Аризоны не сможет быстро помочь
– Новые мощности будут запущены только через несколько лет
– TSMC отвечает за производство 90% самых передовых чипов
– ИИ-бум заметно превысил производственные мощности TSMC
– Спрос на ИИ-чипы увеличился сразу по многим направлениям
– OpenAI нужны миллионы чипов для своих мега-дата-центров
– Google покупает столько чипов Nvidia, сколько может получить
– Broadcom просит TSMC производить больше TPU для Google
– Спрос на передовые чипы втрое больше возможностей TSMC
– Некоторые клиенты TSMC обратились к другим компаниям
– Например, Tesla заключила сделку с Samsung на $16,5 млрд
– При этом TSMC перегружена заказами не только на ИИ-чипы
– Бум дата-центров повысил спрос на все передовые чипы
@ftsec
– Nvidia и Broadcom просят TSMC предоставить доп. мощности
– TSMC не может предоставить им столько, сколько они хотят
– Расширение TSMC внутри Аризоны не сможет быстро помочь
– Новые мощности будут запущены только через несколько лет
– TSMC отвечает за производство 90% самых передовых чипов
– ИИ-бум заметно превысил производственные мощности TSMC
– Спрос на ИИ-чипы увеличился сразу по многим направлениям
– OpenAI нужны миллионы чипов для своих мега-дата-центров
– Google покупает столько чипов Nvidia, сколько может получить
– Broadcom просит TSMC производить больше TPU для Google
– Спрос на передовые чипы втрое больше возможностей TSMC
– Некоторые клиенты TSMC обратились к другим компаниям
– Например, Tesla заключила сделку с Samsung на $16,5 млрд
– При этом TSMC перегружена заказами не только на ИИ-чипы
– Бум дата-центров повысил спрос на все передовые чипы
@ftsec
Forwarded from DataEng
fastjsondiff - High-performance JSON comparison with a Zig-powered core
Написал небольшую библиотеку для сравнения двух JSON-текстов/файлов. В Python есть популярная либа jsondiff, но её основная проблема это сильные тормоза, если на вход подать более менее крупный JSON-текст. Давно вынашивал идею реализации чего-то такого, но на Zig/Rust, т.к. чистая реализация на Python будет всё равно медленнее. По итогу получилось реализовать на Zig основную либу и Python-интерфейс к ней.
Github: https://github.com/adilkhash/fastjsondiff
PyPI: https://pypi.org/project/fastjsondiff-zig/
Буду признателен за ⭐ на репе в гитхабе, это поможет её распространить дальше.
Написал небольшую библиотеку для сравнения двух JSON-текстов/файлов. В Python есть популярная либа jsondiff, но её основная проблема это сильные тормоза, если на вход подать более менее крупный JSON-текст. Давно вынашивал идею реализации чего-то такого, но на Zig/Rust, т.к. чистая реализация на Python будет всё равно медленнее. По итогу получилось реализовать на Zig основную либу и Python-интерфейс к ней.
pip install fastjsondiff-zig
Github: https://github.com/adilkhash/fastjsondiff
PyPI: https://pypi.org/project/fastjsondiff-zig/
Буду признателен за ⭐ на репе в гитхабе, это поможет её распространить дальше.
GitHub
GitHub - adilkhash/fastjsondiff: Fast JSON Diff powered by Zig & Python
Fast JSON Diff powered by Zig & Python. Contribute to adilkhash/fastjsondiff development by creating an account on GitHub.
Forwarded from Сиолошная
This media is not supported in your browser
VIEW IN TELEGRAM
Новое предсказание от Dario! Слушаем внимательно 🎧 :
[цикл — раз агенты берут на себя все задачи программистов, не только написание кода, то они могут и начать улучшать себя + показывать улучшения во всех других областях]
Сейчас, если говорить о моделях, которые пишут код... У нас в Anthropic есть инженеры, которые говорят: "Я больше вообще не пишу код. Я просто даю модели написать код, потом редактирую его и занимаюсь сопутствующими задачами".
Я думаю — хотя не знаю наверняка — что нас отделяет от 6 до 12 месяцев от момента, когда модель будет выполнять большую часть, а может быть и абсолютно всю работу инженеров-программистов от начала до конца. И тогда возникает вопрос: насколько быстро замкнется этот цикл?
[цикл — раз агенты берут на себя все задачи программистов, не только написание кода, то они могут и начать улучшать себя + показывать улучшения во всех других областях]
Please open Telegram to view this post
VIEW IN TELEGRAM
💯6
Forwarded from Архитектор Данных
Задачи разного уровня
Джун: Неси [куриные] яйца из холодильника к плите и постарайся не разбить, как в прошлый раз!
Миддл: Бери скоровороду, наливай масло, ставь на огонь, кидай туда яйца, жарь до готовности!
Сениор: Приготовь яичницу!
Тимлид: Приготовь вкусный и полезный ужин!
Архитектор: Спланируй кухню: где что лежит, сколько надо обрудования, какой персонал, какие требования по помещению, электричеству и т.д.
СТО: Организуй надежную массовую готовку и поставку еды.
СЕО: Открой сеть ресторанов и выведи их в прибыль.
Джун: Неси [куриные] яйца из холодильника к плите и постарайся не разбить, как в прошлый раз!
Миддл: Бери скоровороду, наливай масло, ставь на огонь, кидай туда яйца, жарь до готовности!
Сениор: Приготовь яичницу!
Тимлид: Приготовь вкусный и полезный ужин!
Архитектор: Спланируй кухню: где что лежит, сколько надо обрудования, какой персонал, какие требования по помещению, электричеству и т.д.
СТО: Организуй надежную массовую готовку и поставку еды.
СЕО: Открой сеть ресторанов и выведи их в прибыль.
💯9❤🔥2
Forwarded from Архитектор Данных
CDO: Выступи с докладом, что все наши [куриные] яйца проверены ИИ.
😁13👏1
Инструмент, который превращает разработку сложных AI-приложений в визуальную и доступную работу с потоками (flows).
Langflow — это платформа с drag-and-drop интерфейсом для построения AI-агентов, RAG-пайплайнов и мультишаговых рабочих процессов без горы кода. Все узлы, модели, инструменты и логика соединяются визуально на холсте.
Ты берёшь компоненты (LLM, API-вызовы, базы данных, кастомные модули), соединяешь их между собой — и получаешь готовое приложение или агента. Интерфейс позволяет моментально тестировать, отлаживать и разворачивать flows.
Разработчики, стартапы и AI-энтузиасты, кто хочет быстрее собирать агентские решения, чат-ботов, RAG-pipelines или автоматизации задач — без глубокого ручного кодинга.
Проект активно развивается, имеет огромную звёздность на GH и реально упрощает путь от идеи до работающего AI-инструмента.
#ai #llm #dev #tools
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - langflow-ai/langflow: Langflow is a powerful tool for building and deploying AI-powered agents and workflows.
Langflow is a powerful tool for building and deploying AI-powered agents and workflows. - langflow-ai/langflow
Forwarded from Сиолошная
Осенью Andrej Karpathy, ко-фаундер OpenAI, Director of AI в Tesla и человек, на Стенфордских курсах которого выросли многие специалисты, ходил на подкаст, где рассказал про свой опыт работы с кодинг агнетами. Он говорил, что вот в его задачах шаг влево шаг вправо — и работает плохо, делает не то, что хочет автор, а то, как это делают обычно.
Скептики (к которым на тот момент наверное можно было отнести и самого Karpathy?) сразу же пользовались этим как примером того, что ни в какой реальной работе никакие агенты не помогают, что это всё слоп, и ни для чего серьёзного не годится.
Прошло 3 месяца, вышли GPT-5.2 и Opus 4.5, и... дед Andrej развернулся на 180 градусов😏 описав свой опыт в длинном твиттер посте. Весь пост переводить не буду, тезисно:
— Возможности LLM-агентов (особенно Claude и Codex) примерно в декабре 2025 года перешагнули некий порог возможностей, вызвав фазовый сдвиг в разработке ПО и смежных сферах.
— Учитывая этот скачок, я, как и многие другие, стремительно перешел от режима «80% ручного кода и 20% агентов» в ноябре к «80% кода от агентов и 20% правок и доработок» в декабре. То есть теперь я действительно программирую преимущественно на английском языке.
— Это, безусловно, самое масштабное изменение в моем базовом рабочем процессе за ~20 лет программирования, и произошло оно всего за несколько недель. Полагаю, что нечто подобное происходит уже у значительной части инженеров (двузначный процент), в то время как осведомленность широкой публики об этом явлении находится где-то на уровне малых единиц процентов.
— Самая распространенная категория ошибок агентов заключается в том, что модели делают за вас неверные допущения и просто продолжают работать на их основе, ничего не перепроверяя и не уточняя у вас.
— Несмотря на все проблемы, в сухом остатке это колоссальный шаг вперед, и очень трудно представить себе возвращение к ручному написанию кода.
— Очень интересно наблюдать, как агент упорно работает над задачей. Они никогда не устают, не падают духом, они просто продолжают перебирать варианты там, где человек уже давно бы сдался, отложив проблему на завтра. Наблюдать, как агент долгое время бьется над чем-то и спустя 30 минут выходит победителем — это тот самый момент, когда «чувствуешь присутствие AGI».
— Непонятно, как измерить «ускорение» от помощи LLM. Безусловно, я чувствую, что справляюсь с запланированными задачами намного быстрее, но главный эффект заключается в том, что я делаю гораздо больше, чем собирался. Во-первых, я могу реализовать множество вещей, на которые раньше просто не стоило тратить время, а во-вторых, я могу браться за код, к которому раньше не мог подступиться из-за нехватки знаний или навыков.
— Написание кода с помощью LLM разделит инженеров на тех, кто больше любил сам процесс кодинга, и тех, кому больше нравилось создавать (строить) продукты.
— Я уже заметил, что моя способность писать код вручную начинает потихоньку атрофироваться.
— Что станет с понятием «10-кратного инженера» (соотношением продуктивности между средним и топовым специалистом)? Вполне возможно, что этот разрыв СИЛЬНО увеличится.
— Как будет ощущаться программирование с LLM в будущем? Как игра в StarCraft? Как игра в Factorio? Или как исполнение музыки?
Скептики (к которым на тот момент наверное можно было отнести и самого Karpathy?) сразу же пользовались этим как примером того, что ни в какой реальной работе никакие агенты не помогают, что это всё слоп, и ни для чего серьёзного не годится.
Прошло 3 месяца, вышли GPT-5.2 и Opus 4.5, и... дед Andrej развернулся на 180 градусов
— Возможности LLM-агентов (особенно Claude и Codex) примерно в декабре 2025 года перешагнули некий порог возможностей, вызвав фазовый сдвиг в разработке ПО и смежных сферах.
— Учитывая этот скачок, я, как и многие другие, стремительно перешел от режима «80% ручного кода и 20% агентов» в ноябре к «80% кода от агентов и 20% правок и доработок» в декабре. То есть теперь я действительно программирую преимущественно на английском языке.
— Это, безусловно, самое масштабное изменение в моем базовом рабочем процессе за ~20 лет программирования, и произошло оно всего за несколько недель. Полагаю, что нечто подобное происходит уже у значительной части инженеров (двузначный процент), в то время как осведомленность широкой публики об этом явлении находится где-то на уровне малых единиц процентов.
— Самая распространенная категория ошибок агентов заключается в том, что модели делают за вас неверные допущения и просто продолжают работать на их основе, ничего не перепроверяя и не уточняя у вас.
— Несмотря на все проблемы, в сухом остатке это колоссальный шаг вперед, и очень трудно представить себе возвращение к ручному написанию кода.
— Очень интересно наблюдать, как агент упорно работает над задачей. Они никогда не устают, не падают духом, они просто продолжают перебирать варианты там, где человек уже давно бы сдался, отложив проблему на завтра. Наблюдать, как агент долгое время бьется над чем-то и спустя 30 минут выходит победителем — это тот самый момент, когда «чувствуешь присутствие AGI».
— Непонятно, как измерить «ускорение» от помощи LLM. Безусловно, я чувствую, что справляюсь с запланированными задачами намного быстрее, но главный эффект заключается в том, что я делаю гораздо больше, чем собирался. Во-первых, я могу реализовать множество вещей, на которые раньше просто не стоило тратить время, а во-вторых, я могу браться за код, к которому раньше не мог подступиться из-за нехватки знаний или навыков.
— Написание кода с помощью LLM разделит инженеров на тех, кто больше любил сам процесс кодинга, и тех, кому больше нравилось создавать (строить) продукты.
— Я уже заметил, что моя способность писать код вручную начинает потихоньку атрофироваться.
— Что станет с понятием «10-кратного инженера» (соотношением продуктивности между средним и топовым специалистом)? Вполне возможно, что этот разрыв СИЛЬНО увеличится.
— Как будет ощущаться программирование с LLM в будущем? Как игра в StarCraft? Как игра в Factorio? Или как исполнение музыки?
Please open Telegram to view this post
VIEW IN TELEGRAM
1 10💯2❤🔥1
Представь себе AI, который не просто отвечает на вопросы, а делает дела за тебя — управляет почтой, календарём, браузером, напоминаниями, автоматизациями… и всё это через Telegram, WhatsApp, Discord и другие мессенджеры, которыми ты уже пользуешься.
⚠️ Fun Fact: из-за названия вокруг было много обсуждений брендинга, и проект официально переименован в Moltbot (по просьбе Anthropic). Но суть осталась та же — мощный самостоятелный AI-помощник.
#ai #llm #bot #agent #moltbot #jarvis
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Архитектура Стартапа - Anton Skogorev Engineering & AI (Anton Skogorev)
VS Code + Codex (gpt-5.2) + AI Native Project Workspace
Недавно меня спросили, как я реально использую LLM в работе. И пока все пробуют очередного хайпового агента clawdbot, расскажу, как выглядит моя хардкорная рабочая среда для ведения менеджерских задач.
Я сильно проникся идеей Context Engineering — и меня сильно бесит, как ChatGPT любит вытаскивать случайные факты из наших переписок и применять их в максимально нерелевантном контексте:
- Сформулируй техническую стратегию Центра ИИ на 2026 год
- Вижу, что ты интересовался поездкой в Китай, сформулирую техническую стратегию с учётом того, как это сделали бы в Макао.
Я использую такую связку:
VS Code + Codex (gpt-5.2) + AI Native Project Workspace
AI Native Project Workspace — это мой рабочий проект «задач CTO», заточенный под совместное мышление меня и LLM. С помощью структуры проекта я чётко задаю и ограничиваю контекст для LLM-агента: кто я такой, как генерировать идеи, как вести мои задачи. В итоге агент каждый раз работает с одной и той же когнитивной моделью, а не с обрывками переписок.
Такой подход отрезает случайные ассоциации, «галлюцинации по биографии» и даёт воспроизводимый результат.
Вот так выглядит структура проекта, без усложнений:
Это и есть Context Engineering на практике.
В комментариях — примеры задачек, которые можно решать в таком воркспейсе.
Недавно меня спросили, как я реально использую LLM в работе. И пока все пробуют очередного хайпового агента clawdbot, расскажу, как выглядит моя хардкорная рабочая среда для ведения менеджерских задач.
Я сильно проникся идеей Context Engineering — и меня сильно бесит, как ChatGPT любит вытаскивать случайные факты из наших переписок и применять их в максимально нерелевантном контексте:
- Сформулируй техническую стратегию Центра ИИ на 2026 год
- Вижу, что ты интересовался поездкой в Китай, сформулирую техническую стратегию с учётом того, как это сделали бы в Макао.
Я использую такую связку:
VS Code + Codex (gpt-5.2) + AI Native Project Workspace
AI Native Project Workspace — это мой рабочий проект «задач CTO», заточенный под совместное мышление меня и LLM. С помощью структуры проекта я чётко задаю и ограничиваю контекст для LLM-агента: кто я такой, как генерировать идеи, как вести мои задачи. В итоге агент каждый раз работает с одной и той же когнитивной моделью, а не с обрывками переписок.
Такой подход отрезает случайные ассоциации, «галлюцинации по биографии» и даёт воспроизводимый результат.
Вот так выглядит структура проекта, без усложнений:
/DRAFTS — рабочая папка задач. Один .md — одна задача.
/PROFILE.md — кто я такой, чем занимаюсь, за что отвечаю, какой стек технологий, стиль (без воды, data-driven и проч.).
/PROMPTS.md — набор промптов для запуска агента работать над задачей.
/AGENTS.md — инструкции для работы агента: как ведём задачи, DoD, разные роли, инструкции для брейншторма и проч.
Это и есть Context Engineering на практике.
В комментариях — примеры задачек, которые можно решать в таком воркспейсе.
❤🔥7
Архитектура Стартапа - Anton Skogorev Engineering & AI
VS Code + Codex (gpt-5.2) + AI Native Project Workspace Недавно меня спросили, как я реально использую LLM в работе. И пока все пробуют очередного хайпового агента clawdbot, расскажу, как выглядит моя хардкорная рабочая среда для ведения менеджерских задач.…
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - Fission-AI/OpenSpec: Spec-driven development (SDD) for AI coding assistants.
Spec-driven development (SDD) for AI coding assistants. - Fission-AI/OpenSpec
DE
Есть ириски и риски, поэтому используй с умом и аккуратно. 🫥
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
[31/100] Витя Тарнавский
Теперь все яростно обсуждают насколько Clawdbot небезопасный и что использовать его не надо.
Кейсы там веселые:
- Купил курс саморазвития за $3000
- Написал в X пост с ключами от OpenAI
- Классика: sudo rm -rf
Со стороны может показаться, что использовать…
Кейсы там веселые:
- Купил курс саморазвития за $3000
- Написал в X пост с ключами от OpenAI
- Классика: sudo rm -rf
Со стороны может показаться, что использовать…
😁7
Многие разработчики любят пуэр — и не только за вкус. Но насколько его эффект на фокус, бодрость и продуктивность подтверждается наукой? Давай разберёмся честно и без мифов.
Пуэр, как и любой чай, содержит кофеин — крепкий стимулятор центральной нервной системы.
Научные исследования показывают, что кофеин улучшает внимание, бдительность, скорость реакции и помогает бороться с сонливостью в краткосрочных задачах внимания.
В чае есть L-теанин — аминокислота, часто ассоциируемая с расслаблением и мягким фокусом. Те исследования, где L-теанин + кофеин сравнивали только с кофеином, показывают, что такая пара может лучше поддерживать внимание, реакцию и устойчивость концентрации в задачах.
Любопытный факт про пуэр:
Есть несколько работ на клеточных/животных моделях, где компоненты пуэра защищали нейроны от стресса или воспаления, но это не то же самое что доказательство прямой пользы для продуктивности в задачах кодинга.
Обзоры показывают, что потребление чая в целом ассоциируется с снижением усталости и улучшением самочувствия в работе, но такие исследования трудно интерпретировать строго как “повысило продуктивность”.
Если ты используешь пуэр:
Если хочешь более спокойный, устойчивый фокус, многие исследования говорят, что соотношение кофеин + L-теанин работает лучше — особенно в зелёных или белых чаях, где теанина больше.
#tea #puer #puerh #dev #coding #productivity #чай #пуэр #разработка #кодинг #продуктивность
Please open Telegram to view this post
VIEW IN TELEGRAM