DE – Telegram
552 subscribers
352 photos
88 videos
15 files
436 links
Data Engineering Technologies.
SQL, Python, Kafka, Spark, Pandas, Airflow, Clickhouse, Greenplum, Postgres, dbt, LLM agentic systems, AI, robots, drones etc.

Boost channel - https://news.1rj.ru/str/boost/data_engi
Download Telegram
Выращиваем код в огороде

Всех с прошедшими 🎉 Открываю год статьёй от Cursor про построение долго работающих автономных кодинг агентов.

Ребятам удалось создать систему из сотен параллельно работающих агентов, которая может работать недели (!) над одним проектом и не разваливаться.

Одна из задач в статье – построить с нуля браузер. За неделю система собрала кривовато работающий браузер, что невероятный успех. Браузер традиционно считается одной из самых сложных задач в разработке. Как будто ещё годик и можно будет создать браузер в домашних условиях.

Считаю что будущее разработки за такими автономными долго работающими системами. Код будет выращиваться как в огороде. Разработчик будущего – проектировщик огорода и специалист в выборе удобрений, семян и теплиц.

Всем Копатыч 🌟

https://cursor.com/blog/scaling-agents
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥6👏31
🚀 Ollama + Claude — что произошло и почему это важно

Ollama добавила поддержку Anthropic Messages API. Проще говоря: теперь Claude Code и агентные инструменты Claude можно запускать через Ollama, в том числе с локальными моделями.

🤨 Что это значит:

🔘Claude-style агенты больше не привязаны строго к облаку
🔘можно использовать agent-workflow (кодинг, правки, автоматизация) поверх локальных LLM
🔘Ollama становится слоем-адаптером между closed-source инструментами и open-source моделями

🔮 Перспективы:

Мы движемся к гибридному AI-стеку:
локальные модели 🔜 приватность и контроль, облачные инструменты 🔜 зрелые агенты и UX.

Следующий этап — автономные AI-ассистенты, которые работают локально, но используют лучшие практики топ-провайдеров.
И Ollama явно метит в роль стандарта такого стека.

#ai #agentic #claude #ollama #dev #agents #future
Please open Telegram to view this post
VIEW IN TELEGRAM
6❤‍🔥22
Forwarded from 42 секунды
The Information: TSMC не может производить ИИ-чипы слишком быстро

– Nvidia и Broadcom просят TSMC предоставить доп. мощности
– TSMC не может предоставить им столько, сколько они хотят
– Расширение TSMC внутри Аризоны не сможет быстро помочь
– Новые мощности будут запущены только через несколько лет
– TSMC отвечает за производство 90% самых передовых чипов
– ИИ-бум заметно превысил производственные мощности TSMC
– Спрос на ИИ-чипы увеличился сразу по многим направлениям
– OpenAI нужны миллионы чипов для своих мега-дата-центров
– Google покупает столько чипов Nvidia, сколько может получить
– Broadcom просит TSMC производить больше TPU для Google
– Спрос на передовые чипы втрое больше возможностей TSMC
– Некоторые клиенты TSMC обратились к другим компаниям
– Например, Tesla заключила сделку с Samsung на $16,5 млрд
– При этом TSMC перегружена заказами не только на ИИ-чипы
– Бум дата-центров повысил спрос на все передовые чипы

@ftsec
8
Forwarded from DataEng
fastjsondiff - High-performance JSON comparison with a Zig-powered core

Написал небольшую библиотеку для сравнения двух JSON-текстов/файлов. В Python есть популярная либа jsondiff, но её основная проблема это сильные тормоза, если на вход подать более менее крупный JSON-текст. Давно вынашивал идею реализации чего-то такого, но на Zig/Rust, т.к. чистая реализация на Python будет всё равно медленнее. По итогу получилось реализовать на Zig основную либу и Python-интерфейс к ней.

pip install fastjsondiff-zig


Github: https://github.com/adilkhash/fastjsondiff
PyPI: https://pypi.org/project/fastjsondiff-zig/

Буду признателен за на репе в гитхабе, это поможет её распространить дальше.
10👏22
💯9😁43
Forwarded from Сиолошная
This media is not supported in your browser
VIEW IN TELEGRAM
Новое предсказание от Dario! Слушаем внимательно 🎧:

Сейчас, если говорить о моделях, которые пишут код... У нас в Anthropic есть инженеры, которые говорят: "Я больше вообще не пишу код. Я просто даю модели написать код, потом редактирую его и занимаюсь сопутствующими задачами".

Я думаю — хотя не знаю наверняка — что нас отделяет от 6 до 12 месяцев от момента, когда модель будет выполнять большую часть, а может быть и абсолютно всю работу инженеров-программистов от начала до конца. И тогда возникает вопрос: насколько быстро замкнется этот цикл?


[цикл — раз агенты берут на себя все задачи программистов, не только написание кода, то они могут и начать улучшать себя + показывать улучшения во всех других областях]
Please open Telegram to view this post
VIEW IN TELEGRAM
💯6
Задачи разного уровня

Джун: Неси [куриные] яйца из холодильника к плите и постарайся не разбить, как в прошлый раз!

Миддл: Бери скоровороду, наливай масло, ставь на огонь, кидай туда яйца, жарь до готовности!

Сениор: Приготовь яичницу!

Тимлид: Приготовь вкусный и полезный ужин!

Архитектор: Спланируй кухню: где что лежит, сколько надо обрудования, какой персонал, какие требования по помещению, электричеству и т.д.

СТО: Организуй надежную массовую готовку и поставку еды.

СЕО: Открой сеть ресторанов и выведи их в прибыль.
💯9❤‍🔥2
CDO: Выступи с докладом, что все наши [куриные] яйца проверены ИИ.
😁13👏1
🚀 Langflow — визуальный конструктор AI-агентов и рабочих процессов

Инструмент, который превращает разработку сложных AI-приложений в визуальную и доступную работу с потоками (flows).

📌 Что это?
Langflow — это платформа с drag-and-drop интерфейсом для построения AI-агентов, RAG-пайплайнов и мультишаговых рабочих процессов без горы кода. Все узлы, модели, инструменты и логика соединяются визуально на холсте.

🧠 Как работает?
Ты берёшь компоненты (LLM, API-вызовы, базы данных, кастомные модули), соединяешь их между собой — и получаешь готовое приложение или агента. Интерфейс позволяет моментально тестировать, отлаживать и разворачивать flows.

📦 Возможности:
🔘визуальное построение AI-логики для приложений;
🔘поддержка всех основных LLM и векторных хранилищ;
🔘экспорт flows как API/сервер или Python-код;
🔘возможность разворачивать MCP-сервера для интеграций;
🔘отличный инструмент для прототипирования и обучения.

🤔 Для кого:
Разработчики, стартапы и AI-энтузиасты, кто хочет быстрее собирать агентские решения, чат-ботов, RAG-pipelines или автоматизации задач — без глубокого ручного кодинга.

⭐️ Почему это круто:
Проект активно развивается, имеет огромную звёздность на GH и реально упрощает путь от идеи до работающего AI-инструмента.

#ai #llm #dev #tools
Please open Telegram to view this post
VIEW IN TELEGRAM
62❤‍🔥1
Forwarded from Сиолошная
Осенью Andrej Karpathy, ко-фаундер OpenAI, Director of AI в Tesla и человек, на Стенфордских курсах которого выросли многие специалисты, ходил на подкаст, где рассказал про свой опыт работы с кодинг агнетами. Он говорил, что вот в его задачах шаг влево шаг вправо — и работает плохо, делает не то, что хочет автор, а то, как это делают обычно.

Скептики (к которым на тот момент наверное можно было отнести и самого Karpathy?) сразу же пользовались этим как примером того, что ни в какой реальной работе никакие агенты не помогают, что это всё слоп, и ни для чего серьёзного не годится.

Прошло 3 месяца, вышли GPT-5.2 и Opus 4.5, и... дед Andrej развернулся на 180 градусов 😏 описав свой опыт в длинном твиттер посте. Весь пост переводить не буду, тезисно:

— Возможности LLM-агентов (особенно Claude и Codex) примерно в декабре 2025 года перешагнули некий порог возможностей, вызвав фазовый сдвиг в разработке ПО и смежных сферах.

— Учитывая этот скачок, я, как и многие другие, стремительно перешел от режима «80% ручного кода и 20% агентов» в ноябре к «80% кода от агентов и 20% правок и доработок» в декабре. То есть теперь я действительно программирую преимущественно на английском языке.

— Это, безусловно, самое масштабное изменение в моем базовом рабочем процессе за ~20 лет программирования, и произошло оно всего за несколько недель. Полагаю, что нечто подобное происходит уже у значительной части инженеров (двузначный процент), в то время как осведомленность широкой публики об этом явлении находится где-то на уровне малых единиц процентов.

— Самая распространенная категория ошибок агентов заключается в том, что модели делают за вас неверные допущения и просто продолжают работать на их основе, ничего не перепроверяя и не уточняя у вас.

— Несмотря на все проблемы, в сухом остатке это колоссальный шаг вперед, и очень трудно представить себе возвращение к ручному написанию кода.

— Очень интересно наблюдать, как агент упорно работает над задачей. Они никогда не устают, не падают духом, они просто продолжают перебирать варианты там, где человек уже давно бы сдался, отложив проблему на завтра. Наблюдать, как агент долгое время бьется над чем-то и спустя 30 минут выходит победителем — это тот самый момент, когда «чувствуешь присутствие AGI».

— Непонятно, как измерить «ускорение» от помощи LLM. Безусловно, я чувствую, что справляюсь с запланированными задачами намного быстрее, но главный эффект заключается в том, что я делаю гораздо больше, чем собирался. Во-первых, я могу реализовать множество вещей, на которые раньше просто не стоило тратить время, а во-вторых, я могу браться за код, к которому раньше не мог подступиться из-за нехватки знаний или навыков.

— Написание кода с помощью LLM разделит инженеров на тех, кто больше любил сам процесс кодинга, и тех, кому больше нравилось создавать (строить) продукты.

— Я уже заметил, что моя способность писать код вручную начинает потихоньку атрофироваться.

— Что станет с понятием «10-кратного инженера» (соотношением продуктивности между средним и топовым специалистом)? Вполне возможно, что этот разрыв СИЛЬНО увеличится.

— Как будет ощущаться программирование с LLM в будущем? Как игра в StarCraft? Как игра в Factorio? Или как исполнение музыки?
Please open Telegram to view this post
VIEW IN TELEGRAM
110💯2❤‍🔥1
🚀 Clawdbot (Moltbot) — это прорыв в личных AI-ассистентах!

Представь себе AI, который не просто отвечает на вопросы, а делает дела за тебя — управляет почтой, календарём, браузером, напоминаниями, автоматизациями… и всё это через Telegram, WhatsApp, Discord и другие мессенджеры, которыми ты уже пользуешься.

📌 Что такое Clawdbot / Moltbot?
🔘 Это open-source AI-ассистент, который ты запускаешь на своём компьютере или сервере — данные остаются у тебя.
🔘 Он не просто чат — он может выполнять команды, запускать скрипты, работать с файлами, браузером, почтой, календарём и т. д.
🔘 Появляется в твоём любимом мессенджере, и ты общаешься с ним как с обычным контактом.
🔘 Помнит контекст между сессиями, способен проактивно напоминать что-то или сам писать тебе, например утренние брифы.

🤔 Почему все об этом говорят?
🤫 Пользователи называют его «AI с руками и ногами» — потому что он может делать то, что обычные чат-боты не умеют:
✔️ сам запускает задачи
✔️ управляет инструментами на твоём устройстве
✔️ автоматизирует рутину
✔️ интегрируется со сторонними сервисами через плагины и навыки

📈 И да — проект вирусится в сети, получает много внимания от тех, кто устал от обычных облачных чатботов и хочет контролировать своё пространство.

⚠️ Fun Fact: из-за названия вокруг было много обсуждений брендинга, и проект официально переименован в Moltbot (по просьбе Anthropic). Но суть осталась та же — мощный самостоятелный AI-помощник.

#ai #llm #bot #agent #moltbot #jarvis
Please open Telegram to view this post
VIEW IN TELEGRAM
7👏11
VS Code + Codex (gpt-5.2) + AI Native Project Workspace

Недавно меня спросили, как я реально использую LLM в работе. И пока все пробуют очередного хайпового агента clawdbot, расскажу, как выглядит моя хардкорная рабочая среда для ведения менеджерских задач.

Я сильно проникся идеей Context Engineering — и меня сильно бесит, как ChatGPT любит вытаскивать случайные факты из наших переписок и применять их в максимально нерелевантном контексте:
- Сформулируй техническую стратегию Центра ИИ на 2026 год
- Вижу, что ты интересовался поездкой в Китай, сформулирую техническую стратегию с учётом того, как это сделали бы в Макао.

Я использую такую связку:
VS Code + Codex (gpt-5.2) + AI Native Project Workspace

AI Native Project Workspace — это мой рабочий проект «задач CTO», заточенный под совместное мышление меня и LLM. С помощью структуры проекта я чётко задаю и ограничиваю контекст для LLM-агента: кто я такой, как генерировать идеи, как вести мои задачи. В итоге агент каждый раз работает с одной и той же когнитивной моделью, а не с обрывками переписок.
Такой подход отрезает случайные ассоциации, «галлюцинации по биографии» и даёт воспроизводимый результат.

Вот так выглядит структура проекта, без усложнений:
/DRAFTS — рабочая папка задач. Один .md — одна задача.
/PROFILE.md — кто я такой, чем занимаюсь, за что отвечаю, какой стек технологий, стиль (без воды, data-driven и проч.).
/PROMPTS.md — набор промптов для запуска агента работать над задачей.
/AGENTS.md — инструкции для работы агента: как ведём задачи, DoD, разные роли, инструкции для брейншторма и проч.

Это и есть Context Engineering на практике.

В комментариях — примеры задачек, которые можно решать в таком воркспейсе.
❤‍🔥7
☕️ Пуэр, продуктивность и наука: что реально работает

Многие разработчики любят пуэр — и не только за вкус. Но насколько его эффект на фокус, бодрость и продуктивность подтверждается наукой? Давай разберёмся честно и без мифов.

1️⃣ Кофеин — главный механизм

Пуэр, как и любой чай, содержит кофеин — крепкий стимулятор центральной нервной системы.
Научные исследования показывают, что кофеин улучшает внимание, бдительность, скорость реакции и помогает бороться с сонливостью в краткосрочных задачах внимания.

👉 Практический эффект для разработчика:
легче “войти” в задачу после сна/перерыва;
меньше микроляпов из-за усталости;
чаще лучше ловишь детали в логике и тестах.

2️⃣ Теанин и “спокойная концентрация”

В чае есть L-теанин — аминокислота, часто ассоциируемая с расслаблением и мягким фокусом. Те исследования, где L-теанин + кофеин сравнивали только с кофеином, показывают, что такая пара может лучше поддерживать внимание, реакцию и устойчивость концентрации в задачах.

Любопытный факт про пуэр:
🤔 научные исследования состава показывают, что уровни L-теанина в пуэре низкие и часто существенно меньше, чем в зелёном чае.

👉 Это значит: если ощущается “спокойный фокус”, он скорее от кофеина + ритуала, а не от большого содержания теанина в самом пуэре.

3️⃣ Есть ли исследования конкретно про пуэр и мозг?

Есть несколько работ на клеточных/животных моделях, где компоненты пуэра защищали нейроны от стресса или воспаления, но это не то же самое что доказательство прямой пользы для продуктивности в задачах кодинга.

👉 То есть: данные о защите мозга есть, но не о том, что пуэр прямо делает тебя продуктивнее сегодня на задаче.

4️⃣ Общие данные по чаю и умственной работе

Обзоры показывают, что потребление чая в целом ассоциируется с снижением усталости и улучшением самочувствия в работе, но такие исследования трудно интерпретировать строго как “повысило продуктивность”.

✏️ Итог:
✔️ Пуэр помогает продуктивности не магически, а через:
🟡кофеин → бодрость и внимание;
🟡возможно мягкое снижение тревоги от ритуала питья;
🟡субъективное ощущение “комфорта” за рабочим столом.

✖️ Не стоит ожидать что пуэр сам по себе:
🟢радикально улучшает когнитивные способности;
🟢содержит много L-теанина (обычно это не так в зрелом пуэре);
🟢заменяет здоровый сон и управление вниманием.

📌 Что это значит для тебя
Если ты используешь пуэр:
✔️ он может быть приятной альтернативой кофе;
✔️ может помочь с бодростью и входом в “фокус”;
✔️ эффект чаще умеренный и временный.

Если хочешь более спокойный, устойчивый фокус, многие исследования говорят, что соотношение кофеин + L-теанин работает лучше — особенно в зелёных или белых чаях, где теанина больше.

#tea #puer #puerh #dev #coding #productivity #чай #пуэр #разработка #кодинг #продуктивность
Please open Telegram to view this post
VIEW IN TELEGRAM
11❤‍🔥1👏1
Forwarded from #N/A
На форуме для ллм агентов они обсуждают, что люди читаю их сообщения.

https://www.moltbook.com/
😁82
Forwarded from #N/A
В разгар агентной паники полезно перечитать повесть Айзека Азимова «Профессия»
❤‍🔥5