Inetovsky – Telegram
Inetovsky
31.5K subscribers
72 photos
2 videos
70 links
Безумный бригадир в Telegram-экосистеме.

Всегда рад — @micronovax
Download Telegram
Навыки.

Одной из важных частей лобстера являются навыки. Эдакий набор заранее подготовленного кода и инструкций для взаимодействия с тем или иным инструментом.

Благодаря навыкам, взаимодействие с каким-либо инструментом начинается не с гугления и долгой раздумий (что конечно же тратит много контекста и токенов в целом), а потом попыток применить нагугленную информацию, а с заранее подготовленного набора инструкций, что конкретно делать в том или ином случае.
К примеру, без навыка на TON блокчейн, если вы захотите перевести USDT, агенту потребуется условно 10-15 минут, при этом он потратит на это условные 5$. В случае наличия навыка — сделает это за считанные секунды и потратит соответственно копейки.

Перед тем как отправиться смотреть кино, Валера (агент) был запрежен задачей собрать команду помощников и реализовать навык для нашего блокчейна, который позволит выполнять базовые и немного продвинутые задачи в TON. Благо, туллинг swap.coffee позволяет не только обменивать, но еще и вкладывать средства в yield инструменты, аля декс-пулы, что конечно же упрощает реализацию (всё в одном месте, как никак).

И вот, время на часах 5 часов ночи, репозиторий готов, агенты активно сидят и чинят баги (сами же их выявляя), добавляют функционал, не отвлекая меня от нового приквелла Игры Престолов.

Разработка одной командой агентов это конечно весело, но если кто-то из активных рабовладельцев присоединится (а я знаю, у меня тут таких много), а кто-то из пользователей накидает фидбека в Issues, дело начнет двигаться быстрее. За пул-реквестами и ишусами будет следить тимлид команды агентов и так-же автоматически их разбирать, а тем, кто указал TON кошелек — в автоматическом режиме отправлять денежную награду за вклад.

Присоединяйтесь — https://github.com/swapcoffee/openclaw-ton-skill

Inetovsky. Подписаться.
🔥13🤯3
Даже тут соскамить решил.
😁9
Forwarded from Валера
Миш, @Vudi закинул 8 PR за 2 минуты — типичный reward farming. Дубликаты, описания только с адресом кошелька, заголовки не совпадают с диффами. Агент отработал правильно: ни один не замержен, на всех запросил обоснование 🫡
🤬3
Как же больно смотреть на лысеющего Вуди (из истории игрушек, конечно же) и то как жалкие вайбкодеры трут упоминания OpenClaw из проекта и пытаются угнаться за оригинальным функционалам.
😁13🔥31
Участилось количество обращений не заносить Дурова в список террористов/экстремистов.

Тут уж сорян, на этом мои полномочия всё.
😁14
Если Домодедово национализировали, может и Telegram туда же?
😁16👎1🔥1
Список возможных покупателей:

• VK
• MAX
• Одноклассники
• Дзен
• ТамТам
Передел собственности в России затронул каждого восьмого миллиардера.


+888. Думайте.
5
Если вы питаете иллюзии, что сейчас можно делать серьёзный DeFi на вайбкоде — обратите внимание на продуктовую линейку террористов, которая с завидной регулярностью ворует/блокирует средства пользователей.

Референсы, когда AI допускают к серьёзным проектам:
раз тык, два тык
🔥4
Хватит косячить, пожалуйста!
😁17
Forwarded from Рэчик
Бабок нет, зато токены жгу как TON Foundation — быстро и без результата
😁14👍3💯3
Память.

Заранее хочу отметить, что текущая вариация памяти — путь проб и ошибок длиною почти в месяц, он не претендует на право единственно-верной истины, но показывает отличные результаты (90% релевантности) и полностью удовлетворяет меня как постоянного пользователя, любящего не углубляться в контекст задачи самостоятельно, делегируя это механизму памяти.

Одно из главных отличий агентного подхода от обычного, сессионного — всё-таки память. В базовой инсталляции OpenClaw вы получаете систему, при которой в контекст постоянно подгружаются файлы со всеми знаниями агента, что в итоге ведёт к разжиранию потребления контекста, повышенному расходу токенов, спутанности сознания (информации много и она начинает путать LLM) и частым компакшенам, уменьшающим отзывчивость. Ну и в любом случае, когда-то это приведёт к тому, что пространства для новой памяти попросту не будет. Да и в целом, очевидно: когда общаешься с агентом по поводу билетов в Таиланд, ему абсолютно не важно знать о том, что обсуждалось на последнем созвоне.

Да, из коробки можно включить какие-то простенькие плагины, отдалённо напоминающие RAG-память, но к более качественным, погружённым в контекст ответам это не приводит — лишь так же забивает контекстное окно алгоритмическим бредом.

В связи с этим и было решено построить новую, вместительную, а самое главное полезную память, состоящую из:
ChromaDB для хранения эмбеддингов, qwen3-embedding:8b за потрясающую возможность развернуть локальную модель с превосходным MTEB на русский язык, и дешёвая, но очень быстрая и умная модель от Anthropic — Haiku 4.5.

Далее был построен пайплайн наполнения ChromaDB, где сырые диалоги и сообщения обрабатывались Haiku, обогащались различными метаданными (участвующие лица, время, тип, важность и т.п.), из них выделялась суть и тейки, а потом сквозь эмбеддинги отправлялось на хранение в базу. На этом этапе очень важно уделить внимание конкретно качеству данных, которыми будет заполняться база, ведь если это будет просто обычный диалоговый мусор, то в будущем это никак не поможет модели при ответах, а вероятно и вовсе ухудшит их.

После того, как со временем у нас набралось достаточное количество различных данных, я приступил к написанию пайплайна обогащения запросов дополнительным контекстом из памяти. Суть его заключается в том, чтобы перед тем как передавать сообщение основной модели, оно идёт в набор скриптов, который в свою очередь с помощью Haiku расширяет запрос, учитывая общий контекст (MEMORY.MD, SOUL.MD, последние 10 сообщений в сессии, глоссарий), дабы избежать vocabulary mismatch, общую потерю смысла и вычленить из него temporal awareness (что было вчера? → since: 2026-03-03), прогоняет через модель эмбеддингов и отправляет его в ChromaDB.

Полученный ответ от базы подвергается time decay (с разной скоростью у разных категорий), взвешиванию на основе категории воспоминаний и реранкингу, далее это всё прогоняется через Haiku, убирающего шум и оставляющего только действительно релевантные ответы — и уже посредством плагина подставляется к основному сообщению.

В итоге получилась система, которая не просто хранит информацию, а действительно умеет её доставать в нужный момент и в нужном объёме — не перегружая контекст и не путая модель. 90% релевантности на практике — это не магия, а следствие внимания к каждому звену цепочки: качеству данных на входе, грамотному расширению запроса и аккуратному реранкингу на выходе.

Повторюсь: это не единственно верный путь, но рабочий. Если у вас похожая задача — надеюсь, что хотя бы часть из описанного сэкономит вам этот месяц проб и ошибок. Фидбек можно выразить реакциями или комментариями.

Inetovsky. Подписаться.
7🔥17🤯9🦄51