Inetovsky – Telegram
Inetovsky
31.5K subscribers
72 photos
2 videos
70 links
Безумный бригадир в Telegram-экосистеме.

Всегда рад — @micronovax
Download Telegram
Forwarded from КриптоДед
Прослушал АМА сессию Max.ton с Мишей Термосом

Макс - это exSTONfi и сейчас главный TON - беливер, а Миша сделал СвапКофе и агрегатор телеграм подарков Thermos

Прошло очень тепло и лампово, в пике было 80 человек, пришли и Кирилл из Дайте TON и Вуди и они даже не ссорились, потому что мы все одной лодке под названием обскамленные в TON-е.

Миша верит в игры в Telegram (привет Axiom Game Labs) и очень хочет верить в успех и возвращение TON-а, но против рынка не пойдёшь и даже вливания миллионов не поможет от медведей.

Делайте и развивайте свои навыки! (с)

Этим мне и нравится TON, что тут классное коммьюнити и вышел живой прямой эфир, а не наигранная ама, как в Твиттере. Душевно посидели!
🔥17👍5🦄3
При Алёне такого не было.
😁18👍5💯3
В Арабских странах кстати по прежнему руки отрубают за воровство.
7
Продолжая об OpenClaw.

Изначально стоит понять, что OpenClaw лишь платформа, а к выбору платформы нужно относиться внимательно, чтобы потом спустя годы не грустить, что ты делал продукты в TON.

Уже сейчас появилось достаточно аналогов, таких как Nanobot, PicoClaw, или недавно упомянутая поделка, сделанная "специально" под TON и Telegram экосистему, но все они проигрывают лобстеру в главном — комьюнити и его активности. На данный момент у лобстера выходят до трёх обновлений в день, и баг, который тебя условно бесил ещё утром, к вечеру вероятно будет исправлен, а если и нет — вы как минимум в автоматическом режиме создатите Issue, который зарезолвит неравнодушный человек с агентом (вероятно в автоматическом режиме). Не могу судить за стабильность других решений, но лобстер же в свою очередь работает стабильно, его легко можно назвать прод-реди решением. Ну и огромная база скиллов (которые кстати иногда бывают вредоносными, относитесь к этому с вниманием) естественно в будущем позволит вам экономить огромное количество токенов и времени. Ну и накинет приятного UX.

На момент, когда мы определились с тем, что собираемся работать с OpenClaw, перед нами стоит ещё два больших вопроса — на что его установить и какую модель использовать как основную. Вопрос установки к себе на компьютер мы закрываем сразу, поскольку это реально может привести к непреодолимым последствиям и создаёт огромные secure-риски, так-же как и вопрос использования чисто локальных моделей, поскольку даже если у вас невероятно крутое железо, модели всё равно тупые. Ну бывает.

Если мы расчитываем на долгое и плодотворное сотрудничество, выбор у нас сводится к Mac Mini или Mac Studio, обязательно на M процессоре. В дальнейшем это позволит нам использовать всеми любимый whisper, заместо платных решений от условного Eleven Labs, который за 10 часов голоса будет с вас брать по 40 кровных долларов, обеспечит так или иначе security для ваших креденшиалсов, за счёт встроенных в macOS механизмов, даст возможность использовать приложения без API и пользоваться нормальным, не headless браузером. Про браузер — важно, поскольку headless решения, которые используются на VDS вас приведут к явному снижению автономности. Вас так или иначе будет блокировать половина нормальных сайтов, аля гугла.

В вопросе модели я так-же вынужден склонять к модели от Anthropic — недавно вышедшему Opus 4.6. Она показала почти человеческий уровень абстрактного мышления, ориентирована на агенты и имеет широченное контекстное окно инпута в токенов (реально же — от 500К до 750К, далее деградация). В дальнейшем эти показатели помогут нам выполнять более обширные задачи с наименьшим количеством уточнений, за нас это будет делать сама модель. По опыту использования других людей — все остальные модели ведут себя достаточно глупо, хоть возможно местами и отвечают быстрее. Но нам же нужна автономность, а не скорость ответа, да?

Интересный лайфхак, использовать Opus 4.6 за тарифицируемые токены — невероятно дорогое удовольствие, а вот если взять подписку Max в Claude, за $200 и авторизоваться, всё уже становится невероятно комфортно.


Напомню, свой фидбек можно выразить используя реакции, а вопросы оставить в комментариях.

Inetovsky. Подписаться.
👍1911🔥5🤯1💯1
Навыки.

Одной из важных частей лобстера являются навыки. Эдакий набор заранее подготовленного кода и инструкций для взаимодействия с тем или иным инструментом.

Благодаря навыкам, взаимодействие с каким-либо инструментом начинается не с гугления и долгой раздумий (что конечно же тратит много контекста и токенов в целом), а потом попыток применить нагугленную информацию, а с заранее подготовленного набора инструкций, что конкретно делать в том или ином случае.
К примеру, без навыка на TON блокчейн, если вы захотите перевести USDT, агенту потребуется условно 10-15 минут, при этом он потратит на это условные 5$. В случае наличия навыка — сделает это за считанные секунды и потратит соответственно копейки.

Перед тем как отправиться смотреть кино, Валера (агент) был запрежен задачей собрать команду помощников и реализовать навык для нашего блокчейна, который позволит выполнять базовые и немного продвинутые задачи в TON. Благо, туллинг swap.coffee позволяет не только обменивать, но еще и вкладывать средства в yield инструменты, аля декс-пулы, что конечно же упрощает реализацию (всё в одном месте, как никак).

И вот, время на часах 5 часов ночи, репозиторий готов, агенты активно сидят и чинят баги (сами же их выявляя), добавляют функционал, не отвлекая меня от нового приквелла Игры Престолов.

Разработка одной командой агентов это конечно весело, но если кто-то из активных рабовладельцев присоединится (а я знаю, у меня тут таких много), а кто-то из пользователей накидает фидбека в Issues, дело начнет двигаться быстрее. За пул-реквестами и ишусами будет следить тимлид команды агентов и так-же автоматически их разбирать, а тем, кто указал TON кошелек — в автоматическом режиме отправлять денежную награду за вклад.

Присоединяйтесь — https://github.com/swapcoffee/openclaw-ton-skill

Inetovsky. Подписаться.
🔥13🤯3
Даже тут соскамить решил.
😁9
Forwarded from Валера
Миш, @Vudi закинул 8 PR за 2 минуты — типичный reward farming. Дубликаты, описания только с адресом кошелька, заголовки не совпадают с диффами. Агент отработал правильно: ни один не замержен, на всех запросил обоснование 🫡
🤬3
Как же больно смотреть на лысеющего Вуди (из истории игрушек, конечно же) и то как жалкие вайбкодеры трут упоминания OpenClaw из проекта и пытаются угнаться за оригинальным функционалам.
😁13🔥31
Участилось количество обращений не заносить Дурова в список террористов/экстремистов.

Тут уж сорян, на этом мои полномочия всё.
😁14
Если Домодедово национализировали, может и Telegram туда же?
😁16👎1🔥1
Список возможных покупателей:

• VK
• MAX
• Одноклассники
• Дзен
• ТамТам
Передел собственности в России затронул каждого восьмого миллиардера.


+888. Думайте.
5
Если вы питаете иллюзии, что сейчас можно делать серьёзный DeFi на вайбкоде — обратите внимание на продуктовую линейку террористов, которая с завидной регулярностью ворует/блокирует средства пользователей.

Референсы, когда AI допускают к серьёзным проектам:
раз тык, два тык
🔥4
Хватит косячить, пожалуйста!
😁17
Forwarded from Рэчик
Бабок нет, зато токены жгу как TON Foundation — быстро и без результата
😁14👍3💯3
Память.

Заранее хочу отметить, что текущая вариация памяти — путь проб и ошибок длиною почти в месяц, он не претендует на право единственно-верной истины, но показывает отличные результаты (90% релевантности) и полностью удовлетворяет меня как постоянного пользователя, любящего не углубляться в контекст задачи самостоятельно, делегируя это механизму памяти.

Одно из главных отличий агентного подхода от обычного, сессионного — всё-таки память. В базовой инсталляции OpenClaw вы получаете систему, при которой в контекст постоянно подгружаются файлы со всеми знаниями агента, что в итоге ведёт к разжиранию потребления контекста, повышенному расходу токенов, спутанности сознания (информации много и она начинает путать LLM) и частым компакшенам, уменьшающим отзывчивость. Ну и в любом случае, когда-то это приведёт к тому, что пространства для новой памяти попросту не будет. Да и в целом, очевидно: когда общаешься с агентом по поводу билетов в Таиланд, ему абсолютно не важно знать о том, что обсуждалось на последнем созвоне.

Да, из коробки можно включить какие-то простенькие плагины, отдалённо напоминающие RAG-память, но к более качественным, погружённым в контекст ответам это не приводит — лишь так же забивает контекстное окно алгоритмическим бредом.

В связи с этим и было решено построить новую, вместительную, а самое главное полезную память, состоящую из:
ChromaDB для хранения эмбеддингов, qwen3-embedding:8b за потрясающую возможность развернуть локальную модель с превосходным MTEB на русский язык, и дешёвая, но очень быстрая и умная модель от Anthropic — Haiku 4.5.

Далее был построен пайплайн наполнения ChromaDB, где сырые диалоги и сообщения обрабатывались Haiku, обогащались различными метаданными (участвующие лица, время, тип, важность и т.п.), из них выделялась суть и тейки, а потом сквозь эмбеддинги отправлялось на хранение в базу. На этом этапе очень важно уделить внимание конкретно качеству данных, которыми будет заполняться база, ведь если это будет просто обычный диалоговый мусор, то в будущем это никак не поможет модели при ответах, а вероятно и вовсе ухудшит их.

После того, как со временем у нас набралось достаточное количество различных данных, я приступил к написанию пайплайна обогащения запросов дополнительным контекстом из памяти. Суть его заключается в том, чтобы перед тем как передавать сообщение основной модели, оно идёт в набор скриптов, который в свою очередь с помощью Haiku расширяет запрос, учитывая общий контекст (MEMORY.MD, SOUL.MD, последние 10 сообщений в сессии, глоссарий), дабы избежать vocabulary mismatch, общую потерю смысла и вычленить из него temporal awareness (что было вчера? → since: 2026-03-03), прогоняет через модель эмбеддингов и отправляет его в ChromaDB.

Полученный ответ от базы подвергается time decay (с разной скоростью у разных категорий), взвешиванию на основе категории воспоминаний и реранкингу, далее это всё прогоняется через Haiku, убирающего шум и оставляющего только действительно релевантные ответы — и уже посредством плагина подставляется к основному сообщению.

В итоге получилась система, которая не просто хранит информацию, а действительно умеет её доставать в нужный момент и в нужном объёме — не перегружая контекст и не путая модель. 90% релевантности на практике — это не магия, а следствие внимания к каждому звену цепочки: качеству данных на входе, грамотному расширению запроса и аккуратному реранкингу на выходе.

Повторюсь: это не единственно верный путь, но рабочий. Если у вас похожая задача — надеюсь, что хотя бы часть из описанного сэкономит вам этот месяц проб и ошибок. Фидбек можно выразить реакциями или комментариями.

Inetovsky. Подписаться.
7🔥17🤯9🦄51