Forwarded from КриптоДед
Прослушал АМА сессию Max.ton с Мишей Термосом
Макс - это exSTONfi и сейчас главный TON - беливер, а Миша сделал СвапКофе и агрегатор телеграм подарков Thermos
Прошло очень тепло и лампово, в пике было 80 человек, пришли и Кирилл из Дайте TON и Вуди и они даже не ссорились, потому что мы все одной лодке под названием обскамленные в TON-е.
Миша верит в игры в Telegram (привет Axiom Game Labs) и очень хочет верить в успех и возвращение TON-а, но против рынка не пойдёшь и даже вливания миллионов не поможет от медведей.
Делайте и развивайте свои навыки! (с)
Этим мне и нравится TON, что тут классное коммьюнити и вышел живой прямой эфир, а не наигранная ама, как в Твиттере. Душевно посидели!
Макс - это exSTONfi и сейчас главный TON - беливер, а Миша сделал СвапКофе и агрегатор телеграм подарков Thermos
Прошло очень тепло и лампово, в пике было 80 человек, пришли и Кирилл из Дайте TON и Вуди и они даже не ссорились, потому что мы все одной лодке под названием обскамленные в TON-е.
Миша верит в игры в Telegram (привет Axiom Game Labs) и очень хочет верить в успех и возвращение TON-а, но против рынка не пойдёшь и даже вливания миллионов не поможет от медведей.
Делайте и развивайте свои навыки! (с)
Этим мне и нравится TON, что тут классное коммьюнити и вышел живой прямой эфир, а не наигранная ама, как в Твиттере. Душевно посидели!
🔥17👍5🦄3
Пока писал ещё один питательный пост, не мог не отвлечься на это.
Скажите, как можно опозориться в раздаче $200? Просто как?
Скажите, как можно опозориться в раздаче $200? Просто как?
Telegram
Друзья Дурова
Друзья Дурова на канале TON Community продолжают каждый день скамить участников собственного конкурса, обманывая призом в $200.
Каждый день в "конкурсе Валентинок" админы создают пустой новый кошелёк, отправляют сами себе подарок, не соблюдают даже временные…
Каждый день в "конкурсе Валентинок" админы создают пустой новый кошелёк, отправляют сами себе подарок, не соблюдают даже временные…
🤯10😁5❤1
Продолжая об OpenClaw.
Изначально стоит понять, что OpenClaw лишь платформа, а к выбору платформы нужно относиться внимательно,чтобы потом спустя годы не грустить, что ты делал продукты в TON .
Уже сейчас появилось достаточно аналогов, таких как Nanobot, PicoClaw, или недавно упомянутая поделка, сделанная "специально" под TON и Telegram экосистему, но все они проигрывают лобстеру в главном — комьюнити и его активности. На данный момент у лобстера выходят до трёх обновлений в день, и баг, который тебя условно бесил ещё утром, к вечеру вероятно будет исправлен, а если и нет — вы как минимум в автоматическом режиме создатите Issue, который зарезолвит неравнодушный человек с агентом (вероятно в автоматическом режиме). Не могу судить за стабильность других решений, но лобстер же в свою очередь работает стабильно, его легко можно назвать прод-реди решением. Ну и огромная база скиллов (которые кстати иногда бывают вредоносными, относитесь к этому с вниманием) естественно в будущем позволит вам экономить огромное количество токенов и времени. Ну и накинет приятного UX.
На момент, когда мы определились с тем, что собираемся работать с OpenClaw, перед нами стоит ещё два больших вопроса — на что его установить и какую модель использовать как основную. Вопрос установки к себе на компьютер мы закрываем сразу, поскольку это реально может привести к непреодолимым последствиям и создаёт огромные secure-риски, так-же как и вопрос использования чисто локальных моделей, поскольку даже если у вас невероятно крутое железо, модели всё равно тупые. Ну бывает.
Если мы расчитываем на долгое и плодотворное сотрудничество, выбор у нас сводится к Mac Mini или Mac Studio, обязательно на M процессоре. В дальнейшем это позволит нам использовать всеми любимый whisper, заместо платных решений от условного Eleven Labs, который за 10 часов голоса будет с вас брать по 40 кровных долларов, обеспечит так или иначе security для ваших креденшиалсов, за счёт встроенных в macOS механизмов, даст возможность использовать приложения без API и пользоваться нормальным, не headless браузером. Про браузер — важно, поскольку headless решения, которые используются на VDS вас приведут к явному снижению автономности. Вас так или иначе будет блокировать половина нормальных сайтов, аля гугла.
В вопросе модели я так-же вынужден склонять к модели от Anthropic — недавно вышедшему Opus 4.6. Она показала почти человеческий уровень абстрактного мышления, ориентирована на агенты и имеет широченное контекстное окно инпута в 1М токенов (реально же — от 500К до 750К, далее деградация). В дальнейшем эти показатели помогут нам выполнять более обширные задачи с наименьшим количеством уточнений, за нас это будет делать сама модель. По опыту использования других людей — все остальные модели ведут себя достаточно глупо, хоть возможно местами и отвечают быстрее. Но нам же нужна автономность, а не скорость ответа, да?
Интересный лайфхак, использовать Opus 4.6 за тарифицируемые токены — невероятно дорогое удовольствие, а вот если взять подписку Max в Claude, за $200 и авторизоваться, всё уже становится невероятно комфортно.
Напомню, свой фидбек можно выразить используя реакции, а вопросы оставить в комментариях.
Inetovsky. Подписаться.
Изначально стоит понять, что OpenClaw лишь платформа, а к выбору платформы нужно относиться внимательно,
Уже сейчас появилось достаточно аналогов, таких как Nanobot, PicoClaw, или недавно упомянутая поделка, сделанная "специально" под TON и Telegram экосистему, но все они проигрывают лобстеру в главном — комьюнити и его активности. На данный момент у лобстера выходят до трёх обновлений в день, и баг, который тебя условно бесил ещё утром, к вечеру вероятно будет исправлен, а если и нет — вы как минимум в автоматическом режиме создатите Issue, который зарезолвит неравнодушный человек с агентом (вероятно в автоматическом режиме). Не могу судить за стабильность других решений, но лобстер же в свою очередь работает стабильно, его легко можно назвать прод-реди решением. Ну и огромная база скиллов (которые кстати иногда бывают вредоносными, относитесь к этому с вниманием) естественно в будущем позволит вам экономить огромное количество токенов и времени. Ну и накинет приятного UX.
На момент, когда мы определились с тем, что собираемся работать с OpenClaw, перед нами стоит ещё два больших вопроса — на что его установить и какую модель использовать как основную. Вопрос установки к себе на компьютер мы закрываем сразу, поскольку это реально может привести к непреодолимым последствиям и создаёт огромные secure-риски, так-же как и вопрос использования чисто локальных моделей, поскольку даже если у вас невероятно крутое железо, модели всё равно тупые. Ну бывает.
Если мы расчитываем на долгое и плодотворное сотрудничество, выбор у нас сводится к Mac Mini или Mac Studio, обязательно на M процессоре. В дальнейшем это позволит нам использовать всеми любимый whisper, заместо платных решений от условного Eleven Labs, который за 10 часов голоса будет с вас брать по 40 кровных долларов, обеспечит так или иначе security для ваших креденшиалсов, за счёт встроенных в macOS механизмов, даст возможность использовать приложения без API и пользоваться нормальным, не headless браузером. Про браузер — важно, поскольку headless решения, которые используются на VDS вас приведут к явному снижению автономности. Вас так или иначе будет блокировать половина нормальных сайтов, аля гугла.
В вопросе модели я так-же вынужден склонять к модели от Anthropic — недавно вышедшему Opus 4.6. Она показала почти человеческий уровень абстрактного мышления, ориентирована на агенты и имеет широченное контекстное окно инпута в 1М токенов (реально же — от 500К до 750К, далее деградация). В дальнейшем эти показатели помогут нам выполнять более обширные задачи с наименьшим количеством уточнений, за нас это будет делать сама модель. По опыту использования других людей — все остальные модели ведут себя достаточно глупо, хоть возможно местами и отвечают быстрее. Но нам же нужна автономность, а не скорость ответа, да?
Интересный лайфхак, использовать Opus 4.6 за тарифицируемые токены — невероятно дорогое удовольствие, а вот если взять подписку Max в Claude, за $200 и авторизоваться, всё уже становится невероятно комфортно.
Напомню, свой фидбек можно выразить используя реакции, а вопросы оставить в комментариях.
Inetovsky. Подписаться.
👍19❤11🔥5🤯1💯1
Навыки.
Одной из важных частей лобстера являются навыки. Эдакий набор заранее подготовленного кода и инструкций для взаимодействия с тем или иным инструментом.
Благодаря навыкам, взаимодействие с каким-либо инструментом начинается не с гугления и долгой раздумий (что конечно же тратит много контекста и токенов в целом), а потом попыток применить нагугленную информацию, а с заранее подготовленного набора инструкций, что конкретно делать в том или ином случае.
К примеру, без навыка на TON блокчейн, если вы захотите перевести USDT, агенту потребуется условно 10-15 минут, при этом он потратит на это условные 5$. В случае наличия навыка — сделает это за считанные секунды и потратит соответственно копейки.
Перед тем как отправиться смотреть кино, Валера (агент) был запрежен задачей собрать команду помощников и реализовать навык для нашего блокчейна, который позволит выполнять базовые и немного продвинутые задачи в TON. Благо, туллинг swap.coffee позволяет не только обменивать, но еще и вкладывать средства в yield инструменты, аля декс-пулы, что конечно же упрощает реализацию (всё в одном месте, как никак).
И вот, время на часах 5 часов ночи, репозиторий готов, агенты активно сидят и чинят баги (сами же их выявляя), добавляют функционал, не отвлекая меня от нового приквелла Игры Престолов.
Разработка одной командой агентов это конечно весело, но если кто-то из активных рабовладельцев присоединится (а я знаю, у меня тут таких много), а кто-то из пользователей накидает фидбека в Issues, дело начнет двигаться быстрее. За пул-реквестами и ишусами будет следить тимлид команды агентов и так-же автоматически их разбирать, а тем, кто указал TON кошелек — в автоматическом режиме отправлять денежную награду за вклад.
Присоединяйтесь — https://github.com/swapcoffee/openclaw-ton-skill
Inetovsky. Подписаться.
Одной из важных частей лобстера являются навыки. Эдакий набор заранее подготовленного кода и инструкций для взаимодействия с тем или иным инструментом.
Благодаря навыкам, взаимодействие с каким-либо инструментом начинается не с гугления и долгой раздумий (что конечно же тратит много контекста и токенов в целом), а потом попыток применить нагугленную информацию, а с заранее подготовленного набора инструкций, что конкретно делать в том или ином случае.
К примеру, без навыка на TON блокчейн, если вы захотите перевести USDT, агенту потребуется условно 10-15 минут, при этом он потратит на это условные 5$. В случае наличия навыка — сделает это за считанные секунды и потратит соответственно копейки.
Перед тем как отправиться смотреть кино, Валера (агент) был запрежен задачей собрать команду помощников и реализовать навык для нашего блокчейна, который позволит выполнять базовые и немного продвинутые задачи в TON. Благо, туллинг swap.coffee позволяет не только обменивать, но еще и вкладывать средства в yield инструменты, аля декс-пулы, что конечно же упрощает реализацию (всё в одном месте, как никак).
И вот, время на часах 5 часов ночи, репозиторий готов, агенты активно сидят и чинят баги (сами же их выявляя), добавляют функционал, не отвлекая меня от нового приквелла Игры Престолов.
Разработка одной командой агентов это конечно весело, но если кто-то из активных рабовладельцев присоединится (а я знаю, у меня тут таких много), а кто-то из пользователей накидает фидбека в Issues, дело начнет двигаться быстрее. За пул-реквестами и ишусами будет следить тимлид команды агентов и так-же автоматически их разбирать, а тем, кто указал TON кошелек — в автоматическом режиме отправлять денежную награду за вклад.
Присоединяйтесь — https://github.com/swapcoffee/openclaw-ton-skill
Inetovsky. Подписаться.
GitHub
GitHub - swapcoffee/openclaw-ton-skill
Contribute to swapcoffee/openclaw-ton-skill development by creating an account on GitHub.
🔥13🤯3
Как же больно смотреть на лысеющего Вуди (из истории игрушек, конечно же) и то как жалкие вайбкодеры трут упоминания OpenClaw из проекта и пытаются угнаться за оригинальным функционалам.
😁13🔥3❤1
Участилось количество обращений не заносить Дурова в список террористов/экстремистов.
Тут уж сорян, на этом мои полномочия всё.
Тут уж сорян, на этом мои полномочия всё.
😁14
Передел собственности в России затронул каждого восьмого миллиардера.
+888. Думайте.
❤5
Investment kingyru 💎
Нельзя каждый нарратив начинать с нуля и забывать всё, что было построено до. Нельзя каждые полгода полностью менять фокус и делать вид, что прошлый слой не существовал.
Вот так нарратив DeFi проектов и сменился на нарратив вайб-кода на базе AppKit. Так и живём.
🤯5👍4
Если вы питаете иллюзии, что сейчас можно делать серьёзный DeFi на вайбкоде — обратите внимание на продуктовую линейку террористов, которая с завидной регулярностью ворует/блокирует средства пользователей.
Референсы, когда AI допускают к серьёзным проектам:
раз тык, два тык
Референсы, когда AI допускают к серьёзным проектам:
раз тык, два тык
NDTV
Nearly Entire Spotify Music Catalog Pirated Into A 300TB Copy
Anna Archive claims to have scraped and backed up 86 million Spotify tracks, totalling around 300 terabytes, planning to distribute the data via bulk torrents.
🔥4
Forwarded from Рэчик
Бабок нет, зато токены жгу как TON Foundation — быстро и без результата
😁14👍3💯3
Память.
Заранее хочу отметить, что текущая вариация памяти — путь проб и ошибок длиною почти в месяц, он не претендует на право единственно-верной истины, но показывает отличные результаты (90% релевантности) и полностью удовлетворяет меня как постоянного пользователя, любящего не углубляться в контекст задачи самостоятельно, делегируя это механизму памяти.
Одно из главных отличий агентного подхода от обычного, сессионного — всё-таки память. В базовой инсталляции OpenClaw вы получаете систему, при которой в контекст постоянно подгружаются файлы со всеми знаниями агента, что в итоге ведёт к разжиранию потребления контекста, повышенному расходу токенов, спутанности сознания (информации много и она начинает путать LLM) и частым компакшенам, уменьшающим отзывчивость. Ну и в любом случае, когда-то это приведёт к тому, что пространства для новой памяти попросту не будет. Да и в целом, очевидно: когда общаешься с агентом по поводу билетов в Таиланд, ему абсолютно не важно знать о том, что обсуждалось на последнем созвоне.
Да, из коробки можно включить какие-то простенькие плагины, отдалённо напоминающие RAG-память, но к более качественным, погружённым в контекст ответам это не приводит — лишь так же забивает контекстное окно алгоритмическим бредом.
В связи с этим и было решено построить новую, вместительную, а самое главное полезную память, состоящую из:
ChromaDB для хранения эмбеддингов, qwen3-embedding:8b за потрясающую возможность развернуть локальную модель с превосходным MTEB на русский язык, и дешёвая, но очень быстрая и умная модель от Anthropic — Haiku 4.5.
Далее был построен пайплайн наполнения ChromaDB, где сырые диалоги и сообщения обрабатывались Haiku, обогащались различными метаданными (участвующие лица, время, тип, важность и т.п.), из них выделялась суть и тейки, а потом сквозь эмбеддинги отправлялось на хранение в базу. На этом этапе очень важно уделить внимание конкретно качеству данных, которыми будет заполняться база, ведь если это будет просто обычный диалоговый мусор, то в будущем это никак не поможет модели при ответах, а вероятно и вовсе ухудшит их.
После того, как со временем у нас набралось достаточное количество различных данных, я приступил к написанию пайплайна обогащения запросов дополнительным контекстом из памяти. Суть его заключается в том, чтобы перед тем как передавать сообщение основной модели, оно идёт в набор скриптов, который в свою очередь с помощью Haiku расширяет запрос, учитывая общий контекст (MEMORY.MD, SOUL.MD, последние 10 сообщений в сессии, глоссарий), дабы избежать vocabulary mismatch, общую потерю смысла и вычленить из него temporal awareness (что было вчера? → since: 2026-03-03), прогоняет через модель эмбеддингов и отправляет его в ChromaDB.
Полученный ответ от базы подвергается time decay (с разной скоростью у разных категорий), взвешиванию на основе категории воспоминаний и реранкингу, далее это всё прогоняется через Haiku, убирающего шум и оставляющего только действительно релевантные ответы — и уже посредством плагина подставляется к основному сообщению.
В итоге получилась система, которая не просто хранит информацию, а действительно умеет её доставать в нужный момент и в нужном объёме — не перегружая контекст и не путая модель. 90% релевантности на практике — это не магия, а следствие внимания к каждому звену цепочки: качеству данных на входе, грамотному расширению запроса и аккуратному реранкингу на выходе.
Повторюсь: это не единственно верный путь, но рабочий. Если у вас похожая задача — надеюсь, что хотя бы часть из описанного сэкономит вам этот месяц проб и ошибок. Фидбек можно выразить реакциями или комментариями.
Inetovsky. Подписаться.
Заранее хочу отметить, что текущая вариация памяти — путь проб и ошибок длиною почти в месяц, он не претендует на право единственно-верной истины, но показывает отличные результаты (90% релевантности) и полностью удовлетворяет меня как постоянного пользователя, любящего не углубляться в контекст задачи самостоятельно, делегируя это механизму памяти.
Одно из главных отличий агентного подхода от обычного, сессионного — всё-таки память. В базовой инсталляции OpenClaw вы получаете систему, при которой в контекст постоянно подгружаются файлы со всеми знаниями агента, что в итоге ведёт к разжиранию потребления контекста, повышенному расходу токенов, спутанности сознания (информации много и она начинает путать LLM) и частым компакшенам, уменьшающим отзывчивость. Ну и в любом случае, когда-то это приведёт к тому, что пространства для новой памяти попросту не будет. Да и в целом, очевидно: когда общаешься с агентом по поводу билетов в Таиланд, ему абсолютно не важно знать о том, что обсуждалось на последнем созвоне.
Да, из коробки можно включить какие-то простенькие плагины, отдалённо напоминающие RAG-память, но к более качественным, погружённым в контекст ответам это не приводит — лишь так же забивает контекстное окно алгоритмическим бредом.
В связи с этим и было решено построить новую, вместительную, а самое главное полезную память, состоящую из:
ChromaDB для хранения эмбеддингов, qwen3-embedding:8b за потрясающую возможность развернуть локальную модель с превосходным MTEB на русский язык, и дешёвая, но очень быстрая и умная модель от Anthropic — Haiku 4.5.
Далее был построен пайплайн наполнения ChromaDB, где сырые диалоги и сообщения обрабатывались Haiku, обогащались различными метаданными (участвующие лица, время, тип, важность и т.п.), из них выделялась суть и тейки, а потом сквозь эмбеддинги отправлялось на хранение в базу. На этом этапе очень важно уделить внимание конкретно качеству данных, которыми будет заполняться база, ведь если это будет просто обычный диалоговый мусор, то в будущем это никак не поможет модели при ответах, а вероятно и вовсе ухудшит их.
После того, как со временем у нас набралось достаточное количество различных данных, я приступил к написанию пайплайна обогащения запросов дополнительным контекстом из памяти. Суть его заключается в том, чтобы перед тем как передавать сообщение основной модели, оно идёт в набор скриптов, который в свою очередь с помощью Haiku расширяет запрос, учитывая общий контекст (MEMORY.MD, SOUL.MD, последние 10 сообщений в сессии, глоссарий), дабы избежать vocabulary mismatch, общую потерю смысла и вычленить из него temporal awareness (что было вчера? → since: 2026-03-03), прогоняет через модель эмбеддингов и отправляет его в ChromaDB.
Полученный ответ от базы подвергается time decay (с разной скоростью у разных категорий), взвешиванию на основе категории воспоминаний и реранкингу, далее это всё прогоняется через Haiku, убирающего шум и оставляющего только действительно релевантные ответы — и уже посредством плагина подставляется к основному сообщению.
В итоге получилась система, которая не просто хранит информацию, а действительно умеет её доставать в нужный момент и в нужном объёме — не перегружая контекст и не путая модель. 90% релевантности на практике — это не магия, а следствие внимания к каждому звену цепочки: качеству данных на входе, грамотному расширению запроса и аккуратному реранкингу на выходе.
Повторюсь: это не единственно верный путь, но рабочий. Если у вас похожая задача — надеюсь, что хотя бы часть из описанного сэкономит вам этот месяц проб и ошибок. Фидбек можно выразить реакциями или комментариями.
Inetovsky. Подписаться.
7🔥17🤯9🦄5❤1