Как же больно смотреть на лысеющего Вуди (из истории игрушек, конечно же) и то как жалкие вайбкодеры трут упоминания OpenClaw из проекта и пытаются угнаться за оригинальным функционалам.
😁13🔥3❤1
Участилось количество обращений не заносить Дурова в список террористов/экстремистов.
Тут уж сорян, на этом мои полномочия всё.
Тут уж сорян, на этом мои полномочия всё.
😁14
Передел собственности в России затронул каждого восьмого миллиардера.
+888. Думайте.
❤5
Investment kingyru 💎
Нельзя каждый нарратив начинать с нуля и забывать всё, что было построено до. Нельзя каждые полгода полностью менять фокус и делать вид, что прошлый слой не существовал.
Вот так нарратив DeFi проектов и сменился на нарратив вайб-кода на базе AppKit. Так и живём.
🤯5👍4
Если вы питаете иллюзии, что сейчас можно делать серьёзный DeFi на вайбкоде — обратите внимание на продуктовую линейку террористов, которая с завидной регулярностью ворует/блокирует средства пользователей.
Референсы, когда AI допускают к серьёзным проектам:
раз тык, два тык
Референсы, когда AI допускают к серьёзным проектам:
раз тык, два тык
NDTV
Nearly Entire Spotify Music Catalog Pirated Into A 300TB Copy
Anna Archive claims to have scraped and backed up 86 million Spotify tracks, totalling around 300 terabytes, planning to distribute the data via bulk torrents.
🔥4
Forwarded from Рэчик
Бабок нет, зато токены жгу как TON Foundation — быстро и без результата
😁14👍3💯3
Память.
Заранее хочу отметить, что текущая вариация памяти — путь проб и ошибок длиною почти в месяц, он не претендует на право единственно-верной истины, но показывает отличные результаты (90% релевантности) и полностью удовлетворяет меня как постоянного пользователя, любящего не углубляться в контекст задачи самостоятельно, делегируя это механизму памяти.
Одно из главных отличий агентного подхода от обычного, сессионного — всё-таки память. В базовой инсталляции OpenClaw вы получаете систему, при которой в контекст постоянно подгружаются файлы со всеми знаниями агента, что в итоге ведёт к разжиранию потребления контекста, повышенному расходу токенов, спутанности сознания (информации много и она начинает путать LLM) и частым компакшенам, уменьшающим отзывчивость. Ну и в любом случае, когда-то это приведёт к тому, что пространства для новой памяти попросту не будет. Да и в целом, очевидно: когда общаешься с агентом по поводу билетов в Таиланд, ему абсолютно не важно знать о том, что обсуждалось на последнем созвоне.
Да, из коробки можно включить какие-то простенькие плагины, отдалённо напоминающие RAG-память, но к более качественным, погружённым в контекст ответам это не приводит — лишь так же забивает контекстное окно алгоритмическим бредом.
В связи с этим и было решено построить новую, вместительную, а самое главное полезную память, состоящую из:
ChromaDB для хранения эмбеддингов, qwen3-embedding:8b за потрясающую возможность развернуть локальную модель с превосходным MTEB на русский язык, и дешёвая, но очень быстрая и умная модель от Anthropic — Haiku 4.5.
Далее был построен пайплайн наполнения ChromaDB, где сырые диалоги и сообщения обрабатывались Haiku, обогащались различными метаданными (участвующие лица, время, тип, важность и т.п.), из них выделялась суть и тейки, а потом сквозь эмбеддинги отправлялось на хранение в базу. На этом этапе очень важно уделить внимание конкретно качеству данных, которыми будет заполняться база, ведь если это будет просто обычный диалоговый мусор, то в будущем это никак не поможет модели при ответах, а вероятно и вовсе ухудшит их.
После того, как со временем у нас набралось достаточное количество различных данных, я приступил к написанию пайплайна обогащения запросов дополнительным контекстом из памяти. Суть его заключается в том, чтобы перед тем как передавать сообщение основной модели, оно идёт в набор скриптов, который в свою очередь с помощью Haiku расширяет запрос, учитывая общий контекст (MEMORY.MD, SOUL.MD, последние 10 сообщений в сессии, глоссарий), дабы избежать vocabulary mismatch, общую потерю смысла и вычленить из него temporal awareness (что было вчера? → since: 2026-03-03), прогоняет через модель эмбеддингов и отправляет его в ChromaDB.
Полученный ответ от базы подвергается time decay (с разной скоростью у разных категорий), взвешиванию на основе категории воспоминаний и реранкингу, далее это всё прогоняется через Haiku, убирающего шум и оставляющего только действительно релевантные ответы — и уже посредством плагина подставляется к основному сообщению.
В итоге получилась система, которая не просто хранит информацию, а действительно умеет её доставать в нужный момент и в нужном объёме — не перегружая контекст и не путая модель. 90% релевантности на практике — это не магия, а следствие внимания к каждому звену цепочки: качеству данных на входе, грамотному расширению запроса и аккуратному реранкингу на выходе.
Повторюсь: это не единственно верный путь, но рабочий. Если у вас похожая задача — надеюсь, что хотя бы часть из описанного сэкономит вам этот месяц проб и ошибок. Фидбек можно выразить реакциями или комментариями.
Inetovsky. Подписаться.
Заранее хочу отметить, что текущая вариация памяти — путь проб и ошибок длиною почти в месяц, он не претендует на право единственно-верной истины, но показывает отличные результаты (90% релевантности) и полностью удовлетворяет меня как постоянного пользователя, любящего не углубляться в контекст задачи самостоятельно, делегируя это механизму памяти.
Одно из главных отличий агентного подхода от обычного, сессионного — всё-таки память. В базовой инсталляции OpenClaw вы получаете систему, при которой в контекст постоянно подгружаются файлы со всеми знаниями агента, что в итоге ведёт к разжиранию потребления контекста, повышенному расходу токенов, спутанности сознания (информации много и она начинает путать LLM) и частым компакшенам, уменьшающим отзывчивость. Ну и в любом случае, когда-то это приведёт к тому, что пространства для новой памяти попросту не будет. Да и в целом, очевидно: когда общаешься с агентом по поводу билетов в Таиланд, ему абсолютно не важно знать о том, что обсуждалось на последнем созвоне.
Да, из коробки можно включить какие-то простенькие плагины, отдалённо напоминающие RAG-память, но к более качественным, погружённым в контекст ответам это не приводит — лишь так же забивает контекстное окно алгоритмическим бредом.
В связи с этим и было решено построить новую, вместительную, а самое главное полезную память, состоящую из:
ChromaDB для хранения эмбеддингов, qwen3-embedding:8b за потрясающую возможность развернуть локальную модель с превосходным MTEB на русский язык, и дешёвая, но очень быстрая и умная модель от Anthropic — Haiku 4.5.
Далее был построен пайплайн наполнения ChromaDB, где сырые диалоги и сообщения обрабатывались Haiku, обогащались различными метаданными (участвующие лица, время, тип, важность и т.п.), из них выделялась суть и тейки, а потом сквозь эмбеддинги отправлялось на хранение в базу. На этом этапе очень важно уделить внимание конкретно качеству данных, которыми будет заполняться база, ведь если это будет просто обычный диалоговый мусор, то в будущем это никак не поможет модели при ответах, а вероятно и вовсе ухудшит их.
После того, как со временем у нас набралось достаточное количество различных данных, я приступил к написанию пайплайна обогащения запросов дополнительным контекстом из памяти. Суть его заключается в том, чтобы перед тем как передавать сообщение основной модели, оно идёт в набор скриптов, который в свою очередь с помощью Haiku расширяет запрос, учитывая общий контекст (MEMORY.MD, SOUL.MD, последние 10 сообщений в сессии, глоссарий), дабы избежать vocabulary mismatch, общую потерю смысла и вычленить из него temporal awareness (что было вчера? → since: 2026-03-03), прогоняет через модель эмбеддингов и отправляет его в ChromaDB.
Полученный ответ от базы подвергается time decay (с разной скоростью у разных категорий), взвешиванию на основе категории воспоминаний и реранкингу, далее это всё прогоняется через Haiku, убирающего шум и оставляющего только действительно релевантные ответы — и уже посредством плагина подставляется к основному сообщению.
В итоге получилась система, которая не просто хранит информацию, а действительно умеет её доставать в нужный момент и в нужном объёме — не перегружая контекст и не путая модель. 90% релевантности на практике — это не магия, а следствие внимания к каждому звену цепочки: качеству данных на входе, грамотному расширению запроса и аккуратному реранкингу на выходе.
Повторюсь: это не единственно верный путь, но рабочий. Если у вас похожая задача — надеюсь, что хотя бы часть из описанного сэкономит вам этот месяц проб и ошибок. Фидбек можно выразить реакциями или комментариями.
Inetovsky. Подписаться.
7🔥17🤯9🦄5❤1