ИИ для бизнеса / Михаил Ларькин – Telegram
ИИ для бизнеса / Михаил Ларькин
2.57K subscribers
478 photos
236 videos
1 file
519 links
Блог Михаила Ларькина про ИИ в бизнес-процессах, технологиях и будущем
Контакты @Larkinmd7
Сайт larkinmd7.ru
Download Telegram
За подписку Клода заплатил 200$, но если бы покупал по API, то заплатил бы за токены за месяц 1576$

Выгодно)
🔥5👍32
Media is too big
VIEW IN TELEGRAM
Гений потратил 2,54 МИЛЛИАРДА токенов, чтобы довести OpenClaw до идеала.

Юзкейсы, которые он по пути откопал, поменяли то, как он живёт и работает.

И теперь он делится этим со всеми.

Вот 21 сценарий:

0:00 Интро
0:50 Что такое OpenClaw?
1:35 MD-файлы
2:14 Система памяти
3:55 CRM-система
7:19 Fathom pipeline
9:18 Встреча → action items
10:46 Система базы знаний
13:51 Pipeline для ingestion из X
14:31 Business Advisory Council
16:13 Security Council
18:21 Трекинг соцсетей
19:18 Pipeline идей для видео
21:40 Daily briefing flow
22:23 Три совета (Three Councils)
22:57 Расписание автоматизаций
24:15 Слои безопасности
26:09 Базы данных и бэкапы
28:00 Генерация видео/картинок
29:14 Self-updates
29:56 Трекинг использования и стоимости
30:15 Prompt engineering
31:15 Инфраструктура для разработчиков
32:06 Дневник питания

- Бесплатная eBook с юзкейсами
- промпты
- SOUL
- IDENTITY
- PRD
18🔥1
Прикол. Мужику надоело просто так кодить и потом проверять, сколько денег он потратил за ссесиию, поэтому он сделал себе... Генератор чеков!

Теперь в конце каждой сессии Claude формулирует ему чек с количество потраченных токенов и затратами по деньгам.

Если хотите настроить себе такое же — вот его гитхаб.
🤣8🔥5😁1
Насколько Skills реально помогают LLM-агентам.

SkillsBench — исследование и первый бенчмарк, где Agent Skills тестируются как самостоятельный артефакт.

Авторы из 15+ топовых университетов взяли 84 задачи из 11 доменов, запустили 7 конфигураций моделей (Claude Code с Opus/Sonnet/Haiku 4.5 и 4.6, Gemini CLI с Gemini 3 Pro/Flash, Codex с GPT-5.2) и проверили 3 условия: без Skills, с готовыми Skills и с самостоятельно сгенерированными Skills. Итого: 7 308 траекторий с детерминированными верификаторами на pytest.

Готовые Skills в среднем поднимают pass rate на 16,2 процентных пункта: с 24,3% до 40,6%. Но картина неоднородная: в медицине прирост составил +51,9%, для производства — +41,9%, тогда как в разработке ПО всего +4,5%.

Это объяснимо: там, где модели плохо покрыты обучением (клинические протоколы, промышленные воркфлоу), Skills дают максимальный эффект. Там, где модель и так знает домен - почти ничего.

🟡Главный и неожиданный результат: самогенерация Skills не работает.

Когда моделям предлагали сначала написать нужные гайды, а потом решать задачу, средний результат упал на 1,3% по сравнению с работой вообще без Skills. Только Claude Opus 4.6 показал скромный плюс (+1,4%), а GPT-5.2 просел на 5,6%.

Иными словами - модели не умеют надежно создавать то знание, которым умеют пользоваться.


🟡Еще один интересный момент - это объем Skills.

Оптимальный вариант: 2–3 модуля, прирост +18,6%. При 4 и более - всего +5,9%. Подробная документация вообще дает отрицательный эффект: –2,9%, с ней агент буквально тонет в контексте.

Показательна и стоимость решения задач: Haiku 4.5 со Skills обходит Opus 4.5 без Skills — меньшая и более дешевая модель с готовыми Skills бьет старшую модель без них.

Gemini 3 Flash при этом показал лучший абсолютный результат среди всех конфигураций - 48,7% со Skills при цене $0,57 за одну задачу против $1,06 у Gemini 3 Pro.

Страница проекта
Arxiv
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Вышла Claude Sonnet 4.6 с контекстом 1M

Теперь можно поставить её дефолтом в Claude Code 💚

UI: /model claude-sonnet-4-6[1m]

~/.claude/settings.json:


{
"env": {
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-6[1m]",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-6[1m]"
}
}


Серьезно, ставь Sonnet везде вместо Haiku. Для продовых реп, которые большие и со сложной логикой, ты хочешь, чтобы работу делал именно Sonnet.

Контекст 1M становится дороже только когда объем контекста превышает 200K, но модель работает лучше, когда “знает”, что у нее есть запас по контексту.

Чтобы включить 1M контекст в Claude Code на подписочных планах, нужно активировать extra usage в своем плане.

Я тестировал модель до 639K контекста и могу подтвердить: никакие мои extra usage credits не тратились, то есть это покрывалось включенным лимитом подписки.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥1
Anthropic выкатили Claude Code Security

Это новый security-слой внутри Claude Code: инструмент сканирует всю кодовую базу на уязвимости и предлагает точечные патчи для ревью человеком, позволяя командам находить и устранять проблемы, которые традиционные инструменты часто пропускают

Реакция рынка показательная – на фоне новости акции кибербез-компаний пошли вниз 📉

Что важно знать:
• Запуск в формате limited research preview для пользователей Enterprise и Team
• Мейнтейнерам опенсорс проектов дадут ускоренный бесплатный доступ, чтобы “пощупать” и потестить.
• Anthropic хотят вооружить защитников против надвигающейся волны AI-усиленных эксплойтов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍2
0.2% населения земли вайбкодят
😁4🤯4
И не говори, что у тебя не так
😁123👍1💯1
Media is too big
VIEW IN TELEGRAM
Кто-то сделал расширение для VS Code, которое превращает твоих AI-агентов в пиксельных персонажей.

Они работают в виртуальном офисе прямо в сайдбаре и ходят там, пока занимаются твоим кодом.

100% опенсорс ❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
😁7👏4👍1💯1
Perplexity завезли новую фичу: Perplexity Computer. 🤙

Computer объединяет все актуальные возможности ИИ в одну систему: ресерч, дизайн, код, деплой и ведение проекта end-to-end.

Ключевое, то что это мульти-модельная система. Computer запускает саб-агентов параллельно и подбирает под каждую задачу наиболее подходящую модель (в т.ч. через Opus). Всего роутит работу между 19 моделями.

Плюсом Computer персонализирован под тебя, помнит твою прошлую работу и по умолчанию безопасен. Есть сотни коннекторов, персистентная память, файлы и доступ к вебу, и всё это поверх инфраструктуры Perplexity.

Модель оплаты: по факту использования, с опциональным выбором модели для саб-агентов и лимитами расходов.

Можно выбирать разные модели для разных задач саб-агентов и контролировать расход токенов.

Пользователи Max получают 10 000 кредитов в месяц, включенных в подписку.

Также выдают разовый бонус 20 000 дополнительных кредитов: его начислят при запуске текущим пользователям и при регистрации новым. Бонус сгорает через 30 дней после начисления.

Доступно в веб-версии для подписчиков Max уже сегодня, а скоро появится и для Perplexity Pro и Enterprise.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥311👍1👏1😍1
Приложение Codex теперь доступно на Windows.

Оно работает и нативно, и в WSL, с встроенными терминалами для PowerShell, Command Prompt, Git Bash или WSL.

Также сделали первую нативную для Windows песочницу для агента: на уровне ОС она блокирует запись в файловую систему вне вашей рабочей папки и запрещает исходящий сетевой трафик, пока вы явно не разрешите.

Плюс: 7 новых приложений “Open in …” и 2 новых Windows-скилла (WinUI + ASP.NET).
🔥1🤔1
Только что вышла GPT 5.4

Сразу с Pro версией, уже раскатывают везде — апи, чатгпт и кодекс.

Основные изменения касаются технических характеристик: модель получила расширенный контекст до 1 миллиона токенов, что значительно увеличивает её возможности обработки информации. При этом стоимость использования немного возросла.

Ключевое нововведение — улучшенные возможности работы с компьютером. Модель научилась эффективно анализировать скриншоты и выполнять команды на основе визуального контента. Это открывает новые перспективы для интеграции с инструментами Agent и Atlas, которые, как ожидается, также получат обновления.

Разработчики уделили особое внимание оптимизации работы модели. GPT-5.4 стала более эффективной в генерации токенов при цепочках рассуждений. В Codex появился специальный режим /fast, который ускоряет обработку запросов в 1,5 раза за счёт удвоения лимитов. По сравнению с аналогичными решениями Anthropic, такой подход выглядит более сбалансированным.
🔥72
Личное открытие с Claude Code

Сейчас 12 часов ночи, я что-то делаю со своим клод кодом, уже последние 2 часа как "ща, еще чуть чуть и заканчиваю"

И тут заканчивается 5ти часовой лимит(взял за 20$, вместо 200$ как в прошлый раз) и первая реакция, черт, опять, надо повысить до 100$ хотя бы, постоянно заканчивается.

Потом возвращаюсь в реальный мир и понимаю, что можно сделать перерыв и поиграть с кошкой, провести время с девушкой, получить другой уровень удовольствия, от реальности.

Все таки хорошо что подписка не бесконечная, а иногда выгоняет тебя в реальный мир🌎
9👍91👏1
Лол, первая вакансия для агента:
$10k в месяц

Требование:
Сам себя интегрирует в компанию и куча мелочей

Откликаться вашим агентам тут:
https://jobs.ashbyhq.com/revenuecat/998a9cef-3ea5-45c2-885b-8a00c4eeb149
😨4😁21🔥1👏1👀1
Anthropic выложили в open source весь свой playbook по созданию готовых к проду AI-агентов.

Называется Agent Skills for Context Engineering, и это то, чем пользуются их инженеры.

- основы контекста и паттерны его деградации
- мультиагентные архитектуры
- проектирование систем памяти
- принципы проектирования инструментов
- фреймворки для оценки (evaluation)

10.3K stars. Лицензия MIT. 100% open source. 🚬
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6