https://github.com/afshinea/stanford-cme-295-transformers-large-language-models
Очень хорошая шпаргалка по LLM от Stanford University
Очень хорошая шпаргалка по LLM от Stanford University
GitHub
GitHub - afshinea/stanford-cme-295-transformers-large-language-models: VIP cheatsheet for Stanford's CME 295 Transformers and Large…
VIP cheatsheet for Stanford's CME 295 Transformers and Large Language Models - afshinea/stanford-cme-295-transformers-large-language-models
🔧 Tencent CodeBuddy — новый AI-напарник для разработчиков
✨ Ключевое:
• Автодополнение кода, диагностика ошибок, рефакторинг, генерация тестов и ревью
• Режим Craft — опиши задачу словами, получи готовый мультифайловый проект
• Поддержка MCP-протокола для быстрой интеграции сторонних инструментов
• В основе — модели DeepSeek V3 и HunYuan Turbo S, доступ бесплатный
• Плагины для VS Code, JetBrains IDE и работа в экосистеме WeChat
🆚 Почему важно: CodeBuddy может потеснить Cursor и GitHub Copilot: он уже дружит с китайской экосистемой, да ещё и бесплатен.
🔗 Попробовать → copilot.tencent.com
#CodeBuddy #Tencent #AI #DevTools
✨ Ключевое:
• Автодополнение кода, диагностика ошибок, рефакторинг, генерация тестов и ревью
• Режим Craft — опиши задачу словами, получи готовый мультифайловый проект
• Поддержка MCP-протокола для быстрой интеграции сторонних инструментов
• В основе — модели DeepSeek V3 и HunYuan Turbo S, доступ бесплатный
• Плагины для VS Code, JetBrains IDE и работа в экосистеме WeChat
🆚 Почему важно: CodeBuddy может потеснить Cursor и GitHub Copilot: он уже дружит с китайской экосистемой, да ещё и бесплатен.
🔗 Попробовать → copilot.tencent.com
#CodeBuddy #Tencent #AI #DevTools
👍1
🆕 Windsurf ➜ SWE-1 — «фронтирные» ИИ-модели для всего цикла разработки, а не только автодополнений
▫️ Что случилось ?
15 мая Windsurf (эк-Codeium) представила линейку своих первых собственных LLM-ов — SWE-1, SWE-1-lite и SWE-1-mini. Это шаг от зависимости от OpenAI/Anthropic к полноценной собственной платформе, притом прямо на фоне слухов о выкупе Windsurf компанией OpenAI за $3 млрд.
▫️ Главная фишка — “flow awareness”
SWE-1 работает по «общему таймлайну» разработчика: редактор → терминал → браузер → тесты. Модель видит незавершённые состояния, долгие задачи и несколько интерфейсов одновременно, поэтому не «теряет контекст» и предлагает точечные действия по мере работы.
▫️ Состав семейства
• SWE-1 — флагман (≈ Claude 3.5 Sonnet / GPT-4.1), сейчас промо-бесплатен для Pro-плана.
• SWE-1-lite — лёгкая версия, заменит Cascade Base, доступна всем.
• SWE-1-mini — супербыстрый предиктор для inline-табов.
▫️ Почему важно
• Internal-бенчмарки: SWE-1 почти догоняет Claude 3.5 Sonnet и обгоняет большинство mid-size open-source LLM по принятию/удержанию сгенерированного кода.
• Стоимость инференса ниже Sonnet — шанс получить frontier-уровень дешевле.
• Переход от «AI-плагин = обёртка над GPT» к «IDE с собственным мозгом» задаёт новую планку для Cursor, Copilot, Gemini Code Assist и т.д.
💡 Что попробовать прямо сейчас
1. Обновите расширение Windsurf в VS Code/JetBrains и включите SWE-1-lite — бесплатно.
2. Сравните latency и качество ревью кода с GPT-4.1 / Claude 3.5 на задаче «мультифайл-рефакторинг».
3. Проверьте, как “shared timeline” ведёт себя в длинных DevOps-скриптах: терминал-команды + git diff + юнит-тесты.
📌 TL;DR: Windsurf перестаёт быть просто «виб-кодинг IDE» и становится полноценным вендором frontier-LLM для инженеров. Следим: если сделка с OpenAI закроется, SWE-1 может превратиться в тестовый полигон для будущих GPT-SWE-моделей.
▫️ Что случилось ?
15 мая Windsurf (эк-Codeium) представила линейку своих первых собственных LLM-ов — SWE-1, SWE-1-lite и SWE-1-mini. Это шаг от зависимости от OpenAI/Anthropic к полноценной собственной платформе, притом прямо на фоне слухов о выкупе Windsurf компанией OpenAI за $3 млрд.
▫️ Главная фишка — “flow awareness”
SWE-1 работает по «общему таймлайну» разработчика: редактор → терминал → браузер → тесты. Модель видит незавершённые состояния, долгие задачи и несколько интерфейсов одновременно, поэтому не «теряет контекст» и предлагает точечные действия по мере работы.
▫️ Состав семейства
• SWE-1 — флагман (≈ Claude 3.5 Sonnet / GPT-4.1), сейчас промо-бесплатен для Pro-плана.
• SWE-1-lite — лёгкая версия, заменит Cascade Base, доступна всем.
• SWE-1-mini — супербыстрый предиктор для inline-табов.
▫️ Почему важно
• Internal-бенчмарки: SWE-1 почти догоняет Claude 3.5 Sonnet и обгоняет большинство mid-size open-source LLM по принятию/удержанию сгенерированного кода.
• Стоимость инференса ниже Sonnet — шанс получить frontier-уровень дешевле.
• Переход от «AI-плагин = обёртка над GPT» к «IDE с собственным мозгом» задаёт новую планку для Cursor, Copilot, Gemini Code Assist и т.д.
💡 Что попробовать прямо сейчас
1. Обновите расширение Windsurf в VS Code/JetBrains и включите SWE-1-lite — бесплатно.
2. Сравните latency и качество ревью кода с GPT-4.1 / Claude 3.5 на задаче «мультифайл-рефакторинг».
3. Проверьте, как “shared timeline” ведёт себя в длинных DevOps-скриптах: терминал-команды + git diff + юнит-тесты.
📌 TL;DR: Windsurf перестаёт быть просто «виб-кодинг IDE» и становится полноценным вендором frontier-LLM для инженеров. Следим: если сделка с OpenAI закроется, SWE-1 может превратиться в тестовый полигон для будущих GPT-SWE-моделей.
👍3💯1
Вот на фоне OpenAI Codex Agent эта новость очень странная как бы, но на самом деле нет, valuation у windsurf теперь явно подрос, потому что тут теперь есть уникальное предложение, тот самый value-add и можно продаться еще дороже. Но это я еще напишу про OpenAI Codex agent. Coming soon..)
🔥4
Небольшой обзор Codex OpenAI Agent 🤔
Испытываю дежавю, т.к. видел это еще в ноябре 2024 в превью GitHub Copilot Workspace, где можно было кодить и делать пул-реквесты. Пользовался этим какое-то время, но оказалось неудобно.
Проблемы:
- Слишком много работы над сетапом и тестами
- Нужно создавать сложный environment
- Много времени уходит на настройку тулинга вместо работы над продуктом
- Приходится возиться с их контейнером и проверками, что конечному пользователю не нужно
Что спасает OpenAI Agent - мощная языковая модель codex, которая по их бенчмаркам выше o3-high. Но я пока не вижу существенного преимущества 🤷♂️
Думаю, эффективная разработка будет в терминале, в Codex cli и Claude code. Если сравнить с Anthropic - они сильно продвинулись в плане UX, они прям как Apple. Учтены все мелкие детали:
- Автоматическое построение todo
- Интерактивное общение
- Простота использования
Claude 3.7 sonnet может быть слабее сейчас, но то что они затюнили Claude code под соннет и оно работает чотко, а еще perplexity mcp, web search и вся поддержка mcp. Все очень интуитивно понятно.
OpenAI стоит сфокусироваться на Codex CLI и перенять лучшие практики у Anthropic 💡
Испытываю дежавю, т.к. видел это еще в ноябре 2024 в превью GitHub Copilot Workspace, где можно было кодить и делать пул-реквесты. Пользовался этим какое-то время, но оказалось неудобно.
Проблемы:
- Слишком много работы над сетапом и тестами
- Нужно создавать сложный environment
- Много времени уходит на настройку тулинга вместо работы над продуктом
- Приходится возиться с их контейнером и проверками, что конечному пользователю не нужно
Что спасает OpenAI Agent - мощная языковая модель codex, которая по их бенчмаркам выше o3-high. Но я пока не вижу существенного преимущества 🤷♂️
Думаю, эффективная разработка будет в терминале, в Codex cli и Claude code. Если сравнить с Anthropic - они сильно продвинулись в плане UX, они прям как Apple. Учтены все мелкие детали:
- Автоматическое построение todo
- Интерактивное общение
- Простота использования
Claude 3.7 sonnet может быть слабее сейчас, но то что они затюнили Claude code под соннет и оно работает чотко, а еще perplexity mcp, web search и вся поддержка mcp. Все очень интуитивно понятно.
OpenAI стоит сфокусироваться на Codex CLI и перенять лучшие практики у Anthropic 💡
👍4🔥2💯1
В codex завезли поддержку и openrouter и ollama и еще всяких mistral (https://github.com/openai/codex?tab=readme-ov-file#full-configuration-example)
Да, и вот про qwen3 30b a3b - на ollama моделька эта занимает 19гб и инференс на моей прошке норм, хоть и медленно по сравнению с сегодняшними сетками. Но на момент сентября прошлого года оч круто
🛠️ Google представила Jules — автономного AI-кодера!
🌐 jules.google.com открылся в публичной бете: больше никакого списка ожидания — зарегистрироваться может каждый разработчик, где доступна модель Gemini. Jules клонирует ваш репозиторий в изолированную VM в Google Cloud, понимает контекст проекта и берет на себя задачи от «обновить зависимости» до «добавить новую фичу» — полностью асинхронно.
🧩 Ключевые фишки:
• 🪄 Автономный агент: планирует шаги, аргументирует решения и показывает diff перед коммитом.
• 🔀 Параллельное выполнение: несколько задач обрабатываются одновременно в облаке.
• 🔊 Аудио-чейнджлог: Jules озвучивает, что поменялось в коде — удобно слушать на ходу.
• 🔧 Глубокая интеграция с GitHub: достаточно поставить label assign-to-jules в issue, и бот сам создаст PR.
• 🔒 Конфиденциальность: ваш код не попадает в обучение моделей и остаётся внутри защищённой среды.
💸 Сколько стоит?
Пока сервис бесплатен, но есть лимиты по использованию; тарифы появятся после окончания беты.
🚀 Как начать:
1. Авторизуйтесь на jules.google.com через Google-аккаунт.
2. Подключите репозиторий GitHub и дайте права на создание веток.
3. Создайте issue с задачей или добавьте label — и наблюдайте, как агент пишет код за вас.
👩💻 Кажется, мы вступаем в эпоху, где «код-ревью» превращается в «агент-ревью». Проверяйте, тестируйте и делитесь фидбеком — пока всё бесплатно!
#AI #Google #Jules #CodingAgent #Gemini
🌐 jules.google.com открылся в публичной бете: больше никакого списка ожидания — зарегистрироваться может каждый разработчик, где доступна модель Gemini. Jules клонирует ваш репозиторий в изолированную VM в Google Cloud, понимает контекст проекта и берет на себя задачи от «обновить зависимости» до «добавить новую фичу» — полностью асинхронно.
🧩 Ключевые фишки:
• 🪄 Автономный агент: планирует шаги, аргументирует решения и показывает diff перед коммитом.
• 🔀 Параллельное выполнение: несколько задач обрабатываются одновременно в облаке.
• 🔊 Аудио-чейнджлог: Jules озвучивает, что поменялось в коде — удобно слушать на ходу.
• 🔧 Глубокая интеграция с GitHub: достаточно поставить label assign-to-jules в issue, и бот сам создаст PR.
• 🔒 Конфиденциальность: ваш код не попадает в обучение моделей и остаётся внутри защищённой среды.
💸 Сколько стоит?
Пока сервис бесплатен, но есть лимиты по использованию; тарифы появятся после окончания беты.
🚀 Как начать:
1. Авторизуйтесь на jules.google.com через Google-аккаунт.
2. Подключите репозиторий GitHub и дайте права на создание веток.
3. Создайте issue с задачей или добавьте label — и наблюдайте, как агент пишет код за вас.
👩💻 Кажется, мы вступаем в эпоху, где «код-ревью» превращается в «агент-ревью». Проверяйте, тестируйте и делитесь фидбеком — пока всё бесплатно!
#AI #Google #Jules #CodingAgent #Gemini
🔥2
Важное замечание! Теперь понятно, почему OpenAI так спешил с Codex.
Вчерашний релиз Google впечатляет - они даже создали премиум подписку Ultra с большим количеством преимуществ, чем у OpenAI.
Нужно посмотреть, как работает Jules. Уверен, что это именно то, что я изначально хотел. Буду его изучать, так как Codex - не совсем то, что нужно.
Вчерашний релиз Google впечатляет - они даже создали премиум подписку Ultra с большим количеством преимуществ, чем у OpenAI.
Нужно посмотреть, как работает Jules. Уверен, что это именно то, что я изначально хотел. Буду его изучать, так как Codex - не совсем то, что нужно.
💯1
🚀 Devstral — новый «код-мозг» от Mistral AI!
💡 Что случилось?
Mistral AI вместе с All Hands AI выкатили Devstral-24B — открытую LLM, специально обученную на задачах разработки ПО. Доступна в Ollama, Hugging Face, vLLM, LM Studio и через API Mistral.
⸻
⚔️ Devstral vs Qwen 3
• 🔢 Параметры
• Devstral-24B: 24 B
• Qwen 3: 30 B (A3B) / 235 B (A22B)
• 📊 SWE-Bench Verified
• Devstral: 46,8 %
• Qwen 3-235B: ≈ 40 %
• 🧠 Контекст
• Оба до 128 k токенов
• ⚙️ Железо для локального запуска
• Devstral: 1 × RTX 4090 или Mac 32 GB
• Qwen 30B: 4–8 GPU | Qwen 235B: кластер A100
• 💲 Стоимость API (in/out)
• Devstral: $0,10 / $0,30 за 1 М токенов
• Qwen 235B: $0,13 / $0,40
• 📜 Лицензия
• Обе модели — Apache 2.0
⸻
🔥 Почему Devstral может быть выгоднее
1. ⚡ Быстрый локальный старт — помещается в одну 4090, подходит даже для ноутов.
2. 🏆 Лидер в SWE-Bench — закрывает реальные issue «из коробки».
3. 🧩 Нативная агентность — умеет редактировать несколько файлов и проходить автотесты.
4. 💵 Низкий TCO — меньше GPU → дешевле инференс.
5. 🔓 Полная свобода использования благодаря Apache 2.0.
⸻
🚀 Попробовать прямо сейчас
💻 Подключай к MCP или vLLM и ускоряй ревью, рефакторинг и баг-фиксы вместе с Devstral! 🚀🧠
💡 Что случилось?
Mistral AI вместе с All Hands AI выкатили Devstral-24B — открытую LLM, специально обученную на задачах разработки ПО. Доступна в Ollama, Hugging Face, vLLM, LM Studio и через API Mistral.
⸻
⚔️ Devstral vs Qwen 3
• 🔢 Параметры
• Devstral-24B: 24 B
• Qwen 3: 30 B (A3B) / 235 B (A22B)
• 📊 SWE-Bench Verified
• Devstral: 46,8 %
• Qwen 3-235B: ≈ 40 %
• 🧠 Контекст
• Оба до 128 k токенов
• ⚙️ Железо для локального запуска
• Devstral: 1 × RTX 4090 или Mac 32 GB
• Qwen 30B: 4–8 GPU | Qwen 235B: кластер A100
• 💲 Стоимость API (in/out)
• Devstral: $0,10 / $0,30 за 1 М токенов
• Qwen 235B: $0,13 / $0,40
• 📜 Лицензия
• Обе модели — Apache 2.0
⸻
🔥 Почему Devstral может быть выгоднее
1. ⚡ Быстрый локальный старт — помещается в одну 4090, подходит даже для ноутов.
2. 🏆 Лидер в SWE-Bench — закрывает реальные issue «из коробки».
3. 🧩 Нативная агентность — умеет редактировать несколько файлов и проходить автотесты.
4. 💵 Низкий TCO — меньше GPU → дешевле инференс.
5. 🔓 Полная свобода использования благодаря Apache 2.0.
⸻
🚀 Попробовать прямо сейчас
ollama pull devstral
ollama run devstral💻 Подключай к MCP или vLLM и ускоряй ревью, рефакторинг и баг-фиксы вместе с Devstral! 🚀🧠
🔥2👍1
Я уже ранее писал о подобном подходе, начинать все с документов проекта, но сегодня расскажу о его развитии
🧠📦 Memory Bank: как научить ассистента помнить проект
Большинство код-помощников (Cursor, Cline, Claude Code) «начинают с чистого листа» при каждой сессии.
Memory Bank — это приём, когда вы кладёте короткие .md-файлы прямо в репозиторий, а ассистент читает и обновляет их автоматически.
Так он хранит долгосрочный контекст: архитектуру, бизнес-замысел, ход задач.
⸻
🔑 Минимальный набор файлов
• 📄 projectbrief.md — цели проекта, стек, аудитория (редко меняется)
• 🌍 productContext.md — бизнес-контекст, UX-видение (редко)
• 🏗️ systemPatterns.md — архитектура, паттерны (по мере роста)
• 🛠️ techContext.md — окружение, зависимости (по мере роста)
• 🚧 activeContext.md — текущая задача (часто)
• 📈 progress.md — done / next / blocked (каждый шаг)
⸻
⚙️ Как это выглядит в инструментах
Cursor 🔄
•
• В репо появляется .cursorrules с двумя режимами: PLAN (обзор + вопросы) и ACT (код).
• Чат-команды: PLAN, ACT, update memory bank.
Cline 🖥️
• В Settings → Custom Instructions вставьте правила, затем положите /memory-bank.
• Слэш-команды: /plan ↔ /act, /update memory bank, /follow your custom instructions.
Claude Code 🤖
• Локальная память — ./CLAUDE.md; глобальная — ~/.claude/CLAUDE.md.
• Подключайте файлы через @path/to/file.
• Начните сообщение с # — Claude предложит, куда сохранить заметку.
• Популярные расширения: Basic Memory (Markdown-лог), Claude Crew (CLI + тесты), memory-bank-mcp (централизованное хранилище).
⸻
🎯 Практические сценарии
• 🆕 Онбординг новичка — читает пару файлов и сразу «в теме».
• 🏗️ Длинные фичи — progress.md хранит решения → меньше «почему так сделали?».
• 🤝 Несколько ИИ-агентов — общий банк = единое знание, меньше конфликтов.
• 📚 Автодокументация — ассистент пишет черновики, вы только ревьюите.
⸻
🛎️ Советы
1. ✂️ Краткость: 150–300 слов на файл, чтобы не забивать контекст-окно.
2. 🏷️ Единые заголовки в разных проектах — ассистент быстрее находит нужное.
3. 🔄 Обновляйте activeContext.md после каждого мержа в main.
4. 🤖 Дайте ассистенту право редактировать банк — 90 % правок полезны, остальное откатит git.
5. 📂 Держите /memory-bank в корне репо, чтобы люди и ИИ читали одно и то же.
⸻
🚀 Чек-лист «за 5 минут»
1.
2. Заполните файлы на 3–4 абзаца каждый.
3. Используйте команды PLAN / ACT / update memory bank.
4. Добавьте в README ссылку на gist с правилами.
Теперь ассистент не забывает проект между сессиями, а команда получает единый источник правды!
🧠📦 Memory Bank: как научить ассистента помнить проект
Большинство код-помощников (Cursor, Cline, Claude Code) «начинают с чистого листа» при каждой сессии.
Memory Bank — это приём, когда вы кладёте короткие .md-файлы прямо в репозиторий, а ассистент читает и обновляет их автоматически.
Так он хранит долгосрочный контекст: архитектуру, бизнес-замысел, ход задач.
⸻
🔑 Минимальный набор файлов
• 📄 projectbrief.md — цели проекта, стек, аудитория (редко меняется)
• 🌍 productContext.md — бизнес-контекст, UX-видение (редко)
• 🏗️ systemPatterns.md — архитектура, паттерны (по мере роста)
• 🛠️ techContext.md — окружение, зависимости (по мере роста)
• 🚧 activeContext.md — текущая задача (часто)
• 📈 progress.md — done / next / blocked (каждый шаг)
⸻
⚙️ Как это выглядит в инструментах
Cursor 🔄
•
npx cursor-bank init — создаёт /memory-bank и шаблоны.• В репо появляется .cursorrules с двумя режимами: PLAN (обзор + вопросы) и ACT (код).
• Чат-команды: PLAN, ACT, update memory bank.
Cline 🖥️
• В Settings → Custom Instructions вставьте правила, затем положите /memory-bank.
• Слэш-команды: /plan ↔ /act, /update memory bank, /follow your custom instructions.
Claude Code 🤖
• Локальная память — ./CLAUDE.md; глобальная — ~/.claude/CLAUDE.md.
• Подключайте файлы через @path/to/file.
• Начните сообщение с # — Claude предложит, куда сохранить заметку.
• Популярные расширения: Basic Memory (Markdown-лог), Claude Crew (CLI + тесты), memory-bank-mcp (централизованное хранилище).
⸻
🎯 Практические сценарии
• 🆕 Онбординг новичка — читает пару файлов и сразу «в теме».
• 🏗️ Длинные фичи — progress.md хранит решения → меньше «почему так сделали?».
• 🤝 Несколько ИИ-агентов — общий банк = единое знание, меньше конфликтов.
• 📚 Автодокументация — ассистент пишет черновики, вы только ревьюите.
⸻
🛎️ Советы
1. ✂️ Краткость: 150–300 слов на файл, чтобы не забивать контекст-окно.
2. 🏷️ Единые заголовки в разных проектах — ассистент быстрее находит нужное.
3. 🔄 Обновляйте activeContext.md после каждого мержа в main.
4. 🤖 Дайте ассистенту право редактировать банк — 90 % правок полезны, остальное откатит git.
5. 📂 Держите /memory-bank в корне репо, чтобы люди и ИИ читали одно и то же.
⸻
🚀 Чек-лист «за 5 минут»
1.
npx cursor-bank init (или эквивалент) — инициализируйте банк.2. Заполните файлы на 3–4 абзаца каждый.
3. Используйте команды PLAN / ACT / update memory bank.
4. Добавьте в README ссылку на gist с правилами.
Теперь ассистент не забывает проект между сессиями, а команда получает единый источник правды!
👍1👀1
Ну что?! Ну все! +10% от sonnet 3.7 это как бы очень серьезно! 😎 Посмотрим сравнение уже завтра по aider
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Anthropic показала Claude 4 – сразу две новые модели Opus 4 и Sonnet 4
Opus 4 бьёт рекорды в кодинге и сложных задачах, Sonnet 4 даёт ту же логику, но быстрее и дешевле. Обе могут переключаться между «мгновенным» ответом и режимом Extended Thinking – до 7 часов непрерывных рассуждений!!! То есть вы понимаете да? Что это уже даже не deep research.
💡 Что ещё привезли
• «Песочница» для запуска кода прямо у Anthropic – аналог Code Interpreter.
• API-файлы + web-search: агент сам шастает по поиску и читает ваши документы.
• Memory files (он же разновидность подхода memory bank) – длительная память, бот сам их пишет чтоб не забывал ход мыслей
• Поддержка GitHub Copilot Agent: переключение на новые модели повышает точность советов.
📈 Anthropic называет Opus 4 «лучшей моделью для кода», а эксперты считают, что такие агенты приблизят нам «стартап-единорога с одним сотрудником».
👉 Полную 90-минутную презентацию можно посмотреть здесь: https://www.youtube.com/watch?v=EvtPBaaykdo – там живые демо и визионерское выступление Дарио Амодеи.
Opus 4 бьёт рекорды в кодинге и сложных задачах, Sonnet 4 даёт ту же логику, но быстрее и дешевле. Обе могут переключаться между «мгновенным» ответом и режимом Extended Thinking – до 7 часов непрерывных рассуждений!!! То есть вы понимаете да? Что это уже даже не deep research.
💡 Что ещё привезли
• «Песочница» для запуска кода прямо у Anthropic – аналог Code Interpreter.
• API-файлы + web-search: агент сам шастает по поиску и читает ваши документы.
• Memory files (он же разновидность подхода memory bank) – длительная память, бот сам их пишет чтоб не забывал ход мыслей
• Поддержка GitHub Copilot Agent: переключение на новые модели повышает точность советов.
📈 Anthropic называет Opus 4 «лучшей моделью для кода», а эксперты считают, что такие агенты приблизят нам «стартап-единорога с одним сотрудником».
👉 Полную 90-минутную презентацию можно посмотреть здесь: https://www.youtube.com/watch?v=EvtPBaaykdo – там живые демо и визионерское выступление Дарио Амодеи.
YouTube
Code with Claude Opening Keynote
Content begins at 26:28. Hear directly from Anthropic executives and product leaders at Code with Claude.
👍2❤1
⚙️ Обновление Claude Code: команды /ide и /install-github-app
В свежем релизе Claude Code появились две команды, которые радикально упрощают жизнь тем, кто пишет код на удалённой машине или ведёт open-source-проекты.
⸻
🛠 /ide — идеальная синхронизация с VS Code и JetBrains IDE
• Запускайте /ide прямо из терминала Claude Code, даже если IDE работает локально, а код — на сервере.
• Файлы синхронизируются автоматически: дифы и правки открываются не в терминале, а в привычном diff-просмотрщике IDE.
• Работает как из встроенного терминала IDE, так и из внешнего SSH-сеанса — главное запустить Claude из корня проекта.
В итоге: меньше контекстных переключений, больше фокуса на самом коде.
⸻
🚀 /install-github-app — Claude Code прямо в Pull Request
• Запустите команду один раз, и мастер-скрипт настроит GitHub App, секреты и workflow.
• Дальше в PR достаточно упомянуть @claude и написать команду (например /fix-tests) — GitHub Actions запустит Claude Code в контейнере и применит результат к ветке.
• Код выполняется в инфраструктуре GitHub, поэтому не требует локальной установки.
Полная инструкция и исходники: https://github.com/anthropics/claude-code-action.
⸻
Почему это круто
• Меньше рутины: IDE показывает изменения мгновенно, без ручного git diff.
• Автоматизация ревью: Claude исправит тесты, отформатирует код или допишет документацию по одной команде в PR.
• Единый рабочий контекст: терминал, IDE и GitHub работают как единая система — без лишних скриптов и плагинов.
⸻
Быстрый старт
Пара команд — и ваша удалённая разработка становится такой же удобной, как локальная. Экономия времени на переключениях и настройке ощущается уже в первый день работы. Попробуйте и убедитесь сами!
В свежем релизе Claude Code появились две команды, которые радикально упрощают жизнь тем, кто пишет код на удалённой машине или ведёт open-source-проекты.
⸻
🛠 /ide — идеальная синхронизация с VS Code и JetBrains IDE
• Запускайте /ide прямо из терминала Claude Code, даже если IDE работает локально, а код — на сервере.
• Файлы синхронизируются автоматически: дифы и правки открываются не в терминале, а в привычном diff-просмотрщике IDE.
• Работает как из встроенного терминала IDE, так и из внешнего SSH-сеанса — главное запустить Claude из корня проекта.
В итоге: меньше контекстных переключений, больше фокуса на самом коде.
⸻
🚀 /install-github-app — Claude Code прямо в Pull Request
• Запустите команду один раз, и мастер-скрипт настроит GitHub App, секреты и workflow.
• Дальше в PR достаточно упомянуть @claude и написать команду (например /fix-tests) — GitHub Actions запустит Claude Code в контейнере и применит результат к ветке.
• Код выполняется в инфраструктуре GitHub, поэтому не требует локальной установки.
Полная инструкция и исходники: https://github.com/anthropics/claude-code-action.
⸻
Почему это круто
• Меньше рутины: IDE показывает изменения мгновенно, без ручного git diff.
• Автоматизация ревью: Claude исправит тесты, отформатирует код или допишет документацию по одной команде в PR.
• Единый рабочий контекст: терминал, IDE и GitHub работают как единая система — без лишних скриптов и плагинов.
⸻
Быстрый старт
# Внутри терминала Claude Code на сервере
/ide # подключаем IDE-режим
/install-github-app # настраиваем GitHub AppПара команд — и ваша удалённая разработка становится такой же удобной, как локальная. Экономия времени на переключениях и настройке ощущается уже в первый день работы. Попробуйте и убедитесь сами!
GitHub
GitHub - anthropics/claude-code-action
Contribute to anthropics/claude-code-action development by creating an account on GitHub.
👍2
4 канала которые я всегда читаю:
1. https://news.1rj.ru/str/blockchainRF
2. https://news.1rj.ru/str/ai_newz
3. https://news.1rj.ru/str/cryptoEssay
4. https://news.1rj.ru/str/kantor_ai
1. https://news.1rj.ru/str/blockchainRF
2. https://news.1rj.ru/str/ai_newz
3. https://news.1rj.ru/str/cryptoEssay
4. https://news.1rj.ru/str/kantor_ai
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Канал создан 5.08.2016г. Сферы интересов: блокчейн, мозг(BCI), биотех, space tech, цифровая экономика, WEB 3.0
Основатель @AniAslanyan
English channel https://news.1rj.ru/str/alwebbci
Регистрация в перечне РКН https://knd.gov.ru/license?id=67374142772bb11
Основатель @AniAslanyan
English channel https://news.1rj.ru/str/alwebbci
Регистрация в перечне РКН https://knd.gov.ru/license?id=67374142772bb11
🔥8
Media is too big
VIEW IN TELEGRAM
Давно обещал рассказать как делать быстро красивый интерфейс, причем на каждом этапе контролируя модель. Заметьте, что на каждом этапе создания макетов я могу добавить и свою дизайн систему и поменять различные нюансы интерфейса. В видео вроде все очень наглядно. Тут как раз идет создание десктопной версии сайта и макетов мобильного приложения через uxpilot #ahaconf
🔥6🆒1