Вдруг вы тоже делаете какой-нибудь MCP и вам сетки делают MCP с SSE и вы пытаетесь подрубить это к Claude Desktop, так вот хозяйке на заметку - Claude Desktop до сих пор не поддерживает MCP с SSE, а только stdio умеет
Добавил в CLAUDE.md и в .cursor/rules/cursor_project_rules.mdc такое
В perplexity задал "PERPLEXITY_MODEL": "sonar-deep-research"
Теперь модель ходит сама собирает доки через deep research, на sonnet-3.7 работает. Профит!
## MCP Integration
- Для выполнения поисковых запросов можно использовать Perplexity MCP
- Интеграция MCP позволяет получать информацию напрямую из сети
- При работе с неизвестными технологиями используйте поиск через MCPВ perplexity задал "PERPLEXITY_MODEL": "sonar-deep-research"
Теперь модель ходит сама собирает доки через deep research, на sonnet-3.7 работает. Профит!
🔥4
Написать заметку про то как быстро делать UI и какие тулы использовать сейчас? Больше лайков - больше вероятность)
👍8🔥2🕊2🌭1🤝1👾1
🧠 Новая методика работы с AI для интеграции фичей в код 💻
Делюсь с вами мощным подходом для работы над новыми фичами в существующей кодовой базе с помощью AI! 🚀
Вот как это работает:
1️⃣ Создаете три основных документа:
Функциональное задание 📋
Техническое задание ⚙️
Дизайн-документация 🎨
2️⃣ Добавляете четвертый ключевой документ: план интеграции в кодовую базу 🗺️
Разбиваете на фазы (например, 3 фазы по 10 шагов)
AI прорабатывает каждую фазу пошагово
3️⃣ Когда возникают ошибки:
Фиксируете их в документации 🐛
AI документирует статус каждой фазы
Все проблемы и их решения остаются в истории
4️⃣ При возвращении к работе:
AI читает все документы и имеет полный контекст
Ничего не теряется, все записано в Markdown ✍️
Это “революционный” подход к отладке - всё документируется, ничего не теряется и вся документация у вас в репозитории, а AI всегда в курсе текущего статуса! 💯
А вы уже пробовали такой подход? Делитесь опытом в комментариях! 👇
Видео пример нужно записать? Ставьте эмодзи)
Делюсь с вами мощным подходом для работы над новыми фичами в существующей кодовой базе с помощью AI! 🚀
Вот как это работает:
1️⃣ Создаете три основных документа:
Функциональное задание 📋
Техническое задание ⚙️
Дизайн-документация 🎨
2️⃣ Добавляете четвертый ключевой документ: план интеграции в кодовую базу 🗺️
Разбиваете на фазы (например, 3 фазы по 10 шагов)
AI прорабатывает каждую фазу пошагово
3️⃣ Когда возникают ошибки:
Фиксируете их в документации 🐛
AI документирует статус каждой фазы
Все проблемы и их решения остаются в истории
4️⃣ При возвращении к работе:
AI читает все документы и имеет полный контекст
Ничего не теряется, все записано в Markdown ✍️
Это “революционный” подход к отладке - всё документируется, ничего не теряется и вся документация у вас в репозитории, а AI всегда в курсе текущего статуса! 💯
А вы уже пробовали такой подход? Делитесь опытом в комментариях! 👇
Видео пример нужно записать? Ставьте эмодзи)
👍6💯3✍1
🚨 Anthropic запускает Development Partner Program!
🤖 Что случилось?
Anthropic рассылает приглашения в новый Development Partner Program. Участники получают -30 % на input-токены для Claude Code (версии Claude 3.5 Sonnet и Claude 3.7 Sonnet). Это заметно снижает стоимость долгих сессий с автодополнением кода, анализа репозиториев и «agentic coding».
💡 Почему это интересно разработчикам?
До После подключения к программе
$3 / 1 M input-токенов (Sonnet) $2,1 / 1 M
$15 / 1 M output-токенов (без изменений) $15 (💸 экономия только на input)
✏️ Факты, которые важно знать
• Делиться нужно код-сессиями. Все запросы из Claude Code вашего орг-аккаунта будут отправляться Anthropic для дообучения и улучшения моделей.
• Хранение до 2 лет, данные анонимизируются и не связываются с другими заказчиками.
• Настройка действует на всю организацию: как только вы включили опцию, она охватывает всех участников.
• Можно выйти в любой момент, но уже переданные логи удалить нельзя.
🔧 Кому это выгодно?
• Командам, которые крутят CI/CD-ботов на Claude Code и тратят миллионы токенов на статический анализ, автогенерацию тестов или миграцию кода.
• Стартапам с ограниченным бюджетом, которые пишут/рефакторят код большими партиями (batch-mode).
• Исследователям, у которых все репы публичные — risk-free с точки зрения приватности.
⚠️ Кому стоит подумать дважды?
• Энтерпрайзам с закрытым исходным кодом и жёсткими NDA.
• Тем, кто обрабатывает чувствительные данные (финтех, мед-тех): 30 % экономии могут не перекрыть требования комплаенса.
📌 Как подключиться?
1. В админ-консоли Anthropic откройте Settings → Claude Code → Development Partner Program.
2. Активируйте toggle, согласившись с условиями.
3. Уведомите коллег — скидка начнёт применяться ко всем их сессиям.
🤖 Что случилось?
Anthropic рассылает приглашения в новый Development Partner Program. Участники получают -30 % на input-токены для Claude Code (версии Claude 3.5 Sonnet и Claude 3.7 Sonnet). Это заметно снижает стоимость долгих сессий с автодополнением кода, анализа репозиториев и «agentic coding».
💡 Почему это интересно разработчикам?
До После подключения к программе
$3 / 1 M input-токенов (Sonnet) $2,1 / 1 M
$15 / 1 M output-токенов (без изменений) $15 (💸 экономия только на input)
✏️ Факты, которые важно знать
• Делиться нужно код-сессиями. Все запросы из Claude Code вашего орг-аккаунта будут отправляться Anthropic для дообучения и улучшения моделей.
• Хранение до 2 лет, данные анонимизируются и не связываются с другими заказчиками.
• Настройка действует на всю организацию: как только вы включили опцию, она охватывает всех участников.
• Можно выйти в любой момент, но уже переданные логи удалить нельзя.
🔧 Кому это выгодно?
• Командам, которые крутят CI/CD-ботов на Claude Code и тратят миллионы токенов на статический анализ, автогенерацию тестов или миграцию кода.
• Стартапам с ограниченным бюджетом, которые пишут/рефакторят код большими партиями (batch-mode).
• Исследователям, у которых все репы публичные — risk-free с точки зрения приватности.
⚠️ Кому стоит подумать дважды?
• Энтерпрайзам с закрытым исходным кодом и жёсткими NDA.
• Тем, кто обрабатывает чувствительные данные (финтех, мед-тех): 30 % экономии могут не перекрыть требования комплаенса.
📌 Как подключиться?
1. В админ-консоли Anthropic откройте Settings → Claude Code → Development Partner Program.
2. Активируйте toggle, согласившись с условиями.
3. Уведомите коллег — скидка начнёт применяться ко всем их сессиям.
Anthropic официально включила Claude Code в подписку Max! Теперь пользователи Max могут работать с кодом прямо из терминала - писать, анализировать, рефакторить и автоматизировать проекты с помощью Claude, не переплачивая за отдельные сервисы. Это особенно выгодно для тех, кто активно использует ИИ для разработки и автоматизации. 💻⚡️
Варианты подписки Max:
- Max 5x - $100/мес:
5 раз больше лимитов, чем в Pro - примерно 225 сообщений каждые 5 часов. Подходит для частых пользователей, которые регулярно работают с Claude на разных задачах.
- Max 20x - $200/мес:
20 раз больше лимитов, чем в Pro - примерно 900 сообщений каждые 5 часов. Идеально для команд и тех, кто использует Claude ежедневно и в интенсивном режиме.
Обе версии Max дают приоритетный доступ к новым функциям и моделям, а также стабильную работу даже при высокой нагрузке. Теперь весь функционал Claude и Claude Code доступен в одной подписке - это экономия и удобство для профессионалов! 🚀
#Claude #CloudCode #Anthropic #AI #Новости
Варианты подписки Max:
- Max 5x - $100/мес:
5 раз больше лимитов, чем в Pro - примерно 225 сообщений каждые 5 часов. Подходит для частых пользователей, которые регулярно работают с Claude на разных задачах.
- Max 20x - $200/мес:
20 раз больше лимитов, чем в Pro - примерно 900 сообщений каждые 5 часов. Идеально для команд и тех, кто использует Claude ежедневно и в интенсивном режиме.
Обе версии Max дают приоритетный доступ к новым функциям и моделям, а также стабильную работу даже при высокой нагрузке. Теперь весь функционал Claude и Claude Code доступен в одной подписке - это экономия и удобство для профессионалов! 🚀
#Claude #CloudCode #Anthropic #AI #Новости
🚀 Новое в Claude Max — Web MCP (Integrations)
Anthropic запустила Integrations: теперь Claude в браузере или десктоп-приложении можно напрямую подключить к удалённым MCP-серверам. Это тот самый «USB-C для ИИ», только в облаке — один раз хостите сервер, и модель видит ваши базы, CI/CD, CRM и любые API.
⸻
🔧 Что даст вашему AI-Coding-стеку
• Единое окно: логи из ClickHouse, задачки из Jira и Pull Request’ы из GitHub доступны в одном чате.
• Автоматизация: Claude может не только читать, но и действовать — деплоить, мерджить, начислять кредиты.
• Глубокий Research: новый режим ищет по Web + Integrations до 45 минут и возвращает оформленный отчёт с цитатами.
⸻
⚡️ Как подключить свой сервер за 1 минуту
1. Settings → Profile → Integrations → Add more.
2. Вставьте URL вида https://mcp.mycompany.com.
3. Пройдите OAuth и выберите инструменты, которые хотите открыть Claude.
4. В чате включите интеграцию через меню Search & Tools. Готово!
💡 Лайфхак: держите «пишущие» инструменты выключенными по умолчанию, чтобы модель случайно не запушила в прод.
⸻
🏁 Кому стоит попробовать сразу
• DevOps & SRE: быстрый доступ к метрикам и скриптам без Alt-Tab.
• Data/ML-инженерам: анализ датасетов в ClickHouse или BigQuery из чата.
• Продактовым командам: моментальные сводки задач, таймлайнов и KPI.
⸻
✍️ Итог: Web MCP превращает Claude Max в полноценный control-центр для ваших сервисов. Поднимайте собственный сервер или подключайте готовые (Zapier, Atlassian, Cloudflare) — и пусть ИИ сам пишет код, тягает данные и делает рутинную работу за вас.
Anthropic запустила Integrations: теперь Claude в браузере или десктоп-приложении можно напрямую подключить к удалённым MCP-серверам. Это тот самый «USB-C для ИИ», только в облаке — один раз хостите сервер, и модель видит ваши базы, CI/CD, CRM и любые API.
⸻
🔧 Что даст вашему AI-Coding-стеку
• Единое окно: логи из ClickHouse, задачки из Jira и Pull Request’ы из GitHub доступны в одном чате.
• Автоматизация: Claude может не только читать, но и действовать — деплоить, мерджить, начислять кредиты.
• Глубокий Research: новый режим ищет по Web + Integrations до 45 минут и возвращает оформленный отчёт с цитатами.
⸻
⚡️ Как подключить свой сервер за 1 минуту
1. Settings → Profile → Integrations → Add more.
2. Вставьте URL вида https://mcp.mycompany.com.
3. Пройдите OAuth и выберите инструменты, которые хотите открыть Claude.
4. В чате включите интеграцию через меню Search & Tools. Готово!
💡 Лайфхак: держите «пишущие» инструменты выключенными по умолчанию, чтобы модель случайно не запушила в прод.
⸻
🏁 Кому стоит попробовать сразу
• DevOps & SRE: быстрый доступ к метрикам и скриптам без Alt-Tab.
• Data/ML-инженерам: анализ датасетов в ClickHouse или BigQuery из чата.
• Продактовым командам: моментальные сводки задач, таймлайнов и KPI.
⸻
✍️ Итог: Web MCP превращает Claude Max в полноценный control-центр для ваших сервисов. Поднимайте собственный сервер или подключайте готовые (Zapier, Atlassian, Cloudflare) — и пусть ИИ сам пишет код, тягает данные и делает рутинную работу за вас.
❤1👍1👀1
💎🐙 Gemini подключает GitHub-репозитории — апдейт для разработчиков!
Google запускает GitHub-App в списке расширений Gemini (после Spotify и WhatsApp). Теперь можно «пришить» репозиторий прямо к чату и общаться с ИИ на языке вашего кода.
Что теперь умеет 🤖
• 🔍 Разбираться в проекте — задавайте общие вопросы по архитектуре.
• 🔎 Объяснять функции — попросите расшифровать сложный метод.
• ✨ Советовать улучшения — спросите, как оптимизировать алгоритм.
• 🐞 Помогать дебажить — укажите, где «падает», и получите подсказку.
Как подключить ⚙️
1. Нажмите ➕ → Import code в чате Gemini.
2. Вставьте URL репозитория или ветки (до 1 репо / 5 000 файлов / 100 MB).
3. Для приватных репо привяжите GitHub-аккаунт к Google-аккаунту.
Ограничения 🚧
• 🔸 Не читает историю коммитов и PR-ы.
• 🔸 Не пишет обратно в репозиторий.
• 🔸 Импорт работает только на gemini.google.com, продолжить чат можно в мобильном приложении.
Когда ждать ⏰
Интеграция уже появилась на странице Gemini Apps, но раскатывается волнами — у некоторых ещё не активна. Следите за переключателем GitHub в настройках расширений.
⸻
👩💻 Зачем это вам?
⚡️ Быстрый онбординг в чужой проект, 📈 точечный код-ревью от ИИ, и 🍰 бонус к Copilot — Gemini понимает контекст всей кодовой базы.
Как будете тестировать новинку сначала — рефакторинг или охота на баги? Делитесь в комментариях!
#AICoding #Gemini #GitHub #Google
Google запускает GitHub-App в списке расширений Gemini (после Spotify и WhatsApp). Теперь можно «пришить» репозиторий прямо к чату и общаться с ИИ на языке вашего кода.
Что теперь умеет 🤖
• 🔍 Разбираться в проекте — задавайте общие вопросы по архитектуре.
• 🔎 Объяснять функции — попросите расшифровать сложный метод.
• ✨ Советовать улучшения — спросите, как оптимизировать алгоритм.
• 🐞 Помогать дебажить — укажите, где «падает», и получите подсказку.
Как подключить ⚙️
1. Нажмите ➕ → Import code в чате Gemini.
2. Вставьте URL репозитория или ветки (до 1 репо / 5 000 файлов / 100 MB).
3. Для приватных репо привяжите GitHub-аккаунт к Google-аккаунту.
Ограничения 🚧
• 🔸 Не читает историю коммитов и PR-ы.
• 🔸 Не пишет обратно в репозиторий.
• 🔸 Импорт работает только на gemini.google.com, продолжить чат можно в мобильном приложении.
Когда ждать ⏰
Интеграция уже появилась на странице Gemini Apps, но раскатывается волнами — у некоторых ещё не активна. Следите за переключателем GitHub в настройках расширений.
⸻
👩💻 Зачем это вам?
⚡️ Быстрый онбординг в чужой проект, 📈 точечный код-ревью от ИИ, и 🍰 бонус к Copilot — Gemini понимает контекст всей кодовой базы.
Как будете тестировать новинку сначала — рефакторинг или охота на баги? Делитесь в комментариях!
#AICoding #Gemini #GitHub #Google
🔥1
https://github.com/afshinea/stanford-cme-295-transformers-large-language-models
Очень хорошая шпаргалка по LLM от Stanford University
Очень хорошая шпаргалка по LLM от Stanford University
GitHub
GitHub - afshinea/stanford-cme-295-transformers-large-language-models: VIP cheatsheet for Stanford's CME 295 Transformers and Large…
VIP cheatsheet for Stanford's CME 295 Transformers and Large Language Models - afshinea/stanford-cme-295-transformers-large-language-models
🔧 Tencent CodeBuddy — новый AI-напарник для разработчиков
✨ Ключевое:
• Автодополнение кода, диагностика ошибок, рефакторинг, генерация тестов и ревью
• Режим Craft — опиши задачу словами, получи готовый мультифайловый проект
• Поддержка MCP-протокола для быстрой интеграции сторонних инструментов
• В основе — модели DeepSeek V3 и HunYuan Turbo S, доступ бесплатный
• Плагины для VS Code, JetBrains IDE и работа в экосистеме WeChat
🆚 Почему важно: CodeBuddy может потеснить Cursor и GitHub Copilot: он уже дружит с китайской экосистемой, да ещё и бесплатен.
🔗 Попробовать → copilot.tencent.com
#CodeBuddy #Tencent #AI #DevTools
✨ Ключевое:
• Автодополнение кода, диагностика ошибок, рефакторинг, генерация тестов и ревью
• Режим Craft — опиши задачу словами, получи готовый мультифайловый проект
• Поддержка MCP-протокола для быстрой интеграции сторонних инструментов
• В основе — модели DeepSeek V3 и HunYuan Turbo S, доступ бесплатный
• Плагины для VS Code, JetBrains IDE и работа в экосистеме WeChat
🆚 Почему важно: CodeBuddy может потеснить Cursor и GitHub Copilot: он уже дружит с китайской экосистемой, да ещё и бесплатен.
🔗 Попробовать → copilot.tencent.com
#CodeBuddy #Tencent #AI #DevTools
👍1
🆕 Windsurf ➜ SWE-1 — «фронтирные» ИИ-модели для всего цикла разработки, а не только автодополнений
▫️ Что случилось ?
15 мая Windsurf (эк-Codeium) представила линейку своих первых собственных LLM-ов — SWE-1, SWE-1-lite и SWE-1-mini. Это шаг от зависимости от OpenAI/Anthropic к полноценной собственной платформе, притом прямо на фоне слухов о выкупе Windsurf компанией OpenAI за $3 млрд.
▫️ Главная фишка — “flow awareness”
SWE-1 работает по «общему таймлайну» разработчика: редактор → терминал → браузер → тесты. Модель видит незавершённые состояния, долгие задачи и несколько интерфейсов одновременно, поэтому не «теряет контекст» и предлагает точечные действия по мере работы.
▫️ Состав семейства
• SWE-1 — флагман (≈ Claude 3.5 Sonnet / GPT-4.1), сейчас промо-бесплатен для Pro-плана.
• SWE-1-lite — лёгкая версия, заменит Cascade Base, доступна всем.
• SWE-1-mini — супербыстрый предиктор для inline-табов.
▫️ Почему важно
• Internal-бенчмарки: SWE-1 почти догоняет Claude 3.5 Sonnet и обгоняет большинство mid-size open-source LLM по принятию/удержанию сгенерированного кода.
• Стоимость инференса ниже Sonnet — шанс получить frontier-уровень дешевле.
• Переход от «AI-плагин = обёртка над GPT» к «IDE с собственным мозгом» задаёт новую планку для Cursor, Copilot, Gemini Code Assist и т.д.
💡 Что попробовать прямо сейчас
1. Обновите расширение Windsurf в VS Code/JetBrains и включите SWE-1-lite — бесплатно.
2. Сравните latency и качество ревью кода с GPT-4.1 / Claude 3.5 на задаче «мультифайл-рефакторинг».
3. Проверьте, как “shared timeline” ведёт себя в длинных DevOps-скриптах: терминал-команды + git diff + юнит-тесты.
📌 TL;DR: Windsurf перестаёт быть просто «виб-кодинг IDE» и становится полноценным вендором frontier-LLM для инженеров. Следим: если сделка с OpenAI закроется, SWE-1 может превратиться в тестовый полигон для будущих GPT-SWE-моделей.
▫️ Что случилось ?
15 мая Windsurf (эк-Codeium) представила линейку своих первых собственных LLM-ов — SWE-1, SWE-1-lite и SWE-1-mini. Это шаг от зависимости от OpenAI/Anthropic к полноценной собственной платформе, притом прямо на фоне слухов о выкупе Windsurf компанией OpenAI за $3 млрд.
▫️ Главная фишка — “flow awareness”
SWE-1 работает по «общему таймлайну» разработчика: редактор → терминал → браузер → тесты. Модель видит незавершённые состояния, долгие задачи и несколько интерфейсов одновременно, поэтому не «теряет контекст» и предлагает точечные действия по мере работы.
▫️ Состав семейства
• SWE-1 — флагман (≈ Claude 3.5 Sonnet / GPT-4.1), сейчас промо-бесплатен для Pro-плана.
• SWE-1-lite — лёгкая версия, заменит Cascade Base, доступна всем.
• SWE-1-mini — супербыстрый предиктор для inline-табов.
▫️ Почему важно
• Internal-бенчмарки: SWE-1 почти догоняет Claude 3.5 Sonnet и обгоняет большинство mid-size open-source LLM по принятию/удержанию сгенерированного кода.
• Стоимость инференса ниже Sonnet — шанс получить frontier-уровень дешевле.
• Переход от «AI-плагин = обёртка над GPT» к «IDE с собственным мозгом» задаёт новую планку для Cursor, Copilot, Gemini Code Assist и т.д.
💡 Что попробовать прямо сейчас
1. Обновите расширение Windsurf в VS Code/JetBrains и включите SWE-1-lite — бесплатно.
2. Сравните latency и качество ревью кода с GPT-4.1 / Claude 3.5 на задаче «мультифайл-рефакторинг».
3. Проверьте, как “shared timeline” ведёт себя в длинных DevOps-скриптах: терминал-команды + git diff + юнит-тесты.
📌 TL;DR: Windsurf перестаёт быть просто «виб-кодинг IDE» и становится полноценным вендором frontier-LLM для инженеров. Следим: если сделка с OpenAI закроется, SWE-1 может превратиться в тестовый полигон для будущих GPT-SWE-моделей.
👍3💯1
Вот на фоне OpenAI Codex Agent эта новость очень странная как бы, но на самом деле нет, valuation у windsurf теперь явно подрос, потому что тут теперь есть уникальное предложение, тот самый value-add и можно продаться еще дороже. Но это я еще напишу про OpenAI Codex agent. Coming soon..)
🔥4
Небольшой обзор Codex OpenAI Agent 🤔
Испытываю дежавю, т.к. видел это еще в ноябре 2024 в превью GitHub Copilot Workspace, где можно было кодить и делать пул-реквесты. Пользовался этим какое-то время, но оказалось неудобно.
Проблемы:
- Слишком много работы над сетапом и тестами
- Нужно создавать сложный environment
- Много времени уходит на настройку тулинга вместо работы над продуктом
- Приходится возиться с их контейнером и проверками, что конечному пользователю не нужно
Что спасает OpenAI Agent - мощная языковая модель codex, которая по их бенчмаркам выше o3-high. Но я пока не вижу существенного преимущества 🤷♂️
Думаю, эффективная разработка будет в терминале, в Codex cli и Claude code. Если сравнить с Anthropic - они сильно продвинулись в плане UX, они прям как Apple. Учтены все мелкие детали:
- Автоматическое построение todo
- Интерактивное общение
- Простота использования
Claude 3.7 sonnet может быть слабее сейчас, но то что они затюнили Claude code под соннет и оно работает чотко, а еще perplexity mcp, web search и вся поддержка mcp. Все очень интуитивно понятно.
OpenAI стоит сфокусироваться на Codex CLI и перенять лучшие практики у Anthropic 💡
Испытываю дежавю, т.к. видел это еще в ноябре 2024 в превью GitHub Copilot Workspace, где можно было кодить и делать пул-реквесты. Пользовался этим какое-то время, но оказалось неудобно.
Проблемы:
- Слишком много работы над сетапом и тестами
- Нужно создавать сложный environment
- Много времени уходит на настройку тулинга вместо работы над продуктом
- Приходится возиться с их контейнером и проверками, что конечному пользователю не нужно
Что спасает OpenAI Agent - мощная языковая модель codex, которая по их бенчмаркам выше o3-high. Но я пока не вижу существенного преимущества 🤷♂️
Думаю, эффективная разработка будет в терминале, в Codex cli и Claude code. Если сравнить с Anthropic - они сильно продвинулись в плане UX, они прям как Apple. Учтены все мелкие детали:
- Автоматическое построение todo
- Интерактивное общение
- Простота использования
Claude 3.7 sonnet может быть слабее сейчас, но то что они затюнили Claude code под соннет и оно работает чотко, а еще perplexity mcp, web search и вся поддержка mcp. Все очень интуитивно понятно.
OpenAI стоит сфокусироваться на Codex CLI и перенять лучшие практики у Anthropic 💡
👍4🔥2💯1
В codex завезли поддержку и openrouter и ollama и еще всяких mistral (https://github.com/openai/codex?tab=readme-ov-file#full-configuration-example)
Да, и вот про qwen3 30b a3b - на ollama моделька эта занимает 19гб и инференс на моей прошке норм, хоть и медленно по сравнению с сегодняшними сетками. Но на момент сентября прошлого года оч круто