Привет! Ловите новые смыслы)
Кидайте лайки, голосуя за пункты
👍 1. «ИИ не решил проблемы человечества — он создал для себя рынок сбыта. Теперь у нас есть задачи, о которых мы даже не подозревали, пока он не показал нам, как с ними „справляется“».
🔥 2. «Главная задача, которую создал ИИ — это необходимость постоянно придумывать ему задачи, чтобы оправдать его существование».
😁 3. «ИИ — это как друг, который ломает тебе ногу, а потом героически предлагает тебя донести. Спасибо, что решил проблему, которую сам же и создал».
Кидайте лайки, голосуя за пункты
👍 1. «ИИ не решил проблемы человечества — он создал для себя рынок сбыта. Теперь у нас есть задачи, о которых мы даже не подозревали, пока он не показал нам, как с ними „справляется“».
🔥 2. «Главная задача, которую создал ИИ — это необходимость постоянно придумывать ему задачи, чтобы оправдать его существование».
😁 3. «ИИ — это как друг, который ломает тебе ногу, а потом героически предлагает тебя донести. Спасибо, что решил проблему, которую сам же и создал».
Antropic представил новый режим выполнения кода для Model Context Protocol (MCP), и это меняет правила игры для AI-агентов.
Раньше при работе с тысячами инструментов было две главные проблемы:
· 📈 Определения инструментов перегружали контекст агента, занимая драгоценные токены.
· 🔁 Промежуточные результаты (например, весь текст документа) также проходили через модель, сжигая токены и время.
Новый подход превращает инструменты MCP в "кодовые API". Теперь агент не загружает все описания разом, а пишет код, который выполняет нужные операции. Это дает фантастические результаты:
· Экономия 99% контекста: Обработка задачи, которая раньше "съедала" 150 000 токенов, теперь требует всего около 2000.
· Обработка данных в среде выполнения: Агент может отфильтровать 10 000 строк таблицы и вернуть вам только 5 нужных, не засоряя контекст.
· Более сложная логика: Циклы, условия и обработка ошибок теперь выполняются в коде, а не цепочкой вызовов инструментов.
· Безопасность: Конфиденциальные данные можно обработать и токенизировать, не показывая их модели.
Вывод: MCP в режиме выполнения кода — это мощный шаг к созданию по-настоящему эффективных и самостоятельных AI-агентов, которые экономят ресурсы и работают с данными любого масштаба.
Оригинал статьи: https://www.anthropic.com/engineering/code-execution-with-mcp
Раньше при работе с тысячами инструментов было две главные проблемы:
· 📈 Определения инструментов перегружали контекст агента, занимая драгоценные токены.
· 🔁 Промежуточные результаты (например, весь текст документа) также проходили через модель, сжигая токены и время.
Новый подход превращает инструменты MCP в "кодовые API". Теперь агент не загружает все описания разом, а пишет код, который выполняет нужные операции. Это дает фантастические результаты:
· Экономия 99% контекста: Обработка задачи, которая раньше "съедала" 150 000 токенов, теперь требует всего около 2000.
· Обработка данных в среде выполнения: Агент может отфильтровать 10 000 строк таблицы и вернуть вам только 5 нужных, не засоряя контекст.
· Более сложная логика: Циклы, условия и обработка ошибок теперь выполняются в коде, а не цепочкой вызовов инструментов.
· Безопасность: Конфиденциальные данные можно обработать и токенизировать, не показывая их модели.
Вывод: MCP в режиме выполнения кода — это мощный шаг к созданию по-настоящему эффективных и самостоятельных AI-агентов, которые экономят ресурсы и работают с данными любого масштаба.
Оригинал статьи: https://www.anthropic.com/engineering/code-execution-with-mcp
Anthropic
Code execution with MCP: building more efficient AI agents
Learn how code execution with the Model Context Protocol enables agents to handle more tools while using fewer tokens, reducing context overhead by up to 98.7%.
🔥2
Forwarded from Datanomika (Alex Polorotov)
Qlik Cloud
В ближайшем обновлении добавят Templates для листов.
То есть можно создать шаблон структуры дашборда и переиспользовать его, делиться с командой
В ближайшем обновлении добавят Templates для листов.
То есть можно создать шаблон структуры дашборда и переиспользовать его, делиться с командой
Forwarded from Datanomika (Alex Polorotov)
В 2026 будет релиз, в котором будет доступна команда агентов в Qlik cloud, которая будет работать со всеми запросами пользователя, конечно же через чат.
Нам даже показали демо, прикреплю позже.
Впечатление - 🔥🔥🔥
Нам даже показали демо, прикреплю позже.
Впечатление - 🔥🔥🔥
🔥1
🆕 qlik_download : qlik_sense_desktop
📂 Qlik_Sense_Desktop_setup.exe (1014.11 MB)
📂 Qlik_Sense_Desktop_setup.exe.md5 (32.00 B)
🔎 tags: #qlik_sense_desktop #may_2025 #may_2025_patch_10 #qlik_sense_desktop_may_2025_patch_10
🔗️ release url
🕔 last update : 2025-11-12 13:13:09
✍️ by @chernovdev
📂 Qlik_Sense_Desktop_setup.exe (1014.11 MB)
📂 Qlik_Sense_Desktop_setup.exe.md5 (32.00 B)
🔎 tags: #qlik_sense_desktop #may_2025 #may_2025_patch_10 #qlik_sense_desktop_may_2025_patch_10
🔗️ release url
🕔 last update : 2025-11-12 13:13:09
✍️ by @chernovdev
🆕 qlik_download : qlik_sense_server
📂 Qlik_Sense_update.exe (625.93 MB)
📂 Qlik_Sense_update.exe.md5 (32.00 B)
🔎 tags: #qlik_sense_server #may_2025 #may_2025_patch_10 #qlik_sense_server_may_2025_patch_10
🔗️ release url
🕔 last update : 2025-11-12 13:11:25
✍️ by @chernovdev
📂 Qlik_Sense_update.exe (625.93 MB)
📂 Qlik_Sense_update.exe.md5 (32.00 B)
🔎 tags: #qlik_sense_server #may_2025 #may_2025_patch_10 #qlik_sense_server_may_2025_patch_10
🔗️ release url
🕔 last update : 2025-11-12 13:11:25
✍️ by @chernovdev
🆕 qlik_download : qlik_sense_server
📂 Qlik_Sense_update.exe (759.40 MB)
📂 Qlik_Sense_update.exe.md5 (32.00 B)
🔎 tags: #qlik_sense_server #november_2024 #november_2024_patch_22 #qlik_sense_server_november_2024_patch_22
🔗️ release url
🕔 last update : 2025-11-12 13:12:16
✍️ by @chernovdev
📂 Qlik_Sense_update.exe (759.40 MB)
📂 Qlik_Sense_update.exe.md5 (32.00 B)
🔎 tags: #qlik_sense_server #november_2024 #november_2024_patch_22 #qlik_sense_server_november_2024_patch_22
🔗️ release url
🕔 last update : 2025-11-12 13:12:16
✍️ by @chernovdev
Санкт-Петербург, пора на апдейт персонализации
27 ноября в новом ИТ-хабе Т-Банка пройдет T-Meetup: RecSys — встреча специалистов по рекомендательным системам и машинному обучению.
Поговорим о будущем персонализации и данных:
— как системы переходят от батчевых к онлайн-рекомендациям;
— как эластичность меняет подход к скидкам и лояльности;
— почему нейросети вытесняют бустинг в ранжировании.
После докладов от спикеров больших ИТ-компаний — нетворкинг и экскурсия по новому флагманскому ИТ-хабу Т-Банка в Санкт-Петербурге.
Успейте зарегистрироваться
27 ноября в новом ИТ-хабе Т-Банка пройдет T-Meetup: RecSys — встреча специалистов по рекомендательным системам и машинному обучению.
Поговорим о будущем персонализации и данных:
— как системы переходят от батчевых к онлайн-рекомендациям;
— как эластичность меняет подход к скидкам и лояльности;
— почему нейросети вытесняют бустинг в ранжировании.
После докладов от спикеров больших ИТ-компаний — нетворкинг и экскурсия по новому флагманскому ИТ-хабу Т-Банка в Санкт-Петербурге.
Успейте зарегистрироваться
🔥2 1
TRAE SOLO — релиз AI-агента для разработки
Эволюция от плагина к полноценному AI-инженеру. SOLO работает как отдельный агент, который оркестрирует браузеры, терминалы, редакторы и инструменты разработки.
Основные возможности:
— Builder и Coder: два режима работы. Builder быстро превращает идеи в продукты, Coder планирует и выполняет задачи с координацией под-агентов
— Работа с контекстом в реальном времени: объединяет терминал, редактор, документацию, браузер, интеграции и Figma в единое пространство
— Параллельная работа: можно запускать несколько агентов одновременно на разных задачах, каждый со своей моделью
— Голосовой ввод: можно общаться с агентом голосом, как с коллегой
— Визуальная обратная связь: расширяемый динамический вид справа показывает прогресс работы агента
SOLO планирует, выполняет и доставляет результат в едином потоке — от идеи до готового продукта.
https://www.trae.ai/solo
p.s. там 3 дня можно бесплатно тестировать!
#ai@chernovdev #coding@chernovdev #trae@chernovdev #trae@chernovdev
Эволюция от плагина к полноценному AI-инженеру. SOLO работает как отдельный агент, который оркестрирует браузеры, терминалы, редакторы и инструменты разработки.
Основные возможности:
— Builder и Coder: два режима работы. Builder быстро превращает идеи в продукты, Coder планирует и выполняет задачи с координацией под-агентов
— Работа с контекстом в реальном времени: объединяет терминал, редактор, документацию, браузер, интеграции и Figma в единое пространство
— Параллельная работа: можно запускать несколько агентов одновременно на разных задачах, каждый со своей моделью
— Голосовой ввод: можно общаться с агентом голосом, как с коллегой
— Визуальная обратная связь: расширяемый динамический вид справа показывает прогресс работы агента
SOLO планирует, выполняет и доставляет результат в едином потоке — от идеи до готового продукта.
https://www.trae.ai/solo
p.s. там 3 дня можно бесплатно тестировать!
#ai@chernovdev #coding@chernovdev #trae@chernovdev #trae@chernovdev
🔥2
🆕 qlik_download : replicate
📂 QlikReplicate_2025_11_0_Avro_Decoder_SDK.zip (44.79 KB)
📂 QlikReplicate_2025_11_0_Avro_Decoder_SDK.zip.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_Linux_X64.tar.gz (372.93 MB)
📂 QlikReplicate_2025_11_0_Linux_X64.tar.gz.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_R4I.zip (873.00 KB)
📂 QlikReplicate_2025_11_0_R4I.zip.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_R4IMS-1.0-2.tar.gz (18.39 MB)
📂 QlikReplicate_2025_11_0_R4IMS-1.0-2.tar.gz.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_R4SAP.zip (835.24 KB)
📂 QlikReplicate_2025_11_0_R4SAP.zip.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_R4SAPExtractor.zip (767.92 KB)
📂 QlikReplicate_2025_11_0_R4SAPExtractor.zip.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_R4Z.zip (212.65 KB)
📂 QlikReplicate_2025_11_0_R4Z.zip.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_Windows_X64.zip (427.39 MB)
📂 QlikReplicate_2025_11_0_Windows_X64.zip.md5 (32.00 B)
🔎 tags: #replicate #november_2025 #november_2025_ir #replicate_november_2025_ir
🔗️ release url
🕔 last update : 2025-11-17 15:13:57
✍️ by @chernovdev
📂 QlikReplicate_2025_11_0_Avro_Decoder_SDK.zip (44.79 KB)
📂 QlikReplicate_2025_11_0_Avro_Decoder_SDK.zip.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_Linux_X64.tar.gz (372.93 MB)
📂 QlikReplicate_2025_11_0_Linux_X64.tar.gz.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_R4I.zip (873.00 KB)
📂 QlikReplicate_2025_11_0_R4I.zip.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_R4IMS-1.0-2.tar.gz (18.39 MB)
📂 QlikReplicate_2025_11_0_R4IMS-1.0-2.tar.gz.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_R4SAP.zip (835.24 KB)
📂 QlikReplicate_2025_11_0_R4SAP.zip.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_R4SAPExtractor.zip (767.92 KB)
📂 QlikReplicate_2025_11_0_R4SAPExtractor.zip.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_R4Z.zip (212.65 KB)
📂 QlikReplicate_2025_11_0_R4Z.zip.md5 (32.00 B)
📂 QlikReplicate_2025_11_0_Windows_X64.zip (427.39 MB)
📂 QlikReplicate_2025_11_0_Windows_X64.zip.md5 (32.00 B)
🔎 tags: #replicate #november_2025 #november_2025_ir #replicate_november_2025_ir
🔗️ release url
🕔 last update : 2025-11-17 15:13:57
✍️ by @chernovdev
Нас радует не только NVidia со своим DGX Spark, недавно AMD выкатили свой новый процессор - AMD Ryzen AI Max+395, который работает не хуже, но, что важно - он дешевле. Жаль только что макс памяти у него 128гб...
Для примера пару сборок с этим процессором и памятью (унифицированной) - 128 гб:
раз, два по цене до ~230к рублей на озоне (может есть и другие сборки - особо не искал)
Что дает нам этот проц? Конечно! Запуск локальных LLM моделей, например gpt-oss-120b, со скоростью ~30+ токенов / секунду
Тоже самое выдает и DGX Spark - но стоит он в 2 раза дороже (в РФ продажи стартуют от 480к+, не знаю включена там таможня или нет)
Именно про этот процессор есть уже тесты, причем отличные, но только в красном видео, с подробным разбором: https://www.youtube.com/watch?v=pHB3-9AG6tw
Фото из видео на постере
P.S. я лично опять жду китайцев, они там бахнули (вчера) оптический квантовый - чип (пока это проект и только для датацентров), но чувствую скоро каждый у себя сможет дома запускать за разумные деньги модельки даже мощнее и существенно дешевле
ну и напомню еще есть cerebras - который выдает немыслимые 1,7к+ токенов в секунду (опять же пока для датацентров)
#gptoss #amd #ai #cerebras
Для примера пару сборок с этим процессором и памятью (унифицированной) - 128 гб:
раз, два по цене до ~230к рублей на озоне (может есть и другие сборки - особо не искал)
Что дает нам этот проц? Конечно! Запуск локальных LLM моделей, например gpt-oss-120b, со скоростью ~30+ токенов / секунду
Тоже самое выдает и DGX Spark - но стоит он в 2 раза дороже (в РФ продажи стартуют от 480к+, не знаю включена там таможня или нет)
Именно про этот процессор есть уже тесты, причем отличные, но только в красном видео, с подробным разбором: https://www.youtube.com/watch?v=pHB3-9AG6tw
Фото из видео на постере
P.S. я лично опять жду китайцев, они там бахнули (вчера) оптический квантовый - чип (пока это проект и только для датацентров), но чувствую скоро каждый у себя сможет дома запускать за разумные деньги модельки даже мощнее и существенно дешевле
ну и напомню еще есть cerebras - который выдает немыслимые 1,7к+ токенов в секунду (опять же пока для датацентров)
#gptoss #amd #ai #cerebras
1
«Круги Громова» представили новое исследование российского рынка ETL 2025
Как компании сегодня решают задачу импортозамещения в области интеграции данных? Какие отечественные ETL-решения уже готовы заменить западные продукты — и даже превзойти их?
В новом исследовании «ETL Круг Громова 2025»:
🔹 Сравнение российских ETL-платформ с Apache Airflow и NiFi.
🔹 Подробный анализ функциональности и производительности отечественных решений, включая Modus ETL, Dat. ax, Loginom, PolyAnalyst, DATAREON Platform, Luxms Data Boring и другие.
🔹 Ключевые тренды 2025 года: ELT, Reverse ETL, CDC, Streaming, ZeroETL, AI-автоматизация.
🔹 Более 200 критериев оценки ETL-решений для корпоративного сектора — от архитектуры и безопасности до поддержки 1С и отечественных облаков.
🔹 Результаты выполнения вендорами тестового задания по загрузке 40 млн строк данных.
📘 Полный отчёт доступен на сайте проекта «Круги Громова» — скачать бесплатно! Сохраните себе актуальную карту российского рынка ETL-решений 2025 года.
Как компании сегодня решают задачу импортозамещения в области интеграции данных? Какие отечественные ETL-решения уже готовы заменить западные продукты — и даже превзойти их?
В новом исследовании «ETL Круг Громова 2025»:
🔹 Сравнение российских ETL-платформ с Apache Airflow и NiFi.
🔹 Подробный анализ функциональности и производительности отечественных решений, включая Modus ETL, Dat. ax, Loginom, PolyAnalyst, DATAREON Platform, Luxms Data Boring и другие.
🔹 Ключевые тренды 2025 года: ELT, Reverse ETL, CDC, Streaming, ZeroETL, AI-автоматизация.
🔹 Более 200 критериев оценки ETL-решений для корпоративного сектора — от архитектуры и безопасности до поддержки 1С и отечественных облаков.
🔹 Результаты выполнения вендорами тестового задания по загрузке 40 млн строк данных.
📘 Полный отчёт доступен на сайте проекта «Круги Громова» — скачать бесплатно! Сохраните себе актуальную карту российского рынка ETL-решений 2025 года.
😁1
Forwarded from Инструменты программиста
SurfSense — это open‑source альтернатива NotebookLM, Perplexity и Glean: AI‑агент для исследований, который подключается к вашим личным источникам (поисковые движки, Slack, Linear, Jira, ClickUp, Confluence, Notion, Gmail, YouTube, GitHub, Discord, Airtable, Google Calendar, Luma, Elasticsearch и другие).
Для тех, кто проспал последний год, NotebookLM — этосервис Google, где вы загружаете свои документы, и AI (Gemini) помогает вам суммировать, отвечать на вопросы, создавать FAQ, учебные материалы и подкасты, опираясь только на ваши источники.
Что делает SurfSense:
🟣 Поддерживает 100+ LLM (включая локальные Ollama) и 6000+ моделей эмбеддингов.
🟣 Продвинутый RAG: иерархические индексы (2‑уровневый), гибридный поиск (семантический + полнотекстовый), ранжирование (Pinecone, Cohere, Flashrank).
🟣 Подкаст‑агент: создаёт 3‑минутный подкаст менее чем за 20 секунд, поддерживает локальные TTS (Kokoro) и облачных провайдеров.
🟣 Поддержка 50+ форматов файлов (PDF, DOCX, видео, аудио, email и т.д.).
🟣 Self‑hostable: можно поднять через Docker Compose или вручную.
Быстрый старт:
🟣
🟣 Скопируйте
🟣
🟣 Откройте http://localhost:3000
Где попробовать:
GitHub: https://github.com/MODSetter/SurfSense
Сайт: https://surfsense.com
Discord: https://discord.gg/ejRNvftDp9
Технический стек: FastAPI, PostgreSQL (pgvector), LangGraph, LangChain, Celery, Redis, Next.js 15, React 19, TypeScript, Docker.
@prog_tools
Для тех, кто проспал последний год, NotebookLM — это
Что делает SurfSense:
🟣 Поддерживает 100+ LLM (включая локальные Ollama) и 6000+ моделей эмбеддингов.
🟣 Продвинутый RAG: иерархические индексы (2‑уровневый), гибридный поиск (семантический + полнотекстовый), ранжирование (Pinecone, Cohere, Flashrank).
🟣 Подкаст‑агент: создаёт 3‑минутный подкаст менее чем за 20 секунд, поддерживает локальные TTS (Kokoro) и облачных провайдеров.
🟣 Поддержка 50+ форматов файлов (PDF, DOCX, видео, аудио, email и т.д.).
🟣 Self‑hostable: можно поднять через Docker Compose или вручную.
Быстрый старт:
🟣
git clone https://github.com/MODSetter/SurfSense🟣 Скопируйте
.env.example в .env, добавьте API‑ключи (OpenAI, Tavily и т.д.).🟣
docker compose up -d🟣 Откройте http://localhost:3000
Где попробовать:
GitHub: https://github.com/MODSetter/SurfSense
Сайт: https://surfsense.com
Discord: https://discord.gg/ejRNvftDp9
Технический стек: FastAPI, PostgreSQL (pgvector), LangGraph, LangChain, Celery, Redis, Next.js 15, React 19, TypeScript, Docker.
@prog_tools
Media is too big
VIEW IN TELEGRAM
🔥5🤨1
Forwarded from Технозаметки Малышева
С выходом Gemini3 тут такая чехарда началась.
- OpenAI срочно выпустил обновление GPT Codex 5.1 и он теперь Max.
Предыдущий кодекс устарел за пару недель.
- Маск тут же пишет, что вот теперь Grok 4.1 Fast обошёл Gemini3 в использовании Агентских инструментов по версии artificialanalysis.ai
Картинка с анонсом лучшей модели крутится как карусель, короче.
Ждём еще что Qwen выпустит, что-то давно их не слышно.
#Grok #Gemini #Codex
———
@tsingular
- OpenAI срочно выпустил обновление GPT Codex 5.1 и он теперь Max.
Предыдущий кодекс устарел за пару недель.
- Маск тут же пишет, что вот теперь Grok 4.1 Fast обошёл Gemini3 в использовании Агентских инструментов по версии artificialanalysis.ai
Картинка с анонсом лучшей модели крутится как карусель, короче.
Ждём еще что Qwen выпустит, что-то давно их не слышно.
#Grok #Gemini #Codex
———
@tsingular
😁3 1
На bothub.ru (рефералка) есть аж 40 моделей для бесплатного использования по API
Не благодарите )
Название / контекст / вывод
1. gpt-oss-20b:free - 131 072 / 131 072
2. gemma-3-27b-it:free - 131 072 / 43 253
3. gemini-2.0-flash-exp:free - 1 048 576 / 8 192
4. gemma-3-4b-it:free - 131 072 / 8 192
5. gemma-3n-e4b-it:free - 8 192 / 2 048
6. gemma-3-12b-it:free - 131 072 / 8 192
7. gemma-3n-e2b-it:free - 8 192 / 2 048
8. deepseek-chat-v3-0324:free - 131 072 / 54 067
9. deepseek-r1t-chimera:free - 163 840 / 54 067
10. deepseek-r1:free - 128 000 / 54 067
11. deepseek-r1-distill-llama-70b:free - 8 192 / 4 096
12. deepseek-r1-0528:free - 163 840 / 54 067
13. deepseek-r1t2-chimera:free - 163 840 / 54 067
14. deepseek-r1-0528-qwen3-8b:free - 131 072 / 43 253
15. qwen3-30b-a3b:free - 40 960 / 13 516
16. qwen-2.5-coder-32b-instruct:free - 128 000 / 10 813
17. qwen3-14b:free - 40 960 / 13 516
18. qwen3-4b:free - 128 000 / 13 516
19. qwq-32b-arliai-rpr-v1:free - 32 768 / 10 813
20. qwen3-coder:free - 262 144 / 262 000
21. qwen3-235b-a22b:free - 40 960 / 13 516
22. qwen2.5-vl-32b-instruct:free - 8 192 / 5 406
23. qwen-2.5-72b-instruct:free - 32 768 / 10 813
24. mistral-small-3.1-24b-instruct:free - 128 000 / 96 000
25. mistral-small-3.2-24b-instruct:free - 96 000 / 43 253
26. mistral-small-24b-instruct-2501:free - 32 000 / 10 813
27. mistral-7b-instruct:free - 8 192 / 16 384
28. mistral-nemo:free - 128 000 / 128 000
29. llama-3.2-3b-instruct:free - 4 096 / 43 253
30. llama-3.3-70b-instruct:free - 131 072 / 43 253
31. glm-4.5-air:free - 131 072 / 131 072
32. tongyi-deepresearch-30b-a3b:free - 131 072 / 131 072
33. longcat-flash-chat:free - 131 072 / 131 072
34. kimi-k2:free - 65 536 / 10 813
35. mai-ds-r1:free - 163 840 / 54 067
36. hermes-3-llama-3.1-405b:free - 131 072 / 43 253
37. dolphin-mistral-24b-venice-edition:free - 32 768 / 10 813
38. kat-coder-pro:free - 256 000 / 32 000
39. nemotron-nano-12b-v2-vl:free - 128 000 / 128 000
40. nemotron-nano-9b-v2:free - 128 000 / 42 240
Не благодарите )
Название / контекст / вывод
1. gpt-oss-20b:free - 131 072 / 131 072
2. gemma-3-27b-it:free - 131 072 / 43 253
3. gemini-2.0-flash-exp:free - 1 048 576 / 8 192
4. gemma-3-4b-it:free - 131 072 / 8 192
5. gemma-3n-e4b-it:free - 8 192 / 2 048
6. gemma-3-12b-it:free - 131 072 / 8 192
7. gemma-3n-e2b-it:free - 8 192 / 2 048
8. deepseek-chat-v3-0324:free - 131 072 / 54 067
9. deepseek-r1t-chimera:free - 163 840 / 54 067
10. deepseek-r1:free - 128 000 / 54 067
11. deepseek-r1-distill-llama-70b:free - 8 192 / 4 096
12. deepseek-r1-0528:free - 163 840 / 54 067
13. deepseek-r1t2-chimera:free - 163 840 / 54 067
14. deepseek-r1-0528-qwen3-8b:free - 131 072 / 43 253
15. qwen3-30b-a3b:free - 40 960 / 13 516
16. qwen-2.5-coder-32b-instruct:free - 128 000 / 10 813
17. qwen3-14b:free - 40 960 / 13 516
18. qwen3-4b:free - 128 000 / 13 516
19. qwq-32b-arliai-rpr-v1:free - 32 768 / 10 813
20. qwen3-coder:free - 262 144 / 262 000
21. qwen3-235b-a22b:free - 40 960 / 13 516
22. qwen2.5-vl-32b-instruct:free - 8 192 / 5 406
23. qwen-2.5-72b-instruct:free - 32 768 / 10 813
24. mistral-small-3.1-24b-instruct:free - 128 000 / 96 000
25. mistral-small-3.2-24b-instruct:free - 96 000 / 43 253
26. mistral-small-24b-instruct-2501:free - 32 000 / 10 813
27. mistral-7b-instruct:free - 8 192 / 16 384
28. mistral-nemo:free - 128 000 / 128 000
29. llama-3.2-3b-instruct:free - 4 096 / 43 253
30. llama-3.3-70b-instruct:free - 131 072 / 43 253
31. glm-4.5-air:free - 131 072 / 131 072
32. tongyi-deepresearch-30b-a3b:free - 131 072 / 131 072
33. longcat-flash-chat:free - 131 072 / 131 072
34. kimi-k2:free - 65 536 / 10 813
35. mai-ds-r1:free - 163 840 / 54 067
36. hermes-3-llama-3.1-405b:free - 131 072 / 43 253
37. dolphin-mistral-24b-venice-edition:free - 32 768 / 10 813
38. kat-coder-pro:free - 256 000 / 32 000
39. nemotron-nano-12b-v2-vl:free - 128 000 / 128 000
40. nemotron-nano-9b-v2:free - 128 000 / 42 240
1🔥6 2