ChernovDev – Telegram
ChernovDev
1.29K subscribers
720 photos
40 videos
166 files
949 links
Эй ай и вот это вот всё. Qlik
https://chernovdev.ru/
https://vkvideo.ru/@chernovdev
Download Telegram
Привет! Ловите новые смыслы)

Кидайте лайки, голосуя за пункты

👍 1. «ИИ не решил проблемы человечества — он создал для себя рынок сбыта. Теперь у нас есть задачи, о которых мы даже не подозревали, пока он не показал нам, как с ними „справляется“».

🔥 2. «Главная задача, которую создал ИИ — это необходимость постоянно придумывать ему задачи, чтобы оправдать его существование».

😁 3. «ИИ — это как друг, который ломает тебе ногу, а потом героически предлагает тебя донести. Спасибо, что решил проблему, которую сам же и создал».
8🔥6😁5
Antropic представил новый режим выполнения кода для Model Context Protocol (MCP), и это меняет правила игры для AI-агентов.

Раньше при работе с тысячами инструментов было две главные проблемы:

· 📈 Определения инструментов перегружали контекст агента, занимая драгоценные токены.
· 🔁 Промежуточные результаты (например, весь текст документа) также проходили через модель, сжигая токены и время.

Новый подход превращает инструменты MCP в "кодовые API". Теперь агент не загружает все описания разом, а пишет код, который выполняет нужные операции. Это дает фантастические результаты:

· Экономия 99% контекста: Обработка задачи, которая раньше "съедала" 150 000 токенов, теперь требует всего около 2000.
· Обработка данных в среде выполнения: Агент может отфильтровать 10 000 строк таблицы и вернуть вам только 5 нужных, не засоряя контекст.
· Более сложная логика: Циклы, условия и обработка ошибок теперь выполняются в коде, а не цепочкой вызовов инструментов.
· Безопасность: Конфиденциальные данные можно обработать и токенизировать, не показывая их модели.

Вывод: MCP в режиме выполнения кода — это мощный шаг к созданию по-настоящему эффективных и самостоятельных AI-агентов, которые экономят ресурсы и работают с данными любого масштаба.

Оригинал статьи: https://www.anthropic.com/engineering/code-execution-with-mcp
🔥2
Forwarded from Datanomika (Alex Polorotov)
Qlik Cloud

В ближайшем обновлении добавят Templates для листов.

То есть можно создать шаблон структуры дашборда и переиспользовать его, делиться с командой
5
Forwarded from Datanomika (Alex Polorotov)
В 2026 будет релиз, в котором будет доступна команда агентов в Qlik cloud, которая будет работать со всеми запросами пользователя, конечно же через чат.

Нам даже показали демо, прикреплю позже.

Впечатление - 🔥🔥🔥
🔥1
Forwarded from Datanomika (Alex Polorotov)
MCP от Qlik
Рой агентов будет в Qlik Cloud.

Показали как работает - впечатляет.

Любой вопрос и он ходит по твоему tenant и использует данные, на лету строит диаграммы, если нет подходящей модели строит модель данных в своем самом быстром движке Qlik Associative Engine 😁
🔥5
1😁9🔥21
🆕 qlik_download : qlik_sense_desktop

📂 Qlik_Sense_Desktop_setup.exe (1014.11 MB)
📂 Qlik_Sense_Desktop_setup.exe.md5 (32.00 B)

🔎 tags: #qlik_sense_desktop #may_2025 #may_2025_patch_10 #qlik_sense_desktop_may_2025_patch_10

🔗️ release url

🕔 last update : 2025-11-12 13:13:09

✍️ by @chernovdev
🆕 qlik_download : qlik_sense_server

📂 Qlik_Sense_update.exe (625.93 MB)
📂 Qlik_Sense_update.exe.md5 (32.00 B)

🔎 tags: #qlik_sense_server #may_2025 #may_2025_patch_10 #qlik_sense_server_may_2025_patch_10

🔗️ release url

🕔 last update : 2025-11-12 13:11:25

✍️ by @chernovdev
🆕 qlik_download : qlik_sense_server

📂 Qlik_Sense_update.exe (759.40 MB)
📂 Qlik_Sense_update.exe.md5 (32.00 B)

🔎 tags: #qlik_sense_server #november_2024 #november_2024_patch_22 #qlik_sense_server_november_2024_patch_22

🔗️ release url

🕔 last update : 2025-11-12 13:12:16

✍️ by @chernovdev
Санкт-Петербург, пора на апдейт персонализации

27 ноября в новом ИТ-хабе Т-Банка пройдет T-Meetup: RecSys — встреча специалистов по рекомендательным системам и машинному обучению.

Поговорим о будущем персонализации и данных:

— как системы переходят от батчевых к онлайн-рекомендациям;
— как эластичность меняет подход к скидкам и лояльности;
— почему нейросети вытесняют бустинг в ранжировании.

После докладов от спикеров больших ИТ-компаний — нетворкинг и экскурсия по новому флагманскому ИТ-хабу Т-Банка в Санкт-Петербурге.

Успейте зарегистрироваться
🔥21
TRAE SOLO — релиз AI-агента для разработки
Эволюция от плагина к полноценному AI-инженеру. SOLO работает как отдельный агент, который оркестрирует браузеры, терминалы, редакторы и инструменты разработки.

Основные возможности:
— Builder и Coder: два режима работы. Builder быстро превращает идеи в продукты, Coder планирует и выполняет задачи с координацией под-агентов
— Работа с контекстом в реальном времени: объединяет терминал, редактор, документацию, браузер, интеграции и Figma в единое пространство
— Параллельная работа: можно запускать несколько агентов одновременно на разных задачах, каждый со своей моделью
— Голосовой ввод: можно общаться с агентом голосом, как с коллегой
— Визуальная обратная связь: расширяемый динамический вид справа показывает прогресс работы агента

SOLO планирует, выполняет и доставляет результат в едином потоке — от идеи до готового продукта.

https://www.trae.ai/solo

p.s. там 3 дня можно бесплатно тестировать!

#ai@chernovdev #coding@chernovdev #trae@chernovdev #trae@chernovdev
🔥2
datalens - всё? конец эпохи?
🤷‍♂1
Нас радует не только NVidia со своим DGX Spark, недавно AMD выкатили свой новый процессор - AMD Ryzen AI Max+395, который работает не хуже, но, что важно - он дешевле. Жаль только что макс памяти у него 128гб...

Для примера пару сборок с этим процессором и памятью (унифицированной) - 128 гб:

раз, два по цене до ~230к рублей на озоне (может есть и другие сборки - особо не искал)

Что дает нам этот проц? Конечно! Запуск локальных LLM моделей, например gpt-oss-120b, со скоростью ~30+ токенов / секунду
Тоже самое выдает и DGX Spark - но стоит он в 2 раза дороже (в РФ продажи стартуют от 480к+, не знаю включена там таможня или нет)

Именно про этот процессор есть уже тесты, причем отличные, но только в красном видео, с подробным разбором: https://www.youtube.com/watch?v=pHB3-9AG6tw

Фото из видео на постере

P.S. я лично опять жду китайцев, они там бахнули (вчера) оптический квантовый - чип (пока это проект и только для датацентров), но чувствую скоро каждый у себя сможет дома запускать за разумные деньги модельки даже мощнее и существенно дешевле

ну и напомню еще есть cerebras - который выдает немыслимые 1,7к+ токенов в секунду (опять же пока для датацентров)

#gptoss #amd #ai #cerebras
1
«Круги Громова» представили новое исследование российского рынка ETL 2025

Как компании сегодня решают задачу импортозамещения в области интеграции данных? Какие отечественные ETL-решения уже готовы заменить западные продукты — и даже превзойти их?

В новом исследовании «ETL Круг Громова 2025»:
🔹 Сравнение российских ETL-платформ с Apache Airflow и NiFi.
🔹 Подробный анализ функциональности и производительности отечественных решений, включая Modus ETL, Dat. ax, Loginom, PolyAnalyst, DATAREON Platform, Luxms Data Boring и другие.
🔹 Ключевые тренды 2025 года: ELT, Reverse ETL, CDC, Streaming, ZeroETL, AI-автоматизация.
🔹 Более 200 критериев оценки ETL-решений для корпоративного сектора — от архитектуры и безопасности до поддержки 1С и отечественных облаков.
🔹 Результаты выполнения вендорами тестового задания по загрузке 40 млн строк данных.

📘 Полный отчёт доступен на сайте проекта «Круги Громова» — скачать бесплатно! Сохраните себе актуальную карту российского рынка ETL-решений 2025 года.
😁1
SurfSense — это open‑source альтернатива NotebookLM, Perplexity и Glean: AI‑агент для исследований, который подключается к вашим личным источникам (поисковые движки, Slack, Linear, Jira, ClickUp, Confluence, Notion, Gmail, YouTube, GitHub, Discord, Airtable, Google Calendar, Luma, Elasticsearch и другие).​

Для тех, кто проспал последний год, NotebookLM — это сервис Google, где вы загружаете свои документы, и AI (Gemini) помогает вам суммировать, отвечать на вопросы, создавать FAQ, учебные материалы и подкасты, опираясь только на ваши источники.​

Что делает SurfSense:
🟣 Поддерживает 100+ LLM (включая локальные Ollama) и 6000+ моделей эмбеддингов.​
🟣 Продвинутый RAG: иерархические индексы (2‑уровневый), гибридный поиск (семантический + полнотекстовый), ранжирование (Pinecone, Cohere, Flashrank).​
🟣 Подкаст‑агент: создаёт 3‑минутный подкаст менее чем за 20 секунд, поддерживает локальные TTS (Kokoro) и облачных провайдеров.​
🟣 Поддержка 50+ форматов файлов (PDF, DOCX, видео, аудио, email и т.д.).​
🟣 Self‑hostable: можно поднять через Docker Compose или вручную.​

Быстрый старт:
🟣 git clone https://github.com/MODSetter/SurfSense
🟣 Скопируйте .env.example в .env, добавьте API‑ключи (OpenAI, Tavily и т.д.).
🟣 docker compose up -d
🟣 Откройте http://localhost:3000

Где попробовать:
GitHub: https://github.com/MODSetter/SurfSense
Сайт: https://surfsense.com
Discord: https://discord.gg/ejRNvftDp9

Технический стек: FastAPI, PostgreSQL (pgvector), LangGraph, LangChain, Celery, Redis, Next.js 15, React 19, TypeScript, Docker.

@prog_tools
Media is too big
VIEW IN TELEGRAM
🔥5🤨1
С выходом Gemini3 тут такая чехарда началась.

- OpenAI срочно выпустил обновление GPT Codex 5.1 и он теперь Max.
Предыдущий кодекс устарел за пару недель.
- Маск тут же пишет, что вот теперь Grok 4.1 Fast обошёл Gemini3 в использовании Агентских инструментов по версии artificialanalysis.ai

Картинка с анонсом лучшей модели крутится как карусель, короче.

Ждём еще что Qwen выпустит, что-то давно их не слышно.

#Grok #Gemini #Codex
———
@tsingular
😁31
На bothub.ru (рефералка) есть аж 40 моделей для бесплатного использования по API

Не благодарите )

Название / контекст / вывод
1. gpt-oss-20b:free - 131 072 / 131 072
2. gemma-3-27b-it:free - 131 072 / 43 253
3. gemini-2.0-flash-exp:free - 1 048 576 / 8 192
4. gemma-3-4b-it:free - 131 072 / 8 192
5. gemma-3n-e4b-it:free - 8 192 / 2 048
6. gemma-3-12b-it:free - 131 072 / 8 192
7. gemma-3n-e2b-it:free - 8 192 / 2 048
8. deepseek-chat-v3-0324:free - 131 072 / 54 067
9. deepseek-r1t-chimera:free - 163 840 / 54 067
10. deepseek-r1:free - 128 000 / 54 067
11. deepseek-r1-distill-llama-70b:free - 8 192 / 4 096
12. deepseek-r1-0528:free - 163 840 / 54 067
13. deepseek-r1t2-chimera:free - 163 840 / 54 067
14. deepseek-r1-0528-qwen3-8b:free - 131 072 / 43 253
15. qwen3-30b-a3b:free - 40 960 / 13 516
16. qwen-2.5-coder-32b-instruct:free - 128 000 / 10 813
17. qwen3-14b:free - 40 960 / 13 516
18. qwen3-4b:free - 128 000 / 13 516
19. qwq-32b-arliai-rpr-v1:free - 32 768 / 10 813
20. qwen3-coder:free - 262 144 / 262 000
21. qwen3-235b-a22b:free - 40 960 / 13 516
22. qwen2.5-vl-32b-instruct:free - 8 192 / 5 406
23. qwen-2.5-72b-instruct:free - 32 768 / 10 813
24. mistral-small-3.1-24b-instruct:free - 128 000 / 96 000
25. mistral-small-3.2-24b-instruct:free - 96 000 / 43 253
26. mistral-small-24b-instruct-2501:free - 32 000 / 10 813
27. mistral-7b-instruct:free - 8 192 / 16 384
28. mistral-nemo:free - 128 000 / 128 000
29. llama-3.2-3b-instruct:free - 4 096 / 43 253
30. llama-3.3-70b-instruct:free - 131 072 / 43 253
31. glm-4.5-air:free - 131 072 / 131 072
32. tongyi-deepresearch-30b-a3b:free - 131 072 / 131 072
33. longcat-flash-chat:free - 131 072 / 131 072
34. kimi-k2:free - 65 536 / 10 813
35. mai-ds-r1:free - 163 840 / 54 067
36. hermes-3-llama-3.1-405b:free - 131 072 / 43 253
37. dolphin-mistral-24b-venice-edition:free - 32 768 / 10 813
38. kat-coder-pro:free - 256 000 / 32 000
39. nemotron-nano-12b-v2-vl:free - 128 000 / 128 000
40. nemotron-nano-9b-v2:free - 128 000 / 42 240
1🔥62