ChernovDev – Telegram
ChernovDev
1.29K subscribers
720 photos
40 videos
166 files
949 links
Эй ай и вот это вот всё. Qlik
https://chernovdev.ru/
https://vkvideo.ru/@chernovdev
Download Telegram
Forwarded from Datanomika (Alex Polorotov)
Qlik Cloud

В ближайшем обновлении добавят Templates для листов.

То есть можно создать шаблон структуры дашборда и переиспользовать его, делиться с командой
5
Forwarded from Datanomika (Alex Polorotov)
В 2026 будет релиз, в котором будет доступна команда агентов в Qlik cloud, которая будет работать со всеми запросами пользователя, конечно же через чат.

Нам даже показали демо, прикреплю позже.

Впечатление - 🔥🔥🔥
🔥1
Forwarded from Datanomika (Alex Polorotov)
MCP от Qlik
Рой агентов будет в Qlik Cloud.

Показали как работает - впечатляет.

Любой вопрос и он ходит по твоему tenant и использует данные, на лету строит диаграммы, если нет подходящей модели строит модель данных в своем самом быстром движке Qlik Associative Engine 😁
🔥5
1😁9🔥21
🆕 qlik_download : qlik_sense_desktop

📂 Qlik_Sense_Desktop_setup.exe (1014.11 MB)
📂 Qlik_Sense_Desktop_setup.exe.md5 (32.00 B)

🔎 tags: #qlik_sense_desktop #may_2025 #may_2025_patch_10 #qlik_sense_desktop_may_2025_patch_10

🔗️ release url

🕔 last update : 2025-11-12 13:13:09

✍️ by @chernovdev
🆕 qlik_download : qlik_sense_server

📂 Qlik_Sense_update.exe (625.93 MB)
📂 Qlik_Sense_update.exe.md5 (32.00 B)

🔎 tags: #qlik_sense_server #may_2025 #may_2025_patch_10 #qlik_sense_server_may_2025_patch_10

🔗️ release url

🕔 last update : 2025-11-12 13:11:25

✍️ by @chernovdev
🆕 qlik_download : qlik_sense_server

📂 Qlik_Sense_update.exe (759.40 MB)
📂 Qlik_Sense_update.exe.md5 (32.00 B)

🔎 tags: #qlik_sense_server #november_2024 #november_2024_patch_22 #qlik_sense_server_november_2024_patch_22

🔗️ release url

🕔 last update : 2025-11-12 13:12:16

✍️ by @chernovdev
Санкт-Петербург, пора на апдейт персонализации

27 ноября в новом ИТ-хабе Т-Банка пройдет T-Meetup: RecSys — встреча специалистов по рекомендательным системам и машинному обучению.

Поговорим о будущем персонализации и данных:

— как системы переходят от батчевых к онлайн-рекомендациям;
— как эластичность меняет подход к скидкам и лояльности;
— почему нейросети вытесняют бустинг в ранжировании.

После докладов от спикеров больших ИТ-компаний — нетворкинг и экскурсия по новому флагманскому ИТ-хабу Т-Банка в Санкт-Петербурге.

Успейте зарегистрироваться
🔥21
TRAE SOLO — релиз AI-агента для разработки
Эволюция от плагина к полноценному AI-инженеру. SOLO работает как отдельный агент, который оркестрирует браузеры, терминалы, редакторы и инструменты разработки.

Основные возможности:
— Builder и Coder: два режима работы. Builder быстро превращает идеи в продукты, Coder планирует и выполняет задачи с координацией под-агентов
— Работа с контекстом в реальном времени: объединяет терминал, редактор, документацию, браузер, интеграции и Figma в единое пространство
— Параллельная работа: можно запускать несколько агентов одновременно на разных задачах, каждый со своей моделью
— Голосовой ввод: можно общаться с агентом голосом, как с коллегой
— Визуальная обратная связь: расширяемый динамический вид справа показывает прогресс работы агента

SOLO планирует, выполняет и доставляет результат в едином потоке — от идеи до готового продукта.

https://www.trae.ai/solo

p.s. там 3 дня можно бесплатно тестировать!

#ai@chernovdev #coding@chernovdev #trae@chernovdev #trae@chernovdev
🔥2
datalens - всё? конец эпохи?
🤷‍♂1
Нас радует не только NVidia со своим DGX Spark, недавно AMD выкатили свой новый процессор - AMD Ryzen AI Max+395, который работает не хуже, но, что важно - он дешевле. Жаль только что макс памяти у него 128гб...

Для примера пару сборок с этим процессором и памятью (унифицированной) - 128 гб:

раз, два по цене до ~230к рублей на озоне (может есть и другие сборки - особо не искал)

Что дает нам этот проц? Конечно! Запуск локальных LLM моделей, например gpt-oss-120b, со скоростью ~30+ токенов / секунду
Тоже самое выдает и DGX Spark - но стоит он в 2 раза дороже (в РФ продажи стартуют от 480к+, не знаю включена там таможня или нет)

Именно про этот процессор есть уже тесты, причем отличные, но только в красном видео, с подробным разбором: https://www.youtube.com/watch?v=pHB3-9AG6tw

Фото из видео на постере

P.S. я лично опять жду китайцев, они там бахнули (вчера) оптический квантовый - чип (пока это проект и только для датацентров), но чувствую скоро каждый у себя сможет дома запускать за разумные деньги модельки даже мощнее и существенно дешевле

ну и напомню еще есть cerebras - который выдает немыслимые 1,7к+ токенов в секунду (опять же пока для датацентров)

#gptoss #amd #ai #cerebras
1
«Круги Громова» представили новое исследование российского рынка ETL 2025

Как компании сегодня решают задачу импортозамещения в области интеграции данных? Какие отечественные ETL-решения уже готовы заменить западные продукты — и даже превзойти их?

В новом исследовании «ETL Круг Громова 2025»:
🔹 Сравнение российских ETL-платформ с Apache Airflow и NiFi.
🔹 Подробный анализ функциональности и производительности отечественных решений, включая Modus ETL, Dat. ax, Loginom, PolyAnalyst, DATAREON Platform, Luxms Data Boring и другие.
🔹 Ключевые тренды 2025 года: ELT, Reverse ETL, CDC, Streaming, ZeroETL, AI-автоматизация.
🔹 Более 200 критериев оценки ETL-решений для корпоративного сектора — от архитектуры и безопасности до поддержки 1С и отечественных облаков.
🔹 Результаты выполнения вендорами тестового задания по загрузке 40 млн строк данных.

📘 Полный отчёт доступен на сайте проекта «Круги Громова» — скачать бесплатно! Сохраните себе актуальную карту российского рынка ETL-решений 2025 года.
😁1
SurfSense — это open‑source альтернатива NotebookLM, Perplexity и Glean: AI‑агент для исследований, который подключается к вашим личным источникам (поисковые движки, Slack, Linear, Jira, ClickUp, Confluence, Notion, Gmail, YouTube, GitHub, Discord, Airtable, Google Calendar, Luma, Elasticsearch и другие).​

Для тех, кто проспал последний год, NotebookLM — это сервис Google, где вы загружаете свои документы, и AI (Gemini) помогает вам суммировать, отвечать на вопросы, создавать FAQ, учебные материалы и подкасты, опираясь только на ваши источники.​

Что делает SurfSense:
🟣 Поддерживает 100+ LLM (включая локальные Ollama) и 6000+ моделей эмбеддингов.​
🟣 Продвинутый RAG: иерархические индексы (2‑уровневый), гибридный поиск (семантический + полнотекстовый), ранжирование (Pinecone, Cohere, Flashrank).​
🟣 Подкаст‑агент: создаёт 3‑минутный подкаст менее чем за 20 секунд, поддерживает локальные TTS (Kokoro) и облачных провайдеров.​
🟣 Поддержка 50+ форматов файлов (PDF, DOCX, видео, аудио, email и т.д.).​
🟣 Self‑hostable: можно поднять через Docker Compose или вручную.​

Быстрый старт:
🟣 git clone https://github.com/MODSetter/SurfSense
🟣 Скопируйте .env.example в .env, добавьте API‑ключи (OpenAI, Tavily и т.д.).
🟣 docker compose up -d
🟣 Откройте http://localhost:3000

Где попробовать:
GitHub: https://github.com/MODSetter/SurfSense
Сайт: https://surfsense.com
Discord: https://discord.gg/ejRNvftDp9

Технический стек: FastAPI, PostgreSQL (pgvector), LangGraph, LangChain, Celery, Redis, Next.js 15, React 19, TypeScript, Docker.

@prog_tools
Media is too big
VIEW IN TELEGRAM
🔥5🤨1
С выходом Gemini3 тут такая чехарда началась.

- OpenAI срочно выпустил обновление GPT Codex 5.1 и он теперь Max.
Предыдущий кодекс устарел за пару недель.
- Маск тут же пишет, что вот теперь Grok 4.1 Fast обошёл Gemini3 в использовании Агентских инструментов по версии artificialanalysis.ai

Картинка с анонсом лучшей модели крутится как карусель, короче.

Ждём еще что Qwen выпустит, что-то давно их не слышно.

#Grok #Gemini #Codex
———
@tsingular
😁31
На bothub.ru (рефералка) есть аж 40 моделей для бесплатного использования по API

Не благодарите )

Название / контекст / вывод
1. gpt-oss-20b:free - 131 072 / 131 072
2. gemma-3-27b-it:free - 131 072 / 43 253
3. gemini-2.0-flash-exp:free - 1 048 576 / 8 192
4. gemma-3-4b-it:free - 131 072 / 8 192
5. gemma-3n-e4b-it:free - 8 192 / 2 048
6. gemma-3-12b-it:free - 131 072 / 8 192
7. gemma-3n-e2b-it:free - 8 192 / 2 048
8. deepseek-chat-v3-0324:free - 131 072 / 54 067
9. deepseek-r1t-chimera:free - 163 840 / 54 067
10. deepseek-r1:free - 128 000 / 54 067
11. deepseek-r1-distill-llama-70b:free - 8 192 / 4 096
12. deepseek-r1-0528:free - 163 840 / 54 067
13. deepseek-r1t2-chimera:free - 163 840 / 54 067
14. deepseek-r1-0528-qwen3-8b:free - 131 072 / 43 253
15. qwen3-30b-a3b:free - 40 960 / 13 516
16. qwen-2.5-coder-32b-instruct:free - 128 000 / 10 813
17. qwen3-14b:free - 40 960 / 13 516
18. qwen3-4b:free - 128 000 / 13 516
19. qwq-32b-arliai-rpr-v1:free - 32 768 / 10 813
20. qwen3-coder:free - 262 144 / 262 000
21. qwen3-235b-a22b:free - 40 960 / 13 516
22. qwen2.5-vl-32b-instruct:free - 8 192 / 5 406
23. qwen-2.5-72b-instruct:free - 32 768 / 10 813
24. mistral-small-3.1-24b-instruct:free - 128 000 / 96 000
25. mistral-small-3.2-24b-instruct:free - 96 000 / 43 253
26. mistral-small-24b-instruct-2501:free - 32 000 / 10 813
27. mistral-7b-instruct:free - 8 192 / 16 384
28. mistral-nemo:free - 128 000 / 128 000
29. llama-3.2-3b-instruct:free - 4 096 / 43 253
30. llama-3.3-70b-instruct:free - 131 072 / 43 253
31. glm-4.5-air:free - 131 072 / 131 072
32. tongyi-deepresearch-30b-a3b:free - 131 072 / 131 072
33. longcat-flash-chat:free - 131 072 / 131 072
34. kimi-k2:free - 65 536 / 10 813
35. mai-ds-r1:free - 163 840 / 54 067
36. hermes-3-llama-3.1-405b:free - 131 072 / 43 253
37. dolphin-mistral-24b-venice-edition:free - 32 768 / 10 813
38. kat-coder-pro:free - 256 000 / 32 000
39. nemotron-nano-12b-v2-vl:free - 128 000 / 128 000
40. nemotron-nano-9b-v2:free - 128 000 / 42 240
1🔥62
GigaAM-v3: новый уровень качества, пунктуация, нормализация

➡️ GitHub | HuggingFace | GitVerse

В прошлом году мы открыли семейство моделей GigaAM, после чего значительно улучшили качество благодаря подходу HuBERT-CTC во второй версии. Основными запросами сообщества оставались поддержка пунктуации в наших моделях, а также улучшение на сложных срезах данных. Сегодня мы рады представить следующий большой релиз — GigaAM-v3.

Что публикуем
🔘GigaAM-v3 — foundation audio encoder (база для дообучения).
🔘GigaAM-v3-CTC — улучшенная CTC модель распознавания, быстрый инференс
🔘GigaAM-v3-RNNT — улучшенная RNNT модель распознавания, лучшее качество
🔘GigaAM-v3-e2e-CTC — распознавание с пунктуацией и нормализацией, быстрый инференс
🔘GigaAM-v3-e2e-RNNT — распознавание с пунктуацией и нормализацией, максимальное качество

Пример e2e-вывода: В твоём каталоге есть первая серия сезона 14 «Где логика»?

Что нового в v3
🔘Масштаб предобучения: 50k → 700k часов аудио на русском языке.
🔘Новые домены в обучении ASR: колл-центр, музыкальные запросы, речь с особенностями, разговорная речь (суммарно 2k часов).
🔘Для всего корпуса обучающих данных восстановлены пунктуация и нормализация при помощи GigaChat Max Audio.
🔘Линейка CTC/RNNT + e2e — выбирайте скорость или максимум качества под свой сценарий.

Метрики
🔘 Открытые датасеты (Golos, OpenSTT, Common Voice, LibriSpeech): паритет с GigaAM-v2.
🔘 Новые домены (WER, v2-RNNT → v3-RNNT):
• речь с особенностями 27% → 19%
• колл-центр 13% → 10%
• спонтанная речь 10.3% → 7%
🔘 Пунктуация: v3-e2e-RNNT vs reference + Whisper Forced Decoding — F1-score по запятой 84% vs 62%, остальные знаки ~паритет.
🔘 Side-by-Side (Gemini 2.5 Pro as a judge): v3-e2e-RNNT vs Whisper-large-v3 — 70:30 (колл-центр), 64:36 (Common Voice).


Более качественные модели распознавания того же класса эксклюзивно доступны в наших умных устройствах, а также могут быть бесплатно использованы на повседневной основе с помощью бота @smartspeech_sber_bot.

Совсем скоро выйдет пост на Хабр, где мы поделимся подробностями обучения и оценки качества. Не пропустите!
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓1
Forwarded from GigaChat
🔥МЫ ПРЕДСТАВЛЯЕМ КРУПНЕЙШИЙ OPEN-SOURCE AI В ЕВРОПЕ 🔥

Мы стремимся не замыкаться в «закрытой» технологии, а строить открытую платформу для всей страны, поэтому мы публикуем веса наших моделей.

Что появилось в открытом доступе ↓

🔷 GigaChat Ultra Preview
Самая мощная модель Сбера. Лучше DeepSeek V3.1 и GigaChat Max 2 в русскоязычных задачах. Подходит для бизнеса, аналитики, разработки и дообучения на своих данных
GitHub | HuggingFace |GitVerse

GigaAM-v3
5 моделей, которые превращают голос в текст с пунктуацией, понимают акценты, спонтанную речь и даже музыкальные запросы. Подойдут для голосовых ассистентов, контакт-центров, аналитики звонков
GitHub | HuggingFace | GitVerse

🔷 GigaChat Lightning
Лёгкая, компактная и быстрая. Конкурирует с Qwen3-4B, по скорости сравнима с Qwen3-1.7B, но намного умнее и больше по параметрам
GitHub | HuggingFace |GitVerse

🔷 Kandinsky 5.0
Создание фото и видео по тексту. Внутри:
• Image Lite — делает изображения в HD, отлично понимает русский язык и культурный контекст
• Video Pro — создаёт до 10 секунд реалистичного HD-видео. Конкурирует с топовыми мировыми моделями
• Video Lite — облегчённая версия для домашней видеокарты (от 12 ГБ)
➡️ GitHub | GitVerse | Hugging Face | Технический репорт

🔷 K-VAE 1.0
Ускорение генеративного AI. Это технологии, которые «упаковывают» картинки и видео в скрытое пространство, чтобы модели работали быстрее и требовали меньше ресурсов. Лучшие среди открытых аналогов
➡️ GitHub|Hugging Face


Код и веса этих всех моделей теперь доступны всем пользователям по лицензии MIT, в том числе для использования в коммерческих целях.
Please open Telegram to view this post
VIEW IN TELEGRAM
14