Анализ данных (Data analysis) – Telegram
Анализ данных (Data analysis)
47.1K subscribers
2.7K photos
306 videos
1 file
2.31K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
⚡️ Tencent официально представила HY 2.0 - крупное обновление своей базовой модели.

Модель построена на архитектуре Mixture of Experts с общим размером 406B параметров и 32B активных.
Модель поддерживает контекст 256K токенов. HY 2.0 демонстрирует заметные улучшения на ключевых бенчмарках.

Главные достижения HY 2.0:
🧠 Reasoning: результат 73.4 на IMO AnswerBench - почти плюс 20 процентов, что закрепляет модель среди лидеров по математическому и научному мышлению.
🛠 Coding и Agents: скачок в SWE Bench Verified с 6.0 до 53.0, а Tau2 Bench вырос с 17.1 до 72.4.
Instruction Following: более стабильное выполнение сложных инструкций и естественный стиль ответов.

Модель выпускается в двух вариантах:
• HY 2.0 Think - для глубокого рассуждения, генерации кода и сложных задач
• HY 2.0 Instruct - для диалога, креативного письма и многотуровых контекстных бесед


🌐 Website: https://hunyuan.tencent.com
🔗 API Access: http://hunyuan.cloud.tencent.com/#/app/modelSquare
📄 Documentation: https://cloud.tencent.com/document/product/1729/104753

@data_analysis_ml


#AI #Tencent #Hunyuan #HY2 #LLM #MoE #DeepLearning #AIModels
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
11👍7🔥3
⚡️ Essential AI объявила о выпуске своей первой открытой модели - Rnj-1, пары из базовой и instruct-версии на 8B параметров.

Rnj-1 демонстрирует сильные результаты в Кодине, математике и STEM-задачах.
На SWE-bench модель показывает 20.8% в Verified-режиме (bash-only) - выше Gemini 2.0 Flash и сопоставимо с GPT-4o.

Вместо brute-force команда делала ставку на дисциплинированное проектирование: качественную подготовку данных, продуманные оптимизации и исследовательские методики для выполнения кода, infill-генерации и рассуждений.

Модель обучалась на кластере TPU и AMD-GPU, увидела почти 8.7 триллиона токенов, и её качество продолжает расти.

В компании говорят, что это только начало: Essential AI (22 человека) строит долгосрочную исследовательскую программу с новыми моделями, методами и прорывами в pipeline.

Bloghttps://essential.ai/research/rnj-1
Modelhttps://huggingface.co/EssentialAI/rnj-1-instruct
Please open Telegram to view this post
VIEW IN TELEGRAM
6😁3👍2🥰1
Как становятся промт-инженерами:
😁3714👍6🔥6
Аналитик? Из какой секты?

Кто управляет вселенной формулами в Excel или…
Из тех, кто ручками собирает дашборды?

Как бы ни было — пора делегировать рутину иишкам.

Алексей Колоколов, аналитик с 15-летним стажем, решил наконец-то проверить:
какой ИИ реально работает в аналитике, а какой только косит под умного.

9 декабря он проведёт краш-тест на честных условиях:
один датасет, одинаковые требования, строгая методика оценки.

Участвуют: ChatGPT, DeepSeek и Claude.
Будет разбор слабых мест, промпты, live-сборка дашбордов — без прикрас.

Если хочешь понимать, на кого можно положиться в работе с отчётами — приходи.
Для своих — бесплатно.

👉 Ссылка тут. Подключайся и смотри как дашборды строят сами себя.

Реклама. ООО "АНАЛИТИКА ПЕРСОНАЛА", ИНН 6671088519
🔥3🥱1
🔥 fastmcpp - это C++ реализация протокола Model Context Protocol (MCP), обеспечивающая высокую производительность для серверов и клиентов MCP.

Поддерживает различные транспортные слои, включая STDIO, HTTP и WebSocket, с минимальным набором зависимостей.

🚀Основные моменты:
- Полная реализация протокола MCP (JSON-RPC).
- Поддержка нескольких транспортов: STDIO, HTTP, WebSocket.
- Интеграция с инструментами, совместимыми с MCP.
- Кроссплатформенность: Windows, Linux, macOS.
- Бета-версия с основными функциями, соответствующими Python-версии.

📌 GitHub: https://github.com/0xeb/fastmcpp

#cpp
👍96🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Трансформеры стали стандартом в NLP, но у большинства специалистов есть одна и та же проблема:

«Как их дообучать правильно и без хаоса в коде?»

📅 10 декабря в 18:00 МСК — открытый урок, на котором мы разберём:

Что происходит внутри трансформера
Как использовать предобученные веса
Как устроен fine-tuning и автоматизация с LLM
Как адаптировать BERT под свои задачи: классификацию, извлечение сущностей, анализ текстов

Вы поймёте, где граница между «слегка дообучить» и «сломать модель», научитесь избегать ошибок и ускорять работу с помощью современных инструментов.

🎓 Присоединяйтесь к открытому уроку курса «NLP / Natural Language Processing»: https://otus.pw/OrWr/?erid=2W5zFGBy5fN

🎁 Выберите обучение на ближайшие месяцы — и получите максимальную выгоду: один курс по тающей скидке до 20% или комплект из 2–3 курсов со скидкой 25–30%.

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
3👍3🤣1
🚀 Релиз GLM-4.6V!

• GLM-4.6V (106B) - старшая модель.
• GLM-4.6V-Flash (9B) — лёгкая, быстрая, отлично подходит для локального использования.

🔥 Что внутри:
Нативный multimodal tool calling -заточена на работу с изображениями и документами.
Контекст 128K - переваривает 150-страничные документы или часовые видео за один прогон
Visual → Action pipeline - мультимодальные агенты: “найди эту одежду онлайн” → возвращает структурированный список покупок
На 50% дешевле GLM-4.5V-— ~1$ за миллион входных токенов. (На ModelScope API можно использовать бесплатно.)

modelscope.cn/collections/GLM-46V-37fabc27818446
7👍4🔥3
🚀 Большое обновление Qwen Code v0.2.2–v0.3.0

Два ключевых обновления:

🎯 Stream JSON
--output-format stream-json — потоковый вывод
--input-format stream-json — структурированный ввод
• 3-уровневая архитектура адаптеров + управление сессиями
• Идеально для SDK, автоматизации и CI/CD

🌍 Полная интернационализация
• Встроенные интерфейсы EN/CN + расширяемые языковые пакеты
/language ui zh-EN - мгновенная смена языка
/language output English - задаём язык ответов модели
• Сообщество может добавлять свои локализации 🌏

🛡️ Безопасность и стабильность выросли
• Защита от переполнения памяти
• Починили кодировки Windows
• Улучшена кроссплатформенность и определение ripgrep
• Переработана авторизация и управление authType
• Стабильный CI/CD и исправленные интеграционные тесты
• Поддержка провайдера ModelScope и stream_options
• Улучшены подсказки, уведомления в терминале и логика завершения промптов
• Множество внутренних фиксов - заметно более стабильная работа 💪

https://github.com/QwenLM/qwen-code
👍96🔥5
Media is too big
VIEW IN TELEGRAM
🌪️ Game Changer: Вихри в симуляции текучей среды

Новая научная работа (Wang et al., SIGGRAPH 2025) совершила невероятный прорыв, решив одну из самых сложных проблем компьютерной графики и инженерных симуляций: долговременное и точное моделирование вихревых потоков (vorticity).

В чем проблема?

Вихри - это мельчайшие водовороты, которые определяют, как ведут себя газы и жидкости (дым, вода, воздух вокруг крыла самолета).

Точное моделирование их хаотичного поведения (турбулентности) критически важно, но чрезвычайно сложно:

- Сложность визуализации: Вихри часто невидимы (например, в воздухе), что требует сложных методов трассировки (как пузырьки или дым).

- Нестабильность симуляции: В большинстве прошлых методов вихри очень быстро разрушались, искажались или, в худшем случае, приводили к «взрыву» симуляции 💥 после нескольких шагов.

💡 Гениальное решение: «Частицы с памятью»
Исследователи возродили и обновили метод Vortex-in-Cell, используя гибридный подход, который наконец-то может справиться с хаосом:

- Сетка (Grid): Используется для расчета общей скорости и давления потока.
- Частицы (Particles): Внутри этой сетки размещаются частицы, которые действуют как «погодные зонды». Они несут в себе информацию о локальной ротации (вихревом потоке).
Сохранение «Травмы»: Главная хитрость: эти частицы «помнят» все растяжения и скручивания, которым они подверглись. Это позволяет вихрям оставаться четкими и стабильными, даже когда они взаимодействуют друг с другом и распадаются на более мелкие.

📈 Главный результат
Новый метод позволяет сохранять детализацию вихрей до 30 раз дольше, чем предыдущие, и впервые обеспечивает реалистичное моделирование таких сложных сцен, как:
🐋 Движение морского ящера в воде.
🌪️ Эволюция сложных узлов вихревых колец.
🚀 Выхлопные газы от ракеты или потоки воздуха вокруг сверхзвукового самолета.

🎯 Приложения
Эта беспрецедентная точность несет огромный потенциал:
- Прогнозирование Погоды: Более четкие и надежные модели ураганов и торнадо могут спасти жизни.

- Инженерия: Проектирование более тихих реактивных двигателей и аэродинамически эффективных автомобилей.

- Компьютерная Графика: Невероятно реалистичные спецэффекты для фильмов и игр!

Источник
11🔥6👍2
🚀 Вышел Qwen-Image-i2L от DiffSynth-Studio - первый open-source инструмент, который умеет делать LoRA-модель из одной картинки. 🖼️➡️🧠

Что можно извлекать из изображения:

🎨 Style — только стиль и эстетика
🧩 Coarse — стиль + содержание сцены
Fine — улучшение детализации 1024×1024 (используется вместе с Coarse)
⚖️ Bias — подстройка под фирменный визуальный почерк Qwen-Image

Модель построена на SigLIP2 + DINOv3 + Qwen-VL.

Итог — можно взять одну картинку и быстро натренировать под неё собственную LoRA, без больших датасетов.

🔗 ModelScope: modelscope.cn/models/DiffSynth-Studio/Qwen-Image-i2L/summary
💻 Код: github.com/modelscope/DiffSynth-Studio/blob/main/examples/qwen_image/model_inference_low_vram/Qwen-Image-i2L.py
🔥164👍4😢1
⚡️ Новый пост Andrej Karpathy : автоматическая оценка десятилетних обсуждений Hacker News с позиции «задним числом»

Он взял все 930 материалов и обсуждений с главной страницы Hacker News за декабрь 2015 года и прогнал их через GPT 5.1 Thinking API, попросив модель определить самые дальновидные и самые ошибочные комментарии.

Примерно 3 часа ушло на написание кода и ещё час и ~$60 - на запуск.

Почему это важно:

1. Анализ «задним числом»- мощный инструмент для тренировки собственного навыка прогнозирования. Чтение таких выводов помогает лучше понимать, где именно люди предугадывали будущее, а где промахивались.
2. Стоит задуматься, как будет выглядеть мир, когда будущие LLM смогут делать такие исследования намного дешевле, быстрее и точнее. Любой ваш комментарий в интернете может стать объектом глубокого анализа - бесплатно и в огромном масштабе. Как автор писал ранее: «будьте хорошими, будущие LLM за вами наблюдают».

🎉 Топ-10 аккаунтов: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth и johncolanduoni - GPT 5.1 Thinking признал их комментарии самыми точными и дальновидными в декабре 2015 года.

🔗 Полные материалы:

- Подробный разбор: karpathy.bearblog.dev/auto-grade-hn/
- Репозиторий проекта: github.com/karpathy/hn-time-capsule
- Готовые результаты: karpathy.ai/hncapsule/

@data_analysis_ml
🔥139👍6
🚀 Авито и getmatch запустили открытый тест для оценки уровня для DS-специалистов

Проект использует систему, на которой Авито проводит реальные интервью — с теми же принципами, форматами вопросов и логикой оценки 🧩

Что внутри:

📊 Определение уровня
Тест анализирует ответы и показывает предполагаемый грейд — от junior до senior — на основе компетенций и практических кейсов.

🧠 Разбор навыков
Даёт подсказки, какие области «проседают» и что стоит подтянуть, чтобы двигаться вверх по уровню.

💸 Ориентиры по рынку
Параллельно можно посмотреть, какие вилки сейчас встречаются у специалистов похожего уровня — это встроено через калькулятор getmatch.

Интересен сам формат: попытка собрать единый срез навыков и рыночных данных, но без собеседований, звонков и классического HR-скрининга.

➡️ Проверить свой уровень
11🔥2👍1🥴1
📘 Новая фундаментальная работа (65 страниц) от Stanford, Princeton, Harvard, University of Washington и других топ-университетов: впервые предлагается полная таксономия того, как современные агентные AI-системы адаптируются.

Главная идея:
Почти все сложные AI-агенты можно описать через всего 4 базовые типа адаптации - два связаны с обновлением самого агента, два других - с обновлением инструментов, которыми агент пользуется.

Что такое агентный AI:
Это большие модели, которые могут:
- вызывать инструменты,
- использовать память,
- выполнять задачи в несколько шагов.

Что такое адаптация:
Любое изменение агента или его инструментов на основе обратной связи, от проверки кода до человеческих оценок.

4 вида адаптации:

A1 - Agent Adaptation from Tool Execution
Агент обновляется на основе того, что произошло при вызове инструментов: код запустился или упал, поиск что-то нашёл или нет.

A2 — Agent Adaptation from Output Evaluation
Агент обновляется по оценкам качества своих итоговых действий: человеческим фидбеком, автопроверками ответов, качеством планов.

T1 - Tool Adaptation Independent of Agent
Инструменты обучаются отдельно, а агент остаётся “замороженным”. Например, заранее тренированный retriever или кодовый поисковик.

T2 - Tool Adaptation from Agent Signals
Агент остаётся фиксированным, но инструменты подстраиваются под его поведение — какие документы действительно помогли, какие подсказки улучшили выполнение задачи.

Почему это важно:
- Работа впервые системно упорядочивает методики адаптации агентных систем.
- Помогает понять компромиссы: стоимость обучения, гибкость, переносимость, модульные обновления.
- Показывает историю развития методов A1, A2 и T2, как они усложнялись и какие сигналы начали использовать.

Взгляд сводится к двум осям:
- можно менять агента,
- можно менять инструменты,
- а данные и фидбек служат топливом для обеих стратегий.

Эта таксономия помогает увидеть связи между десятками современных работ и понять, куда движутся агентные архитектуры нового поколения.

https://github.com/pat-jj/Awesome-Adaptation-of-Agentic-AI/blob/main/paper.pdf
3👍2🔥2