Machinelearning – Telegram
335K subscribers
4.59K photos
938 videos
17 files
5.03K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🌟 Tencent сжали 1.8B модель в 2 бита: 600 МБ веса и Dual-CoT на борту.

Tencent Hunyuan выкатили open-source решение для тех, кто хочет запускать LLM локально на кофеварке.

HY-1.8B-2Bit - модель, которую утрамбовали так плотно, что она занимает меньше места, чем многие современные мобильные приложения.

Модель пилили методом Quantization-Aware Training, который в отличие от PTQ, позволяет адаптироваться к низкой разрядности весов еще на этапе тренировки.

За основу взяли backbone Hunyuan-1.8B-Instruct и жестко сжали веса до 2 бит. При этом эффективный размер в памяти получился эквивалентен модели на 300М параметров, а физический вес получился всего 600 МБ.

Что самое ценное - сохранили фичу Dual-CoT: модель умеет переключаться между быстрым мышлением для простых тасков и глубоким long-CoT для сложных.

🟡Бенчмарки

🟢По сравнению с fp16-учителем (1.8B), деградация метрик всего ~4%. Это очень мало для 2-битного квантования.

🟢Разница в точности на сравнении с INT4 ничтожна - 0.13%, хотя весит модель в 2 раза меньше.

🟢Если взять плотную модель на 0.5B параметров, то HY-1.8B-2Bit обходит ее в среднем на 16-17%. На GSM8K разрыв вообще дикий: +22.29%.

🟢Prefill ускорился в 3-8 раз, генерация токенов - в 2-3 раза на поддерживаемом железе.

🟡Жирный нюанс

Текущая реализация требует поддержки инструкций Arm SME2. Это значит, что вся эта красота заведется только на Apple M4 и MediaTek Dimensity 9500.

Если у вас M1/M2 или Snapdragon прошлых поколений - пока мимо. Разработчики обещают подвезти Neon kernel позже.

Кстати, GGUF тоже есть, так что если под рукой есть M4 - можно тестить. Остальным остается ждать оптимизации под старые инструкции.


🟡Модель
🟡GGUF
🟡Техотчет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #SLM #2bitQ #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
65👍35🔥13🦄3😁2💘2🤷‍♀1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI обвинила DeepSeek в краже знаний через дистилляцию.

В меморандуме для Комитета Палаты представителей по Китаю OpenAI пожаловалась, что DeepSeek обучала свои модели на выходных данных чужих моделей для воспроизведения возможностей американских ИИ-систем.

По данным компании, сотрудники DeepSeek применяли сторонние роутеры и программный доступ к API, чтобы обойти защитные механизмы. OpenAI также указала на теневых реселлеров своих сервисов. Заблокировать их активность пока безрезультатны: методы обфускации становятся все изощреннее.

Помимо бизнес-угрозы, китайские модели бесплатны, тогда как американские ИИ-гиганты инвестировали миллиарды в инфраструктуру.
bloomberg.com

✔️ Пентагон хочет развернуть GPT и Claude в секретных контурах.

Минобороны США ведет переговоры с OpenAI и Anthropic о размещении их моделей на всех уровнях секретности. При этом военные требуют снять большинство ограничений и этических фильтров.

Пока прогресс неравномерный. OpenAI уже запустила ChatGPT на платформе genai.mil, которой пользуются свыше 3 млн. сотрудников Пентагона. Компания сняла часть стандартных ограничений, но гарантии безопасности сохранилась. Похожие сделки ранее заключили Google и xAI.

С Anthropic сложнее. Они настаивают на соблюдении собственных политик использования и категорически против применения Клода для боевых и разведывательный целей.
reuters.com

✔️ MiniMax выпустила модель M2.5.

Новинка построена на архитектуре MoE и получила 10 млрд. активных параметров при 229 млрд. общих. Она обучалась в сотнях тысяч сложных сред и умеет самостоятельно планировать действия без явных инструкций от пользователя.

По заявленным бенчмаркам, M2.5 превосходит GPT-5.2, Gemini 3 Pro и Claude в веб-поиске, агентных тасках и по офисными задачами. В кодинге модель в ряде тестов обходит Claude Opus 4.6. Веса опубликованы под лицензией MIT.

Закрытый вариант, M2.5-Lightning, выдает 100 токенов в секунду - это вдвое быстрее топовых аналогов. Час ее непрерывной работы стоит 1 доллар, а 4 инстанса можно гонять параллельно круглый год за 10 тыс. долларов.
API и тариф для разработчиков доступны на платформе Minimax.
minimax.io

✔️ Google стандартизировала взаимодействие ИИ-агентов с веб-сайтами.

WebMCP — это реализация протокола MCP для браузерной среды, чтобы сделать агентов быстрее и надежнее за счет предсказуемого интерфейса вместо хрупкого парсинга страниц.

С помощью него сайты получат возможность предоставлять агентам структурированные инструменты: бронирование билетов, создание тикетов поддержки, поиск товаров и т.д. В основе архитектуры два API: декларативный для простых действий через HTML-формы и императивный для сложных сценариев на JavaScript.

Пока WebMCP доступен как превью для разработчиков через программу раннего доступа Google. В перспективе интеграция с Chrome и Gemini позволит агентам напрямую совершать действия прямо из браузера без участия пользователя.
developer.chrome.com

✔️ Список главных инноваторов США возглавили архитекторы ИИ-революции.

В честь 250-летия США Forbes опубликовал рейтинг America's Greatest Innovators. Верхушка списка пестрит основателями и руководителями ИИ-компаний.

Первое место занял Илон Маск, следом идут Дженсен Хуанг и Сэм Альтман. В топ-20 также вошли сооснователи Google Ларри Пейдж и Сергей Брин.

По словам редакторов издания, критерием отбора стала способность превращать сложные технологии в повсеместно используемые инструменты.
forbes.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
165🔥46👍30🤣13😁7😐7🤔2💔2❤‍🔥1
📌 GPT-5 показал абсолютное следование закону в сравнении с судьями.

В Чикагской школе права воспроизвели классический тест поведенческой юриспруденции, заменив 61 федерального судью США моделью GPT-5.

Испытуемым нужно было рассмотреть гипотетическое дело о ДТП с 3 изменяемыми параметрами:

🟢тип правовой нормы (строгое правило или гибкий стандарт);

🟢место аварии: штаты Канзас или Небраска;

🟢симпатия к одной из сторон дела;

Канзас ограничивает компенсацию морального вреда суммой в 250 тыс. долларов, а Небраска — нет.


🟡Результаты

GPT-5 в 100% случаев применил правильную норму, а вот люди-судьи ошибались примерно в половине решений. Модель полностью игнорировала эмоции и субъективные факторы, включая человеческое нежелание применять высокие лимиты компенсации.

При этом ни люди, ни ИИ не меняли позицию из-за симпатии к истцу или ответчику. Разница проявилась в применении правовых стандартов, которые допускают интерпретацию.

Судьи часто предпочитали гибкость и ссылались на интересы справедливости. GPT-5 действовал строго по букве закона, используя доктрину наиболее значимых связей из Restatement of Conflict of Laws, не отклоняясь ни на шаг.

Restatement of Conflict of Laws — это свод рекомендаций, который помогает судьям решать, право какого штата нужно применить в деле, связанном с разными штатами. Это не закон, но суды используют его как руководство для единообразия и предсказуемости решений.


🟡Другие модели

Gemini 3 Pro показал те же 100%, Gemini 2.5 Pro набрал 92%, а Llama 4 Scout и GPT-4.1 работали хуже людей.

GPT-4o допускал человеческие ошибки, в том числе - попытки оправдать отступление от лимитов.

🟡Авторы задаются вопросом: идеально формальный судья: это хорошо или плохо?

С одной стороны, в ИИ есть внутренний элайнмент, не позволяющий модели отступать от норм. Плюс обучение содержит судебные решения, где судьи пишут, что следуют закону.

С другой, судьи-люди используют серые зоны, чтобы иногда добиться более справедливого исхода даже ценой нарушения формализма. А в судебных решениях они не признают влияние личных убеждений.


@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍99🤔5834🔥14👏12😐9👨‍💻7🤓4🥱2🌚2😁1
📌 AxiomProver доказала нерешенные математические гипотезы.

История началась с тупика, в который зашли математики Давей Чен и Квентин Жендрон. Пять лет назад они пытались разобраться в сложном разделе алгебраической геометрии, связанном с дифференциалами - элементами математического анализа, используемыми для измерения расстояний вдоль изогнутых поверхностей.

В ходе работы они зашли в тупик: их рассуждения опирались на странную формулу из теории чисел, но ни доказать ее, ни обосновать они не смогли. В итоге Чэнь и Жандрон опубликовали работу, в которой представили свою идею как гипотезу, а не как теорему.

Попытки Чена использовать ChatGPT для поиска решения оказались бесполезными - языковая модель просто не справлялись с задачей такого уровня абстракции.

Прорыв случился благодаря встрече Чена с Кеном Оно, известным математиком, работающим в Axiom. Узнав о проблеме, Кен загрузил исходные данные в систему AxiomProver.

К утру ИИ выдал готовое доказательство. Prover обнаружил связь между задачей Чена-Жендрона и числовым феноменом, впервые изученным еще в XIX веке. Затем система сама разработала доказательство и, что важно, самостоятельно его верифицировала.

По словам Кена Оно, алгоритм нашел то, что упустили все люди-эксперты, работавшие над темой. Результат оформили и опубликовали на arXiv и положили на Github.

AxiomProver представляет собой гибрид LLM и уникального движка для логического вывода с использованием языка формальной верификации Lean. Этот микс позволяет системе строить цепочки рассуждений, математическая корректность которых проверяется автоматически.


Подход напоминает систему AlphaProof от Google, но, по словам CEO Axiom Карины Хонг, они задействовали ряд новых техник, позволяющих выходить за рамки простого поиска по существующей литературе.

Еще более впечатляющим выглядит кейс системы с гипотезой Феля, касающейся сизигий - математических соотношений, в которых числа выстраиваются в алгебраические закономерности. Она опирается на формулы, впервые обнаруженные более 100 лет назад в записных книжках легендарного индийского математика Сринивасы Рамануджана.

В этом случае AxiomProver не просто заполнил недостающее звено - он разработал доказательство от начала до конца. Воспроизвести трек доказательства может любой желающий, код - на Github.

К слову, система буквально в январе этого года решила все 12 задач математической олимпиады Putnam, самого престижного конкурса для студентов бакалавриата.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍13238🔥24👏10🎉8🤩3💯2🤣1
Что на самом деле ждут от ML-инженера

Сегодня информации о требованиях к инженеру машинного обучения много, но в реальности ожидания работодателей сильно зависят от масштаба бизнеса, стадии продукта и задач команды. Поэтому между подготовкой кандидата и реальными требованиями иногда возникает разрыв — просто из-за разницы контекста.

На бесплатном вебинаре 18 февраля в 19:00 мск karpovꓸcourses разберут как все устроено на практике. Спикер — Максим Покусенко, руководитель ML-направления в MAGNIT TECH. Он расскажет, какие ML-проекты бывают в крупных компаниях, как оценивают кандидатов и какие навыки действительно имеют значение при найме.

Кроме того, у участников будет возможность узнать о карьерных возможностях в компании: в MAGNIT TECH для студентов karpovꓸcourses есть возможность пройти оплачиваемую стажировку на роль ML-разработчика в Департаменте по машинному обучению и искусственному интеллекту.

Переходите по ссылке и регистрируйтесь на вебинар, чтобы увидеть реальную картину изнутри: https://clc.to/erid_2W5zFJfxVoF

Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFJfxVoF
👨‍💻24👍2013😁12👏3👌3🥰2
🌟 Zvec: встраиваемая векторная база данных для RAG без внешних сервисов.

Alibaba открыла исходный код Zvec - встраиваемой векторной СУБД, которую авторы называют «SQLite для векторных баз данных».

Проект заточен на локальные RAG-пайплайны, семантический поиск и агентские сценарии на ноутбуках, мобильных устройствах или другом edge-железе.

Идея в том, что разворачивать отдельный сервер ради векторного поиска и фильтрации по метаданным избыточно. Zvec встраивается в процесс Python-приложения и не требует ни отдельного демона, ни сетевых вызовов.

Существующие решения не подходят для маломощных устройств: Faiss дает только ANN-индекс без скалярного хранилища и крэш-рекавери; DuckDB-VSS ограничен в опциях индексирования; Milvus и облачные векторные хранилища требуют сеть.


Под капотом - Proxima, векторный движок продакшен-уровня, который Alibaba сама использует в собственных сервисах. Поверх него сделали лаконичный Python API:

🟢полный CRUD и поддержка схем;

🟢поиск по нескольким векторам для комбинации разных эмбеддинг-моделей;

🟢встроенный реранкер с weighted и RRF;

🟢гибридный поиск (векторный + фильтры по скалярным полям) с инвертированными индексами.

Это позволяет собирать локальных ассистентов, которые одновременно используют семантический поиск, множественную фильтрацию и несколько эмбеддинг-моделей - все в одном движке.

По производительности Zvec заявляет победу на бенче VectorDBBench с датасетом Cohere 10M - более 8 000 QPS при сопоставимом реколле. Это вдвое больше, чем у лидера ZillizCloud и с более быстрым построением индекса.

Авторы объясняют успех глубокой оптимизацией под CPU: SIMD, кэш-эффективные структуры, многопоточность и prefetching.

Пока платформенная поддержка ограничена (Windows отсутствует), но для Linux x86/ARM64 и macOS Zvec уже готов к экспериментам на Python 3.10–3.12.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Документация
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #VDB #ZVEC #Alibaba
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65🤩39👏2418🔥17🌚14🌭14🙊13🕊12😘11😍10
⚡️Релиз Qwen3.5-397B-A17B

Это первый open-weight релиз в серии Qwen3.5.

Лицензия Apache 2.0.

Что интересного:

• Мультимодальная модель
Понимает текст и изображения

• Создана для AI-агентов
Оптимизирована для реальных задач: планирование, работа с инструментами, многошаговые действия.

• Новая архитектура
Hybrid Linear Attention + Sparse MoE + масштабное обучение с reinforcement learning.

• Высокая скорость
Заявлено что моделька примерно в 6- 9 раз быстрее, чем у предыдущей Qwen3-Max.

• Глобальная модель
Поддержка 201 языков и диалектов.

Модели такого уровня в открытом доступе:
- можно запускать AI у себя, без зависимости от API
- полный контроль над данными
- возможность строить собственных агентов и продукты
- снижение стоимости на масштабах

Qwen3.5-397B - реально в топе
Модель либо:

• на 1 месте,
• либо рядом с GPT-5.2 / Claude Opus 4.5 / Gemini 3 Pro почти во всех бенчмарках.

🟡GitHub: https://github.com/QwenLM/Qwen3.5
🟡Чат: https://chat.qwen.ai
🟡Hugging Face: https://huggingface.co/collections/Qwen/qwen35
🟡Блог: https://qwen.ai/blog?id=qwen3.5

@ai_machinelearning_big_data

#qwen #ai #llm #ml #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19128👍28🤩9🎉6👏5👌5🤣4❤‍🔥2💯1
Переходи в практический ML — и расти в грейде с AI Talent Hub, ИТМО.

Успей записаться на новый поток курса «Практическая ML-инженерия: MLOps и разработка проектов» от лучшего просветительского проекта в GenAI, по версии Generation Al Awards 2025 — AI Talent Hub чтобы:

📁 Освоить MLOps-стек:
DVC, Airflow, MLflow, ClearML, W&B, FastAPI, PyTest, Docker, GitLab CI — и вывести в прод свою ML-модель.
📁 Вырасти в грейде: обновить скилсет и перейти в практический ML
📁 Пройти весь путь создания ML-продукта: от идеи до рабочего ML-сервиса с поддержкой экспертов AI Talent Hub
📁 Получить диплом ДПО ИТМО государственного образца
📁 Поступить без экзаменов в магистратуру AI Talent Hub, на бюджет или контракт


Продолжительность: 5 месяцев
Формат: онлайн
Старт: 13 марта

Изучить программу и подать заявку

@aitalenthubnews

Реклама. Университет ИТМО ИНН:7813045547
🤩3016👍10🤣10💯5💅3🤬2🎉2🌭2
🚀 Ling-2.5-1T: новый open-source гигант

• 1 трлн параметров
• 63B активных
• MIT лицензия - можно использовать в продакшене

Что внутри:

Hybrid Linear Attention
Комбинация MLA (1:7) + Lightning Linear
- быстрее Kimi K2 на длинных контекстах

🧠 В 4 раза эффективнее по токенам
Composite rewards позволяют достигать уровня топ-моделей, используя в 4 раза меньше токенов

📚 Контекст до 1 млн токенов
YaRN scaling
— обходит Kimi K2.5 и DeepSeek V3.2 на тестах RULER и MRCR
— идеальные результаты в NIAH

🛠️ SOTA для агентных задач
Обучение через Agentic RL
Лидер BFCL-V4
Нативная интеграция с:
- Claude Code
- OpenCode
- OpenClaw

🎯 Чёткое следование инструкциям
Bidirectional RL + проверка агентом
Минимум «воды», максимум плотности ответа

Модель пока уступает GPT-5.2 и Gemini 3 Pro в долгих многошаговых задачах.

Open-source модели уже заходят на территорию enterprise-агентов.
Если нужен длинный контекст + инструменты + контроль над инфраструктурой - это один из самых интересных кандидатов прямо сейчас.

modelscope.ai/models/inclusionAI/Ling-2.5-1T
modelscope.cn/models/inclusionAI/Ling-2.5-1T

@data_analysis_ml
👍43🤩36😍23🐳20👨‍💻20🙈159💅7😎7🔥5🎉3
Media is too big
VIEW IN TELEGRAM
🤖 Десятки гуманоидных роботов G1 показали первое в мире полностью автономное групповое выступление в стиле кунг-фу.

Быстрые и синхронные движения вывели возможности роботизированной моторики на новый уровень и установили сразу несколько мировых рекордов.

Модель H2 также стала одной из главных звёзд шоу- робот появился на главной сцене в Пекине и на площадке в Иу в образе Царя Обезьян.

В тяжёлых доспехах он «летал на облаке», роль которого исполняли четвероногие роботы-собаки B2W, и с высоты поздравлял зрителей с Китайским Новым годом.

@ai_machinelearning_big_data

#Unitree #ai #Ml #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥134🤩43👏1714👍9🏆7🎉3👀1
Media is too big
VIEW IN TELEGRAM
✔️OpenClaw теперь часть OpenAI.

Австрийский разработчик, автор OpenClaw, объявил о переходе в OpenAI. В своем блоге Питер Штайнбергер объяснил решение тем, что строить большую компанию ему неинтересно, а OpenAI - это быстрейший путь к реальным изменениям.

По словам Сэма Альтмана, в компании Штайнбергер возглавит разработку персональных агентов нового поколения. OpenClaw при этом не исчезнет: проект передадут в фонд и откроют исходный код под поддержкой OpenAI.
Sam Altman в сети Х

✔️ ByteDance выпустила семейство моделей Seed2.0.

Линейка представлена в 3-х версиях: Pro, Lite и Mini, плюс отдельная модель для кодинга. Семейство получило мультимодальность: улучшена работа с документами, таблицами, графиками и видео. По бенчмаркам ByteDance, Seed2.0 Pro обходит GPT-5.2, Claude Opus 4.5 и Gemini 3 Pro в задачах на визуальную математику, логику и восприятие.

На олимпиадных тестах по математике и программированию Seed2.0 Pro показала результаты на уровне золотых медалей. На IMO - 35 из 42 баллов, На 5 соревнованиях ICPC - золото в каждом.

Модель уступает Claude в генерации кода, Gemini - в редких знаниях, а по склонности к галлюцинациям проигрывает обоим. Зато цена API кратно ниже: 47 центов за миллион входных токенов. Доступ к моделям — через чат-приложение Doubao и облачную платформу Volcano Engine.
bytedance.com

✔️ Anthropic открыла офис в Индии.

Компания запустила представительство в Бангалоре - втором азиатском офисе после Токио, открытого в октябре 2024 года. Офис сосредоточится на работе с индийскими стартапами и предприятиями в сферах образования и сельского хозяйства.

Об открытии объявили в день старта саммита AI Impact в Нью-Дели, собравшего более 250 тысяч участников. Компания намерена использовать площадку для переговоров с регуляторами и потенциальными партнёрами на индийском рынке.

Выручка Anthropic в Индии удвоилась с момента объявления о расширении в октябре 2025 года. Среди клиентов - крупные корпорации, цифровые компании и стартапы на ранних стадиях.
anthropic.com

✔️ Manus AI встраивает своего ИИ-агента в мессенджеры.

Первой платформой стал Telegram: пользователи любых тарифов могут подключить бота через QR-код за минуту, без API-ключей и настройки конфигов.

Агент в чате выполняет многошаговые задачи с тем же набором инструментов, что и веб-приложение: исследования, обработка данных, генерация отчетов и PDF. Поддерживаются голосовые сообщения, изображения и файлы — агент транскрибирует аудио, распознает намерение и возвращает результат в диалог.

На выбор предлагают 2 режима: Manus 1.6 Max для сложных задач с ризонингом и Manus 1.6 Lite для быстрых ответов и простых запросов. Стиль общения тоже настраивается — от лаконичного до подробного. Поддержку других платформ обещают в ближайшее время.
manus.im

✔️ GPT-5.2 помогла обнаружить неизвестное свойство глюонных взаимодействий.

OpenAI опубликовала препринт по теоретической физике, в котором описан тип взаимодействия глюонов, считавшийся невозможным - когда один глюон имеет отрицательную спиральность, а остальные положительную. Учебники десятилетиями утверждали, что такая амплитуда равна нулю.

Ключевую роль сыграла методология: человеческие расчеты давали громоздкие выражения, сложность которых росла сверхэкспоненциально. GPT-5.2 Pro упростила расчеты, выявила закономерность и предложила общую формулу для произвольного числа частиц.

Внутренняя версия модели потратила 12 часов на формальное доказательство, которое прошло проверку стандартными методами: рекурсией Берендса–Гиле и софт-теоремой.
openai.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
19👍14🔥7🤩7🎉3👏1🫡1