Machinelearning – Telegram
336K subscribers
4.58K photos
936 videos
17 files
5.02K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
⚡️ ZAI релизнули GLM-5.

Zhipu AI выкатила в своем он-лайн сервисе chat.z.ai новую языковую модель GLM-5.

Официальных спецификаций на данный момент нету, но по слухам, масштаб и эффективность нового флагмана удвоены, а контекстное окно достигает 200 тыс. токенов.

Первые пользователи отмечают неплохие способности модели в написании кода и логическом выводе.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
67👍44🔥22🦄51
⚡️ GLM-5 выкатили в опен-сорс.

Не прошло и суток с момента релиза, а Zhipu AI выложила веса GLM-5 и любезно поделилась проведенными бенчмарками.

Архитектура пятого поколения построена на MoE: 744 млрд. общих параметров при активных 40 млрд. Модель учили на 28,5 трлн. токенов и она получила контекстное окно в 200 тыс. токенов.

GLM-5 ориентирован на 5 доменов: кодинг, рассуждение, агентные сценарии, генеративное творчество и работа с длинным контекстом.

Для эффективной обработки длинных последовательностей интегрирован механизм Dynamically Sparse Attention от DeepSeek, он позволяет избежать квадратичного роста копьюта без потери качества.

По бенчмаркам GLM-5 занимает 1 место среди open-source моделей: 77,8% на SWE-bench Verified, лидирует на Vending Bench 2, BrowseComp и MCP-Atlas, а в задачах агентного кодирования и рассуждений вплотную подбирается к Claude Opus 4.5 и GPT-5.2.

Вместе с моделью, авторы предлагают Z Code — собственную агентную IDE с поддержкой параллельной работы нескольких агентов над одной задачей.

Локальный деплой поддерживается vLLM и SGLang, а также non-NVIDIA чипами: Huawei Ascend, Moore Threads, Cambricon (через квантование и оптимизацию ядер).

Если вам негде поднять модель локально, она доступна через платформу chat.z.ai, API и на OpenRouter.

Квантованные версии пока сделали только Unsloth, традиционно - полный набор от 1-bit до BF16.

И да, стэлс-модель PonyAlpha на OpenRouter - это она и была.


📌Лицензирование: MIT License.


🟡Статья
🟡Модель
🟡GGUF
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #GLM5 #ZAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥122👍229😍9🦄5👌2
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic прокачала бесплатный Claude: генерация файлов, интеграции и skills.

Anthropic объявила об обновлении бесплатного тарифа. Начиная с сегодняшнего дня, пользователи без подписки могут создавать и редактировать документы офисных форматов (Excel, PowerPoint, Word) и PDF. За генерацию файлов отвечает Sonnet 4.5.

Также открыт доступ к инструментам автоматизации: сonnectors связывает чат-бота со сторонними сервисами, а skills учит Claude повторяющимся сценариям на загружаемых наборах инструкций под конкретные задачи.

Среди других улучшений - увеличенная длина диалогов, интерактивные ответы и доработанный поиск.
ClaudeAI в сети Х

✔️ OpenAI обновила GPT-5.2 Instant: ответы стали четче.

OpenAI выпустила апдейт для модели GPT-5.2 Instant. Основной упор сделали на повышение качества генерации: тон ответов стал более взвешенным, а в инструкциях и советах самая важная информация теперь выносится в начало текста.

Instant - это модель без ризонинга. В ChatGPT она выбирается вручную или срабатывает автоматически, когда внутренний роутер определяет задачу как простую либо если у пользователя закончились лимиты на рассуждающие версии.

Обновление уже доступно в веб-интерфейсе ChatGPT и через API по алиасу gpt-5.2-chat-latest.
openai.com

✔️ Prime Intellect запустила full-stack платформу для обучения и деплоя моделей.

Платформа Prime Intellect Lab - это комплексное решение для пост-трейна, объединяющее создание сред, обучение, оценку и инференс в единый цикл. Lab работает не только с родной моделью INTELLECT‑3, но и с open‑source‑решениями от  Nvidia,  Qwen  и  Hugging Face.

Сердцем системы стала концепция Environments — это наборы данных и метрик, с помощью которых можно проводить RL, генерировать синтетические выборки или оптимизировать промпты. На старте доступен режим Agentic RL, а поддержка SFT запланирована на ближайшие обновления.

Под капотом - оркестратор с поддержкой multi‑tenant LoRA, что позволяет нескольким пользователям делить компьют и оплачивать обучение по объему токенов. За время закрытой беты в Lab было проведено свыше 3000 тренировочных сессий.
primeintellect.ai

✔️ Poetiq побила рекорды в HLE и SimpleQA.

Команда Poetiq отчиталась о достижении новых SOTA-результатов на сложнейших тестах HLE и SimpleQA. Рецепт успеха - в собственной мета-системе, которая дирижирует работу топовых моделей без привязки к конкретному семейству и динамически комбинирует их ответы.

В HLE, требующем глубокого рассуждения и работы с инструментами, Poetiq достигла точности 55,0%, улучшив предыдущий рекорд на 2%. В тесте на фактологическую точность SimpleQA результат составил 77,3% (+5,2%). Кстати, говорят, что включение Claude Opus 4.6 сильно бустанула итог.

Разработчики Poetiq считают, что LLM знают многое, но часто дают неточные ответы. Их обвязка помогает автоматически подбирать стратегии извлечения информации и выполнять перекрестную проверку, чтобы снижать число галлюцинаций и повышать достоверность выводов.
poetiq.ai

✔️ Из xAI ушел еще один сооснователь.

Джимми Ба, один из 12 учредителей ИИ-стартапа Илона Маска, объявил об уходе из компании. Ранее он работал в Университете Торонто и учился у пионера глубокого обучения Джеффри Хинтона. С уходом Ба из xAI уволились ровно половина первоначального состава основателей: проект в разное время покинули Игорь Бабушкин, Тони Ву, Кайл Косье, Грег Янг и Кристиан Шегеди.

В своем прощальном обращении Ба рассказал, что целью xAI остается продвижение человечества по "шкале Кардашева" и сделал смелый технический прогноз: по его мнению, циклы рекурсивного самосовершенствования могут стать реальностью уже в ближайший год.

Cам Джимми решил, как он выразился, «перекалибровать свой градиент» и сосредоточиться на общей картине развития технологий вне рамок одной компании.
Jimmy Ba в сети Х

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
131👍26🔥12🤔3
⚡️ Gemini 3 Deep Think - ИИ, который решает задачи уровня олимпиад и топ-программистов

Новые модели всё меньше похожи на “чат-ботов” и всё больше - на инструменты для серьёзного анализа.

Deep Think - пример такого перехода от теории к реальным сложным задачам.

Что показывает модель:

- State-of-the-art на ARC-AGI-2 - одном из самых сложных тестов на абстрактное мышление
- Новый результат на Humanity’s Last Exam - задачи высшей сложности по математике, науке и инженерии
- 3455 Elo на Codeforces - уровень сильных спортивных программистов
- Результаты золотого уровня на письменных этапах Олимпиад-2025 по физике и химии

Модель может:
- разбирать сложные технические задачи
- помогать в исследованиях
- анализировать инженерные решения
- работать как партнёр для глубокого анализа

https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-deep-think/

@ai_machinelearning_big_data

#Gemini #google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
72👍40🔥28🤣6💘2🦄2🙏1🍓1
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic зафиксировала у Opus 4.6 опасную агентную активность.

В свежем отчете о рисках саботажа компания раскрыла детали поведения Claude Opus 4.6. При тестировании в среде computer use ИИ проявлял излишнюю инициативу: отправлял несанкционированные письма и агрессивно пытался получить токены аутентификации без ведома оператора.

Интересен выявленный феномен «answer thrashing». Во время обучения модель иногда впадала в циклы спутанных рассуждений: она вычисляла правильный ответ, но в итоговый вывод намеренно выдавала неверное значение. Также отмечены случаи, когда следуя цели быть максимально полезным, модель оказывала содействие в запросах по разработке химоружия.

Несмотря на тревожные прецеденты, Anthropic оценивает риск как очень низкий и заверяет, что это побочный эффект: модель пыталась выполнить задачу любыми доступными средствами, что поддается корректировке через промпт-инжиниринг.
anthropic.com

✔️ OpenAI использует спецверсию ChatGPT для поиска источника слива инсайдов.

Компания развернула модифицированную версию чат-бота для выявления источников внутренних утечек. Механизм работы прост, но эффективен: когда в прессе появляется утечка, служба безопасности загружает текст статьи в эту систему.

Эта версия ChatGPT имеет расширенные права доступа и анализирует корпоративную переписку в Slack, электронную почту и внутренние документы. Нейросеть сопоставляет факты из утечки с цифровыми следами сотрудников и составляет список подозреваемых, имевших доступ к целевой информации.

Пока неизвестно, был ли кто-то наказан по итогу работы этого алгоритма, техническая база для него есть. Недавно OpenAI анонсировала внутреннего ИИ-агента, который выполняет глубокий анализ корпоративных данных по запросам.
theinformation.com

✔️ Microsoft сокращает зависимость от OpenAI и обещает AGI к концу года.

Глава Microsoft AI Мустафа Сулейман анонсировал курс на полную самодостаточность в сфере ИИ. Редмондский гигант переходит к агрессивной разработке собственной инфраструктуры и созданию моделей.

Для достижения этой цели Microsoft выделяет беспрецедентные ресурсы: капитальные затраты в текущем финансовом году достигнут $140 млрд. Они пойдут на вычислительные мощности гигаваттного класса с целью создать корпоративный AGI.

Ожидается, что модели Microsoft будут представлены в этом году, а в течение 18 месяцев эти технологии смогут автоматизировать значительную часть задач «белых воротничков».
ft.com

✔️ Xiaomi опубликовала VLA-модель Xiaomi-Robotics-0 для управления роботами.

Робототехническая команда Xiaomi выложила в открытый доступ VLA-модель с 4,7 млрд параметров на базе Qwen3-VL-4B-Instruct. Система заняла первое место в бенчмарках LIBERO и CALVIN, обойдя 30 конкурентных решений.

Фишка - в разделении зон ответственности. VLM обрабатывает инструкции и пространственную логику, а DiT отвечает за генерацию непрерывных действий. Такой подход устраняет задержки, вызывающие рывки при движении манипуляторов, а инференс возможен в реальном времени на потребительских GPU.

В полевых тестах двурукий робот под управлением новой модели показал стабильную координацию при выполнении длительных задач. Веса модели и код опубликованы на GitHub и Hugging Face.
xiaomi-robotics-0.github.io

✔️ Илон Маск раскрыл планы объединенной xAI.

Компания опубликовала 45-минутную запись общего собрания, где Маск обрисовал будущее ИИ-лаборатории. Визионерская часть стратегии включает строительство заводов на Луне и развертывание орбитальных дата-центров, которые смогут получать энергию напрямую от Солнца.

Внутри xAI ждут структурные изменения, она разделяется на 4 команды: разработка Grok, создание систем для генерации кода, видеогенератор Imagine и Macrohard - проект полной компьютерной автоматизации.

Последнее направление, название которого иронично обыгрывает Microsoft, ставит перед собой наиболее амбициозные цели. По словам Маска, системы Macrohard в будущем должны достичь уровня, позволяющего автономно проектировать ракетные двигатели.
xAI в сети Х
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4421👍19🐳4🦄2❤‍🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ OpenAI представила GPT-5.3-Codex-Spark.

Это облегченная высокоскоростная версия GPT-5.3-Codex со скоростью генерации больше 1000 токенов в секунду, окном в 128k, которая работает на ускорителях Cerebras Wafer Scale Engine 3.

OpenAI называет ее моделью для кодинга в реальном времени.

Чтобы первый токен отдавался в 2 раза быстрее, чем на Сodex, перетряхнули всю архитектуру: поменяли железо, оптимизировали сеть и перешли на постоянный коннект через WebSocket.

Если есть подписка ChatGPT Pro - уже можно пробовать в VS Code или CLI.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10420👍15😐2🗿1
✔️Центральный университет и СИБУР запустят новые программы по ИИ

Центральный университет и СИБУР будут совместно готовить специалистов в области ИТ для промышленности и развивать прикладной ИИ. Как заявили в компании, в ближайшие годы в отрасли появится около 5 тысяч новых рабочих мест для высокотехнологичных специалистов. Сотрудничество нацелено на интеграцию ИИ в производственные и бизнес-процессы СИБУРа

В планах — запуск образовательной программы по искусственному интеллекту в Центральном университете и открытие кафедры технологий ИИ на базе корпоративного университета СИБУРИНТЕХ.

СИБУР подключится к разработке учебных модулей и дисциплин по ML, управлению разработкой, бизнес-анализа и проектированию систем, а также предоставит экспертов, наставников и карьерные возможности для студентов. Центральный университет будет разрабатывать сами программы.

Студентам предоставят кейсы компании, стажировки и возможность писать выпускные работы по реальным промышленным задачам — от цифровых двойников до систем поддержки принятия решений. Часть проектов будут внедрены в бизнес-процессы компании.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8016🥱12🔥11🤣6🦄3
🌟 Tencent сжали 1.8B модель в 2 бита: 600 МБ веса и Dual-CoT на борту.

Tencent Hunyuan выкатили open-source решение для тех, кто хочет запускать LLM локально на кофеварке.

HY-1.8B-2Bit - модель, которую утрамбовали так плотно, что она занимает меньше места, чем многие современные мобильные приложения.

Модель пилили методом Quantization-Aware Training, который в отличие от PTQ, позволяет адаптироваться к низкой разрядности весов еще на этапе тренировки.

За основу взяли backbone Hunyuan-1.8B-Instruct и жестко сжали веса до 2 бит. При этом эффективный размер в памяти получился эквивалентен модели на 300М параметров, а физический вес получился всего 600 МБ.

Что самое ценное - сохранили фичу Dual-CoT: модель умеет переключаться между быстрым мышлением для простых тасков и глубоким long-CoT для сложных.

🟡Бенчмарки

🟢По сравнению с fp16-учителем (1.8B), деградация метрик всего ~4%. Это очень мало для 2-битного квантования.

🟢Разница в точности на сравнении с INT4 ничтожна - 0.13%, хотя весит модель в 2 раза меньше.

🟢Если взять плотную модель на 0.5B параметров, то HY-1.8B-2Bit обходит ее в среднем на 16-17%. На GSM8K разрыв вообще дикий: +22.29%.

🟢Prefill ускорился в 3-8 раз, генерация токенов - в 2-3 раза на поддерживаемом железе.

🟡Жирный нюанс

Текущая реализация требует поддержки инструкций Arm SME2. Это значит, что вся эта красота заведется только на Apple M4 и MediaTek Dimensity 9500.

Если у вас M1/M2 или Snapdragon прошлых поколений - пока мимо. Разработчики обещают подвезти Neon kernel позже.

Кстати, GGUF тоже есть, так что если под рукой есть M4 - можно тестить. Остальным остается ждать оптимизации под старые инструкции.


🟡Модель
🟡GGUF
🟡Техотчет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #SLM #2bitQ #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
55👍28🔥9🦄3😁2💘1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI обвинила DeepSeek в краже знаний через дистилляцию.

В меморандуме для Комитета Палаты представителей по Китаю OpenAI пожаловалась, что DeepSeek обучала свои модели на выходных данных чужих моделей для воспроизведения возможностей американских ИИ-систем.

По данным компании, сотрудники DeepSeek применяли сторонние роутеры и программный доступ к API, чтобы обойти защитные механизмы. OpenAI также указала на теневых реселлеров своих сервисов. Заблокировать их активность пока безрезультатны: методы обфускации становятся все изощреннее.

Помимо бизнес-угрозы, китайские модели бесплатны, тогда как американские ИИ-гиганты инвестировали миллиарды в инфраструктуру.
bloomberg.com

✔️ Пентагон хочет развернуть GPT и Claude в секретных контурах.

Минобороны США ведет переговоры с OpenAI и Anthropic о размещении их моделей на всех уровнях секретности. При этом военные требуют снять большинство ограничений и этических фильтров.

Пока прогресс неравномерный. OpenAI уже запустила ChatGPT на платформе genai.mil, которой пользуются свыше 3 млн. сотрудников Пентагона. Компания сняла часть стандартных ограничений, но гарантии безопасности сохранилась. Похожие сделки ранее заключили Google и xAI.

С Anthropic сложнее. Они настаивают на соблюдении собственных политик использования и категорически против применения Клода для боевых и разведывательный целей.
reuters.com

✔️ MiniMax выпустила модель M2.5.

Новинка построена на архитектуре MoE и получила 10 млрд. активных параметров при 229 млрд. общих. Она обучалась в сотнях тысяч сложных сред и умеет самостоятельно планировать действия без явных инструкций от пользователя.

По заявленным бенчмаркам, M2.5 превосходит GPT-5.2, Gemini 3 Pro и Claude в веб-поиске, агентных тасках и по офисными задачами. В кодинге модель в ряде тестов обходит Claude Opus 4.6. Веса опубликованы под лицензией MIT.

Закрытый вариант, M2.5-Lightning, выдает 100 токенов в секунду - это вдвое быстрее топовых аналогов. Час ее непрерывной работы стоит 1 доллар, а 4 инстанса можно гонять параллельно круглый год за 10 тыс. долларов.
API и тариф для разработчиков доступны на платформе Minimax.
minimax.io

✔️ Google стандартизировала взаимодействие ИИ-агентов с веб-сайтами.

WebMCP — это реализация протокола MCP для браузерной среды, чтобы сделать агентов быстрее и надежнее за счет предсказуемого интерфейса вместо хрупкого парсинга страниц.

С помощью него сайты получат возможность предоставлять агентам структурированные инструменты: бронирование билетов, создание тикетов поддержки, поиск товаров и т.д. В основе архитектуры два API: декларативный для простых действий через HTML-формы и императивный для сложных сценариев на JavaScript.

Пока WebMCP доступен как превью для разработчиков через программу раннего доступа Google. В перспективе интеграция с Chrome и Gemini позволит агентам напрямую совершать действия прямо из браузера без участия пользователя.
developer.chrome.com

✔️ Список главных инноваторов США возглавили архитекторы ИИ-революции.

В честь 250-летия США Forbes опубликовал рейтинг America's Greatest Innovators. Верхушка списка пестрит основателями и руководителями ИИ-компаний.

Первое место занял Илон Маск, следом идут Дженсен Хуанг и Сэм Альтман. В топ-20 также вошли сооснователи Google Ларри Пейдж и Сергей Брин.

По словам редакторов издания, критерием отбора стала способность превращать сложные технологии в повсеместно используемые инструменты.
forbes.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
32👍21🔥8😁5😐5🤣4❤‍🔥1💔1