Machinelearning – Telegram
383K subscribers
4.44K photos
856 videos
17 files
4.88K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
📊 В топ-50 контрибьюторов NeurIPS 2025 Китай и США идут практически наравне.

В США произошёл сдвиг: корпоративные AI-лаборатории - Google DeepMind, Meta, Microsoft, теперь сопоставимы по вкладу с ведущими университетами вроде Stanford, CMU и MIT. Исследования всё заметнее смещаются в индустрию.

В Китае лидерами остаются академические центры: Tsinghua, CAS, Peking University, SJTU, HKUST. Сильные позиции держат также Сингапур (NUS, NTU), Корея (KAIST), ОАЭ (MBZUAI) и Канада (Mila).

Европа заметно отстаёт: в списке лишь Oxford, EPFL, ETH Zurich и TUM из стран ЕС-27.

👉 Источник

@ai_machinelearning_big_data

#NeurIPS
👍6419🔥8🎄1🗿1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Роботы GITAI самостоятельно и собрали 5-метровую конструкцию - фундамент будущих внеземных модулей.

Это пример того, как связка ИИ + робототехника начинает давать тот самый технологический скачок, на который долго рассчитывали: автономные системы, способные строить инфраструктуру без участия человека, открывают путь к базам на Луне, Марсе и орбите.


@ai_machinelearning_big_data

#robotics #AI #automation #spacetech #GITAI
👍124🔥5616❤‍🔥9🤩2🌭2🤗2🦄1
Внедряйте ИИ в бизнес-процессы и добивайтесь большего 💪

Сегодня нейросети помогают сотрудникам быстрее решать ежедневные задачи. Завтра — ИИ внедряют во все процессы компании и она выходит на новый уровень эффективности.

Научитесь решать стратегические задачи бизнеса с помощью нейросетей на курсе Нетологии «Руководитель проектов в области ИИ». Программу разработали вместе с МФТИ.

Это курс для опытных специалистов, где за 3,5 месяца вы:
🔹 разберётесь в принципах работы машинного обучения;
🔹 научитесь внедрять ИИ-решения в корпоративные системы;
🔹 получите опыт в управлении ИИ-проектами;
🔹 узнаете, как эффективно взаимодействовать с разработчиками и аналитиками.

Записывайтесь на курс, если хотите вывести ИИ-навыки на новый уровень. Есть скидки на обучение группы от 5 человек. Подробнее о программе

🎄Новогоднее чудо в Нетологии: семь курсов вместо одного. За покупку обучения в декабре дарим 6 программ о здоровье, осознанности и продуктивности

Реклама. ООО “Нетология” ОГРН 1207700135884 Erid: 2VSb5yXAfe1
11🤣10👍5🔥3🙈2🤗1🦄1
📌Адвент-календарь по ML и DL.

Towardsdatascience запустил декабрьский Адвент-календарь "Machine and Deep Learning", котором предлагает разобраться, что под капотом у ML-процессов.

Фреймворки, например scikit-learn, сделали нас ленивыми. Вызов model.fit стал настолько обыденным, что в эпоху Gen AI кажется, будто обучение модели -это просто подбор параметров.

ML-инженеры жонглируют моделями со сложностью, которая растет в геометрической прогрессии, но при этом они не всегда способны вручную пересчитать и объяснить результаты даже самых простых алгоритмов: линейной регрессии или классификатора.

Модели превратились в "черные ящики", и это огромная проблема, ведь знание, что стоит за каждой функцией, критически важно для понимания процесса.


Фишка в том, что весь материал разбирается в Excel. Звучит диковато, но в этом и есть гений. В отличие от кода, где операции скрыты за функциями, в Excel каждая формула, каждое число, каждый расчет - всё на виду. Никаких "черных ящиков".

Уже вышло 7 статей:

🟢День 1 : k-NN Regressor

🟢День 2 : k-NN Classifier

🟢День 4 : GNB, LDA и QDA

🟢День 5 : GMM (Gaussian Mixture Model)

🟢День 6 : Decision Tree Regressor

🟢День 7 : Decision Tree Classifier

Цикл поможет ответить на вопросы, которые часто остаются за кадром: как грамотно обрабатывать категориальные признаки, когда масштабирование не является правильным решением, и как измерять важность признаков, интерпретируя их напрямую с моделью, минуя модель-агностические пакеты LIME и SHAP.

Серия будет полезна студентам для осмысления формул, и менеджерам для понимания какой ML-метод необходим для бизнеса. А для разработчиков это шанс наконец-то понять теорию.

В общем, это маст-рид для тех, кто хочет перестать быть оператором библиотек и по-настоящему понять, как работает ML-движок.

🔜 Мониторить выход новых статей можно тут, обещают публикацию до конца декабря в формате "один день - одна статья".



@ai_machinelearning_big_data

#AI #ML #DL #Tutorial #Excel
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6925🔥14🥰4😁2🆒2🤗1🦄1
Media is too big
VIEW IN TELEGRAM
✔️ Релиз GLM-4.6V с нативной поддержкой вызова функций.

В линейку вошли флагманская GLM-4.6V на 106 млрд. параметров и облегченная GLM-4.6V-Flash (9B). Обе получили контекстное окно в 128k токенов и генерацию смешанного контента, где текст комбинируется с изображениями. Модель может передавать изображения и скриншоты во внешние инструменты без предварительной конвертации в текст, а также встраивать визуальные результаты обратно в цепочку рассуждений.

Обе модели уже на HuggingFace, доступны по API и в веб-версии.
z.ai

✔️ Стартап из шести человек обошел Google Gemini 3 в тесте на логику ARC-AGI.

Команда Poetiq заняла 1 место в полузакрытом бенчмарке ARC-AGI-2, набрав 54% правильных решений. Это позволило стартапу уверенно опередить гиганта индустрии: ранее Google отчитывалась о результате в 45% для Gemini 3 Deep Think.

ARC-AGI, разработанный исследователем Франсуа Шолле, считается одним из самых трудных испытаний для ИИ. Тест проверяет не просто знания, а способность к абстрактному мышлению и решению принципиально новых задач.

Успех Poetiq обеспечен не обучением новой модели, а эффективной оркестрацией уже существующих.
poetiq.ai

✔️ Соавтор архитектуры Transformer выпустил модель для кодинга Rnj-1.

Стартап Essential AI, основанный Ашишем Васвани, представил модель с открытыми весами Rnj-1. При размере всего в 8 млрд. параметров, она демонстрирует топовые результаты в SWE-bench Verified. Rnj-1 набрала 20,8 балла, тогда как аналогичная по размеру Qwen 3 (8B) достигла лишь отметки в 4,5.

В основе новинки лежит архитектура Gemma 3. Разработчики намеренно отказались от упора на пост-трейн и RL. Вместо этого, команда сфокусировалась на качественном предобучении с использованием оптимизатора Muon. Веса базовой и instrust-версии доступны на HF.
essential.ai

✔️ NVIDIA представила крупнейшее обновление CUDA с 2006 года.

Вместе с релизом CUDA 13.1 компания запускает виртуальный набор инструкций для "тайлового" параллельного программирования. Новая парадигма абстрагирует низкоуровневые детали железа, позволяя писать алгоритмы более высокого уровня. CUDA Tile дает возможность оперировать блоками данных, автоматически оптимизируя выполнение под конкретные тензорные ядра и архитектуру памяти.

Фундаментом технологии стал CUDA Tile IR - промежуточное представление, аналогичное PTX, но заточенное под матричные операции. Это обеспечивает кросс-платформенность: написанный код будет эффективно работать на разных поколениях GPU без глубокого рефакторинга.
developer.nvidia.com

✔️ Grok 4.20 обыграл топовые модели в биржевой торговле.

Завершилось соревнование Alpha Arena Season 1.5, где участникам давали по $10 тыс. для автоматической торговли акциями США в течение двух недель. Grok 4.20 не только вышел в плюс, заработав $4 844 (общая доходность 12%), но и существенно опередил конкурентов.

GPT 5.1, Gemini 3.0 Pro и Claude Sonnet 4.5 завершили тот же период с отрицательными результатами. В режиме "осведомленности" Grok показал доходность около 50%. Эксперты полагают, что решающим фактором стал прямой доступ модели к данным платформы X. Анализ постов в реальном времени позволил алгоритму точнее оценивать рыночные настроения и тренды.
nof1.ai

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5424🔥12❤‍🔥1🤗1🦄1
⚡️ «Норникель» выложил MetalGPT-1 - 32B LLM, обученную на миллионe закрытых технологических документов по металлургии и добыче.

Важно не только то, что это доменная модель. Важно каким типом данных её кормили.

Технологические протоколы, регламенты, НИОКР, строй- и проектная документация - это не тексты в привычном ML-смысле.

Это формализованные фрагменты производственного мира: язык процессов, цепочек, ограничений, рисков.
Обучая LLM на таком корпусе, компания фактически создаёт отдельный “data-reality layer”, который универсальные модели просто не видят. И в этом - главная новость.

Появляется новая парадигма: не “адаптируем GPT под домен”, а строим ИИ вокруг индустриального мира как первичного источника данных.

MetalGPT-1 - всего лишь первый пример. Дальше будут модели для химтеха, логистики, энергетики, строительства. У каждой отрасли — собственный язык, собственный датасет, собственная реальность.
И это значит, что domain-first LLM перестают быть экспериментом. Они становятся инфраструктурой.

https://huggingface.co/nn-tech

#llm #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍183🔥5520😁15🤗5🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Boston Dynamics показала работа Atlas, работающего на ИИ-мозге класса “Large Behavior Model”.

Робот выполняет полноценные складские задачи - например, укладывает коробки. Один модуль управляет всем: ходьбой, приседанием, подъёмом, балансом. Навыки не программировали вручную- Atlas научился им по демонстрациям человека.

Это шаг от «заранее прописанных движений» к автономному поведению: единая модель, способная учиться и выполнять сложные моторные задачи.

@ai_machinelearning_big_data

#ai #robots #BostonDynamics
👍67🔥2615👏3🦄2🤔1
🌟 GeoVista: модель для визуальной геолокации.

Tencent в коллаборации с ведущими китайскими университетами выложила в открытый доступ модель GeoVista, которая предлагает интересный подход к решению проблемы "где сделано это фото" - она делает ставку на активный майнинг данных из внешних источников.

Система на архитектуре Qwen2.5-VL-7B-Instruct использует 2 инструмента: функцию зума и поисковый движок, подтягивающий до 10 релевантных ссылок с платформ Tripadvisor, Pinterest и Wikipedia и социальных сетей.

Модель самостоятельно решает, в какой момент задействовать тот или иной инструмент, что, по сути, имитирует ход мыслей человека-расследователя.

GeoVista обучалась сначала (SFT) на 2 тыс. примерах, а потом (RL) уже на 12 тыс. примерах. Для балансировки RL собрали кастомную систему вознаграждений, привязанную к географической точности: правильный ответ на уровне города ценится выше, чем попадание в провинцию или страну.

Готовую модель прогнали на собственном бенчмарке GeoBench. На нем GeoVista показала 92,6% точности при определении страны, 79,6% региона и 72,7% - конкретного города.

Легче всего модели даются панорамы (79,5% точности на уровне города) и стандартные фото (72,2%), а вот спутниковые снимки остаются ахиллесовой пятой, здесь показатель падает до 44,9%.

Если сравнивать с закрытыми моделями, то GeoVista дышит в спину Gemini 2.5 Flash (73,3% на уровне города) и заметно обходит GPT-5, который показал лишь 67,1%. Лидером пока остается Gemini 2.5 Pro с результатом 78,98%, а вот другие открытые модели (Mini-o3-7B), безнадежно отстают с показателем 11,3%.

В метриках физического расстояния разрыв с топами ощутим сильнее. 52,8% предсказаний GeoVista попали в радиус 3 километров от реальной точки, при этом медианное отклонение составило 2,35 километра.

Для сравнения, Gemini 2.5 Pro укладывается в 3-километровую зону в 64,45% случаев с медианным отклонением всего в 800 метров. Даже GPT-5, проигравший в общей точности, показал медиану в 1,86 км.

Помимо модели, команда опубликовала и сам датасет GeoBench: 1142 изображения из 66 стран и 108 городов. В выборку вошли 512 обычных фотографий, 512 панорам и 108 спутниковых снимков.

Главное отличие этого набора от аналогов вроде OpenStreetView-5M - жесткая фильтрация. Разработчики намеренно удалили "нелокализуемые" изображения: крупные планы еды или типичные пейзажи без примет и слишком очевидные достопримечательности, чтобы исключить легкие победы для алгоритмов.


📌Лицензирование: Apache 2.0 License.


🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🟡Датасет
🖥Github


@ai_machinelearning_big_data

#AI #ML #LLM #GeoVista #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
29👍10🥰7🔥3🦄2😭1
⚡️ Mistral AI выпустила Devstral 2.

Компания представила сразу 2 версии модели для кодинга: флагманскую Devstral 2 (123 млрд. параметров) и облегченную Devstral Small 2 (24 млрд).

Старшая модель выбила 72,2% в бенчмарке SWE-bench Verified, закрепив за собой статус одного из лучших инструментов с открытыми весами.

Благодаря контекстному окну в 256k токенов, алгоритм способен удерживать в памяти структуру больших проектов и корректно управлять зависимостями.

Для локального запуска на GPU или CPU подойдет версия Small 2, опубликованная под лицензией Apache 2.0.

Старшая версия требует серьезного железа (от 4-х H100), но обещает быть до 7 раз экономичнее проприетарных аналогов уровня Claude Sonnet.

Вместе с моделями разработчики анонсировали утилиту Mistral Vibe CLI, которая позволяет внедрять ИИ-агентов непосредственно в терминал для автоматизации рефакторинга и оркестрации изменений сразу в нескольких файлах.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7225🔥16🦄4
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI наблюдает взрывной рост корпоративного ИИ.

Компания опубликовала отчет «The state of enterprise AI», который указывает на масштабную трансформацию бизнес-процессов под влиянием ИИ. База корпоративных клиентов превысила 1 миллион организаций, а число Enterprise-мест за год выросло в 9 раз.

Главным трендом стало качественное изменение сценариев использования: потребление ризонинг-токенов подскочило на 320%. Это говорит о том, что бизнес перешел от простых чат-ботов к решению многоступенчатых инженерных и аналитических задач.

Статистика выявила четкую корреляцию между глубиной погружения в технологии и продуктивностью. Сотрудники, использующие GPT-5 Thinking и Deep Research, экономят более 10 часов в неделю, при этом потребляя в 8 раз больше ресурсов модели, чем обычные пользователи. Особенно заметен разрыв в разработке: там генерируют код через ИИ в 17 раз активнее.
openai.com

✔️ Anthropic передала управление протоколом MCP в некоммерческий фонд.

Model Context Protocol передан организации Agentic AI Foundation, действующей в структуре Linux Foundation. Это стратегический шаг: технология универсального стандарта для подключения ИИ-моделей к внешним базам данных и инструментам, теперь гарантированно останется нейтральной и открытой. Соучредителями нового фонда вместе с Anthropic выступили OpenAI и Block, а поддержку инициативе оказывают Google, Microsoft и AWS.

За год существования MCP добился массовости: протокол используют ChatGPT, Gemini, Claude и VS Code, а число загрузок SDK превысило 97 млн. Переход под эгиду Linux Foundation ставит MCP в один ряд с Kubernetes и PyTorch. Теперь развитие стандарта будет определяться сообществом, что важно для создания совместимой экосистемы ИИ-агентов.
anthropic.com

✔️ Китай ограничит использование чипов Nvidia H200 вопреки разрешению на экспорт от США.

Власти КНР планируют ввести строгие ограничения на доступ и эксплуатацию Nvidia H200. Это решение готовится на фоне одобрения экспорта данных чипов со стороны администрации США. Несмотря на неожиданный «зеленый свет» из Вашингтона, Пекин демонстрирует осторожность в вопросах использования зарубежного железа.

Конкретные детали и механизмы новых барьеров пока не обнародованы. МИД Китая в ответ на запросы ограничился стандартным заявлением о важности взаимовыгодного сотрудничества, не прояснив судьбу поставок.
ft.com

✔️ Google выпустит умные очки с ИИ в 2026 году.

Google официально подтвердила планы по запуску линейки смарт-очков с ИИ в 2026 году. Техногигант намерен потеснить Марка Цукерберга на этом рынке, объединив усилия с Samsung, Warby Parker и корейским фешн-брендом Gentle Monster.

В разработке находятся 2 типа устройств. Первый вариант - оправа с аудиосистемой для голосового взаимодействия с ИИ, второй - модель с встроенными дисплеями для навигации и перевода в реальном времени. Чтобы сохранить вес и габариты на уровне обычных очков, инженеры решили перенести основную вычислительную нагрузку на сопряженный смартфон.
cnbc.com

✔️ Инженеры EPFL превратили панцири лобстеров в детали для биогибридных роботов.

В EPFL предложили неожиданное решение для робототехники: использование пищевых отходов в качестве готовых экзоскелетов. В рамках концепции, которую авторы назвали «робототехникой мертвой материи», панцири лобстеров перерабатываются в функциональные механические узлы.

Процесс создания био-гибридов состоит из заполнения оболочки мягким эластомером, установку приводов и покрытия конструкции силиконом, а природная структура панциря обеспечивает идеальный баланс прочности и гибкости. Опытные образцы смогли поднимать вес до 500 граммов и выполнять захват помидора без повреждений.

Инновация решает сразу две задачи: снижает стоимость производства и уменьшает углеродный след, превращая отходы в ресурсы.
news.epfl.ch


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4412🥰4🔥2