Machinelearning – Telegram
382K subscribers
4.43K photos
851 videos
17 files
4.87K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
⚡️ Как линейная регрессия помогает решать задачи в AI и аналитике

Недавно увидел крутой разбор линейной регрессии — и наконец понял, что она нужна не только тем тем, кто работает с большими данными. Метод применяется в реально жизненных кейсах. Например, с ним можно:

✔️ прогнозировать спрос и цены на продукты
✔️ измерять эффект от запуска фич
✔️ быстро собирать базовые ML-модели

Эти карточки я взял в канале «Зачем мне эта математика». Там такие темы разбирают наглядно: показывают графики, раскладывают формулы по шагам и связывают всё это с кейсами из аналитики и разработки.

А ещё там рассказывают много неожиданных фактов и каждую неделю публикуют задачи. В комментах можно обсудить вопросы и задать вопросы редакции.

Так что если хотите влюбиться в математику и понять, как устроены технологии вокруг нас — подписывайтесь и следите.

Реклама. ООО «ФРОМ СКРЭТЧ», ИНН 9724205560, erid: 2Vtzqxf17nH
😁3319👍13🙈6🥰3🦄3
🌟 MedSAM-3: адаптация SAM 3 для медицины.

MedSAM-3 - исследовательский проект, который переносит возможности сегментации по текстовым запросам из общего домена в медицинский.

Несмотря на мощь оригинальной SAM 3, тесты показали ее слабую применимость к клиническим данным: базовая модель часто путает анатомические структуры и не понимает специфические термины.

MedSAM-3 решает эту проблему, позволяя врачам выделять объекты на снимках МРТ, КТ, УЗИ и гистопатологии с помощью естественного языка. Например, по запросу «сегментируй опухоль молочной железы».

В основе - дизайн SAM 3 с двойным трансформером. На обучении заморозили энкодеры изображений и текста, чтобы сохранить сильные визуальные приоритеты оригинала, а вот компоненты детектора прошли SFT на медицинских датасетах. Это позволило сохранить мощный базис оригинальной SAM 3, но добавить ей понимание медицинской специфики.

В посттрейн-тестах наилучшую производительность показала конфигурация MedSAM-3 T+I, где текстовые подсказки были объединены с ограничивающими рамками. Такой подход позволил тестовой модели обойти классический U-Net и первую версию MedSAM на бенчмарках BUSI (Dice score - 0.7772) и Kvasir-SEG.

🟡Помимо самой модели, разработчики собрали агентный фреймворк MedSAM-3 Agent.

Он использует мультимодальную LLM (в экспериментах - Gemini 3 Pro) в качестве планировщика, который анализирует запрос, выстраивает цепочку рассуждений и итеративно управляет процессом сегментации.

В эксперименте c Gemini 3 Pro, на том же тестовом наборе BUSI, метрика Dice выросла с 0.7772 до 0.8064.

⚠️ Проект пока на стадии техотчета, но разработчики обещают опубликовать код и веса модели в ближайшее время. Так что тем, кто занимается ИИ в медицине - рекомендуем следить за репозиторием на Github.


📌Лицензирование: Apache 2.0 License.


🟡Arxiv
🖥Github


@ai_machinelearning_big_data

#AI #ML #Segmentation #MedSAM3
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥54👍2016💋5🥰3🤔2🦄2🗿1
🚀 GELab-Zero - первый полноценный open-source стек “Model + Infra” для GUI-агентов.

Это открытая альтернатива закрытым системам уровня GUI Agent MCP: готовая модель, готовая инфраструктура и новый бенчмарк, собранный под реальные задачи.

Что внутри:

• SOTA-модель 4B - лёгкая, быстрая, запускается локально.
• One-Click инфраструктура - без ADB и сложных зависимостей.
• AndroidDaily - новый бенчмарк, основанный на рабочих пользовательских сценариях.

Производительность:

• Лучшие результаты на открытых тестах - модель обходит гораздо более крупные системы вроде GUI-Owl-32B на ScreenSpot, AndroidWorld и OSWorld.
• 73.4% точности на AndroidDaily - существенно выше, чем UI-TARS-1.5 (47%), Gemini-2.5-pro-thinking (36.6%) и GPT-4o (19.6%).

Идея простая: скачивайте, запускайте локально, ломайте, улучшайте.
Открытый стек для GUI-агентов наконец доступен.

🟠HuggingFace: https://huggingface.co/stepfun-ai/GELab-Zero-4B-preview
🟠GitHub: https://github.com/stepfun-ai/gelab-zero
🟠Blog: https://opengelab.github.io/index.html

@ai_machinelearning_big_data

#AI, #Agents, #GUIAgents, #GELabZero, #OpenSource, #MachineLearning, #DeepLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
39👍19🔥10🥱3🦄1
⚡️ KlingAI запустит новую омни-модель на этой неделе.

Kling AI — это сервис для генерации видео китайской компании Kuaishou (Kwai). Наибольшую известность он получил как аналог OpenAI Sora, способный создавать по текстовому описанию видеоролики с поддержкой консистентности персонажей и продвинутыми инструментами.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍28🔥20🥰4👏21🦄1
🚀 Релиз DeepSeek-V3.2 и DeepSeek-V3.2-Speciale - модели нового поколения, созданные в первую очередь для reasoning и работы в агентных системах.

Что нового:
- DeepSeek-V3.2 - официальный преемник V3.2-Exp. Доступна в приложении, на сайте и через API.
- DeepSeek-V3.2-Speciale - улучшенная версия с акцентом на продвинутое многошаговое рассуждение. Пока что работает только через API.

Обе модели делают упор на глубокие цепочки рассуждений и поведение, нацеленное на агентные сценарии: планирование, решение задач, сложные выводы и работу со структурированными данными.

🏆 Производительность

• V3.2 - баланс скорости и качества, уровень примерно GPT-5
• V3.2-Speciale - топовый reasoning, конкурирует с Gemini-3.0-Pro.
• Speciale - лидер на IMO, CMO, ICPC.

🤖 Новый подход к обучению агентов

• Синтезированы большие тренировочные данные для 1800+ сред и 85k сложных инструкций.
• V3.2 - первая модель DeepSeek, у которой мышление встроено прямо в tool-use.

💻 API

• V3.2 использует тот же интерфейс, что V3.2-Exp.
• Speciale доступна через временный endpoint, работать будет до 15 декабря 2025.

📦 DeepSeek-V3.2 Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2
📦 DeepSeek-V3.2-Speciale Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
📄 Tech report: https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf

@ai_machinelearning_big_data

#deepseek, #deepseekv3, #ai, #нейросети, #искусственныйинтеллект, #llm
56🔥24👍17🦄2👏1
🚨 95% внедрений ИИ проваливаются. Почему это происходит и как не оказаться среди них?

Статистика с полей внедрения ИИ продолжает поражать неподготовленные умы. MIT (Massachusetts Institute of Technology) пишет, что только 5% инициатив приносят измеримую пользу. Benedict Evans тушат огонь бензином добавляют: 50% (половина, Карл!) компаний просто бросает попытки.

Почему?

Большинство компаний искренне верит, что для успеха достаточно подключить LLM. Помните Незнайку на Луне? Сделаем ракету 🚀– полетим на Марс! Ну или выберем модель, подключим API, сделаем агента – и Великий Волшебный ИИ всё сделает за нас.

А на практике всё ломается не на стороне моделей, а на:

● сопротивлении людей (ИИ заберёт мою работу! 😨)
● неподготовленном ИТ-ландшафте
● бардаке в процессах

Другими словами, дело не в технологиях. Модели уже достаточно зрелые. Они работают. Но они не решают базовые вопросы: какую задачу выбрать? как встроить ИИ в процессы? что делать с людьми? как посчитать эффект? кто будет этим управлять? что делать дальше?

Что дальше?

Чтобы выйти из категории «95% провалов» и попасть в те самые 5% компаний, которые действительно получают бизнес-ценность от ИИ, нужен другой подход. Именно вокруг этого построена концепция AIM и роль AI Business Partner (AIBP) – лидера, который связывает людей, процессы и технологии в единую рабочую систему.

Именно этой теме команда создателей AIM посвятит открытый вебинар, который пройдет 2 декабря в 19:00 (МСК). На вебинаре мы
разберем:

1. Почему внедрения ИИ проваливаются – на конкретных примерах из реальных проектов.
2. Как выглядит работающий подход к внедрению ИИ в процессы на основе методологии AIM.
3. Кто такой AIBP, где его взять и как им стать.

Если вам важно понимать не только технологии, но и то, как сделать ИИ рабочим инструментом для бизнеса – этот вебинар точно для вас. 💡

👉 Регистрация и подробности в боте: https://news.1rj.ru/str/aim_education_bot

Реклама: ИП: Новикова Алина Сергеевна ИНН:262810436353 erid: 2VtzqxiJFwF
🤣5213👍5🦄3🙈2🥰1
⚡️ Отличный ресурс, если хотите глубже понять, как работает параллельное исполнение на GPU.

Документация NVIDIA PTX раскрывает низкоуровневую модель выполнения: устройство команд, иерархию потоков, блоков, варпов, регистров и видов памяти.

Это базовый материал, без которого сложно разобраться, почему ядра GPU ведут себя именно так, как ведут, и как правильно писать высокопроизводительный код под CUDA.

Ссылка: https://docs.nvidia.com/cuda/parallel-thread-execution

@ai_machinelearning_big_data

#nvidia
👍3813🥰7🦄2❤‍🔥1🔥1👏1
Media is too big
VIEW IN TELEGRAM
⚡️ Runway представили новый видеогенератор **Gen-4.5** - заметный шаг вперёд по качеству и управляемости видео.

Что улучшили:
- более детализированное и чистое изображение
- реалистичную динамику и движения объектов
- улучшенную физику, освещение и поведение материалов
- точное следование промпту, включая сложные сцены

Gen-4.5 уверенно работает с быстрыми движениями, сложными ракурсами и умеет контролировать камеру, композицию, звук и другие параметры сцены.
Поддерживаются разные стили-— от фотореализма до пластилиновой анимации.

Что может:
- Image-to-Video
- Video-to-Video
- Keyframes
- Управление движением камеры

Runway заявляет, что скорость и потребление ресурсов сопоставимы с Gen-4, но качество заметно выше.
На сайте модель пока помечена как *soon*, цены ещё не отображаются, API пока недоступен. Доступ пользователям будут открывать постепенно.

По метрикам тоже впечатляет: Gen-4.5 набрала 1 247 Elo в рейтинге *Artificial Analysis Text-to-Video*, установив новый рекорд и обойдя все существующие AI-модели для генерации видео.

Анонс: https://app.runwayml.com/video-tools/

@ai_machinelearning_big_data

#runway #runwayml #gen45 #gen4_5 #videogen #ai_
🔥3214👍10🤗2👌1🤨1🦄1
🔥 Kling Omni (O1) только что вышел - и первые тесты впечатляют.

Это как nano-banana pro, только для видео: бери любой материал и превращай его во что угодно.

Модель:
- удаляет объекты,
- меняет стиль сцен,
- перерисовывает ролик целиком,
- и при этом держит персонажей одинаковыми в любых ракурсах.

OpenArt включили безлимит - можно спокойно экспериментировать.

Главное отличие: больше не нужно править каждый кадр вручную. Меняешь целое видео одним промптом — экономишь время и не тратишь кредиты на повторные генерации.

O1 ощущается как живой креативный напарник:
- удаляет объекты,
- меняет стиль сцен,
- перерисовывает ролик целиком,
- и при этом держит персонажей одинаковыми в любых ракурсах.

Новый стандарт AI-видео.

https://app.klingai.com/global/omni/new

@ai_machinelearning_big_data


#Kling #KlingO1 #KlingOmni #AIvideo #AIGeneration
75👍28🔥22🦄4🥰3