Machinelearning – Telegram
382K subscribers
4.43K photos
851 videos
17 files
4.87K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
💡 Релиз Z-Image: быстрая 6B модель

Команда Tongyi-MAI представила новую text-to-image архитектуру на 6 миллиардов параметров.

Главное из отчета:

* Оптимизация: Это дистиллированная модель, которой достаточно 8 шагов (NFE) для качественной генерации.
* Скорость: Sub-second latency (менее 1 секунды) на H800.
* Требования: Спокойно запускается на 16GB VRAM. Модель доступна для локального инференса на старших картах 3090/4080/4090.

Моделька выделит высокий уровень фотореализма, точное следование инструкциям и рендеринг текста.


🔗 Демо: https://modelscope.cn/aigc/imageGeneration
🔗 Веса (Turbo): https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo

@ai_machinelearning_big_data


#Tongyi #ai #genai #ml
39👍20🥰3🦄3🔥2😁2
✔️ INTELLECT-3 - новая мощная открытая модель от Prime Intellect

Prime Intellect выкатили INTELLECT-3 - 106B Mixture-of-Experts модель, обученнfz на GLM-4.5 Air Base с двумя этапами: SFT и масштабным RL-дообучением.

Это первая модель такого масштаба, где асинхронный RL - не эксперимент, а основа обучения. В результате модель демонстрирует сильный перформанс в математике, коде и reasoning.

Фокус модели - долгие цепочки действий и агентные задачи, а не просто генерация текста.

Главное:
- Модель показывает топ-результаты для своего размера в математике, коде и reasoning.
- Обучение шло на 512×H200 в течение ~2 месяцев.
- Использован собственный стек: PRIME-RL, Verifiers, Environments Hub и sandbox-инфра.
- Всё открыто: код, среды, инструменты.

🟠Technical Report: https://storage.googleapis.com/intellect-3-paper/INTELLECT_3_Technical_Report.pdf
🟠Hugging Face: https://huggingface.co/PrimeIntellect/INTELLECT-3
🟠PRIME-RL: https://github.com/PrimeIntellect-ai/prime-rl
🟠Verifiers: https://github.com/PrimeIntellect-ai/verifiers
🟠Environments Hub: https://hub.primeintellect.ai

@ai_machinelearning_big_data


#ai #intellect3 #primeintellect #glm45
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
40👍15🔥10🥰5😁2🦄2
Анонсируем новый вебинар!

2 декабря расскажем про технологии против любых дипфейков: на изображениях, видео и аудио.

Вы узнаете, как команда повышала точность детектора и какие проблемы приходилось решать при внедрении — глазами клиента и разработчиков.

На вебинаре обсудим:


⚫️Трансформацию подходов к безопасности и коммуникациям

⚫️Когда голос обманывает: методы детекции аудиодипфейков

⚫️Как выявляют попытки обмана при онлайн‑идентификации

А также эксперты MWS AI и MTC ID ответят на любые вопросы о дипфейках!

Регистрируйтесь и приходите 🌨
Please open Telegram to view this post
VIEW IN TELEGRAM
🥰149🔥3🤣3🤔2👍1
📌This Is How We Are Going to Build AGI: CAIA Google рассказал о состоянии ИИ.

Логан Килпатрик из команды DeepMind беседует с Кораем Кавукчуоглу, CTO DeepMind и по совместительству новым главным архитектором Google по искусственному интеллекту.

Корай Кавукчуоглу рассказал о своих взглядах на текущее состояние ИИ, архитектуру Gemini и стратегию Google по достижению AGI. Он считает, что это «новая эра», где технологии стремительно меняются, и что ближайшие 6 месяцев обещают быть такими же захватывающими, как и предыдущие.

Основные темы интервью:

🟡Успех Gemini 3 и подход к AGI

Недавний запуск Gemini 3 получился суперпозитивным. Но прогресс не замедляется, и Gemini 3, подобно 2.5, снова «отодвинула рубеж по ряду измерений». Центральная философия Google в том, что AGI будет «совместно создаваться с нашими клиентами». Это не чисто исследовательская работа, проводимая в изоляции, а совместное усилие с миром, требующее инженерного мышления.

🟡Новый взгляд на прогресс и бенчмарки

Несмотря на то, что модели Google достигают лидирующих позиций на бенчмарках, истинное мерило прогресса в реальном применении. Старые бенчмарки перестают определять текущий рубеж, и новая мера успеха — это предоставление большей ценности в реальном мире, где модели используют ученые, студенты, юристы и инженеры.

🟡Планы на будущее

Приоритеты для улучшения в будущих версиях Gemini Pro:

🟢Следование инструкциям: Модель должна уметь понимать и выполнять запрос пользователя, а не просто отвечать так, как считает нужным.

🟢Интернационализация: Google сосредоточен на языках, где исторически производительность была невысокой.

🟢Функциональные и инструментальные вызовы: Это критически важные технические области, поскольку они позволяют моделям естественно использовать существующие инструменты.

🟢Код и агентские действия : Код - это база для создания чего угодно в цифровом мире. Корай считает, что агентские действия и код — это наиболее перспективные области роста, в которых еще есть много возможностей для совершенствования.

🟡Интеграция с продуктами и инновации

Интеграция- важная тема для сбора фидбэка от пользователей, который необходим для понимания того, как нужно улучшать модели. Риск для Gemini заключается не в отсутствии масштабирования, а в исчерпании инноваций. Поэтому Google DeepMind и Google Research должны постоянно заниматься исследованиями, чтобы находить новые идеи, которые будут питать «двигатель ИИ» Google.

🟡Единство моделей и генеративные медиа

Генеративные медиа-модели сходятся с текстовыми моделями. Яркий пример - Nano Banana Pro, которая показала, как слияние понимания мира из текста с пониманием из изображений позволяет модели создавать более детализированные и концептуально связные изображения, например, инфографику на основе сложных документов.

Фоном идет история о личном пути Корая Кавукчуоглу : от исследователя Deep Learning в DeepMind в 2012 году до текущей руководящей роли.

🔜 Смотреть полное интервью на Youtube


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
102👍30🔥18🥰5❤‍🔥2😁1🤩1😇1🦄1
Media is too big
VIEW IN TELEGRAM
✔️ Метаданные пользователей OpenAI API утекли через сервис Mixpanel.

OpenAI раскрыла детали инцидента безопасности, произошедшего на стороне подрядчика — платформы аналитики Mixpanel. Злоумышленники получили доступ к системам вендора и экспортировали метаданные пользователей, работающих с API. В утечку попали имена, адреса электронной почты, User ID, ID организаций, сведения об используемых браузерах и ОС, а также примерная геолокация.

OpenAI говорит, что критически важные данные остались в безопасности: пароли, сами API-ключи, платежная информация и промпты не скомпрометированы. Пользователей ChatGPT инцидент также не затронул. В ответ на нарушение периметра безопасности OpenAI отключила Mixpanel от своих продуктов и полностью прекратила сотрудничество.
openai.com

✔️ Китайский бигтех переносит обучение ИИ за границу.

Alibaba и ByteDance начали массово переводить обучение LLM в Юго-Восточную Азию. Цель миграции в Сингапур и Малайзию — получить легальный доступ к ускорителям Nvidia, прямые поставки которых в КНР заблокированы. Арена мощностей у зарубежных ЦОД формально не нарушает санкционный режим. Этот обходной путь стал безопасным после того, как администрация США отменила «правило распространения».

Исключением остается DeepSeek, который продолжает тренировать модели внутри Китая, используя запасы карт Nvidia и сотрудничая с инженерами Huawei. В индустрии формируется гибридная архитектура: обучение выносится на зарубежные кластеры, а инференс все чаще переводится на локальные китайские чипы.
ft.com

✔️ Alibaba представила умные очки Quark.

Китайский техногигант запустил продажи смарт-очков Quark. Устройство, внешне неотличимое от стандартной оправы, работает под управлением модели Qwen. Стартовая цена гаджета составляет около $268.

Инженеры сделали ставку на автономность и интеграцию с экосистемой: девайс оснащен сменными аккумуляторами, двойной оптикой и системой профессиональной съемки. Очки глубоко связаны с сервисами компании — пользователи могут использовать визуальный ассистент для мгновенного перевода, оплаты через Alipay и распознавания товаров для поиска цен на Taobao.
reuters.com

✔️ Apple создает альтернативу диффузионным нейросетям.

Apple опубликовала работу, предлагающую новый подход к генерации видео, способный потеснить диффузионные модели. Система STARFlow-V построена на архитектуре потоковой нормализации и обучается как единая модель для работы с текстом, картинками и видео.

В отличие от диффузии, требующей множества итераций для денойза, STARFlow-V использует однократное обратимое отображение и строгую причинно-следственную логику. Глобальный блок модели работает авторегрессионно: генерация каждого нового латента зависит исключительно от предыдущих данных.

Для оптимизации скорости вычислений применяется параллельные обновления Якоби, что дает качество уровня SOTA при более высокой стабильности генерации.
starflow-v.github.io

✔️ AdvancedIF: жёсткий бенчмарк проверки LLM на следование сложным инструкциям.

Лаборатория Марка Цукерберга разработала AdvancedIF - инструмент для выявления реальных пределов LLM в выполнении директив. Бенчмарк фокусируется на сценариях с высокой когнитивной нагрузкой: набор данных включает более 1600 промптов, каждый из которых содержит 6 одновременных условий: от требований к формату и стилю до негативных ограничений и перекрестных логических зависимостей.

Помимо разовых запросов, AdvancedIF тестирует управляемость моделей через системные промпты и способность удерживать контекст в сложных диалогах. В качестве арбитра используется o3-mini, которая сверяет ответы модели с критериями, разработанными экспертами-людьми. Инструментарий поддерживает пакетную обработку, а сам датасет можно найти на Hugging Face.
github.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
71👍19🔥8🦄3
This media is not supported in your browser
VIEW IN TELEGRAM
10 декабря — код, архитектура, AI в деле

Сбер открывает двери в мир AI: 10 декабря — в Москве и онлайн.

Что вас ждет?
⬩На сцене — доклады о развитии нейросетевых моделей GigaChat и Kandinsky, о ключевых этапах их разработки, практических достижениях и дальнейших перспективах развития;
⬩Гига Город — демо-стенды, постеры, инженерные споры, вопросы и тестирование архитектур;
⬩Воркшопы — повторяем решения инженеров, разбираем пайплайны и инструменты;
⬩Карьерный блок — разговоры с командами и открытые роли в AI-направлениях Сбера.

Зачем идти?
Чтобы увидеть, как строят AI-системы, задать вопросы инженерам и понять, куда движется AI в Сбере — и найти свое место в этом движении.

Регистрируйтесь и проверьте AI-технологии в деле.

Реклама. ПАО Сбербанк. ИНН 7707083893
13🤣7😁4🔥1🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
💡 Джек Кларк, сооснователь Anthropic, о современном ИИ

«Мы похожи на детей в тёмной комнате.
А то, что мы замечаем в темноте, — это мощные и непредсказуемые ИИ-системы.

Кто-то утверждает, что ИИ - всего лишь инструмент,
просто куча одежды на стуле.

Но если убеждать себя, что “существо не настоящее”,
проигрыш неизбежен».

@ai_machinelearning_big_data
🥱82👍3916🔥10🤣9💯7👻3🦄21🍓1
Media is too big
VIEW IN TELEGRAM
🤖 Стартап Zerith Robotics запустил роботов Zerith H1 в аэропортах, офисах и супермаркетах.

Они убирают туалеты, моют полы, протирают раковины, а в магазинах могут взять корзину, выбрать товары и оформить заказ.

H1 уже работает более чем на 20 крупных площадках, и компания готовит расширение в Ханчжоу и Шанхае. Клиенты чаще выбирают колёсные гуманоиды из-за их надёжности.

Zerith основана в январе этого года командой из лаборатории ИИ Тсинхуа. За год они выпустили двуногий Zerith Z1 и колёсный Zerith H1.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥65🤣2110👍7👏3😨3🦄3😎1
Как обеспечить себе успешное игровое будущее?

Стоимость привлечения пользователей растёт на 20–40% каждый год, и достичь точки прибыльности становится всё сложнее. Сегодня даже отличные игры часто не могут выйти в плюс: платформы забирают до 30% в виде комиссий.
Как в этом может помочь построение прямого канала взаимодействия с пользователем — разбираем в канале @d2cgamechangers D2C Game Changers: собираем лучшие практики, кейсы и проверенные решения.
😁11🤣76👍5🦄5🗿2🥰1
🌟 ToolOrchestra: буст ИИ-потенциала за счет координации моделей и инструментов.

NVIDIA совместно с Университетом Гонконга разработала ToolOrchestra - методику обучения дирижеров для ИИ-агентов, и выпустила на ее основе модель Orchestrator-8B.

Это модель, базирующаяся на архитектуре Qwen3 предназначена для оркестрации других моделей и инструментов. Вместо того чтобы решать задачу в одиночку, модель чередует этапы рассуждения с вызовом внешних инструментов.

В ее арсенале поисковые движки, интерпретаторы кода и другие LLM, от узкоспециализированных математических до универсальных гигантов Claude и Llama-Nemotron.

Обучение проводилось с помощью GRPO, который поощрял модель не только за точность, но и за экономическую эффективность.

В результате решение получилось в 2,5 раза быстрее и на 70% дешевле в эксплуатации, чем использование одной лишь флагманской модели для всех этапов задачи, а сама Orchestrator-8B набрала 37,1% в сложнейшем бенчмарке Humanity's Last Exam , обойдя GPT-5 (35,1%).


📌Лицензирование кода : Apache 2.0 License.

📌Лицензирование модели: NVIDIA License.


🟡Страница проекта
🟡Модель
🟡Arxiv
🟡Датасет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Orchestrator #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
66👍34🔥11🤬2🦄2❤‍🔥1
Media is too big
VIEW IN TELEGRAM
✔️ ШАД Яндекса начал обучать ученых.

В Школе анализа данных, где готовят специалистов по ИИ, началось обучение по применению ИИ в естественно-научных исследованиях. На программу подали заявки ученые из 37 регионов - больше всего запросов получили от экспертов в областях физики, медицины и химии. В итоге зачислили 50 молодых исследователей: от магистрантов до кандидатов наук из Москвы, Петербурга, Уфы, Иркутска, Владивостока и Екатеринбурга.

Участники изучают основы ИИ и сразу применяют инструменты в своих задачах. С каждой командой работает эксперт ШАДа: помогает выбрать методы и спланировать эксперимент. Если проекту нужны тяжелые вычисления, подключаются мощности Yandex Cloud.

✔️ ИИ научили считывать активность скрытых мышц кисти по видео.

Команда из Institute of Science Tokyo анонсировала фреймворк PianoKPM Net, способный с высокой точностью определять активность мышц рук без использования нательных датчиков. Обычно для этого требуется инвазивная и дорогая электромиография, но новая архитектура реконструирует паттерны мышечных сокращений, анализируя только видеозапись.

В основе системы - уникальный датасет, собранный на базе 12 часов игры профессиональных пианистов, где визуальные данные синхронизированы с реальными сигналами мышц. Технология превращает обычную камеру в диагностический инструмент, что важно для реабилитационной медицины, спортивной аналитики и создания продвинутых интерфейсов «человек-компьютер». Авторы планируют выложить датасет и модель в открытый доступ.
techxplore.com

✔️ ИИ-проект Джеффа Безоса купил стартап General Agents.

Project Prometheus поглотил разработчика агентного ИИ General Agents. Сделка прошла в закрытом режиме еще летом и сопровождалась переходом команды инженеров из DeepMind и Tesla в структуру Prometheus. Цель Prometheus: создание ИИ-систем для поддержки сложных производств автомобилестроения и космической отрасли.

Главный актив General Agents - технология Ace для автономного управления интерфейсами и приложениями. Хотя изначально Ace создавался для автоматизации рутинны на ПК, в рамках Prometheus эти наработки, судя по всему, будут масштабированы для индустриальных сценариев.
wired.com

✔️ OpenAI и Google резко ограничили лимиты в Sora и Nano Banana Pro.

Глава направления Sora в OpenAI Билл Пиблз сообщил, что бесплатные аккаунты теперь ограничены всего 6 видеогенерациями в сутки, так как текущие графические процессоры буквально плавятся от запросов. Это ограничение не выглядит временным: компания прямо предлагает докупать генерации по мере необходимости, хотя условия для подписчиков ChatGPT Plus и Pro пока остались прежними.

Google приняла аналогичные меры, урезав бесплатный доступ к инструменту Nano Banana Pro до 2 изображений в день. Техгигант предупредил, что лимиты могут меняться динамически и без уведомлений. Кроме того, под ограничения попал и доступ бесплатных пользователей к модели Gemini 3 Pro.
theverge.com

✔️ Perplexity добавила функцию долгосрочной памяти.

ИИ-поисковик получил функцию "persistent memory", которая позволяет запоминать предпочтения, интересы и детали предыдущих диалогов. Теперь система автоматически создает "постоянный контекст" пользователя, а ответы становятся персонализированными и требуют меньше уточняющих запросов.

Perplexity извлекает факты из хранилища памяти и напрямую использует их при формировании ответа. Этот контекстный слой работает поверх любой выбранной модели без потери накопленных знаний о пользователе. Функция полностью управляема: сбор данных можно отключить в настройках, а в режиме инкогнито история не сохраняется.
perplexity.ai

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
59👍26🔥8😁4🦄4
🙂 Идея для стартапа: GPU-Сауна

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁18331🤣13😐7👍4👨‍💻3🙊3🦄21🥰1
✍️ ML Global Recap: итоги ключевых научных конференций года

11 декабря Яндекс проводит встречу для тех, кто следит за трендами в машинном обучении. Эксперты расскажут, что важного происходило в этом году на главных мировых конференциях и что нас ждет дальше.

Ребята знают, о чем говорят. Команда в курсе всех ключевых событий отрасли: NeurIPS, ICLR, ACL, Interspeech, CIKM и ACM RecSys – весь год по косточкам разбирали тренды и статьи с мероприятий. А на некоторых даже выступали. Например, на ACM RecSys представили устный доклад по Yambda (попасть в oral секцию на конференцию такого уровня – задача со звездочкой)

Значимые выводы с конференций и основные тенденции представят руководители ключевых команд Яндекса.

🎯 Все детали тут.
18👌11🤣5👍3💋2
⚡️ В Ai Toolkit появилась поддержка обучения LoRA для Z-Image Turbo.

Ostris, разработчик популярного пакета для обучения диффузионных моделей добавил поддержку обучения для Z-Image Turbo с помощью De-Distill адаптера.

AI Toolkit — это универсальный набор инструментов для обучения диффузионных моделей на потребительском оборудовании. Он может запускаться как в GUI, так и в командной строке. Набор разработан так, чтобы быть простым в использовании, но при этом обладать всеми возможными функциями.


По первым тестам, обучение возможно на 12+ VRAM, а обучение персонажа на 17 изображениях длительностью 3000 шагов на RTX 5090 занимает примерно полтора часа.

Подробный гайд по процессу автор тулкита обещает выпустить в ближайшие дни.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
140🔥15🥰5🦄3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Unitree R1 и G1 демонстрируют свои навыки на одной сцене

Выбери своего БОЙЦА:

❤️ Новый, более доступный и компактный R1
или
🔥 Мощный и уже зарекомендовавший себя на рынке G1, который остаётся флагманом линейки.

@ai_machinelearning_big_data

#ai #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥140👍2824😨17😁2🦄2