Ключевые характеристики:
- MoE-архитектура: 30B параметров всего, ~3.5B активных
- Контекст до 1 миллиона токенов
- Гибридная архитектура:
- 23 слоя Mamba-2 + MoE
- 6 attention-слоёв
- Баланс между скоростью и качеством рассуждений
Требования:
- необходимо около 24 ГБ видеопамяти для локального запуска
Модель хорошо подходит для длинных диалогов, анализа документов и reasoning-задач
Интересный пример того, как MoE и Mamba начинают реально снижать требования к железу, сохраняя масштаб контекста и качество.
Для обучения Super и Ultra используется NVFP4 и новая архитектура Latent Mixture of Experts. Она позволяет задействовать в четыре раза больше экспертов при той же стоимости инференса. По сути, модель становится «умнее» за счёт более гибкого выбора экспертов, а не за счёт постоянной активации всех параметров.
Дополнительно применяется Multi-Token Prediction, что ускоряет обучение и улучшает качество рассуждений на длинных последовательностях. Это особенно важно для agentic и multi-agent сценариев, где модели работают с длинным контекстом и сложными цепочками решений.
NVIDIA публикует не только веса, но и данные для предобучения и постобучения, а также технические детали, которые объясняют, почему эти модели одновременно быстрые и сильные.
Такой уровень открытости - редкость для моделей этого масштаба и хороший сигнал для индустрии.@ai_machinelearning_big_data
#AI #LLM #NVIDIA #Nemotron3 #OpenSource #MachineLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥48❤20👍18🦄2👌1
Владимир Кувшинов создал систему, которая сама следит за прогнозными моделями и подсказывает, когда нужно вмешательство. На данный момент ИИ прогнозирует содержание металлов на 59 точках технологической цепочки — на каждой минимум по две модели.
Модели, которые разработал студент позволяют повысить извлечение полезного металла всего на несколько десятых процента. Однако, из-за масштабов производства, такое небольшое улучшение помогает экономить до 60 млн рублей в год только на одной фабрике.
Студент собрал решение полностью самостоятельно: от базы данных до интерфейса. Система уже тестируется на производстве и показывает точность прогнозов в пределах 5%.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍106🤣46🔥26🦄11❤6🗿5🤬3😁2💯2
SHARP - это исследовательский проект Apple, который умеет создавать фотореалистичные новые ракурсы сцены, имея всего одну фотографию.
Нейросеть за один проход предсказывает 3D-сцены в виде гауссианов.
Полученную 3D-сцену можно:
- рендерить в реальном времени
- получать высококачественные изображения с близких ракурсов
- двигать камеру в реальных метрических координатах
Главные фишки:
- используется метрическое 3D-представление с абсолютным масштабом
- поддерживаются реальные движения камеры
- модель работает zero-shot, без дообучения на новых датасетах
Модель устанавливает новый уровень качества сразу на нескольких наборах данных:
- метрика LPIPS улучшена на 25–34%
- метрика DISTS улучшена на 21–43% по сравнению с лучшими предыдущими моделями
При этом время генерации снижено в тысячи раз.
SHARP показывает, насколько далеко продвинулись методы 3D-реконструкции и view synthesis — и как быстро такие технологии начинают работать в реальном времени, а не только в лаборатории.
▪Github: https://github.com/apple/ml-sharp
▪HF: https://huggingface.co/apple/Sharp
▪ Демки: https://apple.github.io/ml-sharp/
@ai_machinelearning_big_data
#apple #llm #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44❤14🦄4🔥3
Media is too big
VIEW IN TELEGRAM
В ноябре 2025 года OpenAI выпустила приложение Sora для Android, пройдя путь от прототипа до глобального релиза всего за 1 месяц. Над проектом работали 4 инженера и ранняя версия GPT-5.1-Codex.
Результаты эксперимента показали новый стандарт эффективности: 85% кода было сгенерировано ИИ, при этом стабильность версии держалась на уровне 99,9%.
В первые сутки Sora для Android возглавило чарты Play Store, а пользователи создали более миллиона видео. В OpenAI отмечают, что ИИ-ассистенты берут на себя рутину, однако архитектурное проектирование и контроль качества по-прежнему требуют участия людей.
openai.com
Thinking Machines открыл глобальный доступ к своей платформе Tinker, который предоставляет услуги дообучения LLM методом LoRA. Сервис пополнился моделью Kimi K2 Thinking и интерфейсом, совместимым с OpenAI API.
Также были добавлены возможности визуального ввода с помощью моделей Qwen3-VL, позволяющие обрабатывать изображения и текст вместе.
thinkingmachines.ai
Google открыла доступ к функции потокового перевода речи для любых наушников, подключенных к Android-устройству. Ранее эта технология была доступна только владельцам Pixel Buds, но теперь аппаратные ограничения сняты.
За качество обработки отвечает новая модель Gemini 2.5 Flash Native Audio. Она поддерживает более 70 языков и умеет сохранять оригинальный тон, темп и ритм говорящего, делая синтезированную речь максимально естественной. Благодаря расширенной базе знаний модель понимает сленг и культурные нюансы в реальном времени.
blog.google
Исследователи из Стэнфорда опубликовали результаты тестирования ИИ-агента ARTEMIS, который обошел 9 из 10 людей-экспертов по кибербезопасности. При эксплуатационной стоимости около $18 в час система показала не только экономическую эффективность, но и техническое преимущество в скорости.
За 16 часов работы ARTEMIS просканировал 8000 устройств, запуская субагентов для параллельной атаки множества целей. Он выявил уязвимости, которые пропустили люди, в том числе на устаревших серверах, недоступных через обычные браузеры.
В первые 10 часов агент обнаружил 9 валидных брешей с показателем успешности 82%. Разработчики признают, что ИИ идеально справляется с парсингом кода и логов, но работа с графическими интерфейсами пока остается его слабым местом, иногда приводя к ложным срабатываниям.
businessinsider.com
CEO гиганта литографии заявил о готовности поддерживать рост индустрии ИИ в течение следующих 10–15 лет. Главным вектором развития станет переход от текущего стандарта EUV к технологии с высокой числовой апертурой (High-NA EUV), которая необходима для создания следующего поколения микросхем.
Массовое коммерческое внедрение High-NA EUV запланировано на 2027–2028 годы. Эти сроки коррелируют с требованиями ключевых клиентов, ставящих цель увеличивать плотность транзисторов в 16 раз каждые 2 года.
Чтобы обеспечить такую масштабируемость, ASML сфокусируется на улучшении 3 параметров: разрешения, точности позиционирования и общей производительности установок.
bloomberg.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤29👍15🔥9🥰4🤣1🦄1
Forwarded from ТЕХНО: Яндекс про технологии
📋 ИИ не понимает, что вы от него хотите? Чтобы ответы нейросети были более предсказуемыми и чёткими, попробуйте добавить промптам структуру — сейчас расскажем как. А если инструкция покажется слишком сложной, листайте до конца — там объясняем, как структурировать промпты в два клика.
Зачем структурировать промпт
ИИ легко интерпретирует информацию в простых запросах, но если вводные будут очень длинными и сложными, модель может ошибиться в их понимании. Чтобы этого не случилось, текст промпта можно структурировать, сразу указав, где какие данные.
Как структурировать промпт
Создатели нейросетей предлагают использовать специальную разметку, которую понимает ИИ. Это могут быть:
🟢 Markdown, разметка для форматирования текста. Для промптинга можно использовать маркированные и нумерованные списки, а также знак «#», который в markdown означает заголовки разного уровня, а в запросе определяет иерархию задач.
🟢 XML-теги, обозначающие границы какого-либо текстового элемента. Начало и конец элемента обозначаются метками <тег> и </тег>, а сами теги могут быть любыми.
🟢 JSON, стандарт структурирования данных, позволяющий с помощью несложного синтаксиса разметить любую информацию в промпте.
Кажется, разметка — это сложно
Если не хочется разбираться с Markdown, XML и JSON, можно показать ваш промпт нейросети и попросить, чтобы она сама добавила разметку, не меняя суть. А ещё можно найти готовый промпт под свою задачу на Промптхабе — во многих из них используется Markdown-разметка.
Подписывайтесь 👉 @techno_yandex
Зачем структурировать промпт
ИИ легко интерпретирует информацию в простых запросах, но если вводные будут очень длинными и сложными, модель может ошибиться в их понимании. Чтобы этого не случилось, текст промпта можно структурировать, сразу указав, где какие данные.
Как структурировать промпт
Создатели нейросетей предлагают использовать специальную разметку, которую понимает ИИ. Это могут быть:
# Задание
Составь план празднования дня рождения для компании из 8 человек.
## Ограничения
- Бюджет: 10 000 рублей
- Локация: дома
- Среди гостей есть вегетарианцы
## Что должно быть в плане
### 1. Меню
- Основные блюда
- Закуски
- Напитки
### 2. Развлечения
- Игры
- Музыка
- Активности
### 3. Тайминг мероприятия
<цель>Составить недельное меню для семьи из 3 человек</цель>
<ограничения>
<бюджет>10 000 рублей</бюджет>
<предпочтения>больше овощей, минимум жареного, суп каждый день</предпочтения>
<исключить>грибы, орехи, морепродукты, мёд</исключить>
</ограничения>
<формат>
<приёмы_пищи>завтрак, обед, ужин, перекус</приёмы_пищи>
<описание>подробный рецепт каждого блюда со списком ингредиентов</описание>
</формат>
{
"задание": "Составь список покупок на неделю",
"параметры": {
"количество_людей": 2,
"предпочтения": ["вегетарианское", "минимум сахара"],
"бюджет": "до 10 000 рублей"
},
"категории": [
"овощи и фрукты",
"крупы и макароны",
"молочные продукты",
"напитки",
"другое"
],
"формат_ответа": {
"тип": "список",
"сгруппировать_по_категориям": true
}
}
Кажется, разметка — это сложно
Если не хочется разбираться с Markdown, XML и JSON, можно показать ваш промпт нейросети и попросить, чтобы она сама добавила разметку, не меняя суть. А ещё можно найти готовый промпт под свою задачу на Промптхабе — во многих из них используется Markdown-разметка.
Подписывайтесь 👉 @techno_yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍28🤣14❤8🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Google запустила в публичное превью платформу Code Wiki. Инструмент сканирует репозиторий и генерирует живую базу знаний, которая перестраивается автоматически после каждого изменения в коде.
Под капотом -
Code Wiki умеет строить диаграммы архитектуры, объяснять логику работы модулей и мгновенно перенаправлять из вики к конкретным определениям функций.
Сейчас веб-версия работает с публичными репозиториями, но в планах - CLI-расширение для развертывания системы в закрытых корпоративных контурах.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍34❤13🔥12