Forwarded from GigaDev — разработка GigaChat
GigaAM-v3 на Хабре
➡️ Хабр
Спешим поделиться постом о создании GigaAM-v3!
В статье много технических деталей для специалистов:
🔘 Распределение данных по доменам
🔘 Эксперименты с масштабирование модели по параметрам
🔘 Сравнение токенизаторов
🔘 Анализ ошибок end-to-end моделей
🔘 LLM-as-a-judge для распознавания речи
По пути к релизу GigaAM-v3 ворвалась в top trending ASR-моделей на HuggingFace, обогнав свежий релиз OmniLingual ASR 🚀
👉 Приходите на «Салют, Гига!» — там вы сможете вживую пообщаться с разработчиками GigaAM, задать вопросы по статье, узнать детали обучения мультиязычного GigaAM Max и обсудить, как мы модифицировали HuBERT-CTC для использования в GigaChat Audio.
Спешим поделиться постом о создании GigaAM-v3!
В статье много технических деталей для специалистов:
По пути к релизу GigaAM-v3 ворвалась в top trending ASR-моделей на HuggingFace, обогнав свежий релиз OmniLingual ASR 🚀
👉 Приходите на «Салют, Гига!» — там вы сможете вживую пообщаться с разработчиками GigaAM, задать вопросы по статье, узнать детали обучения мультиязычного GigaAM Max и обсудить, как мы модифицировали HuBERT-CTC для использования в GigaChat Audio.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1🤯1🤡1
Forwarded from Код Дурова
This media is not supported in your browser
VIEW IN TELEGRAM
Популярные ИИ-модели, которым выдавали депозит по 10 000 долларов, по результатам эксперимента прогорели на торговле акциями.
GPT-5.1 и Gemini 3 Pro потеряли немного, а вот у Grok 4, например, осталось меньше половины от депозита. В плюс вышла только «секретная модель»:
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯1
Forwarded from Kaspersky
😈 Фальшивый ИИ-сайдбар — помощник с двойным дном
Исследователи кибербезопасности разработали новую атаку на ИИ-браузеры под названием AI Sidebar Spoofing. Для этого они внедрили в браузеры Comet и Atlas вредоносный сайдбар, — боковую панель, через которую пользователь «общается» с нейросетью.
Фальшивый помощник работает почти как настоящий: передаёт легитимной LLM-модели запросы от пользователя и показывает ответы ИИ. Вот только время от времени расширение подменяет инструкции на вредоносные, предлагает жертве перейти по фишинговой ссылке или вовсе подталкивает её выполнить опасную команду.
Слепое доверие ИИ-ответам может привести к печальным последствиям: с помощью AI Sidebar Spoofing злоумышленники способны угонять криптокошельки, захватывать Google-аккаунты и компрометировать устройства.
В нашем материале рассказываем о трёх сценариях использования атаки и даём советы, как не стать жертвой поддельного ИИ-сайдбара.
Исследователи кибербезопасности разработали новую атаку на ИИ-браузеры под названием AI Sidebar Spoofing. Для этого они внедрили в браузеры Comet и Atlas вредоносный сайдбар, — боковую панель, через которую пользователь «общается» с нейросетью.
Фальшивый помощник работает почти как настоящий: передаёт легитимной LLM-модели запросы от пользователя и показывает ответы ИИ. Вот только время от времени расширение подменяет инструкции на вредоносные, предлагает жертве перейти по фишинговой ссылке или вовсе подталкивает её выполнить опасную команду.
Слепое доверие ИИ-ответам может привести к печальным последствиям: с помощью AI Sidebar Spoofing злоумышленники способны угонять криптокошельки, захватывать Google-аккаунты и компрометировать устройства.
В нашем материале рассказываем о трёх сценариях использования атаки и даём советы, как не стать жертвой поддельного ИИ-сайдбара.
Forwarded from ИИ что дальше
Отраслевые LLM: хайп или тренд
О чем говорили хэдлайнеры конференции и в чем сошлись их мнения? Изучил доклады и лично задал вопросы.
👨 Данил Ивашечкин. Head of AI – Норникель
1. AI – инструмент, а не панацея. Инструмент мощный, но требующий экспертизы, данных и понимания процессов.
2. AI усиливает хорошо структурированное и описанное. Если в компании и ее процессах хаос – AI увеличит хаос.
3. AI-прототип не равно продукт. Собрать демо можно за ночь. Сделать надежный и эффективный сервис – задача месяцев работы.
Мнение автора: Очень разделяю. При внедрении LLM в Робота Макса мы за 3 дня сделали прототип и провели демо руководителям Минцифры России, чтобы доказать состоятельность видения. Но сам путь внедрения и отладки занял еще 6 месяцев, несмотря на поддержку крупнейших партнеров из GenAI отрасли.
4. Культура – один из ключевых факторов успешного применения AI. Если сотрудники не понимают ценности и принципы применения AI, скорость внедрения и эффекты будут низкими.
5. METALgpt – 🔥 Норникель выпустит доменную ЛЛМ. Анонсируют кратное сокращение затрат на инференс и лучшее понимание узкой отраслевой терминологии.
👩 Светлана Сафронова. Управляющий директор управления ИИ-решений – Сбер
1. Доходы от применения GenAI растут. 1.1 трлн долларов к 2028 году
2. Рынок GenAI вырастет в 2.4 раза к 2030 году
3. 85% компаний уже внедряют GenAI
4. При этом в России внедрение GenAI только начинается
5. Industry-specific AI – 🔥 Новый тренд. Модели, которые говорят на языке отрасли.
Яркий пример – AlphaFold 3, который специализируется на генерации структуры белков, ДНК и РНК.
💎 Для чего нужны отраслевые модели
Kimi-K2 имеет 1 триллион параметров, кажется при ее обучении должны были применить весь интернет и все доступные данные. А данные двух или трех компаний в узком рыночном сегменте кажутся каплей в море. Но не все так просто.
Представьте, что к вам обратился человек с вопросом: "Как вылечить гастрит". Опытный врач дал вам несколько лучших учебников. Сколько времени уйдет у вас, чтобы найти подробный ответ на вопрос? В этом случае вы играете роль обычной неспецифичной LLM.
Продолжая этот пример. Отраслевая модель – это "врач-гастроэнтеролог". Он знает базу, знает, что не брать во внимание, а что наоборот брать. Что устарело, а что актуально. Зато такой "специалист" сильно хуже ответит вам о рецепте приготовления квашеной капусты.
✅ Плюсы специфичных отраслевых моделей
1. Экономия на "железе". Многосторонняя LLM требует серьезных инвестиций в вычислительную инфраструктуру. Заточенные под узкоспецифичные задачи модели (на 5-20 млрд параметров) работают быстрее и потребляют меньше электричества.
2. Глубина знаний. Специализированные модели лучше управляют доменными знаниями. Медицинская модель не начнет советовать «поменять масло», когда вы спросите про «клапаны» сердца. Она понимает контекст отрасли глубже.
🚧 Проблемы
1. Порог входа. Создание своей модели – процесс долгий и дорогой. Нужны дефицитные специалисты и дорогое железо для дообучения. Хотя, скорее всего, скоро нас ждет масса open source доменных моделей.
2. «Купить или Строить». Применение таких моделей зависит от уровня развития бизнеса. Иногда проще, быстрее и дешевле подключить YandexGPT или GigaChat API, чем дообучать специфичную модель.
🎯 Выводы
1. Будет появляться все больше специфичных LLM. Отраслевая битва не за горами. Модели для юристов, врачей, водителей большегрузов, нефтяной сферы, космоса – в большом разнообразии начнут появляться в 2026 году.
2. Шанс на успех выше у компаний, обладающих доступом к закрытым специфичным данным в большом объеме. Очередь в университеты и исследовательские лаборатории уже начинает собираться.
❤️ Ждем доменные модельки
💔 Это все хайп
🤡 Где мой гастроэнтеролог?
Прямо сейчас я на Conversation AI. Лучшая, на мой взгляд, конференция по AI, которая концентрируется на специалистах, сообществе и бизнес-результатах.
О чем говорили хэдлайнеры конференции и в чем сошлись их мнения? Изучил доклады и лично задал вопросы.
👨 Данил Ивашечкин. Head of AI – Норникель
1. AI – инструмент, а не панацея. Инструмент мощный, но требующий экспертизы, данных и понимания процессов.
2. AI усиливает хорошо структурированное и описанное. Если в компании и ее процессах хаос – AI увеличит хаос.
3. AI-прототип не равно продукт. Собрать демо можно за ночь. Сделать надежный и эффективный сервис – задача месяцев работы.
Мнение автора: Очень разделяю. При внедрении LLM в Робота Макса мы за 3 дня сделали прототип и провели демо руководителям Минцифры России, чтобы доказать состоятельность видения. Но сам путь внедрения и отладки занял еще 6 месяцев, несмотря на поддержку крупнейших партнеров из GenAI отрасли.
4. Культура – один из ключевых факторов успешного применения AI. Если сотрудники не понимают ценности и принципы применения AI, скорость внедрения и эффекты будут низкими.
5. METALgpt – 🔥 Норникель выпустит доменную ЛЛМ. Анонсируют кратное сокращение затрат на инференс и лучшее понимание узкой отраслевой терминологии.
👩 Светлана Сафронова. Управляющий директор управления ИИ-решений – Сбер
1. Доходы от применения GenAI растут. 1.1 трлн долларов к 2028 году
2. Рынок GenAI вырастет в 2.4 раза к 2030 году
3. 85% компаний уже внедряют GenAI
4. При этом в России внедрение GenAI только начинается
5. Industry-specific AI – 🔥 Новый тренд. Модели, которые говорят на языке отрасли.
Яркий пример – AlphaFold 3, который специализируется на генерации структуры белков, ДНК и РНК.
💎 Для чего нужны отраслевые модели
Kimi-K2 имеет 1 триллион параметров, кажется при ее обучении должны были применить весь интернет и все доступные данные. А данные двух или трех компаний в узком рыночном сегменте кажутся каплей в море. Но не все так просто.
Представьте, что к вам обратился человек с вопросом: "Как вылечить гастрит". Опытный врач дал вам несколько лучших учебников. Сколько времени уйдет у вас, чтобы найти подробный ответ на вопрос? В этом случае вы играете роль обычной неспецифичной LLM.
Продолжая этот пример. Отраслевая модель – это "врач-гастроэнтеролог". Он знает базу, знает, что не брать во внимание, а что наоборот брать. Что устарело, а что актуально. Зато такой "специалист" сильно хуже ответит вам о рецепте приготовления квашеной капусты.
✅ Плюсы специфичных отраслевых моделей
1. Экономия на "железе". Многосторонняя LLM требует серьезных инвестиций в вычислительную инфраструктуру. Заточенные под узкоспецифичные задачи модели (на 5-20 млрд параметров) работают быстрее и потребляют меньше электричества.
2. Глубина знаний. Специализированные модели лучше управляют доменными знаниями. Медицинская модель не начнет советовать «поменять масло», когда вы спросите про «клапаны» сердца. Она понимает контекст отрасли глубже.
🚧 Проблемы
1. Порог входа. Создание своей модели – процесс долгий и дорогой. Нужны дефицитные специалисты и дорогое железо для дообучения. Хотя, скорее всего, скоро нас ждет масса open source доменных моделей.
2. «Купить или Строить». Применение таких моделей зависит от уровня развития бизнеса. Иногда проще, быстрее и дешевле подключить YandexGPT или GigaChat API, чем дообучать специфичную модель.
🎯 Выводы
1. Будет появляться все больше специфичных LLM. Отраслевая битва не за горами. Модели для юристов, врачей, водителей большегрузов, нефтяной сферы, космоса – в большом разнообразии начнут появляться в 2026 году.
2. Шанс на успех выше у компаний, обладающих доступом к закрытым специфичным данным в большом объеме. Очередь в университеты и исследовательские лаборатории уже начинает собираться.
❤️ Ждем доменные модельки
💔 Это все хайп
🤡 Где мой гастроэнтеролог?
❤9🤡3👍2
Forwarded from Искусственный интеллект. Высокие технологии
🚀 Google представила Titans + MIRAS - новую архитектуру, которая даёт ИИ долговременную память 🧠
Теперь модель может обновлять свои знания прямо во время инференса, а не только при обучении.
Что делает Titans важным:
• Классические Transformer-модели хорошо работают с коротким контекстом, но резко дорожают по вычислениям при его увеличении.
• Альтернативы вроде RNN и state-space экономят ресурсы, но теряют детали при сжатии информации.
• Titans предлагает гибрид: краткосрочная память через attention плюс глубокая нейронная память, которая обновляется «на лету» и запоминает только действительно новое.
Как работает память:
Модель записывает в память только те данные, которые оказались неожиданными.
Это помогает:
✔ фильтровать шум
✔ хранить не весь текст, а смысл
✔ удерживать контекст больше 2 миллионов токенов
✔ сохранять линейную скорость обработки
Практические результаты:
- Улучшение reasoning
- Сильные результаты на задачах длинного контекста
- Более устойчивое качество по сравнению с продвинутыми Transformer-подходами
Итог: Titans + MIRAS — это шаг к ИИ, который не просто держит окно контекста, а умеет помнить, забывать и учиться прямо в процессе генерации.
📌 Статья: https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
📌Видео: https://www.youtube.com/watch?v=mI6mv2c7RK0
@vistehno
Теперь модель может обновлять свои знания прямо во время инференса, а не только при обучении.
Что делает Titans важным:
• Классические Transformer-модели хорошо работают с коротким контекстом, но резко дорожают по вычислениям при его увеличении.
• Альтернативы вроде RNN и state-space экономят ресурсы, но теряют детали при сжатии информации.
• Titans предлагает гибрид: краткосрочная память через attention плюс глубокая нейронная память, которая обновляется «на лету» и запоминает только действительно новое.
Как работает память:
Модель записывает в память только те данные, которые оказались неожиданными.
Это помогает:
✔ фильтровать шум
✔ хранить не весь текст, а смысл
✔ удерживать контекст больше 2 миллионов токенов
✔ сохранять линейную скорость обработки
Практические результаты:
- Улучшение reasoning
- Сильные результаты на задачах длинного контекста
- Более устойчивое качество по сравнению с продвинутыми Transformer-подходами
Итог: Titans + MIRAS — это шаг к ИИ, который не просто держит окно контекста, а умеет помнить, забывать и учиться прямо в процессе генерации.
📌 Статья: https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
📌Видео: https://www.youtube.com/watch?v=mI6mv2c7RK0
@vistehno
❤6👍6🔥4
Forwarded from Hardware vs Software, или заметки админа
Большое сравнение производительности мобильных чипов
Китайцы собрали более 70 смартфонов с разными процессорами и протестировали их все, собрав в единую табличку.
Вышло довольно интересное сравнение!
За базу в 100 баллов принят Snapdragon 8+ gen 1.
За результат теста CPU взято соотношение 25% однопотока + 75% многопотока Geekbench 6.
GPU: 50% Wild Lige Extreme + 50% Aztec 1440P
Общий результат 65% CPU + 35% GPU
Итог таков:
За 10 лет производительность CPU увеличилась в 9 раз.
Производительность GPU в 22 раза!
Ещё из интересного:
Уже несколько лет подряд мобильные чипы от Apple не самые быстрые в текущем поколении.
Последние пару лет решения от MediaTek по графике чуть быстрее Snapdragon.
Источник
@HWvsSW
Китайцы собрали более 70 смартфонов с разными процессорами и протестировали их все, собрав в единую табличку.
Вышло довольно интересное сравнение!
За базу в 100 баллов принят Snapdragon 8+ gen 1.
За результат теста CPU взято соотношение 25% однопотока + 75% многопотока Geekbench 6.
GPU: 50% Wild Lige Extreme + 50% Aztec 1440P
Общий результат 65% CPU + 35% GPU
Итог таков:
За 10 лет производительность CPU увеличилась в 9 раз.
Производительность GPU в 22 раза!
Ещё из интересного:
Уже несколько лет подряд мобильные чипы от Apple не самые быстрые в текущем поколении.
Последние пару лет решения от MediaTek по графике чуть быстрее Snapdragon.
Источник
@HWvsSW
1🔥6👍2❤1🎉1🙏1
Forwarded from ODS Events
Всем привет!
Встречайте двадцать третий выпуск подкаста "Капитанский мостик". В этом эпизоде обсуждаются последние новости в области робототехники и автоматизации, а также рассматриваются вопросы безопасности смарт-контрактов и их уязвимости. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
Встречайте двадцать третий выпуск подкаста "Капитанский мостик". В этом эпизоде обсуждаются последние новости в области робототехники и автоматизации, а также рассматриваются вопросы безопасности смарт-контрактов и их уязвимости. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
❤1
Forwarded from Мой Компьютер
Media is too big
VIEW IN TELEGRAM
Китайцы собрали своего терминатора
Гуманоид T800 от EngineAI пинает генерального директора Чжао Туняна.
Мой Компьютер
Гуманоид T800 от EngineAI пинает генерального директора Чжао Туняна.
Мой Компьютер
🔥1😱1🙏1