hype-cycle-for-generative-ai-2025.png
61.5 KB
Это изображение — цикл зрелости технологий (Hype Cycle) для генеративного искусственного интеллекта от Gartner за 2025 год. Он показывает, на какой стадии развития находятся различные технологии в области генеративного ИИ, от зарождения идеи до их массового продуктивного использования.
Вот ключевые выводы, которые можно сделать по этой картинке:
1. Большинство технологий на пике ожиданий: Огромное количество технологий, таких как Agentic AI (агентный ИИ), Multimodal Generative AI (мультимодальный генеративный ИИ) и Open-Source LLMs (LLM с открытым исходным кодом), находятся на «Пике завышенных ожиданий». Это говорит о том, что в 2025 году вокруг этих направлений наблюдается максимальный ажиотаж, но их практическая реализация и ценность еще не до конца раскрыты.
2. Быстро созревающие технологии: Некоторые технологии, несмотря на свою позицию на кривой, должны достичь «Плато продуктивности» (стать зрелыми и широко используемыми) очень быстро:
* AI TRiSM (Управление доверием, рисками и безопасностью ИИ) — менее 2 лет. Это подчеркивает критическую важность безопасности и управления для внедрения ИИ.
* Retrieval-Augmented Generation (RAG) — менее 2 лет. Эта технология, повышающая точность ответов моделей за счет внешних данных, быстро становится стандартом.
* Prompt Engineering — менее 2 лет. Умение правильно формулировать запросы к моделям уже становится базовым и необходимым навыком.
3. Начало «разочарования»: Некоторые концепции, например Generative AI-Enabled Applications (приложения с генеративным ИИ) и Model Ops (управление жизненным циклом моделей), уже начали двигаться в «Пропасть разочарования». Это естественный этап, когда первоначальный восторг проходит, и компании сталкиваются с реальными трудностями внедрения и масштабирования.
4. Долгосрочная перспектива: Искусственный общий интеллект (Artificial General Intelligence, AGI) находится в самом начале пути, на стадии «Триггера инноваций». Gartner прогнозирует, что до его зрелости более 10 лет, что позиционирует его как долгосрочную, фундаментальную цель, а не как технологию ближайшего будущего.
5. Фокус на практическую реализацию: Появление таких элементов, как GenAI Application Orchestration Frameworks (фреймворки для организации работы GenAI-приложений) и GraphRAG, показывает, что отрасль активно работает над созданием инструментов для практического и надежного применения генеративного ИИ в реальных бизнес-процессах.
В целом, можно сказать, что в 2025 году сфера генеративного ИИ все еще очень динамична и насыщена высоким ожиданиями. При этом уже четко выделились ключевые технологии (RAG, AI TRiSM), которые быстро движутся к практическому применению и станут основой для будущих систем.
Вот ключевые выводы, которые можно сделать по этой картинке:
1. Большинство технологий на пике ожиданий: Огромное количество технологий, таких как Agentic AI (агентный ИИ), Multimodal Generative AI (мультимодальный генеративный ИИ) и Open-Source LLMs (LLM с открытым исходным кодом), находятся на «Пике завышенных ожиданий». Это говорит о том, что в 2025 году вокруг этих направлений наблюдается максимальный ажиотаж, но их практическая реализация и ценность еще не до конца раскрыты.
2. Быстро созревающие технологии: Некоторые технологии, несмотря на свою позицию на кривой, должны достичь «Плато продуктивности» (стать зрелыми и широко используемыми) очень быстро:
* AI TRiSM (Управление доверием, рисками и безопасностью ИИ) — менее 2 лет. Это подчеркивает критическую важность безопасности и управления для внедрения ИИ.
* Retrieval-Augmented Generation (RAG) — менее 2 лет. Эта технология, повышающая точность ответов моделей за счет внешних данных, быстро становится стандартом.
* Prompt Engineering — менее 2 лет. Умение правильно формулировать запросы к моделям уже становится базовым и необходимым навыком.
3. Начало «разочарования»: Некоторые концепции, например Generative AI-Enabled Applications (приложения с генеративным ИИ) и Model Ops (управление жизненным циклом моделей), уже начали двигаться в «Пропасть разочарования». Это естественный этап, когда первоначальный восторг проходит, и компании сталкиваются с реальными трудностями внедрения и масштабирования.
4. Долгосрочная перспектива: Искусственный общий интеллект (Artificial General Intelligence, AGI) находится в самом начале пути, на стадии «Триггера инноваций». Gartner прогнозирует, что до его зрелости более 10 лет, что позиционирует его как долгосрочную, фундаментальную цель, а не как технологию ближайшего будущего.
5. Фокус на практическую реализацию: Появление таких элементов, как GenAI Application Orchestration Frameworks (фреймворки для организации работы GenAI-приложений) и GraphRAG, показывает, что отрасль активно работает над созданием инструментов для практического и надежного применения генеративного ИИ в реальных бизнес-процессах.
В целом, можно сказать, что в 2025 году сфера генеративного ИИ все еще очень динамична и насыщена высоким ожиданиями. При этом уже четко выделились ключевые технологии (RAG, AI TRiSM), которые быстро движутся к практическому применению и станут основой для будущих систем.
👍3🔥3🤝3
https://saif.google/secure-ai-framework Google обновила свой фреймворк по безопасности ИИ SAIF до версии 2.0. Добавились Агенты.
SAIF: Secure AI Framework
Secure AI Framework
Understand the Secure AI Framework and SAIF Risk Map. Explore the top security risks and controls for AI.
🔥3👍1🤝1
🇩🇪 Германия: руководство по пентесту LLM
📄 24 сентября 2025 года Немецкий совет по кибербезопасности (Allianz für Cyber-Sicherheit, ACS) представил руководство по проведению пентестов больших языковых моделей (LLM). Документ направлен на унификацию подходов к оценке безопасности LLM и стандартизацию услуг пентеста.
Руководство описывает процесс пентестирования LLM в виде четырёх фаз:
1️⃣ Понимание бизнес-контекста и анализ текущего состояния
На этом этапе формулируются цели и задачи тестирования, определяется его объем и границы. Также проводится анализ исходного состояния системы и учитываются правовые предпосылки и ограничения, связанные с проведением пентеста.
2️⃣ Моделирование угроз, приоритизация и планирование теста
Определяются потенциальные угрозы и сценарии их реализации, проводится их ранжирование по степени значимости. На основе этого формируется план тестирования, включающий выбор приоритетных сценариев и ключевых точек проверки.
3️⃣ Тестирование и документация
Выполняются практические проверки с использованием методов и инструментов пентестирования. Все действия фиксируются, результаты документируются, а оформление ведётся в соответствии с минимальными требованиями к отчетности.
4️⃣ Оценка, анализ рисков, подготовка рекомендаций и отчетность
Проводится итоговая оценка результатов тестирования, анализируются выявленные уязвимости и риски, формулируются практические рекомендации по их устранению. Итоговый отчет содержит систематизированные выводы и рекомендации для заказчика.
В приложение к руководству включены:
🔘 шаблоны и чек-листы для угроз, тестовых случаев и отчетности;
🔘 рекомендации по мерам защиты и реагированию;
🔘 обзор юридических и нормативных аспектов.
📄 Ознакомиться с руководством можно по ссылке.
Руководство описывает процесс пентестирования LLM в виде четырёх фаз:
На этом этапе формулируются цели и задачи тестирования, определяется его объем и границы. Также проводится анализ исходного состояния системы и учитываются правовые предпосылки и ограничения, связанные с проведением пентеста.
Определяются потенциальные угрозы и сценарии их реализации, проводится их ранжирование по степени значимости. На основе этого формируется план тестирования, включающий выбор приоритетных сценариев и ключевых точек проверки.
Выполняются практические проверки с использованием методов и инструментов пентестирования. Все действия фиксируются, результаты документируются, а оформление ведётся в соответствии с минимальными требованиями к отчетности.
Проводится итоговая оценка результатов тестирования, анализируются выявленные уязвимости и риски, формулируются практические рекомендации по их устранению. Итоговый отчет содержит систематизированные выводы и рекомендации для заказчика.
В приложение к руководству включены:
📄 Ознакомиться с руководством можно по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2❤1👍1🤝1
photo_2025-10-13_13-39-12.jpg
149 KB
Фреймворк ИИ-ответственности, призванный прояснить, кто за что отвечает в обеспечении безопасности ИИ-систем, по аналогии с моделью "shared responsibility" в облаках. В нём даётся карта ответственности (responsibility matrix) между провайдером и заказчиком (или разработчиком), охватывающая разные модели развёртывания AI и разные домены безопасности. Проект охватывает 8 моделей развёртывания AI и 16 доменов безопасности (традиционные + специфичные для AI).
8 моделей развертывания ИИ:
6⃣ Публичная LLM-платформа → ChatGPT, Gemini, Claude
2⃣ Публичная LLM-платформа с API-интеграцией → API-доступ к GPT, Anthropic, Cohere
3⃣ SaaS-продукт с AI-функциями → Notion AI, GitHub Copilot
4⃣ Вендорская модель, размещённая в облаке клиента (Managed AI) → Azure OpenAI, Bedrock, Vertex AI
5⃣ Самостоятельно развёрнутая LLM (on-prem / частное облако) → Llama 3, Mistral, Falcon на своих серверах
6⃣ Встроенный AI-модуль в программный продукт → ERP с ML-анализом или рекомендациями
7⃣ Специализированное AI-решение под конкретный домен → AI для SOC, антифрод, медицинская диагностика
8⃣ Разработка собственной модели с нуля / fine-tuning → внутренние R&D-команды
16 доменов ИБ:
6⃣ Управление идентификацией и доступом (IAM)
2⃣ Управление данными и приватностью
3⃣ Шифрование данных "на лету" и "на хранении"
4⃣ Регистрация событий/промптов и аудит обращений к модели
5⃣ Управление уязвимостями и патчами
6⃣ Безопасность кода и зависимостей
7⃣ Управление жизненным циклом модели (ModelOps)
8⃣ Управление обучающими данными
9⃣ Мониторинг дрейфа модели и метрик
6⃣ 1⃣ Обнаружение атак на модель (poisoning, inversion, extraction)
6⃣ 6⃣ Безопасность API и оконечных устройств
6⃣ 2⃣ Соответствие нормативным требованиям (compliance, GDPR, ИИ-акты и т.п.)
6⃣ 3⃣ Этические и репутационные риски
6⃣ 4⃣ Непрерывность бизнеса и отказоустойчивость ИИ-сервисов
6⃣ 5⃣ Реагирование на инциденты и реагирование на утечки / атаки
6⃣ 6⃣ Поверхность атаки и тестирование безопасности (red teaming / оценка защищенности).
8 моделей развертывания ИИ:
16 доменов ИБ:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍1🤝1
Gartner_Top 10 Strategic Technology Trends_2026 (29 pgs).pdf
5.6 MB
Gartner представил главные технологические тренды на 2026 год.
10 главных трендов от Gartner:
1️⃣ AI-native платформы разработки,
2️⃣ ИИ-платформы с применением суперкомпьютеров,
3️⃣ Конфиденциальные вычисления,
4️⃣ Мультиагентные системы,
5️⃣ Языковые модели, зависящие от предметной области,
6️⃣ Физический ИИ (Physical AI),
7️⃣ Превентивная кибербезопасность,
8️⃣ Цифровое происхождение (Digital provenance),
9️⃣ AI security платформы,
🔟 Репатриация облаков и вычислительных ресурсов (Geopatriation).
10 главных трендов от Gartner:
1️⃣ AI-native платформы разработки,
2️⃣ ИИ-платформы с применением суперкомпьютеров,
3️⃣ Конфиденциальные вычисления,
4️⃣ Мультиагентные системы,
5️⃣ Языковые модели, зависящие от предметной области,
6️⃣ Физический ИИ (Physical AI),
7️⃣ Превентивная кибербезопасность,
8️⃣ Цифровое происхождение (Digital provenance),
9️⃣ AI security платформы,
🔟 Репатриация облаков и вычислительных ресурсов (Geopatriation).
👍3🔥2🤝1
Figure_1_Hype_Cycle_for_Artificial_Intelligence_in_Banking_2025.png
105.1 KB
Hype Cycle for Artificial Intelligence in Banking, 2025
👍2❤1🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
Яндекс Диск
1.11.164-1.367.25
Посмотреть и скачать с Яндекс Диска
👍1🔥1🤝1
Forwarded from AISecHub
A Survey of Data Agents: Emerging Paradigm or Overstated Hype? - https://arxiv.org/pdf/2510.23587 | https://github.com/HKUSTDial/awesome-data-agents
L0: Humans do everything manually.
L1: AI helps with code or queries (think ChatGPT-level assistance).
L2: AI can perceive environments (use tools, read databases).
L3: AI orchestrates pipelines by itself humans just supervise.
L4: AI proactively finds problems to solve.
L5: AI invents new data science methods full autonomy
L0: Humans do everything manually.
L1: AI helps with code or queries (think ChatGPT-level assistance).
L2: AI can perceive environments (use tools, read databases).
L3: AI orchestrates pipelines by itself humans just supervise.
L4: AI proactively finds problems to solve.
L5: AI invents new data science methods full autonomy
👍1🔥1
Machine Learning Systems
Principles and Practices of Engineering Artificially Intelligent Systems https://www.mlsysbook.ai/
Principles and Practices of Engineering Artificially Intelligent Systems https://www.mlsysbook.ai/
mlsysbook.ai
ML Systems Textbook
👍1🔥1
Navigating China’s AI Regulatory Landscape in 2025: What Businesses Need to Know
https://securiti.ai/china-ai-regulatory-landscape
https://securiti.ai/china-ai-regulatory-landscape
Securiti
Navigating China’s AI Regulatory Landscape in 2025: What Businesses Need to Know - Securiti
A 2025 guide to China’s AI rules - generative-AI measures, algorithm & deep-synthesis filings, PIPL data exports, CAC security reviews with a practical compliance checklist.
🔥3👍2🤝2
Forwarded from red_mad_robot
Карта_рынка_GenAI_red_mad_robot_2025.pdf
40.5 MB
Карта рынка GenAI: как он устроен в России
Центр AI-компетенций red_mad_robot собрал большой отчёт по состоянию российского рынка GenAI в 2025 году. Получилась настоящая онтологическая карта с уровнями экосистемы, распределением ролей и зонами, где формируются ключевые компетенции.
Мы проанализировали локальный ландшафт, зафиксировали связи и точки роста, а контекст и практические детали дополнили разговоры с экспертами из red_mad_robot, @beeline и @skolkovo_channel.
Сохраняйте и читайте PDF!
#AI_moment #трендвотчинг
↗️ red_mad_robot
Центр AI-компетенций red_mad_robot собрал большой отчёт по состоянию российского рынка GenAI в 2025 году. Получилась настоящая онтологическая карта с уровнями экосистемы, распределением ролей и зонами, где формируются ключевые компетенции.
Мы проанализировали локальный ландшафт, зафиксировали связи и точки роста, а контекст и практические детали дополнили разговоры с экспертами из red_mad_robot, @beeline и @skolkovo_channel.
Сохраняйте и читайте PDF!
#AI_moment #трендвотчинг
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2🤝2👍1🤯1
Forwarded from Swordfish Security
Представляем Swordfish: Secure AI Maturity Model (SAIMM) — фреймворк, который помогает компаниям обеспечивать безопасность ИИ-систем и устойчивость к атакам на всех этапах жизненного цикла разработки.
SAIMM построен на основе пяти базовых доменов в области безопасности ИИ и одного специализированного в области агентных систем. Для каждого домена предусмотрена дорожная карта с действиями, артефактами и техническими мерами.
Домены SAIMM:
1️⃣ Управление и риск-менеджмент
Политики, роли, риск-аппетит, процедуры аудита, внутренние стандарты и этические принципы.
2️⃣ Защита данных и конфиденциальность
Качество, происхождение, доступы, ПДн и локализация. Надежное обучение моделей и эксплуатация ИИ.
3️⃣ Безопасность модели
Устойчивость моделей к атакам любого рода и защита артефактов модели от несанкционированного доступа.
4️⃣ Безопасность цепочек поставок
Встроенная безопасность в конвейер разработки ПО. Контроль состава и безопасности всех внешних компонентов: модели, библиотеки, датасеты.
5️⃣ Инфраструктура и операционная безопасность
Надежное функционирование системы, устойчивость к сбоям, дрейфу и атакам. Организация реагирования на инциденты.
6️⃣ Безопасность агентных систем
Контроль автономного поведения агентов для предотвращения нежелательных действий и рисков.
💡 SAIMM выступает практической картой зрелости безопасности ИИ, позволяющей не просто измерять готовность, но и выстраивать стратегию
безопасного внедрения и масштабирования искусственного интеллекта в корпоративной среде.
Хотите внедрять безопасный и ответственный ИИ?
➡️ Скачивайте SAIMM и начините оценку прямо сейчас!
#AISecurity #AIOps #MLSecOps
SAIMM построен на основе пяти базовых доменов в области безопасности ИИ и одного специализированного в области агентных систем. Для каждого домена предусмотрена дорожная карта с действиями, артефактами и техническими мерами.
Домены SAIMM:
Политики, роли, риск-аппетит, процедуры аудита, внутренние стандарты и этические принципы.
Качество, происхождение, доступы, ПДн и локализация. Надежное обучение моделей и эксплуатация ИИ.
Устойчивость моделей к атакам любого рода и защита артефактов модели от несанкционированного доступа.
Встроенная безопасность в конвейер разработки ПО. Контроль состава и безопасности всех внешних компонентов: модели, библиотеки, датасеты.
Надежное функционирование системы, устойчивость к сбоям, дрейфу и атакам. Организация реагирования на инциденты.
Контроль автономного поведения агентов для предотвращения нежелательных действий и рисков.
безопасного внедрения и масштабирования искусственного интеллекта в корпоративной среде.
Хотите внедрять безопасный и ответственный ИИ?
#AISecurity #AIOps #MLSecOps
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1👎1🔥1🥱1🤝1
Forwarded from AlexRedSec
Cloud Security Alliance обновила свое руководство по моделированию угроз для облачных сред🛡
Новая версия учитывает специфику ИИ-систем, которые активно внедряются и размещаются в облачных средах.
В документе:
🔗 описаны различные фреймворки, используемые для идентификации, анализа и приоритизации угроз , в т.ч. узкоспециализированные для ИИ-систем (PLOT4AI, MAESTRO, NIST AI RMF).
🔗 описан жизненный цикл процесса моделирования угроз без привязки к фреймворкам, нюансы моделирования угроз для облачных сред, метрики и модель зрелости процесса.
🔗 приведено руководство по созданию моделей угроз и пример моделирования.
🔗 представлен обзор инструментов и платформ моделирования угроз, в т.ч. ИИ-инструменты (KaliGPT, SecML и т.п.).
p.s. Напоминаю, что вообще есть большой гайд по различным фреймворкам и инструментам моделирования угроз, который периодически обновляется.
#cloud #threat #modelling #ai #framework
Новая версия учитывает специфику ИИ-систем, которые активно внедряются и размещаются в облачных средах.
В документе:
p.s. Напоминаю, что вообще есть большой гайд по различным фреймворкам и инструментам моделирования угроз, который периодически обновляется.
#cloud #threat #modelling #ai #framework
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1🤝1
https://owasp.org/www-project-ai-testing-guide
Руководство по тестированию систем ИИ от OWASP. Включает раздел моделирования угроз и методику тестирования.
inspired by ЭйАй Секур’илка
Руководство по тестированию систем ИИ от OWASP. Включает раздел моделирования угроз и методику тестирования.
inspired by ЭйАй Секур’илка
owasp.org
OWASP AI Testing Guide | OWASP Foundation
Methodology to perform an AI System Assessment
👍1🔥1
Обновлен Международный доклад по безопасности ИИ
Опубликовано второе обновление Международного доклада по безопасности ИИ, в котором описаны текущие меры по управлению рисками, связанными с инструментами ИИ.
Что интересно:
1. Атаки хакеров на ИИ успешны в 50% случаев: «Эшелонированная Защита» постоянно прорывается.
Несмотря на то, что разработчики ИИ внедряют стратегию «эшелонированной защиты» (defence-in-depth), комбинируя меры безопасности на этапах обучения, развертывания и мониторинга, этого часто оказывается недостаточно перед лицом изощренных злоумышленников.
Вывод: Это демонстрирует динамичный ландшафт «атака-защита»: разработчики совершенствуют методы, но хакеры постоянно находят новые способы вызвать нежелательное поведение.
2. Угроза «Отравления данных» делает атаки на ИИ невероятно дешевыми.
Источники подчеркивают опасный дисбаланс ресурсов между защитой и нападением: создание надежных систем дорого и сложно, тогда как их компрометация может быть удивительно дешевой.
Вывод: Низкая стоимость проведения атак «отравления данных» по сравнению со стоимостью разработки и поддержания надежных защитных механизмов создает серьезный риск для целостности и надежности систем ИИ.
3. Мощный ИИ с открытым кодом стал инструментом для создания незаконного контента.
Рост моделей с открытыми весами (open-weight models) — моделей, параметры которых свободно доступны для загрузки и модификации — резко изменил ландшафт рисков, поскольку контроль над ними утрачивается.
Вывод: Открытость способствует инновациям и прозрачности, но она также делает контроль за модификацией и использованием моделей практически невозможным, что подчеркивает, почему технические меры по управлению рисками для открытых моделей остаются незрелыми.
Опубликовано второе обновление Международного доклада по безопасности ИИ, в котором описаны текущие меры по управлению рисками, связанными с инструментами ИИ.
Что интересно:
1. Атаки хакеров на ИИ успешны в 50% случаев: «Эшелонированная Защита» постоянно прорывается.
Несмотря на то, что разработчики ИИ внедряют стратегию «эшелонированной защиты» (defence-in-depth), комбинируя меры безопасности на этапах обучения, развертывания и мониторинга, этого часто оказывается недостаточно перед лицом изощренных злоумышленников.
Вывод: Это демонстрирует динамичный ландшафт «атака-защита»: разработчики совершенствуют методы, но хакеры постоянно находят новые способы вызвать нежелательное поведение.
2. Угроза «Отравления данных» делает атаки на ИИ невероятно дешевыми.
Источники подчеркивают опасный дисбаланс ресурсов между защитой и нападением: создание надежных систем дорого и сложно, тогда как их компрометация может быть удивительно дешевой.
Вывод: Низкая стоимость проведения атак «отравления данных» по сравнению со стоимостью разработки и поддержания надежных защитных механизмов создает серьезный риск для целостности и надежности систем ИИ.
3. Мощный ИИ с открытым кодом стал инструментом для создания незаконного контента.
Рост моделей с открытыми весами (open-weight models) — моделей, параметры которых свободно доступны для загрузки и модификации — резко изменил ландшафт рисков, поскольку контроль над ними утрачивается.
Вывод: Открытость способствует инновациям и прозрачности, но она также делает контроль за модификацией и использованием моделей практически невозможным, что подчеркивает, почему технические меры по управлению рисками для открытых моделей остаются незрелыми.
❤1👍1🔥1
https://habr.com/ru/companies/angarasecurity/articles/976798/
“MLSecOps: системный взгляд на угрозы и защиту на каждом этапе разработки и внедрения моделей” - статья от Angara.
“MLSecOps: системный взгляд на угрозы и защиту на каждом этапе разработки и внедрения моделей” - статья от Angara.
Хабр
MLSecOps: системный взгляд на угрозы и защиту на каждом этапе разработки и внедрения моделей
Всем привет! На связи Angara Security. Сегодня Лариса Карпан, старший специалист по безопасной разработке, подготовила статью для AppSec- и DevSecOps-специалистов, а также для CISO, которые уже...
❤1👍1🔥1