Figure_1_Hype_Cycle_for_Artificial_Intelligence_in_Banking_2025.png
105.1 KB
Hype Cycle for Artificial Intelligence in Banking, 2025
👍2❤1🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
Яндекс Диск
1.11.164-1.367.25
Посмотреть и скачать с Яндекс Диска
👍1🔥1🤝1
Forwarded from AISecHub
A Survey of Data Agents: Emerging Paradigm or Overstated Hype? - https://arxiv.org/pdf/2510.23587 | https://github.com/HKUSTDial/awesome-data-agents
L0: Humans do everything manually.
L1: AI helps with code or queries (think ChatGPT-level assistance).
L2: AI can perceive environments (use tools, read databases).
L3: AI orchestrates pipelines by itself humans just supervise.
L4: AI proactively finds problems to solve.
L5: AI invents new data science methods full autonomy
L0: Humans do everything manually.
L1: AI helps with code or queries (think ChatGPT-level assistance).
L2: AI can perceive environments (use tools, read databases).
L3: AI orchestrates pipelines by itself humans just supervise.
L4: AI proactively finds problems to solve.
L5: AI invents new data science methods full autonomy
👍1🔥1
Machine Learning Systems
Principles and Practices of Engineering Artificially Intelligent Systems https://www.mlsysbook.ai/
Principles and Practices of Engineering Artificially Intelligent Systems https://www.mlsysbook.ai/
mlsysbook.ai
ML Systems Textbook
👍1🔥1
Navigating China’s AI Regulatory Landscape in 2025: What Businesses Need to Know
https://securiti.ai/china-ai-regulatory-landscape
https://securiti.ai/china-ai-regulatory-landscape
Securiti
Navigating China’s AI Regulatory Landscape in 2025: What Businesses Need to Know - Securiti
A 2025 guide to China’s AI rules - generative-AI measures, algorithm & deep-synthesis filings, PIPL data exports, CAC security reviews with a practical compliance checklist.
🔥3👍2🤝2
Forwarded from red_mad_robot
Карта_рынка_GenAI_red_mad_robot_2025.pdf
40.5 MB
Карта рынка GenAI: как он устроен в России
Центр AI-компетенций red_mad_robot собрал большой отчёт по состоянию российского рынка GenAI в 2025 году. Получилась настоящая онтологическая карта с уровнями экосистемы, распределением ролей и зонами, где формируются ключевые компетенции.
Мы проанализировали локальный ландшафт, зафиксировали связи и точки роста, а контекст и практические детали дополнили разговоры с экспертами из red_mad_robot, @beeline и @skolkovo_channel.
Сохраняйте и читайте PDF!
#AI_moment #трендвотчинг
↗️ red_mad_robot
Центр AI-компетенций red_mad_robot собрал большой отчёт по состоянию российского рынка GenAI в 2025 году. Получилась настоящая онтологическая карта с уровнями экосистемы, распределением ролей и зонами, где формируются ключевые компетенции.
Мы проанализировали локальный ландшафт, зафиксировали связи и точки роста, а контекст и практические детали дополнили разговоры с экспертами из red_mad_robot, @beeline и @skolkovo_channel.
Сохраняйте и читайте PDF!
#AI_moment #трендвотчинг
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2🤝2👍1🤯1
Forwarded from Swordfish Security
Представляем Swordfish: Secure AI Maturity Model (SAIMM) — фреймворк, который помогает компаниям обеспечивать безопасность ИИ-систем и устойчивость к атакам на всех этапах жизненного цикла разработки.
SAIMM построен на основе пяти базовых доменов в области безопасности ИИ и одного специализированного в области агентных систем. Для каждого домена предусмотрена дорожная карта с действиями, артефактами и техническими мерами.
Домены SAIMM:
1️⃣ Управление и риск-менеджмент
Политики, роли, риск-аппетит, процедуры аудита, внутренние стандарты и этические принципы.
2️⃣ Защита данных и конфиденциальность
Качество, происхождение, доступы, ПДн и локализация. Надежное обучение моделей и эксплуатация ИИ.
3️⃣ Безопасность модели
Устойчивость моделей к атакам любого рода и защита артефактов модели от несанкционированного доступа.
4️⃣ Безопасность цепочек поставок
Встроенная безопасность в конвейер разработки ПО. Контроль состава и безопасности всех внешних компонентов: модели, библиотеки, датасеты.
5️⃣ Инфраструктура и операционная безопасность
Надежное функционирование системы, устойчивость к сбоям, дрейфу и атакам. Организация реагирования на инциденты.
6️⃣ Безопасность агентных систем
Контроль автономного поведения агентов для предотвращения нежелательных действий и рисков.
💡 SAIMM выступает практической картой зрелости безопасности ИИ, позволяющей не просто измерять готовность, но и выстраивать стратегию
безопасного внедрения и масштабирования искусственного интеллекта в корпоративной среде.
Хотите внедрять безопасный и ответственный ИИ?
➡️ Скачивайте SAIMM и начините оценку прямо сейчас!
#AISecurity #AIOps #MLSecOps
SAIMM построен на основе пяти базовых доменов в области безопасности ИИ и одного специализированного в области агентных систем. Для каждого домена предусмотрена дорожная карта с действиями, артефактами и техническими мерами.
Домены SAIMM:
Политики, роли, риск-аппетит, процедуры аудита, внутренние стандарты и этические принципы.
Качество, происхождение, доступы, ПДн и локализация. Надежное обучение моделей и эксплуатация ИИ.
Устойчивость моделей к атакам любого рода и защита артефактов модели от несанкционированного доступа.
Встроенная безопасность в конвейер разработки ПО. Контроль состава и безопасности всех внешних компонентов: модели, библиотеки, датасеты.
Надежное функционирование системы, устойчивость к сбоям, дрейфу и атакам. Организация реагирования на инциденты.
Контроль автономного поведения агентов для предотвращения нежелательных действий и рисков.
безопасного внедрения и масштабирования искусственного интеллекта в корпоративной среде.
Хотите внедрять безопасный и ответственный ИИ?
#AISecurity #AIOps #MLSecOps
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1👎1🔥1🥱1🤝1
Forwarded from AlexRedSec
Cloud Security Alliance обновила свое руководство по моделированию угроз для облачных сред🛡
Новая версия учитывает специфику ИИ-систем, которые активно внедряются и размещаются в облачных средах.
В документе:
🔗 описаны различные фреймворки, используемые для идентификации, анализа и приоритизации угроз , в т.ч. узкоспециализированные для ИИ-систем (PLOT4AI, MAESTRO, NIST AI RMF).
🔗 описан жизненный цикл процесса моделирования угроз без привязки к фреймворкам, нюансы моделирования угроз для облачных сред, метрики и модель зрелости процесса.
🔗 приведено руководство по созданию моделей угроз и пример моделирования.
🔗 представлен обзор инструментов и платформ моделирования угроз, в т.ч. ИИ-инструменты (KaliGPT, SecML и т.п.).
p.s. Напоминаю, что вообще есть большой гайд по различным фреймворкам и инструментам моделирования угроз, который периодически обновляется.
#cloud #threat #modelling #ai #framework
Новая версия учитывает специфику ИИ-систем, которые активно внедряются и размещаются в облачных средах.
В документе:
p.s. Напоминаю, что вообще есть большой гайд по различным фреймворкам и инструментам моделирования угроз, который периодически обновляется.
#cloud #threat #modelling #ai #framework
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1🤝1
https://owasp.org/www-project-ai-testing-guide
Руководство по тестированию систем ИИ от OWASP. Включает раздел моделирования угроз и методику тестирования.
inspired by ЭйАй Секур’илка
Руководство по тестированию систем ИИ от OWASP. Включает раздел моделирования угроз и методику тестирования.
inspired by ЭйАй Секур’илка
owasp.org
OWASP AI Testing Guide | OWASP Foundation
Methodology to perform an AI System Assessment
👍1🔥1
Обновлен Международный доклад по безопасности ИИ
Опубликовано второе обновление Международного доклада по безопасности ИИ, в котором описаны текущие меры по управлению рисками, связанными с инструментами ИИ.
Что интересно:
1. Атаки хакеров на ИИ успешны в 50% случаев: «Эшелонированная Защита» постоянно прорывается.
Несмотря на то, что разработчики ИИ внедряют стратегию «эшелонированной защиты» (defence-in-depth), комбинируя меры безопасности на этапах обучения, развертывания и мониторинга, этого часто оказывается недостаточно перед лицом изощренных злоумышленников.
Вывод: Это демонстрирует динамичный ландшафт «атака-защита»: разработчики совершенствуют методы, но хакеры постоянно находят новые способы вызвать нежелательное поведение.
2. Угроза «Отравления данных» делает атаки на ИИ невероятно дешевыми.
Источники подчеркивают опасный дисбаланс ресурсов между защитой и нападением: создание надежных систем дорого и сложно, тогда как их компрометация может быть удивительно дешевой.
Вывод: Низкая стоимость проведения атак «отравления данных» по сравнению со стоимостью разработки и поддержания надежных защитных механизмов создает серьезный риск для целостности и надежности систем ИИ.
3. Мощный ИИ с открытым кодом стал инструментом для создания незаконного контента.
Рост моделей с открытыми весами (open-weight models) — моделей, параметры которых свободно доступны для загрузки и модификации — резко изменил ландшафт рисков, поскольку контроль над ними утрачивается.
Вывод: Открытость способствует инновациям и прозрачности, но она также делает контроль за модификацией и использованием моделей практически невозможным, что подчеркивает, почему технические меры по управлению рисками для открытых моделей остаются незрелыми.
Опубликовано второе обновление Международного доклада по безопасности ИИ, в котором описаны текущие меры по управлению рисками, связанными с инструментами ИИ.
Что интересно:
1. Атаки хакеров на ИИ успешны в 50% случаев: «Эшелонированная Защита» постоянно прорывается.
Несмотря на то, что разработчики ИИ внедряют стратегию «эшелонированной защиты» (defence-in-depth), комбинируя меры безопасности на этапах обучения, развертывания и мониторинга, этого часто оказывается недостаточно перед лицом изощренных злоумышленников.
Вывод: Это демонстрирует динамичный ландшафт «атака-защита»: разработчики совершенствуют методы, но хакеры постоянно находят новые способы вызвать нежелательное поведение.
2. Угроза «Отравления данных» делает атаки на ИИ невероятно дешевыми.
Источники подчеркивают опасный дисбаланс ресурсов между защитой и нападением: создание надежных систем дорого и сложно, тогда как их компрометация может быть удивительно дешевой.
Вывод: Низкая стоимость проведения атак «отравления данных» по сравнению со стоимостью разработки и поддержания надежных защитных механизмов создает серьезный риск для целостности и надежности систем ИИ.
3. Мощный ИИ с открытым кодом стал инструментом для создания незаконного контента.
Рост моделей с открытыми весами (open-weight models) — моделей, параметры которых свободно доступны для загрузки и модификации — резко изменил ландшафт рисков, поскольку контроль над ними утрачивается.
Вывод: Открытость способствует инновациям и прозрачности, но она также делает контроль за модификацией и использованием моделей практически невозможным, что подчеркивает, почему технические меры по управлению рисками для открытых моделей остаются незрелыми.
❤1👍1🔥1
https://habr.com/ru/companies/angarasecurity/articles/976798/
“MLSecOps: системный взгляд на угрозы и защиту на каждом этапе разработки и внедрения моделей” - статья от Angara.
“MLSecOps: системный взгляд на угрозы и защиту на каждом этапе разработки и внедрения моделей” - статья от Angara.
Хабр
MLSecOps: системный взгляд на угрозы и защиту на каждом этапе разработки и внедрения моделей
Всем привет! На связи Angara Security. Сегодня Лариса Карпан, старший специалист по безопасной разработке, подготовила статью для AppSec- и DevSecOps-специалистов, а также для CISO, которые уже...
❤1👍1🔥1