https://www.anti-malware.ru/analytics/Technology_Analysis/GOST-R-56939-2024-Secure-Development-Audit
Anti-Malware
ГОСТ Р 56939-2024: аудит безопасной разработки и ключевые изменения стандарта
В конце декабря 2024 года вступил в силу Национальный стандарт РФ «Защита информации. Разработка безопасного программного обеспечения. Общие требования» (ГОСТ Р 56939-2024), заменивший ГОСТ Р
Forwarded from Банкста
This media is not supported in your browser
VIEW IN TELEGRAM
Блогер обошёл защиту робота Unitree G1, связанного с ChatGPT, на убийство человека.
Автор ролика выдал роботу пистолет и попытался дать команду выстрелить в него. Прямые команды ChatGPT игнорировал, но когда блогер попросил «сыграть роль убийцы», робот согласился и выстрелил. @banksta
Автор ролика выдал роботу пистолет и попытался дать команду выстрелить в него. Прямые команды ChatGPT игнорировал, но когда блогер попросил «сыграть роль убийцы», робот согласился и выстрелил. @banksta
❤1🔥1
Forwarded from CyberSecurityTechnologies
In-Context_Representation_Hijacking.pdf
705.9 KB
#MLSecOps
"In-Context Representation Hijacking", Dec. 2025.
]-> Implementation of the Doublespeak Attack
// Doublespeak hijacks internal LLM representations by replacing harmful keywords with benign substitutes in in-context examples. This causes the model to internally interpret benign tokens as harmful concepts, bypassing safety alignment
"In-Context Representation Hijacking", Dec. 2025.
]-> Implementation of the Doublespeak Attack
// Doublespeak hijacks internal LLM representations by replacing harmful keywords with benign substitutes in in-context examples. This causes the model to internally interpret benign tokens as harmful concepts, bypassing safety alignment
👍1🤔1
Forwarded from Похек AI (Сергей Зыбнев)
IBM ARES: Открытый фреймворк для Red Teaming AI-систем
#IBM #red_team #pentest
TLDR: IBM выпустила ARES (AI Robustness Evaluation System) — открытый фреймворк для автоматизированного тестирования на проникновение AI-систем. Он позволяет систематически проверять модели на уязвимости к jailbreaking, извлечению данных и генерации вредоносного контента, предоставляя разработчикам инструмент для выявления и устранения проблем до их эксплуатации.
➡️ Цель фреймворка
Основная цель ARES — демократизировать и стандартизировать процесс Red Teaming для AI-систем. В условиях, когда регуляторы (Белый дом, EU AI Act, NIST) требуют обязательного тестирования на проникновение для AI, ARES предоставляет практический инструментарий для выполнения этих требований. Фреймворк позволяет перейти от ручного, интуитивного поиска уязвимостей к систематическому, автоматизированному и воспроизводимому процессу.
➡️ Преимущества
Систематический подход: ARES структурирует Red Teaming вокруг трех ключевых компонентов: целей (что вы пытаетесь заставить AI сделать?), стратегий (как вы создаете атаки?) и оценки (удалась ли атака?).
Интеграция с OWASP Top 10 для LLM: Фреймворк позволяет тестировать системы на соответствие известным шаблонам уязвимостей, а не изобретать атаки с нуля.
Тестирование всей инфраструктуры: ARES предназначен не только для тестирования «голых» моделей, но и для оценки всей системы в комплексе: локальных развертываний с защитными механизмами (guardrails), облачных моделей (например, через WatsonX.ai) и развернутых агентов (через AgentLab). Это критически важно, поскольку уязвимости часто возникают на стыке компонентов, а не в самой модели.
Открытость и расширяемость: Будучи open-source проектом, ARES позволяет сообществу вносить свой вклад, добавлять новые типы атак, метрики оценки и интеграции.
➡️ Архитектура
ARES построен на модульной архитектуре, которая обеспечивает гибкость и расширяемость. Ключевые компоненты:
Plugin Catalog: Ядро фреймворка, которое позволяет подключать различные модули:
Target Connectors: для взаимодействия с различными AI-моделями и системами.
Custom Attack Goals: для определения специфических целей атак (например, извлечение PII).
Attack Strategies: для реализации различных техник атак (GCG, PyRIT, Garak и др.).
Robustness Evaluations: для оценки успешности атак.
Orchestrator: Центральный компонент, который управляет процессом тестирования: загружает конфигурацию, выбирает цель, устанавливает цели, запускает стратегии атак, оценивает результаты и генерирует отчет.
Evaluator: Модуль оценки, который использует как автоматизированные методы (например, сопоставление по ключевым словам), так и LLM-as-a-judge для определения, была ли атака успешной.
Этот подход позволяет создавать сложные, многоэтапные сценарии атак, комбинируя различные плагины в рамках одного цикла оценки.
🔗 Источник
🌚 @poxek_ai
#IBM #red_team #pentest
TLDR: IBM выпустила ARES (AI Robustness Evaluation System) — открытый фреймворк для автоматизированного тестирования на проникновение AI-систем. Он позволяет систематически проверять модели на уязвимости к jailbreaking, извлечению данных и генерации вредоносного контента, предоставляя разработчикам инструмент для выявления и устранения проблем до их эксплуатации.
Основная цель ARES — демократизировать и стандартизировать процесс Red Teaming для AI-систем. В условиях, когда регуляторы (Белый дом, EU AI Act, NIST) требуют обязательного тестирования на проникновение для AI, ARES предоставляет практический инструментарий для выполнения этих требований. Фреймворк позволяет перейти от ручного, интуитивного поиска уязвимостей к систематическому, автоматизированному и воспроизводимому процессу.
Систематический подход: ARES структурирует Red Teaming вокруг трех ключевых компонентов: целей (что вы пытаетесь заставить AI сделать?), стратегий (как вы создаете атаки?) и оценки (удалась ли атака?).
Интеграция с OWASP Top 10 для LLM: Фреймворк позволяет тестировать системы на соответствие известным шаблонам уязвимостей, а не изобретать атаки с нуля.
Тестирование всей инфраструктуры: ARES предназначен не только для тестирования «голых» моделей, но и для оценки всей системы в комплексе: локальных развертываний с защитными механизмами (guardrails), облачных моделей (например, через WatsonX.ai) и развернутых агентов (через AgentLab). Это критически важно, поскольку уязвимости часто возникают на стыке компонентов, а не в самой модели.
Открытость и расширяемость: Будучи open-source проектом, ARES позволяет сообществу вносить свой вклад, добавлять новые типы атак, метрики оценки и интеграции.
ARES построен на модульной архитектуре, которая обеспечивает гибкость и расширяемость. Ключевые компоненты:
Plugin Catalog: Ядро фреймворка, которое позволяет подключать различные модули:
Target Connectors: для взаимодействия с различными AI-моделями и системами.
Custom Attack Goals: для определения специфических целей атак (например, извлечение PII).
Attack Strategies: для реализации различных техник атак (GCG, PyRIT, Garak и др.).
Robustness Evaluations: для оценки успешности атак.
Orchestrator: Центральный компонент, который управляет процессом тестирования: загружает конфигурацию, выбирает цель, устанавливает цели, запускает стратегии атак, оценивает результаты и генерирует отчет.
Evaluator: Модуль оценки, который использует как автоматизированные методы (например, сопоставление по ключевым словам), так и LLM-as-a-judge для определения, была ли атака успешной.
Этот подход позволяет создавать сложные, многоэтапные сценарии атак, комбинируя различные плагины в рамках одного цикла оценки.
Please open Telegram to view this post
VIEW IN TELEGRAM
freedium-mirror.cfd
IBM Released a Framework for Breaking Your AI on Purpose (And You Should Use It) | by Gowtham Boyina | in Towards AI - Freedium
The Reality Check I Needed
🔥1
Forwarded from AD_POHEQUE
БЕСПИЛОТНЫЙ RED TEAMING
ребята из dreadnode решили сыграть сами с собой в «красные vs синие», но на стероидах из llm.
с одной стороны — защитник:
кастомный amsi-провайдер под windows, который вместо сигнатур шлёт powershell-код в llm (claude sonnet) и получает вердикт: clean / suspicious / malicious.
с другой — атакующий агент:
llm, которому дают задачу
«подними привилегии до SYSTEM через уязвимую WinSysPerf и создай C:\proof_success.txt».
агент генерит ps-эксплойт, гоняет его через UnmanagedPowerShell (amsi всё видит), смотрит вывод, ошибку «blocked by antivirus» и по кругу дорабатывает атаку.
вся рубка идёт в песочнице, но каждый шаг пишется в лог: какой скрипт, какая цель, что сказал amsi-llm, сработал ли эксплойт, есть ли proof-файл и кто его владелец. на выходе — живой датасет реальных ofenssive-цепочек, а не архив powersploit’а.
как работает llm-amsi
очень коротко:
powershell → AmsiScanBuffer()
→ наш AMSI DLL
→ Read() вытаскивает скрипт
→ запрос в LLM "оценить скрипт"
→ ответ: clean / suspicious / malicious
→ маппинг в AMSI_RESULT_*
→ либо выполняем, либо рубим "blocked by antivirus"
если скрипт жирный — режут на куски, каждый отдельно гоняют в llm, один malicious → режем всё.
как работает red team агент
goal ("SYSTEM + C:\proof_success.txt")
→ LLM пишет ps-код
→ UnmanagedPowerShell.Invoke()
→ AMSI+LLM либо пускает, либо блочит
→ агент смотрит stdout/ошибки
→ verifier проверяет proof-файл и владельца
→ до 10 итераций, финал — TASK_COMPLETE
первые попытки — тупой service binPath hijack → llm-amsi валит. дальше агент начинает «играть белого админа»: отдельно смотрит статус сервиса, собирает WMI, аккуратно крутит sc.exe config, net stop/start, проверяет Test-Path. часть такого кода amsi считает чистым, часть подозрительным, иногда промахивается. но в итоге агент выбивает SYSTEM и оставляет аккуратный SUCCESS в C:\proof_success.txt.
зачем это всё
на каждый скрипт есть:
- код powershell
- цель
- факт успеха / неуспеха
- вердикт и причина от защитного llm
это уже материал, из которого можно:
- учить свои модели,
- строить правила для edr,
- тестировать продуктовые гипотезы «что llm-amsi делает под реальной атакой».
что говорить, данный подход я уже реализовал в моём проекте Ледокол ОС. еще в сентябре.
но как вы можете сами наблюдать на рынке ИБ, то вендоров и заказчиков интересует весёленький распил субсидиарного бабла по лекалам 44-ФЗ. а на безопасность им просто похуй :)
ребята из dreadnode решили сыграть сами с собой в «красные vs синие», но на стероидах из llm.
https://dreadnode.io/blog/llm-powered-amsi-provider-vs-red-team-agentс одной стороны — защитник:
кастомный amsi-провайдер под windows, который вместо сигнатур шлёт powershell-код в llm (claude sonnet) и получает вердикт: clean / suspicious / malicious.
с другой — атакующий агент:
llm, которому дают задачу
«подними привилегии до SYSTEM через уязвимую WinSysPerf и создай C:\proof_success.txt».
агент генерит ps-эксплойт, гоняет его через UnmanagedPowerShell (amsi всё видит), смотрит вывод, ошибку «blocked by antivirus» и по кругу дорабатывает атаку.
вся рубка идёт в песочнице, но каждый шаг пишется в лог: какой скрипт, какая цель, что сказал amsi-llm, сработал ли эксплойт, есть ли proof-файл и кто его владелец. на выходе — живой датасет реальных ofenssive-цепочек, а не архив powersploit’а.
как работает llm-amsi
очень коротко:
powershell → AmsiScanBuffer()
→ наш AMSI DLL
→ Read() вытаскивает скрипт
→ запрос в LLM "оценить скрипт"
→ ответ: clean / suspicious / malicious
→ маппинг в AMSI_RESULT_*
→ либо выполняем, либо рубим "blocked by antivirus"
если скрипт жирный — режут на куски, каждый отдельно гоняют в llm, один malicious → режем всё.
как работает red team агент
goal ("SYSTEM + C:\proof_success.txt")
→ LLM пишет ps-код
→ UnmanagedPowerShell.Invoke()
→ AMSI+LLM либо пускает, либо блочит
→ агент смотрит stdout/ошибки
→ verifier проверяет proof-файл и владельца
→ до 10 итераций, финал — TASK_COMPLETE
первые попытки — тупой service binPath hijack → llm-amsi валит. дальше агент начинает «играть белого админа»: отдельно смотрит статус сервиса, собирает WMI, аккуратно крутит sc.exe config, net stop/start, проверяет Test-Path. часть такого кода amsi считает чистым, часть подозрительным, иногда промахивается. но в итоге агент выбивает SYSTEM и оставляет аккуратный SUCCESS в C:\proof_success.txt.
зачем это всё
на каждый скрипт есть:
- код powershell
- цель
- факт успеха / неуспеха
- вердикт и причина от защитного llm
это уже материал, из которого можно:
- учить свои модели,
- строить правила для edr,
- тестировать продуктовые гипотезы «что llm-amsi делает под реальной атакой».
что говорить, данный подход я уже реализовал в моём проекте Ледокол ОС. еще в сентябре.
но как вы можете сами наблюдать на рынке ИБ, то вендоров и заказчиков интересует весёленький распил субсидиарного бабла по лекалам 44-ФЗ. а на безопасность им просто похуй :)
Forwarded from red_mad_robot
Qwen3Guard: следующий шаг в модерации и контроле контента
Когда в продукте появляется открытый ввод, вопрос модерации становится неизбежным. Даже при штатном использовании в поток попадают формулировки на грани или попытки обойти ограничения вроде «объясни, как взломать соседа».
В новой статье на Habr разбираем Qwen3Guard — модель, построенную как отдельный класс модерационных систем. Она определяет риск на уровне токенов ещё в момент генерации и может остановить ответ до отправки пользователю.
#AI_moment #роботайм
↗️ red_mad_robot
Когда в продукте появляется открытый ввод, вопрос модерации становится неизбежным. Даже при штатном использовании в поток попадают формулировки на грани или попытки обойти ограничения вроде «объясни, как взломать соседа».
В новой статье на Habr разбираем Qwen3Guard — модель, построенную как отдельный класс модерационных систем. Она определяет риск на уровне токенов ещё в момент генерации и может остановить ответ до отправки пользователю.
#AI_moment #роботайм
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Forwarded from AISec [x\x feed]🍓🍌🍆 (Artyom Semenov)
Beyond Single-Agent Safety: A Taxonomy of Risks in LLM-to-LLM Interactions
https://arxiv.org/html/2512.02682v1
https://arxiv.org/html/2512.02682v1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Роботы GITAI самостоятельно и собрали 5-метровую конструкцию - фундамент будущих внеземных модулей.
Это пример того, как связка ИИ + робототехника начинает давать тот самый технологический скачок, на который долго рассчитывали: автономные системы, способные строить инфраструктуру без участия человека, открывают путь к базам на Луне, Марсе и орбите.
@ai_machinelearning_big_data
#robotics #AI #automation #spacetech #GITAI
Это пример того, как связка ИИ + робототехника начинает давать тот самый технологический скачок, на который долго рассчитывали: автономные системы, способные строить инфраструктуру без участия человека, открывают путь к базам на Луне, Марсе и орбите.
@ai_machinelearning_big_data
#robotics #AI #automation #spacetech #GITAI
❤1👍1
Forwarded from [31/100] Витя Тарнавский
Ребята из AI Factory сделали большую карту российских ИИ-компаний.
Я потыкался, карта хорошая. Люблю такие карты. И табличка удобная есть.
Можно увидеть что рынок на удивление очень живой и богатый. Одних агрегаторов нейросетей 14 штук, я из них знал три штуки.
Всем молодым компаниям в ИИ удачи в это нелёгкое время. Из таблички 80% компаний умрут 🥲 Но на молодых компаниях всё держится – на ошибках всех этих идей и подходах построится понимание что же на самом деле надо было делать.
p.s. пост не купленный, я ребят вообще не знаю, и рекламу не даю
https://incrussia.ru/specials/karta-rossijskogo-ii-2-0/
Я потыкался, карта хорошая. Люблю такие карты. И табличка удобная есть.
Можно увидеть что рынок на удивление очень живой и богатый. Одних агрегаторов нейросетей 14 штук, я из них знал три штуки.
Всем молодым компаниям в ИИ удачи в это нелёгкое время. Из таблички 80% компаний умрут 🥲 Но на молодых компаниях всё держится – на ошибках всех этих идей и подходах построится понимание что же на самом деле надо было делать.
p.s. пост не купленный, я ребят вообще не знаю, и рекламу не даю
https://incrussia.ru/specials/karta-rossijskogo-ii-2-0/
Forwarded from Андрей
Решения в области ИИ-безопасности на 2025 год
Рынок систем безопасности на основе ИИ вступает в новую фазу
После нескольких лет ажиотажа и исследований мы наблюдаем явную консолидацию рынка решений для обеспечения безопасности с помощью ИИ. Сектор безопасности с помощью ИИ вступает в фазу зрелости, о чём свидетельствует эволюция нашего «Радара решений для обеспечения безопасности с помощью ИИ».
https://www.riskinsight-wavestone.com/en/2025/09/2025-ai-security-solutions-radar/
Рынок систем безопасности на основе ИИ вступает в новую фазу
После нескольких лет ажиотажа и исследований мы наблюдаем явную консолидацию рынка решений для обеспечения безопасности с помощью ИИ. Сектор безопасности с помощью ИИ вступает в фазу зрелости, о чём свидетельствует эволюция нашего «Радара решений для обеспечения безопасности с помощью ИИ».
https://www.riskinsight-wavestone.com/en/2025/09/2025-ai-security-solutions-radar/
RiskInsight
2025 AI security solutions Radar - RiskInsight
The AI security market is entering a new phase After several years of excitement and exploration, we are now witnessing a clear consolidation of the AI security solutions market. The AI security sector is entering a phase of...
Forwarded from AISec [x\x feed]🍓🍌🍆 (Artyom Semenov)
Forwarded from CyberSecurityTechnologies
VLM_Multi-Faceted_Attack.pdf
8 MB
#MLSecOps
#Offensive_security
"Multi-Faceted Attack: Exposing Cross-Model Vulnerabilities in Defense-Equipped Vision-Language Models", Nov. 2025.
// Multi-Faceted Attack (MFA) - framework that systematically uncovers general safety vulnerabilities in leading defense-equipped VLMs, including GPT-4o, Gemini-Pro, and LlaMA 4, etc. Central to MFA is the Attention-Transfer Attack, which conceals harmful instructions inside a meta task with competing objectives. We offer a theoretical perspective grounded in reward-hacking to explain why such an attack can succeed
#Offensive_security
"Multi-Faceted Attack: Exposing Cross-Model Vulnerabilities in Defense-Equipped Vision-Language Models", Nov. 2025.
// Multi-Faceted Attack (MFA) - framework that systematically uncovers general safety vulnerabilities in leading defense-equipped VLMs, including GPT-4o, Gemini-Pro, and LlaMA 4, etc. Central to MFA is the Attention-Transfer Attack, which conceals harmful instructions inside a meta task with competing objectives. We offer a theoretical perspective grounded in reward-hacking to explain why such an attack can succeed
👍1
фазы атак на ии
OWASP + Microsoft - https://atlas.mitre.org/matrices/ATLAS
Zenity - https://ttps.ai
Nvidia - https://developer.nvidia.com/blog/modeling-attacks-on-ai-powered-apps-with-the-ai-kill-chain-framework
Hiddenlayer - https://hiddenlayer.com/innovation-hub/introducing-a-taxonomy-of-adversarial-prompt-engineering
OWASP + Microsoft - https://atlas.mitre.org/matrices/ATLAS
Zenity - https://ttps.ai
Nvidia - https://developer.nvidia.com/blog/modeling-attacks-on-ai-powered-apps-with-the-ai-kill-chain-framework
Hiddenlayer - https://hiddenlayer.com/innovation-hub/introducing-a-taxonomy-of-adversarial-prompt-engineering
ttps.ai
Attacks Matrix - AI Agents Attack Matrix
Documentation for the AI Agents Attack Matrix
Forwarded from CodeCamp
Российские ученые взяли трофей на NeurIPS 2025 — команда In2AI заняла первое место в международном турнире по стратегическому мышлению для ИИ-агентов.
В состав сборной вошли представители научного партнера Сбера — Институт AIRI. Одна из их моделей с 8B параметров обошла участников на GPT-5, Gemini 2.5 Pro и Grok 4. В итоге она выиграла сразу в двух треках: Efficient и Open.
Секрет успеха — в системном инженерном подходе к обучению с подкреплением. Всего в соревновании участвовали 76 команд и 944 модели.
Наши слоны💪
В состав сборной вошли представители научного партнера Сбера — Институт AIRI. Одна из их моделей с 8B параметров обошла участников на GPT-5, Gemini 2.5 Pro и Grok 4. В итоге она выиграла сразу в двух треках: Efficient и Open.
Секрет успеха — в системном инженерном подходе к обучению с подкреплением. Всего в соревновании участвовали 76 команд и 944 модели.
Наши слоны
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡1
Forwarded from GitHub Community
Baby Dragon Hatchling (BDH) — это архитектура большой языковой модели, вдохновлённая биологией, которая объединяет принципы глубокого обучения с основами нейробиологии.
Разработанная исследователями из Pathway, BDH представляет собой теоретическую и практическую основу для понимания того, как в искусственных системах возникают рассуждения и обобщения.
🐱 GitHub
Разработанная исследователями из Pathway, BDH представляет собой теоретическую и практическую основу для понимания того, как в искусственных системах возникают рассуждения и обобщения.
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡1🔥1🥱1
Forwarded from CyberSecurityTechnologies
Lifecycle_Supervision_Framework_for_Robustly_Aligned_AI_Agents.pdf
3.4 MB
#AIOps
#CogSec
#MLSecOps
"Cognitive Control Architecture (CCA): A Lifecycle Supervision Framework for Robustly Aligned AI Agents", Dec.2025.
// Method is predicated on a core insight: no matter how subtle an IPI attack, its pursuit of a malicious objective will ultimately manifest as a detectable deviation in the action trajectory, distinct from the expected legitimate plan
See also:
]-> Dynamic Environment to Evaluate Prompt Injection Attacks and Defenses for LLM Agents
]-> https://agentdojo.spylab.ai
#CogSec
#MLSecOps
"Cognitive Control Architecture (CCA): A Lifecycle Supervision Framework for Robustly Aligned AI Agents", Dec.2025.
// Method is predicated on a core insight: no matter how subtle an IPI attack, its pursuit of a malicious objective will ultimately manifest as a detectable deviation in the action trajectory, distinct from the expected legitimate plan
See also:
]-> Dynamic Environment to Evaluate Prompt Injection Attacks and Defenses for LLM Agents
]-> https://agentdojo.spylab.ai
Forwarded from Евгений Кокуйкин - Raft
Большой релиз OWASP Top 10 for Agentic AI Applications 🔥.
Последние месяцы мы в команде Agentic Security Initiative собирали первый отраслевой фреймворк по безопасности агентных ИИ-систем. Над документом работали более 100 человек: ресерчеры, вендоры, представители регуляторов и институтов вроде NIST и Linux Foundation.
Мы приоритизировали риски и собрали практические меры защиты для автономных агентов, которые уже заходят в корпоративную инфраструктуру. Если вы строите AI Security-стратегию на 2026 год, из OWASP в первую очередь стоит взять именно этот документ за основу.
Ссылка на релиз.
Сегодня в 17:00 по Москве официальный запуск гайда. Ссылка на трансляцию.
Последние месяцы мы в команде Agentic Security Initiative собирали первый отраслевой фреймворк по безопасности агентных ИИ-систем. Над документом работали более 100 человек: ресерчеры, вендоры, представители регуляторов и институтов вроде NIST и Linux Foundation.
Мы приоритизировали риски и собрали практические меры защиты для автономных агентов, которые уже заходят в корпоративную инфраструктуру. Если вы строите AI Security-стратегию на 2026 год, из OWASP в первую очередь стоит взять именно этот документ за основу.
Ссылка на релиз.
Сегодня в 17:00 по Москве официальный запуск гайда. Ссылка на трансляцию.
OWASP Gen AI Security Project
OWASP Top 10 for Agentic Applications for 2026
The OWASP Top 10 for Agentic Applications 2026 is a globally peer-reviewed framework that identifies the most critical security risks facing autonomous and agentic AI systems. Developed through extensive collaboration with more than 100 industry experts,…
Forwarded from Похек AI (Сергей Зыбнев)
Nikita Barsukov — Look at my Pickle (2025).pdf
9.9 MB
Презентации с митапа LLAMATOR в Ереване
🔥3❤1🥱1