Forwarded from CyberSecurityTechnologies
#tools
#hardening
#MLSecOps
Detecting and Monitoring OpenClaw (clawdbot, moltbot)
1⃣ OpenClaw Detection Scripts
// Detection noscripts for MDM deployment to identify OpenClaw installations on managed devices
2⃣ OpenClaw Telemetry Plugin
// Captures tool calls, LLM usage, agent lifecycle, and message events
3⃣ Advanced Cognitive Inoculation Prompt (ACIP)
// Fortifying LLMs against sophisticated prompt injection attacks
#hardening
#MLSecOps
Detecting and Monitoring OpenClaw (clawdbot, moltbot)
1⃣ OpenClaw Detection Scripts
// Detection noscripts for MDM deployment to identify OpenClaw installations on managed devices
2⃣ OpenClaw Telemetry Plugin
// Captures tool calls, LLM usage, agent lifecycle, and message events
3⃣ Advanced Cognitive Inoculation Prompt (ACIP)
// Fortifying LLMs against sophisticated prompt injection attacks
Forwarded from CyberSecurityTechnologies
NIST_AI_800-2.pdf
681.5 KB
#MLSecOps
#Infosec_Standards
NIST AI 800-2 (IPD):
"Practices for Automated Benchmark Evaluations of Language Models", Jan. 2026.
// This document identifies practices for conducting automated benchmark evaluations of language models and similar general-purpose AI models that output text. Evaluations of these models, often embedded into systems capable of functioning as chatbots and AI agents, are increasingly common. However, consistent practices to support the validity and reproducibility of such evaluations are only beginning to emerge. The practices presented in this document are intended to reflect best practices; where relevant, practices that are relatively less mature in ecosystem use are labeled as emerging practice
#Infosec_Standards
NIST AI 800-2 (IPD):
"Practices for Automated Benchmark Evaluations of Language Models", Jan. 2026.
// This document identifies practices for conducting automated benchmark evaluations of language models and similar general-purpose AI models that output text. Evaluations of these models, often embedded into systems capable of functioning as chatbots and AI agents, are increasingly common. However, consistent practices to support the validity and reproducibility of such evaluations are only beginning to emerge. The practices presented in this document are intended to reflect best practices; where relevant, practices that are relatively less mature in ecosystem use are labeled as emerging practice
✍2
Forwarded from Пост Лукацкого
ФСТЭК выложила проект методического документа по мероприятиям и мерам защиты информации в ГИС, ОКИИ, ИСПДн и АСУ ТП. 200 страниц без малого. Сейчас идет активная работа над ним. Поэтому не надо рассматривать его как финальный вариант, но как направление в эту сторону.
#регулирование
#регулирование
Forwarded from CodeCamp
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк, который мы заслужили: чел собрал систему VisionClaw, которая превращает очки Ray-Ban с камерой в полноценного ИИ-агента 🤔
Зачем? Чтобы можно было покупать вещи, просто глядя на них😂
Больше не нужно доставать телефон и тыкать в экран — вы просто гуляете в очках и общаетесь с Gemini Live голосом. Система в реальном времени стримит картинку и звук через вебсокеты, а ИИ через шлюз OpenClaw получает доступ к вашим приложениям, картам и кошелькам.
Как это выглядит на практике:
— Смотрите на кроссовки прохожего и просите Gemini найти их и купить;
— Диктуете сообщения в Telegram, пока руки заняты пакетами из супермаркета;
— Ищете лучший кофе поблизости, а нейронка нашептывает маршрут прямо в ухо;
— Занимаетесь социальным сталкингом: смотрите на людей, а Gemini ищет их профили в соцсетях и пишет сообщения в духе «Привет, классные кроссовки» 😁
Если очков под рукой нет, можно потестить через обычную камеру iPhone.
Аккуратнее с людьми в очках😏
Зачем? Чтобы можно было покупать вещи, просто глядя на них
Больше не нужно доставать телефон и тыкать в экран — вы просто гуляете в очках и общаетесь с Gemini Live голосом. Система в реальном времени стримит картинку и звук через вебсокеты, а ИИ через шлюз OpenClaw получает доступ к вашим приложениям, картам и кошелькам.
Как это выглядит на практике:
— Смотрите на кроссовки прохожего и просите Gemini найти их и купить;
— Диктуете сообщения в Telegram, пока руки заняты пакетами из супермаркета;
— Ищете лучший кофе поблизости, а нейронка нашептывает маршрут прямо в ухо;
Если очков под рукой нет, можно потестить через обычную камеру iPhone.
Аккуратнее с людьми в очках
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Анализ данных (Data analysis)
🚨 Теперь можно запускать 70B LLM на видеокарте с 4GB VRAM
AirLLM буквально выбивает почву из аргумента “для больших моделей нужно дорогое железо”.
Фреймворк позволяет запускать модели размером до 70B параметров даже на GPU с 4GB видеопамяти.
Как это возможно?
Вместо загрузки всей модели в память сразу, AirLLM:
- подгружает модель по слоям
- выполняет вычисления
- освобождает память
- переходит к следующему слою
Фактически, это потоковая обработка модели.
Более того, авторы показывают запуск Llama 3.1 405B на 8GB VRAM.
Что это даёт разработчикам:
- не требуется квантование по умолчанию
- можно запускать Llama, Qwen, Mistral, Mixtral локально
- работает на Linux, Windows и macOS
- не нужен сервер с огромным GPU
Это сдвигает барьер входа для локального LLM-разработки и экспериментов.
AirLLM полностью open source - можно использовать, изучать и встраивать в свои пайплайны.
https://github.com/0xSojalSec/airllm
AirLLM буквально выбивает почву из аргумента “для больших моделей нужно дорогое железо”.
Фреймворк позволяет запускать модели размером до 70B параметров даже на GPU с 4GB видеопамяти.
Как это возможно?
Вместо загрузки всей модели в память сразу, AirLLM:
- подгружает модель по слоям
- выполняет вычисления
- освобождает память
- переходит к следующему слою
Фактически, это потоковая обработка модели.
Более того, авторы показывают запуск Llama 3.1 405B на 8GB VRAM.
Что это даёт разработчикам:
- не требуется квантование по умолчанию
- можно запускать Llama, Qwen, Mistral, Mixtral локально
- работает на Linux, Windows и macOS
- не нужен сервер с огромным GPU
Это сдвигает барьер входа для локального LLM-разработки и экспериментов.
AirLLM полностью open source - можно использовать, изучать и встраивать в свои пайплайны.
https://github.com/0xSojalSec/airllm
👍1
Forwarded from Love. Death. Transformers.
На заметку: Сбер показал технический отчет Green-VLA, посвященный развитию физического искусственного интеллекта. На основе этой модели был как раз построен робот Грин, который на AI Journey в прошедшем ноябре более 10 часов (!) провел, передвигаясь по конференции, общаясь со зрителями и танцуя.
В общем, вполне логично, что материал занял первое место на портале Hugging Face среди всех статей дня.
В общем, вполне логично, что материал занял первое место на портале Hugging Face среди всех статей дня.