ML&|Sec Feed – Telegram
ML&|Sec Feed
915 subscribers
924 photos
57 videos
237 files
1.46K links
Feed for @borismlsec channel

author: @ivolake
Download Telegram
Forwarded from GitHub Community
This media is not supported in your browser
VIEW IN TELEGRAM
NeuTTS — это набор речевых языковых моделей TTS с открытым исходным кодом, которые работают на устройстве и мгновенно клонируют голос.

NeuTTS, созданный на основе LLM, обеспечивает естественное звучание речи, работу в режиме реального времени, встроенную систему безопасности и клонирование голоса на вашем локальном устройстве.

Это открывает доступ к новой категории встроенных голосовых агентов, помощников, игрушек и приложений, соответствующих нормативным требованиям.

🐱 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Forwarded from CyberSecurityTechnologies
Agentic_Design_Patterns.pdf
19 MB
#AIOps
#Tech_book
"Agentic Design Patterns: A Hands-On Guide to Building Intelligent Systems", Oct. 2025.

// A comprehensive guide presenting 21 design patterns for building AI agents, using frameworks like LangChain, Crew AI, and Google ADK to create autonomous intelligent systems
🔥1
Forwarded from CyberSecurityTechnologies
Functional_Network_Fingerprint_for_LLMs.pdf
3.3 MB
#MLSecOps
"FNF: Functional Network Fingerprint for Large Language Models", Feb. 2026.
]-> Repo

// In this work, we propose the Functional Network Fingerprint (FNF), a training-free, sample-efficient method for detecting whether a suspect LLM is derived from a victim model, based on the consistency between their functional network activity
Forwarded from CyberSecurityTechnologies
Llama3.1_FAISecurity_Tech_Report.pdf
1012.2 KB
#MLSecOps
"Llama-3.1-FoundationAI-SecurityLLM-Reasoning-8B Technical Report", Jan 2026.

]-> Foundation-Sec-8B-Reasoning, the first open-source native reasoning model for cybersecurity
Forwarded from CyberED
Потратил $5 000 на AI-агентов для пентеста. Какие результаты получил?

Всем привет! На связи Сергей Зыбнев. Я 5 лет в ИБ, веду телеграм-канал Похек, работаю тимлидом пентестеров в «Бастион», специализируюсь на веб-пентесте.

🤖 В последнее время я увлёкся AI/ML/LLM R&D и за 1,5 года потратил больше $5 000 из своего кармана на эксперименты с AI-агентами для пентеста. 

В карточках рассказал, какие инструменты испытал.

Подробнее про каждый из них, результаты и мои выводы об AI для пентеста — в свежей статье для CyberED.

👉 Читать статью 👈
___
Больше об экспериментах с AI пишу в телеграмм-канале Похек AI – подпишитесь 🙃
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥1
Forwarded from Innovation & Research
international-ai-safety-report-2026.pdf
6.7 MB
Международный отчет по безопасности ИИ

Под председательством Йошуа Бенджио издан второй отчет о безопасности ИИ. Среди ревьюеров можно найти Рассела, Хинтона и других хорошо известных ученых.
Основные выводы:

- Возможности ИИ общего назначения продолжают улучшаться, особенно в математике, программировании и автономной работе. Ведущие системы ИИ достигли высоких результатов в решении задач Международной математической олимпиады. В программировании агенты ИИ теперь могут надежно выполнять некоторые задачи, на которые у человека-программиста ушло бы около получаса, по сравнению с менее чем 10 минутами год назад. Тем не менее, производительность остается «неравномерной», и ведущие системы по-прежнему не справляются с некоторыми, казалось бы, простыми задачами.

- Улучшения в возможностях ИИ общего назначения все чаще достигаются за счет методов, применяемых после первоначального обучения модели. Эти методы «постобучения» включают в себя уточнение моделей для конкретных задач и предоставление им возможности использовать больше вычислительной мощности при генерации результатов. В то же время использование большей вычислительной мощности для первоначального обучения продолжает также улучшать возможности модели.

- Внедрение ИИ происходило быстро, хотя и крайне неравномерно по регионам. ИИ внедрялся быстрее, чем предыдущие технологии, такие как персональные компьютеры, и по меньшей мере 700 миллионов людей сейчас еженедельно используют ведущие системы ИИ. В некоторых странах более 50% населения использует ИИ, хотя в большей части Африки, Азии и Латинской Америки уровень внедрения, вероятно, остается ниже 10%.

- Развитие научных возможностей ИИ усилило опасения по поводу его неправомерного использования в разработке биологического оружия. Несколько компаний, занимающихся ИИ, решили выпустить новые модели в 2025 году с дополнительными мерами безопасности после того, как предварительные испытания не смогли исключить возможность того, что они могут существенно помочь новичкам в разработке такого оружия.

- Появилось больше свидетельств использования систем ИИ в реальных кибератаках. Анализы безопасности, проведенные компаниями, занимающимися ИИ, указывают на то, что злоумышленники и связанные с государством группы используют инструменты ИИ для содействия в кибероперациях.

- Проведение надежных предварительных испытаний на безопасность стало сложнее. Модели стали чаще различать условия тестирования и реальное развертывание, и использовать лазейки в оценках. Это означает, что опасные возможности могут остаться необнаруженными до развертывания.

- Обязательства отрасли по управлению безопасностью расширились. В 2025 году 12 компаний опубликовали или обновили «Рамочные стандарты безопасности ИИ на передовом уровне» — документы, описывающие, как они планируют управлять рисками по мере создания более совершенных моделей. Большинство инициатив по управлению рисками остаются добровольными, но в некоторых юрисдикциях начинают формализовать некоторые практики в качестве юридических требований.
🔥1
Forwarded from Андрей
Соленик В.С._СберТех.pdf
9 MB
Комплексная защита ИИ в Сбертехе
🔥2👎1
Forwarded from CyberSecurityTechnologies
#tools
#hardening
#MLSecOps
Detecting and Monitoring OpenClaw (clawdbot, moltbot)
1⃣ OpenClaw Detection Scripts
// Detection noscripts for MDM deployment to identify OpenClaw installations on managed devices
2⃣ OpenClaw Telemetry Plugin
// Captures tool calls, LLM usage, agent lifecycle, and message events
3⃣ Advanced Cognitive Inoculation Prompt (ACIP)
// Fortifying LLMs against sophisticated prompt injection attacks
Forwarded from CyberSecurityTechnologies
NIST_AI_800-2.pdf
681.5 KB
#MLSecOps
#Infosec_Standards
NIST AI 800-2 (IPD):
"Practices for Automated Benchmark Evaluations of Language Models", Jan. 2026.

// This document identifies practices for conducting automated benchmark evaluations of language models and similar general-purpose AI models that output text. Evaluations of these models, often embedded into systems capable of functioning as chatbots and AI agents, are increasingly common. However, consistent practices to support the validity and reproducibility of such evaluations are only beginning to emerge. The practices presented in this document are intended to reflect best practices; where relevant, practices that are relatively less mature in ecosystem use are labeled as emerging practice
2
ФСТЭК выложила проект методического документа по мероприятиям и мерам защиты информации в ГИС, ОКИИ, ИСПДн и АСУ ТП. 200 страниц без малого. Сейчас идет активная работа над ним. Поэтому не надо рассматривать его как финальный вариант, но как направление в эту сторону.

#регулирование
Forwarded from CodeCamp
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк, который мы заслужили: чел собрал систему VisionClaw, которая превращает очки Ray-Ban с камерой в полноценного ИИ-агента 🤔

Зачем? Чтобы можно было покупать вещи, просто глядя на них 😂

Больше не нужно доставать телефон и тыкать в экран — вы просто гуляете в очках и общаетесь с Gemini Live голосом. Система в реальном времени стримит картинку и звук через вебсокеты, а ИИ через шлюз OpenClaw получает доступ к вашим приложениям, картам и кошелькам.

Как это выглядит на практике:
— Смотрите на кроссовки прохожего и просите Gemini найти их и купить;
— Диктуете сообщения в Telegram, пока руки заняты пакетами из супермаркета;
— Ищете лучший кофе поблизости, а нейронка нашептывает маршрут прямо в ухо;
— Занимаетесь социальным сталкингом: смотрите на людей, а Gemini ищет их профили в соцсетях и пишет сообщения в духе «Привет, классные кроссовки» 😁

Если очков под рукой нет, можно потестить через обычную камеру iPhone.

Аккуратнее с людьми в очках 😏
Please open Telegram to view this post
VIEW IN TELEGRAM
🚨 Теперь можно запускать 70B LLM на видеокарте с 4GB VRAM

AirLLM буквально выбивает почву из аргумента “для больших моделей нужно дорогое железо”.

Фреймворк позволяет запускать модели размером до 70B параметров даже на GPU с 4GB видеопамяти.

Как это возможно?

Вместо загрузки всей модели в память сразу, AirLLM:

- подгружает модель по слоям
- выполняет вычисления
- освобождает память
- переходит к следующему слою

Фактически, это потоковая обработка модели.

Более того, авторы показывают запуск Llama 3.1 405B на 8GB VRAM.

Что это даёт разработчикам:

- не требуется квантование по умолчанию
- можно запускать Llama, Qwen, Mistral, Mixtral локально
- работает на Linux, Windows и macOS
- не нужен сервер с огромным GPU

Это сдвигает барьер входа для локального LLM-разработки и экспериментов.

AirLLM полностью open source - можно использовать, изучать и встраивать в свои пайплайны.

https://github.com/0xSojalSec/airllm
👍1
На заметку: Сбер показал технический отчет Green-VLA, посвященный развитию физического искусственного интеллекта. На основе этой модели был как раз построен робот Грин, который на AI Journey в прошедшем ноябре более 10 часов (!) провел, передвигаясь по конференции, общаясь со зрителями и танцуя.

В общем, вполне логично, что материал занял первое место на портале Hugging Face среди всех статей дня.