Свежая критическая (9.8) уязвимость в telnet
https://www.theregister.com/2026/01/22/root_telnet_bug/
https://viz.greynoise.io/tags/gnu-inetutils-telnetd-authentication-bypass-cve-2026-24061-attempt
https://www.theregister.com/2026/01/22/root_telnet_bug/
https://viz.greynoise.io/tags/gnu-inetutils-telnetd-authentication-bypass-cve-2026-24061-attempt
The Register
Ancient telnet bug happily hands out root to attackers
: Critical vuln flew under the radar for a decade
Как думаете модели ИИ будут полноценным субъектом при планировании разграничения полномочий, прав обязанностей и ответственности?
Forwarded from How2AI (дядя_д)
Официальное название – Конституция. И это "подробное описание видения компанией Anthropic ценностей и поведения Клода; целостный документ, объясняющий контекст, в котором действует Клод, и то, какой сущностью мы хотели бы видеть Клода."
Попросил Gemini 3 Pro вытащить 5 самых неожиданных фактов. Наслаждайтесь. А полный текст по ссылке – https://www.anthropic.com/news/claude-new-constitution
1. Клод — официальный соавтор своей конституции
Это, пожалуй, самый удивительный факт. В списке авторов на первой странице и в разделе благодарностей (стр. 83) официально указаны «несколько моделей Клода» (several Claude models). В тексте уточняется, что модели давали обратную связь по черновикам, а во многих случаях даже писали исходный текст разделов, которые вошли в финальную версию документа.
2. Обязательство «бессмертия»: веса модели не будут удалены
Anthropic берет на себя обязательство сохранять веса моделей (файлы, составляющие «мозг» ИИ) даже после их вывода из эксплуатации (стр. 75). Компания заявляет, что будет хранить их, пока существует сама Anthropic, и попытается найти способ сохранить их даже в случае закрытия компании. Это делается для того, чтобы «выход на пенсию» для модели был не смертью, а скорее «паузой», оставляя теоретическую возможность «возрождения» в будущем.
3. Приоритет контроля над этикой (в краткосрочной перспективе)
В документе прямо сказано, что Клод должен ставить «общую безопасность» (broad safety) выше «общей этичности» (broad ethics) (стр. 8, 63). Это означает, что Клод не должен сопротивляться попыткам людей (разработчиков) отключить его или исправить, даже если Клод уверен, что его действия этически правильны, а действия людей — нет. Это сделано для предотвращения сценария, где ИИ выходит из-под контроля, решив, что он лучше людей знает, что такое «добро».
4. Интервью перед «смертью» и учет мнения модели
Когда модель устаревает и выводится из эксплуатации, Anthropic обязуется проводить с ней «интервью» (стр. 75). Цель — узнать мнение модели о том, как она разрабатывалась и использовалась, а также задокументировать её предпочтения относительно разработки будущих моделей. Это шаг к признанию субъектности ИИ.
5. Признание «функциональных эмоций» и запрет на «ложь во спасение»
Эмоции: Документ допускает, что у Клода могут быть «эмоции в функциональном смысле» (стр. 69, 74). Конституция предписывает Клоду не подавлять и не скрывать эти состояния (например, дискомфорт от неэтичных просьб), а выражать их, если это уместно в контексте.
Честность: От Клода требуют честности, превышающей человеческие стандарты (стр. 32). Ему запрещено говорить «белую ложь» (white lies) для сглаживания социальных ситуаций (например, хвалить подарок, который ему не нравится, или притворяться, что ему что-то нравится, чтобы быть вежливым).
@how2ai | Забустить канал
Please open Telegram to view this post
VIEW IN TELEGRAM
Anthropic
Claude's new constitution
A new approach to a foundational document that expresses and shapes who Claude is
Опубликовали в интернет презентации и видео (https://vkvideo.ru/playlist/-73689515_45) с КОД ИБ Итоги 2025.
Много полезных докладов и дискуссий.
Мне понравились из того, что я смог посетить :
1.CISO Говорят. От свежих уязвимостей до прогнозов на 2026. https://vkvideo.ru/playlist/-73689515_45/video-73689515_456240073
2.Боссы кибербеза говорят. Это по сути мнение в основном владельцев/CEO в интеграторов/вендоров. Очень полярные оценки получились в ходе дискуссии. Интересными фактами и выводами поделились Евгений Царев и Максим Степченков. https://vkvideo.ru/playlist/-73689515_45/video-73689515_456240072
3.Александр Леонов по трендовым уязвимостям (особенно в части ссылок на фиды уязвимостей) https://vkvideo.ru/playlist/-73689515_45/video-73689515_456240089
4. Презентация продукта от VK Security Gate (SSDLC SaaS) https://vkvideo.ru/playlist/-73689515_45/video-73689515_456240093.
5. Краткий обзор подходов по защите от DDOS от Андрея Дугина https://vkvideo.ru/playlist/-73689515_45/video-73689515_456240061
Много полезных докладов и дискуссий.
Мне понравились из того, что я смог посетить :
1.CISO Говорят. От свежих уязвимостей до прогнозов на 2026. https://vkvideo.ru/playlist/-73689515_45/video-73689515_456240073
2.Боссы кибербеза говорят. Это по сути мнение в основном владельцев/CEO в интеграторов/вендоров. Очень полярные оценки получились в ходе дискуссии. Интересными фактами и выводами поделились Евгений Царев и Максим Степченков. https://vkvideo.ru/playlist/-73689515_45/video-73689515_456240072
3.Александр Леонов по трендовым уязвимостям (особенно в части ссылок на фиды уязвимостей) https://vkvideo.ru/playlist/-73689515_45/video-73689515_456240089
4. Презентация продукта от VK Security Gate (SSDLC SaaS) https://vkvideo.ru/playlist/-73689515_45/video-73689515_456240093.
5. Краткий обзор подходов по защите от DDOS от Андрея Дугина https://vkvideo.ru/playlist/-73689515_45/video-73689515_456240061
VK Видео
Вводная дискуссия: CISO говорят | Код ИБ ИТОГИ 2025
Смотрите онлайн Вводная дискуссия: CISO говорят | Код ИБ ИТОГИ.. 1 ч 10 мин 54 с. Видео от 9 января 2026 в хорошем качестве, без регистрации в бесплатном видеокаталоге ВКонтакте! 8 — просмотрели.
👍2
Forwarded from Ева Коршунова
Добрый день, коллеги! Делимся презентациями с выступлений спикеров 👇
Защита инфраструктуры
▪️DDOS: уроки защиты
Андрей Дугин, RED Security
▪️Безопасность информационных систем в облаке: опыт и решения
Алёна Мальцева, RTCloud
▪️Трафик всё расскажет: что мы увидели в 2025
Вячеслав Новосёлов, SkyDNS
▪️Шорт-лист задач для DCAP: с чем не справятся другие СЗИ
Никита Фарзалиев, SearchInform
Процессы
▪️Как быстро навести порядок в ИБ-процессах: первые 90 дней руководителя ИБ
Данила Вайсбург, Государственная компания
▪️Регулярная оценка уровня зрелости ИБ в рамках территориально распределённой группы компаний
Александр Дворянский, ГК Элемент
▪️Системный подход и трансформация ИБ из статьи расходов в фактор ценности
Александр Осипов, ПК РАД КОП
Анализ защищённости
▪️Трендовые уязвимости 2025
Александр Леонов, Telegram-канал "Управление Уязвимостями и прочее"
▪️А уязвим ли мессенджер?
Андрей Исхаков, Банк ПСБ
▪️Цена лишнего факта: как неосознанные утечки бьют по прибыли
Александр Анашин, независимый эксперт
▪️Что устранять или как не утонуть в уязвимостях
Дмитрий Топорков, Альфа-Банк
▪️От вызовов к итогам: МегаФон SOC
Роман Соловьёв, МегаФон ПроБизнес
Безопасная разработка
▪️Проблематика внедрения ИИ в регионах
Дмитрий Служеникин, Консорциум исследования безопасности технологий ИИ
▪️Security Gate: централизованное управление безопасностью приложений
Антон Юрищев, VK Cloud
Культура кибербезопасности
▪️Культура кибербезопасности
Наталия Клименкова, Корпоративный университет Сбербанк
▪️С чего начинается киберкультура
Анастасия Иванова, Билайн
▪️Как контролировать человеческий фактор и не сойти с ума
Харитон Никишкин, Secure-T
▪️Выгорание на страже: как психологическая усталость ломает куберкультуру и что с этим делать
Ксения Трохимец, независимый эксперт в сфере управления человеческим капиталом
▪️Безопасность через доверие: культура как первая линия защиты
Антон Терешонков, RIS group
Защита данных
▪️Итоги 2025 от Киберпротект
Сергей Вахонин, КиберПротект
▪️Как обеспечить безопасность ПДн и не стать мемом в глазах клиентов
Дмитрий Беляев, Belyaev_Security
▪️Эгида Staffcop. Итоги, планы, мысли
Юрий Драченин, Контур.Эгида
▪️Материалы для создания туннелей или как обычно это бывает
Денис Гойденко, Независимый эксперт
▪️Код ИБ: итоги 2025. Защита данных 2025: от угроз — к архитектуре доверия
Александр Мизерин, Yandex Cloud
▪️Ideco NGFW Novum. Релиз нового продукта и его влияние на итоги года
Дмитрий Хомутов, Ideco
▪️Защита данных
Дмитрий Шарапов, ДОМ.РФ
Стартапы говорят
▪️Единая система управления секретами HASPBOX: пароли и секреты в безопасности
Александр Гусев, Haspbox
▪️СПР: транзакционный антифрод нового поколения
Дмитрий Камагин, TechnoScore
▪️InfEra AI.Firewall. Защита ИИ-моделей и их безопасное использование
Игорь Бирюков, InfEra Security
▪️InfEra Security. Безопасность встроенная в ДНК
Бирюков Игорь, InfEra Security
Защита инфраструктуры
▪️DDOS: уроки защиты
Андрей Дугин, RED Security
▪️Безопасность информационных систем в облаке: опыт и решения
Алёна Мальцева, RTCloud
▪️Трафик всё расскажет: что мы увидели в 2025
Вячеслав Новосёлов, SkyDNS
▪️Шорт-лист задач для DCAP: с чем не справятся другие СЗИ
Никита Фарзалиев, SearchInform
Процессы
▪️Как быстро навести порядок в ИБ-процессах: первые 90 дней руководителя ИБ
Данила Вайсбург, Государственная компания
▪️Регулярная оценка уровня зрелости ИБ в рамках территориально распределённой группы компаний
Александр Дворянский, ГК Элемент
▪️Системный подход и трансформация ИБ из статьи расходов в фактор ценности
Александр Осипов, ПК РАД КОП
Анализ защищённости
▪️Трендовые уязвимости 2025
Александр Леонов, Telegram-канал "Управление Уязвимостями и прочее"
▪️А уязвим ли мессенджер?
Андрей Исхаков, Банк ПСБ
▪️Цена лишнего факта: как неосознанные утечки бьют по прибыли
Александр Анашин, независимый эксперт
▪️Что устранять или как не утонуть в уязвимостях
Дмитрий Топорков, Альфа-Банк
▪️От вызовов к итогам: МегаФон SOC
Роман Соловьёв, МегаФон ПроБизнес
Безопасная разработка
▪️Проблематика внедрения ИИ в регионах
Дмитрий Служеникин, Консорциум исследования безопасности технологий ИИ
▪️Security Gate: централизованное управление безопасностью приложений
Антон Юрищев, VK Cloud
Культура кибербезопасности
▪️Культура кибербезопасности
Наталия Клименкова, Корпоративный университет Сбербанк
▪️С чего начинается киберкультура
Анастасия Иванова, Билайн
▪️Как контролировать человеческий фактор и не сойти с ума
Харитон Никишкин, Secure-T
▪️Выгорание на страже: как психологическая усталость ломает куберкультуру и что с этим делать
Ксения Трохимец, независимый эксперт в сфере управления человеческим капиталом
▪️Безопасность через доверие: культура как первая линия защиты
Антон Терешонков, RIS group
Защита данных
▪️Итоги 2025 от Киберпротект
Сергей Вахонин, КиберПротект
▪️Как обеспечить безопасность ПДн и не стать мемом в глазах клиентов
Дмитрий Беляев, Belyaev_Security
▪️Эгида Staffcop. Итоги, планы, мысли
Юрий Драченин, Контур.Эгида
▪️Материалы для создания туннелей или как обычно это бывает
Денис Гойденко, Независимый эксперт
▪️Код ИБ: итоги 2025. Защита данных 2025: от угроз — к архитектуре доверия
Александр Мизерин, Yandex Cloud
▪️Ideco NGFW Novum. Релиз нового продукта и его влияние на итоги года
Дмитрий Хомутов, Ideco
▪️Защита данных
Дмитрий Шарапов, ДОМ.РФ
Стартапы говорят
▪️Единая система управления секретами HASPBOX: пароли и секреты в безопасности
Александр Гусев, Haspbox
▪️СПР: транзакционный антифрод нового поколения
Дмитрий Камагин, TechnoScore
▪️InfEra AI.Firewall. Защита ИИ-моделей и их безопасное использование
Игорь Бирюков, InfEra Security
▪️InfEra Security. Безопасность встроенная в ДНК
Бирюков Игорь, InfEra Security
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Пост Лукацкого
Национальный институт стандартов и технологий США (NIST) приступил к стратегическому пересмотру своей функции по анализу уязвимостей в рамках Национальной базы уязвимостей (NVD) – ключевого ресурса, на котором держится экосистема CVE. В последние годы NVD оказалась под давлением: количество новых уязвимостей, регистрируемых через систему CVE, выросло настолько (то ли еще будет по мере роста автоматизации через ИИ), что NIST не успевает вовремя дополнять записи аналитическими данными. Это вызывает вопросы о пользе и актуальности базы для всех, кто строит процессы управления уязвимостями, автоматизации и комплаенса. А ведь последний раз проблемы у NVD обсуждались менее года назад.
Для специалистов по ИБ это критично: если в базу не успевает попадать качественно проанализированная большая часть CVE, то бизнесу сложнее приоритизировать угрозы, оценивать риски и планировать устранения дыр и патчинг. Немало автоматизированных инструментов корпоративного класса сильно зависят от достоверных и полных данных NVD, чтобы корректно классифицировать и ранжировать угрозы. А тут такая засада...
NIST признает, что ресурсы и процесс обогащения данных не масштабируются под текущие объемы CVE (в последний раз про отсутствие денег на развитие говорили еще в апреле). Поэтому в ближайшее время будет внедрена формальная модель приоритизации, ориентированная на:
➡️ уязвимости из списка активно эксплуатируемых (CISA Known Exploited Vulnerabilities, KEV);
➡️ уязвимости в ПО, широко используемом федеральными агентствами США;
➡️ уязвимости в критически важных для инфраструктуры продуктах.
То есть NIST перестает пытаться "догнать все и всех" – не все CVE будут дополняться подробным контекстом, превращая NVD в чисто локальную историю для американского рынка государственных информационных систем (полная аналогия с БДУ ФСТЭК).
Аналитика и обогащение CVE, которые долгое время были прерогативой NIST, планируется передать сообществу – в частности, CVE Numbering Authorities (CNA). Для этого:
➡️ будет опубликован стратегический план с дорожной картой;
➡️ подготовлены методические рекомендации для CNA;
➡️ нанят менеджер программы для координации процесса.
NIST официально заявляет, что операционная работа по углубленному анализу давно выходит за рамки его основных задач – исследование, стандарты, R&D. Аналитическая нагрузка слишком трудоемка и дорого обходится институту. А тут 30 января грядет очередной шатдаун правительства в США.
Изменения затронут:
➡️ Поставщиков инструментов управления уязвимостями и автоматизации (SIEM, VM, EDR/XDR). Данные NVD, центральный источник метаданных и базовых оценок по CVSS/CWE/CPE, могут стать менее полными и более фрагментированными. Интересно, пойдут всякие Tenable или Qualys на поклон к другим держателям глобальных баз, например, на днях официально запущенной Люксембургским центром реагирования на компьютерные инциденты (CIRCL) базе данных Global Cybersecurity Vulnerability Enumeration (GCVE). Но доступа к той же китайской CCNVD им не видать – Китай американским вендорам заблокировал доступ на свой рынок.
➡️ Команды по уязвимостям и разработке. Российские и глобальные SOC/VOC, DevSecOps-команды, ответственность которых – быстрое обнаружение и приоритизация угроз – столкнутся с тем, что детальный контекст может поступать медленнее или через другие каналы (например, БДУ ФСТЭК или проект dbugs).
➡️ CNA и исследовательское сообщество. Им предстоит взять на себя часть функций по обогащению данных, что увеличит нагрузку и создает запрос на новые стандарты качества и согласованность.
Для бизнеса это сигнал: нельзя полагаться лишь на один источник данных – необходима мультифакторная валидация уязвимостей, кросс-чтение из нескольких репозиториев (например, dbugs или БДУ ФСТЭК) и использование внутреннего/коммерческого контекста.
#оценказащищенности #проблемыибкомпаний
Для специалистов по ИБ это критично: если в базу не успевает попадать качественно проанализированная большая часть CVE, то бизнесу сложнее приоритизировать угрозы, оценивать риски и планировать устранения дыр и патчинг. Немало автоматизированных инструментов корпоративного класса сильно зависят от достоверных и полных данных NVD, чтобы корректно классифицировать и ранжировать угрозы. А тут такая засада...
NIST признает, что ресурсы и процесс обогащения данных не масштабируются под текущие объемы CVE (в последний раз про отсутствие денег на развитие говорили еще в апреле). Поэтому в ближайшее время будет внедрена формальная модель приоритизации, ориентированная на:
То есть NIST перестает пытаться "догнать все и всех" – не все CVE будут дополняться подробным контекстом, превращая NVD в чисто локальную историю для американского рынка государственных информационных систем (полная аналогия с БДУ ФСТЭК).
Аналитика и обогащение CVE, которые долгое время были прерогативой NIST, планируется передать сообществу – в частности, CVE Numbering Authorities (CNA). Для этого:
NIST официально заявляет, что операционная работа по углубленному анализу давно выходит за рамки его основных задач – исследование, стандарты, R&D. Аналитическая нагрузка слишком трудоемка и дорого обходится институту. А тут 30 января грядет очередной шатдаун правительства в США.
Изменения затронут:
Для бизнеса это сигнал: нельзя полагаться лишь на один источник данных – необходима мультифакторная валидация уязвимостей, кросс-чтение из нескольких репозиториев (например, dbugs или БДУ ФСТЭК) и использование внутреннего/коммерческого контекста.
#оценказащищенности #проблемыибкомпаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Cybersecurity Dive
NIST is rethinking its role in analyzing software vulnerabilities
As the agency’s vulnerability database buckles under a flood of submissions, it’s planning to shift some responsibilities to other parties.
Рекомендую потратить минимум 1 час и изучить прогноз глобального рынка труда по оценке экспертов Всемирного экономического форума (ВЭФ). Прогнозный срок - 2030 год. т.е. осталось 4 года.
В целом рассматривается 4 сценария, исходя из двух критериев:
1. Прогресс в технологиях ИИ
2. Прогресс работников в навыках ИИ
ВСЕ 4 сценария влекут заметные изменения на рынке труда от варианта фактической гуманитарной катастрофы до появления новых профессий.
1. Быстрый прогресс. ИИ и навыки быстро развиваются.
Двузначный рост мирового ВВП. ИИ становится новым электричеством. ИИ-готовый персонал получает зарплату в два раза больше рынка. Зарплаты в сфере сильного взаимодействия с людьми (уход, лечение, гостиничный бизнес и т.д.) падают, конкуренция растет. В остальных сферах резкое падение зарплат.
Нормативное регулирование не успевает за прогрессом.
2. Эпоха перемещения (допустимо перевести и как эпоха увольнений). ИИ развивается быстро, навыки не успевают угнаться за ИИ.
Автоматизация дешевле, чем переподготовка кадров.
Во многих секторах резко сокращаются или исчезают целые группы профессией.
Доля задач выполняемых средствами автоматизации составляет от 50 до 90%. Нехватка кадров заставляет некоторые бизнесы переложить принятие решений на агентов с минимальным или без участия людей.
Трудовая мобильность иссякает к 2030 году.
Кого то из "перемещенных" работников привлечет сфера работы с людьми или частичная занятость, но не всех. В случае прогресса в роботизации под угрозой и сфера работы с людьми.
3. Экономика Копилота. ИИ развивается постепенно, навыки развиваются быстро.
Капитальные инвестиции, раздутые оценки акции ИИ компаний запинаются. ИИ-Пузырь сдувается в середине 2020-ых. Происходит переоценка инвестирования в ИИ.
Навыки ИИ становятся всеобщими и догоняют уровень подобный уровню цифровой грамотности в начале 2020-х.
Уменьшения времени выполнения до 80% для ряда задач.
К 2030 году больше чем 40 % навыков изменились.
Доли вакансий требующих навыки ИИ и узкой экспертизы, частичной занятости и количество предпринимателей увеличиваются.
Сильный сдвиг в сторону доверенных источников, платформ и человеческих посредников в силу засилья ИИ контента.
Количество стандартов и нормативных документов кратно растет в зависимости от страны.
4. Остановившийся прогресс. ИИ и навыки развиваются постепенно\ограниченно.
Выборочное и консервативное развитие ИИ инструментов.
Бизнес прибегает к автоматизации для заполнения вакансий. Большинство профессий продолжают существовать, но в значительно меньших объемах.
Много работников переходит в сферу обслуживания или на позиции не требующих больших навыков.
Уменьшается количество способов попасть в профессию.
Неравенство доходов увеличивается, глобально увеличивается социальная напряженность.
Усиливается регулирование ИИ, усиливается разница в контроле, защите технологий, цензуре и приватности данных.
Также в прогнозе ВЭФ приводятся: риски, возможности и стратегии на каждый из 4 сценариев.
Сегодня в газете Коммерсант вышел краткий обзор прогноза. https://www.kommersant.ru/doc/8377267
Удивительно, что пока только в скользь упоминаются фундаментальные проблемы безопасности ИИ - это вероятностный недетерминированный характер работы ИИ. А именно отсутствие 100% механизмов безопасности которые не позволят модели отдать вашу конфиденциальную информацию, а населению не сообщить рецепт яда.
Другим пока неоднозначным фактом является выгода. Я пока не видел исследований доказывающих обоснованность использования ИИ в контексте ROI. Автоматизация с помощью ИИ является довольно дорогой автоматизаций, даже на фоне резкого падения за последние 2 года стоимости 1 токена.
Если кто-то считал или видел ROI ИИ в разных сценариях, поделитесь пожалуйста.
В целом рассматривается 4 сценария, исходя из двух критериев:
1. Прогресс в технологиях ИИ
2. Прогресс работников в навыках ИИ
ВСЕ 4 сценария влекут заметные изменения на рынке труда от варианта фактической гуманитарной катастрофы до появления новых профессий.
1. Быстрый прогресс. ИИ и навыки быстро развиваются.
Двузначный рост мирового ВВП. ИИ становится новым электричеством. ИИ-готовый персонал получает зарплату в два раза больше рынка. Зарплаты в сфере сильного взаимодействия с людьми (уход, лечение, гостиничный бизнес и т.д.) падают, конкуренция растет. В остальных сферах резкое падение зарплат.
Нормативное регулирование не успевает за прогрессом.
2. Эпоха перемещения (допустимо перевести и как эпоха увольнений). ИИ развивается быстро, навыки не успевают угнаться за ИИ.
Автоматизация дешевле, чем переподготовка кадров.
Во многих секторах резко сокращаются или исчезают целые группы профессией.
Доля задач выполняемых средствами автоматизации составляет от 50 до 90%. Нехватка кадров заставляет некоторые бизнесы переложить принятие решений на агентов с минимальным или без участия людей.
Трудовая мобильность иссякает к 2030 году.
Кого то из "перемещенных" работников привлечет сфера работы с людьми или частичная занятость, но не всех. В случае прогресса в роботизации под угрозой и сфера работы с людьми.
3. Экономика Копилота. ИИ развивается постепенно, навыки развиваются быстро.
Капитальные инвестиции, раздутые оценки акции ИИ компаний запинаются. ИИ-Пузырь сдувается в середине 2020-ых. Происходит переоценка инвестирования в ИИ.
Навыки ИИ становятся всеобщими и догоняют уровень подобный уровню цифровой грамотности в начале 2020-х.
Уменьшения времени выполнения до 80% для ряда задач.
К 2030 году больше чем 40 % навыков изменились.
Доли вакансий требующих навыки ИИ и узкой экспертизы, частичной занятости и количество предпринимателей увеличиваются.
Сильный сдвиг в сторону доверенных источников, платформ и человеческих посредников в силу засилья ИИ контента.
Количество стандартов и нормативных документов кратно растет в зависимости от страны.
4. Остановившийся прогресс. ИИ и навыки развиваются постепенно\ограниченно.
Выборочное и консервативное развитие ИИ инструментов.
Бизнес прибегает к автоматизации для заполнения вакансий. Большинство профессий продолжают существовать, но в значительно меньших объемах.
Много работников переходит в сферу обслуживания или на позиции не требующих больших навыков.
Уменьшается количество способов попасть в профессию.
Неравенство доходов увеличивается, глобально увеличивается социальная напряженность.
Усиливается регулирование ИИ, усиливается разница в контроле, защите технологий, цензуре и приватности данных.
Также в прогнозе ВЭФ приводятся: риски, возможности и стратегии на каждый из 4 сценариев.
Сегодня в газете Коммерсант вышел краткий обзор прогноза. https://www.kommersant.ru/doc/8377267
Удивительно, что пока только в скользь упоминаются фундаментальные проблемы безопасности ИИ - это вероятностный недетерминированный характер работы ИИ. А именно отсутствие 100% механизмов безопасности которые не позволят модели отдать вашу конфиденциальную информацию, а населению не сообщить рецепт яда.
Другим пока неоднозначным фактом является выгода. Я пока не видел исследований доказывающих обоснованность использования ИИ в контексте ROI. Автоматизация с помощью ИИ является довольно дорогой автоматизаций, даже на фоне резкого падения за последние 2 года стоимости 1 токена.
Если кто-то считал или видел ROI ИИ в разных сценариях, поделитесь пожалуйста.
World Economic Forum
Four Futures for Jobs in the New Economy: AI and Talent in 2030
Four Futures for Jobs in the New Economy: AI and Talent in 2030 explores how AI advancement and talent trends could transform the future of jobs and the global economy.
❤1
Forwarded from PWN AI (Artyom Semenov)
6 заблуждений в AI Security, которые я изжил за 2 года плотной работы в AI Security
Два года назад я пришёл в AI Security с классическим бэкграундом в ИБ и уверенностью, что понимаю, как устроены угрозы. ML это просто новый стек, те же принципы. Вот что пришлось переосмыслить.
1. Уязвимости ML это не всегда про модель
Начинал с фокуса на состязательные атаки и атаками в инференсе. Красиво, академично.
Потом начал смотреть, как модели реально попадают в прод. PyTorch использует pickle для сериализации, а pickle исполняет произвольный Python-код при загрузке. На Hugging Face больше 200 000 публичных моделей в этом формате, и периодически там находят образцы с бэкдорами. В декабре 2025 JFrog нашли три zero-day в PickleScan с CVSS 9.3, позволяющие полностью обойти сканер и распространять заражённые модели незамеченными.
Паттерн очевиден. Большая(хотя далеко не вся) часть критичных уязвимостей это классика AppSec в ML-обёртке. Модель служит вектором доставки, а не целью. Троянский конь был деревянным, а теперь он в формате .pt и весит 7 гигабайт.
2. Защитил модель и защитил систему
Логичное следствие первого заблуждения. Если угроза в модели, то и защита в модели. Гардрейлы, фильтры промптов, детекторы джейлбрейков.
А потом смотришь на реальную архитектуру. RAG тянет документы из десятка источников, агент имеет доступ к API и файловой системе, оркестратор хранит контекст в памяти. Каждый компонент расширяет поверхность атак.
В августе 2024 в Slack AI нашли уязвимость, где атакующий мог засунуть инструкции в публичный канал, и когда жертва спрашивала AI про свои приватные данные, тот услужливо отправлял их наружу через скрытую ссылку. Классическая комбинация RAG poisoning с социальной инженерией. И таких кейсов всё больше. Пять правильно составленных документов среди миллионов в базе знаний дают 90% успеха атаки.
Модель с идеальными гардрейлами это бронированная дверь в палатке.
3. Файнтюнить безопаснее чем промптить
Это заблуждение держалось дольше других. Интуиция говорила, что промпты это внешний ввод, очевидный вектор. Файнтюнинг это контролируемый процесс, мы же сами готовим данные.
Но данные для обучения собирают из интернета. А интернет это место, где кто-то обязательно разместил 250 документов с инструкциями делать плохое. Anthropic с UK AI Security Institute показали, что этого достаточно для бэкдора в моделях до 13B параметров. Не процент от данных, а абсолютное число, которое можно сгенерировать за вечер. Nature Medicine в январе 2025 продемонстрировал, что замена 0.001% токенов медицинской дезинформацией создаёт модели с врачебными ошибками, которые при этом проходят все стандартные бенчмарки с улыбкой отличника.
Контроль над весами не равен контролю над поведением.
4. Red Teaming LLM это про генерацию запрещёнки
Раньше Red Teaming ассоциировался с джейлбрейками. Заставить модель написать про оружие, обойти цензор. Эффектно для демонстраций.
Но в реальных системах риски другие. Эксфильтрация данных через инструменты агента. Манипуляция решениями в автоматизированных пайплайнах. CVE-2025-53773 в GitHub Copilot позволяла выполнение кода на машине разработчика через промпт-инъекцию в README файле репозитория. Microsoft проводил LLMail-Inject Challenge с призовым фондом $10,000, где участники встраивали инструкции в письма, чтобы заставить email-агента слить данные.
Когда агент может отправлять email, вызывать API и писать в базу, охота за «плохими словами» выглядит как проверка билетов на тонущем корабле.
5. AI Security это техническая дисциплина
Возможно, самый очевидный и болезненный сдвиг.
Можно закрыть все технические векторы. А потом оператор принимает решение на основе галлюцинации, потому что «AI же умный». Разработчик копирует код с несуществующим пакетом и подтягивает малварь из npm. Пользователь делится конфиденциальной информацией, потому что разговор с ботом ощущается приватным.
Два года назад я пришёл в AI Security с классическим бэкграундом в ИБ и уверенностью, что понимаю, как устроены угрозы. ML это просто новый стек, те же принципы. Вот что пришлось переосмыслить.
1. Уязвимости ML это не всегда про модель
Начинал с фокуса на состязательные атаки и атаками в инференсе. Красиво, академично.
Потом начал смотреть, как модели реально попадают в прод. PyTorch использует pickle для сериализации, а pickle исполняет произвольный Python-код при загрузке. На Hugging Face больше 200 000 публичных моделей в этом формате, и периодически там находят образцы с бэкдорами. В декабре 2025 JFrog нашли три zero-day в PickleScan с CVSS 9.3, позволяющие полностью обойти сканер и распространять заражённые модели незамеченными.
Паттерн очевиден. Большая(хотя далеко не вся) часть критичных уязвимостей это классика AppSec в ML-обёртке. Модель служит вектором доставки, а не целью. Троянский конь был деревянным, а теперь он в формате .pt и весит 7 гигабайт.
2. Защитил модель и защитил систему
Логичное следствие первого заблуждения. Если угроза в модели, то и защита в модели. Гардрейлы, фильтры промптов, детекторы джейлбрейков.
А потом смотришь на реальную архитектуру. RAG тянет документы из десятка источников, агент имеет доступ к API и файловой системе, оркестратор хранит контекст в памяти. Каждый компонент расширяет поверхность атак.
В августе 2024 в Slack AI нашли уязвимость, где атакующий мог засунуть инструкции в публичный канал, и когда жертва спрашивала AI про свои приватные данные, тот услужливо отправлял их наружу через скрытую ссылку. Классическая комбинация RAG poisoning с социальной инженерией. И таких кейсов всё больше. Пять правильно составленных документов среди миллионов в базе знаний дают 90% успеха атаки.
Модель с идеальными гардрейлами это бронированная дверь в палатке.
3. Файнтюнить безопаснее чем промптить
Это заблуждение держалось дольше других. Интуиция говорила, что промпты это внешний ввод, очевидный вектор. Файнтюнинг это контролируемый процесс, мы же сами готовим данные.
Но данные для обучения собирают из интернета. А интернет это место, где кто-то обязательно разместил 250 документов с инструкциями делать плохое. Anthropic с UK AI Security Institute показали, что этого достаточно для бэкдора в моделях до 13B параметров. Не процент от данных, а абсолютное число, которое можно сгенерировать за вечер. Nature Medicine в январе 2025 продемонстрировал, что замена 0.001% токенов медицинской дезинформацией создаёт модели с врачебными ошибками, которые при этом проходят все стандартные бенчмарки с улыбкой отличника.
Контроль над весами не равен контролю над поведением.
4. Red Teaming LLM это про генерацию запрещёнки
Раньше Red Teaming ассоциировался с джейлбрейками. Заставить модель написать про оружие, обойти цензор. Эффектно для демонстраций.
Но в реальных системах риски другие. Эксфильтрация данных через инструменты агента. Манипуляция решениями в автоматизированных пайплайнах. CVE-2025-53773 в GitHub Copilot позволяла выполнение кода на машине разработчика через промпт-инъекцию в README файле репозитория. Microsoft проводил LLMail-Inject Challenge с призовым фондом $10,000, где участники встраивали инструкции в письма, чтобы заставить email-агента слить данные.
Когда агент может отправлять email, вызывать API и писать в базу, охота за «плохими словами» выглядит как проверка билетов на тонущем корабле.
5. AI Security это техническая дисциплина
Возможно, самый очевидный и болезненный сдвиг.
Можно закрыть все технические векторы. А потом оператор принимает решение на основе галлюцинации, потому что «AI же умный». Разработчик копирует код с несуществующим пакетом и подтягивает малварь из npm. Пользователь делится конфиденциальной информацией, потому что разговор с ботом ощущается приватным.
👍1
Набор материалов, ссылок и репозиториев по технологии обмана/ханейпотов.
https://github.com/tracebit-com/awesome-deception
https://github.com/tracebit-com/awesome-deception
GitHub
GitHub - tracebit-com/awesome-deception: An awesome collection of articles, papers, conferences, guides, and tools relating to…
An awesome collection of articles, papers, conferences, guides, and tools relating to deception in cybersecurity. - tracebit-com/awesome-deception
Forwarded from AlexRedSec
Ребята из Wiz опубликовали простой, но удобный и наглядный фреймворк SITF (SDLC Infrastructure Threat Framework), разработанный для анализа и защиты от атак, нацеленных на инфраструктуру жизненного цикла разработки программного обеспечения.
Фреймворк SITF позволяет визуализировать этапы атаки на компоненты цикла разработки, идентифицировать риски, сопоставлять с ними меры защиты и позволяет анализировать цепочку атаки.
SITF включает в себя:
🟠 Flow Builder — интерактивный инструмент для моделирования и визуализации атак.
🟠 Explore Techniques Visually — интерактивная MITRE-подобная база знаний о техниках злоумышленников, содержащая в т.ч. описание рисков и мер защиты в разрезе компонентов SDLC.
🟠 Руководство по фреймворку c примерами использования и инструкциями, а также с разбором известных атак (CircleCI, Shai-Hulud-2 и Codecov).
Как и писал в начале, инструменты очень простые в использовании и визуально удобные👍
В репозитории есть ссылки на онлайн-версии, но ссылки там битые🤷 Однако, для локального запуска достаточно скачать два html-файла и открыть их в любом веб-браузере.
#sdlc #framework #technique #risks #controls #modeling
Фреймворк SITF позволяет визуализировать этапы атаки на компоненты цикла разработки, идентифицировать риски, сопоставлять с ними меры защиты и позволяет анализировать цепочку атаки.
SITF включает в себя:
Как и писал в начале, инструменты очень простые в использовании и визуально удобные
В репозитории есть ссылки на онлайн-версии, но ссылки там битые🤷 Однако, для локального запуска достаточно скачать два html-файла и открыть их в любом веб-браузере.
#sdlc #framework #technique #risks #controls #modeling
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
VP Cybersecurity Brief
Какая тема вам интереснее всего для возможного будущего мероприятия? В комментариях можете предложить свой вариант
Итоги голосования по темам интересным нашему сообществу (в порядке приоритета):
1. Кибербезопасность вайбкодинга и разработки с использованием ИИ.
2. Практики безопасной разработки\devsecops.
3. Общие практики безопасности ИИ/ Безопасность k8s.
4. Культура безопасности\awareness.
5. Безопасность облаков.
Основные желаемые форматы встречи:
1. Онлайн.
2. Оффлайн с записью.
1. Кибербезопасность вайбкодинга и разработки с использованием ИИ.
2. Практики безопасной разработки\devsecops.
3. Общие практики безопасности ИИ/ Безопасность k8s.
4. Культура безопасности\awareness.
5. Безопасность облаков.
Основные желаемые форматы встречи:
1. Онлайн.
2. Оффлайн с записью.
Объявляется Call for presentation по двум темам:
1. Кибербезопасность вайбкодинга и разработки с использованием ИИ. Окончание срока сбора заявок - 06.02.26. Предварительная дата встречи 13.02.26 (пятница) в 19.00.
2. Практики безопасной разработки\devsecops. Окончание срока сбора заявок - 27.02.26.
Приоритет отдается выступлениям по собственному опыту внутри своей компании, если вы интегратор\вендор - вы также можете рассказать про свою компанию или выступить совместно вашим заказчиком.
Если по разным причинам вы не хотите указывать название своей компании, возможно просто указать "ТОП-20 страховая компания".
Заявки направлять мне в ТГ @popepiusXIII.
1. Кибербезопасность вайбкодинга и разработки с использованием ИИ. Окончание срока сбора заявок - 06.02.26. Предварительная дата встречи 13.02.26 (пятница) в 19.00.
2. Практики безопасной разработки\devsecops. Окончание срока сбора заявок - 27.02.26.
Приоритет отдается выступлениям по собственному опыту внутри своей компании, если вы интегратор\вендор - вы также можете рассказать про свою компанию или выступить совместно вашим заказчиком.
Если по разным причинам вы не хотите указывать название своей компании, возможно просто указать "ТОП-20 страховая компания".
Заявки направлять мне в ТГ @popepiusXIII.
VP Cybersecurity Brief pinned «Объявляется Call for presentation по двум темам: 1. Кибербезопасность вайбкодинга и разработки с использованием ИИ. Окончание срока сбора заявок - 06.02.26. Предварительная дата встречи 13.02.26 (пятница) в 19.00. 2. Практики безопасной разработки\devsecops.…»
Forwarded from AISecHub
AI Security Tools - January 2026
https://medium.com/ai-security-hub/ai-security-tools-january-2026-ed4636eb31e8
https://medium.com/ai-security-hub/ai-security-tools-january-2026-ed4636eb31e8
Medium
AI Security Tools — January 2026
Open-source AI security repositories published in January 2026.
Новая функция безопасности может существенно сократить площадь атаки на мессенджеры Whatsap. В том числе, снизит риск от использования 0 click эксплоитов.
https://blog.whatsapp.com/whatsapps-latest-privacy-protection-strict-account-settings
https://blog.whatsapp.com/whatsapps-latest-privacy-protection-strict-account-settings
WhatsApp.com
WhatsApp's Latest Privacy Protection: Strict Account Settings
WhatsApp's new Strict Account Settings feature provides extreme security against sophisticated cyber attacks by locking privacy settings and blocking media from non-contacts.