MLSecOps | AI Governance | IT Trends – Telegram
MLSecOps | AI Governance | IT Trends
923 subscribers
99 photos
2 videos
3 files
407 links
Канал для друзей и коллег с целью ежедневного развития в направлениях MLSecOps и AI Governance.
Свежие новости, перспективные вакансии, IT-тренды и лучшие учебные программы в сфере ИИ.
Download Telegram
⭐️ Эксперт предсказал рост кибератак с помощью ИИ до десятков миллионов В ближайшие три года

По словам Дмитрия Маркова, исполнительного директора MTS AI, количество кибератак с использованием технологий дипфейков в ближайшие три года может вырасти до десятков миллионов. Это связано с тем, что технологии искусственного интеллекта становятся более доступными, и в скором времени каждый сможет создать фальшивый голос или заменить лицо на фото и видео. Марков отметил, что если сегодня таких атак несколько десятков тысяч, то в будущем ситуация изменится.

Он также добавил, что число атак с дипфейками может быть ещё больше, чем сообщают официальные источники. Мошенники часто используют эти технологии для кражи денег, и пострадавшие сообщают о мошенничестве в случае, если надеются вернуть средства. При этом развитие технологий создания дипфейков опережает методы их обнаружения. Например, чтобы создать аудиодипфейк, злоумышленникам достаточно 10-15 секунд записи голоса человека.

Продолжение: https://vk.com/wall-210601538_1634
⭐️ Приглашаю на бесплатный вебинар: "На страже ИИ: как защитить системы с LLM?" (8 апреля 11:00–12:00 по МСК)

Внедряете решения с искусственным интеллектом в своём контуре? Пилотируете чат-боты с большими языковыми моделями? Собираетесь использовать ИИ в бизнес-процессах? На вебинаре специалисты из Raft расскажут, как защитить ИИ-приложения от злоумышленников и что для этого можно использовать.

На вебинаре рассмотрим:

1. Как хакерам удалось обмануть AI-агента на $50’000 и какие уязвимости есть у приложений, работающих на LLM

2. Лучшие практики тестирования безопасности AI-систем, проверка чат-ботов на русском языке с помощью open-source инструмента Llamator

3. Мониторинг AI-приложений: как HiveTrace обнаруживает атаки и генерацию токсичного контента

Спикеры:

Евгений Кокуйкин — руководитель продукта HiveTrace
Анна Тищенко — архитектор HiveTrace
Тимур Низамов — разработчик open-source фреймворка Llamator

Ссылка для регистрации: https://aisecuritylab.timepad.ru/event/3267997

Приятного аппетита!

Архитектор MLSecOps
Николай Павлов
⭐️ Сбербанк: синтетические данные создают новую экосистему для искусственного интеллекта

Сергей Кочетков и Юлдуз Фаттахова, исполнительные директора по исследованию данных Сбербанка, – о создании экосистемы генерации и использования синтетических данных SyntData, позволяющей повысить доступность данных для обучения ИИ-моделей.

Сбер развивает сервис SyntData – экосистему генерации и использования синтетических данных. Его задачей является повышение доступности данных для обучения ИИ-моделей: снятие барьеров для обработки обезличенных данных, а также данных с конфиденциальной информацией. SyntData позволяет создавать синтетические датасеты, в которых с высокой точностью воспроизводятся все статистические зависимости и структура исходных данных. Таким образом, митигируются риски раскрытия информации и нарушения ее конфиденциальности. О проекте рассказывают исполнительные директора по исследованию данных Сбербанка Сергей Кочетков и Юлдуз Фаттахова, – номинанты на премию Data Award.

Продолжение: https://vk.com/wall-210601538_1637
⭐️ Новая директива Белого дома отменяет гарантии искусственного интеллекта во имя модернизации

Белый дом опубликовал две обновлённые директивы по искусственному интеллекту «Америка прежде всего» для модернизации федерального правительства, рискуя при этом отменить некоторые меры безопасности, введённые для защиты граждан и бизнеса.

Эти изменения являются частью усилий президента Трампа по сохранению глобального доминирования США в сфере искусственного интеллекта и отмене некоторых мер безопасности, оставшихся со времён Байдена.

Продолжение: https://vk.com/wall-210601538_1638
⭐️ ИИ в образовании: эксперты предупредили о скрытых угрозах

Игорь Ашманов, предприниматель в сфере информационных технологий и член Президентского совета по правам человека (СПЧ), сомневается в надежности ИИ для обучения. Он отметил, что системы ИИ нередко ошибаются. Ашманов привёл в пример голосовой помощник «Яндекс Алиса». На вопрос «почему зимой холодно?» «Алиса» неверно отвечает, что Земля дальше от Солнца, хотя причина – в наклоне земной оси. Однако, если задать этот вопрос ИИ от «Яндекса», ответ будет правильным и довольно развёрнутым. «Нейросети должны давать один правильный ответ на многие вопросы», – подчеркнул Ашманов. Он настаивает на строгом контроле за их использованием в школах и университетах.

Ашманов также указал на проблему обучения нейросетей. Их тренируют в основном на англосаксонской литературе, из-за чего ответы могут не соответствовать российскому дискурсу. Для решения этой проблемы он предложил обучать нейросети на отечественных кластерах и строго следить за правильностью выдаваемых ответов.

Продолжение: https://vk.com/wall-210601538_1639
⭐️ Предложенные бизнесом правила для внедрения ИИ критикуют правозащитники

Проект Концепции развития регулирования отношений в сфере технологий искусственного интеллекта до 2030 года, подготовленный Ассоциацией «Альянс в сфере искусственного интеллекта» содержит «очевидный перекос в пользу коммерческих интересов частных компаний», говорится в экспертном заключении президентского Совета по правам человека (СПЧ).

Правозащитники заявили, что в этом документе не учитываются многие риски, связанные с внедрением ИИ – например, его использование в целях мошенничества, пропаганды и фальсификации, для ведения боевых действий, а также социальные риски.

Продолжение: https://vk.com/wall-210601538_1641
⭐️ В Госдуме создали «серьёзную» группу для надзора за развитием ИИ

В Госдуме РФ создана межфракционная рабочая группа по разработке законов о применении искусственного интеллекта. По данным источника, в состав группы вошли представители всех фракций, которые займутся законодательным обеспечением «национально ориентированного» ИИ. Группа будет работать до конца срока полномочий восьмого созыва, т.е. до 2026 года.

Возглавил группу вице-спикер нижней платы Александр Бабаков, представляющий партию «Справедливая Россия». Комментируя данный вопрос, он заявил, что регулирование сферы ИИ «не должно никого пугать». Он добавил, что это «не та сфера, которая может развиваться чисто по рыночным законам» и ориентироваться «только на нормы прибыли». По мнению Бабакова, необходимо оценивать множество факторов, включая угрозы (в том числе этические), которые несут в себе новые трансграничные технологии. Также было сказано, что есть вопросы, связанные с изучением насыщенности рынка и его развитием в сочетании с рынком энергетики.

В сообщении сказано, что рабочая группа была создана по поручению председателя Госдумы Вячеслава Володина.

Продолжение: https://vk.com/wall-210601538_1642
⭐️ ИИ в адаптации сотрудников: как технологии меняют HR-процессы

Крупные международные компании, внедряют искусственный интеллект в процессы адаптации новых сотрудников. Использование ИИ позволяет не просто автоматизировать рутинные задачи, но и существенно сократить сроки полноценного включения новичков в работу. Теперь для оформления доступа, сбора документов и ответов на вопросы достаточно умного ассистента, работающего 24/7

В Hitachi внедрение ИИ позволило на треть сократить общее время адаптационного периода, одновременно снизив нагрузку на HR-команду. Texans Credit Union пошёл дальше — интегрировал ИИ в систему предоставления системных доступов, ускорив процесс на 60%. Результат — меньше ручной работы и выше удовлетворённость новых сотрудников.

Подобные решения становятся особенно актуальными в компаниях с высокой текучестью или большим количеством удалённых специалистов.

По данным Deloitte, автоматизация адаптации может сократить расходы на найм и ввод сотрудника в должность на 25–30%.

thehrd
⭐️ Руководство по эффективному промпт-инжинирингу

Приветик, мои любимые Звезды IT!

Как всегда приготовил для вас вкусняшку - бесплатное руководство по промпт-инжинирингу на русском языке! Никакой воды, только самая суть, все четко, кратко и по-существу! Сам скушал его за один вечер!

Дружно пробуем, читаем, превращаемся в промпт-инженеров!

Ссылка: https://www.promptingguide.ai/ru

Архитектор MLSecOps
Николай Павлов
⭐️ В Московской области на ЦКАД началось тестирование беспилотных грузовиков

По данным издания «Коммерсантъ», ссылающегося на информацию от Минтранса РФ, на Центральной кольцевой автодороге (ЦКАД) в Московской области началось тестирование беспилотных грузовых автомобилей.

В тестовом парке представлены четыре крупнотоннажных автомобиля, включая два "КамАЗа".

💡Передвижение этих автономных машин регулируется специальными экспериментально-правовыми режимами (ЭПР), допускающими присутствие инженера-испытателя в кабине, который, однако, не управляет транспортным средством.

Ранее, в 2023 году, беспилотные грузовики уже начали курсировать по трассе М-11 "Нева", где в эксперименте участвовали такие компании, как ПЭК, Globaltruck, "Магнит" и "Газпромнефть-Снабжение".

Продолжение: https://vk.com/wall-210601538_1646
⭐️ В России обсуждают запрет ИИ с «угрожающим уровнем риска» Кто должен нести ответственность за вред, нанесенный ИИ человеку?

Участники рынка, эксперты и депутаты обсуждают проект госрегулирования ИИ. Он запрещает системы с «неприемлемым уровнем риска», вводит маркировку контента и ответственность разработчиков за вред, нанесенный нейросетями.

Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в России, сообщили пять источников, знакомых с инициативой. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ, указали они. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России». Документ обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках.

В пояснительной записке к проекту отмечается, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года (была утверждена в феврале 2024 года).

Продолжение: https://vk.com/wall-210601538_1647
⭐️ Backdoors в MLSecOps

Проверка нейронной сети на наличие закладок (backdoors) — сложная и развивающаяся область. Не существует универсального метода, который гарантированно обнаружит все возможные закладки. Представленные ниже методы являются лишь некоторыми подходами, которые можно использовать, и требуют глубокого понимания принципов работы нейронных сетей и машинного обучения.

При этом важно комбинировать несколько методов и тщательно анализировать результаты. Нужно помнить, что лучшая защита от закладок — это использование надежных источников данных и моделей, а также применение техник защиты от атак во время обучения.

Продолжение: https://vk.com/wall-210601538_1648
⭐️ OpenAI сократила проверки безопасности моделей ИИ с полугода до нескольких дней

OpenAI сократила время и ресурсы на тестирование безопасности генеративных моделей искусственного интеллекта — сотрудникам и сторонним исследователям дали всего несколько дней на изучение ее новой большой языковой модели o3, в то время как раньше такие проверки занимали несколько месяцев, узнала Financial Times. По данным газеты, OpenAI, которая пытается сохранить лидирующие позиции на конкурентном рынке, хочет выпустить o3 уже на следующей неделе
OpenAI сократила время и ресурсы на тестирование безопасности генеративных моделей искусственного интеллекта (ИИ) — сотрудникам и сторонним исследователям дали всего несколько дней на оценку новой большой языковой модели (LLM), в то время как раньше такие проверки занимали несколько месяцев, пишет Financial Times (FT) со ссылкой на несколько источников, осведомленных о ходе тестов.

Сейчас OpenAI проверяет свою новую модель o3, предназначенную для решения сложных задач. Компания, которая пытается сохранить лидирующие позиции на конкурентном рынке, хочет выпустить ее уже на следующей неделе — чтобы уложиться в эти сроки, некоторым тестировщикам дали меньше недели на проверку ее безопасности, рассказали источники газеты. Для сравнения, до выпуска GPT-4 в 2023 году у тестировщиков было шесть месяцев на ее изучение.

Продолжение: https://vk.com/wall-210601538_1649
⭐️ В России 9% IT-юристов зарабатывают более 500 тыс. рублей в месяц

В России заработные платы IT-юристов значительно превышают среднерыночные показатели. Об этом информируют данные исследования кадрового агентства Magic Staff, пишет «Газета.Ru».

Сообщается, что медианный уровень доходов специалистов в этой сфере составляет 200 тысяч рублей. При этом разброс зарплат весьма велик: от 40 тысяч до 1,8 млн рублей в месяц. Согнано исследованию, 28% IT-юристов зарабатывают в диапазоне 100-150 тысяч рублей, 45% — от 150 до 300 тысяч, 18% — в пределах 300-500 тысяч, а 9% получают более 500 тысяч рублей.

Продолжение: https://vk.com/wall-210601538_1650
⭐️ 10 признаков изображения, сгенерированного ИИ в MLSecOps

Распознавание изображений, сгенерированных ИИ (особенно генеративными моделями, такими как GANs, Diffusion Models и др.), является важной и сложной задачей в MLSecOps, поскольку качество таких изображений постоянно улучшается. Однако, есть ряд признаков, которые могут указывать на то, что изображение было сгенерировано ИИ (особенно, если наблюдаются сразу 2-3 таких признака):

I. Общие артефакты и несоответствия

1. Артефакты генерации (Generator Artifacts).

Это повторяющиеся паттерны или текстуры, которые появляются из-за особенностей архитектуры генератора ИИ. Они могут быть едва заметными, но при увеличении становятся очевидными.

Примеры: шахматный узор, сетка, радиальные артефакты, повторяющиеся пятна, подобные элементы в разных частях изображения и другие.

Продолжение: https://vk.com/wall-210601538_1651
⭐️ Скандал в IT - вместо мощной ИИ-системы компания Nate использовала труд сотен филиппинцев (!)

Основанный в 2018 году и позиционировавшийся как разработчик универсального решения для онлайн-шопинга «в один клик» стартап Nate вместо заявленного искусственного интеллекта на самом деле использовал труд сотен филиппинцев. Об этом сообщает портал VC.

Разработчики Nate заявляли, что пользователи могут выбрать товар в любом интернет-магазине, передать ссылку в приложение, после чего система якобы автоматически обрабатывала покупку, включая оплату и доставку.

Однако, как выяснилось, заявленная технология автоматизации на базе «собственных ИИ-моделей» оказалась фикцией. Министерство юстиции США выдвинуло против основателя компании Альберта Санигера обвинения в мошенничестве — он, по версии ведомства, вводил в заблуждение как текущих, так и потенциальных инвесторов, представляя несуществующие ИИ-решения как действующие.

Продолжение: https://vk.com/wall-210601538_1652
⭐️ 10 признаков текста, сгенерированного ИИ в MLSecOps

Распознавание текста, сгенерированного ИИ (особенно большими языковыми моделями, LLM), как и распознавание сгенерированного ИИ изображения, становится все более сложной задачей в MLSecOps. Поскольку языковые модели становятся все более совершенными в создании убедительного и связного текста. Тем не менее, есть несколько признаков, которые могут помочь определить, был ли текст сгенерирован ИИ.

Как и с распознаванием изображений, целесообразнее всего делать вывод о том, что текст сгенерирован ИИ на основе нескольких признаков. Кроме того, важно учитывать контекст, в котором представлен текст. Например, формальный стиль может быть уместным для научного отчета, но подозрительным для личного письма.

Продолжение: https://vk.com/wall-210601538_1653
⭐️ СПЧ раскритиковал концепцию регулирования искусственного интеллекта

Совет при президенте РФ по правам человека (СПЧ) выступил с резкой критикой в адрес концепции регулирования ИИ, разработанной при поддержке Альянса в сфере искусственного интеллекта. Документ, по мнению членов Совета, ориентирован преимущественно на интересы бизнеса и не содержит должных гарантий для защиты прав граждан.

Речь идёт об официальной концепции, которая закладывает рамки использования ИИ в государственных и коммерческих структурах. В СПЧ считают, что проект предполагает слабый контроль за алгоритмами, отсутствие механизмов прозрачности, а также — игнорирует потенциальные риски дискриминации, манипуляций и вторжения в личную жизнь.

Продолжение: https://vk.com/wall-210601538_1654
⭐️ Отличная нейронка для удаления водяных знаков с изображений: https://dewatermark.ai/ru

Работает прямо в браузере без ограничений, регистрации не требует. Пробуем, тестируем, сохраняем себе новый инструмент!

Архитектор MLSecOps
Николай Павлов
⭐️ Будущее уже здесь: в Мексике родился первый ребенок, зачатый ИИ

Технологии искусственного интеллекта впервые полностью заменили человека при проведении процедуры экстракорпорального оплодотворения (ЭКО). В результате родился абсолютно здоровый ребенок. Это событие уже называют настоящей революцией в области репродуктивной медицины и большим шагом вперед для пар, столкнувшихся с бесплодием.

Ученые из США и Мексики разработали уникальную роботизированную систему на основе искусственного интеллекта, способную полностью автоматизировать метод ИКСИ (интрацитоплазматическая инъекция сперматозоида). ИКСИ — один из самых распространенных методов в ЭКО, применяемый с начала 1990-х годов, особенно эффективный при мужском бесплодии.

Продолжение: https://vk.com/wall-210601538_1656