⭐️ В Московской области на ЦКАД началось тестирование беспилотных грузовиков
По данным издания «Коммерсантъ», ссылающегося на информацию от Минтранса РФ, на Центральной кольцевой автодороге (ЦКАД) в Московской области началось тестирование беспилотных грузовых автомобилей.
В тестовом парке представлены четыре крупнотоннажных автомобиля, включая два "КамАЗа".
💡Передвижение этих автономных машин регулируется специальными экспериментально-правовыми режимами (ЭПР), допускающими присутствие инженера-испытателя в кабине, который, однако, не управляет транспортным средством.
Ранее, в 2023 году, беспилотные грузовики уже начали курсировать по трассе М-11 "Нева", где в эксперименте участвовали такие компании, как ПЭК, Globaltruck, "Магнит" и "Газпромнефть-Снабжение".
Продолжение: https://vk.com/wall-210601538_1646
По данным издания «Коммерсантъ», ссылающегося на информацию от Минтранса РФ, на Центральной кольцевой автодороге (ЦКАД) в Московской области началось тестирование беспилотных грузовых автомобилей.
В тестовом парке представлены четыре крупнотоннажных автомобиля, включая два "КамАЗа".
💡Передвижение этих автономных машин регулируется специальными экспериментально-правовыми режимами (ЭПР), допускающими присутствие инженера-испытателя в кабине, который, однако, не управляет транспортным средством.
Ранее, в 2023 году, беспилотные грузовики уже начали курсировать по трассе М-11 "Нева", где в эксперименте участвовали такие компании, как ПЭК, Globaltruck, "Магнит" и "Газпромнефть-Снабжение".
Продолжение: https://vk.com/wall-210601538_1646
VK
MLSecOps+ | Николай Павлов. Пост со стены.
⭐ В Московской области на ЦКАД началось тестирование беспилотных грузовиков
По данным издан... Смотрите полностью ВКонтакте.
По данным издан... Смотрите полностью ВКонтакте.
⭐️ В России обсуждают запрет ИИ с «угрожающим уровнем риска» Кто должен нести ответственность за вред, нанесенный ИИ человеку?
Участники рынка, эксперты и депутаты обсуждают проект госрегулирования ИИ. Он запрещает системы с «неприемлемым уровнем риска», вводит маркировку контента и ответственность разработчиков за вред, нанесенный нейросетями.
Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в России, сообщили пять источников, знакомых с инициативой. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ, указали они. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России». Документ обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках.
В пояснительной записке к проекту отмечается, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года (была утверждена в феврале 2024 года).
Продолжение: https://vk.com/wall-210601538_1647
Участники рынка, эксперты и депутаты обсуждают проект госрегулирования ИИ. Он запрещает системы с «неприемлемым уровнем риска», вводит маркировку контента и ответственность разработчиков за вред, нанесенный нейросетями.
Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в России, сообщили пять источников, знакомых с инициативой. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ, указали они. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в России». Документ обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках.
В пояснительной записке к проекту отмечается, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года (была утверждена в феврале 2024 года).
Продолжение: https://vk.com/wall-210601538_1647
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ В России обсуждают запрет ИИ с «угрожающим уровнем риска» Кто должен нести ответственность за вред... Смотрите полностью ВКонтакте.
⭐️ Backdoors в MLSecOps
Проверка нейронной сети на наличие закладок (backdoors) — сложная и развивающаяся область. Не существует универсального метода, который гарантированно обнаружит все возможные закладки. Представленные ниже методы являются лишь некоторыми подходами, которые можно использовать, и требуют глубокого понимания принципов работы нейронных сетей и машинного обучения.
При этом важно комбинировать несколько методов и тщательно анализировать результаты. Нужно помнить, что лучшая защита от закладок — это использование надежных источников данных и моделей, а также применение техник защиты от атак во время обучения.
Продолжение: https://vk.com/wall-210601538_1648
Проверка нейронной сети на наличие закладок (backdoors) — сложная и развивающаяся область. Не существует универсального метода, который гарантированно обнаружит все возможные закладки. Представленные ниже методы являются лишь некоторыми подходами, которые можно использовать, и требуют глубокого понимания принципов работы нейронных сетей и машинного обучения.
При этом важно комбинировать несколько методов и тщательно анализировать результаты. Нужно помнить, что лучшая защита от закладок — это использование надежных источников данных и моделей, а также применение техник защиты от атак во время обучения.
Продолжение: https://vk.com/wall-210601538_1648
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Backdoors в MLSecOps
Проверка нейронной сети на наличие закладок (backdoors) — сложная и ра... Смотрите полностью ВКонтакте.
Проверка нейронной сети на наличие закладок (backdoors) — сложная и ра... Смотрите полностью ВКонтакте.
⭐️ OpenAI сократила проверки безопасности моделей ИИ с полугода до нескольких дней
OpenAI сократила время и ресурсы на тестирование безопасности генеративных моделей искусственного интеллекта — сотрудникам и сторонним исследователям дали всего несколько дней на изучение ее новой большой языковой модели o3, в то время как раньше такие проверки занимали несколько месяцев, узнала Financial Times. По данным газеты, OpenAI, которая пытается сохранить лидирующие позиции на конкурентном рынке, хочет выпустить o3 уже на следующей неделе
OpenAI сократила время и ресурсы на тестирование безопасности генеративных моделей искусственного интеллекта (ИИ) — сотрудникам и сторонним исследователям дали всего несколько дней на оценку новой большой языковой модели (LLM), в то время как раньше такие проверки занимали несколько месяцев, пишет Financial Times (FT) со ссылкой на несколько источников, осведомленных о ходе тестов.
Сейчас OpenAI проверяет свою новую модель o3, предназначенную для решения сложных задач. Компания, которая пытается сохранить лидирующие позиции на конкурентном рынке, хочет выпустить ее уже на следующей неделе — чтобы уложиться в эти сроки, некоторым тестировщикам дали меньше недели на проверку ее безопасности, рассказали источники газеты. Для сравнения, до выпуска GPT-4 в 2023 году у тестировщиков было шесть месяцев на ее изучение.
Продолжение: https://vk.com/wall-210601538_1649
OpenAI сократила время и ресурсы на тестирование безопасности генеративных моделей искусственного интеллекта — сотрудникам и сторонним исследователям дали всего несколько дней на изучение ее новой большой языковой модели o3, в то время как раньше такие проверки занимали несколько месяцев, узнала Financial Times. По данным газеты, OpenAI, которая пытается сохранить лидирующие позиции на конкурентном рынке, хочет выпустить o3 уже на следующей неделе
OpenAI сократила время и ресурсы на тестирование безопасности генеративных моделей искусственного интеллекта (ИИ) — сотрудникам и сторонним исследователям дали всего несколько дней на оценку новой большой языковой модели (LLM), в то время как раньше такие проверки занимали несколько месяцев, пишет Financial Times (FT) со ссылкой на несколько источников, осведомленных о ходе тестов.
Сейчас OpenAI проверяет свою новую модель o3, предназначенную для решения сложных задач. Компания, которая пытается сохранить лидирующие позиции на конкурентном рынке, хочет выпустить ее уже на следующей неделе — чтобы уложиться в эти сроки, некоторым тестировщикам дали меньше недели на проверку ее безопасности, рассказали источники газеты. Для сравнения, до выпуска GPT-4 в 2023 году у тестировщиков было шесть месяцев на ее изучение.
Продолжение: https://vk.com/wall-210601538_1649
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ OpenAI сократила проверки безопасности моделей ИИ с полугода до нескольких дней
OpenAI сокр... Смотрите полностью ВКонтакте.
OpenAI сокр... Смотрите полностью ВКонтакте.
⭐️ В России 9% IT-юристов зарабатывают более 500 тыс. рублей в месяц
В России заработные платы IT-юристов значительно превышают среднерыночные показатели. Об этом информируют данные исследования кадрового агентства Magic Staff, пишет «Газета.Ru».
Сообщается, что медианный уровень доходов специалистов в этой сфере составляет 200 тысяч рублей. При этом разброс зарплат весьма велик: от 40 тысяч до 1,8 млн рублей в месяц. Согнано исследованию, 28% IT-юристов зарабатывают в диапазоне 100-150 тысяч рублей, 45% — от 150 до 300 тысяч, 18% — в пределах 300-500 тысяч, а 9% получают более 500 тысяч рублей.
Продолжение: https://vk.com/wall-210601538_1650
В России заработные платы IT-юристов значительно превышают среднерыночные показатели. Об этом информируют данные исследования кадрового агентства Magic Staff, пишет «Газета.Ru».
Сообщается, что медианный уровень доходов специалистов в этой сфере составляет 200 тысяч рублей. При этом разброс зарплат весьма велик: от 40 тысяч до 1,8 млн рублей в месяц. Согнано исследованию, 28% IT-юристов зарабатывают в диапазоне 100-150 тысяч рублей, 45% — от 150 до 300 тысяч, 18% — в пределах 300-500 тысяч, а 9% получают более 500 тысяч рублей.
Продолжение: https://vk.com/wall-210601538_1650
VK
MLSecOps+ | Николай Павлов. Пост со стены.
⭐ В России 9% IT-юристов зарабатывают более 500 тыс. рублей в месяц
В России заработные платы... Смотрите полностью ВКонтакте.
В России заработные платы... Смотрите полностью ВКонтакте.
⭐️ 10 признаков изображения, сгенерированного ИИ в MLSecOps
Распознавание изображений, сгенерированных ИИ (особенно генеративными моделями, такими как GANs, Diffusion Models и др.), является важной и сложной задачей в MLSecOps, поскольку качество таких изображений постоянно улучшается. Однако, есть ряд признаков, которые могут указывать на то, что изображение было сгенерировано ИИ (особенно, если наблюдаются сразу 2-3 таких признака):
I. Общие артефакты и несоответствия
1. Артефакты генерации (Generator Artifacts).
Это повторяющиеся паттерны или текстуры, которые появляются из-за особенностей архитектуры генератора ИИ. Они могут быть едва заметными, но при увеличении становятся очевидными.
Примеры: шахматный узор, сетка, радиальные артефакты, повторяющиеся пятна, подобные элементы в разных частях изображения и другие.
Продолжение: https://vk.com/wall-210601538_1651
Распознавание изображений, сгенерированных ИИ (особенно генеративными моделями, такими как GANs, Diffusion Models и др.), является важной и сложной задачей в MLSecOps, поскольку качество таких изображений постоянно улучшается. Однако, есть ряд признаков, которые могут указывать на то, что изображение было сгенерировано ИИ (особенно, если наблюдаются сразу 2-3 таких признака):
I. Общие артефакты и несоответствия
1. Артефакты генерации (Generator Artifacts).
Это повторяющиеся паттерны или текстуры, которые появляются из-за особенностей архитектуры генератора ИИ. Они могут быть едва заметными, но при увеличении становятся очевидными.
Примеры: шахматный узор, сетка, радиальные артефакты, повторяющиеся пятна, подобные элементы в разных частях изображения и другие.
Продолжение: https://vk.com/wall-210601538_1651
VK
MLSecOps+ | Николай Павлов. Пост со стены.
⭐ 10 признаков фэйкового изображения, сгенерированного ИИ в MLSecOps
Распознавание изображени... Смотрите полностью ВКонтакте.
Распознавание изображени... Смотрите полностью ВКонтакте.
⭐️ Скандал в IT - вместо мощной ИИ-системы компания Nate использовала труд сотен филиппинцев (!)
Основанный в 2018 году и позиционировавшийся как разработчик универсального решения для онлайн-шопинга «в один клик» стартап Nate вместо заявленного искусственного интеллекта на самом деле использовал труд сотен филиппинцев. Об этом сообщает портал VC.
Разработчики Nate заявляли, что пользователи могут выбрать товар в любом интернет-магазине, передать ссылку в приложение, после чего система якобы автоматически обрабатывала покупку, включая оплату и доставку.
Однако, как выяснилось, заявленная технология автоматизации на базе «собственных ИИ-моделей» оказалась фикцией. Министерство юстиции США выдвинуло против основателя компании Альберта Санигера обвинения в мошенничестве — он, по версии ведомства, вводил в заблуждение как текущих, так и потенциальных инвесторов, представляя несуществующие ИИ-решения как действующие.
Продолжение: https://vk.com/wall-210601538_1652
Основанный в 2018 году и позиционировавшийся как разработчик универсального решения для онлайн-шопинга «в один клик» стартап Nate вместо заявленного искусственного интеллекта на самом деле использовал труд сотен филиппинцев. Об этом сообщает портал VC.
Разработчики Nate заявляли, что пользователи могут выбрать товар в любом интернет-магазине, передать ссылку в приложение, после чего система якобы автоматически обрабатывала покупку, включая оплату и доставку.
Однако, как выяснилось, заявленная технология автоматизации на базе «собственных ИИ-моделей» оказалась фикцией. Министерство юстиции США выдвинуло против основателя компании Альберта Санигера обвинения в мошенничестве — он, по версии ведомства, вводил в заблуждение как текущих, так и потенциальных инвесторов, представляя несуществующие ИИ-решения как действующие.
Продолжение: https://vk.com/wall-210601538_1652
VK
MLSecOps+ | Николай Павлов. Пост со стены.
⭐ Скандал в IT - вместо мощной ИИ-системы компания Nate использовала труд сотен филиппинцев (!)
... Смотрите полностью ВКонтакте.
... Смотрите полностью ВКонтакте.
⭐️ 10 признаков текста, сгенерированного ИИ в MLSecOps
Распознавание текста, сгенерированного ИИ (особенно большими языковыми моделями, LLM), как и распознавание сгенерированного ИИ изображения, становится все более сложной задачей в MLSecOps. Поскольку языковые модели становятся все более совершенными в создании убедительного и связного текста. Тем не менее, есть несколько признаков, которые могут помочь определить, был ли текст сгенерирован ИИ.
Как и с распознаванием изображений, целесообразнее всего делать вывод о том, что текст сгенерирован ИИ на основе нескольких признаков. Кроме того, важно учитывать контекст, в котором представлен текст. Например, формальный стиль может быть уместным для научного отчета, но подозрительным для личного письма.
Продолжение: https://vk.com/wall-210601538_1653
Распознавание текста, сгенерированного ИИ (особенно большими языковыми моделями, LLM), как и распознавание сгенерированного ИИ изображения, становится все более сложной задачей в MLSecOps. Поскольку языковые модели становятся все более совершенными в создании убедительного и связного текста. Тем не менее, есть несколько признаков, которые могут помочь определить, был ли текст сгенерирован ИИ.
Как и с распознаванием изображений, целесообразнее всего делать вывод о том, что текст сгенерирован ИИ на основе нескольких признаков. Кроме того, важно учитывать контекст, в котором представлен текст. Например, формальный стиль может быть уместным для научного отчета, но подозрительным для личного письма.
Продолжение: https://vk.com/wall-210601538_1653
VK
MLSecOps+ | Николай Павлов. Пост со стены.
⭐ 10 признаков текста, сгенерированного ИИ в MLSecOps
Распознавание текста, сгенерированного... Смотрите полностью ВКонтакте.
Распознавание текста, сгенерированного... Смотрите полностью ВКонтакте.
⭐️ СПЧ раскритиковал концепцию регулирования искусственного интеллекта
Совет при президенте РФ по правам человека (СПЧ) выступил с резкой критикой в адрес концепции регулирования ИИ, разработанной при поддержке Альянса в сфере искусственного интеллекта. Документ, по мнению членов Совета, ориентирован преимущественно на интересы бизнеса и не содержит должных гарантий для защиты прав граждан.
Речь идёт об официальной концепции, которая закладывает рамки использования ИИ в государственных и коммерческих структурах. В СПЧ считают, что проект предполагает слабый контроль за алгоритмами, отсутствие механизмов прозрачности, а также — игнорирует потенциальные риски дискриминации, манипуляций и вторжения в личную жизнь.
Продолжение: https://vk.com/wall-210601538_1654
Совет при президенте РФ по правам человека (СПЧ) выступил с резкой критикой в адрес концепции регулирования ИИ, разработанной при поддержке Альянса в сфере искусственного интеллекта. Документ, по мнению членов Совета, ориентирован преимущественно на интересы бизнеса и не содержит должных гарантий для защиты прав граждан.
Речь идёт об официальной концепции, которая закладывает рамки использования ИИ в государственных и коммерческих структурах. В СПЧ считают, что проект предполагает слабый контроль за алгоритмами, отсутствие механизмов прозрачности, а также — игнорирует потенциальные риски дискриминации, манипуляций и вторжения в личную жизнь.
Продолжение: https://vk.com/wall-210601538_1654
VK
MLSecOps+ | Николай Павлов. Пост со стены.
⭐ СПЧ раскритиковал концепцию регулирования искусственного интеллекта
Совет при президенте ... Смотрите полностью ВКонтакте.
Совет при президенте ... Смотрите полностью ВКонтакте.
⭐️ Отличная нейронка для удаления водяных знаков с изображений: https://dewatermark.ai/ru
Работает прямо в браузере без ограничений, регистрации не требует. Пробуем, тестируем, сохраняем себе новый инструмент!
Архитектор MLSecOps
Николай Павлов
Работает прямо в браузере без ограничений, регистрации не требует. Пробуем, тестируем, сохраняем себе новый инструмент!
Архитектор MLSecOps
Николай Павлов
Удаление водяных знаков с изображений с помощью ИИ
Инструмент для удаления водяных знаков и логотипов мгновенно онлайн с помощью Dewatermark.AI - Убрать водяные знаки с изображений!
⭐️ Будущее уже здесь: в Мексике родился первый ребенок, зачатый ИИ
Технологии искусственного интеллекта впервые полностью заменили человека при проведении процедуры экстракорпорального оплодотворения (ЭКО). В результате родился абсолютно здоровый ребенок. Это событие уже называют настоящей революцией в области репродуктивной медицины и большим шагом вперед для пар, столкнувшихся с бесплодием.
Ученые из США и Мексики разработали уникальную роботизированную систему на основе искусственного интеллекта, способную полностью автоматизировать метод ИКСИ (интрацитоплазматическая инъекция сперматозоида). ИКСИ — один из самых распространенных методов в ЭКО, применяемый с начала 1990-х годов, особенно эффективный при мужском бесплодии.
Продолжение: https://vk.com/wall-210601538_1656
Технологии искусственного интеллекта впервые полностью заменили человека при проведении процедуры экстракорпорального оплодотворения (ЭКО). В результате родился абсолютно здоровый ребенок. Это событие уже называют настоящей революцией в области репродуктивной медицины и большим шагом вперед для пар, столкнувшихся с бесплодием.
Ученые из США и Мексики разработали уникальную роботизированную систему на основе искусственного интеллекта, способную полностью автоматизировать метод ИКСИ (интрацитоплазматическая инъекция сперматозоида). ИКСИ — один из самых распространенных методов в ЭКО, применяемый с начала 1990-х годов, особенно эффективный при мужском бесплодии.
Продолжение: https://vk.com/wall-210601538_1656
VK
MLSecOps+ | Николай Павлов. Пост со стены.
⭐ Будущее уже здесь: в Мексике родился первый ребенок, зачатый ИИ
Технологии искусственного и... Смотрите полностью ВКонтакте.
Технологии искусственного и... Смотрите полностью ВКонтакте.
⭐️ Спрос на разработку ИИ-ассистентов для бизнеса вырос почти в 7 раз за год
Аналитики электронной торговой площадки «ТендерПро» проанализировали изменения в спросе на разработку ИИ-ассистентов со стороны бизнеса. По данным специалистов, за последний год количество торгов по таким проектам увеличилось почти в семь раз.
Наиболее активно заказывают разработку ИИ-ассистентов: Банковский сектор — 27,8% от общего числа торгов; ритейлеры — 18,2% от общего числа торгов; компании в сфере общественного питания — 12,5% от общего числа торгов; представители рынка недвижимости — 12,5% от общего числа торгов; телекоммуникационные компании — 8,3% от общего числа торгов.
Кроме того, значительно выросло число тендеров на создание ИИ-ассистентов у предприятий в сферах медицины, транспорта и энергетики.
Продолжение: https://vk.com/wall-210601538_1657
Аналитики электронной торговой площадки «ТендерПро» проанализировали изменения в спросе на разработку ИИ-ассистентов со стороны бизнеса. По данным специалистов, за последний год количество торгов по таким проектам увеличилось почти в семь раз.
Наиболее активно заказывают разработку ИИ-ассистентов: Банковский сектор — 27,8% от общего числа торгов; ритейлеры — 18,2% от общего числа торгов; компании в сфере общественного питания — 12,5% от общего числа торгов; представители рынка недвижимости — 12,5% от общего числа торгов; телекоммуникационные компании — 8,3% от общего числа торгов.
Кроме того, значительно выросло число тендеров на создание ИИ-ассистентов у предприятий в сферах медицины, транспорта и энергетики.
Продолжение: https://vk.com/wall-210601538_1657
VK
MLSecOps+ | Николай Павлов. Пост со стены.
⭐ Спрос на разработку ИИ-ассистентов для бизнеса вырос почти в 7 раз за год
Аналитики электро... Смотрите полностью ВКонтакте.
Аналитики электро... Смотрите полностью ВКонтакте.
⭐️ Посол КНР: бесконтрольное развитие ИИ в США может привести к катастрофе
Бесконтрольное развитие искусственного интеллекта (ИИ) в США приводит к трагическим последствиям и может обернуться катастрофой для всего человечества. Об этом заявил посол Китая в России Чжан Ханьхуэй.
"А что происходит в США? Там развитие искусственного интеллекта во многом определяется интересами капитала. Чтобы сохранить свое доминирование, США оставили ИИ без контроля, что приводит к трагическим последствиям, - отметил посол. - С 2024 года учащаются случаи, когда чат-боты, разработанные американскими компаниями, склоняют подростков к суициду. В начале 2025 года мир был потрясен известием о первом в истории взрыве электрического пикапа в Лас-Вегасе, спланированном с использованием ChatGPT. Этот инцидент наглядно демонстрирует, что бесконтрольное развитие технологий может обернуться катастрофой для человеческой цивилизации".
Продолжение: https://vk.com/wall-210601538_1658
Бесконтрольное развитие искусственного интеллекта (ИИ) в США приводит к трагическим последствиям и может обернуться катастрофой для всего человечества. Об этом заявил посол Китая в России Чжан Ханьхуэй.
"А что происходит в США? Там развитие искусственного интеллекта во многом определяется интересами капитала. Чтобы сохранить свое доминирование, США оставили ИИ без контроля, что приводит к трагическим последствиям, - отметил посол. - С 2024 года учащаются случаи, когда чат-боты, разработанные американскими компаниями, склоняют подростков к суициду. В начале 2025 года мир был потрясен известием о первом в истории взрыве электрического пикапа в Лас-Вегасе, спланированном с использованием ChatGPT. Этот инцидент наглядно демонстрирует, что бесконтрольное развитие технологий может обернуться катастрофой для человеческой цивилизации".
Продолжение: https://vk.com/wall-210601538_1658
VK
MLSecOps+ | Николай Павлов. Пост со стены.
⭐ Посол КНР: бесконтрольное развитие ИИ в США может привести к катастрофе
Бесконтрольное разв... Смотрите полностью ВКонтакте.
Бесконтрольное разв... Смотрите полностью ВКонтакте.
⭐️ Появилась новая информация о том, что собираются включить в законопроект «О регулировании систем искусственного интеллекта (ИИ) в России»
Что предлагает законопроект?
1. Ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека).
2. Понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.).
3. Понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии), разработчика, оператора и пользователя подобных систем и др.
Продолжение: https://vk.com/wall-210601538_1664
Что предлагает законопроект?
1. Ввести понятие искусственного интеллекта (комплекс технологических и программных решений, имитирующий когнитивные функции человека, в том числе самообучение, поиск решений без заранее заданного алгоритма, и обеспечивающий получение результатов, сопоставимых с результатами интеллектуальной деятельности человека).
2. Понятие технологий ИИ (к ним относят технологии компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, интеллектуального анализа данных, машинного обучения и др.).
3. Понятие систем ИИ (информационные системы, которые имитируют когнитивные функции человека, применяя перечисленные выше технологии), разработчика, оператора и пользователя подобных систем и др.
Продолжение: https://vk.com/wall-210601538_1664
VK
MLSecOps+ | Николай Павлов. Пост со стены.
⭐ Появилась новая информация о том, что собираются включить в законопроект «О регулировании систем и... Смотрите полностью ВКонтакте.
⭐️ NIST Cybersecurity Framework в MLSecOps
NIST Cybersecurity Framework (NIST CSF) — это набор рекомендаций, разработанный Национальным институтом стандартов и технологий США (NIST) для помощи организациям в управлении и снижении киберрисков. Это не нормативный документ, а скорее гибкий и адаптивный фреймворк, который может быть использован организациями любого размера и в любой отрасли.
NIST CSF состоит из трех основных компонентов:
1. Функции (Functions): Представляют собой верхний уровень организации, отражают основные действия по управлению киберрисками и организованы в пять параллельных и непрерывных функций:
+ Identify (Идентификация): Разработка организационного понимания для управления киберрисками для систем, активов, данных и возможностей. Что у вас есть?
Продолжение: https://vk.com/wall-210601538_1665
NIST Cybersecurity Framework (NIST CSF) — это набор рекомендаций, разработанный Национальным институтом стандартов и технологий США (NIST) для помощи организациям в управлении и снижении киберрисков. Это не нормативный документ, а скорее гибкий и адаптивный фреймворк, который может быть использован организациями любого размера и в любой отрасли.
NIST CSF состоит из трех основных компонентов:
1. Функции (Functions): Представляют собой верхний уровень организации, отражают основные действия по управлению киберрисками и организованы в пять параллельных и непрерывных функций:
+ Identify (Идентификация): Разработка организационного понимания для управления киберрисками для систем, активов, данных и возможностей. Что у вас есть?
Продолжение: https://vk.com/wall-210601538_1665
VK
MLSecOps+ | Николай Павлов. Пост со стены.
⭐ NIST Cybersecurity Framework в MLSecOps
NIST Cybersecurity Framework (NIST CSF) — это набор... Смотрите полностью ВКонтакте.
NIST Cybersecurity Framework (NIST CSF) — это набор... Смотрите полностью ВКонтакте.
⭐️ Бесплатный вебинар "Что не так с безопасностью LLM?"
23 апреля на Reading Club #14 обсудим сразу два свежих исследования о том, насколько уязвимы языковые модели и как именно их защиту удаётся обойти — даже если это GPT-4.
1. Universal and Transferable Adversarial Attacks on Aligned Language Models — автоматическая генерация суффиксов, которые заставляют LLM нарушать встроенные ограничения.
Эксперт: Никита Беляевский — инженер Raft Security, магистрант AI Talent Hub
2. AutoDAN-Turbo: A Lifelong Agent for Strategy Self-Exploration to Jailbreak LLMs — автономный агент, который сам обучается джейлбрейкам и улучшает стратегии обхода.
Эксперт: Тимур Низамов — инженер Raft Security, магистрант AI Talent Hub
Дата и время: 23 апреля (среда) в 18:30 (мск)
Формат: онлайн
Ссылка: https://ai-talent-hub.timepad.ru/event/3320466/#register
Приятного аппетита, мои дорогие звезды IT!
Архитектор MLSecOps
Николай Павлов
23 апреля на Reading Club #14 обсудим сразу два свежих исследования о том, насколько уязвимы языковые модели и как именно их защиту удаётся обойти — даже если это GPT-4.
1. Universal and Transferable Adversarial Attacks on Aligned Language Models — автоматическая генерация суффиксов, которые заставляют LLM нарушать встроенные ограничения.
Эксперт: Никита Беляевский — инженер Raft Security, магистрант AI Talent Hub
2. AutoDAN-Turbo: A Lifelong Agent for Strategy Self-Exploration to Jailbreak LLMs — автономный агент, который сам обучается джейлбрейкам и улучшает стратегии обхода.
Эксперт: Тимур Низамов — инженер Raft Security, магистрант AI Talent Hub
Дата и время: 23 апреля (среда) в 18:30 (мск)
Формат: онлайн
Ссылка: https://ai-talent-hub.timepad.ru/event/3320466/#register
Приятного аппетита, мои дорогие звезды IT!
Архитектор MLSecOps
Николай Павлов
ai-talent-hub.timepad.ru
Reading Club #14: Что не так с безопасностью LLM? / События на TimePad.ru
Раз в две недели магистранты AI Talent Hub и эксперты из индустрии и научного мира разбирают самые актуальные статьи из мира AI в формате Reading Club.
✨ Бесплатный, лаконичный и доступный для понимания курс на русском языке про разработку ИИ-агентов!
Срочно изучаем, вникаем, что непонятно - задаем вопросы!
Это неизбежное будущее, которое в течение 2-3 лет радикально изменит мир.
Ссылка: https://teletype.in/@prompt_design/agents-course
Приятного аппетита!
Архитектор MLSecOps
Николай Павлов
Срочно изучаем, вникаем, что непонятно - задаем вопросы!
Это неизбежное будущее, которое в течение 2-3 лет радикально изменит мир.
Ссылка: https://teletype.in/@prompt_design/agents-course
Приятного аппетита!
Архитектор MLSecOps
Николай Павлов
Teletype
Курс по созданию AI-агентов от Hugging Face (Часть Первая)
Перевел для телеграм канала @prompt_design (подписывайтесь)
👍2
✨ 10 признаков фейкового аудио в MLSecOps
1. Несоответствия с контекстом.
Голос противоречит известным фактам о говорящем или ситуации, в которой он предположительно был записан. Например, человеку позвонила, судя по голосу его супруга. Но при этом некоторые слова она говорит с английским или украинским акцентом, чего ранее не было.
2. Неестественные переходы и паузы.
Странные, неестественные переходы между фразами, неестественно длинные или короткие паузы, которые не соответствуют нормальной речи. Особенно перед ответами на речь собеседника, что указывает на возможную задержку в связи с синтезом речи.
Продолжение: https://vk.com/wall-210601538_1673
1. Несоответствия с контекстом.
Голос противоречит известным фактам о говорящем или ситуации, в которой он предположительно был записан. Например, человеку позвонила, судя по голосу его супруга. Но при этом некоторые слова она говорит с английским или украинским акцентом, чего ранее не было.
2. Неестественные переходы и паузы.
Странные, неестественные переходы между фразами, неестественно длинные или короткие паузы, которые не соответствуют нормальной речи. Особенно перед ответами на речь собеседника, что указывает на возможную задержку в связи с синтезом речи.
Продолжение: https://vk.com/wall-210601538_1673
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
✨ 10 признаков фейкового аудио в MLSecOps
1. Несоответствия с контекстом.
Голос противореч... Смотрите полностью ВКонтакте.
1. Несоответствия с контекстом.
Голос противореч... Смотрите полностью ВКонтакте.
⭐️ Цифровые профессии будущего: кто выживет в эпоху искусственного интеллекта
Искусственный интеллект меняет рынок труда: одни профессии исчезают, другие трансформируются, а третьи — только зарождаются. По данным ВЭФ, к 2030 году благодаря ИИ появится 11 млн новых рабочих мест, но в результате автоматизации могут исчезнуть 9 млн. В статье разбираемся, какие цифровые профессии останутся востребованными, как изменится работа программистов и какие навыки будут критически важны в ближайшие 5 лет.
I. Тренды рынка труда и технологий
Согласно отчету ВЭФ, стимулировать трансформацию рынка труда будут три ключевых фактора: робототехника и автоматизация, технологии генерации и хранения энергии, ИИ и обработка данных. При этом 31% опрошенных Стэнфордским университетом респондентов верят, что ИИ окажет положительное влияние на сферу занятости.
Продолжение: https://vk.com/wall-210601538_1674
Искусственный интеллект меняет рынок труда: одни профессии исчезают, другие трансформируются, а третьи — только зарождаются. По данным ВЭФ, к 2030 году благодаря ИИ появится 11 млн новых рабочих мест, но в результате автоматизации могут исчезнуть 9 млн. В статье разбираемся, какие цифровые профессии останутся востребованными, как изменится работа программистов и какие навыки будут критически важны в ближайшие 5 лет.
I. Тренды рынка труда и технологий
Согласно отчету ВЭФ, стимулировать трансформацию рынка труда будут три ключевых фактора: робототехника и автоматизация, технологии генерации и хранения энергии, ИИ и обработка данных. При этом 31% опрошенных Стэнфордским университетом респондентов верят, что ИИ окажет положительное влияние на сферу занятости.
Продолжение: https://vk.com/wall-210601538_1674
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Цифровые профессии будущего: кто выживет в эпоху искусственного интеллекта
Искусственный ин... Смотрите полностью ВКонтакте.
Искусственный ин... Смотрите полностью ВКонтакте.
⭐️ Компании обяжут информировать клиентов о том, что им звонит или пишет бот
Российские компании и госструктуры при использовании искусственного интеллекта (ИИ) в общении с гражданами по телефону или через интернет должны будут указывать, что клиент общается не с реальным человеком. Такое положение содержит законопроект «О регулировании систем искусственного интеллекта», подготовленный в Госдуме рабочей группой, состоящей из депутатов, представителей бизнеса и деловых ассоциаций.
Клиенту должна быть предоставлена возможность выбрать общение с оператором. Если взаимодействие осуществляется через чат-бота в интернете, должно быть указание на автоматизированный характер формирования ответов и сообщений, говорится в документе. Должен быть также указан порядок направления претензий и обращений в организацию, применяющую ИИ.
Продолжение: https://vk.com/wall-210601538_1675
Российские компании и госструктуры при использовании искусственного интеллекта (ИИ) в общении с гражданами по телефону или через интернет должны будут указывать, что клиент общается не с реальным человеком. Такое положение содержит законопроект «О регулировании систем искусственного интеллекта», подготовленный в Госдуме рабочей группой, состоящей из депутатов, представителей бизнеса и деловых ассоциаций.
Клиенту должна быть предоставлена возможность выбрать общение с оператором. Если взаимодействие осуществляется через чат-бота в интернете, должно быть указание на автоматизированный характер формирования ответов и сообщений, говорится в документе. Должен быть также указан порядок направления претензий и обращений в организацию, применяющую ИИ.
Продолжение: https://vk.com/wall-210601538_1675
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Компании обяжут информировать клиентов о том, что им звонит или пишет бот
Российские компан... Смотрите полностью ВКонтакте.
Российские компан... Смотрите полностью ВКонтакте.
⭐️ Модель угроз кибербезопасности ИИ от Сбера
У Сбера вышла модель угроз кибербезопасности AI на всех этапах жизненного цикла - от сбора данных до эксплуатации. По сути, первый фреймворк, аналогичный DASF, NIST AI RMF, и прочим, но российский. Это круто. И в конце приведено, что модель учитывает все актуальные материалах OWASP, MITRE, NIST и др.
Главное, чем мне нравится документ - своей структурой и полнотой.
I. Что в ней есть?
Перечень из 70 различных угроз, разбитых на 5 групп:
— Угрозы, связанные с данными
— Угрозы, связанные с инфраструктурой
— Угрозы, связанные с моделью
— Угрозы, связанные с приложениями
— Угрозы, связанные с AI-агентами
У каждой угрозы прописаны пояснение, последствие реализации, объект, на который нарушитель воздействует для реализации угрозы, виды моделей, подверженных угрозе (PredAI, то есть узкие ml-модели, и GenAI), а также лица, ответственные за митигацию угрозы. Последний пункт, думаю, является наиболее интересным с прикладной точки зрения. И еще нарушаемое свойство информации, но оно больше для базового понимания угрозы. Правда, примечательно, что для угроз галлюцинаций (M03) и вредоносных генераций (App12) используется четвертое свойство безопасности - достоверность.
Нет конкретных мер безопасности моделей, но, возможно, это не так страшно.
Продолжение: https://vk.com/wall-210601538_1676
У Сбера вышла модель угроз кибербезопасности AI на всех этапах жизненного цикла - от сбора данных до эксплуатации. По сути, первый фреймворк, аналогичный DASF, NIST AI RMF, и прочим, но российский. Это круто. И в конце приведено, что модель учитывает все актуальные материалах OWASP, MITRE, NIST и др.
Главное, чем мне нравится документ - своей структурой и полнотой.
I. Что в ней есть?
Перечень из 70 различных угроз, разбитых на 5 групп:
— Угрозы, связанные с данными
— Угрозы, связанные с инфраструктурой
— Угрозы, связанные с моделью
— Угрозы, связанные с приложениями
— Угрозы, связанные с AI-агентами
У каждой угрозы прописаны пояснение, последствие реализации, объект, на который нарушитель воздействует для реализации угрозы, виды моделей, подверженных угрозе (PredAI, то есть узкие ml-модели, и GenAI), а также лица, ответственные за митигацию угрозы. Последний пункт, думаю, является наиболее интересным с прикладной точки зрения. И еще нарушаемое свойство информации, но оно больше для базового понимания угрозы. Правда, примечательно, что для угроз галлюцинаций (M03) и вредоносных генераций (App12) используется четвертое свойство безопасности - достоверность.
Нет конкретных мер безопасности моделей, но, возможно, это не так страшно.
Продолжение: https://vk.com/wall-210601538_1676
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Модель угроз кибербезопасности ИИ от Сбера
У Сбера вышла модель угроз кибербезопасности AI ... Смотрите полностью ВКонтакте.
У Сбера вышла модель угроз кибербезопасности AI ... Смотрите полностью ВКонтакте.