Куки-баннеры: казнить нельзя помиловать
Где поставить запятую в этом предложении, после "казнить" или после "нельзя"?
Исследователи и создатели расширения под браузер Хром "Консент-о-Матик" предлагают первый вариант. А один из лидеров рынка кукибаннеростроения — УанТраст — конечно, за второй.
Казалось бы, статья 21 (5) Общего регламента ЕС по защите данных прямо даёт пользователю право использовать средства автоматизации для отклонения запросов на обработку персональных данных. Это положение действует преимущественно перед правилами статьи 5 (3) Директивы 2002/58/EC, предписывающей брать с пользователя согласие до установки кукис на его оконечное оборудование.
Соответственно, европейские пользователи имеют полное право установить подобное расширение, чтобы автоматически отклонять запросы на сохранение кукис.
Но, по словам одного из разработчиков Консент-о-Матика, Мидаса Нувенса, компания "УанТраст" сейчас пытается запатентовать решение, которое позволит отклонять такие автоматизированные отказы, и даже заставлять пользователей вводить капчу, чтобы подтвердить человеческое происхождение отказа от сохранения кукис.
При этом УанТраст обосновывает полезность патентуемого решения аргументом о том, что пользователь-де в подобном сценарии может принимать неинформированное решение об отказе от кукис, что не позволяет администратору сайта соблюсти требования закона.
Как совершенно верно отмечает Нувенс, подобный аргумент совершенно абсурден, ведь указанная выше норма Регламента ЕС прямо допускает использование пользователем программы для автоматического, невдумчивого отказа от сохранения кукис. Отказ, в отличие от согласия, не должен быть "конкретным, информированным, данным свободно и недвусмысленно".
По-хорошему, УанТраст должен публично покаяться в подобной ошибке и отозвать свою заявку.
В противном случае, на мой взгляд, компания достойна всяческого порицания за такой шаг.
Кроме того, мне кажется (но точнее может сказать @vychislit_po_ip), что при попытке получить такой же патент в Европе УанТрасту может быть отказано в связи с противоречием изобретения европейскому публичному порядку: единственная заявленная цель использования изобретения состоит в прямом нарушении Регламента ЕС о защите данных и прав пользователей.
Где поставить запятую в этом предложении, после "казнить" или после "нельзя"?
Исследователи и создатели расширения под браузер Хром "Консент-о-Матик" предлагают первый вариант. А один из лидеров рынка кукибаннеростроения — УанТраст — конечно, за второй.
Казалось бы, статья 21 (5) Общего регламента ЕС по защите данных прямо даёт пользователю право использовать средства автоматизации для отклонения запросов на обработку персональных данных. Это положение действует преимущественно перед правилами статьи 5 (3) Директивы 2002/58/EC, предписывающей брать с пользователя согласие до установки кукис на его оконечное оборудование.
Соответственно, европейские пользователи имеют полное право установить подобное расширение, чтобы автоматически отклонять запросы на сохранение кукис.
Но, по словам одного из разработчиков Консент-о-Матика, Мидаса Нувенса, компания "УанТраст" сейчас пытается запатентовать решение, которое позволит отклонять такие автоматизированные отказы, и даже заставлять пользователей вводить капчу, чтобы подтвердить человеческое происхождение отказа от сохранения кукис.
При этом УанТраст обосновывает полезность патентуемого решения аргументом о том, что пользователь-де в подобном сценарии может принимать неинформированное решение об отказе от кукис, что не позволяет администратору сайта соблюсти требования закона.
Как совершенно верно отмечает Нувенс, подобный аргумент совершенно абсурден, ведь указанная выше норма Регламента ЕС прямо допускает использование пользователем программы для автоматического, невдумчивого отказа от сохранения кукис. Отказ, в отличие от согласия, не должен быть "конкретным, информированным, данным свободно и недвусмысленно".
По-хорошему, УанТраст должен публично покаяться в подобной ошибке и отозвать свою заявку.
В противном случае, на мой взгляд, компания достойна всяческого порицания за такой шаг.
Кроме того, мне кажется (но точнее может сказать @vychislit_po_ip), что при попытке получить такой же патент в Европе УанТрасту может быть отказано в связи с противоречием изобретения европейскому публичному порядку: единственная заявленная цель использования изобретения состоит в прямом нарушении Регламента ЕС о защите данных и прав пользователей.
Google
Consent-O-Matic - Chrome Web Store
Automatic handling of GDPR consent forms
👍6
Robocounsel
США: федеральное регулирование применения искусственного интеллекта О планах разработки такого регулирования стало известно в начале года, координация работы была поручена Управлению научно-технической политики США. Однако, вопреки заявлениям руководителя…
Федеральное (не)регулирование ИИ в США
На этой неделе появился повод написать сиквел к моей июльской заметке. Управление научно-технической политики Администрации Президента США опубликовало документ, озаглавленный "Blueprint for an AI Bill of Rights".
Основное тело документа состоит из пяти принципов разработки и эксплуатации систем ИИ, сопровождаемых руководством по их практической реализации и глоссарием.
Базовые принципы:
1) безопасность и эффективность систем ИИ,
2) предотвращение алгоритмической дискриминации,
3) приватность данных - конструктивная и по умолчанию,
4) предупреждение о взаимодействии с системой ИИ и объяснимость результатов её работы,
5) человеческий контроль и право на взаимодействие с человеком.
В целом, по сравнению с проектом Регламента ЕС в документе не заметно никаких принципиально новых идей, хотя, конечно, есть разница в изложении и подходах.
Самое важное — вопреки некоторым ожиданиям, это не законопроект. Практически вся первая страница документа посвящена дисклеймерам о том, что это лишь доклад ("вайт пейпер") в поддержку развития будущего регулирования ИИ с фокусом на гражданские права и демократические ценности.
При этом документ не только строго никого ни к чему не обязывающий ("non-binding"), но и не представляет собой даже изложение государственной политики в этой области ("does not constitute U.S. government policy"). В этом смысле он имеет даже меньшую силу, чем ранее принятая российским правительством концепция развития регулирования ИИ и робототехники.
Таким образом, американское правительство, по сути, оставляет развязанными руки как себе, так и американским разработчикам и эксплуатантам систем ИИ. В том числе по этически спорным сценариям применения ИИ, типа биометрической идентификации в общественных местах, которые могут быть потенциально запрещены в Европейском союзе.
На этой неделе появился повод написать сиквел к моей июльской заметке. Управление научно-технической политики Администрации Президента США опубликовало документ, озаглавленный "Blueprint for an AI Bill of Rights".
Основное тело документа состоит из пяти принципов разработки и эксплуатации систем ИИ, сопровождаемых руководством по их практической реализации и глоссарием.
Базовые принципы:
1) безопасность и эффективность систем ИИ,
2) предотвращение алгоритмической дискриминации,
3) приватность данных - конструктивная и по умолчанию,
4) предупреждение о взаимодействии с системой ИИ и объяснимость результатов её работы,
5) человеческий контроль и право на взаимодействие с человеком.
В целом, по сравнению с проектом Регламента ЕС в документе не заметно никаких принципиально новых идей, хотя, конечно, есть разница в изложении и подходах.
Самое важное — вопреки некоторым ожиданиям, это не законопроект. Практически вся первая страница документа посвящена дисклеймерам о том, что это лишь доклад ("вайт пейпер") в поддержку развития будущего регулирования ИИ с фокусом на гражданские права и демократические ценности.
При этом документ не только строго никого ни к чему не обязывающий ("non-binding"), но и не представляет собой даже изложение государственной политики в этой области ("does not constitute U.S. government policy"). В этом смысле он имеет даже меньшую силу, чем ранее принятая российским правительством концепция развития регулирования ИИ и робототехники.
Таким образом, американское правительство, по сути, оставляет развязанными руки как себе, так и американским разработчикам и эксплуатантам систем ИИ. В том числе по этически спорным сценариям применения ИИ, типа биометрической идентификации в общественных местах, которые могут быть потенциально запрещены в Европейском союзе.
The White House
Blueprint for an AI Bill of Rights
Among the great challenges posed to democracy today is the use of technology, data, and automated systems in ways that threaten the rights of the American public. Too often, these tools are used to limit our opportunities and prevent our access to critical…
👍3
Могут ли вращающиеся 👀 на автономном автомобиле снизить количество ДТП?
Возможно, утверждают исследователи Токийского университета в недавно опубликованном исследовании.
А чтобы было совсем наглядно, они записали видеоролик.
И хотя исследование основано на достаточно небольшой выборке и ещё потребует репликации, первые выводы выглядят достаточно интуитивно.
Многие пешеходы чувствуют себя увереннее, если перед переходом дороги по глазам водителя приближающейся машины понимают: он их увидел.
Но на кого смотреть, когда в салоне будут одни пассажиры, без водителя? В глаза самому автомобилю, говорят японские исследователи. Пусть он будет оснащён "глазоимитаторами", вращающимися в направлении распознанных им пешеходов. Соответственно, по взгляду, направленному в другую сторону, пешеходы бы понимали, что машина могла их не заметить и переходить дорогу опасно.
Нужно отметить, что "глаза" не отменяют и не заменяют собой обычные сенсоры (камеры, радары и лидары) — это лишь средство невербальной коммуникации с пешеходами.
Выглядят "глаза" забавно, но если последующие исследования подтвердят эффективность такого дизайнерского решения, то почему бы и нет?
Возможно, утверждают исследователи Токийского университета в недавно опубликованном исследовании.
А чтобы было совсем наглядно, они записали видеоролик.
И хотя исследование основано на достаточно небольшой выборке и ещё потребует репликации, первые выводы выглядят достаточно интуитивно.
Многие пешеходы чувствуют себя увереннее, если перед переходом дороги по глазам водителя приближающейся машины понимают: он их увидел.
Но на кого смотреть, когда в салоне будут одни пассажиры, без водителя? В глаза самому автомобилю, говорят японские исследователи. Пусть он будет оснащён "глазоимитаторами", вращающимися в направлении распознанных им пешеходов. Соответственно, по взгляду, направленному в другую сторону, пешеходы бы понимали, что машина могла их не заметить и переходить дорогу опасно.
Нужно отметить, что "глаза" не отменяют и не заменяют собой обычные сенсоры (камеры, радары и лидары) — это лишь средство невербальной коммуникации с пешеходами.
Выглядят "глаза" забавно, но если последующие исследования подтвердят эффективность такого дизайнерского решения, то почему бы и нет?
👍8🤯2😁1🤔1
Robocounsel
Еврокомиссия опубликовала основные принципы документа, идущего на смену Прайваси шилд Первая реакция Макса Шремса: текста пока нет, а нынешнее политическое заявление лидеров скорее повышает неопределённость для бизнеса, чем снижает её. По предварительным…
В США создаётся суд для обжалования обработки персональных данных спецслужбами
Не прошло и полгода Прошло полгода, и наконец опубликован Указ Президента США о защите прав граждан при обработке персональных данных в интересах национальной безопасности.
Определяются принципы обработки персональных данных спецслужбами, и при Минюсте США учреждается специальный Суд для обжалования административных решений, принимаемых по жалобам на злоупотребления при такой обработке. Первой — административной — инстанцией для таких жалоб является Уполномоченный по защите гражданских свобод при Директоре национальной разведки.
Предоставление подобных гарантий защиты прав граждан является одним из условий возобновления регулярной трансатлантической передачи персональных данных из Европы в соответствии с договорённостями, достигнутыми США и ЕС.
Вместе с тем, ключевые эксперты в области регулирования персональных данных, например, Омер Тен, согласны с тем, что выбранный механизм предоставления гарантий — через Указ Президента США — вряд ли удовлетворит прайваси-активистов.
Последние с самого начала отмечали, что для того, чтобы новые договоренности между США и ЕС устояли в Европейском суде справедливости, гарантии защиты прав граждан должны быть закреплены в законе, а не в более легко изменяемом акте органа исполнительной власти.
Определяются принципы обработки персональных данных спецслужбами, и при Минюсте США учреждается специальный Суд для обжалования административных решений, принимаемых по жалобам на злоупотребления при такой обработке. Первой — административной — инстанцией для таких жалоб является Уполномоченный по защите гражданских свобод при Директоре национальной разведки.
Предоставление подобных гарантий защиты прав граждан является одним из условий возобновления регулярной трансатлантической передачи персональных данных из Европы в соответствии с договорённостями, достигнутыми США и ЕС.
Вместе с тем, ключевые эксперты в области регулирования персональных данных, например, Омер Тен, согласны с тем, что выбранный механизм предоставления гарантий — через Указ Президента США — вряд ли удовлетворит прайваси-активистов.
Последние с самого начала отмечали, что для того, чтобы новые договоренности между США и ЕС устояли в Европейском суде справедливости, гарантии защиты прав граждан должны быть закреплены в законе, а не в более легко изменяемом акте органа исполнительной власти.
www.justice.gov
The Data Protection Review Court
👍4
В СНГ появится первый Цифровой кодекс
В своём Фейсбуке Министр цифрового развития Кыргызской Республики Талантбек Иманов сегодня раскрыл некоторые детали концепции кодекса.
Кодекс будет состоять из общей и особенной частей.
Проект общей части уже разработан и устанавливает основные принципы и правила регулирования, осуществляемого на четырёх уровнях: уровень данных, уровень сервисов, уровень систем и уровень инфраструктуры.
Также на сегодня уже разработан ряд глав особенной части, регулирующих:
- общие правила обработки цифровых данных ("большие данные");
- разработку и применение систем искусственного интеллекта;
- обработку персональных данных;
- обработку пространственных данных (геоданных);
- цифровую идентификацию;
- цифровые подписи и цифровые архивы.
Мне посчастливилось быть выбранным в качестве международного эксперта, отвечающего за главу по искусственному интеллекту. Деталями о её содержании поделюсь с вами здесь, в телеграм-канале @robocounsel, после принятия нашей с коллегами общей работы заказчиком.
Весь проект кодекса планируется представить в декабре.
Видеорезюме о концепции кодекса
В своём Фейсбуке Министр цифрового развития Кыргызской Республики Талантбек Иманов сегодня раскрыл некоторые детали концепции кодекса.
Кодекс будет состоять из общей и особенной частей.
Проект общей части уже разработан и устанавливает основные принципы и правила регулирования, осуществляемого на четырёх уровнях: уровень данных, уровень сервисов, уровень систем и уровень инфраструктуры.
Также на сегодня уже разработан ряд глав особенной части, регулирующих:
- общие правила обработки цифровых данных ("большие данные");
- разработку и применение систем искусственного интеллекта;
- обработку персональных данных;
- обработку пространственных данных (геоданных);
- цифровую идентификацию;
- цифровые подписи и цифровые архивы.
Мне посчастливилось быть выбранным в качестве международного эксперта, отвечающего за главу по искусственному интеллекту. Деталями о её содержании поделюсь с вами здесь, в телеграм-канале @robocounsel, после принятия нашей с коллегами общей работы заказчиком.
Весь проект кодекса планируется представить в декабре.
Видеорезюме о концепции кодекса
Facebook
Добрый день, уважаемые сограждане!
Ранее в своем обращении я...
Ранее в своем обращении я...
978 views, 73 likes, 2 loves, 23 comments, 127 shares, Facebook Watch Videos from Талант Иманов: Добрый день, уважаемые сограждане!
Ранее в своем обращении я проинформировал вас о том, что в рамках...
Ранее в своем обращении я проинформировал вас о том, что в рамках...
👍10🔥3
Стрим о работе российских ИТ-юристов за рубежом
Друзья, некоторые из вас знают, что я недавно на одном русскоязычном эйчар-стриме делился своим опытом перехода на работу за рубежом. В комментариях к стриму был интерес к этой теме, и я обещал провести на эту тему отдельный эфир.
Чтобы стрим был интереснее, я сейчас формирую список гостей для передачи. У меня уже есть коллеги, которые могут рассказать о своём опыте перемещения по работе за рубеж внутри группы компаний. Но пока не хватает тех, кто мог бы рассказать о своём опыте получения работы за рубежом "с улицы".
Если вы такой человек и хотите поделиться своим опытом — пишите на @robocounsel_bot, я с вами свяжусь.
Дату эфира сообщу позднее.
Друзья, некоторые из вас знают, что я недавно на одном русскоязычном эйчар-стриме делился своим опытом перехода на работу за рубежом. В комментариях к стриму был интерес к этой теме, и я обещал провести на эту тему отдельный эфир.
Чтобы стрим был интереснее, я сейчас формирую список гостей для передачи. У меня уже есть коллеги, которые могут рассказать о своём опыте перемещения по работе за рубеж внутри группы компаний. Но пока не хватает тех, кто мог бы рассказать о своём опыте получения работы за рубежом "с улицы".
Если вы такой человек и хотите поделиться своим опытом — пишите на @robocounsel_bot, я с вами свяжусь.
Дату эфира сообщу позднее.
👍16
AIA - CZ - draft for Coreper (3 Nov 22).pdf
1.1 MB
Совет ЕС предлагает не регулировать на уровне Союза использование ИИ для целей нацбезопасности
Прочитал новую версию проекта Регламента об искусственном интеллекте, предложенную Советом ЕС в ноябре 2022 года для рассмотрения COREPER.
Комментаторы в Твиттере правы: эта версия действительно исключает использование в целях национальной безопасности из сферы его действия.
Я понимаю — но не поддерживаю — аргументацию. В демократическом государстве эти виды использования требуют именно тех мер контроля, которые предусмотрены проектом регламента.
Не гармонизировать это на уровне Союза и отдавать на откуп национальным властям можно, но вряд ли стоит.
Прочитал новую версию проекта Регламента об искусственном интеллекте, предложенную Советом ЕС в ноябре 2022 года для рассмотрения COREPER.
Комментаторы в Твиттере правы: эта версия действительно исключает использование в целях национальной безопасности из сферы его действия.
Я понимаю — но не поддерживаю — аргументацию. В демократическом государстве эти виды использования требуют именно тех мер контроля, которые предусмотрены проектом регламента.
Не гармонизировать это на уровне Союза и отдавать на откуп национальным властям можно, но вряд ли стоит.
👍7
Robocounsel
AIA - CZ - draft for Coreper (3 Nov 22).pdf
COREPER согласился не регулировать на уровне ЕС использование ИИ для целей национальной безопасности
Комитет постоянных представителей (COREPER) единогласно поддержал проект Регламента ЕС в редакции, внесённой под чешским председательством (см. предыдущий пост). Текст уходит на рассмотрение в Телекоммуникационный совет 6 декабря.
Комитет постоянных представителей (COREPER) единогласно поддержал проект Регламента ЕС в редакции, внесённой под чешским председательством (см. предыдущий пост). Текст уходит на рассмотрение в Телекоммуникационный совет 6 декабря.
Telegram
Robocounsel
Совет ЕС предлагает не регулировать на уровне Союза использование ИИ для целей нацбезопасности
Прочитал новую версию проекта Регламента об искусственном интеллекте, предложенную Советом ЕС в ноябре 2022 года для рассмотрения COREPER.
Комментаторы в Твиттере…
Прочитал новую версию проекта Регламента об искусственном интеллекте, предложенную Советом ЕС в ноябре 2022 года для рассмотрения COREPER.
Комментаторы в Твиттере…
👍2
Нейросеть — плохой фантазёр и рассказчик?
Ольга Ефимова, супруга Альберта Ефимова, делится выводами после попытки сыграть в настольную игру "Я не человек", наподобие Имаджинариума и Диксит, где нужно придумывать ассоциации на картинки, но в случае с этой игрой картинки созданы нейросетью.
Основной проблемой оказалось то, что, по её мнению, с изображениями, созданными нейросетью, сложно играть: ассоциаций очень мало и они у всех одинаковые (что плохо для игр такого рода).
Она пишет: "в изображениях нейросетки нет нарратива, они не рассказывают истории. Но почему? В итоге мы пришли к тому, что в них нет движения, нет прошлого и будущего, поэтому истории не возникает.
Глагол, который описывает их героя — созерцает, наблюдает. Нейросеть смотрит на нас и пока не решила , что с нами делать. Карты из диксита и «я не человек» для сравнения".
Ольга Ефимова, супруга Альберта Ефимова, делится выводами после попытки сыграть в настольную игру "Я не человек", наподобие Имаджинариума и Диксит, где нужно придумывать ассоциации на картинки, но в случае с этой игрой картинки созданы нейросетью.
Основной проблемой оказалось то, что, по её мнению, с изображениями, созданными нейросетью, сложно играть: ассоциаций очень мало и они у всех одинаковые (что плохо для игр такого рода).
Она пишет: "в изображениях нейросетки нет нарратива, они не рассказывают истории. Но почему? В итоге мы пришли к тому, что в них нет движения, нет прошлого и будущего, поэтому истории не возникает.
Глагол, который описывает их героя — созерцает, наблюдает. Нейросеть смотрит на нас и пока не решила , что с нами делать. Карты из диксита и «я не человек» для сравнения".
👍5
63768e1b44af8e2713b91d2f_Holistic_AI_Insight_Paper_US_Regulation.pdf
467.4 KB
Обзор регулирования ИИ в США на ноябрь 2022
Как я писал ранее, на федеральном уровне в США какого-либо закона общего характера в этой области пока не планируется.
Но есть подвижки в отраслевом регулировании и на уровне отдельных штатов.
Holistic AI на днях выпустили свой обзор на эту тему (во вложении).
Из основного:
- США идут по пути регулирования ИИ по отраслям и областям применения. Первые ласточки - в области страхования и в области управления персоналом;
- Регулирование возникает на уровне отдельных штатов, но вокруг отдельных общих тем, таких как защита неприкосновенности частной жизни (privacy) и предотвращение предвзятости в системах ИИ (bias);
- Стоит обратить внимание на фреймворки, которые продвигают Федеральная торговая комиссия (FTC) и Национальный институт стандартов и технологий (NIST);
- Законодательство об искусственном интеллекте появляется не только в «технологически передовых» штатах, таких как Нью-Йорк и Калифорния, но и в Кентукки, Массачусетсе и Мичигане, Нью-Джерси.
Как я писал ранее, на федеральном уровне в США какого-либо закона общего характера в этой области пока не планируется.
Но есть подвижки в отраслевом регулировании и на уровне отдельных штатов.
Holistic AI на днях выпустили свой обзор на эту тему (во вложении).
Из основного:
- США идут по пути регулирования ИИ по отраслям и областям применения. Первые ласточки - в области страхования и в области управления персоналом;
- Регулирование возникает на уровне отдельных штатов, но вокруг отдельных общих тем, таких как защита неприкосновенности частной жизни (privacy) и предотвращение предвзятости в системах ИИ (bias);
- Стоит обратить внимание на фреймворки, которые продвигают Федеральная торговая комиссия (FTC) и Национальный институт стандартов и технологий (NIST);
- Законодательство об искусственном интеллекте появляется не только в «технологически передовых» штатах, таких как Нью-Йорк и Калифорния, но и в Кентукки, Массачусетсе и Мичигане, Нью-Джерси.
👍4🔥1
DAOs-Call-for-Evidence-LC.pdf
866.6 KB
Как регулируются и работают децентрализованные автономные организации?
Британская комиссия по вопросам права (Law Commission) опубликовала своё текущее видение данных вопросов (во вложении) и предлагает всем заинтересованным лицам высказаться в опросе, проводимом до 25 января 2023 года.
Результаты опроса будут учтены в предварительном исследовании, отчёт по которому будет подготовлен и представлен в течение ближайших 15 месяцев.
Среди обсуждаемых вопросов:
- соотношение ДАО и юридических лиц;
- статус инвесторов/владельцев токенов ДАО;
- ответственность разработчиков открытого исходного кода;
- управление в ДАО;
- регуляторные проблемы ДАО (ПОД/ФТ, отчетность, налогообложение и др.);
- лучшие юрисдикции для ДАО на сегодня.
Британская комиссия по вопросам права (Law Commission) опубликовала своё текущее видение данных вопросов (во вложении) и предлагает всем заинтересованным лицам высказаться в опросе, проводимом до 25 января 2023 года.
Результаты опроса будут учтены в предварительном исследовании, отчёт по которому будет подготовлен и представлен в течение ближайших 15 месяцев.
Среди обсуждаемых вопросов:
- соотношение ДАО и юридических лиц;
- статус инвесторов/владельцев токенов ДАО;
- ответственность разработчиков открытого исходного кода;
- управление в ДАО;
- регуляторные проблемы ДАО (ПОД/ФТ, отчетность, налогообложение и др.);
- лучшие юрисдикции для ДАО на сегодня.
🔥9👍1
Между двумя эпохами
Глобальные технологические гиганты одним за другим массово сокращают персонал. Рыночная стоимость ряда компаний из отрасли за год упала более чем на 50%. Почему?
У Дерека Томпсона из "Атлантик" два ответа.
Первый - более очевидный и технический: конец эпохи дешёвых денег. Процентные ставки, рекордно снизившиеся после глобального кризиса 2007-2009, снова растут. Аппетит инвесторов к рискам вложений в потенциально сверхприбыльные технологические прожекты падает.
Второй - более спекулятивный: технологии, бывшие драйвером предыдущего бума - браузеры, соцсети и мобильные приложения - к сегодняшнему дню в основном закрыли все потребности базовой цифровизации в основных экономиках мира. Потенциал взрывного роста в них исчерпан.
Новые же технологии на нынешнем уровне их развития оказались не готовы к действительно широкому практическому применению. И поэтому пока не выстрелили в том же масштабе.
Криптоэкономика? Основная масса проектов показала свою переоценённость, несбыточность или вовсе заведомо мошеннический характер. Виртуальная реальность? Смотрите, что происходит с Метаверсом... Дополненная реальность - масштабно не выстрелила.
Искусственный интеллект? Перспективен, особенно на горизонте лет этак десяти. Но пока же оказалось, что и от него было довольно много завышенных ожиданий.
Эпоха взрывного роста экономики приложений закатилась, эпоха ИИ-благоденствия - ещё не началась...
Глобальные технологические гиганты одним за другим массово сокращают персонал. Рыночная стоимость ряда компаний из отрасли за год упала более чем на 50%. Почему?
У Дерека Томпсона из "Атлантик" два ответа.
Первый - более очевидный и технический: конец эпохи дешёвых денег. Процентные ставки, рекордно снизившиеся после глобального кризиса 2007-2009, снова растут. Аппетит инвесторов к рискам вложений в потенциально сверхприбыльные технологические прожекты падает.
Второй - более спекулятивный: технологии, бывшие драйвером предыдущего бума - браузеры, соцсети и мобильные приложения - к сегодняшнему дню в основном закрыли все потребности базовой цифровизации в основных экономиках мира. Потенциал взрывного роста в них исчерпан.
Новые же технологии на нынешнем уровне их развития оказались не готовы к действительно широкому практическому применению. И поэтому пока не выстрелили в том же масштабе.
Криптоэкономика? Основная масса проектов показала свою переоценённость, несбыточность или вовсе заведомо мошеннический характер. Виртуальная реальность? Смотрите, что происходит с Метаверсом... Дополненная реальность - масштабно не выстрелила.
Искусственный интеллект? Перспективен, особенно на горизонте лет этак десяти. Но пока же оказалось, что и от него было довольно много завышенных ожиданий.
Эпоха взрывного роста экономики приложений закатилась, эпоха ИИ-благоденствия - ещё не началась...
The Atlantic
Why Everything in Tech Seems to Be Collapsing at Once
The industry is having a midlife crisis.
👍7🔥1
Factsheet Q4.22_top5.pdf
706.6 KB
Топ 5 текущих инициатив в Европарламенте по регулированию цифровой экономики
На слайдах последний статус. Составитель — Кай Зеннер.
На слайдах последний статус. Составитель — Кай Зеннер.
👍7
На заметку: как удалить свой телефон и адрес электронной почты из базы данных Меты
Соцсети могут предлагать вам, с кем подружиться. Как это работает? За счёт общих интересов и контактов, но не только. Ещё ваш аккаунт будут предлагать в друзья людям, которые записали ваш контакт в телефон, а потом поделились адресной книгой с соцсетью.
За счёт этого ваши номер и адрес электронной почты сохраняются в базу данных соцсети, даже если вы сами в ней не состоите.
Немногие знают, но на Фейсбуке есть, по глубоко запрятанному адресу, средство, позволяющее заблокировать загрузку этих данных. После этого такие данные не будут загружаться и использоваться Метой для рекомендаций добавления вас в друзья.
Разумеется, чтобы этот функционал работал, эти данные (без имени) будут сохранены в стоп-листе.
Сервис доступен для Фейсбука, Мессенджера и Инстаграма тут.
Соцсети могут предлагать вам, с кем подружиться. Как это работает? За счёт общих интересов и контактов, но не только. Ещё ваш аккаунт будут предлагать в друзья людям, которые записали ваш контакт в телефон, а потом поделились адресной книгой с соцсетью.
За счёт этого ваши номер и адрес электронной почты сохраняются в базу данных соцсети, даже если вы сами в ней не состоите.
Немногие знают, но на Фейсбуке есть, по глубоко запрятанному адресу, средство, позволяющее заблокировать загрузку этих данных. После этого такие данные не будут загружаться и использоваться Метой для рекомендаций добавления вас в друзья.
Разумеется, чтобы этот функционал работал, эти данные (без имени) будут сохранены в стоп-листе.
Сервис доступен для Фейсбука, Мессенджера и Инстаграма тут.
👍8
В Великобритании планируют запретить распространение порнодипфейков без согласия
Соответствующие поправки были предложены в законопроект о безопасности в онлайне (Online Safety Bill).
Распространение без согласия интимных фото- и видео- материалов, в том числе дипфейков с изображением интимных частей тела, искусственно наложенных на чужую фотографию, будет караться тюремным заключением до 6 месяцев и альтернативно или дополнительно штрафом.
Соответствующие поправки были предложены в законопроект о безопасности в онлайне (Online Safety Bill).
Распространение без согласия интимных фото- и видео- материалов, в том числе дипфейков с изображением интимных частей тела, искусственно наложенных на чужую фотографию, будет караться тюремным заключением до 6 месяцев и альтернативно или дополнительно штрафом.
🔥3
Саморегулирование в ИИ: выйдет ли из этого толк?
Хайс Линдерс в своей магистерской диссертации утверждает, что именно саморегулирование могло бы стать оптимальным методом установления правил поведения в отрасли.
Оно может хорошо решать сразу две проблемы, характерные для регулирования новых технологий:
1) проблему запаздывания регулирования (pacing problem) — эксперты внутри отрасли лучше и раньше других могут осмысливать и обобщать ошибки, опасности и лучшие практики;
2) проблему парадокса неопределённости (uncertainty paradox) — слишком ранее регулирование ввиду непроверенности его гипотез может задушить новую отрасль, а регулировать уже повсеместно применяемую технологию довольно сложно.
Но это в теории. На практике же саморегулирование отрасли будет эффективным лишь при наличии пяти компонентов, суммирует Линдерс:
1) набор принципов — норм поведения, не противоречащих коммерческим приоритетам представителей отрасли;
2) наличие у исследователей и разработчиков внутренней мотивации действовать сообща;
3) независимый и авторитетный орган управления;
4) гласность (транспарентность) процедур саморегулирования и деятельности представителей отрасли;
5) убедительные механизмы приведения норм поведения в исполнение.
На момент написания Линдерсом диссертации одной из наиболее известных отраслевых организаций, претендующих на авторитетность, было (да и сейчас является) Партнёрство в сфере искусственного интеллекта (Partnership on AI). Поэтому он решил взять эту организацию в качестве объекта для анализа: проявляются ли в её работе все 5 критериев эффективного саморегулирования.
Изучив вопрос методом контентного анализа, Линдерс пришёл к выводу: Партнёрство этим критериям не соответствует.
Ввиду ограничений, диктуемых антимонопольным законодательством, Партнёрство при всём желании не может, по мнению Линдерса, ввести систему частных штрафов за нарушение собственных норм крупнейшими игроками рынка, входящими в его состав.
Более того Партнёрство не берёт на себя функции проверки соблюдения этих норм его членами, оставляя это прерогативой их самих.
Гласность в вопросе процедур Партнёрства также могла бы быть лучше (не публикуются протоколы заседаний его органов).
Также отсутствуют какие-либо механизмы приведения норм Партнёрства в исполнение: уже в первые два года его существования его члены были неоднократно замечены в нарушении его принципов, но какой-либо реакции Партнёрства на это не последовало.
Случай, отражённый в диссертации Линдерса, кажется мне интересным и показательным.
Каждый желающий может повторить этот эксперимент и проанализировать, на основе общедоступной информации, соблюдаются ли в деятельности любой иной отраслевой организации 5 критериев эффективного саморегулирования.
Справедливости ради также отмечу, что за последние годы на сайте Партнёрства было опубликовано довольно много полезных исследований и методических материалов. И, что наиболее интересно, создана отдельная база ИИ-инцидентов. Там все желающие могут посмотреть систематизированный перечень тех мелких ляпов, грубейших ошибок и намеренного вреда, которые время от времени допускают ИИ-разработчики или пользователи ИИ-систем.
Хайс Линдерс в своей магистерской диссертации утверждает, что именно саморегулирование могло бы стать оптимальным методом установления правил поведения в отрасли.
Оно может хорошо решать сразу две проблемы, характерные для регулирования новых технологий:
1) проблему запаздывания регулирования (pacing problem) — эксперты внутри отрасли лучше и раньше других могут осмысливать и обобщать ошибки, опасности и лучшие практики;
2) проблему парадокса неопределённости (uncertainty paradox) — слишком ранее регулирование ввиду непроверенности его гипотез может задушить новую отрасль, а регулировать уже повсеместно применяемую технологию довольно сложно.
Но это в теории. На практике же саморегулирование отрасли будет эффективным лишь при наличии пяти компонентов, суммирует Линдерс:
1) набор принципов — норм поведения, не противоречащих коммерческим приоритетам представителей отрасли;
2) наличие у исследователей и разработчиков внутренней мотивации действовать сообща;
3) независимый и авторитетный орган управления;
4) гласность (транспарентность) процедур саморегулирования и деятельности представителей отрасли;
5) убедительные механизмы приведения норм поведения в исполнение.
На момент написания Линдерсом диссертации одной из наиболее известных отраслевых организаций, претендующих на авторитетность, было (да и сейчас является) Партнёрство в сфере искусственного интеллекта (Partnership on AI). Поэтому он решил взять эту организацию в качестве объекта для анализа: проявляются ли в её работе все 5 критериев эффективного саморегулирования.
Изучив вопрос методом контентного анализа, Линдерс пришёл к выводу: Партнёрство этим критериям не соответствует.
Ввиду ограничений, диктуемых антимонопольным законодательством, Партнёрство при всём желании не может, по мнению Линдерса, ввести систему частных штрафов за нарушение собственных норм крупнейшими игроками рынка, входящими в его состав.
Более того Партнёрство не берёт на себя функции проверки соблюдения этих норм его членами, оставляя это прерогативой их самих.
Гласность в вопросе процедур Партнёрства также могла бы быть лучше (не публикуются протоколы заседаний его органов).
Также отсутствуют какие-либо механизмы приведения норм Партнёрства в исполнение: уже в первые два года его существования его члены были неоднократно замечены в нарушении его принципов, но какой-либо реакции Партнёрства на это не последовало.
Случай, отражённый в диссертации Линдерса, кажется мне интересным и показательным.
Каждый желающий может повторить этот эксперимент и проанализировать, на основе общедоступной информации, соблюдаются ли в деятельности любой иной отраслевой организации 5 критериев эффективного саморегулирования.
Справедливости ради также отмечу, что за последние годы на сайте Партнёрства было опубликовано довольно много полезных исследований и методических материалов. И, что наиболее интересно, создана отдельная база ИИ-инцидентов. Там все желающие могут посмотреть систематизированный перечень тех мелких ляпов, грубейших ошибок и намеренного вреда, которые время от времени допускают ИИ-разработчики или пользователи ИИ-систем.
Becoming Human
The Regulation of Artificial Intelligence — A Case Study of the Partnership on AI
I wrote this dissertation in the summer of 2018, as part of my MSc in International Public Policy at UCL. One of my goals during the MSc…
🔥8
Автоматизируют не 50, а 90% профессий?
У Alex Krol вышел интересный авторский прогноз на эту тему.
Со многим согласен. Пересказывать не буду — просто прочитайте у него. Здесь дам лишь несколько скромных комментариев-возражений по отдельным тезисам:
1. Доктор, мне кажется, хорошо делает свою работу не только потому, что хорошо диагностирует и затем лечит по протоколу. Но и потому, что обладает эмпатией (bedside manners), и здравым смыслом, который может модерировать и когда надо немного или много, но обоснованно нарушать протокол (редко, но нужно). Для этого нужно понимание смыслов, для начала.
Поскольку, как Алекс верно отметил, машины не умеют понимать, и ещё неизвестно, когда сумеют и сумеют ли вообще, его прогноз поедет сильно вправо по времени.
2. Взаимосвязано с первым. В профессиях, напрямую взаимодействующих с людьми, важен human touch. В прямом смысле и в переносном. Что-то там у нас в мозгах такое эволюционно заложено, и нет, новое поколение людей не будет в этом смысле исключением. Понимание преимуществ машин не конвертируется в отказ от human touch. Человеку нужен человек.
В случае с доктором это прямо очень хорошо чувствуется. Поэтому нет, терапевты и многие специалисты останутся при деле даже через 100 лет.
Human touch также проявляется в личности. Мне, скажем, личность важна не только в картинах. Мы ходим на курсы французского, и у нас два преподавателя. У них разные личности, и личность одного мне больше нравится, манера преподнесения очень живая и авторская, и с ним я лучше запоминаю материал за счёт этого.
3. Мелкая моторика пока сложно роботизируется. Это тоже несколько сдвигает вправо прогноз по всем профессиям, где она нужна. Но со временем научатся, хирургические комплексы те же уже есть и работают — под управлением и контролем человека со здравым смыслом и подготовкой, правда.
4. Про вторую грамотность (ИТ-навыки) — уже опытные специалисты в любой отрасли ещё имеют шансы жить и далее благополучно, если поймут, что со времен книги Дейла Карнеги и поныне зарабатывает больше тот, кто умеет управлять людьми (в том числе через генерацию идей и убеждение), а не является просто специалистом.
Управляющий людьми со второй грамотностью зарабатывает больше, чем просто человек со второй грамотностью.
А вот войти сейчас в любую профессию — да, тут нужно быть на высоте в части знаний того, как в этой профессии используются ИТ-инструменты, как раньше — не получится.
У Alex Krol вышел интересный авторский прогноз на эту тему.
Со многим согласен. Пересказывать не буду — просто прочитайте у него. Здесь дам лишь несколько скромных комментариев-возражений по отдельным тезисам:
1. Доктор, мне кажется, хорошо делает свою работу не только потому, что хорошо диагностирует и затем лечит по протоколу. Но и потому, что обладает эмпатией (bedside manners), и здравым смыслом, который может модерировать и когда надо немного или много, но обоснованно нарушать протокол (редко, но нужно). Для этого нужно понимание смыслов, для начала.
Поскольку, как Алекс верно отметил, машины не умеют понимать, и ещё неизвестно, когда сумеют и сумеют ли вообще, его прогноз поедет сильно вправо по времени.
2. Взаимосвязано с первым. В профессиях, напрямую взаимодействующих с людьми, важен human touch. В прямом смысле и в переносном. Что-то там у нас в мозгах такое эволюционно заложено, и нет, новое поколение людей не будет в этом смысле исключением. Понимание преимуществ машин не конвертируется в отказ от human touch. Человеку нужен человек.
В случае с доктором это прямо очень хорошо чувствуется. Поэтому нет, терапевты и многие специалисты останутся при деле даже через 100 лет.
Human touch также проявляется в личности. Мне, скажем, личность важна не только в картинах. Мы ходим на курсы французского, и у нас два преподавателя. У них разные личности, и личность одного мне больше нравится, манера преподнесения очень живая и авторская, и с ним я лучше запоминаю материал за счёт этого.
3. Мелкая моторика пока сложно роботизируется. Это тоже несколько сдвигает вправо прогноз по всем профессиям, где она нужна. Но со временем научатся, хирургические комплексы те же уже есть и работают — под управлением и контролем человека со здравым смыслом и подготовкой, правда.
4. Про вторую грамотность (ИТ-навыки) — уже опытные специалисты в любой отрасли ещё имеют шансы жить и далее благополучно, если поймут, что со времен книги Дейла Карнеги и поныне зарабатывает больше тот, кто умеет управлять людьми (в том числе через генерацию идей и убеждение), а не является просто специалистом.
Управляющий людьми со второй грамотностью зарабатывает больше, чем просто человек со второй грамотностью.
А вот войти сейчас в любую профессию — да, тут нужно быть на высоте в части знаний того, как в этой профессии используются ИТ-инструменты, как раньше — не получится.
Telegram
Алекс Крол
Что нас ждет в связи с неизбежным наступлением ИИ? Кто выиграет, а кто проиграет?
1. ИИ это еще один инструмент, которые помогает человеку делать рутинные операции, как уже не раз делали машины. Да, шлифовальный станок лучше шлифует линзы, чем человеческие…
1. ИИ это еще один инструмент, которые помогает человеку делать рутинные операции, как уже не раз делали машины. Да, шлифовальный станок лучше шлифует линзы, чем человеческие…
👍4
Семинар по Self-sovereign identity для специалистов по приватности
Self-sovereign identity — одна из перспективных технологий обеспечения конструктивной приватности и приватности личных данных по умолчанию.
13 декабря 2022 г., с 17:00 до 18:00 CET (с 19:00 до 20:00 МСК) Международная ассоциация специалистов по приватности (IAPP) проводит вебинар.
Коллеги обсудят, куда движется развитие этой технологии и что о ней необходимо знать специалистам по приватности.
Записался, и вам рекомендую пройти по ссылке (потребуется доступ к Линкдин).
До вебинара также можно ознакомиться с докладом IAPP на тему SSI.
Self-sovereign identity — одна из перспективных технологий обеспечения конструктивной приватности и приватности личных данных по умолчанию.
13 декабря 2022 г., с 17:00 до 18:00 CET (с 19:00 до 20:00 МСК) Международная ассоциация специалистов по приватности (IAPP) проводит вебинар.
Коллеги обсудят, куда движется развитие этой технологии и что о ней необходимо знать специалистам по приватности.
Записался, и вам рекомендую пройти по ссылке (потребуется доступ к Линкдин).
До вебинара также можно ознакомиться с докладом IAPP на тему SSI.
👍7🔥2
Robocounsel
Семинар по Self-sovereign identity для специалистов по приватности Self-sovereign identity — одна из перспективных технологий обеспечения конструктивной приватности и приватности личных данных по умолчанию. 13 декабря 2022 г., с 17:00 до 18:00 CET (с 19:00…
Сколько будет стоить сертифицировать для рынка ЕС новую ИИ-систему?
После вступления в силу Регламента ЕС об искусственном интеллекте некоторые ИИ-системы — представляющие повышенную опасность* — придётся сертифицировать.
Также разработчикам таких систем придётся, если они этого ещё не сделали, внедрить систему менеджмента качества (СМК, QMS) предприятия.
Исследователи подсчитали расходы для одной ИИ-системы:
1) Затраты на комплаенс (операции, обеспечивающие соблюдение обязательных требований Регламента ЕС):
- для разработчика: 6—7 тыс. евро в год;
- для эксплуатанта: 5—8 тыс. евро в год.
Если разработчик является и эксплуатантом, расходы суммируются.
2) Независимый аудит ИИ-системы (для подтверждения соответствия): 3—7,5 тыс. евро, однократно.
3) Поддержание СМК:
- внедрение СМК с нуля: 144,3—330 тыс. евро, первый год;
- адаптация уже внедрённой СМК: 88—174,8 тыс. евро, первый год;
- ежегодный аудит СМК: 71,4 тыс. евро в год.
При этом в обсуждаемой сейчас редакции проекта Регламента стартапы со штатом менее 10 человек и годовым оборотом до 2 млн. евро предлагается освободить от обязанности внедрения СМК.
Так что если вы не такой стартап и желаете продавать и эксплуатировать системы ИИ повышенной опасности на европейском рынке в обозримом будущем — закладывайте соответствующие расходы в бюджет и внедряйте СМК.
* Речь идёт о следующих системах:
- системы, сами по себе являющиеся продукцией, подлежащей оценке соответствия на основании союзного законодательства (медицинские изделия, игрушки, машинное оборудование и др.), либо обеспечивающие безопасность такой продукции;
- системы дистанционной биометрической идентификации;
- системы, обеспечивающие безопасность критической инфраструктуры;
- системы, применяющиеся для отбора на учёбу или работу;
- системы, применяющиеся для решений о предоставлении мер государственной поддержки и госуслуг;
- системы кредитного скоринга;
- системы, используемые для оценки рисков и ценообразования медицинского страхования и страхования жизни;
- ряд других систем, применяемых для предоставления социально значимых услуг и обеспечения правопорядка, миграции, правосудия и демократических процедур.
После вступления в силу Регламента ЕС об искусственном интеллекте некоторые ИИ-системы — представляющие повышенную опасность* — придётся сертифицировать.
Также разработчикам таких систем придётся, если они этого ещё не сделали, внедрить систему менеджмента качества (СМК, QMS) предприятия.
Исследователи подсчитали расходы для одной ИИ-системы:
1) Затраты на комплаенс (операции, обеспечивающие соблюдение обязательных требований Регламента ЕС):
- для разработчика: 6—7 тыс. евро в год;
- для эксплуатанта: 5—8 тыс. евро в год.
Если разработчик является и эксплуатантом, расходы суммируются.
2) Независимый аудит ИИ-системы (для подтверждения соответствия): 3—7,5 тыс. евро, однократно.
3) Поддержание СМК:
- внедрение СМК с нуля: 144,3—330 тыс. евро, первый год;
- адаптация уже внедрённой СМК: 88—174,8 тыс. евро, первый год;
- ежегодный аудит СМК: 71,4 тыс. евро в год.
При этом в обсуждаемой сейчас редакции проекта Регламента стартапы со штатом менее 10 человек и годовым оборотом до 2 млн. евро предлагается освободить от обязанности внедрения СМК.
Так что если вы не такой стартап и желаете продавать и эксплуатировать системы ИИ повышенной опасности на европейском рынке в обозримом будущем — закладывайте соответствующие расходы в бюджет и внедряйте СМК.
* Речь идёт о следующих системах:
- системы, сами по себе являющиеся продукцией, подлежащей оценке соответствия на основании союзного законодательства (медицинские изделия, игрушки, машинное оборудование и др.), либо обеспечивающие безопасность такой продукции;
- системы дистанционной биометрической идентификации;
- системы, обеспечивающие безопасность критической инфраструктуры;
- системы, применяющиеся для отбора на учёбу или работу;
- системы, применяющиеся для решений о предоставлении мер государственной поддержки и госуслуг;
- системы кредитного скоринга;
- системы, используемые для оценки рисков и ценообразования медицинского страхования и страхования жизни;
- ряд других систем, применяемых для предоставления социально значимых услуг и обеспечения правопорядка, миграции, правосудия и демократических процедур.
👍10