Forwarded from Малоизвестное интересное
Тайная сокровищница данных Илона Маска.
Мы теряем приватность и даже не знаем об этом.
Tesla уже продала около 3 млн. автомобилей. Они практически ежедневно отгружают в хранилища своего производителя моря разнообразных данных о пройденных ими миллиардах миль и GPS-треках маршрутов, сопровождая это деталями, запечатленными на миллионах фотографий и видео (1).
Почти каждый новый серийный автомобиль оснащен набором датчиков, включая камеры и радары, которые собирают данные о водителях, других участниках дорожного движения и их окружении.
Сбором больших данных промышляет далеко не только Tesla (хотя Tesla – явный чемпион в этом деле). Уже существует огромная индустрия торговцев данными о транспортных средствах, водителях и местоположении, которая к 2030 может стоить до 800 $млрд (2).
Считается, что все эти данные анонимные. И что автопроизводитель получает право лишь на те данные, что согласился отдавать ему владелец авто.
Что это совсем не так, хорошо знают в Компартии Китая. Для них это автомобиль-шпион. И потому этим летом шпионским авто запрещен въезд на курорт Бэйдайхэ, где проходит 2-х месячная серия мероприятий КПК. Китайцы убеждены, что встроенные камеры автомобилей Tesla могут много чего увидеть и передать из того, что вовсе не предназначено для чужих глаз.
Другой отрезвляющий свежий пример – история о том, как легко и непринужденно Tesla отбила судебный иск о халатности после того, как двое молодых людей сгорели в автокатастрофе модели S, принадлежащей отцу одной из жертв аварии. В рамках своей защиты компания представила исторический анализ скорости, показывающий, что за несколько предшествовавших аварии месяцев автомобиль двигался с ежедневной максимальной скоростью в среднем более 90 миль в час (145 километров в час). Эта информация собиралась в тайне от водителя и хранилась на серверах Tesla (в результате присяжные сочли, что компания Tesla проявила небрежность всего на 1%).
Многие эксперты считают, что Tesla знает практически обо всем: кто, куда и когда ездит, как ездит, с кем ездит, с какими машинами и людьми встречается на дорогах, общественных и приватных парковках, сколько времени проводит в конкретных ресторанах и клубах, как часто приезжает (и как надолго) по конкретным адресам и т.д.
Что компания – детище Илона Маска, - делает со всеми этими данными, можно только предполагать.
Но то, что владельцы шикарных авто могут забыть о приватности своих поездок, - уже свершившийся факт.
1 2
#Приватность
Мы теряем приватность и даже не знаем об этом.
Tesla уже продала около 3 млн. автомобилей. Они практически ежедневно отгружают в хранилища своего производителя моря разнообразных данных о пройденных ими миллиардах миль и GPS-треках маршрутов, сопровождая это деталями, запечатленными на миллионах фотографий и видео (1).
Почти каждый новый серийный автомобиль оснащен набором датчиков, включая камеры и радары, которые собирают данные о водителях, других участниках дорожного движения и их окружении.
Сбором больших данных промышляет далеко не только Tesla (хотя Tesla – явный чемпион в этом деле). Уже существует огромная индустрия торговцев данными о транспортных средствах, водителях и местоположении, которая к 2030 может стоить до 800 $млрд (2).
Считается, что все эти данные анонимные. И что автопроизводитель получает право лишь на те данные, что согласился отдавать ему владелец авто.
Что это совсем не так, хорошо знают в Компартии Китая. Для них это автомобиль-шпион. И потому этим летом шпионским авто запрещен въезд на курорт Бэйдайхэ, где проходит 2-х месячная серия мероприятий КПК. Китайцы убеждены, что встроенные камеры автомобилей Tesla могут много чего увидеть и передать из того, что вовсе не предназначено для чужих глаз.
Другой отрезвляющий свежий пример – история о том, как легко и непринужденно Tesla отбила судебный иск о халатности после того, как двое молодых людей сгорели в автокатастрофе модели S, принадлежащей отцу одной из жертв аварии. В рамках своей защиты компания представила исторический анализ скорости, показывающий, что за несколько предшествовавших аварии месяцев автомобиль двигался с ежедневной максимальной скоростью в среднем более 90 миль в час (145 километров в час). Эта информация собиралась в тайне от водителя и хранилась на серверах Tesla (в результате присяжные сочли, что компания Tesla проявила небрежность всего на 1%).
Многие эксперты считают, что Tesla знает практически обо всем: кто, куда и когда ездит, как ездит, с кем ездит, с какими машинами и людьми встречается на дорогах, общественных и приватных парковках, сколько времени проводит в конкретных ресторанах и клубах, как часто приезжает (и как надолго) по конкретным адресам и т.д.
Что компания – детище Илона Маска, - делает со всеми этими данными, можно только предполагать.
Но то, что владельцы шикарных авто могут забыть о приватности своих поездок, - уже свершившийся факт.
1 2
#Приватность
IEEE Spectrum
The Radical Scope of Tesla’s Data Hoard
In a series of articles, IEEE Spectrum is examining exactly what data Tesla vehicles collect, how the company uses them to develop its automated driving systems, and whether owners or the company are in the driver’s seat when it comes to accessing and exploiting…
🔥7👍1🤯1
Пообсуждали ИИ и этику с Романом Душкиным (@drv_official), любезно пригласившим меня в гости.
Лайк, шер, сабскрайб на нас обоих :)
P.S. в интро до эфира Роман немного преувеличил мои заслуги: я был не руководителем рабочей группы Росстандарта, а только её участником :)
Лайк, шер, сабскрайб на нас обоих :)
P.S. в интро до эфира Роман немного преувеличил мои заслуги: я был не руководителем рабочей группы Росстандарта, а только её участником :)
YouTube
Посиделки у Душкина: Александр Тюльканов, юрист, ассоциированный исследователь ЦМИИС
И у нас снова посиделки на завалинке у Душкина с новым гостем — это Александр Тюльканов, ассоциированный исследователь Центра международных исследований интеллектуальной собственности (ЦМИИС, CEIPI), Страсбургский университет. Обсудили этику, мораль и искусственный…
🔥9👍2
Robocounsel
ERPS-Revision of the Machinery Directive.pdf
Опубликован проект Директивы ЕС об особенностях применения внедоговорной гражданской ответственности к системам искусственного интеллекта
Вслед за публикацией летом проекта поправок в Директиву о машинном оборудовании Еврокомиссия на прошлой неделе опубликовала проект новой Директивы, применяемой ко в том числе сугубо программным ИИ-продуктам.
После оценки регуляторного воздействия трёх вариантов Директивы выбран её промежуточный вариант: предлагается вначале провести ограниченную гармонизацию гражданского процессуального и деликтного права стран ЕС, а затем оценить необходимость более серьёзных изменений.
В течение двух лет после вступления Директивы в силу (период транспозиции) странам ЕС необходимо будет внести в своё национальное законодательство изменения: ввести новые процессуальные гарантии истребования доказательств, а также установить опровержимые презумпции, облегчающие доказывание состава гражданского правонарушения истцу, предъявляющему деликтный иск разработчикам или эксплуатантам систем ИИ повышенной опасности (high-risk AI).
В результате имплементации Директивы:
1) истцы-потерпевшие будут вправе ходатайствовать перед судом об истребовании доказательств, в том числе у третьих лиц, если ответчик по иску о причинении вреда не содействует в этом истцу, и о принятии обеспечительных мер для сохранности таких доказательств,
2) будет установлена опровержимая презумпция нарушения ответчиком ныне проектируемого Регламента ЕС об ИИ, применяемая в случаях, когда ответчик отказывается содействовать в истребовании или обеспечении сохранности доказательств,
3) будет установлена опровержимая презумпция причинной связи между нарушением ответчиком Регламента ЕС об ИИ и действием или бездействием системы ИИ, приведшим к причинению вреда истцу.
До истечения пяти лет по окончании периода транспозиции (то есть в течение семи лет после вступления Директивы в силу) после Еврокомиссия должна будет оценить, насколько эффективна принятая Директива, и нужно ли в дополнение к описанным выше правилам об ответственности при наличии вины также гармонизировать в странах ЕС правовые режимы безвиновной ("строгой") ответственности для отдельных сценариев применения ИИ.
Вслед за публикацией летом проекта поправок в Директиву о машинном оборудовании Еврокомиссия на прошлой неделе опубликовала проект новой Директивы, применяемой ко в том числе сугубо программным ИИ-продуктам.
После оценки регуляторного воздействия трёх вариантов Директивы выбран её промежуточный вариант: предлагается вначале провести ограниченную гармонизацию гражданского процессуального и деликтного права стран ЕС, а затем оценить необходимость более серьёзных изменений.
В течение двух лет после вступления Директивы в силу (период транспозиции) странам ЕС необходимо будет внести в своё национальное законодательство изменения: ввести новые процессуальные гарантии истребования доказательств, а также установить опровержимые презумпции, облегчающие доказывание состава гражданского правонарушения истцу, предъявляющему деликтный иск разработчикам или эксплуатантам систем ИИ повышенной опасности (high-risk AI).
В результате имплементации Директивы:
1) истцы-потерпевшие будут вправе ходатайствовать перед судом об истребовании доказательств, в том числе у третьих лиц, если ответчик по иску о причинении вреда не содействует в этом истцу, и о принятии обеспечительных мер для сохранности таких доказательств,
2) будет установлена опровержимая презумпция нарушения ответчиком ныне проектируемого Регламента ЕС об ИИ, применяемая в случаях, когда ответчик отказывается содействовать в истребовании или обеспечении сохранности доказательств,
3) будет установлена опровержимая презумпция причинной связи между нарушением ответчиком Регламента ЕС об ИИ и действием или бездействием системы ИИ, приведшим к причинению вреда истцу.
До истечения пяти лет по окончании периода транспозиции (то есть в течение семи лет после вступления Директивы в силу) после Еврокомиссия должна будет оценить, насколько эффективна принятая Директива, и нужно ли в дополнение к описанным выше правилам об ответственности при наличии вины также гармонизировать в странах ЕС правовые режимы безвиновной ("строгой") ответственности для отдельных сценариев применения ИИ.
👍6
Куки-баннеры: казнить нельзя помиловать
Где поставить запятую в этом предложении, после "казнить" или после "нельзя"?
Исследователи и создатели расширения под браузер Хром "Консент-о-Матик" предлагают первый вариант. А один из лидеров рынка кукибаннеростроения — УанТраст — конечно, за второй.
Казалось бы, статья 21 (5) Общего регламента ЕС по защите данных прямо даёт пользователю право использовать средства автоматизации для отклонения запросов на обработку персональных данных. Это положение действует преимущественно перед правилами статьи 5 (3) Директивы 2002/58/EC, предписывающей брать с пользователя согласие до установки кукис на его оконечное оборудование.
Соответственно, европейские пользователи имеют полное право установить подобное расширение, чтобы автоматически отклонять запросы на сохранение кукис.
Но, по словам одного из разработчиков Консент-о-Матика, Мидаса Нувенса, компания "УанТраст" сейчас пытается запатентовать решение, которое позволит отклонять такие автоматизированные отказы, и даже заставлять пользователей вводить капчу, чтобы подтвердить человеческое происхождение отказа от сохранения кукис.
При этом УанТраст обосновывает полезность патентуемого решения аргументом о том, что пользователь-де в подобном сценарии может принимать неинформированное решение об отказе от кукис, что не позволяет администратору сайта соблюсти требования закона.
Как совершенно верно отмечает Нувенс, подобный аргумент совершенно абсурден, ведь указанная выше норма Регламента ЕС прямо допускает использование пользователем программы для автоматического, невдумчивого отказа от сохранения кукис. Отказ, в отличие от согласия, не должен быть "конкретным, информированным, данным свободно и недвусмысленно".
По-хорошему, УанТраст должен публично покаяться в подобной ошибке и отозвать свою заявку.
В противном случае, на мой взгляд, компания достойна всяческого порицания за такой шаг.
Кроме того, мне кажется (но точнее может сказать @vychislit_po_ip), что при попытке получить такой же патент в Европе УанТрасту может быть отказано в связи с противоречием изобретения европейскому публичному порядку: единственная заявленная цель использования изобретения состоит в прямом нарушении Регламента ЕС о защите данных и прав пользователей.
Где поставить запятую в этом предложении, после "казнить" или после "нельзя"?
Исследователи и создатели расширения под браузер Хром "Консент-о-Матик" предлагают первый вариант. А один из лидеров рынка кукибаннеростроения — УанТраст — конечно, за второй.
Казалось бы, статья 21 (5) Общего регламента ЕС по защите данных прямо даёт пользователю право использовать средства автоматизации для отклонения запросов на обработку персональных данных. Это положение действует преимущественно перед правилами статьи 5 (3) Директивы 2002/58/EC, предписывающей брать с пользователя согласие до установки кукис на его оконечное оборудование.
Соответственно, европейские пользователи имеют полное право установить подобное расширение, чтобы автоматически отклонять запросы на сохранение кукис.
Но, по словам одного из разработчиков Консент-о-Матика, Мидаса Нувенса, компания "УанТраст" сейчас пытается запатентовать решение, которое позволит отклонять такие автоматизированные отказы, и даже заставлять пользователей вводить капчу, чтобы подтвердить человеческое происхождение отказа от сохранения кукис.
При этом УанТраст обосновывает полезность патентуемого решения аргументом о том, что пользователь-де в подобном сценарии может принимать неинформированное решение об отказе от кукис, что не позволяет администратору сайта соблюсти требования закона.
Как совершенно верно отмечает Нувенс, подобный аргумент совершенно абсурден, ведь указанная выше норма Регламента ЕС прямо допускает использование пользователем программы для автоматического, невдумчивого отказа от сохранения кукис. Отказ, в отличие от согласия, не должен быть "конкретным, информированным, данным свободно и недвусмысленно".
По-хорошему, УанТраст должен публично покаяться в подобной ошибке и отозвать свою заявку.
В противном случае, на мой взгляд, компания достойна всяческого порицания за такой шаг.
Кроме того, мне кажется (но точнее может сказать @vychislit_po_ip), что при попытке получить такой же патент в Европе УанТрасту может быть отказано в связи с противоречием изобретения европейскому публичному порядку: единственная заявленная цель использования изобретения состоит в прямом нарушении Регламента ЕС о защите данных и прав пользователей.
Google
Consent-O-Matic - Chrome Web Store
Automatic handling of GDPR consent forms
👍6
Robocounsel
США: федеральное регулирование применения искусственного интеллекта О планах разработки такого регулирования стало известно в начале года, координация работы была поручена Управлению научно-технической политики США. Однако, вопреки заявлениям руководителя…
Федеральное (не)регулирование ИИ в США
На этой неделе появился повод написать сиквел к моей июльской заметке. Управление научно-технической политики Администрации Президента США опубликовало документ, озаглавленный "Blueprint for an AI Bill of Rights".
Основное тело документа состоит из пяти принципов разработки и эксплуатации систем ИИ, сопровождаемых руководством по их практической реализации и глоссарием.
Базовые принципы:
1) безопасность и эффективность систем ИИ,
2) предотвращение алгоритмической дискриминации,
3) приватность данных - конструктивная и по умолчанию,
4) предупреждение о взаимодействии с системой ИИ и объяснимость результатов её работы,
5) человеческий контроль и право на взаимодействие с человеком.
В целом, по сравнению с проектом Регламента ЕС в документе не заметно никаких принципиально новых идей, хотя, конечно, есть разница в изложении и подходах.
Самое важное — вопреки некоторым ожиданиям, это не законопроект. Практически вся первая страница документа посвящена дисклеймерам о том, что это лишь доклад ("вайт пейпер") в поддержку развития будущего регулирования ИИ с фокусом на гражданские права и демократические ценности.
При этом документ не только строго никого ни к чему не обязывающий ("non-binding"), но и не представляет собой даже изложение государственной политики в этой области ("does not constitute U.S. government policy"). В этом смысле он имеет даже меньшую силу, чем ранее принятая российским правительством концепция развития регулирования ИИ и робототехники.
Таким образом, американское правительство, по сути, оставляет развязанными руки как себе, так и американским разработчикам и эксплуатантам систем ИИ. В том числе по этически спорным сценариям применения ИИ, типа биометрической идентификации в общественных местах, которые могут быть потенциально запрещены в Европейском союзе.
На этой неделе появился повод написать сиквел к моей июльской заметке. Управление научно-технической политики Администрации Президента США опубликовало документ, озаглавленный "Blueprint for an AI Bill of Rights".
Основное тело документа состоит из пяти принципов разработки и эксплуатации систем ИИ, сопровождаемых руководством по их практической реализации и глоссарием.
Базовые принципы:
1) безопасность и эффективность систем ИИ,
2) предотвращение алгоритмической дискриминации,
3) приватность данных - конструктивная и по умолчанию,
4) предупреждение о взаимодействии с системой ИИ и объяснимость результатов её работы,
5) человеческий контроль и право на взаимодействие с человеком.
В целом, по сравнению с проектом Регламента ЕС в документе не заметно никаких принципиально новых идей, хотя, конечно, есть разница в изложении и подходах.
Самое важное — вопреки некоторым ожиданиям, это не законопроект. Практически вся первая страница документа посвящена дисклеймерам о том, что это лишь доклад ("вайт пейпер") в поддержку развития будущего регулирования ИИ с фокусом на гражданские права и демократические ценности.
При этом документ не только строго никого ни к чему не обязывающий ("non-binding"), но и не представляет собой даже изложение государственной политики в этой области ("does not constitute U.S. government policy"). В этом смысле он имеет даже меньшую силу, чем ранее принятая российским правительством концепция развития регулирования ИИ и робототехники.
Таким образом, американское правительство, по сути, оставляет развязанными руки как себе, так и американским разработчикам и эксплуатантам систем ИИ. В том числе по этически спорным сценариям применения ИИ, типа биометрической идентификации в общественных местах, которые могут быть потенциально запрещены в Европейском союзе.
The White House
Blueprint for an AI Bill of Rights
Among the great challenges posed to democracy today is the use of technology, data, and automated systems in ways that threaten the rights of the American public. Too often, these tools are used to limit our opportunities and prevent our access to critical…
👍3
Могут ли вращающиеся 👀 на автономном автомобиле снизить количество ДТП?
Возможно, утверждают исследователи Токийского университета в недавно опубликованном исследовании.
А чтобы было совсем наглядно, они записали видеоролик.
И хотя исследование основано на достаточно небольшой выборке и ещё потребует репликации, первые выводы выглядят достаточно интуитивно.
Многие пешеходы чувствуют себя увереннее, если перед переходом дороги по глазам водителя приближающейся машины понимают: он их увидел.
Но на кого смотреть, когда в салоне будут одни пассажиры, без водителя? В глаза самому автомобилю, говорят японские исследователи. Пусть он будет оснащён "глазоимитаторами", вращающимися в направлении распознанных им пешеходов. Соответственно, по взгляду, направленному в другую сторону, пешеходы бы понимали, что машина могла их не заметить и переходить дорогу опасно.
Нужно отметить, что "глаза" не отменяют и не заменяют собой обычные сенсоры (камеры, радары и лидары) — это лишь средство невербальной коммуникации с пешеходами.
Выглядят "глаза" забавно, но если последующие исследования подтвердят эффективность такого дизайнерского решения, то почему бы и нет?
Возможно, утверждают исследователи Токийского университета в недавно опубликованном исследовании.
А чтобы было совсем наглядно, они записали видеоролик.
И хотя исследование основано на достаточно небольшой выборке и ещё потребует репликации, первые выводы выглядят достаточно интуитивно.
Многие пешеходы чувствуют себя увереннее, если перед переходом дороги по глазам водителя приближающейся машины понимают: он их увидел.
Но на кого смотреть, когда в салоне будут одни пассажиры, без водителя? В глаза самому автомобилю, говорят японские исследователи. Пусть он будет оснащён "глазоимитаторами", вращающимися в направлении распознанных им пешеходов. Соответственно, по взгляду, направленному в другую сторону, пешеходы бы понимали, что машина могла их не заметить и переходить дорогу опасно.
Нужно отметить, что "глаза" не отменяют и не заменяют собой обычные сенсоры (камеры, радары и лидары) — это лишь средство невербальной коммуникации с пешеходами.
Выглядят "глаза" забавно, но если последующие исследования подтвердят эффективность такого дизайнерского решения, то почему бы и нет?
👍8🤯2😁1🤔1
Robocounsel
Еврокомиссия опубликовала основные принципы документа, идущего на смену Прайваси шилд Первая реакция Макса Шремса: текста пока нет, а нынешнее политическое заявление лидеров скорее повышает неопределённость для бизнеса, чем снижает её. По предварительным…
В США создаётся суд для обжалования обработки персональных данных спецслужбами
Не прошло и полгода Прошло полгода, и наконец опубликован Указ Президента США о защите прав граждан при обработке персональных данных в интересах национальной безопасности.
Определяются принципы обработки персональных данных спецслужбами, и при Минюсте США учреждается специальный Суд для обжалования административных решений, принимаемых по жалобам на злоупотребления при такой обработке. Первой — административной — инстанцией для таких жалоб является Уполномоченный по защите гражданских свобод при Директоре национальной разведки.
Предоставление подобных гарантий защиты прав граждан является одним из условий возобновления регулярной трансатлантической передачи персональных данных из Европы в соответствии с договорённостями, достигнутыми США и ЕС.
Вместе с тем, ключевые эксперты в области регулирования персональных данных, например, Омер Тен, согласны с тем, что выбранный механизм предоставления гарантий — через Указ Президента США — вряд ли удовлетворит прайваси-активистов.
Последние с самого начала отмечали, что для того, чтобы новые договоренности между США и ЕС устояли в Европейском суде справедливости, гарантии защиты прав граждан должны быть закреплены в законе, а не в более легко изменяемом акте органа исполнительной власти.
Определяются принципы обработки персональных данных спецслужбами, и при Минюсте США учреждается специальный Суд для обжалования административных решений, принимаемых по жалобам на злоупотребления при такой обработке. Первой — административной — инстанцией для таких жалоб является Уполномоченный по защите гражданских свобод при Директоре национальной разведки.
Предоставление подобных гарантий защиты прав граждан является одним из условий возобновления регулярной трансатлантической передачи персональных данных из Европы в соответствии с договорённостями, достигнутыми США и ЕС.
Вместе с тем, ключевые эксперты в области регулирования персональных данных, например, Омер Тен, согласны с тем, что выбранный механизм предоставления гарантий — через Указ Президента США — вряд ли удовлетворит прайваси-активистов.
Последние с самого начала отмечали, что для того, чтобы новые договоренности между США и ЕС устояли в Европейском суде справедливости, гарантии защиты прав граждан должны быть закреплены в законе, а не в более легко изменяемом акте органа исполнительной власти.
www.justice.gov
The Data Protection Review Court
👍4
В СНГ появится первый Цифровой кодекс
В своём Фейсбуке Министр цифрового развития Кыргызской Республики Талантбек Иманов сегодня раскрыл некоторые детали концепции кодекса.
Кодекс будет состоять из общей и особенной частей.
Проект общей части уже разработан и устанавливает основные принципы и правила регулирования, осуществляемого на четырёх уровнях: уровень данных, уровень сервисов, уровень систем и уровень инфраструктуры.
Также на сегодня уже разработан ряд глав особенной части, регулирующих:
- общие правила обработки цифровых данных ("большие данные");
- разработку и применение систем искусственного интеллекта;
- обработку персональных данных;
- обработку пространственных данных (геоданных);
- цифровую идентификацию;
- цифровые подписи и цифровые архивы.
Мне посчастливилось быть выбранным в качестве международного эксперта, отвечающего за главу по искусственному интеллекту. Деталями о её содержании поделюсь с вами здесь, в телеграм-канале @robocounsel, после принятия нашей с коллегами общей работы заказчиком.
Весь проект кодекса планируется представить в декабре.
Видеорезюме о концепции кодекса
В своём Фейсбуке Министр цифрового развития Кыргызской Республики Талантбек Иманов сегодня раскрыл некоторые детали концепции кодекса.
Кодекс будет состоять из общей и особенной частей.
Проект общей части уже разработан и устанавливает основные принципы и правила регулирования, осуществляемого на четырёх уровнях: уровень данных, уровень сервисов, уровень систем и уровень инфраструктуры.
Также на сегодня уже разработан ряд глав особенной части, регулирующих:
- общие правила обработки цифровых данных ("большие данные");
- разработку и применение систем искусственного интеллекта;
- обработку персональных данных;
- обработку пространственных данных (геоданных);
- цифровую идентификацию;
- цифровые подписи и цифровые архивы.
Мне посчастливилось быть выбранным в качестве международного эксперта, отвечающего за главу по искусственному интеллекту. Деталями о её содержании поделюсь с вами здесь, в телеграм-канале @robocounsel, после принятия нашей с коллегами общей работы заказчиком.
Весь проект кодекса планируется представить в декабре.
Видеорезюме о концепции кодекса
Facebook
Добрый день, уважаемые сограждане!
Ранее в своем обращении я...
Ранее в своем обращении я...
978 views, 73 likes, 2 loves, 23 comments, 127 shares, Facebook Watch Videos from Талант Иманов: Добрый день, уважаемые сограждане!
Ранее в своем обращении я проинформировал вас о том, что в рамках...
Ранее в своем обращении я проинформировал вас о том, что в рамках...
👍10🔥3
Стрим о работе российских ИТ-юристов за рубежом
Друзья, некоторые из вас знают, что я недавно на одном русскоязычном эйчар-стриме делился своим опытом перехода на работу за рубежом. В комментариях к стриму был интерес к этой теме, и я обещал провести на эту тему отдельный эфир.
Чтобы стрим был интереснее, я сейчас формирую список гостей для передачи. У меня уже есть коллеги, которые могут рассказать о своём опыте перемещения по работе за рубеж внутри группы компаний. Но пока не хватает тех, кто мог бы рассказать о своём опыте получения работы за рубежом "с улицы".
Если вы такой человек и хотите поделиться своим опытом — пишите на @robocounsel_bot, я с вами свяжусь.
Дату эфира сообщу позднее.
Друзья, некоторые из вас знают, что я недавно на одном русскоязычном эйчар-стриме делился своим опытом перехода на работу за рубежом. В комментариях к стриму был интерес к этой теме, и я обещал провести на эту тему отдельный эфир.
Чтобы стрим был интереснее, я сейчас формирую список гостей для передачи. У меня уже есть коллеги, которые могут рассказать о своём опыте перемещения по работе за рубеж внутри группы компаний. Но пока не хватает тех, кто мог бы рассказать о своём опыте получения работы за рубежом "с улицы".
Если вы такой человек и хотите поделиться своим опытом — пишите на @robocounsel_bot, я с вами свяжусь.
Дату эфира сообщу позднее.
👍16
AIA - CZ - draft for Coreper (3 Nov 22).pdf
1.1 MB
Совет ЕС предлагает не регулировать на уровне Союза использование ИИ для целей нацбезопасности
Прочитал новую версию проекта Регламента об искусственном интеллекте, предложенную Советом ЕС в ноябре 2022 года для рассмотрения COREPER.
Комментаторы в Твиттере правы: эта версия действительно исключает использование в целях национальной безопасности из сферы его действия.
Я понимаю — но не поддерживаю — аргументацию. В демократическом государстве эти виды использования требуют именно тех мер контроля, которые предусмотрены проектом регламента.
Не гармонизировать это на уровне Союза и отдавать на откуп национальным властям можно, но вряд ли стоит.
Прочитал новую версию проекта Регламента об искусственном интеллекте, предложенную Советом ЕС в ноябре 2022 года для рассмотрения COREPER.
Комментаторы в Твиттере правы: эта версия действительно исключает использование в целях национальной безопасности из сферы его действия.
Я понимаю — но не поддерживаю — аргументацию. В демократическом государстве эти виды использования требуют именно тех мер контроля, которые предусмотрены проектом регламента.
Не гармонизировать это на уровне Союза и отдавать на откуп национальным властям можно, но вряд ли стоит.
👍7
Robocounsel
AIA - CZ - draft for Coreper (3 Nov 22).pdf
COREPER согласился не регулировать на уровне ЕС использование ИИ для целей национальной безопасности
Комитет постоянных представителей (COREPER) единогласно поддержал проект Регламента ЕС в редакции, внесённой под чешским председательством (см. предыдущий пост). Текст уходит на рассмотрение в Телекоммуникационный совет 6 декабря.
Комитет постоянных представителей (COREPER) единогласно поддержал проект Регламента ЕС в редакции, внесённой под чешским председательством (см. предыдущий пост). Текст уходит на рассмотрение в Телекоммуникационный совет 6 декабря.
Telegram
Robocounsel
Совет ЕС предлагает не регулировать на уровне Союза использование ИИ для целей нацбезопасности
Прочитал новую версию проекта Регламента об искусственном интеллекте, предложенную Советом ЕС в ноябре 2022 года для рассмотрения COREPER.
Комментаторы в Твиттере…
Прочитал новую версию проекта Регламента об искусственном интеллекте, предложенную Советом ЕС в ноябре 2022 года для рассмотрения COREPER.
Комментаторы в Твиттере…
👍2
Нейросеть — плохой фантазёр и рассказчик?
Ольга Ефимова, супруга Альберта Ефимова, делится выводами после попытки сыграть в настольную игру "Я не человек", наподобие Имаджинариума и Диксит, где нужно придумывать ассоциации на картинки, но в случае с этой игрой картинки созданы нейросетью.
Основной проблемой оказалось то, что, по её мнению, с изображениями, созданными нейросетью, сложно играть: ассоциаций очень мало и они у всех одинаковые (что плохо для игр такого рода).
Она пишет: "в изображениях нейросетки нет нарратива, они не рассказывают истории. Но почему? В итоге мы пришли к тому, что в них нет движения, нет прошлого и будущего, поэтому истории не возникает.
Глагол, который описывает их героя — созерцает, наблюдает. Нейросеть смотрит на нас и пока не решила , что с нами делать. Карты из диксита и «я не человек» для сравнения".
Ольга Ефимова, супруга Альберта Ефимова, делится выводами после попытки сыграть в настольную игру "Я не человек", наподобие Имаджинариума и Диксит, где нужно придумывать ассоциации на картинки, но в случае с этой игрой картинки созданы нейросетью.
Основной проблемой оказалось то, что, по её мнению, с изображениями, созданными нейросетью, сложно играть: ассоциаций очень мало и они у всех одинаковые (что плохо для игр такого рода).
Она пишет: "в изображениях нейросетки нет нарратива, они не рассказывают истории. Но почему? В итоге мы пришли к тому, что в них нет движения, нет прошлого и будущего, поэтому истории не возникает.
Глагол, который описывает их героя — созерцает, наблюдает. Нейросеть смотрит на нас и пока не решила , что с нами делать. Карты из диксита и «я не человек» для сравнения".
👍5
63768e1b44af8e2713b91d2f_Holistic_AI_Insight_Paper_US_Regulation.pdf
467.4 KB
Обзор регулирования ИИ в США на ноябрь 2022
Как я писал ранее, на федеральном уровне в США какого-либо закона общего характера в этой области пока не планируется.
Но есть подвижки в отраслевом регулировании и на уровне отдельных штатов.
Holistic AI на днях выпустили свой обзор на эту тему (во вложении).
Из основного:
- США идут по пути регулирования ИИ по отраслям и областям применения. Первые ласточки - в области страхования и в области управления персоналом;
- Регулирование возникает на уровне отдельных штатов, но вокруг отдельных общих тем, таких как защита неприкосновенности частной жизни (privacy) и предотвращение предвзятости в системах ИИ (bias);
- Стоит обратить внимание на фреймворки, которые продвигают Федеральная торговая комиссия (FTC) и Национальный институт стандартов и технологий (NIST);
- Законодательство об искусственном интеллекте появляется не только в «технологически передовых» штатах, таких как Нью-Йорк и Калифорния, но и в Кентукки, Массачусетсе и Мичигане, Нью-Джерси.
Как я писал ранее, на федеральном уровне в США какого-либо закона общего характера в этой области пока не планируется.
Но есть подвижки в отраслевом регулировании и на уровне отдельных штатов.
Holistic AI на днях выпустили свой обзор на эту тему (во вложении).
Из основного:
- США идут по пути регулирования ИИ по отраслям и областям применения. Первые ласточки - в области страхования и в области управления персоналом;
- Регулирование возникает на уровне отдельных штатов, но вокруг отдельных общих тем, таких как защита неприкосновенности частной жизни (privacy) и предотвращение предвзятости в системах ИИ (bias);
- Стоит обратить внимание на фреймворки, которые продвигают Федеральная торговая комиссия (FTC) и Национальный институт стандартов и технологий (NIST);
- Законодательство об искусственном интеллекте появляется не только в «технологически передовых» штатах, таких как Нью-Йорк и Калифорния, но и в Кентукки, Массачусетсе и Мичигане, Нью-Джерси.
👍4🔥1
DAOs-Call-for-Evidence-LC.pdf
866.6 KB
Как регулируются и работают децентрализованные автономные организации?
Британская комиссия по вопросам права (Law Commission) опубликовала своё текущее видение данных вопросов (во вложении) и предлагает всем заинтересованным лицам высказаться в опросе, проводимом до 25 января 2023 года.
Результаты опроса будут учтены в предварительном исследовании, отчёт по которому будет подготовлен и представлен в течение ближайших 15 месяцев.
Среди обсуждаемых вопросов:
- соотношение ДАО и юридических лиц;
- статус инвесторов/владельцев токенов ДАО;
- ответственность разработчиков открытого исходного кода;
- управление в ДАО;
- регуляторные проблемы ДАО (ПОД/ФТ, отчетность, налогообложение и др.);
- лучшие юрисдикции для ДАО на сегодня.
Британская комиссия по вопросам права (Law Commission) опубликовала своё текущее видение данных вопросов (во вложении) и предлагает всем заинтересованным лицам высказаться в опросе, проводимом до 25 января 2023 года.
Результаты опроса будут учтены в предварительном исследовании, отчёт по которому будет подготовлен и представлен в течение ближайших 15 месяцев.
Среди обсуждаемых вопросов:
- соотношение ДАО и юридических лиц;
- статус инвесторов/владельцев токенов ДАО;
- ответственность разработчиков открытого исходного кода;
- управление в ДАО;
- регуляторные проблемы ДАО (ПОД/ФТ, отчетность, налогообложение и др.);
- лучшие юрисдикции для ДАО на сегодня.
🔥9👍1
Между двумя эпохами
Глобальные технологические гиганты одним за другим массово сокращают персонал. Рыночная стоимость ряда компаний из отрасли за год упала более чем на 50%. Почему?
У Дерека Томпсона из "Атлантик" два ответа.
Первый - более очевидный и технический: конец эпохи дешёвых денег. Процентные ставки, рекордно снизившиеся после глобального кризиса 2007-2009, снова растут. Аппетит инвесторов к рискам вложений в потенциально сверхприбыльные технологические прожекты падает.
Второй - более спекулятивный: технологии, бывшие драйвером предыдущего бума - браузеры, соцсети и мобильные приложения - к сегодняшнему дню в основном закрыли все потребности базовой цифровизации в основных экономиках мира. Потенциал взрывного роста в них исчерпан.
Новые же технологии на нынешнем уровне их развития оказались не готовы к действительно широкому практическому применению. И поэтому пока не выстрелили в том же масштабе.
Криптоэкономика? Основная масса проектов показала свою переоценённость, несбыточность или вовсе заведомо мошеннический характер. Виртуальная реальность? Смотрите, что происходит с Метаверсом... Дополненная реальность - масштабно не выстрелила.
Искусственный интеллект? Перспективен, особенно на горизонте лет этак десяти. Но пока же оказалось, что и от него было довольно много завышенных ожиданий.
Эпоха взрывного роста экономики приложений закатилась, эпоха ИИ-благоденствия - ещё не началась...
Глобальные технологические гиганты одним за другим массово сокращают персонал. Рыночная стоимость ряда компаний из отрасли за год упала более чем на 50%. Почему?
У Дерека Томпсона из "Атлантик" два ответа.
Первый - более очевидный и технический: конец эпохи дешёвых денег. Процентные ставки, рекордно снизившиеся после глобального кризиса 2007-2009, снова растут. Аппетит инвесторов к рискам вложений в потенциально сверхприбыльные технологические прожекты падает.
Второй - более спекулятивный: технологии, бывшие драйвером предыдущего бума - браузеры, соцсети и мобильные приложения - к сегодняшнему дню в основном закрыли все потребности базовой цифровизации в основных экономиках мира. Потенциал взрывного роста в них исчерпан.
Новые же технологии на нынешнем уровне их развития оказались не готовы к действительно широкому практическому применению. И поэтому пока не выстрелили в том же масштабе.
Криптоэкономика? Основная масса проектов показала свою переоценённость, несбыточность или вовсе заведомо мошеннический характер. Виртуальная реальность? Смотрите, что происходит с Метаверсом... Дополненная реальность - масштабно не выстрелила.
Искусственный интеллект? Перспективен, особенно на горизонте лет этак десяти. Но пока же оказалось, что и от него было довольно много завышенных ожиданий.
Эпоха взрывного роста экономики приложений закатилась, эпоха ИИ-благоденствия - ещё не началась...
The Atlantic
Why Everything in Tech Seems to Be Collapsing at Once
The industry is having a midlife crisis.
👍7🔥1
Factsheet Q4.22_top5.pdf
706.6 KB
Топ 5 текущих инициатив в Европарламенте по регулированию цифровой экономики
На слайдах последний статус. Составитель — Кай Зеннер.
На слайдах последний статус. Составитель — Кай Зеннер.
👍7
На заметку: как удалить свой телефон и адрес электронной почты из базы данных Меты
Соцсети могут предлагать вам, с кем подружиться. Как это работает? За счёт общих интересов и контактов, но не только. Ещё ваш аккаунт будут предлагать в друзья людям, которые записали ваш контакт в телефон, а потом поделились адресной книгой с соцсетью.
За счёт этого ваши номер и адрес электронной почты сохраняются в базу данных соцсети, даже если вы сами в ней не состоите.
Немногие знают, но на Фейсбуке есть, по глубоко запрятанному адресу, средство, позволяющее заблокировать загрузку этих данных. После этого такие данные не будут загружаться и использоваться Метой для рекомендаций добавления вас в друзья.
Разумеется, чтобы этот функционал работал, эти данные (без имени) будут сохранены в стоп-листе.
Сервис доступен для Фейсбука, Мессенджера и Инстаграма тут.
Соцсети могут предлагать вам, с кем подружиться. Как это работает? За счёт общих интересов и контактов, но не только. Ещё ваш аккаунт будут предлагать в друзья людям, которые записали ваш контакт в телефон, а потом поделились адресной книгой с соцсетью.
За счёт этого ваши номер и адрес электронной почты сохраняются в базу данных соцсети, даже если вы сами в ней не состоите.
Немногие знают, но на Фейсбуке есть, по глубоко запрятанному адресу, средство, позволяющее заблокировать загрузку этих данных. После этого такие данные не будут загружаться и использоваться Метой для рекомендаций добавления вас в друзья.
Разумеется, чтобы этот функционал работал, эти данные (без имени) будут сохранены в стоп-листе.
Сервис доступен для Фейсбука, Мессенджера и Инстаграма тут.
👍8
В Великобритании планируют запретить распространение порнодипфейков без согласия
Соответствующие поправки были предложены в законопроект о безопасности в онлайне (Online Safety Bill).
Распространение без согласия интимных фото- и видео- материалов, в том числе дипфейков с изображением интимных частей тела, искусственно наложенных на чужую фотографию, будет караться тюремным заключением до 6 месяцев и альтернативно или дополнительно штрафом.
Соответствующие поправки были предложены в законопроект о безопасности в онлайне (Online Safety Bill).
Распространение без согласия интимных фото- и видео- материалов, в том числе дипфейков с изображением интимных частей тела, искусственно наложенных на чужую фотографию, будет караться тюремным заключением до 6 месяцев и альтернативно или дополнительно штрафом.
🔥3
Саморегулирование в ИИ: выйдет ли из этого толк?
Хайс Линдерс в своей магистерской диссертации утверждает, что именно саморегулирование могло бы стать оптимальным методом установления правил поведения в отрасли.
Оно может хорошо решать сразу две проблемы, характерные для регулирования новых технологий:
1) проблему запаздывания регулирования (pacing problem) — эксперты внутри отрасли лучше и раньше других могут осмысливать и обобщать ошибки, опасности и лучшие практики;
2) проблему парадокса неопределённости (uncertainty paradox) — слишком ранее регулирование ввиду непроверенности его гипотез может задушить новую отрасль, а регулировать уже повсеместно применяемую технологию довольно сложно.
Но это в теории. На практике же саморегулирование отрасли будет эффективным лишь при наличии пяти компонентов, суммирует Линдерс:
1) набор принципов — норм поведения, не противоречащих коммерческим приоритетам представителей отрасли;
2) наличие у исследователей и разработчиков внутренней мотивации действовать сообща;
3) независимый и авторитетный орган управления;
4) гласность (транспарентность) процедур саморегулирования и деятельности представителей отрасли;
5) убедительные механизмы приведения норм поведения в исполнение.
На момент написания Линдерсом диссертации одной из наиболее известных отраслевых организаций, претендующих на авторитетность, было (да и сейчас является) Партнёрство в сфере искусственного интеллекта (Partnership on AI). Поэтому он решил взять эту организацию в качестве объекта для анализа: проявляются ли в её работе все 5 критериев эффективного саморегулирования.
Изучив вопрос методом контентного анализа, Линдерс пришёл к выводу: Партнёрство этим критериям не соответствует.
Ввиду ограничений, диктуемых антимонопольным законодательством, Партнёрство при всём желании не может, по мнению Линдерса, ввести систему частных штрафов за нарушение собственных норм крупнейшими игроками рынка, входящими в его состав.
Более того Партнёрство не берёт на себя функции проверки соблюдения этих норм его членами, оставляя это прерогативой их самих.
Гласность в вопросе процедур Партнёрства также могла бы быть лучше (не публикуются протоколы заседаний его органов).
Также отсутствуют какие-либо механизмы приведения норм Партнёрства в исполнение: уже в первые два года его существования его члены были неоднократно замечены в нарушении его принципов, но какой-либо реакции Партнёрства на это не последовало.
Случай, отражённый в диссертации Линдерса, кажется мне интересным и показательным.
Каждый желающий может повторить этот эксперимент и проанализировать, на основе общедоступной информации, соблюдаются ли в деятельности любой иной отраслевой организации 5 критериев эффективного саморегулирования.
Справедливости ради также отмечу, что за последние годы на сайте Партнёрства было опубликовано довольно много полезных исследований и методических материалов. И, что наиболее интересно, создана отдельная база ИИ-инцидентов. Там все желающие могут посмотреть систематизированный перечень тех мелких ляпов, грубейших ошибок и намеренного вреда, которые время от времени допускают ИИ-разработчики или пользователи ИИ-систем.
Хайс Линдерс в своей магистерской диссертации утверждает, что именно саморегулирование могло бы стать оптимальным методом установления правил поведения в отрасли.
Оно может хорошо решать сразу две проблемы, характерные для регулирования новых технологий:
1) проблему запаздывания регулирования (pacing problem) — эксперты внутри отрасли лучше и раньше других могут осмысливать и обобщать ошибки, опасности и лучшие практики;
2) проблему парадокса неопределённости (uncertainty paradox) — слишком ранее регулирование ввиду непроверенности его гипотез может задушить новую отрасль, а регулировать уже повсеместно применяемую технологию довольно сложно.
Но это в теории. На практике же саморегулирование отрасли будет эффективным лишь при наличии пяти компонентов, суммирует Линдерс:
1) набор принципов — норм поведения, не противоречащих коммерческим приоритетам представителей отрасли;
2) наличие у исследователей и разработчиков внутренней мотивации действовать сообща;
3) независимый и авторитетный орган управления;
4) гласность (транспарентность) процедур саморегулирования и деятельности представителей отрасли;
5) убедительные механизмы приведения норм поведения в исполнение.
На момент написания Линдерсом диссертации одной из наиболее известных отраслевых организаций, претендующих на авторитетность, было (да и сейчас является) Партнёрство в сфере искусственного интеллекта (Partnership on AI). Поэтому он решил взять эту организацию в качестве объекта для анализа: проявляются ли в её работе все 5 критериев эффективного саморегулирования.
Изучив вопрос методом контентного анализа, Линдерс пришёл к выводу: Партнёрство этим критериям не соответствует.
Ввиду ограничений, диктуемых антимонопольным законодательством, Партнёрство при всём желании не может, по мнению Линдерса, ввести систему частных штрафов за нарушение собственных норм крупнейшими игроками рынка, входящими в его состав.
Более того Партнёрство не берёт на себя функции проверки соблюдения этих норм его членами, оставляя это прерогативой их самих.
Гласность в вопросе процедур Партнёрства также могла бы быть лучше (не публикуются протоколы заседаний его органов).
Также отсутствуют какие-либо механизмы приведения норм Партнёрства в исполнение: уже в первые два года его существования его члены были неоднократно замечены в нарушении его принципов, но какой-либо реакции Партнёрства на это не последовало.
Случай, отражённый в диссертации Линдерса, кажется мне интересным и показательным.
Каждый желающий может повторить этот эксперимент и проанализировать, на основе общедоступной информации, соблюдаются ли в деятельности любой иной отраслевой организации 5 критериев эффективного саморегулирования.
Справедливости ради также отмечу, что за последние годы на сайте Партнёрства было опубликовано довольно много полезных исследований и методических материалов. И, что наиболее интересно, создана отдельная база ИИ-инцидентов. Там все желающие могут посмотреть систематизированный перечень тех мелких ляпов, грубейших ошибок и намеренного вреда, которые время от времени допускают ИИ-разработчики или пользователи ИИ-систем.
Becoming Human
The Regulation of Artificial Intelligence — A Case Study of the Partnership on AI
I wrote this dissertation in the summer of 2018, as part of my MSc in International Public Policy at UCL. One of my goals during the MSc…
🔥8