Robocounsel – Telegram
Robocounsel
1.92K subscribers
242 photos
17 videos
77 files
614 links
О регулировании и социальных аспектах применения ИИ и данных, преимущественно в ЕС. Публикации отражают сугубо личное мнение автора.

Контакт, вопросы: используйте кнопку 💬 в левом нижнем углу.

Шрифт в логотипе - Alex Murphy Solid от Goatmeal
Download Telegram
AIA - CZ - draft for Coreper (3 Nov 22).pdf
1.1 MB
Совет ЕС предлагает не регулировать на уровне Союза использование ИИ для целей нацбезопасности

Прочитал новую версию проекта Регламента об искусственном интеллекте, предложенную Советом ЕС в ноябре 2022 года для рассмотрения COREPER.

Комментаторы в Твиттере правы: эта версия действительно исключает использование в целях национальной безопасности из сферы его действия.

Я понимаю — но не поддерживаю — аргументацию. В демократическом государстве эти виды использования требуют именно тех мер контроля, которые предусмотрены проектом регламента.

Не гармонизировать это на уровне Союза и отдавать на откуп национальным властям можно, но вряд ли стоит.
👍7
Robocounsel
AIA - CZ - draft for Coreper (3 Nov 22).pdf
COREPER согласился не регулировать на уровне ЕС использование ИИ для целей национальной безопасности

Комитет постоянных представителей (COREPER) единогласно поддержал проект Регламента ЕС в редакции, внесённой под чешским председательством (см. предыдущий пост). Текст уходит на рассмотрение в Телекоммуникационный совет 6 декабря.
👍2
Нейросеть — плохой фантазёр и рассказчик?

Ольга Ефимова, супруга Альберта Ефимова, делится выводами после попытки сыграть в настольную игру "Я не человек", наподобие Имаджинариума и Диксит, где нужно придумывать ассоциации на картинки, но в случае с этой игрой картинки созданы нейросетью.

Основной проблемой оказалось то, что, по её мнению, с изображениями, созданными нейросетью, сложно играть: ассоциаций очень мало и они у всех одинаковые (что плохо для игр такого рода).

Она пишет: "в изображениях нейросетки нет нарратива, они не рассказывают истории. Но почему? В итоге мы пришли к тому, что в них нет движения, нет прошлого и будущего, поэтому истории не возникает.

Глагол, который описывает их героя — созерцает, наблюдает. Нейросеть смотрит на нас и пока не решила , что с нами делать. Карты из диксита и «я не человек» для сравнения".
👍5
63768e1b44af8e2713b91d2f_Holistic_AI_Insight_Paper_US_Regulation.pdf
467.4 KB
Обзор регулирования ИИ в США на ноябрь 2022

Как я писал ранее, на федеральном уровне в США какого-либо закона общего характера в этой области пока не планируется.

Но есть подвижки в отраслевом регулировании и на уровне отдельных штатов.

Holistic AI на днях выпустили свой обзор на эту тему (во вложении).

Из основного:

- США идут по пути регулирования ИИ по отраслям и областям применения. Первые ласточки - в области страхования и в области управления персоналом;

- Регулирование возникает на уровне отдельных штатов, но вокруг отдельных общих тем, таких как защита неприкосновенности частной жизни (privacy) и предотвращение предвзятости в системах ИИ (bias);

- Стоит обратить внимание на фреймворки, которые продвигают Федеральная торговая комиссия (FTC) и Национальный институт стандартов и технологий (NIST);

- Законодательство об искусственном интеллекте появляется не только в «технологически передовых» штатах, таких как Нью-Йорк и Калифорния, но и в Кентукки, Массачусетсе и Мичигане, Нью-Джерси.
👍4🔥1
DAOs-Call-for-Evidence-LC.pdf
866.6 KB
Как регулируются и работают децентрализованные автономные организации?

Британская комиссия по вопросам права (Law Commission) опубликовала своё текущее видение данных вопросов (во вложении) и предлагает всем заинтересованным лицам высказаться в опросе, проводимом до 25 января 2023 года.

Результаты опроса будут учтены в предварительном исследовании, отчёт по которому будет подготовлен и представлен в течение ближайших 15 месяцев.

Среди обсуждаемых вопросов:
- соотношение ДАО и юридических лиц;
- статус инвесторов/владельцев токенов ДАО;
- ответственность разработчиков открытого исходного кода;
- управление в ДАО;
- регуляторные проблемы ДАО (ПОД/ФТ, отчетность, налогообложение и др.);
- лучшие юрисдикции для ДАО на сегодня.
🔥9👍1
Между двумя эпохами

Глобальные технологические гиганты одним за другим массово сокращают персонал. Рыночная стоимость ряда компаний из отрасли за год упала более чем на 50%. Почему?

У Дерека Томпсона из "Атлантик" два ответа.

Первый - более очевидный и технический: конец эпохи дешёвых денег. Процентные ставки, рекордно снизившиеся после глобального кризиса 2007-2009, снова растут. Аппетит инвесторов к рискам вложений в потенциально сверхприбыльные технологические прожекты падает.

Второй - более спекулятивный: технологии, бывшие драйвером предыдущего бума - браузеры, соцсети и мобильные приложения - к сегодняшнему дню в основном закрыли все потребности базовой цифровизации в основных экономиках мира. Потенциал взрывного роста в них исчерпан.

Новые же технологии на нынешнем уровне их развития оказались не готовы к действительно широкому практическому применению. И поэтому пока не выстрелили в том же масштабе.

Криптоэкономика? Основная масса проектов показала свою переоценённость, несбыточность или вовсе заведомо мошеннический характер. Виртуальная реальность? Смотрите, что происходит с Метаверсом... Дополненная реальность - масштабно не выстрелила.

Искусственный интеллект? Перспективен, особенно на горизонте лет этак десяти. Но пока же оказалось, что и от него было довольно много завышенных ожиданий.

Эпоха взрывного роста экономики приложений закатилась, эпоха ИИ-благоденствия - ещё не началась...
👍7🔥1
Factsheet Q4.22_top5.pdf
706.6 KB
Топ 5 текущих инициатив в Европарламенте по регулированию цифровой экономики

На слайдах последний статус. Составитель — Кай Зеннер.
👍7
На заметку: как удалить свой телефон и адрес электронной почты из базы данных Меты

Соцсети могут предлагать вам, с кем подружиться. Как это работает? За счёт общих интересов и контактов, но не только. Ещё ваш аккаунт будут предлагать в друзья людям, которые записали ваш контакт в телефон, а потом поделились адресной книгой с соцсетью.

За счёт этого ваши номер и адрес электронной почты сохраняются в базу данных соцсети, даже если вы сами в ней не состоите.

Немногие знают, но на Фейсбуке есть, по глубоко запрятанному адресу, средство, позволяющее заблокировать загрузку этих данных. После этого такие данные не будут загружаться и использоваться Метой для рекомендаций добавления вас в друзья.

Разумеется, чтобы этот функционал работал, эти данные (без имени) будут сохранены в стоп-листе.

Сервис доступен для Фейсбука, Мессенджера и Инстаграма тут.
👍8
В Великобритании планируют запретить распространение порнодипфейков без согласия

Соответствующие поправки были предложены в законопроект о безопасности в онлайне (Online Safety Bill).

Распространение без согласия интимных фото- и видео- материалов, в том числе дипфейков с изображением интимных частей тела, искусственно наложенных на чужую фотографию, будет караться тюремным заключением до 6 месяцев и альтернативно или дополнительно штрафом.
🔥3
Саморегулирование в ИИ: выйдет ли из этого толк?

Хайс Линдерс в своей магистерской диссертации утверждает, что именно саморегулирование могло бы стать оптимальным методом установления правил поведения в отрасли.

Оно может хорошо решать сразу две проблемы, характерные для регулирования новых технологий:
1) проблему запаздывания регулирования (pacing problem) — эксперты внутри отрасли лучше и раньше других могут осмысливать и обобщать ошибки, опасности и лучшие практики;
2) проблему парадокса неопределённости (uncertainty paradox) — слишком ранее регулирование ввиду непроверенности его гипотез может задушить новую отрасль, а регулировать уже повсеместно применяемую технологию довольно сложно.

Но это в теории. На практике же саморегулирование отрасли будет эффективным лишь при наличии пяти компонентов, суммирует Линдерс:
1) набор принципов — норм поведения, не противоречащих коммерческим приоритетам представителей отрасли;
2) наличие у исследователей и разработчиков внутренней мотивации действовать сообща;
3) независимый и авторитетный орган управления;
4) гласность (транспарентность) процедур саморегулирования и деятельности представителей отрасли;
5) убедительные механизмы приведения норм поведения в исполнение.

На момент написания Линдерсом диссертации одной из наиболее известных отраслевых организаций, претендующих на авторитетность, было (да и сейчас является) Партнёрство в сфере искусственного интеллекта (Partnership on AI). Поэтому он решил взять эту организацию в качестве объекта для анализа: проявляются ли в её работе все 5 критериев эффективного саморегулирования.

Изучив вопрос методом контентного анализа, Линдерс пришёл к выводу: Партнёрство этим критериям не соответствует.

Ввиду ограничений, диктуемых антимонопольным законодательством, Партнёрство при всём желании не может, по мнению Линдерса, ввести систему частных штрафов за нарушение собственных норм крупнейшими игроками рынка, входящими в его состав.

Более того Партнёрство не берёт на себя функции проверки соблюдения этих норм его членами, оставляя это прерогативой их самих.

Гласность в вопросе процедур Партнёрства также могла бы быть лучше (не публикуются протоколы заседаний его органов).

Также отсутствуют какие-либо механизмы приведения норм Партнёрства в исполнение: уже в первые два года его существования его члены были неоднократно замечены в нарушении его принципов, но какой-либо реакции Партнёрства на это не последовало.

Случай, отражённый в диссертации Линдерса, кажется мне интересным и показательным.

Каждый желающий может повторить этот эксперимент и проанализировать, на основе общедоступной информации, соблюдаются ли в деятельности любой иной отраслевой организации 5 критериев эффективного саморегулирования.

Справедливости ради также отмечу, что за последние годы на сайте Партнёрства было опубликовано довольно много полезных исследований и методических материалов. И, что наиболее интересно, создана отдельная база ИИ-инцидентов. Там все желающие могут посмотреть систематизированный перечень тех мелких ляпов, грубейших ошибок и намеренного вреда, которые время от времени допускают ИИ-разработчики или пользователи ИИ-систем.
🔥8
Автоматизируют не 50, а 90% профессий?

У Alex Krol вышел интересный авторский прогноз на эту тему.

Со многим согласен. Пересказывать не буду — просто прочитайте у него. Здесь дам лишь несколько скромных комментариев-возражений по отдельным тезисам:

1. Доктор, мне кажется, хорошо делает свою работу не только потому, что хорошо диагностирует и затем лечит по протоколу. Но и потому, что обладает эмпатией (bedside manners), и здравым смыслом, который может модерировать и когда надо немного или много, но обоснованно нарушать протокол (редко, но нужно). Для этого нужно понимание смыслов, для начала.

Поскольку, как Алекс верно отметил, машины не умеют понимать, и ещё неизвестно, когда сумеют и сумеют ли вообще, его прогноз поедет сильно вправо по времени.

2. Взаимосвязано с первым. В профессиях, напрямую взаимодействующих с людьми, важен human touch. В прямом смысле и в переносном. Что-то там у нас в мозгах такое эволюционно заложено, и нет, новое поколение людей не будет в этом смысле исключением. Понимание преимуществ машин не конвертируется в отказ от human touch. Человеку нужен человек.

В случае с доктором это прямо очень хорошо чувствуется. Поэтому нет, терапевты и многие специалисты останутся при деле даже через 100 лет.

Human touch также проявляется в личности. Мне, скажем, личность важна не только в картинах. Мы ходим на курсы французского, и у нас два преподавателя. У них разные личности, и личность одного мне больше нравится, манера преподнесения очень живая и авторская, и с ним я лучше запоминаю материал за счёт этого.

3. Мелкая моторика пока сложно роботизируется. Это тоже несколько сдвигает вправо прогноз по всем профессиям, где она нужна. Но со временем научатся, хирургические комплексы те же уже есть и работают — под управлением и контролем человека со здравым смыслом и подготовкой, правда.

4. Про вторую грамотность (ИТ-навыки) — уже опытные специалисты в любой отрасли ещё имеют шансы жить и далее благополучно, если поймут, что со времен книги Дейла Карнеги и поныне зарабатывает больше тот, кто умеет управлять людьми (в том числе через генерацию идей и убеждение), а не является просто специалистом.

Управляющий людьми со второй грамотностью зарабатывает больше, чем просто человек со второй грамотностью.

А вот войти сейчас в любую профессию — да, тут нужно быть на высоте в части знаний того, как в этой профессии используются ИТ-инструменты, как раньше — не получится.
👍4
Семинар по Self-sovereign identity для специалистов по приватности

Self-sovereign identity — одна из перспективных технологий обеспечения конструктивной приватности и приватности личных данных по умолчанию.

13 декабря 2022 г., с 17:00 до 18:00 CET (с 19:00 до 20:00 МСК) Международная ассоциация специалистов по приватности (IAPP) проводит вебинар.

Коллеги обсудят, куда движется развитие этой технологии и что о ней необходимо знать специалистам по приватности.

Записался, и вам рекомендую пройти по ссылке (потребуется доступ к Линкдин).

До вебинара также можно ознакомиться с докладом IAPP на тему SSI.
👍7🔥2
Robocounsel
Семинар по Self-sovereign identity для специалистов по приватности Self-sovereign identity — одна из перспективных технологий обеспечения конструктивной приватности и приватности личных данных по умолчанию. 13 декабря 2022 г., с 17:00 до 18:00 CET (с 19:00…
Сколько будет стоить сертифицировать для рынка ЕС новую ИИ-систему?

После вступления в силу Регламента ЕС об искусственном интеллекте некоторые ИИ-системы — представляющие повышенную опасность* — придётся сертифицировать.

Также разработчикам таких систем придётся, если они этого ещё не сделали, внедрить систему менеджмента качества (СМК, QMS) предприятия.

Исследователи подсчитали расходы для одной ИИ-системы:

1) Затраты на комплаенс (операции, обеспечивающие соблюдение обязательных требований Регламента ЕС):
- для разработчика: 6—7 тыс. евро в год;
- для эксплуатанта: 5—8 тыс. евро в год.

Если разработчик является и эксплуатантом, расходы суммируются.

2) Независимый аудит ИИ-системы (для подтверждения соответствия): 3—7,5 тыс. евро, однократно.

3) Поддержание СМК:
- внедрение СМК с нуля: 144,3—330 тыс. евро, первый год;
- адаптация уже внедрённой СМК: 88—174,8 тыс. евро, первый год;
- ежегодный аудит СМК: 71,4 тыс. евро в год.

При этом в обсуждаемой сейчас редакции проекта Регламента стартапы со штатом менее 10 человек и годовым оборотом до 2 млн. евро предлагается освободить от обязанности внедрения СМК.

Так что если вы не такой стартап и желаете продавать и эксплуатировать системы ИИ повышенной опасности на европейском рынке в обозримом будущем — закладывайте соответствующие расходы в бюджет и внедряйте СМК.

* Речь идёт о следующих системах:
- системы, сами по себе являющиеся продукцией, подлежащей оценке соответствия на основании союзного законодательства (медицинские изделия, игрушки, машинное оборудование и др.), либо обеспечивающие безопасность такой продукции;
- системы дистанционной биометрической идентификации;
- системы, обеспечивающие безопасность критической инфраструктуры;
- системы, применяющиеся для отбора на учёбу или работу;
- системы, применяющиеся для решений о предоставлении мер государственной поддержки и госуслуг;
- системы кредитного скоринга;
- системы, используемые для оценки рисков и ценообразования медицинского страхования и страхования жизни;
- ряд других систем, применяемых для предоставления социально значимых услуг и обеспечения правопорядка, миграции, правосудия и демократических процедур.
👍10
В последние дни многие эксперимертируют с новой большой языковой моделью ChatGPT.

В отличие от предшественников, она ведёт довольно убедительный диалог и может давать действительно полезные ответы.

В соцсетях начались обсуждения: а что будет со школьными сочинениями, ведь начнут и их генерировать. А что будет с использованием результатов работы модели в других областях?

Вспомнили и проект Регламента ЕС об ИИ, который якобы требует раскрытия искусственного происхождения текста.

Что я думаю?

Проект Регламента (а именно посвящённая этой теме статья 52) ничего такого не требует.

Проектируемые нормы говорят о двух вещах.

Во-первых, Регламент требует раскрытия использования аудио- или видео дипфейков. В случае с ними проблема не в их искусственном происхождении, а в ложности и при этом правдоподобности показанного или озвученного.

Искусственность происхождения текста тоже сама по себе никого не интересует, а если текст лжив, то для регулирования последствий есть нормы о диффамации, фейках и так далее.

Во-вторых, Регламент требует раскрытия того факта, что с вами общается робот, а не человек, когда это не очевидно из обстановки. Потому что робот, в отличие от человека, ничего не забывает, быстрее соображает и позволяет использовать полученную от вас информацию в другом контексте.

Соответственно, любому человеку важно понимать, что он общается не с равным по себе по возможностям, а с гораздо более способной машиной. Поэтому, разумеется, в разговоре с роботом нужно быть на порядок более осторожным и дважды думать, какую информацию вы ему сообщаете.

Именно для контроля этого риска и существует норма о раскрытии вам информации о том, что с вами общается робот.

Ситуация, при которой кто-то сгенерирует текст ИИ, а потом его где-то использует, такого риска не создаёт, и поэтому Регламентом не регулируется.

Что же касается школьных сочинений, то учителям придётся просто подстроиться. Да, задавать их на дом будет бессмысленно. Значит, их будут задавать в классе или измерять успеваемость иными методами.
👍11
ChatGPT говорит, что замена судей на ИИ вредна

"Это правда, что судьи-люди способны понимать нюансы и сложности отдельных дел и принимать решения, выходящие за рамки строгого применения существующих законов и прецедентов. Эта способность интерпретировать и применять закон гибким и нюансированным образом является одним из ключевых преимуществ человеческой судебной системы.

Однако системы ИИ не обладают такой же гибкостью и нюансированностью при принятии решений. Системы искусственного интеллекта предназначены для следования определенным правилам и алгоритмам и не могут отклоняться от этих правил, чтобы получить честный или справедливый результат в конкретном случае. Это означает, что если бы системы ИИ использовались для принятия судебных решений, они не смогли бы адаптироваться к уникальным фактам и обстоятельствам каждого дела и были бы ограничены принятием решений на основе существующих законов и прецедентов.

Таким образом, использование ИИ в судебной системе потенциально может помешать развитию и прогрессу в праве. Без способности адаптироваться и развиваться в соответствии с меняющимися обстоятельствами и потребностями право может стать негибким и неспособным адекватно решать сложные и динамичные проблемы, стоящие перед обществом".
👍7
И в завершение обсуждения феномена ChatGPT

Обсудил и почитал мнения по поводу этой языковой модели. Вынес следующее.

1. Модель — эксперт по буллшиту. Умеет поддерживать диалог и давать кажущиеся когерентными и релевантными ответы, но не приоритизирует истинность утверждений. Роберт Бейтман со мной согласен.

Выдаст занимательное, но очень часто с небольшими неточностями или даже грубыми ошибками. При этом, как подметил Иан Богост — когда и если вы подметите ошибку и попросите модель объясниться, она признает эту ошибку и даже расскажет, в чём она заключается.

Как обращает внимание Иан, это вроде бы здорово, но на самом деле ужасно: получается, если вы не компетентны различить в рассуждениях модели изъян, то легко примете ответ за чистую монету и может быть даже пойдёте что-то там делать в реальной жизни, совершая свою самую страшную в жизни ошибку.

2. У многих возникло мнение, что модель — будущее поисковых систем.

Вы не помните фильм, но помните сюжет: уже сейчас в Гугле вы можете иногда найти его таким образом. Языковые модели, подобные ChatGPT, могут ещё больше упростить такую задачу.

Иан в процитированной выше статье пишет о примере из той же серии, когда он в поисках конкретного типа занавесок попросил модель сначала перечислить все их виды, а потом уточняющими вопросами вышел на то, что его интересовало.

Тогда всё нормально: вы понимаете, что модель — просто мощный экскаватор, который на всемирной свалке информации помогает вам достать из огромной кучи то, что с виду похоже на то, что вам нужно, лопатой своего критического мышления и дополнительных вопросов отсечь то, что пахнет слишком подозрительно и на выходе оставить только то, что вы, вероятно, искали.

Всегда держа в голове, что вы всё-таки на свалке, и качества и достоверности результатов никто не гарантирует.

3. Модель помогает некоторым преодолеть писательский блок или покачать какую-то тему: даёте промт со своей идеей и просите "мнение". На выходе могут быть ценные перлы.
👍5
На днях Линкдин подкинул мне в ленту восторженный пост человека, восхищавшегося исследованиями по распознаванию эмоций на лице за счёт ИИ-систем. Смотрите, говорит, на пост по ссылке. А теперь, представьте: скоро и в собеседованиях на работу это появится, и на общих собраниях сотрудников. "Будет одно сплошное телевидение" (с).

Только чему тут восхищаться, мне не очень понятно. Нет, я не про область исследования в целом, а про конкретные примеры, которые он привёл.

Ведь в обоих этих примерах люди, эмоции которых предлагается распознавать, уже и так находятся в более слабом положении. Как правило, потенциальный или актуальный работодатель имеет о них гораздо больше информации, чем они о нём. И у него больше ресурсов и возможностей, чтобы использовать эту информацию в своих интересах и против этих кандидатов или работников.

И наш мечтатель, получается, парализован восторгом от того, как эту информационную асимметрию и дисбаланс возможностей можно усугубить ещё больше. Но зачем?

И, главное, какие могут быть преимущества от прочтения эмоций кандидата на собеседовании? Что, у нас есть твёрдая научная база из множества многолетних исследований, подтверждающих, что эмоции на собеседовании предсказывают будущую производительность на работе? И это ещё если на секунду допустить, что мы можем точно считывать эмоции по лицу. Разве есть исследования, которые подтверждают достаточную точность ИИ в решении этой задачи?

В общем, тут та ситуация, когда, даже если бы сценарий использования ИИ имел научную основу (которой, кажется, нет), он изначально этически не приемлем.
👍9🤔1
CJEU - RTBF.pdf
118.8 KB
Удалить из поисковой системы ложную информацию можно, если докажете, что она ложная

Европейский суд справедливости (ЕСС) по запросу немецких коллег истолковал норму о праве на забвение в случае спора о достоверности информации.

ЕСС напомнил, что право на защиту персональных данных, как и остальные права человека, не является абсолютным. В каждом конкретном споре оно должно сопоставляться с фундаментальными правами других лиц, в том числе с правом на распространение информации.

Суд отметил, что если поисковик позволяет найти ресурсы с заведомо ложными сведениями о гражданине, он вправе требовать исключения ссылок на эти сведения из поискового индекса, даже если не существует судебного решения, устанавливающего ложность этих сведений.

Вместе с тем, оператор поисковой системы в этом случае не обязан удовлетворять такой запрос, если гражданин не привёл никаких убедительных доказательств ложности этой информации или если приведённые доказательства не позволяют однозначно судить об этом.

В отсутствие какой-либо аргументации, подтверждающей ложность сведений, оператор поисковой системы не обязан сам изыскивать и оценивать соответствующие факты.

Отдельно ЕСС отметил, что более строго следует подходить к индексации и выводу по запросам фотографий граждан, в отношении которых распространяются сведения, вне контекста изначальной публикации.

Такое обособление и распространение фотографий граждан может быть неоправданным и требует более тщательного анализа в каждом конкретном случае.
👍3
Всем Шиншилла, или наиболее интересное в ИИ в 2022 году

Джек Сослоу в своём твиттере опубликовал авторский обзор со ссылками на наиболее интересные исследования.

Из наиболее яркого для меня: исследователи из Гугл выяснили, как добиться наибольшей эффективности больших языковых моделей, наподобие той, на которой работает ChatGPT.

Работая над своей новой моделью "Шиншилла", они выяснили, что при одной и той же доступной вычислительной мощности выигрывают модели меньшей сложности (с меньшим количеством параметров), но обученные на большем количестве данных.

Увеличение сложности модели также имеет смысл, но только пропорционально увеличению количества данных. Многие выпущенные на сегодня модели этому принципу не отвечают, поэтому их можно назвать "недотренированными".

В результате, основным ограничением для дальнейшего повышения качества таких моделей сегодня становятся именно доступные данные, а не вычислительные мощности.

За полным обзором исследований от Джека переходите по ссылке.
👍8
Вышла обновлённая версия моего руководства по подготовке к CIPP/E

Как многие из вас помнят, в этом году я успешно сдал этот экзамен, дающий сертификацию в качестве специалиста по работе с персональными данными в ЕС.

Если вы планируете поиск подобной работы, наличие такого сертификата обычно либо обязательно, либо крайне желательно.

Мне для сдачи хватило 2 недель упорной подготовки, с учётом уже имеющихся знаний.

Когда я готовился, я сделал для себя базу знаний в Ноушен, где обобщил советы коллег и найденную мною самим информацию для успешной сдачи экзамена, в том числе:
- где брать информацию,
- какие нормативные акты и что именно в них читать,
- какие учебные пособия и чем хороши и плохи,
- какие разделы официального пособия и других источников отвечают на какие именно вопросы, указанные в IAPP exam blueprint (это не всегда очевидно),
- методика усвоения материала,
- чего ожидать на самом экзамене.

Сегодня я обновил эту базу знаний с учётом последних изменений в экзаменационных билетах этой осенью.

Получить доступ к полностью актуальному руководству по самоподготовке к экзамену можно по этой ссылке.
👍11🔥72