Forwarded from Brodetskyi. Tech, VC, Startups
Украинская киберполиция задержала группировку ботоводов. Узнал на фотографиях изъятого оборудования SIM-банки, специальные устройства для одновременного управления многими SIM-картами. Подключив такой банк к сети, можно массово регистрировать новые аккаунты, рассылать с SIM-карт сообщения — то есть, делать всё то, что вручную заняло бы в сотни раз больше времени. Я видел такую штуку на одном из мест работы — знакомый маркетолог с помощью такого банка управлял своим пулом фейковых аккаунтов, через которые разгонял посты в соцсетях. Здесь же это дело поставили на поток (на фото видны коробки с тысячами SIM-карт) — организаторы схемы предоставляли услуги спам-рассылок, массовых регистраций, накруток и так далее. Ну а попались, если верить пресс-релизу, на звонках о ложном минировании — кто-то из их клиентов занимался на арендованном оборудовании телефонным терроризмом. Погуглил, новый банк на 128 SIM-карт стоит ~$2000, б/у можно найти за $700-800. Здесь больше фото.
Forwarded from Brodetskyi. Tech, VC, Startups
Кстати, про ботоводов. Недавно вышло неплохое расследование украинских журналистов — один из них устроился работать в контору, которая занималась поддежкой политиков в соцсетях. Там он писал комментарии по заданным тезисам — кого-то поддерживал, кого-то наоборот "мочил". Ежедневно приходилось писать по 200-300 комментариев, а зарплата за такой нелегкий труд — всего 9000 грн (~$370). Здесь можно посмотреть сюжет, а здесь — почитать текст расследования.
Кстати, у ребят, которые руководили этой конторой, была ещё пачка довольно популярных новостных сайтов с сомнительным контентом, и Facebook недавно заблокировал их самые популярные страницы. С этим блокированием тоже не всё так однозначно; если вам интересен этот бизнес, почитайте колонку моего знакомого медиаменеджера по этому поводу.
В конечном итоге для стороннего наблюдателя до конца непонятно, за что конкретно забанили Znaj Media. В официальной коммуникации подчеркивается, что за связь с Pragmatico (но разве пиар-компания не может запускать свои медиа?) и за фейковых админов страниц.
Ну и конечно надо признать, что контент, который годами публикуют в Znaj Media - это иллюстрация всего, что не так с украинской (и не только) журналистикой. Всем участникам процессов производства, дистрибуции и потребления контента еще предстоит ответить на вопросы, что же такое “новостное издание”; в чем разница между “ботом” и “читателем” или “подписчиком”, который желает скрыть собственную личность; и, в конце концов, какое поведение является по-настоящему “неаутентичным”.
Кстати, у ребят, которые руководили этой конторой, была ещё пачка довольно популярных новостных сайтов с сомнительным контентом, и Facebook недавно заблокировал их самые популярные страницы. С этим блокированием тоже не всё так однозначно; если вам интересен этот бизнес, почитайте колонку моего знакомого медиаменеджера по этому поводу.
В конечном итоге для стороннего наблюдателя до конца непонятно, за что конкретно забанили Znaj Media. В официальной коммуникации подчеркивается, что за связь с Pragmatico (но разве пиар-компания не может запускать свои медиа?) и за фейковых админов страниц.
Ну и конечно надо признать, что контент, который годами публикуют в Znaj Media - это иллюстрация всего, что не так с украинской (и не только) журналистикой. Всем участникам процессов производства, дистрибуции и потребления контента еще предстоит ответить на вопросы, что же такое “новостное издание”; в чем разница между “ботом” и “читателем” или “подписчиком”, который желает скрыть собственную личность; и, в конце концов, какое поведение является по-настоящему “неаутентичным”.
YouTube
«Я – бот»
Щодня в соціальних мережах з'являються тисячі улесливих або образливих коментарів про українських політиків. Вони допомагають сформувати певний образ політичного діяча чи партії у віртуальному світі.
Хто пише ці дописи? Під час парламентської кампанії журналіст…
Хто пише ці дописи? Під час парламентської кампанії журналіст…
Forwarded from Threats
Тем временем, правительство Ирака решило устроить очередной Шатдаун.
Причина банальна. Массовые протесты против безработицы, коррупции и плохих государственных услуг.
В настоящее время потеряна связность с примерно 75% иракскими провайдерами, включая всех крупных операторов связи. Доступ остаётся только в некоторых городах на севере Ирака, имеющих отдельную сетевую инфраструктуру, не зависяющую от сетевых операторов в Багдаде.
Вначале власти попытались блокировать доступ к Facebook, Twitter, WhatsApp, Instagram и другим мессенджерам и социальным сетям, но после неэффективности такого шага перешли к полной блокировке доступа для нарушения координации действий в среде протестующих.
https://netblocks.org/reports/iraq-blocks-facebook-twitter-whatsapp-and-instagram-amid-civil-unrest-zA4zGlyR
Причина банальна. Массовые протесты против безработицы, коррупции и плохих государственных услуг.
В настоящее время потеряна связность с примерно 75% иракскими провайдерами, включая всех крупных операторов связи. Доступ остаётся только в некоторых городах на севере Ирака, имеющих отдельную сетевую инфраструктуру, не зависяющую от сетевых операторов в Багдаде.
Вначале власти попытались блокировать доступ к Facebook, Twitter, WhatsApp, Instagram и другим мессенджерам и социальным сетям, но после неэффективности такого шага перешли к полной блокировке доступа для нарушения координации действий в среде протестующих.
https://netblocks.org/reports/iraq-blocks-facebook-twitter-whatsapp-and-instagram-amid-civil-unrest-zA4zGlyR
Twitter
NetBlocks.org
Update: #Iraq has now been largely cut off from the world for 12 hours following the outbreak of mass-protests; real-time network data show ~75% of country including #Baghdad remain offline (excl. autonomous regions); curfew now in effect 📉 📰 https://t.co/7GF42YLDWU
Forwarded from wintermute
Wired пишет о том, как Amazon и Apple тихо создают протоколы, сети и чипы, которые с развитием интернета вещей смогут следить вообще за всем
например, протокол Amazon Sidewalk уже в 2020 году должен немедленно уведомлять вас, если ваша собака, несущая на себе трекер для собак Ring Fetch, покинет пределы вашего двора. а ведь может он включать для вас умные лампы не только дома, но и в том же саду? а может он держать соединение с вашими девайсами и вами, если вы немного отойдете от дома? а если вы уедете за 100 км?
технически тот же протокол может сообщать, что происходит с вашими детьми или пожилыми родителями, когда вас нет рядом, не закончилась ли вода в садовой поливалке, не переполнился ли почтовый ящик, не пришел ли к вам в гости друг или, наоборот, не ходит ли вокруг вашего дома кто-то подозрительный
то есть, вы можете общаться и оставаться единым целом с умным домом (или он с вами), даже если вы не дома. дома будет сидеть персональный электронный батлер. а дальше умным станет все, и мы будем общаться со всеми умными вещами в непрерывном режиме. для этого, вещи должны будут нас "видеть" и "узнавать", для чего каждый из будет нести на себе или в себе личный идентификатор, говорящий - "это я" и "я здес"ь. ну и дальше все как в любимых нами дистопиях #surveillance
https://www.wired.co.uk/article/amazon-sidewalk-apple-u1-networks
например, протокол Amazon Sidewalk уже в 2020 году должен немедленно уведомлять вас, если ваша собака, несущая на себе трекер для собак Ring Fetch, покинет пределы вашего двора. а ведь может он включать для вас умные лампы не только дома, но и в том же саду? а может он держать соединение с вашими девайсами и вами, если вы немного отойдете от дома? а если вы уедете за 100 км?
технически тот же протокол может сообщать, что происходит с вашими детьми или пожилыми родителями, когда вас нет рядом, не закончилась ли вода в садовой поливалке, не переполнился ли почтовый ящик, не пришел ли к вам в гости друг или, наоборот, не ходит ли вокруг вашего дома кто-то подозрительный
то есть, вы можете общаться и оставаться единым целом с умным домом (или он с вами), даже если вы не дома. дома будет сидеть персональный электронный батлер. а дальше умным станет все, и мы будем общаться со всеми умными вещами в непрерывном режиме. для этого, вещи должны будут нас "видеть" и "узнавать", для чего каждый из будет нести на себе или в себе личный идентификатор, говорящий - "это я" и "я здес"ь. ну и дальше все как в любимых нами дистопиях #surveillance
https://www.wired.co.uk/article/amazon-sidewalk-apple-u1-networks
WIRED UK
Amazon and Apple are quietly building networks that know the location of everything
Amazon's new Sidewalk protocol and Apple's experiments with ultra-wideband signal a new battleground that gets Amazon out of the house and Apple inside it
Forwarded from DRC LAW: IT-юристы
❗На мэрию Москвы подали в суд из-за системы распознавания лиц
Москвичка Алёна Попова подала иск с требованием признать незаконным распознавание лиц через московскую систему видеонаблюдения. Это является обработкой биометрических данных без письменного согласия граждан и нарушает закон о персональных данных и право на частную жизнь.
В прошлом году Алёну привлекли к административной ответственности за одиночный пикет, и суд в ходе рассмотрения дела использовал записи с камер видеонаблюдения, применяя технологию распознавания лиц. Интересы Поповой по делу о незаконном использовании распознавания лиц представляет Саркис Дарбинян.
➡️ https://clck.ru/JQnyW
Москвичка Алёна Попова подала иск с требованием признать незаконным распознавание лиц через московскую систему видеонаблюдения. Это является обработкой биометрических данных без письменного согласия граждан и нарушает закон о персональных данных и право на частную жизнь.
В прошлом году Алёну привлекли к административной ответственности за одиночный пикет, и суд в ходе рассмотрения дела использовал записи с камер видеонаблюдения, применяя технологию распознавания лиц. Интересы Поповой по делу о незаконном использовании распознавания лиц представляет Саркис Дарбинян.
➡️ https://clck.ru/JQnyW
www.vedomosti.ru
Москвичка просит суд запретить распознавание лиц городской системой видеонаблюдения
Использование этой технологии нарушает конституционное право на частную жизнь, считает заявительница
Forwarded from РУКИ
За сколько tech-гиганты готовы купить изображение вашего лица? Всего за $5, или за одну чашку латте, как выяснили журналисты.
Сотрудники Google подходили к бездомным и студентам, а затем предлагали им “потестировать приложение” и поучаствовать в “селфи-игре” в обмен на сертификат на $5 в Starbucks или Amazon.
Затем на специальное устройство записывали короткие видеоролики, на которых хорошо было видно лицо человека. С их помощью компания будет обучать алгоритм распознавания лиц Face Unlock на новом поколении смартфонов Pixel 4.
Об истории узнали еще в июле, но осенью открылись новые факты. Оказалось, что Google поручила сбор данных фрилансерам и попросила специально искать темнокожих людей, поскольку их лица алгоритму распознавать сложнее.
Фрилансеры решили набирать волонтеров среди бездомных, учащихся колледжей, а также среди гостей церемонии BET Awards, на которой вручают награды афроамериканцам.
Вот только об участии в эксперименте людям не сообщали. Более того, их намеренно обманывали, чтобы отвлечь внимание и собрать как можно больше видеоселфи. Фрилансеров, которые соберут больше всего сканов лиц, обещали официально устроить в Google.
Сертификаты в $5 тоже, как оказалось, выбрали неслучайно. Ваучер на такую суммму можно обменять на наличные, а значит, больше шансов заинтересовать бездомных или бедных студентов.
Google утверждает, что ничего об этом не знала, поскольку нанимала людей через посредника. Корпорация вообще часто нанимает временный персонал – внештатных работников в Google уже официально больше, чем штатных.
Интересно, куда Google, Amazon и других гигантов заведет желание экономить и постоянно полагаться на низкооплачиваемый труд фрилансеров. Особенно когда им начнут поручать более серьезные задачи – например, удаленное управление робомобилями.
Сотрудники Google подходили к бездомным и студентам, а затем предлагали им “потестировать приложение” и поучаствовать в “селфи-игре” в обмен на сертификат на $5 в Starbucks или Amazon.
Затем на специальное устройство записывали короткие видеоролики, на которых хорошо было видно лицо человека. С их помощью компания будет обучать алгоритм распознавания лиц Face Unlock на новом поколении смартфонов Pixel 4.
Об истории узнали еще в июле, но осенью открылись новые факты. Оказалось, что Google поручила сбор данных фрилансерам и попросила специально искать темнокожих людей, поскольку их лица алгоритму распознавать сложнее.
Фрилансеры решили набирать волонтеров среди бездомных, учащихся колледжей, а также среди гостей церемонии BET Awards, на которой вручают награды афроамериканцам.
Вот только об участии в эксперименте людям не сообщали. Более того, их намеренно обманывали, чтобы отвлечь внимание и собрать как можно больше видеоселфи. Фрилансеров, которые соберут больше всего сканов лиц, обещали официально устроить в Google.
Сертификаты в $5 тоже, как оказалось, выбрали неслучайно. Ваучер на такую суммму можно обменять на наличные, а значит, больше шансов заинтересовать бездомных или бедных студентов.
Google утверждает, что ничего об этом не знала, поскольку нанимала людей через посредника. Корпорация вообще часто нанимает временный персонал – внештатных работников в Google уже официально больше, чем штатных.
Интересно, куда Google, Amazon и других гигантов заведет желание экономить и постоянно полагаться на низкооплачиваемый труд фрилансеров. Особенно когда им начнут поручать более серьезные задачи – например, удаленное управление робомобилями.
The Verge
Google has suspended its controversial ‘field research’ that allegedly scanned homeless people
A $5 gift certificate for your facial scan
Сенат США: активность российской «фабрики троллей» выросла на 200% в Instagram
С момента выборов 2016 года, после которых структуру бизнесмена Евгения Пригожина обвинили во вмешательстве в американские выборы, деятельность "фабрики троллей" только разрослась.
К такому выводу пришёл комитет Сената США по разведке. Сообщается, что «Агентство интернет-исследований», которое курирует Пригожин, не только не свернуло, но и расширило свою деятельность.
Так, сенаторы сделали вывод, что пропаганда в Instagram увеличилась на 200%, а в Twitter, Facebook и YouTube — более, чем на 50%.
Важной деталью является то, что пропаганда, по словам сенаторов, направлена на афроамериканцев и имеет целью обострение напряженности и повышение шансов на переизбрание Дональда Трампа. Ричард Бёрр — сенатор, сообщивший о результатах расследования, отметил: «наводняя соцсети фейковыми сообщениями, конспирологией и троллями, а также эксплуатируя существующие разногласия, Россия пытается породить недоверие к демократическим институтам и нашим соотечественникам».
В докладе кампания по пропаганде описывается как необычайно искусная операция и самая успешная кампания влияния на выборы в истории, которую будут изучать ещё десятилетия по всему миру. Сообщается, что кроме классических социальных сетей, пропагандой были охвачены также Pinterest, Tumblr и Medium.
Напомним, что власти России категорически отрицают вмешательство в американские выборы.
Источник
С момента выборов 2016 года, после которых структуру бизнесмена Евгения Пригожина обвинили во вмешательстве в американские выборы, деятельность "фабрики троллей" только разрослась.
К такому выводу пришёл комитет Сената США по разведке. Сообщается, что «Агентство интернет-исследований», которое курирует Пригожин, не только не свернуло, но и расширило свою деятельность.
Так, сенаторы сделали вывод, что пропаганда в Instagram увеличилась на 200%, а в Twitter, Facebook и YouTube — более, чем на 50%.
Важной деталью является то, что пропаганда, по словам сенаторов, направлена на афроамериканцев и имеет целью обострение напряженности и повышение шансов на переизбрание Дональда Трампа. Ричард Бёрр — сенатор, сообщивший о результатах расследования, отметил: «наводняя соцсети фейковыми сообщениями, конспирологией и троллями, а также эксплуатируя существующие разногласия, Россия пытается породить недоверие к демократическим институтам и нашим соотечественникам».
В докладе кампания по пропаганде описывается как необычайно искусная операция и самая успешная кампания влияния на выборы в истории, которую будут изучать ещё десятилетия по всему миру. Сообщается, что кроме классических социальных сетей, пропагандой были охвачены также Pinterest, Tumblr и Medium.
Напомним, что власти России категорически отрицают вмешательство в американские выборы.
Источник
Reuters
Russian propaganda increased after 2016 U.S. election: Senate committee
(Reuters) - The Senate committee investigating Russian interference in the 2016 U.S. election said on Tuesday that the Kremlin’s best-known propaganda arm increased its social media activity after that vote, adding to concerns about foreign meddling in the…
Искусственный интеллект, большие данные и Европа после Чернобыля: что покажут на Киевской биеннале
С 11 октября по 23 ноября в Киеве состоится биеннале современного искусства «Черное облако». Цель биеннале в этом году — осмыслить социальные и политические трансформации, произошедшие в Восточной Европе в течение последних трех десятилетий, в частности, под влиянием Чернобыльской катастрофы, распада СССР и развития современных информационных технологий.
Выставка «Черное облако» объединит международных художниц и художников, работающих с темами массовой коммуникации, искусственного интеллекта, окружающей среды и Чернобыльской катастрофы.
Выставка пройдет в Научно-технической библиотеке КПИ — уникальном здании эпохи советского модернизма.
В число работ выставки входит известная интерактивная инсталляция немецкого коллектива Tactical Tech «Стеклянная комната», в которой исследуются механизмы сбора персональных данных и проблема приватности в интернете. Ряд работ будет посвящен исследованию взаимосвязи между технологиями, политикой и экологией.
Событие в fb
Программа в fb
С 11 октября по 23 ноября в Киеве состоится биеннале современного искусства «Черное облако». Цель биеннале в этом году — осмыслить социальные и политические трансформации, произошедшие в Восточной Европе в течение последних трех десятилетий, в частности, под влиянием Чернобыльской катастрофы, распада СССР и развития современных информационных технологий.
Выставка «Черное облако» объединит международных художниц и художников, работающих с темами массовой коммуникации, искусственного интеллекта, окружающей среды и Чернобыльской катастрофы.
Выставка пройдет в Научно-технической библиотеке КПИ — уникальном здании эпохи советского модернизма.
В число работ выставки входит известная интерактивная инсталляция немецкого коллектива Tactical Tech «Стеклянная комната», в которой исследуются механизмы сбора персональных данных и проблема приватности в интернете. Ряд работ будет посвящен исследованию взаимосвязи между технологиями, политикой и экологией.
Событие в fb
Программа в fb
Telegram
Цифровая тень
Интересный проект сейчас показывают в Лондоне. "Стеклянная комната" (The Glass Room) – магазин цифровой техники, где ничего не продается. На первый взгляд, все выглядит как какой-нибудь apple store, в котором выставлены блестящие потребительские новинки:…
Как данные могут становиться оружием?
17-18 октября в рамках Киевской биеннале Black Cloud состоится симпозиум «Коммуникативный милитаризм» под кураторством Светланы Матвиенко (Канада).
В течение двух вечеров ученые и исследователи из разных стран рассмотрят те характерные социальные, политические и технологические условия информационного капитализма, которые позволяют использовать различные виды современного коммуникативного милитаризма.
Также речь пойдет и о возможных тактиках и стратегиях сопротивления.
Сегодня в программе выступление Герта Ловинка, теоретика медиа, активиста, основателя и директора амстердамского Института сетевых культур. В своем докладе "Грусть по умолчанию: преодолевая нигилизм платформ" он будет говорить о темной стороне Интернета, в частности, о распространенном феномене технологической печали, вызванного ведущими социальными сетями путем "модификации поведения" (так называемого "побуждения") с целью заставить пользователей бесконечно находиться в приложении, при этом показывая им все более персонализированную рекламу.
Ловинк утверждает, что вместо расширения возможностей и разнообразия мы наблюдаем тревожный эффект гиперконформизма, и спрашивает, как нам демонтировать эти «рынки предсказания» и возродить социальное.
Подробнее https://bit.ly/31mqtvz
17-18 октября в рамках Киевской биеннале Black Cloud состоится симпозиум «Коммуникативный милитаризм» под кураторством Светланы Матвиенко (Канада).
В течение двух вечеров ученые и исследователи из разных стран рассмотрят те характерные социальные, политические и технологические условия информационного капитализма, которые позволяют использовать различные виды современного коммуникативного милитаризма.
Также речь пойдет и о возможных тактиках и стратегиях сопротивления.
Сегодня в программе выступление Герта Ловинка, теоретика медиа, активиста, основателя и директора амстердамского Института сетевых культур. В своем докладе "Грусть по умолчанию: преодолевая нигилизм платформ" он будет говорить о темной стороне Интернета, в частности, о распространенном феномене технологической печали, вызванного ведущими социальными сетями путем "модификации поведения" (так называемого "побуждения") с целью заставить пользователей бесконечно находиться в приложении, при этом показывая им все более персонализированную рекламу.
Ловинк утверждает, что вместо расширения возможностей и разнообразия мы наблюдаем тревожный эффект гиперконформизма, и спрашивает, как нам демонтировать эти «рынки предсказания» и возродить социальное.
Подробнее https://bit.ly/31mqtvz
Політична критика |
Симпозіум Світлани Матвієнко «Комунікативний мілітаризм» — 17-18 жовтня, 18:30
Адреса: м. Київ, проспект Перемоги 37, Бібліотека КПІ, аудиторія 6.5.
Google сопротивляется профсоюзам
Менеджмент Google попытался сорвать собрание сотрудников цюрихского офиса компании, которые намеревались обсудить вопрос создания профсоюза, сообщает Recode.
Встреча носила название «Профсоюзы в Швейцарии» и была организована представителями местного профсоюза работников медиа и профсоюза телеком-индустрии, носящего название syndicom.
Накануне руководство отделения Google попыталось сорвать проведение собрания, рассылая письма о том, что встреча была отменена. В письме менеджмент компании заявлял, что отменяет встречу, потому что компания предпочитает проводить только те мероприятия по этой теме, которые "организованы в партнёрстве с руководством Google". Также было обещано, что компания организует собственное обсуждение законов о труде и правах работников.
Этот шаг расстроил многих сотрудников как в цюрихском офисе, так и тех, кто работает в других отделениях. Они посчитали, что компания создаёт препятствия для получения ими полной и неотцензурированной информации о ситуации на рабочих местах.
Несмотря на сопротивление со стороны руководства, встреча состоялась в одном из помещений офиса Google в Цюрихе. При этом менеджмент компании не сделал никаких заявлений о том, что не будет предпринимать какие-либо действия против людей, которые организовали или посетили собрание.
Исторически сложилось, что штатные сотрудники крупных технологических компаний, таких как Google, неохотно вступали в профсоюзы или даже открыто их осуждали. Но отношение изменилось, поскольку все большее число людей активней требуют расширения своих трудовых прав и возможности влиять на важные решения компании-работодателя.
Эти работники начали организовывать дискуссии по таким вопросам, как ответственность за сексуальные домогательства, справедливая оплата труда и участие компаний в спорных государственных контрактах.
В прошлом месяце сотрудники Google в Питтсбурге, штат Пенсильвания, некоторые из которых зарабатывают 40 000 долларов в год, проголосовали за создание первого профсоюза белых воротничков в компании. Руководство Google до сих пор оставалось нейтральным, но компания, похоже, заняла более агрессивную позицию в Европе.
Менеджмент Google попытался сорвать собрание сотрудников цюрихского офиса компании, которые намеревались обсудить вопрос создания профсоюза, сообщает Recode.
Встреча носила название «Профсоюзы в Швейцарии» и была организована представителями местного профсоюза работников медиа и профсоюза телеком-индустрии, носящего название syndicom.
Накануне руководство отделения Google попыталось сорвать проведение собрания, рассылая письма о том, что встреча была отменена. В письме менеджмент компании заявлял, что отменяет встречу, потому что компания предпочитает проводить только те мероприятия по этой теме, которые "организованы в партнёрстве с руководством Google". Также было обещано, что компания организует собственное обсуждение законов о труде и правах работников.
Этот шаг расстроил многих сотрудников как в цюрихском офисе, так и тех, кто работает в других отделениях. Они посчитали, что компания создаёт препятствия для получения ими полной и неотцензурированной информации о ситуации на рабочих местах.
Несмотря на сопротивление со стороны руководства, встреча состоялась в одном из помещений офиса Google в Цюрихе. При этом менеджмент компании не сделал никаких заявлений о том, что не будет предпринимать какие-либо действия против людей, которые организовали или посетили собрание.
Исторически сложилось, что штатные сотрудники крупных технологических компаний, таких как Google, неохотно вступали в профсоюзы или даже открыто их осуждали. Но отношение изменилось, поскольку все большее число людей активней требуют расширения своих трудовых прав и возможности влиять на важные решения компании-работодателя.
Эти работники начали организовывать дискуссии по таким вопросам, как ответственность за сексуальные домогательства, справедливая оплата труда и участие компаний в спорных государственных контрактах.
В прошлом месяце сотрудники Google в Питтсбурге, штат Пенсильвания, некоторые из которых зарабатывают 40 000 долларов в год, проголосовали за создание первого профсоюза белых воротничков в компании. Руководство Google до сих пор оставалось нейтральным, но компания, похоже, заняла более агрессивную позицию в Европе.
Vox
Google’s attempt to shut down a unionization meeting just riled up its employees
Management tried to shut down an employee-led talk on unionization at its Zurich office, but it happened anyway.
Forwarded from запуск завтра
Mozilla пугает распознаванием чувств. Приложения распознают выражения наших лиц в реальном времени и используют эту информацию для того, чтобы понять кто мы, что нам нравится, а что нет — всё для продажи рекламы, конечно.
Классный короткий интерактивный фильм https://stealingurfeelin.gs (часть исходных кодов открыта на github).
Идея гениальная — зачем задавать вопросы, когда можно показать картинки и ответы будут написаны у нас на лице. Очень крипово!
Классный короткий интерактивный фильм https://stealingurfeelin.gs (часть исходных кодов открыта на github).
Идея гениальная — зачем задавать вопросы, когда можно показать картинки и ответы будут написаны у нас на лице. Очень крипово!
Forwarded from wintermute
Эдвард Сноуден у Джо Рогана, о том, как наши смартфоны шпионят за нами и многом другом (вся беседа на 2 часа 50 минут). ну и #paranoia, конечно
https://youtu.be/VFns39RXPrU
https://youtu.be/VFns39RXPrU
YouTube
Edward Snowden: How Your Cell Phone Spies on You
Taken from JRE #1368 w/Edward Snowden: https://youtu.be/efs3QRr8LWw
Первая часть беседы Сноудена и Рогана в переводе на русский https://www.youtube.com/watch?v=dtD_DUaDo64
Forwarded from РУКИ
Google решила бороться с зависимостостью от гаджетов и выпустила “бумажный смартфон”. Для этого компания разработала приложение Paper Phone. Через него владельцы устройств на Android могут перенести полезные данные со смартфона на бумагу. Например, распечатать номера телефонов, списки задач, маршруты из Google Карт и (почему-то) судоку.
Приложение оформит все данные в аккуратный буклет, который можно носить с собой вместо смартфона. А если вставить в буклет банковскую карту, то Paper Phone заменит и бумажник.
Paper Phone – часть новой программы по цифровому детоксу от Google. C digital wellness сейчас экспериментируют многие технологические компании и обычно все сводится к фальшивому морализаторству. Google не исключение.
Какой смысл поддерживать отказ от гаджетов, но при этом выпускать новые модели смартфонов каждый год или устанавливать смарт-колонки в спальне и на кухне?
Подход Google к железу в принципе вызывает вопросы. Например, недавно компания так обновила ПО, что часть умных колонок Google Home просто перестала работать. Апдейт прошивки превратил девайсы в “кирпичи”, а компания пообещала заменить их на новые. Старые, видимо, отправятся на свалку или на запчасти, хотя могли бы проработать еще несколько лет.
Приложение оформит все данные в аккуратный буклет, который можно носить с собой вместо смартфона. А если вставить в буклет банковскую карту, то Paper Phone заменит и бумажник.
Paper Phone – часть новой программы по цифровому детоксу от Google. C digital wellness сейчас экспериментируют многие технологические компании и обычно все сводится к фальшивому морализаторству. Google не исключение.
Какой смысл поддерживать отказ от гаджетов, но при этом выпускать новые модели смартфонов каждый год или устанавливать смарт-колонки в спальне и на кухне?
Подход Google к железу в принципе вызывает вопросы. Например, недавно компания так обновила ПО, что часть умных колонок Google Home просто перестала работать. Апдейт прошивки превратил девайсы в “кирпичи”, а компания пообещала заменить их на новые. Старые, видимо, отправятся на свалку или на запчасти, хотя могли бы проработать еще несколько лет.
Withgoogle
Paper Phone by Special Projects - Experiments with Google
Since 2009, coders have created thousands of amazing experiments using Chrome, Android, AI, WebVR, AR and more. We're showcasing projects here, along with helpful tools and resources, to inspire others to create new experiments.
Forwarded from Канал Newочём
Мы регулярно оставляем свои данные в сети, начиная от заполнения паспортных данных для покупки билетов, заканчивая адресом проживания для доставки пиццы. Но никто не знает, что произойдет со всей этой информацией в ближайшие годы. Privacy International построил 4 подробных сценария того, куда нас может завести развитиe Data Science.
Среднее время прочтения — 45 минут
https://newochem.io/dannyh/
Среднее время прочтения — 45 минут
https://newochem.io/dannyh/
Nеwочём
Будущее персональных данных | Nеwочём
Никто не знает, какой будет цифровая среда даже через несколько лет. Но на нее точно влияет то, как мы обращаемся с персональными данными сегодня. Технологии повсюду, а к появлению новых данных может привести любое действие. Privacy International попробовал…
Forwarded from wintermute
интересный материал о расовых предрассудках компьютерных алгоритмов: то есть, авторы упорно называют их расовыми, хотя на самом деле они имущественные, просто в США бедные люди часто оказываются еще и не белыми
суть вопроса: алгоритмы, которые прогнозируют, какие пациенты в большей вероятностью будут нуждаться в большем объеме медицинской помощи или в специальных услугах, решили подвергнуть "алгоритмическому аудиту". в результате выяснилось страшное - алгоритмы делали прогнозы, которые можно назвать расистскими, потому что чернокожих пациентов программа считала менее нуждающимися в медицинской помощи, чем белых. и даже хуже - черных людей с большим количеством хронических заболеваний программа считала менее нуждающимися, чем более здоровых белых. при этом, с помощью подобных алгоритмов принимаются медицинские решения, касающиеся примерно 200 млн человек
исключив намеренное расовое вредительство на всех этапах подготовки программы, исследователи пришли к выводу, что алгоритмы не содержат какого-то особого кода, который давал бы преимущество белой расе, никто из людей не корректировал результаты и вообще алгоритмы работают правильно, ровно так, как должны. проблема не в алгоритме, а в данных, на основании которых программа принимает решение
например, при построении прогноза о том, кто из пациентов будет больше нуждаться в лечении в будущем, программа оценивала расходы на лечение каждого пациента в прошлом. таким образом, она считала, что если человек много тратил, значит, он сильнее болен и больше нуждается в помощи, тогда как на самом деле он лучше обеспечен финансово (и усредненный белый пациент тратил больше, чем усредненный черный)
или, строя прогнозы о том, какие пациенты будут нуждаться в дополнительной амбулаторной помощи на дому, программа считала, что сильнее нуждаются в ней те, кто раньше выписывается из больницы (не долечившись до конца). изучение исторических данных показало, что более богатые люди выписываются раньше - как раз потому, что могут себе позволить услуги приходящих медсестер и специалистов, тогда как бедные стараются лежать в больницах как можно дольше
поэтому и не только поэтому в последнее время все больше разговоров о том, что разного рода алгоритмы и программы с использованием искусственного интеллекта, machine learning и т.д. перед запуском нужно подвергать аудиту и вообще регуляции - потому что никто, кроме разработчиков, не понимает, как они работают, а разработчики не понимают, какие последствия имеет внедрение этих программ. правда, где набрать понятливых аудиторов, тоже не очень понятно #bio #AI
https://spectrum.ieee.org/the-human-os/biomedical/ethics/racial-bias-found-in-algorithms-that-determine-health-care-for-millions-of-patients
суть вопроса: алгоритмы, которые прогнозируют, какие пациенты в большей вероятностью будут нуждаться в большем объеме медицинской помощи или в специальных услугах, решили подвергнуть "алгоритмическому аудиту". в результате выяснилось страшное - алгоритмы делали прогнозы, которые можно назвать расистскими, потому что чернокожих пациентов программа считала менее нуждающимися в медицинской помощи, чем белых. и даже хуже - черных людей с большим количеством хронических заболеваний программа считала менее нуждающимися, чем более здоровых белых. при этом, с помощью подобных алгоритмов принимаются медицинские решения, касающиеся примерно 200 млн человек
исключив намеренное расовое вредительство на всех этапах подготовки программы, исследователи пришли к выводу, что алгоритмы не содержат какого-то особого кода, который давал бы преимущество белой расе, никто из людей не корректировал результаты и вообще алгоритмы работают правильно, ровно так, как должны. проблема не в алгоритме, а в данных, на основании которых программа принимает решение
например, при построении прогноза о том, кто из пациентов будет больше нуждаться в лечении в будущем, программа оценивала расходы на лечение каждого пациента в прошлом. таким образом, она считала, что если человек много тратил, значит, он сильнее болен и больше нуждается в помощи, тогда как на самом деле он лучше обеспечен финансово (и усредненный белый пациент тратил больше, чем усредненный черный)
или, строя прогнозы о том, какие пациенты будут нуждаться в дополнительной амбулаторной помощи на дому, программа считала, что сильнее нуждаются в ней те, кто раньше выписывается из больницы (не долечившись до конца). изучение исторических данных показало, что более богатые люди выписываются раньше - как раз потому, что могут себе позволить услуги приходящих медсестер и специалистов, тогда как бедные стараются лежать в больницах как можно дольше
поэтому и не только поэтому в последнее время все больше разговоров о том, что разного рода алгоритмы и программы с использованием искусственного интеллекта, machine learning и т.д. перед запуском нужно подвергать аудиту и вообще регуляции - потому что никто, кроме разработчиков, не понимает, как они работают, а разработчики не понимают, какие последствия имеет внедрение этих программ. правда, где набрать понятливых аудиторов, тоже не очень понятно #bio #AI
https://spectrum.ieee.org/the-human-os/biomedical/ethics/racial-bias-found-in-algorithms-that-determine-health-care-for-millions-of-patients
IEEE Spectrum
Racial Bias Found in Algorithms That Determine Health Care for Millions of Patients
Researchers argue for audit systems to catch cases of algorithmic bias
Власти Китая начали применять для слежки за уйгурами технологию распознавания эмоций
В Китае начали внедрять технологию распознавания эмоций, сообщает Meduza. Ее применяют, в частности, в Синьцзян-Уйгурском автономном районе — регионе на северо-западе страны, где живут преимущественно уйгуры, исповедующие ислам. Китайские власти подозревают жителей Синьцзяна в сепаратистских настроениях, много лет ведут за ним постоянную слежку и отправляют в «воспитательные» лагеря.
Как пишет Financial Times, методика распознавания эмоций стала одной из главных тем для обсуждения на крупнейшей в Китае выставке технологий видеонаблюдения, которая проходила с 21 по 31 октября в городе Шэньчжэнь. Китайские власти говорят, что новая технология, как и внедренные ранее методы распознавания людей по лицу или походке, поможет бороться с преступностью.
«Алгоритм распознавания эмоций может по видеозаписям быстро вычислить подозреваемых, анализируя их психическое состояние, и предотвратить незаконные действия, включая терроризм и контрабанду. Мы уже начали его использовать», — заявил Financial Times Ли Сяою, эксперт по охране общественного порядка из бюро общественной безопасности в городе Алтай в Синьцзяне.
Алгоритм выявляет признаки агрессивности и нервозности в облике человека, а также определяет его уровень стресса. «Мы сотрудничаем с разными [производителями оборудования и технологий видеонаблюдения] в Синьцзяне, включая Hikvision, Uniview, Dahua и Tiandy. Только компании, которые всерьез занимаются искусственным интеллектом, могут работать в этой сфере. Лидеры рынка — это, конечно, Alibaba и Tencent», — сказал Ли Сяою.
По его словам, в Синьцзяне технология используется в первую очередь при прохождении таможенного досмотра. Но, как пишет Financial Times, программы по распознаванию стали подключать к камерам и в метро, в департаментах полиции и в некоторых школах. Неназванный представитель компании Megvii, разрабатывающей программы анализа изображений, рассказал, что китайские власти уже широко используют технологию распознавания эмоций.
Научить искусственный интеллект понимать чувства человека пытаются не только китайские компании, но и такие международные технологические гиганты как Amazon, Microsoft и Google. Однако ученые считают, что новой технологии пока нельзя доверять. Не потому что она еще не получила достаточного развития, а потому что эмоции человека нельзя надежно распознать по выражению его лица.
В июле 2019 года в рецензируемом научном журнале «Psychological Science in the Public Interest» вышел систематический обзор исследований о мимике и ее связи с эмоциями. Авторы обзора потратили на работу два года и пришли к выводу, что люди выражают свои чувства самыми разными способами. Это означает, что компании, которые расхваливают свои алгоритмы для определения эмоций, скорее всего, преувеличивают их эффективность.
«Данные показывают, что в среднем люди хмурятся менее чем в 30% ситуаций, когда они испытывают злость», — рассказала The Verge одна из авторов исследования, профессор психологии Северо-Восточного университета в Бостоне Лиза Барретт. «Вы действительно хотели бы, чтобы [выводы о вашем психологическом состоянии] делались на этой основе? В суде, при найме на работу, при постановке диагноза, в аэропорту… если алгоритм точен только в 30% случаев?» — сказала она.
В Китае начали внедрять технологию распознавания эмоций, сообщает Meduza. Ее применяют, в частности, в Синьцзян-Уйгурском автономном районе — регионе на северо-западе страны, где живут преимущественно уйгуры, исповедующие ислам. Китайские власти подозревают жителей Синьцзяна в сепаратистских настроениях, много лет ведут за ним постоянную слежку и отправляют в «воспитательные» лагеря.
Как пишет Financial Times, методика распознавания эмоций стала одной из главных тем для обсуждения на крупнейшей в Китае выставке технологий видеонаблюдения, которая проходила с 21 по 31 октября в городе Шэньчжэнь. Китайские власти говорят, что новая технология, как и внедренные ранее методы распознавания людей по лицу или походке, поможет бороться с преступностью.
«Алгоритм распознавания эмоций может по видеозаписям быстро вычислить подозреваемых, анализируя их психическое состояние, и предотвратить незаконные действия, включая терроризм и контрабанду. Мы уже начали его использовать», — заявил Financial Times Ли Сяою, эксперт по охране общественного порядка из бюро общественной безопасности в городе Алтай в Синьцзяне.
Алгоритм выявляет признаки агрессивности и нервозности в облике человека, а также определяет его уровень стресса. «Мы сотрудничаем с разными [производителями оборудования и технологий видеонаблюдения] в Синьцзяне, включая Hikvision, Uniview, Dahua и Tiandy. Только компании, которые всерьез занимаются искусственным интеллектом, могут работать в этой сфере. Лидеры рынка — это, конечно, Alibaba и Tencent», — сказал Ли Сяою.
По его словам, в Синьцзяне технология используется в первую очередь при прохождении таможенного досмотра. Но, как пишет Financial Times, программы по распознаванию стали подключать к камерам и в метро, в департаментах полиции и в некоторых школах. Неназванный представитель компании Megvii, разрабатывающей программы анализа изображений, рассказал, что китайские власти уже широко используют технологию распознавания эмоций.
Научить искусственный интеллект понимать чувства человека пытаются не только китайские компании, но и такие международные технологические гиганты как Amazon, Microsoft и Google. Однако ученые считают, что новой технологии пока нельзя доверять. Не потому что она еще не получила достаточного развития, а потому что эмоции человека нельзя надежно распознать по выражению его лица.
В июле 2019 года в рецензируемом научном журнале «Psychological Science in the Public Interest» вышел систематический обзор исследований о мимике и ее связи с эмоциями. Авторы обзора потратили на работу два года и пришли к выводу, что люди выражают свои чувства самыми разными способами. Это означает, что компании, которые расхваливают свои алгоритмы для определения эмоций, скорее всего, преувеличивают их эффективность.
«Данные показывают, что в среднем люди хмурятся менее чем в 30% ситуаций, когда они испытывают злость», — рассказала The Verge одна из авторов исследования, профессор психологии Северо-Восточного университета в Бостоне Лиза Барретт. «Вы действительно хотели бы, чтобы [выводы о вашем психологическом состоянии] делались на этой основе? В суде, при найме на работу, при постановке диагноза, в аэропорту… если алгоритм точен только в 30% случаев?» — сказала она.
Meduza
Власти Китая начали применять для слежки за уйгурами технологию распознавания эмоций. Ученые уверены, что ей нельзя доверять
В Китае начали внедрять технологию распознавания эмоций. Ее применяют, в частности, в Синьцзян-Уйгурском автономном районе — регионе на северо-западе страны, где живут преимущественно уйгуры, исповедующие ислам. Китайские власти подозревают жителей Синьцзяна…
Forwarded from РУКИ
Как продать неудачный hardware-продукт с ужасными отзывами? Поможет ситуативный маркетинг. The Verge рассказывает, как компании используют природные катастрофы, чтобы продвигать гаджеты.
Например, реклама очистителей воздуха Molekule стала появляться в ленте у жителей Калифорнии в период мощных лесных пожаров. Циничность такого таргетинга не понравилась калифорнийцам. Но многих возмутило и само устройство – сомнительный девайс без HEPA-фильтров за $800 (!), эффективность которого ничем не подкреплена.
На волне природной катастрофы Tesla стала предлагать аккумуляторы и солнечные панели со скидкой, а отели в Калифорнии во время пожаров, наоборот, повысили цены в пять раз.
Компании обвинили в disaster-капитализме и вполне заслуженно: многие действительно строят бизнес-модели на кризисных ситуациях, вызванных изменениями климата.
Кстати, устройств для борьбы с последствиями стихийных бедствий становится все больше. Причем компании продвигают не масштабные системы, а портативные устройства, которые теперь должны быть под рукой у каждого.
Например, можно обзавестись футуристичной фильтр-маской от загрязнений, специальным “противогазом” от CO2, домашним очистителем воздуха и даже надувным мини-плотом на случай наводнения.
Появляются даже носимые термостаты и кондиционеры для аномальной жары, а с ними и домашние датчики загрязнения воздуха и умные очистители. В общем, растет огромный рынок товаров для выживания в условиях климатической катастрофы. Ни государство, ни корпорации не помогут – закупаться спасательной техникой нужно самостоятельно.
Так что теперь потребители должны думать не только о том, какой смартфон и какие наушники купить. Но также спросить себя – What do I need to survive the biosphere today?
Например, реклама очистителей воздуха Molekule стала появляться в ленте у жителей Калифорнии в период мощных лесных пожаров. Циничность такого таргетинга не понравилась калифорнийцам. Но многих возмутило и само устройство – сомнительный девайс без HEPA-фильтров за $800 (!), эффективность которого ничем не подкреплена.
На волне природной катастрофы Tesla стала предлагать аккумуляторы и солнечные панели со скидкой, а отели в Калифорнии во время пожаров, наоборот, повысили цены в пять раз.
Компании обвинили в disaster-капитализме и вполне заслуженно: многие действительно строят бизнес-модели на кризисных ситуациях, вызванных изменениями климата.
Кстати, устройств для борьбы с последствиями стихийных бедствий становится все больше. Причем компании продвигают не масштабные системы, а портативные устройства, которые теперь должны быть под рукой у каждого.
Например, можно обзавестись футуристичной фильтр-маской от загрязнений, специальным “противогазом” от CO2, домашним очистителем воздуха и даже надувным мини-плотом на случай наводнения.
Появляются даже носимые термостаты и кондиционеры для аномальной жары, а с ними и домашние датчики загрязнения воздуха и умные очистители. В общем, растет огромный рынок товаров для выживания в условиях климатической катастрофы. Ни государство, ни корпорации не помогут – закупаться спасательной техникой нужно самостоятельно.
Так что теперь потребители должны думать не только о том, какой смартфон и какие наушники купить. Но также спросить себя – What do I need to survive the biosphere today?
The Verge
‘Disaster capitalism’ piles on top of California blazes and power outages
Ads for air purifiers and solar panels abound
Forwarded from РУКИ
Распознавание эмоций, слежка за нацменьшинствами и скрытые камеры в оправе для очков - привезли репортаж с главной выставки китайских технологий надзора и контроля.
Пара интересных деталей:
*В китайских тюрьмах уже тестируют системы смарт-надзора. Говорят, что таким способом повышают производительность на тюремных фабриках.
*Технологии распознавания лиц в Китае рекламируют, используя фото семей и детей. Почему нет? Ведь «Слежка = безопасность».
*Об этике пока мало задумываются. Например, открыто пишут, что ИИ-камера отличит титульную нацию от меньшинства – уйгуров.
*Распознавание эмоций уже тестируют на границе. Но насколько это надежный метод - большой вопрос. Считывание настроения по лицу, с точки зрения науки, – сомнительная практика.
*Именно в Китае производят большинство умных камер слежения. Правительство США пыталось от них отказаться, но безуспешно. Проблема в том, что госведомства сами не знают, какие камеры используют – приходится вручную проверять маркировки, чтобы узнать производителя.
Пара интересных деталей:
*В китайских тюрьмах уже тестируют системы смарт-надзора. Говорят, что таким способом повышают производительность на тюремных фабриках.
*Технологии распознавания лиц в Китае рекламируют, используя фото семей и детей. Почему нет? Ведь «Слежка = безопасность».
*Об этике пока мало задумываются. Например, открыто пишут, что ИИ-камера отличит титульную нацию от меньшинства – уйгуров.
*Распознавание эмоций уже тестируют на границе. Но насколько это надежный метод - большой вопрос. Считывание настроения по лицу, с точки зрения науки, – сомнительная практика.
*Именно в Китае производят большинство умных камер слежения. Правительство США пыталось от них отказаться, но безуспешно. Проблема в том, что госведомства сами не знают, какие камеры используют – приходится вручную проверять маркировки, чтобы узнать производителя.
Яндекс Дзен
Под колпаком: новые технологии тотального надзора в Китае
Распознавание эмоций, умные датчики в тюрьмах и скрытые камеры в очках
Forwarded from wintermute
колонка о современных системах слежения с воздуха, в оригинале обычно военных, все как мы любим: постоянное наблюдение в сочетании с machine learning и массовым (читай - вечным) хранением - технология, которая напрямую угрожает гражданским свободам, хотя предполагалось, что она будет служить общему благу
колонка в решающей степени инспирирована книгой Eyes in the Sky, хотя и не является в чистом виде рецензией. в книге, кстати, описывается одна забавная история о создании системы Gorgon Stare (Взгляд Горгоны) - она разошлась всюду именно из этой книги, подтверждения из других источников нет, так что кто знает. суть в том, что создатель Взгляда Горгоны в свое время посмотрел фильм Enemy of the State с Уиллом Смитом, в котором правительственные агенты следили за главным героем с помощью всевидящей небесной системы наблюдения, и подумал - а круто было бы сделать такую систему. и сделал. верить или нет, вопрос, но звучит красиво
так вот теперь подобные системы умеют даже больше, чем в кино: над городами в том же Ираке постоянно висят дроны, которые смотрят вниз через очень мощную оптику. сигнал с камер обрабатывается алгоритмами, которые умеют искать подозрительную активность (в том числе, обнаруживать и отслеживать автомобили, которые совершают внезапный и немотивированный поворот), следить за отдельно взятыми объектами или людьми, интегрировать в систему данные из социальных сетей, перехватов сотовых телефонов, данных, добавляемых вручную наземными службами и так далее. все это в режиме реального времени, в интеграции и постоянном контакте с наземными службами: система следит, анализирует, находит и указывает, на земле хватают, уводят или убивают (хотя системы уже умеют убивать и сами с воздуха)
память теперь очень дешевая, поэтому все видео записываются и хранятся, их можно потом пересматривать и перематывать, подвергать дополнительному анализу, в том числе с помощью машинных алгоритмов. отдельный фокус в том, что исторически нет никаких запретов на то, чтобы смотреть на кого-то с неба. если для установки GPS-трекера на чей-то автомобиль в США требуется получить ордер, то с дрона или дирижабля за этим автомобилем можно следить беспрепятственно и сколько угодно. потому что небо - общее
в какой-то момент создатели систем слежки явно начинают ощущать себя богами, по крайней мере, они дают им имена богов и мифических героев - Персей, убийца Медузы Горгоны (Perseus, Persistent Stare Exploitation and Analysis System), стоглазый великан Аргус (Argus, Autonomous Real-Time Ground Ubiquitous Surveillance), бог Один (Odin, Observe, Detect, Identify, Neutralize).
главная этическая проблема ровно та же, что стояла перед создателями атомной бомбы: небольшая группа ученых и инженеров собирается вместе, чтобы создать мощное оружие для военных. при этом, эти новые системы слежки могут быть не менее страшным оружием, которое оно критически смещает весь баланс сил между гражданином и государством, между частным лицом и корпорацией, вплоть до полного исчезновения этого баланса
у обычных людей есть ощущение, что технологии развиваются без их ведома и без возможности как-то повлиять на развитие этих технологий - главные решения об условиях жизни в обществе принимает совсем небольшое и саморегулирующееся "братство элит". многие из них уверены, что работают во благо, но их творения способны разрушить мир #paranoia
https://www.thenewatlantis.com/publications/all-activities-monitored
колонка в решающей степени инспирирована книгой Eyes in the Sky, хотя и не является в чистом виде рецензией. в книге, кстати, описывается одна забавная история о создании системы Gorgon Stare (Взгляд Горгоны) - она разошлась всюду именно из этой книги, подтверждения из других источников нет, так что кто знает. суть в том, что создатель Взгляда Горгоны в свое время посмотрел фильм Enemy of the State с Уиллом Смитом, в котором правительственные агенты следили за главным героем с помощью всевидящей небесной системы наблюдения, и подумал - а круто было бы сделать такую систему. и сделал. верить или нет, вопрос, но звучит красиво
так вот теперь подобные системы умеют даже больше, чем в кино: над городами в том же Ираке постоянно висят дроны, которые смотрят вниз через очень мощную оптику. сигнал с камер обрабатывается алгоритмами, которые умеют искать подозрительную активность (в том числе, обнаруживать и отслеживать автомобили, которые совершают внезапный и немотивированный поворот), следить за отдельно взятыми объектами или людьми, интегрировать в систему данные из социальных сетей, перехватов сотовых телефонов, данных, добавляемых вручную наземными службами и так далее. все это в режиме реального времени, в интеграции и постоянном контакте с наземными службами: система следит, анализирует, находит и указывает, на земле хватают, уводят или убивают (хотя системы уже умеют убивать и сами с воздуха)
память теперь очень дешевая, поэтому все видео записываются и хранятся, их можно потом пересматривать и перематывать, подвергать дополнительному анализу, в том числе с помощью машинных алгоритмов. отдельный фокус в том, что исторически нет никаких запретов на то, чтобы смотреть на кого-то с неба. если для установки GPS-трекера на чей-то автомобиль в США требуется получить ордер, то с дрона или дирижабля за этим автомобилем можно следить беспрепятственно и сколько угодно. потому что небо - общее
в какой-то момент создатели систем слежки явно начинают ощущать себя богами, по крайней мере, они дают им имена богов и мифических героев - Персей, убийца Медузы Горгоны (Perseus, Persistent Stare Exploitation and Analysis System), стоглазый великан Аргус (Argus, Autonomous Real-Time Ground Ubiquitous Surveillance), бог Один (Odin, Observe, Detect, Identify, Neutralize).
главная этическая проблема ровно та же, что стояла перед создателями атомной бомбы: небольшая группа ученых и инженеров собирается вместе, чтобы создать мощное оружие для военных. при этом, эти новые системы слежки могут быть не менее страшным оружием, которое оно критически смещает весь баланс сил между гражданином и государством, между частным лицом и корпорацией, вплоть до полного исчезновения этого баланса
у обычных людей есть ощущение, что технологии развиваются без их ведома и без возможности как-то повлиять на развитие этих технологий - главные решения об условиях жизни в обществе принимает совсем небольшое и саморегулирующееся "братство элит". многие из них уверены, что работают во благо, но их творения способны разрушить мир #paranoia
https://www.thenewatlantis.com/publications/all-activities-monitored
The New Atlantis
All Activities Monitored
How military drone technology is quietly creeping into policing, business, and everyday life