Цифровая тень – Telegram
Цифровая тень
1.09K subscribers
73 photos
2 videos
10 files
437 links
Интернет как капитализм платформ, общество в эпоху массовой слежки и data harvesting, медиа за стеной цензуры и персональных фильтров, машины манипуляций и алгоритмическая пропаганда

Фидбек: @digitalshadowbot
Download Telegram
Сенат США: активность российской «фабрики троллей» выросла на 200% в Instagram

С момента выборов 2016 года, после которых структуру бизнесмена Евгения Пригожина обвинили во вмешательстве в американские выборы, деятельность "фабрики троллей" только разрослась.

К такому выводу пришёл комитет Сената США по разведке. Сообщается, что «Агентство интернет-исследований», которое курирует Пригожин, не только не свернуло, но и расширило свою деятельность.

Так, сенаторы сделали вывод, что пропаганда в Instagram увеличилась на 200%, а в Twitter, Facebook и YouTube — более, чем на 50%.

Важной деталью является то, что пропаганда, по словам сенаторов, направлена на афроамериканцев и имеет целью обострение напряженности и повышение шансов на переизбрание Дональда Трампа. Ричард Бёрр — сенатор, сообщивший о результатах расследования, отметил: «наводняя соцсети фейковыми сообщениями, конспирологией и троллями, а также эксплуатируя существующие разногласия, Россия пытается породить недоверие к демократическим институтам и нашим соотечественникам».

В докладе кампания по пропаганде описывается как необычайно искусная операция и самая успешная кампания влияния на выборы в истории, которую будут изучать ещё десятилетия по всему миру. Сообщается, что кроме классических социальных сетей, пропагандой были охвачены также Pinterest, Tumblr и Medium.

Напомним, что власти России категорически отрицают вмешательство в американские выборы.

Источник
Искусственный интеллект, большие данные и Европа после Чернобыля: что покажут на Киевской биеннале

С 11 октября по 23 ноября в Киеве состоится биеннале современного искусства «Черное облако». Цель биеннале в этом году — осмыслить социальные и политические трансформации, произошедшие в Восточной Европе в течение последних трех десятилетий, в частности, под влиянием Чернобыльской катастрофы, распада СССР и развития современных информационных технологий.

Выставка «Черное облако» объединит международных художниц и художников, работающих с темами массовой коммуникации, искусственного интеллекта, окружающей среды и Чернобыльской катастрофы.

Выставка пройдет в Научно-технической библиотеке КПИ — уникальном здании эпохи советского модернизма.

В число работ выставки входит известная интерактивная инсталляция немецкого коллектива Tactical Tech «Стеклянная комната», в которой исследуются механизмы сбора персональных данных и проблема приватности в интернете. Ряд работ будет посвящен исследованию взаимосвязи между технологиями, политикой и экологией.

Событие в fb
Программа в fb
Как данные могут становиться оружием?

17-18 октября в рамках Киевской биеннале Black Cloud состоится симпозиум «Коммуникативный милитаризм» под кураторством Светланы Матвиенко (Канада).

В течение двух вечеров ученые и исследователи из разных стран рассмотрят те характерные социальные, политические и технологические условия информационного капитализма, которые позволяют использовать различные виды современного коммуникативного милитаризма.

Также речь пойдет и о возможных тактиках и стратегиях сопротивления.

Сегодня в программе выступление Герта Ловинка, теоретика медиа, активиста, основателя и директора амстердамского Института сетевых культур. В своем докладе "Грусть по умолчанию: преодолевая нигилизм платформ" он будет говорить о темной стороне Интернета, в частности, о распространенном феномене технологической печали, вызванного ведущими социальными сетями путем "модификации поведения" (так называемого "побуждения") с целью заставить пользователей бесконечно находиться в приложении, при этом показывая им все более персонализированную рекламу.

Ловинк утверждает, что вместо расширения возможностей и разнообразия мы наблюдаем тревожный эффект гиперконформизма, и спрашивает, как нам демонтировать эти «рынки предсказания» и возродить социальное.

Подробнее https://bit.ly/31mqtvz
Google сопротивляется профсоюзам

Менеджмент Google попытался сорвать собрание сотрудников цюрихского офиса компании, которые намеревались обсудить вопрос создания профсоюза, сообщает Recode.

Встреча носила название «Профсоюзы в Швейцарии» и была организована представителями местного профсоюза работников медиа и профсоюза телеком-индустрии, носящего название syndicom.

Накануне руководство отделения Google попыталось сорвать проведение собрания, рассылая письма о том, что встреча была отменена. В письме менеджмент компании заявлял, что отменяет встречу, потому что компания предпочитает проводить только те мероприятия по этой теме, которые "организованы в партнёрстве с руководством Google". Также было обещано, что компания организует собственное обсуждение законов о труде и правах работников.

Этот шаг расстроил многих сотрудников как в цюрихском офисе, так и тех, кто работает в других отделениях. Они посчитали, что компания создаёт препятствия для получения ими полной и неотцензурированной информации о ситуации на рабочих местах.

Несмотря на сопротивление со стороны руководства, встреча состоялась в одном из помещений офиса Google в Цюрихе. При этом менеджмент компании не сделал никаких заявлений о том, что не будет предпринимать какие-либо действия против людей, которые организовали или посетили собрание.

Исторически сложилось, что штатные сотрудники крупных технологических компаний, таких как Google, неохотно вступали в профсоюзы или даже открыто их осуждали. Но отношение изменилось, поскольку все большее число людей активней требуют расширения своих трудовых прав и возможности влиять на важные решения компании-работодателя.

Эти работники начали организовывать дискуссии по таким вопросам, как ответственность за сексуальные домогательства, справедливая оплата труда и участие компаний в спорных государственных контрактах.

В прошлом месяце сотрудники Google в Питтсбурге, штат Пенсильвания, некоторые из которых зарабатывают 40 000 долларов в год, проголосовали за создание первого профсоюза белых воротничков в компании. Руководство Google до сих пор оставалось нейтральным, но компания, похоже, заняла более агрессивную позицию в Европе.
​​Mozilla пугает распознаванием чувств. Приложения распознают выражения наших лиц в реальном времени и используют эту информацию для того, чтобы понять кто мы, что нам нравится, а что нет — всё для продажи рекламы, конечно.

Классный короткий интерактивный фильм https://stealingurfeelin.gs (часть исходных кодов открыта на github).

Идея гениальная — зачем задавать вопросы, когда можно показать картинки и ответы будут написаны у нас на лице. Очень крипово!
Forwarded from wintermute
Эдвард Сноуден у Джо Рогана, о том, как наши смартфоны шпионят за нами и многом другом (вся беседа на 2 часа 50 минут). ну и #paranoia, конечно

https://youtu.be/VFns39RXPrU
Первая часть беседы Сноудена и Рогана в переводе на русский https://www.youtube.com/watch?v=dtD_DUaDo64
Forwarded from РУКИ
Google решила бороться с зависимостостью от гаджетов и выпустила “бумажный смартфон”. Для этого компания разработала приложение Paper Phone. Через него владельцы устройств на Android могут перенести полезные данные со смартфона на бумагу. Например, распечатать номера телефонов, списки задач, маршруты из Google Карт и (почему-то) судоку.

Приложение оформит все данные в аккуратный буклет, который можно носить с собой вместо смартфона. А если вставить в буклет банковскую карту, то Paper Phone заменит и бумажник.

Paper Phone – часть новой программы по цифровому детоксу от Google. C digital wellness сейчас экспериментируют многие технологические компании и обычно все сводится к фальшивому морализаторству. Google не исключение.

Какой смысл поддерживать отказ от гаджетов, но при этом выпускать новые модели смартфонов каждый год или устанавливать смарт-колонки в спальне и на кухне?

Подход Google к железу в принципе вызывает вопросы. Например, недавно компания так обновила ПО, что часть умных колонок Google Home просто перестала работать. Апдейт прошивки превратил девайсы в “кирпичи”, а компания пообещала заменить их на новые. Старые, видимо, отправятся на свалку или на запчасти, хотя могли бы проработать еще несколько лет.
Вторая часть беседы Эдварда Сноудена с Джо Роганом на русском

https://youtu.be/YHaowHu9_xE
Forwarded from Канал Newочём
Мы регулярно оставляем свои данные в сети, начиная от заполнения паспортных данных для покупки билетов, заканчивая адресом проживания для доставки пиццы. Но никто не знает, что произойдет со всей этой информацией в ближайшие годы. Privacy International построил 4 подробных сценария того, куда нас может завести развитиe Data Science.

Среднее время прочтения — 45 минут

https://newochem.io/dannyh/
Forwarded from wintermute
интересный материал о расовых предрассудках компьютерных алгоритмов: то есть, авторы упорно называют их расовыми, хотя на самом деле они имущественные, просто в США бедные люди часто оказываются еще и не белыми

суть вопроса: алгоритмы, которые прогнозируют, какие пациенты в большей вероятностью будут нуждаться в большем объеме медицинской помощи или в специальных услугах, решили подвергнуть "алгоритмическому аудиту". в результате выяснилось страшное - алгоритмы делали прогнозы, которые можно назвать расистскими, потому что чернокожих пациентов программа считала менее нуждающимися в медицинской помощи, чем белых. и даже хуже - черных людей с большим количеством хронических заболеваний программа считала менее нуждающимися, чем более здоровых белых. при этом, с помощью подобных алгоритмов принимаются медицинские решения, касающиеся примерно 200 млн человек

исключив намеренное расовое вредительство на всех этапах подготовки программы, исследователи пришли к выводу, что алгоритмы не содержат какого-то особого кода, который давал бы преимущество белой расе, никто из людей не корректировал результаты и вообще алгоритмы работают правильно, ровно так, как должны. проблема не в алгоритме, а в данных, на основании которых программа принимает решение

например, при построении прогноза о том, кто из пациентов будет больше нуждаться в лечении в будущем, программа оценивала расходы на лечение каждого пациента в прошлом. таким образом, она считала, что если человек много тратил, значит, он сильнее болен и больше нуждается в помощи, тогда как на самом деле он лучше обеспечен финансово (и усредненный белый пациент тратил больше, чем усредненный черный)

или, строя прогнозы о том, какие пациенты будут нуждаться в дополнительной амбулаторной помощи на дому, программа считала, что сильнее нуждаются в ней те, кто раньше выписывается из больницы (не долечившись до конца). изучение исторических данных показало, что более богатые люди выписываются раньше - как раз потому, что могут себе позволить услуги приходящих медсестер и специалистов, тогда как бедные стараются лежать в больницах как можно дольше

поэтому и не только поэтому в последнее время все больше разговоров о том, что разного рода алгоритмы и программы с использованием искусственного интеллекта, machine learning и т.д. перед запуском нужно подвергать аудиту и вообще регуляции - потому что никто, кроме разработчиков, не понимает, как они работают, а разработчики не понимают, какие последствия имеет внедрение этих программ. правда, где набрать понятливых аудиторов, тоже не очень понятно #bio #AI

https://spectrum.ieee.org/the-human-os/biomedical/ethics/racial-bias-found-in-algorithms-that-determine-health-care-for-millions-of-patients
Власти Китая начали применять для слежки за уйгурами технологию распознавания эмоций

В Китае начали внедрять технологию распознавания эмоций, сообщает Meduza. Ее применяют, в частности, в Синьцзян-Уйгурском автономном районе — регионе на северо-западе страны, где живут преимущественно уйгуры, исповедующие ислам. Китайские власти подозревают жителей Синьцзяна в сепаратистских настроениях, много лет ведут за ним постоянную слежку и отправляют в «воспитательные» лагеря.

Как пишет Financial Times, методика распознавания эмоций стала одной из главных тем для обсуждения на крупнейшей в Китае выставке технологий видеонаблюдения, которая проходила с 21 по 31 октября в городе Шэньчжэнь. Китайские власти говорят, что новая технология, как и внедренные ранее методы распознавания людей по лицу или походке, поможет бороться с преступностью.

«Алгоритм распознавания эмоций может по видеозаписям быстро вычислить подозреваемых, анализируя их психическое состояние, и предотвратить незаконные действия, включая терроризм и контрабанду. Мы уже начали его использовать», — заявил Financial Times Ли Сяою, эксперт по охране общественного порядка из бюро общественной безопасности в городе Алтай в Синьцзяне.

Алгоритм выявляет признаки агрессивности и нервозности в облике человека, а также определяет его уровень стресса. «Мы сотрудничаем с разными [производителями оборудования и технологий видеонаблюдения] в Синьцзяне, включая Hikvision, Uniview, Dahua и Tiandy. Только компании, которые всерьез занимаются искусственным интеллектом, могут работать в этой сфере. Лидеры рынка — это, конечно, Alibaba и Tencent», — сказал Ли Сяою.

По его словам, в Синьцзяне технология используется в первую очередь при прохождении таможенного досмотра. Но, как пишет Financial Times, программы по распознаванию стали подключать к камерам и в метро, в департаментах полиции и в некоторых школах. Неназванный представитель компании Megvii, разрабатывающей программы анализа изображений, рассказал, что китайские власти уже широко используют технологию распознавания эмоций.

Научить искусственный интеллект понимать чувства человека пытаются не только китайские компании, но и такие международные технологические гиганты как Amazon, Microsoft и Google. Однако ученые считают, что новой технологии пока нельзя доверять. Не потому что она еще не получила достаточного развития, а потому что эмоции человека нельзя надежно распознать по выражению его лица.

В июле 2019 года в рецензируемом научном журнале «Psychological Science in the Public Interest» вышел систематический обзор исследований о мимике и ее связи с эмоциями. Авторы обзора потратили на работу два года и пришли к выводу, что люди выражают свои чувства самыми разными способами. Это означает, что компании, которые расхваливают свои алгоритмы для определения эмоций, скорее всего, преувеличивают их эффективность.

«Данные показывают, что в среднем люди хмурятся менее чем в 30% ситуаций, когда они испытывают злость», — рассказала The Verge одна из авторов исследования, профессор психологии Северо-Восточного университета в Бостоне Лиза Барретт. «Вы действительно хотели бы, чтобы [выводы о вашем психологическом состоянии] делались на этой основе? В суде, при найме на работу, при постановке диагноза, в аэропорту… если алгоритм точен только в 30% случаев?» — сказала она.
Forwarded from РУКИ
Как продать неудачный hardware-продукт с ужасными отзывами? Поможет ситуативный маркетинг. The Verge рассказывает, как компании используют природные катастрофы, чтобы продвигать гаджеты.

Например, реклама очистителей воздуха Molekule стала появляться в ленте у жителей Калифорнии в период мощных лесных пожаров. Циничность такого таргетинга не понравилась калифорнийцам. Но многих возмутило и само устройство – сомнительный девайс без HEPA-фильтров за $800 (!), эффективность которого ничем не подкреплена.

На волне природной катастрофы Tesla стала предлагать аккумуляторы и солнечные панели со скидкой, а отели в Калифорнии во время пожаров, наоборот, повысили цены в пять раз.

Компании обвинили в disaster-капитализме и вполне заслуженно: многие действительно строят бизнес-модели на кризисных ситуациях, вызванных изменениями климата.

Кстати, устройств для борьбы с последствиями стихийных бедствий становится все больше. Причем компании продвигают не масштабные системы, а портативные устройства, которые теперь должны быть под рукой у каждого.

Например, можно обзавестись футуристичной фильтр-маской от загрязнений, специальным “противогазом” от CO2, домашним очистителем воздуха и даже надувным мини-плотом на случай наводнения.

Появляются даже носимые термостаты и кондиционеры для аномальной жары, а с ними и домашние датчики загрязнения воздуха и умные очистители. В общем, растет огромный рынок товаров для выживания в условиях климатической катастрофы. Ни государство, ни корпорации не помогут – закупаться спасательной техникой нужно самостоятельно.

Так что теперь потребители должны думать не только о том, какой смартфон и какие наушники купить. Но также спросить себя – What do I need to survive the biosphere today?
Forwarded from РУКИ
Распознавание эмоций, слежка за нацменьшинствами и скрытые камеры в оправе для очков - привезли репортаж с главной выставки китайских технологий надзора и контроля.

Пара интересных деталей:

*
В китайских тюрьмах уже тестируют системы смарт-надзора. Говорят, что таким способом повышают производительность на тюремных фабриках.

*Технологии распознавания лиц в Китае рекламируют, используя фото семей и детей. Почему нет? Ведь «Слежка = безопасность».

*Об этике пока мало задумываются. Например, открыто пишут, что ИИ-камера отличит титульную нацию от меньшинства – уйгуров.

*Распознавание эмоций уже тестируют на границе. Но насколько это надежный метод - большой вопрос. Считывание настроения по лицу, с точки зрения науки, – сомнительная практика.

*Именно в Китае производят большинство умных камер слежения. Правительство США пыталось от них отказаться, но безуспешно. Проблема в том, что госведомства сами не знают, какие камеры используют – приходится вручную проверять маркировки, чтобы узнать производителя.
Forwarded from wintermute
колонка о современных системах слежения с воздуха, в оригинале обычно военных, все как мы любим: постоянное наблюдение в сочетании с machine learning и массовым (читай - вечным) хранением - технология, которая напрямую угрожает гражданским свободам, хотя предполагалось, что она будет служить общему благу

колонка в решающей степени инспирирована книгой Eyes in the Sky, хотя и не является в чистом виде рецензией. в книге, кстати, описывается одна забавная история о создании системы Gorgon Stare (Взгляд Горгоны) - она разошлась всюду именно из этой книги, подтверждения из других источников нет, так что кто знает. суть в том, что создатель Взгляда Горгоны в свое время посмотрел фильм Enemy of the State с Уиллом Смитом, в котором правительственные агенты следили за главным героем с помощью всевидящей небесной системы наблюдения, и подумал - а круто было бы сделать такую систему. и сделал. верить или нет, вопрос, но звучит красиво

так вот теперь подобные системы умеют даже больше, чем в кино: над городами в том же Ираке постоянно висят дроны, которые смотрят вниз через очень мощную оптику. сигнал с камер обрабатывается алгоритмами, которые умеют искать подозрительную активность (в том числе, обнаруживать и отслеживать автомобили, которые совершают внезапный и немотивированный поворот), следить за отдельно взятыми объектами или людьми, интегрировать в систему данные из социальных сетей, перехватов сотовых телефонов, данных, добавляемых вручную наземными службами и так далее. все это в режиме реального времени, в интеграции и постоянном контакте с наземными службами: система следит, анализирует, находит и указывает, на земле хватают, уводят или убивают (хотя системы уже умеют убивать и сами с воздуха)

память теперь очень дешевая, поэтому все видео записываются и хранятся, их можно потом пересматривать и перематывать, подвергать дополнительному анализу, в том числе с помощью машинных алгоритмов. отдельный фокус в том, что исторически нет никаких запретов на то, чтобы смотреть на кого-то с неба. если для установки GPS-трекера на чей-то автомобиль в США требуется получить ордер, то с дрона или дирижабля за этим автомобилем можно следить беспрепятственно и сколько угодно. потому что небо - общее

в какой-то момент создатели систем слежки явно начинают ощущать себя богами, по крайней мере, они дают им имена богов и мифических героев - Персей, убийца Медузы Горгоны (Perseus, Persistent Stare Exploitation and Analysis System), стоглазый великан Аргус (Argus, Autonomous Real-Time Ground Ubiquitous Surveillance), бог Один (Odin, Observe, Detect, Identify, Neutralize).

главная этическая проблема ровно та же, что стояла перед создателями атомной бомбы: небольшая группа ученых и инженеров собирается вместе, чтобы создать мощное оружие для военных. при этом, эти новые системы слежки могут быть не менее страшным оружием, которое оно критически смещает весь баланс сил между гражданином и государством, между частным лицом и корпорацией, вплоть до полного исчезновения этого баланса

у обычных людей есть ощущение, что технологии развиваются без их ведома и без возможности как-то повлиять на развитие этих технологий - главные решения об условиях жизни в обществе принимает совсем небольшое и саморегулирующееся "братство элит". многие из них уверены, что работают во благо, но их творения способны разрушить мир #paranoia


https://www.thenewatlantis.com/publications/all-activities-monitored
Рушится один из самых дорогих стартапов в мире

Сеть коворкингов и офисов WeWork, которую называли одним самых дорогих и быстрорастущих стартапов в мире, находится в глубоком кризисе. Сначала оказалось, что компания живет не по средствам и открывает слишком много филиалов. Ее убытки достигли такого уровня, что сооснователь и директор WeWork Адам Нейман ушел в отставку. Теперь нью-йоркская прокуратура начала расследование деятельности самого Неймана: его подозревают в том, что он незаконно использовал компанию для личного обогащения.

Сеть офисов и коворкингов WeWork была основана в Нью-Йорке в 2010 году израильтянином из кибуца Адамом Нейманом и Мигелем МакКелви, ранее жившим в коммуне в штате Орегон. Партнеры начали арендовать большие коммерческие площадки, стильно обустраивать их, а затем сдавать в аренду стартапам. Со временем WeWork начала работать и с серьезными корпоративными клиентами, вроде инвестбанка JPMorgan Chase и технологической компании Siemens.

Нейман хотел, чтобы WeWork считали не просто бизнесом, а компанией, с помощью которой создается «лучший мир». А вегетарианец МакКелви взялся превратить WeWork в организацию, свободную от употребления мяса. Бизнес быстро рос: офисы и коворкинги открылись в десятках стран на всех континентах, кроме Антарктиды. К концу сентября 2019 года WeWork имела в общей сложности 625 площадок в 123 городах мира, что на 87% больше, чем годом ранее. В том числе был открыт и новый большой коворкинг в Москве: в сентябре WeWork арендовала всю офисную часть — 8500 квадратных метров — в многофункциональном комплексе Imperial Plaza.

О проблемах в WeWork, которую газета The New York Times называла «одним из самых дорогих стартапов в мире», стало известно в сентябре, когда компания подала документы на публичное размещение своих акций. Из отчетности выяснилось, что из-за агрессивного роста компания тратила слишком много, а зарабатывала недостаточно: в первой половине 2019 года ее операционные убытки составили 1,37 миллиарда долларов — примерно вдвое больше, чем за аналогичный период прошлого года.

В итоге размещение акций отложили, а директор WeWork Адам Нейман ушел в отставку. На помощь компании пришел один из ее ключевых инвесторов — SoftBank во главе с японским предпринимателем Масаеси Соном. Банк дополнительно вложил в капитал WeWork 1,5 миллиарда долларов и объявил, что берет компанию под свой контроль. В октябре банк сообщил, что потратит на проект около 10 миллиардов долларов. Сумма включала в себя выплату примерно миллиарда долларов за долю Неймана. Сон признал, что не сразу заметил проблемы с управлением в компании, потому что был ослеплен харизмой Неймана. «Я переоценил хорошие стороны Адама. <…> Во многих случаях закрывал глаза», — заявил бизнесмен.

В ноябре NYT выяснила, что причиной проблем WeWork стало не только быстрое открытие новых офисов, но и падение заполняемости в старых: в третьем квартале на площадках компании были заполнены 79% рабочих мест — по сравнению с 84% годом ранее. «Такое падение [средних показателей] можно было ожидать, потому что WeWork быстро открывала новые отделения. Но заполняемость снизилась даже на объектах, открытых более двух лет назад — с 90% годом ранее до 87% в третьем квартале», — написала NYT.

SoftBank сразу взялся за дело: 17 ноября стало известно, что для сокращения издержек WeWork уволит или выведет за штат около четырех тысяч человек — примерно треть своего персонала. Источник NYT в компании не исключил, что количество уволенных вырастет до шести тысяч. При этом в дополнение к миллиарду за свою долю Нейман должен получить от SoftBank еще 185 миллионов долларов за «консультации».

Однако 19 ноября агентство Reuters узнало, что генеральный прокурор штата Нью-Йорк Летиция Джеймс открыла расследование в отношении основателя WeWork. Прокуратура проверяет сделки, совершенные Нейманом: он якобы покупал недвижимость под залог своей доли в компании, а затем зарабатывал, сдавая эти площади в аренду WeWork.
Amnesty International опубликовала 60-страничный отчет о Google и Facebook с красноречивым названием "Гиганты слежки".

Для миллиардов людей по всему миру именно сервисы Google и Facebook являются проводниками в Интернет. И хотя эти сервисы в основном бесплатны, пользователи платят за них свою цену, предоставляя компаниям свои персональные данные.

Правозащитники утверждают, что обе компании угрожают правам человека, в том числе свободе выражения мнения и свободе мысли. Виной тому — бизнес-модель, основанная на массированном сборе данных о поведении пользователей, которые затем обрабатываются с помощью сложных алгоритмов и используются, в первую очередь, для получения дохода от рекламы.

Такая бизнес-модель позволила двум гигантам сконцентрировать огромную власть, включая финансовую мощь, политическое влияние и способность формировать цифровой опыт миллиардов людей. Это привело к беспрецедентной асимметрии знаний между компаниями и пользователями Интернета - как утверждает исследовательница Шошана Зубофф (Shoshana Zuboff): «Они знают о нас всё; мы не знаем о них почти ничего».
Forwarded from data stories
All Hail The Algorithm

Al Jazeera сделали документальный проект о алгоритмах в нашей жизни: «Пятисерийная документалка, исследующая воздействие алгоритмов на нашу жизнь»
– Первая серия про то, можем ли мы доверять алгоритмам
– Вторая про «империи данных»: колонизацию большими технологическими компаниями других стран. Там в качестве спикера есть Улисес Мехиас, интервью с которым я делал некоторое время назад.
– Третья про роль алгоритмов в политической манипуляции и фейк ньюс
– Четвертая про опасности биометрических технологий (немного о технологиях распознавания лиц я писал тут)
– Пятая про уловки дизайна
Google всегда уверял, что не вмешивается работу своего поискового алгоритма. Оказалось, что это не так

Каждую минуту пользователи вводят около 3,8 млн. запросов в поисковую строку Google. Полагаясь на его алгоритмы, они надеются получить релевантные результаты о ценах на отели или лечении от рака, или о последних новостях политики.

Влияние этих строк кода на глобальную экономику поистине огромно: миллионы людей обращаются к информации, найденной в Интернете, и именно она является отправной точкой для денежных потоков в миллиарды долларов.

Руководители Google неоднократно заявляли, – в том числе в свидетельских показаниях в Конгрессе - что алгоритмы являются объективными и, по сути, автономными, не подверженными человеческим предрассудкам или коммерческим соображениям.

Компания заявляет, что люди не влияют на поисковую выдачу и ранжирование результатов. Журналисты WSJ выяснили, что в последнее время Google все больше вмешивается в результаты поиска — и в гораздо большей степени, чем компания признает публично.

Часто это происходит под давлением со стороны крупного бизнеса и правительств различных стран. Google стал чаще прибегать к подобным действиям после выборов 2016 года в США и скандалов о дезинформации в Интернете.

По словам одного из руководителей Google, который занимается поиском, внутреннее расследование 2016 года в Google показало, что до четверти поисковых запросов возвращают какую-то дезинформацию. В процентном отношении это не так уж и много, но, учитывая огромный объем поисковых запросов в Google, это составило бы почти два миллиарда поисковых запросов в год. Для сравнения: роль Facebook оказалась предметом слушаний Конгресса после скандала с российской дезинформацией, которую просмотрели 126 миллионов пользователей.

Кратко о том, что выяснили журналисты издания:

• Алгоритмы поиска отдают предпочтение крупным компаниям по сравнению с более мелкими, поддерживая некоторые крупные веб-сайты, такие как Amazon.com Inc. и Facebook Inc

• Инженеры Google регулярно вносят скрытые коррективы в информацию, которую компания все чаще размещает параллельно основным результатам поиска: в предложения по автозаполнению, в так называемые «панели знаний» и «избранные фрагменты», в результаты новостей.

• Существуют чёрные списки для удаления из результатов поиска некоторых сайтов. И это не касается случаев, когда сайты блокируются из-за нарушения законодательства США или других стран.

• В режиме автозаполнения - функции, которая предсказывает слова по мере того, как пользователь вводит запрос, – инженеры Google создали алгоритмы и чёрные списки, чтобы отсеять сомнительные с точки зрения компании предложения по спорным вопросам.

• Сотрудники и руководители Google, включая соучредителей Ларри Пейджа и Сергея Брина, не пришли к единому мнению о том, в какой степени стоит вмешиваться в результаты поиска.

• Для оценки результатов поиска в Google работают тысячи низкооплачиваемых подрядчиков, цель которых, по словам компании, заключается в оценке качества алгоритмов ранжирования. Подрядчики утверждаю: компания даёт им понять, что именно она считает правильным ранжированием результатов.
Forwarded from РУКИ
“Никакого деления на классы и всеобщее равенство”: The New York Times оплакивает интернет, который мы потеряли. Когда-то все пользовались одними онлайн-сервисами – будь то сам Билл Гейтс или его газонокосильщик. Мы жили в чудесном эгалитарном мире, в котором не действовали стандартные правила общества потребления.

Но прошло двадцать лет, и в онлайне вырос огромный рынок услуг. Утопии не случилось. Теперь за все надо платить: подписки на стриминговые сервисы, облачные хранилища, пэйволлы, премиумы и фримиумы.

Американцы в среднем тратят по $1300 в год на цифровые медиа. В России, конечно, меньше, но платные подписки точно стали оформлять чаще.

Рынок платных предложений действительно огромный – это закрытые дейтинговые сервисы, оригинальные фотофильтры и даже приложения для “новостной терапии”, которые за $20 отсеивают негативную информацию. А еще можно вспомнить элитный email-клиент Superhuman за $30 в месяц, которым пользуются многие CEO.

Раньше, пишет NYT, за онлайн-услуги платили только наивные любители, которые не умели нормально пользоваться интернетом. Теперь наоборот. Премиум-сервисы помогают элитам дистанцироваться от низших классов и маскировать свои данные. Условно – айфоны больше оберегают приватность, чем смартфоны на Android, но и стоить они всегда будут дороже.

Другой пример – скины в Fortnite. Английские исследователи считают, что в дети с прокачанными костюмами и аватарами самоутверждаются за счет более бедных игроков, у которых стоят базовые настройки. Причем неравенство выражается уже в офлайн-среде.

Или нелепая реклама в YouTube, которая продвигает онлайн-казино, сектантов и правых радикалов. Заплати всего $12 – и проблема будет решена.

Ну а дальше колумнист рассуждает так – алгоритмы прокачаются, сервисы станут хитрее, появятся нейроинтерфейсы и все станет еще хуже. И если вы читаете эту статью на NYT, значит, у вас есть подписка и вам повезло быть в числе избранных интеллектуалов. А если нет, то вы жертва неравенства, которой подсовывают ложную информацию, чтобы исказить картину мира. Как-то так.

You’ve always had Louis Vuitton handbags. Now you have software that makes you feel the same way.
Forwarded from Zavtracast (Max Zareckiy)
Внутри Google нарастает напряжение между сотрудниками и менеджментом. Компания уволила четырех активистов, которые были не согласны с текущей политикой компании по отношению к работникам. По слухам, в этом была замешана, о ужас капиталиста, даже организация профсоюза.

При этом внутри компании начинают вводить инструменты для слежки за бразуерами на рабочих местах и обстановку в целом едва ли можно назвать "открытой и позитивной".

Стоит напомнить, что в минувшую пятницу 200 сотрудников офиса в Сан-Франциско вышли на открытый пикет у офиса компании за восстановление в правах "неудобных" работниктов Ребекки Риверс и Лоуренса Берланда, которых копрорация отправила в административный отпуск. Только это едва ли помогло. В понедельник Риверс заявила, что компания её уволила.

Что тут сказать? Из манифеста Google давно пропал пункт "Не будь злом". Оно и видно.

https://www.bloomberg.com/news/articles/2019-11-25/google-fires-four-employees-citing-data-security-violations