Collective Intelligence – Telegram
Collective Intelligence
742 subscribers
39 photos
1 video
32 files
438 links
Collective intelligence (CI) is shared or group intelligence that emerges from the collaboration, collective efforts, and competition of many individuals and appears in consensus decision making.
Download Telegram
3334480.3375231.pdf
809.7 KB
Adapting User Experience Research Methods for AI-Driven Experiences

https://dl.acm.org/doi/abs/10.1145/3334480.3375231
This media is not supported in your browser
VIEW IN TELEGRAM
This short paper describes how to adapt user experience research methods for artificial intelligence (AI)-driven applications. Presently, there is a dearth of guidance for conducting UX research on AI-driven experiences. We describe what makes this class of experiences unique, propose a preliminary foundational framework to categorize AI-driven experiences, and within the framework we show an example of methodological adaptations via a case study.
Forwarded from Канал Алексея Радченко (Алексей Радченко)
New York Times публикует мощный текст с основным тезисом: потребление цифровых услуг - это признак бедности. Мы говорим цифровая экономика, а подразумеваем экономика услуг для бедняков.
Вы бедный, если ваш врач консультирует вас по интернету, а не в ходе личной встречи.
Бедный, если ваши дети учатся онлайн, а не у оффлайновых преподавателей.
Бедный, если покупаете товары онлайн, а не в красивом магазине в центре города.
Для бедных существует гигантский рынок сексуальных услуг онлайн, на котором жители третьего мира продают эротические фантазии бедным гражданам мира первого, которые в состоянии потратить на это лишние десять долларов.
Тот факт, что богатые предпочитают старомодных тьюторов, личных тренеров и поваров, а не Coursera или доставку еды через смарфтон, ни для кого не секрет. Но автора статьи Нелли Боулерз идет дальше и заявляет, что происходит "люксеризация" человеческих отношений.
Если вы по-прежнему получается услуги от живых людей или имеете возможность общаться с ними, значит скорее всего вы представитель новой элиты, престижное потребление которой заключается в отказе от цифровых услуг в пользу оффлайновых.
Бедные покупают в кредит Айфон, богатые отказываются от смартфонов. Бедные стараются сделать так, чтобы их дети умели пользоваться компьютерами, богатые предлагают своим наследникам частные школы, где обучение строится на общении между людьми. Жизнь, проведенная перед экраном, теперь есть признак вашей неуспешности в жизни.
В этом моменте Боулерз сбивается на довольно спорные утверждения о том, что взросление с гаджетами вредит когнитивному развитию детей и утверждает, что на стороне IT-корпораций в этой дискуссии выступают многочисленные недобросовестные психологи.
Но когда она описывает 68-летнего пенсионера, живущего на прожиточный минимум, главным собеседником в жизни которого стал нарисованный на планшет кот по имени Sox, текст в целом воспринимается как чрезвычайно убедительный. Нарисованного кота для присмотра за пожилыми людьми придумал 31-летний бизнесмен, сотрудники его стартапа работают из Филиппин.
Если о том, что вы умираете, вам сообщит компьютерная программа, это значит, что вы умираете как бедняк в цифровой экономике.
У богатых общение с людьми — жизнь без телефона в течение дня, выход из социальных сетей и отсутствие ответа на электронную почту — стало символом статуса.
Все это привело к любопытной новой реальности: человеческий контакт становится элитным продуктом.
Поскольку в жизни бедных появляется все больше экранов, они исчезают из жизни богатых. Чем вы богаче, тем больше вы тратите, чтобы быть за кадром.

https://www.nytimes.com/2019/03/23/sunday-review/human-contact-luxury-screens.html
Toward AI We Can Count On 
A consortium of top AI experts proposed concrete steps to help machine learning engineers secure the public's trust.
What’s new: Dozens of researchers and technologists recommended actions to counter public skepticism toward artificial intelligence, fueled by issues like data privacy and accidents caused by autonomous vehicles. The co-authors include scholars at universities like Cambridge and Stanford; researchers at companies including Intel, Google, and OpenAI; and representatives of nonprofits such as the Partnership on AI and Center for Security and Emerging Technology.
Recommendations: Lofty pronouncements about ethics aren’t enough, the authors declare. Like the airline industry, machine learning engineers must build an “infrastructure of technologies, norms, laws, and institutions” the public can depend on. The authors suggest 10 trust-building moves that fall into three categories.
• Institutional mechanisms such as third-party auditing to verify the accuracy of company claims and bounties to researchers who discover flaws in AI systems.
• Software mechanisms that make it easier to understand how a given algorithm works or capture information about a program’s development and deployment for subsequent auditing.
• Hardware mechanisms that protect data privacy, along with subsidies for computing power for academic researchers who may lack resources to evaluate what large-scale AI systems are doing.
Behind the news: The AI community is searching for ways to boost public trust amid rising worries about surveillance, the impact of automation on human labor, autonomous weapons, and computer-generated disinformation. Dozens of organizations have published their own principles, from Google and Microsoft to the European Commission and the Vatican. Even the U.S. Department of Defense published guidelines on using AI during warfare.
Why it matters: Widespread distrust in AI could undermine the great good this technology can do, frightening people away or prompting politicians to hamstring research and deployment.
We’re thinking: Setting clear standards and processes to verify claims about AI systems offers a path for regulators and users to demand evidence before they will trust an AI system. This document’s emphasis on auditing, explainability, and access to hardware makes a solid cornerstone for further efforts.