Collective Intelligence – Telegram
Collective Intelligence
742 subscribers
39 photos
1 video
32 files
438 links
Collective intelligence (CI) is shared or group intelligence that emerges from the collaboration, collective efforts, and competition of many individuals and appears in consensus decision making.
Download Telegram
Forwarded from Канал Алексея Радченко (Алексей Радченко)
New York Times публикует мощный текст с основным тезисом: потребление цифровых услуг - это признак бедности. Мы говорим цифровая экономика, а подразумеваем экономика услуг для бедняков.
Вы бедный, если ваш врач консультирует вас по интернету, а не в ходе личной встречи.
Бедный, если ваши дети учатся онлайн, а не у оффлайновых преподавателей.
Бедный, если покупаете товары онлайн, а не в красивом магазине в центре города.
Для бедных существует гигантский рынок сексуальных услуг онлайн, на котором жители третьего мира продают эротические фантазии бедным гражданам мира первого, которые в состоянии потратить на это лишние десять долларов.
Тот факт, что богатые предпочитают старомодных тьюторов, личных тренеров и поваров, а не Coursera или доставку еды через смарфтон, ни для кого не секрет. Но автора статьи Нелли Боулерз идет дальше и заявляет, что происходит "люксеризация" человеческих отношений.
Если вы по-прежнему получается услуги от живых людей или имеете возможность общаться с ними, значит скорее всего вы представитель новой элиты, престижное потребление которой заключается в отказе от цифровых услуг в пользу оффлайновых.
Бедные покупают в кредит Айфон, богатые отказываются от смартфонов. Бедные стараются сделать так, чтобы их дети умели пользоваться компьютерами, богатые предлагают своим наследникам частные школы, где обучение строится на общении между людьми. Жизнь, проведенная перед экраном, теперь есть признак вашей неуспешности в жизни.
В этом моменте Боулерз сбивается на довольно спорные утверждения о том, что взросление с гаджетами вредит когнитивному развитию детей и утверждает, что на стороне IT-корпораций в этой дискуссии выступают многочисленные недобросовестные психологи.
Но когда она описывает 68-летнего пенсионера, живущего на прожиточный минимум, главным собеседником в жизни которого стал нарисованный на планшет кот по имени Sox, текст в целом воспринимается как чрезвычайно убедительный. Нарисованного кота для присмотра за пожилыми людьми придумал 31-летний бизнесмен, сотрудники его стартапа работают из Филиппин.
Если о том, что вы умираете, вам сообщит компьютерная программа, это значит, что вы умираете как бедняк в цифровой экономике.
У богатых общение с людьми — жизнь без телефона в течение дня, выход из социальных сетей и отсутствие ответа на электронную почту — стало символом статуса.
Все это привело к любопытной новой реальности: человеческий контакт становится элитным продуктом.
Поскольку в жизни бедных появляется все больше экранов, они исчезают из жизни богатых. Чем вы богаче, тем больше вы тратите, чтобы быть за кадром.

https://www.nytimes.com/2019/03/23/sunday-review/human-contact-luxury-screens.html
Toward AI We Can Count On 
A consortium of top AI experts proposed concrete steps to help machine learning engineers secure the public's trust.
What’s new: Dozens of researchers and technologists recommended actions to counter public skepticism toward artificial intelligence, fueled by issues like data privacy and accidents caused by autonomous vehicles. The co-authors include scholars at universities like Cambridge and Stanford; researchers at companies including Intel, Google, and OpenAI; and representatives of nonprofits such as the Partnership on AI and Center for Security and Emerging Technology.
Recommendations: Lofty pronouncements about ethics aren’t enough, the authors declare. Like the airline industry, machine learning engineers must build an “infrastructure of technologies, norms, laws, and institutions” the public can depend on. The authors suggest 10 trust-building moves that fall into three categories.
• Institutional mechanisms such as third-party auditing to verify the accuracy of company claims and bounties to researchers who discover flaws in AI systems.
• Software mechanisms that make it easier to understand how a given algorithm works or capture information about a program’s development and deployment for subsequent auditing.
• Hardware mechanisms that protect data privacy, along with subsidies for computing power for academic researchers who may lack resources to evaluate what large-scale AI systems are doing.
Behind the news: The AI community is searching for ways to boost public trust amid rising worries about surveillance, the impact of automation on human labor, autonomous weapons, and computer-generated disinformation. Dozens of organizations have published their own principles, from Google and Microsoft to the European Commission and the Vatican. Even the U.S. Department of Defense published guidelines on using AI during warfare.
Why it matters: Widespread distrust in AI could undermine the great good this technology can do, frightening people away or prompting politicians to hamstring research and deployment.
We’re thinking: Setting clear standards and processes to verify claims about AI systems offers a path for regulators and users to demand evidence before they will trust an AI system. This document’s emphasis on auditing, explainability, and access to hardware makes a solid cornerstone for further efforts.
AI Explorables
Big ideas in machine learning, simply explained
The rapidly increasing usage of machine learning raises complicated questions: How can we tell if models are fair? Why do models make the predictions that they do? What are the privacy implications of feeding enormous amounts of data into models?
This ongoing series of interactive, formula-free essays will walk you through these important concepts.

https://pair.withgoogle.com/explorables
Optimizing AI for Teamwork
Authors: University of Washington and Microsoft Research

We propose training AI systems in a human-centered manner and directly optimizing for team performance. We study this proposal for a specific type of human-AI team, where the human overseer chooses to accept the AI recommendation or solve the task themselves. To optimize the team performance we maximize the team’s expected utility, expressed in terms of quality of the final decision, cost of verifying, and individual accuracies.


https://twitter.com/bansalg_/status/1257413861348651013
https://arxiv.org/abs/2004.13102
Measuring user experience (UX) is an important part of the design process, yet there are few methods to evaluate UX in the early phases of product development. We introduce Triptech, a method used to quickly explore novel product ideas. We present how it was used to gauge the frequency and importance of user needs, to assess the desirability and perceived usefulness of design concepts, and to draft UX requirements for Now Playing-an on-device music recognition system for the Pixel 2. We discuss the merits and limitations of the Triptech method and its applicability to tech-driven innovation practices.

https://dl.acm.org/doi/10.1145/3290607.3299061