Asimov Future – Telegram
Отпечатки пальцев как способ авторизации, несмотря на рост их использования, уже не очень надёжны - не раз базы с ними уходили в сеть, и, в том числе, среди пострадавших были государственные работники. Последние дни как-то активизировалась тема с альтернативными биометрическими паролями. Наверное, самый интересный в плане цена/качество, из предложенных способов - аутентификация через "костную проводимость". Устройство посылает в череп ультразвуковой сигнал, в ответ на что получает уникальное для каждого человека "звучание черепа". В качестве прототипа учёные использовали модифицированную версию Google Glass, с помощью которого они уже добились точности идентификации пользователя в 97%. Вообще, конечно, ничто не мешает с той же лёгкостью правительствам и компаниями протерять в Интернет и "отпечатки звука черепа" тоже. Но всё же, пока ничего надёжней не придумали, данный способ может быть достойной альтернативой легко подделываемым и уже не очень безопасным отпечаткам пальцев. http://www.engadget.com/2016/04/22/skull-login-bone-conduction-biometrics/
Как создать моральную машину?

Можно действовать напрямую: во-первых, принять решение о конкретном этическом законае (максимизировать счастье, к примеру), написать код для его реализации, и создать робота, который строго следует коду.

Но трудности возникают в момент принятия конкретных решений с учетом наперед заданного этического закона. Например, если робот будет максимизировать счастье, будет ли он забирать органы от одного человека, чтобы спасти пятерых?

Второй вариант заключается в создании робота на машинном обучении и дать ему возможность научиться, как реагировать на различные ситуации, с тем, чтобы прогнозировать этические исходы. Это похоже на то, как люди учатся морали. Хотя это поднимает вопрос о том, являются ли люди, на самом деле, лучшими нравственными учителями. Думаю, в каждого в жизни было немало возможностей в этом усомнится.

Как пример трудностей этого варинта можно вспомнить недавнюю историю чат-бота Microsoft, который после общения в твиттере стал сторонником Гитлера.

А стоит ли вообще делать роботов, способдных к принятию этических решений?
Вообще, быть может, они для этого подходят даже лучше, чем мы: люди являются продуктом естественного отбора, и он встроил в нас мыслительные паттерны, являющиеся корыстными или, по крайней мере, ведущие к действиям в интересах нашей группы против другиз. Они направлены на то, чтобы быть в состоянии выжить как вид. Роботы же лишены этих качеств.

http://qz.com/653575/can-we-trust-robots-to-make-moral-decisions/
Немного инсайтов об исследовательском проекте OpenAI - сколько денег и кому предлагал, кто курировал встречи. И вообще история создания проекта.

А ситуация на самом деле очень крутая. Помните шумиху, поднятую Маском и другими про то, что ИИ опасен? Вот надо отдать должное Маску, вслед за словами он делает дела. OpenAI - как раз ответ на эту угрозу. Он будет исследоватеть ИИ и сразу делится всеми наработками с миром, чтобы как только/если ИИ появится, он появился не один, а появилось сразу много ИИ в разных уголках мира. Это не панацея, но конкуренция между этими ИИ даст (возможно) хоть немного времени человечеству в условиях "угрозы нулеового дня"

Но есть и другое мнение: Ник Бостром, оксфордский философ, который как и Маск предупреждал об опасностях ИИ, указывает, что если вы делитесь исследованиями без ограничений, «плохие актеры» могут схватить их до того, как все убедятся в их безопасности. «Если у вас есть кнопка, которая делает дрянь в мире, — говорит Бостром, — вы вряд ли захотите дать к ней доступ каждому». Если же, с другой стороны, OpenAI решит придержать исследования, чтобы к ним не получили доступ плохие парни, Бостром спрашивает: а чем это будет отличаться от Google или Facebook?

Он говорит, что да, некоммерческий статус OpenAI может изменить положение вещей, а может и не изменить. Реальная сила проекта, говорит он, в том, что он сможет обеспечить проверку Google и Facebook. «Он сможет уменьшить вероятность того, что сверхинтеллект будет монополизирован. Он сможет убрать одну из возможных причин, почему некоторые лица или группы получат доступ к более качественному ИИ, чем все остальные».

В одной из последних работ философ объясняет, что основной эффект инициативы вроде OpenAI — инициативы свободно делиться своими наработками — состоит в ускорении прогресса искусственного интеллекта, хотя бы в краткосрочной перспективе. И он может ускорить прогресс в долгосрочной перспективе, при условии, что будет соблюден более высокий уровень открытости, чем было бы коммерчески оптимально.

http://hi-news.ru/technology/osvobodit-iskusstvennyj-intellekt-openai-bezumnyj-plan-elona-maska.html
В статье рассматриваются один из сценариев развития технологий (прежде всего, редактирование генома и анализ коннектома), который изменят систему разделения труда и поставят перед системой образования новые задачи в непривычном для нее формате общества. Редактирование генома может привести к созданию предрасположенностей человека на этапе эмбриона к получению тех или иных компетенций.
В сочетании с учетом генетической карты человека при приеме на учебу, а впоследствии – и на работу, это приведет к ситуации генетического детерминизма профессиональной траектории, появлению «генетических каст». Также предложено описание философского контекста ситуации, а именно космологического и антропологически-этического детерминизма. Изменение философских предпосылок свободы выбора может изменить восприятие этих категорий в обществе, и, следовательно, в системе образования.

http://www.therunet.com/articles/6704
Психологи из Вашингтонского университета провели ряд экспериментов, демонстрирующих, что с помощью музыки можно улучшить понимание речи и помочь маленьким детям научиться говорить.
У тех, кто играл в музыкальные игры во время эксперимента, мозг сильнее отвечал на ритмические нарушения – это было видно по активности слуховой коры и по активности префронтальной коры, которая среди прочего управляет вниманием и способностью чувствовать структуру в том, что мы воспринимаем.
Если мозг чувствует перебои ритма, значит, он в принципе его услышал, усвоил – в противном случае он не чувствовал бы никаких изменений. После музыкальных игр можно было ожидать, что дети лучше начнут воспринимать музыку, однако, в качестве «побочного эффекта» мозг стал активнее реагировать и на речевую структуру.
Опубликовано в PNAS
http://www.pnas.org/content/113/19/5212.full

Психологи из Вермонтского университета (США) проанализировали данные томографии и психологических тестов более двухсот детей и подростков от 6 до 18 лет, и выяснили,что занятия музыкой отражаются, в первую очередь, на моторной коре, отвечающей за координацию движений, а также на зонах мозга, которые отвечают за поведение, внимание, рабочую память, организацию и планирование действий. Влияние занятий музыкой было благоприятным – уменьшалась тревожность, повышалась эмоциональная устойчивость, улучшалась координация движений и способность к концентрации внимания.
Опубликовано в Journal of the American Academy of Child & Adolescent Psychiatry
http://www.jaacap.com/article/S0890-8567(14)00578-4/abstract

Нина Краус (Nina Kraus) и её коллеги из Северо-Западного университета выбрали 40 подростков, поступивших в среднюю школу, за чьими успехами они следили до последнего курса. Половина учеников записались на музыкальные занятия, на которых они 2-3 часа в неделю на каких-то инструментах, другая половина посвятила то же время интенсивным физическим упражнениям.
По результатам тестов и сканирований, мозг тех, кто играл на музыкальных инструментах, с большей чувствительностью реагировал на звуковые оттенки, и это давало свои плюсы и в изучении языка. Опубликовано в PNAS
http://www.pnas.org/content/early/2015/07/15/1505114112.abstract

А сотрудники Эксетерского университета выяснили, что и чтение с точки зрения физиологии мозга может быть сродни слушанию музыки – оказалось, что любимые книги будят в нашей голове те же зоны, которые отвечают за музыкальные переживания. Видимо, музыка является языком не только с точки зрения семиотики, эстетики и пр., но и с точки зрения нейробиологии.
http://www.exeter.ac.uk/news/featurednews/noscript_324631_en.html
25 мая в Москве пройдет третий семинар по взаимодействию технологий и общества, организованный нашими партнерами — Московским технологическим институтом и Future Foundation.

Тема семинара: «Восприятие новых технологий на примере дилеммы мирного атома».

Спикер: Максим Киселев — доктор социальной психологии, ментор и эксперт Фонда «Сколково», ментор проектов Сколтеха, эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы Фукусима-Даичи.

Подробности и регистрация по ссылке: https://futuref.timepad.ru/event/330501/

Участие бесплатное.
Портал с образовательными материалами по этике для инженеров, ученых, преподавателей, студентов и вообще всех заинтересованных в ответах на вопросы, возникающие в области взаимодействия науки и технологий с обществом.

Например, запись из раздела их форума по Case Study: "Дилемма ДНК": один ученый проводил исследования ДНК у пациентов с раком молочной железы случайно увидел, что его коллега взял немного его образцов ДНК для использования в виде контрольной группы своего нейробиологического исследования. В форму согласия первого ученого, которую он подписывал с пациентами при сборе их ДНК, не входит такое использование их биологических материалов.
Ну и дальше в комментариях они обсуждают как нужно поступить.

http://www.onlineethics.org/
Библиотека материалов по образованию в области этики технологий и научной этики от Технологического Института Иллинойса.

В том числе:
- case study распределенные по предметным областям, дисциплинам и уровню аудитории
- образовательные методики и программы по этике, разработанные профессорами университетов США и всего мира
- практические методологии - как преподавателю начать говорить с аудиторией об этике в области техники, как отвечать на вопросы.
- методы оценки эффективности образовательных программ

http://ethics.iit.edu/eelibrary/
Доклад Президентской комиссии США по изучению проблем биоэтики (Presidential Commission For The Study Of Bioethical Issues): "Биоэтика для каждого поколения - дискуссия и образование в области медицины, науки и технологий".

Вот вы думаете о чем большая часть этого документа? Не о самой биоэтике, а о этических принципах публичных дискуссий на эту тему, о методах групповой работы на таких дискуссиях. И сначала я посмотрел и мне показалось, что это уж очень очевидные вещи говорят, но потом, вспомнив недавно найденную мною статью про обсуждение СПИДа в России (http://kommersant.ru/doc/3000818), я понял, что авторы доклада очень правы.

Краткое содержание:

Принятие решений в области биоэтики должно основываться на демократических принципах и учитывать как мнение экспертного сообщества, так и гражданское общество. Государственные и муниципальные органы должны организовывать такие публичные дискуссии, при этом стимулировать в этих дискуссиях взаимопонимание и уважение между участниками. Организатор дискуссии должен заложить определенный стиль и уровень обсуждения - подтверждение позиции каждого участника научными фактами, уважение, но в то же время критическое отношение к этим фактам со стороны других участников.

Очень хорошая мысль: мы уже не можем не решать этические проблемы, избежать этого выбора. Они касаются каждого из нас. И продолжают они тем что учить этике нужно со школы.

Вот замечательное место: учащимся старших классов начальной школы может быть предложено сравнить теории, к которым пришла науки по сравнению с теми, которые появились в рамках иных методологий. Или рассуждать на тему детерминизма, отвечая на такие вопросы как, например: "Являются ли наше будущее и судьба предопределенной?", "Оказывает ли то, что мы делаем сегодня влияние на то, что произойдет завтра?".

Общественные дискуссии имеют и образовательное значение, а само образование стимулирует повышение качества дискуссий. Это взаимное дополнение форматов является крайне важным.

Также комиссии по биоэтике должны производить просветительские брошюры, причем не только для экспертного сообщества, но и для широкой общественности.
Про мораль роботов и однополый браки

Друзья, это замечательно! Статья "Как создать морального робота?". Кратко: описывается идея создать семантическое поле выражений, фраз и слов, в общем - смыслов, которыми люди оперируют при описании моральных решений. А дальше обучить робота на этой базе.

Но самое печально-интересное в этой статье - это второй комментарий от некого эксперта по кибер-безопасности Бифа Хенерсона. Если бы это был российский сайт, я бы подумал, что это бот из Ольгино. А здесь - вот даже не знаю, всерьез ли он - комментарий наполнен клеше до степени карикатурности. Вот дословный перевод:

"Кто решает что правильно, а что не правильно? Как мне кажется, американское общество потеряло свой путь. Я определенно не хочу, чтобы оно [американское общество] закладывало свою систему ценностей в моего робота. Мужчины вступают в брак с мужчинами, убивают детей, позволяют мужчинам находиться в публичном душе с маленькими девочками, безнаказанно употреблять наркотики, нарушаются иммиграционные законы и так далее... Надеюсь, роботы будут разделять истинные ценности, такие, которые определили наши бабушки и дедушки"

http://spectrum.ieee.org/video/robotics/robotics-software/how-to-build-a-moral-robot
Нейронные сети, благодаря последним победам, начали всё больше называть аналогом человеческого мозга и даже "искусственным интеллектом". Так как такие заявления звучат даже от непосредственно связанных с этим или просто знаменитых людей, то уверенность в этом крепнет и превращается из красивой аналогии и упрощения в то, что все считают фактом. Тезис автора данной статьи примерно таков: к сожалению, как бы мы не хотели, но нейронные сети (а именно deep learning, который и изменил данную область в последнее время) - это технология работы с данными, не больше и не меньше. Сам по себе deep learning не решит всех проблем, не поможет вылечить рак (как минимум пока мы не поняли, как эту задачу представить с помощью данных) и не даст компьютеру по-настоящему "думать". Более того, это - не универсальный метод анализа данных, а лишь один из спектра технологий в machine learning. Да, мы можем достичь многого используя нейронные сети, даже создать очень эффектно выглядящую иллюзию "самостоятельно творящей" машины, но это не стоит рассматривать как правду, потому что, без участия человека, нейронные сети - это не про творчество, а просто про очень тщательно сделанный анализ и перекомпиляцию существующей информации по заданным человеком же "направлениям". Мы не нашли и вряд ли найдём тут Святой Грааль, - скорее научимся пользоваться новым инструмента для узких, но сложных задач, которые раньше казались выполнимыми исключительно человеком. От себя бы я добавил также, что не стоит ждать, что буквально завтра все заменимые нейронными сетями задачи будут их использовать - во многих местах КПД человеческого мозга несравнимо выше огромных кластеров железа. http://blog.claymcleod.io/2016/06/01/The-truth-about-Deep-Learning/
О «третьей части личности» человека – цифровом следе, который мы оставляем после себя.
Давайте подумаем, чем описывается в конкретный момент времени наша личность, сознание, «я»? В рамках данной статьи примем за данность факт, что описывается она исключительно состоянием мозга и остальной нервной системы. То есть положением всех связей нейронов, их возбужденностью, а также количеством гормонов и других химических элементов, влияющих на наше поведение.

В науке это называется коннектом (connectome) – совокупность и конфигурация всех нейронов, их связей, распределения зарядов, и метаболом (metabolome) – совокупность и конфигурация всех синапсов, молекул нейромедиаторов, гормонов.

Предлагаю называть этот цифровой след, это персональное цифровое окружение, третью часть нашей личности siliconome (силиконом), по аналогии с теми двумя ome'ами.

http://rusbase.com/opinion/forever-alive/
Интересно в этом эксперименте то, что "случайный порядок" (он случайно решает, причинить ли боль) вскрывает вопрос хаотичности, как условия свободы воли. Является ли это необходимым условием? Ну, с одной стороны, очевидно, если мы знаем, что стоит рандомайзер, то не считаем это свободой воли. С другой стороны, полная детерминированность человеческой мыследеятельности может быть задана только на уровне "Демона Лапласа", то есть в реальности никак.

http://apparat.cc/news/first-law-robot/
Краткая выжимка основных мыслей из книги американского философа и футуролога Элвина Тоффлера «Третья волна» (The Third Wave) — о том, какие изменения в обществе ждут нас в ближайшее время и как к ним подготовиться.

https://vc.ru/p/third-wave
«Скоро мы перестанем программировать компьютеры. Мы будем обучать их как собак» - интереснейшая статья от Wired в переводе The Idealist.

До изобретения компьютера большинство психологов-экспериментаторов думали, что человеческий мозг - это непостижимый черный ящик. Затем в середине 1950-х группа мятежных психологов, лингвистов, информационных теоретиков и ранних исследователей искусственного интеллекта выступили с иной концепцией разума. Они утверждали, что люди представляли собой не просто собрание условных рефлексов. Они поглощали информацию, обрабатывали ее и затем действовали в соответствии с ней. У них есть системы для написания, хранения и вызова в памяти воспоминаний. Они действовали с помощью логики и формального синтаксиса. Мозг - совсем не черный ящик. Он больше похож на компьютер.

Психологи начали описывать мысли как программы, обычные люди говорили о способности запоминать и хранить факты, как о биологических жестких дисках, и бизнес-гуру беспокоились об ограничениях психической пропускной способности и вычислительной мощности на современном рабочем месте. По мере того, как цифровая революция проникает в каждую часть наших жизней, она также распространяется на наш язык и наши глубокие основные теории о том, как устроен мир. Технологии всегда это делают. В эпоху Просвещения Ньютон и Декарт вдохновили людей думать о Вселенной как о сложных часах. Сейчас это компьютер, который, если подумать об этом, является принципиально новой идеей. Потому что если мир - это компьютер, значит его можно запрограммировать.
Код логичен. Код можно взломать. Код - это судьба.

https://www.facebook.com/1732037997052444
Будущее преступлений.

Описание преступления в недалеком будущем может выглядеть таким образом: «Мужчина был задержан за стрельбу в свою жену, но освобожден после того, как выяснилось, что его бионическая рука была взломана»

В глобальной связности и наша сила, и наша уязвимость. Чем быстрее по сети распространяется информация, тем быстрее это сделает и вредоносный код.

Из неожиданного, об этом я раньше не задумывался, а ведь верно:
"Опыт показал, что с помощью ЭЭГ и демонстрации подопытному цифровой панели банкомата с 30-процентной точностью можно определить PIN-код карты, которую использует этот человек."

http://apparat.cc/world/future-crimes/
Asimov Future
GIF
Юмористическая иллюстрация концепции sousveillance - взаимного наблюдения. Идея ответа нарушению приватности со стороны государств с помощью создания прозрачного общества - наблюдения всех за всеми. Таким образом пропадает основная проблема слежки - асимметрия в обладании информации между государством/корпорациями/хакерами и гражданами.