Asimov Future – Telegram
Сотрудники компании Microsoft, запустившие чат-бот Tay, были вынуждены отключить его через сутки работы из-за расистских высказываний, сообщает the Next Web (http://thenextweb.com/insider/2016/03/24/microsoft-pulled-plug-ai-chatbot-became-racist/)
Tay был разработан в рамках исследования коммуникаций между людьми в сети и должен был общаться с аудиторией 18-24 лет с использованием молодёжного сленга (c u soon, thx, zero chil). Чат-бот обучался через Twitter: первым сообщением было "hellooooooo w🌎rld!!!" в 3:15 дня. Уже в 4:55 утра 24 марта твиты Tay стали носить расистский характер, выражать ненависть к евреям и одобрение Гитлера.
После ряда подобного рода высказываний сотрудники Microsoft удалили почти все твиты своего искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать».
Tay - совместный проект Лаборатории исследований и технологий Microsoft и группы поисковой системы Bing.
Вышла моя статья про сценарии влияния на общество технологий анализа генома и CRISPR. Куда хотим прийти и как не прийти туда, куда не хотим.

Вы-то все это уже знаете - я публиковал в канале все эти мысли кусками. Но теперь собрано в единый текст.

У меня есть еще одна версия статьи на эту же тему - научная, а не научно-популярная на 18000 знаков с упоминанием философского контекста - детерминизма и фатализма. Но ее опубликую позже.

http://rusbase.com/opinion/ethics-genetics/
Если кратко - у человека монополия на эмоциональный интеллект, поэтому не надо бояться машинного интеллекта, а надо с ними объединяться.
http://techcrunch.com/2016/04/12/the-era-of-ai-human-hybrid-intelligence/
Если кратко - у человека монополия на эмоциональный интеллект, поэтому не надо бояться машинного интеллекта, а надо с ними объединяться.
http://techcrunch.com/2016/04/12/the-era-of-ai-human-hybrid-intelligence/
Резкое увеличение разницы продолжительности жизни между богатыми и бедными - один из рисков прорыва в биотехе.

Там же кстати и про сбор персональных генетических и других биоданных

https://www.statnews.com/2016/04/07/google-verily-ethical-questions/
Google запускает проект Baseline. Это биотех на основе медицинской Bog Data.

В статье достаточно жестокий, но понятный пример, объясняющий основную идею. Например, человек приходит к врачу, он полностью его исследует, все данные, разумеется, сохраняются в электронном виде. А на следующий день - так случилось - у человек сердечный приступ (ведь всего предугадать нельзя). Но на основе этого случая и многих аналогичных можно понять, какой химический анализ крови и другие биоданные могут предсказать скорый сердечный приступ.

Ну а дальше на все это навешивается deeplerning (куда же без него).

и второй пример из статьи (уже метафорический) - если у вас есть спички в кармане, у вас бОльшая вероятность рака легких. Потому что скорее всего они вам нужны для курения.

https://www.statnews.com/2015/12/02/google-doctor-jessica-mega/
Интересно про будущее гендера и кризис идентичности. Не задумывался с этой стороны.

Определение себя через гендерную роль - один из достаточно старых способов ответить на вопрос о человеческой природе, "кто я?" и "зачем я?". Способ прохода через кризис идентичности.

Но развитие науки, и в первую очередь биотеха и нейрофизиологии, дает человеку новые ответы. Когда мы понимаем, как это все работает, ответы становятся не столь простыми, но гораздо более интересными.Более того, научный дискурс дает человеку вариант прохода через кризис идентичности не с помощью акта определения себя, а с помощью акта сотворения себя. Цитата: "...is not an act of finding yourself but rather an act of creating yourself". В том числе и определения своего пола, очевидно, такая возможность появится скоро.

Но очевидно, все это возможно только при условии распространения научных знаний.

http://www.theverge.com/2016/4/13/11387934/internet-moderator-history-youtube-facebook-reddit-censorship-free-speech
Хороший большой текст на The Verge про людей, которые занимаются модерацией контента на всяких больших сайтах типа YouTube, Facebook, да и вообще в интернете в целом; про людей, которые реагируют, когда вы отмечаете что-нибудь, как недопустимое, которые ловят троллей и удаляют всякие ужасы — и они, в общем, работают интернет-цензорами.
The Verge рисуют такую картину, что а) это огромная и довольно скрытная индустрия б) не до конца понятно, по каким правилам она работает — и это конечно зависит от конкретных сайтов в) они в состоянии влиять на судьбу всяких важных движений типа #BlackLivesMatter или Арабской весны, и в конечном счёте они руководствуются какими-то своими внутренними принципами.
В целом это текст про вопрос, с которым мы каждый день в интернете сталкиваемся: что важнее — сохранять полную свободу слова или всё-таки сражаться с откровенными мерзостями?

http://www.theverge.com/2016/4/13/11387934/internet-moderator-history-youtube-facebook-reddit-censorship-free-speech
Исчерпывающая классификация точек зрения в биополитике. Всего четыре:

1. Либертарианский трансгуманизм
2. Технопрогрессизм
3. Левый биоконсерватизм
4. Правый биоконсерватизм

А дальше сравниваются их позиции по пунктам:

- гуманизм vs религиозное право
- индивидеальная свобода vs "Yuck factor" (это про то, что если что-то кажется интуитивно плохим без рациональных оснований, то его и стоит признать плохим)
- технологические риски
- экология
- глобализация
- базовый доход
- равенство в доступе к технологиям
- право на гражданство (это про признание киборгов и роботов гражданами и так далее)

А также список групп, ассоциаций и движений по каждой из позиций.

http://ieet.org/index.php/IEET/biopolitics
Ученые из исследовательского центра IBM T.J. Watson хотят повысить производительность нейронных сетей в 30 000 раз. Для этого они намерены разработать резистивные процессорные блоки, которые увеличат скорость передачи данных и позволят искусственному интеллекту понимать речи и переводить со всех языков мира.

Глубокие нейронные сети можно обучить чем угодно, даже мастерской игре в го, но на этот процесс могут уходить дни и недели. Ученые из IBM Тайфун Гокмен и Юрий Власов хотят решить эту проблему с помощью резистивных процессорных блоков (RPU). Пока что такие устройства существуют лишь как концепция и представляют собой центральный процессор с энергонезависимой памятью.

С помощью такого «железа» можно научить нейросети распознавать естественную речь и переводить со всех языков мира.

http://hightech.fm/2016/03/29/resistive_chips
Отпечатки пальцев как способ авторизации, несмотря на рост их использования, уже не очень надёжны - не раз базы с ними уходили в сеть, и, в том числе, среди пострадавших были государственные работники. Последние дни как-то активизировалась тема с альтернативными биометрическими паролями. Наверное, самый интересный в плане цена/качество, из предложенных способов - аутентификация через "костную проводимость". Устройство посылает в череп ультразвуковой сигнал, в ответ на что получает уникальное для каждого человека "звучание черепа". В качестве прототипа учёные использовали модифицированную версию Google Glass, с помощью которого они уже добились точности идентификации пользователя в 97%. Вообще, конечно, ничто не мешает с той же лёгкостью правительствам и компаниями протерять в Интернет и "отпечатки звука черепа" тоже. Но всё же, пока ничего надёжней не придумали, данный способ может быть достойной альтернативой легко подделываемым и уже не очень безопасным отпечаткам пальцев. http://www.engadget.com/2016/04/22/skull-login-bone-conduction-biometrics/
Как создать моральную машину?

Можно действовать напрямую: во-первых, принять решение о конкретном этическом законае (максимизировать счастье, к примеру), написать код для его реализации, и создать робота, который строго следует коду.

Но трудности возникают в момент принятия конкретных решений с учетом наперед заданного этического закона. Например, если робот будет максимизировать счастье, будет ли он забирать органы от одного человека, чтобы спасти пятерых?

Второй вариант заключается в создании робота на машинном обучении и дать ему возможность научиться, как реагировать на различные ситуации, с тем, чтобы прогнозировать этические исходы. Это похоже на то, как люди учатся морали. Хотя это поднимает вопрос о том, являются ли люди, на самом деле, лучшими нравственными учителями. Думаю, в каждого в жизни было немало возможностей в этом усомнится.

Как пример трудностей этого варинта можно вспомнить недавнюю историю чат-бота Microsoft, который после общения в твиттере стал сторонником Гитлера.

А стоит ли вообще делать роботов, способдных к принятию этических решений?
Вообще, быть может, они для этого подходят даже лучше, чем мы: люди являются продуктом естественного отбора, и он встроил в нас мыслительные паттерны, являющиеся корыстными или, по крайней мере, ведущие к действиям в интересах нашей группы против другиз. Они направлены на то, чтобы быть в состоянии выжить как вид. Роботы же лишены этих качеств.

http://qz.com/653575/can-we-trust-robots-to-make-moral-decisions/
Немного инсайтов об исследовательском проекте OpenAI - сколько денег и кому предлагал, кто курировал встречи. И вообще история создания проекта.

А ситуация на самом деле очень крутая. Помните шумиху, поднятую Маском и другими про то, что ИИ опасен? Вот надо отдать должное Маску, вслед за словами он делает дела. OpenAI - как раз ответ на эту угрозу. Он будет исследоватеть ИИ и сразу делится всеми наработками с миром, чтобы как только/если ИИ появится, он появился не один, а появилось сразу много ИИ в разных уголках мира. Это не панацея, но конкуренция между этими ИИ даст (возможно) хоть немного времени человечеству в условиях "угрозы нулеового дня"

Но есть и другое мнение: Ник Бостром, оксфордский философ, который как и Маск предупреждал об опасностях ИИ, указывает, что если вы делитесь исследованиями без ограничений, «плохие актеры» могут схватить их до того, как все убедятся в их безопасности. «Если у вас есть кнопка, которая делает дрянь в мире, — говорит Бостром, — вы вряд ли захотите дать к ней доступ каждому». Если же, с другой стороны, OpenAI решит придержать исследования, чтобы к ним не получили доступ плохие парни, Бостром спрашивает: а чем это будет отличаться от Google или Facebook?

Он говорит, что да, некоммерческий статус OpenAI может изменить положение вещей, а может и не изменить. Реальная сила проекта, говорит он, в том, что он сможет обеспечить проверку Google и Facebook. «Он сможет уменьшить вероятность того, что сверхинтеллект будет монополизирован. Он сможет убрать одну из возможных причин, почему некоторые лица или группы получат доступ к более качественному ИИ, чем все остальные».

В одной из последних работ философ объясняет, что основной эффект инициативы вроде OpenAI — инициативы свободно делиться своими наработками — состоит в ускорении прогресса искусственного интеллекта, хотя бы в краткосрочной перспективе. И он может ускорить прогресс в долгосрочной перспективе, при условии, что будет соблюден более высокий уровень открытости, чем было бы коммерчески оптимально.

http://hi-news.ru/technology/osvobodit-iskusstvennyj-intellekt-openai-bezumnyj-plan-elona-maska.html
В статье рассматриваются один из сценариев развития технологий (прежде всего, редактирование генома и анализ коннектома), который изменят систему разделения труда и поставят перед системой образования новые задачи в непривычном для нее формате общества. Редактирование генома может привести к созданию предрасположенностей человека на этапе эмбриона к получению тех или иных компетенций.
В сочетании с учетом генетической карты человека при приеме на учебу, а впоследствии – и на работу, это приведет к ситуации генетического детерминизма профессиональной траектории, появлению «генетических каст». Также предложено описание философского контекста ситуации, а именно космологического и антропологически-этического детерминизма. Изменение философских предпосылок свободы выбора может изменить восприятие этих категорий в обществе, и, следовательно, в системе образования.

http://www.therunet.com/articles/6704
Психологи из Вашингтонского университета провели ряд экспериментов, демонстрирующих, что с помощью музыки можно улучшить понимание речи и помочь маленьким детям научиться говорить.
У тех, кто играл в музыкальные игры во время эксперимента, мозг сильнее отвечал на ритмические нарушения – это было видно по активности слуховой коры и по активности префронтальной коры, которая среди прочего управляет вниманием и способностью чувствовать структуру в том, что мы воспринимаем.
Если мозг чувствует перебои ритма, значит, он в принципе его услышал, усвоил – в противном случае он не чувствовал бы никаких изменений. После музыкальных игр можно было ожидать, что дети лучше начнут воспринимать музыку, однако, в качестве «побочного эффекта» мозг стал активнее реагировать и на речевую структуру.
Опубликовано в PNAS
http://www.pnas.org/content/113/19/5212.full

Психологи из Вермонтского университета (США) проанализировали данные томографии и психологических тестов более двухсот детей и подростков от 6 до 18 лет, и выяснили,что занятия музыкой отражаются, в первую очередь, на моторной коре, отвечающей за координацию движений, а также на зонах мозга, которые отвечают за поведение, внимание, рабочую память, организацию и планирование действий. Влияние занятий музыкой было благоприятным – уменьшалась тревожность, повышалась эмоциональная устойчивость, улучшалась координация движений и способность к концентрации внимания.
Опубликовано в Journal of the American Academy of Child & Adolescent Psychiatry
http://www.jaacap.com/article/S0890-8567(14)00578-4/abstract

Нина Краус (Nina Kraus) и её коллеги из Северо-Западного университета выбрали 40 подростков, поступивших в среднюю школу, за чьими успехами они следили до последнего курса. Половина учеников записались на музыкальные занятия, на которых они 2-3 часа в неделю на каких-то инструментах, другая половина посвятила то же время интенсивным физическим упражнениям.
По результатам тестов и сканирований, мозг тех, кто играл на музыкальных инструментах, с большей чувствительностью реагировал на звуковые оттенки, и это давало свои плюсы и в изучении языка. Опубликовано в PNAS
http://www.pnas.org/content/early/2015/07/15/1505114112.abstract

А сотрудники Эксетерского университета выяснили, что и чтение с точки зрения физиологии мозга может быть сродни слушанию музыки – оказалось, что любимые книги будят в нашей голове те же зоны, которые отвечают за музыкальные переживания. Видимо, музыка является языком не только с точки зрения семиотики, эстетики и пр., но и с точки зрения нейробиологии.
http://www.exeter.ac.uk/news/featurednews/noscript_324631_en.html
25 мая в Москве пройдет третий семинар по взаимодействию технологий и общества, организованный нашими партнерами — Московским технологическим институтом и Future Foundation.

Тема семинара: «Восприятие новых технологий на примере дилеммы мирного атома».

Спикер: Максим Киселев — доктор социальной психологии, ментор и эксперт Фонда «Сколково», ментор проектов Сколтеха, эксперт МАГАТЭ по социальным и психологическим последствиям катастрофы Фукусима-Даичи.

Подробности и регистрация по ссылке: https://futuref.timepad.ru/event/330501/

Участие бесплатное.
Портал с образовательными материалами по этике для инженеров, ученых, преподавателей, студентов и вообще всех заинтересованных в ответах на вопросы, возникающие в области взаимодействия науки и технологий с обществом.

Например, запись из раздела их форума по Case Study: "Дилемма ДНК": один ученый проводил исследования ДНК у пациентов с раком молочной железы случайно увидел, что его коллега взял немного его образцов ДНК для использования в виде контрольной группы своего нейробиологического исследования. В форму согласия первого ученого, которую он подписывал с пациентами при сборе их ДНК, не входит такое использование их биологических материалов.
Ну и дальше в комментариях они обсуждают как нужно поступить.

http://www.onlineethics.org/
Библиотека материалов по образованию в области этики технологий и научной этики от Технологического Института Иллинойса.

В том числе:
- case study распределенные по предметным областям, дисциплинам и уровню аудитории
- образовательные методики и программы по этике, разработанные профессорами университетов США и всего мира
- практические методологии - как преподавателю начать говорить с аудиторией об этике в области техники, как отвечать на вопросы.
- методы оценки эффективности образовательных программ

http://ethics.iit.edu/eelibrary/
Доклад Президентской комиссии США по изучению проблем биоэтики (Presidential Commission For The Study Of Bioethical Issues): "Биоэтика для каждого поколения - дискуссия и образование в области медицины, науки и технологий".

Вот вы думаете о чем большая часть этого документа? Не о самой биоэтике, а о этических принципах публичных дискуссий на эту тему, о методах групповой работы на таких дискуссиях. И сначала я посмотрел и мне показалось, что это уж очень очевидные вещи говорят, но потом, вспомнив недавно найденную мною статью про обсуждение СПИДа в России (http://kommersant.ru/doc/3000818), я понял, что авторы доклада очень правы.

Краткое содержание:

Принятие решений в области биоэтики должно основываться на демократических принципах и учитывать как мнение экспертного сообщества, так и гражданское общество. Государственные и муниципальные органы должны организовывать такие публичные дискуссии, при этом стимулировать в этих дискуссиях взаимопонимание и уважение между участниками. Организатор дискуссии должен заложить определенный стиль и уровень обсуждения - подтверждение позиции каждого участника научными фактами, уважение, но в то же время критическое отношение к этим фактам со стороны других участников.

Очень хорошая мысль: мы уже не можем не решать этические проблемы, избежать этого выбора. Они касаются каждого из нас. И продолжают они тем что учить этике нужно со школы.

Вот замечательное место: учащимся старших классов начальной школы может быть предложено сравнить теории, к которым пришла науки по сравнению с теми, которые появились в рамках иных методологий. Или рассуждать на тему детерминизма, отвечая на такие вопросы как, например: "Являются ли наше будущее и судьба предопределенной?", "Оказывает ли то, что мы делаем сегодня влияние на то, что произойдет завтра?".

Общественные дискуссии имеют и образовательное значение, а само образование стимулирует повышение качества дискуссий. Это взаимное дополнение форматов является крайне важным.

Также комиссии по биоэтике должны производить просветительские брошюры, причем не только для экспертного сообщества, но и для широкой общественности.