Brodetskyi. Tech, VC, Startups – Telegram
Brodetskyi. Tech, VC, Startups
18.9K subscribers
935 photos
208 videos
53 files
3.22K links
Tech, VC, Business, Startups, AI and more.
👤 linkedin.com/in/andrii-brodetskyi
✉️ @politehnik
Download Telegram
Представьте, что прямо сейчас у вас отнимают смартфон и отправляют на химическую экспертизу. Как думаете, много ли может о вас рассказать анализ грязи с экрана? Оказывается, немало.

Учёные из США и Германии взяли пробы с рук и экранов смартфонов 39 добровольцев. 99% проб с рук оказались уникальными, в 69% случаев сравнение проб с рук и экранов позволило точно установить владельца смартфона. Но главная фишка этой техники в другом - анализ грязи на смартфоне позволяет многое узнать о привычках его владельца.

С помощью масс-спектрального анализа исследователи смогли обнаружить на смартфонах следы таких веществ как средства от выпадения волос, воспаления кожи и грибка, антидепрессанты и глазные капли. Следы кофе выдали любителя кофе. Человек, на чьём смартфоне нашли молекулы цитрусовых фруктов, оказался любителем апельсинов (который кроме того пользовался средствами для мытья с цитрусовым ароматом). Ингредиент перца чили капсаицин выдал любителя острой еды. Некоторые химикаты, в частности антимоскитный пестицид, обнаружили спустя 5 месяцев после их применения.

Авторы исследования пишут: “We could tell if a person is likely female, uses high-end cosmetics, dyes her hair, drinks coffee, prefers beer over wine, likes spicy food, is being treated for depression, wears sunscreen and bug spray — and therefore likely spends a lot of time outdoors — all kinds of things”. И это всё - по мазку с экрана смартфона.

Ещё один полезный метод в копилку криминалистов. Шерлок Холмс оценил бы.

Публикация в PNAS: http://www.pnas.org/content/early/2016/11/08/1610019113.full
Новость на Washington Post: http://wpo.st/WeaE2
В Google сделали отличный сайт с демонстрациями различных применений машинного обучения. Распознавание рисованых картинок и пения птиц, умная камера с переводчиком, генератор музыки, "глаза" нейросети - интересные, наглядные примеры, все можно потестировать на сайте и скачать код. В такие моменты жалею, что не умею программировать.

https://aiexperiments.withgoogle.com/
Зашёл почитать русскоязычные форумы в Dark Web и по ходу спалил тайный бизнес Порошенко
"Пост-правда" ("post-truth") - слово года в Оксфордском словаре, спасибо Брекзиту и Трампу.

Подробнее о словах-финалистах: http://blog.oxforddictionaries.com/2016/11/word-of-the-year-2016-shortlist/
Студент из Нью-Йорка провёл интересный эксперимент на тему психологии онлайн-общения. Он запрограммировал ботов находить расистские твиты и писать на них упрекающие ответы. Оказалось, что это работает - количество расистских твитов удалось снизить на 27%. Но только в том случае, если замечание делал аккаунт с большим количеством подписчиков, имитирующий белого мужчину.

Исследование: http://rdcu.be/mzhy

По-русски: http://apparat.cc/news/twitter-bot-racist via @apparatmag
Пригласили на студенческий политклуб в КНУ, поговорим о том, как интернет вредит демократии. Будет интересно, приходите! Если вы в Киеве, конечно.
https://vk.com/political_club_knu?w=wall-81683292_549
Недавно Yahoo опубликовала в открытом доступе нейросеть, распознающую NSFW-картинки. Один программист пошёл ещё дальше: он обучил нейросеть распознавать сцены секса на видео и даже классифицировать их по категориям: blowjob/handjob, cunnilingus, sex back, sex front, titfuck, other. С её помощью можно найти на видео сцены секса - все или определенной категории - и вырезать их, или наоборот - оставить.

Это может пригодиться порносайтам для автоматической классификации видео (хотя у них наверняка есть собственные решения), соцсетям, видеохостингам, файлообменникам и другим платформам для обмена видео - для автоматического обнаружения порнографии. А можно для эксперимента показать ей популярные телешоу или клипы - вдруг что смешное распознает.

https://github.com/ryanjay0/miles-deep

Нейросеть для обнаружения NSFW-картинок от Yahoo: https://github.com/yahoo/open_nsfw

А здесь её использовали для генерации машинного порно, т.е. для создания абстрактных картинок, которые нейросеть оценит как "порнографические": https://open_nsfw.gitlab.io

Если кто-то неленивый сделает такое с этой новой нейросетью, пишите мне, опубликуем.
Давайте поговорим об этике науки. Китайские учёные разработали алгоритм, с помощью машинного обучения предсказывающий преступные наклонности человека по... его лицу. Обработав более 1800 фотографий преступников и законопослушных граждан, алгоритм выделил черты, в которых их лица различались больше всего - изгиб губ, расстояние между глазами, угол между ртом и носом.

Исследование вызвало волну критики - френологию и физиогномику научное сообщество давно признало лженаукой. В комментариях на Hacker News даже предположили, что это шуточное исследование. Но нет, все серьёзно.

Вообще, в Китае проще относятся к вопросам этики в науке и технике - там первыми модифицировали геном человека, там запросто отдают данные пользователей спецслужбам и даже внедряют систему оценки благонадежности граждан на основе данных. Так что френологический алгоритм - это ещё ничего. Главное не фантазировать, как пишут некоторые комментаторы в Twitter - "Представьте этот алгоритм на каждой скрытой камере в каждом городе", потому что тогда действительно становится страшно.

http://motherboard.vice.com/read/new-program-decides-criminality-from-facial-features

По-русски: http://apparat.cc/news/ai-predicts-criminality/
Tesla в пятницу опубликовали видео, иллюстрирующее, как беспилотные автомобили "видят" дорогу и окружающий мир через "умные" камеры: https://vimeo.com/192179727

Если вам интересна эта тема, советую посмотреть другое видео - мини-лекцию директора разработки беспилотных машин в Google. Он не только показывает, как сенсоры машины "видят" дорогу, другие транспортные средства и пешеходов, но и рассказывает о проблемах, с которыми сталкиваются разработчики в связи с нестандартными ситуациями на дороге.
https://www.ted.com/talks/chris_urmson_how_a_driverless_car_sees_the_road (есть субтитры)
Хорошая статья, объясняющая слово года по версии Оксфордского словаря - "post-truth", пост-истина.

Оглянувшись вокруг себя в конце 2016 года, мы можем уверенно сказать: истины нет, есть множество "правд", которая у каждого своя. Мир, в котором всё относительно и нет ничего абсолютного, предвосхитили философы-постмодернисты прошлого века. Теперь он стал реальностью - благодаря интернету, информационным пузырям, фейковым новостям, конспирологам, теориям заговора и политикам-популистам.

Советую прочитать - это правда важная концепция, с которой лучше быть знакомым.

https://nplus1.ru/material/2016/11/21/post-truth-world
Заметил, что когда в канал долго не пишешь, количество подписчиков медленно, но стабильно растёт. Но после каждого поста несколько человек (от 1 до 10) отписываются. Думаю, здесь есть несколько сценариев:

1) Человеку не понравился пост. Неинтересная тема, плохо написано, реклама или неинтересный репост.

2) Человек понял, что этот канал ему неинтересен. Я сам часто подписываюсь на каналы "почитать", потом читаю, если не нравится - отписываюсь. И не огорчаюсь, если люди отписываются от меня по этой причине (и в соцсетях тоже) - значит человек был не в целевой аудитории. Каждый должен читать то, что ему интересно.

3) Человек понял, что в канале слишком часто выходят посты и он не успевает их читать. Такое тоже бывает, иногда вместе с предыдущим пунктом. У вас наверняка тоже висят в ленте каналы с сотнями непрочитанных постов - вот это оно.

Но это я сужу по себе, а в таких вопросах лучше работает коллективный разум. Мнение людей, отписавшихся от моего канала, я уже не узнаю, но думаю, что опрос оставшихся подписчиков тоже многое расскажет о том, как люди читают каналы.

Можете также зайти в чат @techmediachat и обсудить тему отписки там. После каких постов вы отписываетесь от каналов? Какая реклама вас бесит? Что вы имели в виду, когда выбрали "Другое"? Напишите, это интересно.
Из-за чего вы чаще всего отписываетесь от каналов в Telegram?

Отписываюсь, когда понимаю, что канал мне неинтересен – 1K
👍👍👍👍👍👍👍 64%

Слишком много постов, не успеваю читать – 509
👍👍 22%

Много рекламы – 192
👍 8%

Бесят отдельные посты – 81
▫️ 3%

Другое – 64
▫️ 3%

👥 2323 people voted so far. Poll closed.
Очень интересно: разработчики нейросетевого переводчика Google обнаружили, что он может переводить предложения между парами языков, переводить которые его не обучали (!).

Они взяли три языка - английский, японский и корейский, и показали алгоритму примеры перевода в парах "английский-японский" и "английский-корейский" (в обе стороны). И - о чудо - алгоритм смог переводить предложения с корейского на японский и наоборот, хотя его этому не обучали.

В общем, выглядит так, будто нейросеть нашла какой-то универсальный промежуточный язык для описания слов на других языках. Только представьте себе это!

https://research.googleblog.com/2016/11/zero-shot-translation-with-googles.html

по-русски: http://apparat.cc/news/google-translate-ai-secret-internal-language/
Очень круто: команда исследователей из Оксфорда и DeepMind разработала алгоритм, который читает по губам лучше, чем человек.

Для обучения нейросети показали 5 тысяч часов видеозаписи с субтитрами шести разных телепередач из архива BBC за последние 5 лет. Это более 118 тысяч предложений с синхронным видео.

При тестировании на незнакомом видео нейросеть правильно прочитала по губам 46,8% слов, а профессиональный чтец по губам - всего 12,4%.

Несколько недель назад другая команда разработчиков из Оксфорда создала алгоритм LipNet, распознающий по губам 93% слов. Но его обучали на упрощенном и ограниченном учебном массиве GRID, состоящем из 33 тысяч шаблонных предложений типа "Установи синий на А4, пожалуйста", специально начитанных на камеру. То есть возможности LipNet сильно ограничены, он не может так эффективно распознавать нормальную живую речь.

Таким образом, специалисты из Оксфорда создали самый эффективный на данный момент алгоритм чтения по губам. Это может пригодиться для озвучки немого кино и для помощи слабослышащим и глухим людям. Можно представить себе встроенную в очки умную камеру, которая распознает речь собеседника и передаёт её в слуховой аппарат. Но даже для этого алгоритм надо серьёзно улучшить - пока он не может читать речь "на лету". Так что не верьте заголовкам в духе "Этот алгоритм будет читать ваши разговоры на расстоянии", до этого пока очень далеко.

Позвонили сегодня с Радио Вести и попросили пересказать эту новость для какой-то передачи (кажется, для выпуска новостей). Пришлось перечитать само исследование. Сложный матан я конечно не понял, но много подробностей узнал. Заодно и понял, чем это круто, а то недавняя новость про LipNet сбила меня с толку - там процент распознавания вроде выше, а на самом деле нет.

https://www.newscientist.com/article/2113299-googles-deepmind-ai-can-lip-read-tv-shows-better-than-a-pro/
по-русски: http://apparat.cc/news/lip-reading-sentences-ai-bbc/

Про LipNet: http://apparat.cc/news/lip-reading-ai/
Фотограф Джонни Миллер с помощью фотографий с дрона показывает неравенство городов. В новой серии его проекта Unequal Scenes - столица Кении Найроби.

По данным исследований, на 10% богатейшего населения Найроби приходится 45% от общих доходов, а на 10% беднейших - всего 1,6%. Это хорошо видно на фото: вот район с красивыми ухоженными коттеджами, а вот трущобы, построенные буквально из грязи и палок. Вот другие трущобы с ржавыми крышами, а через дорогу - огромный гольф-клуб с зелёными полями.

Фотографии говорят сами за себя, но с подписями их смотреть ещё интереснее. Миллера интересует не только неравенство, но и то, как планирование города влияет на жизнь самых незащищенных горожан. Новые дороги расчленяют бедные районы (это хорошо видно на фото), жители этих районов гибнут, перебегая эти дороги - в общем, есть над чем задуматься не только урбанистам.

http://www.unequalscenes.com/nairobi

На сайте проекта ещё много хороших фото, полистайте, если интересно.

А вот фото Миллера из ЮАР, где наследие апартеида видно в городском планировании, и интервью с ним: http://www.citylab.com/housing/2016/06/apartheids-urban-legacy-in-striking-aerial-photographs-south-africa-cities-architecture-racism/487808/
В последнее время часто попадаются интересные новости из области кибербезопасности. Я не фанат этой темы, но благодаря некоторым новостям узнаю много нового (хоть и закончил факультет вычислительной техники).

Вот например. Оказывается, подключенные к компьютеру наушники могут работать как микрофон - достаточно подключить их вместо аудиовыхода к аудиовходу. В динамике и микрофоне работает та же физика - в динамике электрические импульсы преобразуются в магнитные колебания, а в микрофоне - наоборот, с катушки снимается напряжение, созданное колебаниями, и преобразуется в импульсы.

Так вот, израильские исследователи кибербезопасности разработали программу, которая незаметно для пользователя превращает наушники в микрофон на программном уровне - на некоторых звуковых картах есть такая опция, jack retasking. Это работает со всеми звуковыми картами от RealTek - то есть на большинстве компьютеров под Windows и MacOS (у меня тоже такая).

То есть теоретически хакеры могут установить на ваш компьютер malware и записывать ваши разговоры даже без микрофона. Возможно, теперь правилом хорошего тона будет не только заклеивание веб-камеры, но и отключение наушников от компьютера.

https://www.wired.com/2016/11/great-now-even-headphones-can-spy/

по-русски: http://apparat.cc/news/malware-headphones/
Красивые, постапокалиптические фото с нелегального китайского сталелитейного завода: http://www.ibtimes.co.uk/fire-brimstone-stunning-photos-illegal-coal-fired-steel-plant-1593480
Британские исследователи кибербезопасности обнаружили, что платёжная система VISA не блокирует карту при введении неправильных данных на разных сайтах. Любую банковскую карту VISA можно взломать распределённым перебором - программа вводит разные комбинации срока действия карты и CVV на множестве разных сайтов с покупками и за 6 секунд находит работающую комбинацию.

Надеюсь, эту дыру быстро пофиксят, у меня самого карта VISA - выдали в банке вместо утерянной Master Card. Master Card, кстати, блокирует такие попытки брутфорса уже после десяти попыток.

http://www.ncl.ac.uk/press/news/2016/12/cyberattack/

http://eprint.ncl.ac.uk/file_store/production/230123/19180242-D02E-47AC-BDB3-73C22D6E1FDB.pdf
Отличный материал от Bloomberg, люблю такое. Журналист Макс Чафкин обратился в маркетинговое агентство и попытался стать модным Instagram-блогером, чтобы зарабатывать на своём профиле.

В начале эксперимента у Макса было чуть больше двухста подписчиков. Он постил фото из своей жизни - семья, работа, жена, селфи, кот, путешествия, ребёнок. Он прочитал про заработки популярных Instagram-блогеров (influencers), которым бренды платят за рекламу, и решил попробовать за месяц превратиться в такого блогера. За помощью Макс обратился в специальное маркетинговое агентство, занимающееся сопровождением популярных блогеров.

Консультанты сразу сказали Максу, что его обычные фото не годятся для инстаграма топ-инфлуенсера. Ему подобрали несколько модных прикидов, сделали модную причёску и наняли профессионального фотографа. Ему запретили даже самому фоткать еду, хотя он старался и заказывал блюда, которые раньше видел только в Instagram. Фотографии красивых завтраков и обедов тоже пришлось купить у профессионального фотографа - несколько десятков за $400.

К аккаунту Макса подключили бота, который от его имени круглосуточно комментировал и лайкал фото людей по заданным параметрам. Фотографии в модных нарядах Чафкин сопровождал кучей хештегов. Подписчики добавлялись медленно, поэтому по совету консультантов Макс подкрутил ботов - некоторых Instagram забанил, но потом количество подписчиков вернулось на прежний уровень.

Через месяц у Макса было полторы тысячи подписчиков - с такими темпами до 10 000 пришлось бы ждать год. При этом на услуги стилиста и фотографа уходило $2000 в месяц, а заработать на промо-посте десятитысячник может всего $100.

На отметке в 800 подписчиков аккаунт Макса заметили маркетологи одного мужского бренда и прислали ему футболку в обмен на фото (так делают с не очень популярными, но заметными фэшн-блогерами). Так что эксперимент можно в некоторой мере считать успешным.

В общем, мы все догадывались, что реальная жизнь "успешных блогеров" сильно отличается от инстаграмной. Но я даже не догадывался, до какой степени это всё постановка. Вспоминайте этот материал, когда увидите очередного модника в Instagram 😉

Если не читаете по-английски, посмотрите хотя бы фото, они классные https://www.bloomberg.com/news/features/2016-11-30/confessions-of-an-instagram-influencer