«Яндекс» начал тестировать новый социальный сервис. Подробностей пока мало: попасть в «Ауру» можно только по приглашению ее участника. Компания говорит, что сервис на основе машинного обучения и нейронных сетей поможет пользователям искать людей с похожими увлечениями и окружением https://m.vedomosti.ru/technology/news/2019/03/15/796551-yandeks
www.vedomosti.ru
«Яндекс» начал тестировать новый социальный сервис
Компания «Яндекс» начала тестировать новый социальный сервис «Аура», работающий внутри ее мобильного приложения. Об этом изначально сообщил Roem.ru со ссылкой на неназванных сотрудников поисковика. Позже представитель «Яндекса» подтвердил «Ведомостям», что…
Нейросеть научили озвучивать панорамы: алгоритм сам добавляет реалистичные звуки окружения и конкретных объектов, и расставляет их в зависимости от расположения на снимке. Технология пригодится для VR — возможно, скоро создателям игр и фильмов не придётся озвучивать их вручную
https://twitter.com/tjournal/status/1107323599797538817
https://twitter.com/tjournal/status/1107323599797538817
Twitter
TJ
Нейросеть научили озвучивать панорамы: алгоритм сам добавляет реалистичные звуки окружения и конкретных объектов, и расставляет их в зависимости от расположения на снимке. Технология пригодится для VR — возможно, скоро создателям игр и фильмов не придётся…
Минкомсвязи и Сбербанк захотели создать совет по ИИ при президенте с финансированием из госбюджета
https://www.kommersant.ru/doc/3915457
https://www.kommersant.ru/doc/3915457
40% стартапов в Европе, заявляющих себя как “AI-companies” реально не располагают собственными технологиями ИИ. Таков вывод исследования Лондонской компании MMC. https://www.theverge.com/2019/3/5/18251326/ai-startups-europe-fake-40-percent-mmc-report
The Verge
Forty percent of ‘AI startups’ in Europe don’t actually use AI, claims report
Companies want to take advantage of the AI hype.
Яндекс подписал соглашение о партнерстве по своим беспилотным технологиям с Hyundai! Это пока лишь меморандум о намерениях с целью разработать технологии для Hyundai, но само подписание - это уже круто! Наши поздравления!) https://techcrunch.com/2019/03/19/yandex-inks-deal-with-hyundai-to-build-self-driving-car-tech-for-its-mobis-oem-division/
TechCrunch
Yandex inks deal with Hyundai to build self-driving car tech for its Mobis OEM division
On the heels of Hyundai becoming the latest investor in Ola, today another key deal was revealed that underscores Hyundai's ambitions in next-generation
Forwarded from The Technodeterminist Papers
На выходных участвовал в отраслевой конференции OpenTalksAI по искусственному интеллекту. Было довольно крипово, но в хорошем смысле слова.
В одной дискуссии сошелся хипстерского вида специалист по анализу данных, советник министра МВД и военный эксперт.
Судите сами, чей рассказ был более пугающим.
Военный эксперт Вадим Козюлин сделал доклад об использовании автоматических систем анализа информации в современной войне.
В Стэнфордском курсе по этике ИИ именно вопрос об автономном вооружении является ключевой точкой, где сходятся все наши дискуссии о природе человека, его ответственности и границах технологического прогресса. Есть общественные организации, которые требуют запретить разработку "роботов-убийц", как сейчас запрещено химическое оружие.
Вадим объясняет, что такое давление со стороны этических аргументов может заставить производителей дронов инвестировать в создание нелетальных автономных видов вооружения.
Аргумент, который тут прочитывается, примерно такой: это людям нужно было убивать других людей, чтобы победить в войне. Более совершенным солдатам-машинам убийства ни к чему, они смогут эффективно обездвижить противника, не лишая его жизни не не нанося непоправимых травм. Используя, например, тазеры, которые сейчас стоят на вооружение полицейских.
Что-то вроде героя Арнольда Шварценеггера в "Терминаторе-2" после того, как юный Джон Коннор приказал ему никого не убивать.
Тогда производители автономного оружия поставят вопрос так. Выбирайте между нелетальными боевыми роботами и массовыми жертвами людей в случае запрета таких роботов, если войны будут идти по старинке. Этический аргумент против использования ИИ в вооружениях через это отводится, и развитые страны начинают постепенно делегировать войну на всех уровнях, и как тактическим единицам, и как центрам управления такими единицами, машинам. Возможно, число жертв военных конфликтов в итоге действительно бы уменьшилось.
И все было бы относительно хорошо и гуманно, по крайней мере в ближайшей перспективе, если бы не слово "полицейских" выше. Если выбросить из войн убийства, то осуждать постоянное ведение войны станет труднее, а само состояние военных действий станет неотличимым от "поддержания мира", а точнее от полицейских операций. Различия комбатантов и нонкомбатантов уйдет в прошлое, а армия и полицейские силы, сдерживающие, скажем, городские бунты, станут неотличимы друг от друга. Что смогут граждане противопоставить государству, вооруженному тысячами нелетальных дронов?
Небольшое изменение баланса в сфере военной техники и правил ведения войны грозит опрокинуть все наши стандартные представления об общественной жизни.
Потом выступал советник министра внутренних дел Владимир Овчинский, и таких представителей МВД я еще не видел. Овчинский цитировал философа Ника Бострома, рассказывал про китайский социальный рейтинг, свежие законы Евросоюза о сборе данных и доклады ФБР, посвященные кибербезопасности ("мы их сразу получаем и переводим").
Вопросы к Овчинскому были связаны про новость о том, что в Москве полицейские получат умные очки с распознаванием лиц, и что 150 тысяч камер наблюдения сейчас объединяются в сеть с такими же функциями - так что оператор сети будет фактически знать о всех ваших оффлайновых перемещениях.
Позицию советника министра я бы охарактеризовал как циничный прагматизм: тотальная слежка - это наше неизбежное будущее и даже уже настоящее, и ни одно государство в мире от таких возможностей не откажется.
Дальше Овчинского спрашивают: а что будет, если эти данные попадут в третьи руки?
Он говорит: - Ну и попадут, а что с этим можно сделать?
Его спрашивают: а что будет, если система меня перепутает и я буду задержан по ошибке? Осознает ли, мол, МВД меру ответственности за такие погрешности.
Овчинский отвечает: - Ну и задержат по ошибке, обязательно. Ну потом будут разбираться, и отпустят. Или нет. Ха-ха-ха.
Ставка, в общем в том, что мы все сидим в одной технологической лодке. Раз можно собрать всю информацию с камер и обработать ее в масштабах мегаполиса, значит так и будет сделано. Для любого государства, от которого треб
В одной дискуссии сошелся хипстерского вида специалист по анализу данных, советник министра МВД и военный эксперт.
Судите сами, чей рассказ был более пугающим.
Военный эксперт Вадим Козюлин сделал доклад об использовании автоматических систем анализа информации в современной войне.
В Стэнфордском курсе по этике ИИ именно вопрос об автономном вооружении является ключевой точкой, где сходятся все наши дискуссии о природе человека, его ответственности и границах технологического прогресса. Есть общественные организации, которые требуют запретить разработку "роботов-убийц", как сейчас запрещено химическое оружие.
Вадим объясняет, что такое давление со стороны этических аргументов может заставить производителей дронов инвестировать в создание нелетальных автономных видов вооружения.
Аргумент, который тут прочитывается, примерно такой: это людям нужно было убивать других людей, чтобы победить в войне. Более совершенным солдатам-машинам убийства ни к чему, они смогут эффективно обездвижить противника, не лишая его жизни не не нанося непоправимых травм. Используя, например, тазеры, которые сейчас стоят на вооружение полицейских.
Что-то вроде героя Арнольда Шварценеггера в "Терминаторе-2" после того, как юный Джон Коннор приказал ему никого не убивать.
Тогда производители автономного оружия поставят вопрос так. Выбирайте между нелетальными боевыми роботами и массовыми жертвами людей в случае запрета таких роботов, если войны будут идти по старинке. Этический аргумент против использования ИИ в вооружениях через это отводится, и развитые страны начинают постепенно делегировать войну на всех уровнях, и как тактическим единицам, и как центрам управления такими единицами, машинам. Возможно, число жертв военных конфликтов в итоге действительно бы уменьшилось.
И все было бы относительно хорошо и гуманно, по крайней мере в ближайшей перспективе, если бы не слово "полицейских" выше. Если выбросить из войн убийства, то осуждать постоянное ведение войны станет труднее, а само состояние военных действий станет неотличимым от "поддержания мира", а точнее от полицейских операций. Различия комбатантов и нонкомбатантов уйдет в прошлое, а армия и полицейские силы, сдерживающие, скажем, городские бунты, станут неотличимы друг от друга. Что смогут граждане противопоставить государству, вооруженному тысячами нелетальных дронов?
Небольшое изменение баланса в сфере военной техники и правил ведения войны грозит опрокинуть все наши стандартные представления об общественной жизни.
Потом выступал советник министра внутренних дел Владимир Овчинский, и таких представителей МВД я еще не видел. Овчинский цитировал философа Ника Бострома, рассказывал про китайский социальный рейтинг, свежие законы Евросоюза о сборе данных и доклады ФБР, посвященные кибербезопасности ("мы их сразу получаем и переводим").
Вопросы к Овчинскому были связаны про новость о том, что в Москве полицейские получат умные очки с распознаванием лиц, и что 150 тысяч камер наблюдения сейчас объединяются в сеть с такими же функциями - так что оператор сети будет фактически знать о всех ваших оффлайновых перемещениях.
Позицию советника министра я бы охарактеризовал как циничный прагматизм: тотальная слежка - это наше неизбежное будущее и даже уже настоящее, и ни одно государство в мире от таких возможностей не откажется.
Дальше Овчинского спрашивают: а что будет, если эти данные попадут в третьи руки?
Он говорит: - Ну и попадут, а что с этим можно сделать?
Его спрашивают: а что будет, если система меня перепутает и я буду задержан по ошибке? Осознает ли, мол, МВД меру ответственности за такие погрешности.
Овчинский отвечает: - Ну и задержат по ошибке, обязательно. Ну потом будут разбираться, и отпустят. Или нет. Ха-ха-ха.
Ставка, в общем в том, что мы все сидим в одной технологической лодке. Раз можно собрать всю информацию с камер и обработать ее в масштабах мегаполиса, значит так и будет сделано. Для любого государства, от которого треб
Forwarded from The Technodeterminist Papers
уют борьбы с преступностью и безопасной среды, игра тут стоит свеч. Даже если стыдливо замалчивать вопрос о политической полиции и цензуре.
Что мы можем противопоставить этому прекрасному видению ситуации? Я сходу не нахожу ответа.
А потом слово взял Артур Хачуян, у которого бизнес по анализу открытых данных. Основное направление, насколько я понял, маркетинговое, но вот еще есть сервис, который позволяет родителям контролировать поведение своих несовершеннолетних детей в интернете, отслеживая их "цифровые следы". Хачуян видит в этом гуманистическую задачу, мол, взрослые так смогут лучше понимать подростков, а сам инструмент слежки описывает как нейтральный. Мол, следить можно разными способами, например, глядя в окно.
Но в целом молодой человек с дредами Хачуян тут совпадает с автором учебников по оперативно-розыскной деятельности Овчинским: технологическая ситуация такова, что цифровая слежка неизбежна, давайте просто примем это и будем жить дальше.
И вот это крипово.
Я спросил у Артура в шутку, не хочет ли он открыть версию Tinder на основе соотносения "цифровых следов" человека за всю историю его использования интернетом, ведь это позволяло бы находить партнеров как бы "эффективнее".
Подвох тут в том, что личный выбор алгоритмизируется прямо в сердце мифа об аутентичности человеческого выбора - романтических отношениях.
Хачуян тоже это, кажется, понимает, но с готовностью отозвался, что его компания таким проектом уже занималась и сейчас готовит улучшенную версию платформы. Более того, для проектом несколько сотен добровольцев занимались сексом в датчиках для того, чтобы понять, какую статистику можно извлечь из этих данных.
- Вы, наверное, думали, что сториз исчезают из интернета навсегда? - спросил Хачуян публику под конец. - Ха-ха-ха.
Так вот, а я спрашиваю: кто тут главное зло и чья история страшнее?
Что мы можем противопоставить этому прекрасному видению ситуации? Я сходу не нахожу ответа.
А потом слово взял Артур Хачуян, у которого бизнес по анализу открытых данных. Основное направление, насколько я понял, маркетинговое, но вот еще есть сервис, который позволяет родителям контролировать поведение своих несовершеннолетних детей в интернете, отслеживая их "цифровые следы". Хачуян видит в этом гуманистическую задачу, мол, взрослые так смогут лучше понимать подростков, а сам инструмент слежки описывает как нейтральный. Мол, следить можно разными способами, например, глядя в окно.
Но в целом молодой человек с дредами Хачуян тут совпадает с автором учебников по оперативно-розыскной деятельности Овчинским: технологическая ситуация такова, что цифровая слежка неизбежна, давайте просто примем это и будем жить дальше.
И вот это крипово.
Я спросил у Артура в шутку, не хочет ли он открыть версию Tinder на основе соотносения "цифровых следов" человека за всю историю его использования интернетом, ведь это позволяло бы находить партнеров как бы "эффективнее".
Подвох тут в том, что личный выбор алгоритмизируется прямо в сердце мифа об аутентичности человеческого выбора - романтических отношениях.
Хачуян тоже это, кажется, понимает, но с готовностью отозвался, что его компания таким проектом уже занималась и сейчас готовит улучшенную версию платформы. Более того, для проектом несколько сотен добровольцев занимались сексом в датчиках для того, чтобы понять, какую статистику можно извлечь из этих данных.
- Вы, наверное, думали, что сториз исчезают из интернета навсегда? - спросил Хачуян публику под конец. - Ха-ха-ха.
Так вот, а я спрашиваю: кто тут главное зло и чья история страшнее?
Forwarded from ❌ Лента постов Хабра (не обновляется) (Бот СоХабра)
Смогут ли роботы когда-нибудь по-настоящему осознать себя? Учёные движутся в этом направлении
🏷 Перевод
🗂 Робототехника, Искусственный интеллект
В центре понятия «человек» находится способность осознавать себя. Без неё мы не могли бы ориентироваться, взаимодействовать, сочувствовать или выживать в постоянно меняющемся, сложном мире вместе с другими людьми. Нам необходимо осознавать себя, когда мы делаем что-то, или когда ожидаем последствий потенциальных действий от себя и других.
Учитывая наше стремление включить роботов в наш социальный мир, неудивительно, что создание самосознания у искусственного интеллекта – одна из главных целей исследователей это области. Если эти машины будут заботиться о нас и составлять нам компанию, у них неизбежно должна появиться способность поставить себя на наше место. И хотя учёным ещё далеко до создания роботов, осознающих ...
Читать далее ➡ https://shbr.xyz/hh445260
🏷 Перевод
🗂 Робототехника, Искусственный интеллект
В центре понятия «человек» находится способность осознавать себя. Без неё мы не могли бы ориентироваться, взаимодействовать, сочувствовать или выживать в постоянно меняющемся, сложном мире вместе с другими людьми. Нам необходимо осознавать себя, когда мы делаем что-то, или когда ожидаем последствий потенциальных действий от себя и других.
Учитывая наше стремление включить роботов в наш социальный мир, неудивительно, что создание самосознания у искусственного интеллекта – одна из главных целей исследователей это области. Если эти машины будут заботиться о нас и составлять нам компанию, у них неизбежно должна появиться способность поставить себя на наше место. И хотя учёным ещё далеко до создания роботов, осознающих ...
Читать далее ➡ https://shbr.xyz/hh445260
Forwarded from Brodetskyi. Tech, VC, Startups
Очень красивый и любопытный проект: атлас активаций. Позволяет заглянуть внутрь нейросети и увидеть, как она распознаёт объекты.
Почему это важно? Потому что одно из слабых мест нейросетей — их непрозрачность. Они хорошо умеют классифицировать данные, но не умеют объяснять свои решения. Это может создавать проблемы. К примеру, банковский алгоритм, оценивающий риски, может отказать потенциальному клиенту в кредите без каких-либо объяснений. По закону банк обязан обосновывать такие решения. Так же сложно будет пациенту согласиться на операцию, если это совет без объяснений от алгоритма-черного ящика. А ещё черный ящик сложнее отладить.
Так вот, по ссылке можно посмотреть, что видит нейросеть во время распознавания различных образов. Есть над чем залипнуть.
Что ещё почитать по теме:
— Как открыть "черный ящик" ИИ
— Заглянуть внутрь генеративной нейросети
— Ещё одна красивая визуализация нейросети
— Как обмануть нейросеть, распознающую предметы:
— — с помощью поворота изображения;
— — с помощью нескольких пикселей;
— — с помощью 3D-принтера
Почему это важно? Потому что одно из слабых мест нейросетей — их непрозрачность. Они хорошо умеют классифицировать данные, но не умеют объяснять свои решения. Это может создавать проблемы. К примеру, банковский алгоритм, оценивающий риски, может отказать потенциальному клиенту в кредите без каких-либо объяснений. По закону банк обязан обосновывать такие решения. Так же сложно будет пациенту согласиться на операцию, если это совет без объяснений от алгоритма-черного ящика. А ещё черный ящик сложнее отладить.
Так вот, по ссылке можно посмотреть, что видит нейросеть во время распознавания различных образов. Есть над чем залипнуть.
Что ещё почитать по теме:
— Как открыть "черный ящик" ИИ
— Заглянуть внутрь генеративной нейросети
— Ещё одна красивая визуализация нейросети
— Как обмануть нейросеть, распознающую предметы:
— — с помощью поворота изображения;
— — с помощью нескольких пикселей;
— — с помощью 3D-принтера
Distill
Activation Atlas
By using feature inversion to visualize millions of activations from an image classification network, we create an explorable activation atlas of features the network has learned and what concepts it typically represents.
Forwarded from Brodetskyi. Tech, VC, Startups
В NVIDIA сделали классный Paint на стероидах: генеративная нейросеть превращает наброски в фотореалистичные пейзажи [PDF].
GauGAN could offer a powerful tool for creating virtual worlds to everyone from architects and urban planners to landscape designers and game developers. With an AI that understands how the real world looks, these professionals could better prototype ideas and make rapid changes to a synthetic scene.
Выглядит круто, правда в онлайне затестить нельзя. Но — хорошие новости — есть аналогичный проект от MIT. Попроще, зато там можно рисовать самому, прямо в браузере!
GauGAN could offer a powerful tool for creating virtual worlds to everyone from architects and urban planners to landscape designers and game developers. With an AI that understands how the real world looks, these professionals could better prototype ideas and make rapid changes to a synthetic scene.
Выглядит круто, правда в онлайне затестить нельзя. Но — хорошие новости — есть аналогичный проект от MIT. Попроще, зато там можно рисовать самому, прямо в браузере!
YouTube
GauGAN: Changing Sketches into Photorealistic Masterpieces
A deep learning model developed by NVIDIA Research turns rough doodles into highly realistic scenes using generative adversarial networks (GANs). Dubbed GauGAN, the tool is like a smart paintbrush, converting segmentation maps into lifelike images. Read more…
Forwarded from Настоящая Россия
Робот-судья — в Эстонии 🇪🇪мелкие иски будет рассматривать искусственный интеллект (ИИ), у судьи-человека будет право пересмотреть его решения. Предполагается, что робот будет принимать беспристрастные решения — ИИ будет анализировать лишь юридические документы, не глядя подсудимым в глаза (взятку ему тоже не дать). Эстония, крошечная европейская страна, где живет 1,4 млн человек, — самое продвинутое государство, здесь электронное практически все. Естественно, госуслуги. Искусственный интеллект сканирует резюме уволенных людей, чтобы найти им работу, анализирует спутниковые снимки, чтобы понять, правильно ли используются правительственные субсидии на сельское хозяйство. Но в автоматизации юридических услуг Эстония не первая. Британский чат-бот уже оспорил больше 100 000 штрафов за парковку в Лондоне и Нью-Йорке.
World Economic Forum
Estonia is building a 'robot judge' to help clear a legal backlog
The AI judge will still have oversight from a real judge, but it should save considerable time by dealing with simple cases.
Forwarded from Legal Tech
Честно говоря, интересно, что из этого получится и как будет реализовано, так как даже самый мелкий контракт может содержать огромное количество самых сложных правовых проблем, которые не могут быть решены ИИ.
https://hightech.fm/2019/03/27/robo-court
https://hightech.fm/2019/03/27/robo-court
Хайтек
Эстония создаст робота-судью для рассмотрения мелких споров
Министерство юстиции Эстонии обратилось к специалисту по искусственному интеллекту Отту Велсбергу с просьбой создать робота-судью, способного решать гражданские споры на сумму до 7 тыс. евро. Об этом пишет WIRED.
Сегодня в МГУ очередной семинар К.В.Анохина по вопросам сознания и мозга. На этот раз - философский подход к сознанию.
Forwarded from Brodetskyi. Tech, VC, Startups
Правительство Китая выпустило приложение для изучения пропаганды. Его пользователи получают очки за просмотр идеологически правильных статей и видео, а также прохождение тестов. От членов партии и госслужащих требуют набирать очки, изучая мудрость лидера страны Си Цзиньпина.
Но умелые китайцы создали специальное приложение, которое имитирует действия живого пользователя и просто пролистывает статьи и видео с пропагандой.
Набирать баллы нелегко. Вы получаете 1 балл в день за запуск приложения, ещё по одному — за прочтение статьи и за просмотр видео. Каждые 4 минуты чтения и 5 минут просмотра видео приносят ещё по бонусному баллу.
Пока я обедал, читерское приложение делало свою работу. За 40 минут оно просмотрело восемь статей, включая новости про территориальный спор с Индией и визит вице-премьера в Гонконг, и две серии телешоу о марксизме. Я получил 17 баллов — неплохо, учитывая количество затраченных усилий.
Какой абсурд.
Но умелые китайцы создали специальное приложение, которое имитирует действия живого пользователя и просто пролистывает статьи и видео с пропагандой.
Набирать баллы нелегко. Вы получаете 1 балл в день за запуск приложения, ещё по одному — за прочтение статьи и за просмотр видео. Каждые 4 минуты чтения и 5 минут просмотра видео приносят ещё по бонусному баллу.
Пока я обедал, читерское приложение делало свою работу. За 40 минут оно просмотрело восемь статей, включая новости про территориальный спор с Индией и визит вице-премьера в Гонконг, и две серии телешоу о марксизме. Я получил 17 баллов — неплохо, учитывая количество затраченных усилий.
Какой абсурд.
Непонятно, чьи технологии использовались, но новость такая есть: https://rg.ru/2019/04/06/reg-urfo/na-iamale-iskusstvennyj-intellekt-obsledoval-30-tysiach-pacientov.html
Российская газета
На Ямале искусственный интеллект обследовал 30 тысяч пациентов
Очень важный для развития медицины эксперимент проводится сейчас на Ямале. В городской больнице Муравленко - городе в 480 километрах от Салехарда - для диагностики и контроля состояния пациентов в течение трех последних месяцев используются системы с искусственным…