За разработку стратегии России по искусственному интеллекту взялось профессиональное сообщество, cложившееся в результате подготовки и проведения международных конференций OpenTalks.AI в 2018 и 2019 гг. По словам Игоря Пивоварова, руководителя оргкомитета OpenTalks.AI, стратегия будет содержать рекомендации не только для государственных органов, но и для научного сообщества, бизнеса и образования. Она призвана скоординировать деятельность государства и компаний, занимающихся разработкой и/или внедрением ИИ-решений. https://www.itweek.ru/ai/article/detail.php?ID=205672
itWeek
Какой будет “Стратегия России в области искусственного интеллекта”
Как стало известно на февральской конференции OpenTalks.AI/2019, за разработку данной стратегии взялось профессиональное сообщество, cложившееся в результате подготовки и проведения международных конференций OpenTalks.AI в 2018 и 2019 гг. По словам Игоря
Основной вывод конференции о воздействии искусственного интеллекта, прошедшей в Хельсинки, заключается в том, что требуется больше исследований, взаимопонимания, доверия и прозрачности в отношении ИИ, а также расширение сотрудничества между различными заинтересованными сторонами.
https://www.coe.int/ru/web/portal/-/artificial-intelligence-helsinki-conference-conclusions
https://www.coe.int/ru/web/portal/-/artificial-intelligence-helsinki-conference-conclusions
www.coe.int
Искусственный интеллект: выводы прошедшей в Хельсинки конференции
Область ИИ должна развиваться с учетом интересов человека, с тем чтобы приносить пользу как отдельным людям, так и обществу в целом
Очень интересная и глубокая статья Владимира Овчинского про искуственный интеллект, геополитику и стратегию http://zavtra.ru/blogs/rivok_v_iskusstvennij_intellekt_ili_fal_start
zavtra.ru
Елена Ларина Владимир Овчинский: Рывок в искусственный интеллект ... или фальстарт?
мир в последние 30 лет пребывает в состоянии технотупика
Исследование: россияне боятся потери работы из-за искусственного интеллекта
https://ria.ru/20190313/1551739327.html?utm_campaign=tret-rossiyan-boitsya--chto-iskusstvennyy
https://ria.ru/20190313/1551739327.html?utm_campaign=tret-rossiyan-boitsya--chto-iskusstvennyy
РИА Новости
Исследование: россияне боятся потери работы из-за искусственного интеллекта
Треть россиян обеспокоена возможной угрозой потери работы из-за развития искусственного интеллекта (ИИ), говорится в исследовании международной консалтинговой... РИА Новости, 03.03.2020
Глава Росфинмониторинга Ю. Чиханчин на встрече с В. Путиным отметил снижение объема вывода средств из России в офшоры. В качестве помощника Росфинмониторинг будет использовать системы искусственного интеллекта.Глава Росфинмониторинга Ю. Чиханчин на встрече с В. Путиным отметил снижение объема вывода средств из России в офшоры. В качестве помощника Росфинмониторинг будет использовать системы искусственного интеллекта.
Росфинмониторинг, согласно поручению Президента, совместно с Академией наук и Министерством образования создает системы искусственного интеллекта, новые системы будут помогать в борьбе с финансовыми нарушениями, следует из стенограммы встречи Президента с главой Росфинмониторинга.
http://www.n-kurs.ru/news/ekonomika/vstrecha_v_putina_s_glavoy_rosfinmonitoringa_yu_chikhanchinym
Росфинмониторинг, согласно поручению Президента, совместно с Академией наук и Министерством образования создает системы искусственного интеллекта, новые системы будут помогать в борьбе с финансовыми нарушениями, следует из стенограммы встречи Президента с главой Росфинмониторинга.
http://www.n-kurs.ru/news/ekonomika/vstrecha_v_putina_s_glavoy_rosfinmonitoringa_yu_chikhanchinym
В соцсетях снова делают мемы из спагетти, бобов, лука, картошки и мха с помощью российского сервиса Ostagram. Пользователи придают новую жизнь винтажным шуткам, пропуская устаревшие шаблоны через нейросети
https://tjournal.ru/memes/90199-spagetti-boby-i-kartoshka-v-socsetyah-delayut-memy-iz-edy-s-pomoshchyu-rossiyskogo-servisa
https://tjournal.ru/memes/90199-spagetti-boby-i-kartoshka-v-socsetyah-delayut-memy-iz-edy-s-pomoshchyu-rossiyskogo-servisa
TJ
Спагетти, бобы и картошка: в соцсетях делают мемы из еды с помощью российского сервиса
Старые шаблоны обрели новую жизнь с помощью нейросетей.
В течение 5 лет в цифровизацию Почты России инвестируют более 40 млрд рублей
В ближайшие 5 лет на цифровизацию компании будет направлено более 40 млрд рублей. Около 15 млрд будет вложено в укрепление цифровой инфраструктуры, порядка 10 млрд - в реализацию проектов по облачным вычислениям, обработке больших данных, в тестирование работы искусственного интеллекта для роботизации бизнес-процессов. Еще порядка 10-15 млрд рублей будет инвестировано в цифровизацию продуктов и услуг.
http://www.cnews.ru/news/line/2019-03-12_v_techenie_5_let_v_tsifrovizatsiyu_pochty_rossii_investiruyut
В ближайшие 5 лет на цифровизацию компании будет направлено более 40 млрд рублей. Около 15 млрд будет вложено в укрепление цифровой инфраструктуры, порядка 10 млрд - в реализацию проектов по облачным вычислениям, обработке больших данных, в тестирование работы искусственного интеллекта для роботизации бизнес-процессов. Еще порядка 10-15 млрд рублей будет инвестировано в цифровизацию продуктов и услуг.
http://www.cnews.ru/news/line/2019-03-12_v_techenie_5_let_v_tsifrovizatsiyu_pochty_rossii_investiruyut
CNews.ru
В течение 5 лет в цифровизацию Почты России инвестируют более 40 млрд рублей
Заявление главы Почты России на Форуме по цифровой трансформации
Студенты радиофизического факультета ТГУ (вуз-участник проекта 5-100) разработали программу, которая может определять эмоции человека по мимике и помогать в работе врачам.
https://rg.ru/2019/03/13/reg-sibfo/kak-iskusstvennyj-intellekt-pomozhet-psihiatru.html
https://rg.ru/2019/03/13/reg-sibfo/kak-iskusstvennyj-intellekt-pomozhet-psihiatru.html
Российская газета
Как искусственный интеллект поможет психиатру
Студенты радиофизического факультета ТГУ разработали программу, которая может определять эмоции человека по мимике и помогать в работе врачам. Свой проект они называют "умным" ассистентом для психотерапевта
Искусственный интеллект спрячет "токсичные" комментарии в Chrome
Дополнение позволяет настраивать видимость записей, которые могут показаться оскорбительными. Регулируя шайбу, можно убавить "громкость" и уменьшить объем гневных постов либо разрешить показ сообщений отдельного типа, содержащих нападки, оскорбления или ненормативную лексику. При желании, выкрутив шабу на ноль, можно вовсе скрыть любые пользовательские записи.
http://www.vesti.md/?mod=news&id=113360#sthash.JCZ4nkxp.dpbs
Дополнение позволяет настраивать видимость записей, которые могут показаться оскорбительными. Регулируя шайбу, можно убавить "громкость" и уменьшить объем гневных постов либо разрешить показ сообщений отдельного типа, содержащих нападки, оскорбления или ненормативную лексику. При желании, выкрутив шабу на ноль, можно вовсе скрыть любые пользовательские записи.
http://www.vesti.md/?mod=news&id=113360#sthash.JCZ4nkxp.dpbs
VESTI.MD
Искусственный интеллект спрячет "токсичные" комментарии в Chrome // ВЕСТИ.МД / все новости дня
Компания Jigsaw (бывшая Google Ideas, а ныне — часть холдинга Alphabet) — разработчик инструментов для обхода...
За год Xiaomi взлетела с 85 на 11 место в мировом рейтинге компаний с самым большим количеством патентов в области ИИ
https://www.ixbt.com/news/2019/03/13/xiaomi-85-11.html
https://www.ixbt.com/news/2019/03/13/xiaomi-85-11.html
iXBT.com
За год Xiaomi взлетела с 85 на 11 место в мировом рейтинге компаний с самым большим количеством патентов в области ИИ
Исполнительный директор Xiaomi Лей Цзунь (Lei Jun) не так давно говорил о том, что компания добилась больших успехов в разработках, связанных с искусственным интеллектом и Интернетом вещей, и планирует в течение следующих 5 лет инвестировать в данное направление…
В главном некоммерческом научном центре США OpenAI - смена концепции. Теперь бОльшая часть команды работает в обычной Delaware LLC и зарабатывает деньги акционерам. https://openai.com/blog/openai-lp/
Openai
OpenAI LP
We’ve created OpenAI LP, a new “capped-profit” company that allows us to rapidly increase our investments in compute and talent while including checks and balances to actualize our mission.
«Яндекс» начал тестировать новый социальный сервис. Подробностей пока мало: попасть в «Ауру» можно только по приглашению ее участника. Компания говорит, что сервис на основе машинного обучения и нейронных сетей поможет пользователям искать людей с похожими увлечениями и окружением https://m.vedomosti.ru/technology/news/2019/03/15/796551-yandeks
www.vedomosti.ru
«Яндекс» начал тестировать новый социальный сервис
Компания «Яндекс» начала тестировать новый социальный сервис «Аура», работающий внутри ее мобильного приложения. Об этом изначально сообщил Roem.ru со ссылкой на неназванных сотрудников поисковика. Позже представитель «Яндекса» подтвердил «Ведомостям», что…
Нейросеть научили озвучивать панорамы: алгоритм сам добавляет реалистичные звуки окружения и конкретных объектов, и расставляет их в зависимости от расположения на снимке. Технология пригодится для VR — возможно, скоро создателям игр и фильмов не придётся озвучивать их вручную
https://twitter.com/tjournal/status/1107323599797538817
https://twitter.com/tjournal/status/1107323599797538817
Twitter
TJ
Нейросеть научили озвучивать панорамы: алгоритм сам добавляет реалистичные звуки окружения и конкретных объектов, и расставляет их в зависимости от расположения на снимке. Технология пригодится для VR — возможно, скоро создателям игр и фильмов не придётся…
Минкомсвязи и Сбербанк захотели создать совет по ИИ при президенте с финансированием из госбюджета
https://www.kommersant.ru/doc/3915457
https://www.kommersant.ru/doc/3915457
40% стартапов в Европе, заявляющих себя как “AI-companies” реально не располагают собственными технологиями ИИ. Таков вывод исследования Лондонской компании MMC. https://www.theverge.com/2019/3/5/18251326/ai-startups-europe-fake-40-percent-mmc-report
The Verge
Forty percent of ‘AI startups’ in Europe don’t actually use AI, claims report
Companies want to take advantage of the AI hype.
Яндекс подписал соглашение о партнерстве по своим беспилотным технологиям с Hyundai! Это пока лишь меморандум о намерениях с целью разработать технологии для Hyundai, но само подписание - это уже круто! Наши поздравления!) https://techcrunch.com/2019/03/19/yandex-inks-deal-with-hyundai-to-build-self-driving-car-tech-for-its-mobis-oem-division/
TechCrunch
Yandex inks deal with Hyundai to build self-driving car tech for its Mobis OEM division
On the heels of Hyundai becoming the latest investor in Ola, today another key deal was revealed that underscores Hyundai's ambitions in next-generation
Forwarded from The Technodeterminist Papers
На выходных участвовал в отраслевой конференции OpenTalksAI по искусственному интеллекту. Было довольно крипово, но в хорошем смысле слова.
В одной дискуссии сошелся хипстерского вида специалист по анализу данных, советник министра МВД и военный эксперт.
Судите сами, чей рассказ был более пугающим.
Военный эксперт Вадим Козюлин сделал доклад об использовании автоматических систем анализа информации в современной войне.
В Стэнфордском курсе по этике ИИ именно вопрос об автономном вооружении является ключевой точкой, где сходятся все наши дискуссии о природе человека, его ответственности и границах технологического прогресса. Есть общественные организации, которые требуют запретить разработку "роботов-убийц", как сейчас запрещено химическое оружие.
Вадим объясняет, что такое давление со стороны этических аргументов может заставить производителей дронов инвестировать в создание нелетальных автономных видов вооружения.
Аргумент, который тут прочитывается, примерно такой: это людям нужно было убивать других людей, чтобы победить в войне. Более совершенным солдатам-машинам убийства ни к чему, они смогут эффективно обездвижить противника, не лишая его жизни не не нанося непоправимых травм. Используя, например, тазеры, которые сейчас стоят на вооружение полицейских.
Что-то вроде героя Арнольда Шварценеггера в "Терминаторе-2" после того, как юный Джон Коннор приказал ему никого не убивать.
Тогда производители автономного оружия поставят вопрос так. Выбирайте между нелетальными боевыми роботами и массовыми жертвами людей в случае запрета таких роботов, если войны будут идти по старинке. Этический аргумент против использования ИИ в вооружениях через это отводится, и развитые страны начинают постепенно делегировать войну на всех уровнях, и как тактическим единицам, и как центрам управления такими единицами, машинам. Возможно, число жертв военных конфликтов в итоге действительно бы уменьшилось.
И все было бы относительно хорошо и гуманно, по крайней мере в ближайшей перспективе, если бы не слово "полицейских" выше. Если выбросить из войн убийства, то осуждать постоянное ведение войны станет труднее, а само состояние военных действий станет неотличимым от "поддержания мира", а точнее от полицейских операций. Различия комбатантов и нонкомбатантов уйдет в прошлое, а армия и полицейские силы, сдерживающие, скажем, городские бунты, станут неотличимы друг от друга. Что смогут граждане противопоставить государству, вооруженному тысячами нелетальных дронов?
Небольшое изменение баланса в сфере военной техники и правил ведения войны грозит опрокинуть все наши стандартные представления об общественной жизни.
Потом выступал советник министра внутренних дел Владимир Овчинский, и таких представителей МВД я еще не видел. Овчинский цитировал философа Ника Бострома, рассказывал про китайский социальный рейтинг, свежие законы Евросоюза о сборе данных и доклады ФБР, посвященные кибербезопасности ("мы их сразу получаем и переводим").
Вопросы к Овчинскому были связаны про новость о том, что в Москве полицейские получат умные очки с распознаванием лиц, и что 150 тысяч камер наблюдения сейчас объединяются в сеть с такими же функциями - так что оператор сети будет фактически знать о всех ваших оффлайновых перемещениях.
Позицию советника министра я бы охарактеризовал как циничный прагматизм: тотальная слежка - это наше неизбежное будущее и даже уже настоящее, и ни одно государство в мире от таких возможностей не откажется.
Дальше Овчинского спрашивают: а что будет, если эти данные попадут в третьи руки?
Он говорит: - Ну и попадут, а что с этим можно сделать?
Его спрашивают: а что будет, если система меня перепутает и я буду задержан по ошибке? Осознает ли, мол, МВД меру ответственности за такие погрешности.
Овчинский отвечает: - Ну и задержат по ошибке, обязательно. Ну потом будут разбираться, и отпустят. Или нет. Ха-ха-ха.
Ставка, в общем в том, что мы все сидим в одной технологической лодке. Раз можно собрать всю информацию с камер и обработать ее в масштабах мегаполиса, значит так и будет сделано. Для любого государства, от которого треб
В одной дискуссии сошелся хипстерского вида специалист по анализу данных, советник министра МВД и военный эксперт.
Судите сами, чей рассказ был более пугающим.
Военный эксперт Вадим Козюлин сделал доклад об использовании автоматических систем анализа информации в современной войне.
В Стэнфордском курсе по этике ИИ именно вопрос об автономном вооружении является ключевой точкой, где сходятся все наши дискуссии о природе человека, его ответственности и границах технологического прогресса. Есть общественные организации, которые требуют запретить разработку "роботов-убийц", как сейчас запрещено химическое оружие.
Вадим объясняет, что такое давление со стороны этических аргументов может заставить производителей дронов инвестировать в создание нелетальных автономных видов вооружения.
Аргумент, который тут прочитывается, примерно такой: это людям нужно было убивать других людей, чтобы победить в войне. Более совершенным солдатам-машинам убийства ни к чему, они смогут эффективно обездвижить противника, не лишая его жизни не не нанося непоправимых травм. Используя, например, тазеры, которые сейчас стоят на вооружение полицейских.
Что-то вроде героя Арнольда Шварценеггера в "Терминаторе-2" после того, как юный Джон Коннор приказал ему никого не убивать.
Тогда производители автономного оружия поставят вопрос так. Выбирайте между нелетальными боевыми роботами и массовыми жертвами людей в случае запрета таких роботов, если войны будут идти по старинке. Этический аргумент против использования ИИ в вооружениях через это отводится, и развитые страны начинают постепенно делегировать войну на всех уровнях, и как тактическим единицам, и как центрам управления такими единицами, машинам. Возможно, число жертв военных конфликтов в итоге действительно бы уменьшилось.
И все было бы относительно хорошо и гуманно, по крайней мере в ближайшей перспективе, если бы не слово "полицейских" выше. Если выбросить из войн убийства, то осуждать постоянное ведение войны станет труднее, а само состояние военных действий станет неотличимым от "поддержания мира", а точнее от полицейских операций. Различия комбатантов и нонкомбатантов уйдет в прошлое, а армия и полицейские силы, сдерживающие, скажем, городские бунты, станут неотличимы друг от друга. Что смогут граждане противопоставить государству, вооруженному тысячами нелетальных дронов?
Небольшое изменение баланса в сфере военной техники и правил ведения войны грозит опрокинуть все наши стандартные представления об общественной жизни.
Потом выступал советник министра внутренних дел Владимир Овчинский, и таких представителей МВД я еще не видел. Овчинский цитировал философа Ника Бострома, рассказывал про китайский социальный рейтинг, свежие законы Евросоюза о сборе данных и доклады ФБР, посвященные кибербезопасности ("мы их сразу получаем и переводим").
Вопросы к Овчинскому были связаны про новость о том, что в Москве полицейские получат умные очки с распознаванием лиц, и что 150 тысяч камер наблюдения сейчас объединяются в сеть с такими же функциями - так что оператор сети будет фактически знать о всех ваших оффлайновых перемещениях.
Позицию советника министра я бы охарактеризовал как циничный прагматизм: тотальная слежка - это наше неизбежное будущее и даже уже настоящее, и ни одно государство в мире от таких возможностей не откажется.
Дальше Овчинского спрашивают: а что будет, если эти данные попадут в третьи руки?
Он говорит: - Ну и попадут, а что с этим можно сделать?
Его спрашивают: а что будет, если система меня перепутает и я буду задержан по ошибке? Осознает ли, мол, МВД меру ответственности за такие погрешности.
Овчинский отвечает: - Ну и задержат по ошибке, обязательно. Ну потом будут разбираться, и отпустят. Или нет. Ха-ха-ха.
Ставка, в общем в том, что мы все сидим в одной технологической лодке. Раз можно собрать всю информацию с камер и обработать ее в масштабах мегаполиса, значит так и будет сделано. Для любого государства, от которого треб
Forwarded from The Technodeterminist Papers
уют борьбы с преступностью и безопасной среды, игра тут стоит свеч. Даже если стыдливо замалчивать вопрос о политической полиции и цензуре.
Что мы можем противопоставить этому прекрасному видению ситуации? Я сходу не нахожу ответа.
А потом слово взял Артур Хачуян, у которого бизнес по анализу открытых данных. Основное направление, насколько я понял, маркетинговое, но вот еще есть сервис, который позволяет родителям контролировать поведение своих несовершеннолетних детей в интернете, отслеживая их "цифровые следы". Хачуян видит в этом гуманистическую задачу, мол, взрослые так смогут лучше понимать подростков, а сам инструмент слежки описывает как нейтральный. Мол, следить можно разными способами, например, глядя в окно.
Но в целом молодой человек с дредами Хачуян тут совпадает с автором учебников по оперативно-розыскной деятельности Овчинским: технологическая ситуация такова, что цифровая слежка неизбежна, давайте просто примем это и будем жить дальше.
И вот это крипово.
Я спросил у Артура в шутку, не хочет ли он открыть версию Tinder на основе соотносения "цифровых следов" человека за всю историю его использования интернетом, ведь это позволяло бы находить партнеров как бы "эффективнее".
Подвох тут в том, что личный выбор алгоритмизируется прямо в сердце мифа об аутентичности человеческого выбора - романтических отношениях.
Хачуян тоже это, кажется, понимает, но с готовностью отозвался, что его компания таким проектом уже занималась и сейчас готовит улучшенную версию платформы. Более того, для проектом несколько сотен добровольцев занимались сексом в датчиках для того, чтобы понять, какую статистику можно извлечь из этих данных.
- Вы, наверное, думали, что сториз исчезают из интернета навсегда? - спросил Хачуян публику под конец. - Ха-ха-ха.
Так вот, а я спрашиваю: кто тут главное зло и чья история страшнее?
Что мы можем противопоставить этому прекрасному видению ситуации? Я сходу не нахожу ответа.
А потом слово взял Артур Хачуян, у которого бизнес по анализу открытых данных. Основное направление, насколько я понял, маркетинговое, но вот еще есть сервис, который позволяет родителям контролировать поведение своих несовершеннолетних детей в интернете, отслеживая их "цифровые следы". Хачуян видит в этом гуманистическую задачу, мол, взрослые так смогут лучше понимать подростков, а сам инструмент слежки описывает как нейтральный. Мол, следить можно разными способами, например, глядя в окно.
Но в целом молодой человек с дредами Хачуян тут совпадает с автором учебников по оперативно-розыскной деятельности Овчинским: технологическая ситуация такова, что цифровая слежка неизбежна, давайте просто примем это и будем жить дальше.
И вот это крипово.
Я спросил у Артура в шутку, не хочет ли он открыть версию Tinder на основе соотносения "цифровых следов" человека за всю историю его использования интернетом, ведь это позволяло бы находить партнеров как бы "эффективнее".
Подвох тут в том, что личный выбор алгоритмизируется прямо в сердце мифа об аутентичности человеческого выбора - романтических отношениях.
Хачуян тоже это, кажется, понимает, но с готовностью отозвался, что его компания таким проектом уже занималась и сейчас готовит улучшенную версию платформы. Более того, для проектом несколько сотен добровольцев занимались сексом в датчиках для того, чтобы понять, какую статистику можно извлечь из этих данных.
- Вы, наверное, думали, что сториз исчезают из интернета навсегда? - спросил Хачуян публику под конец. - Ха-ха-ха.
Так вот, а я спрашиваю: кто тут главное зло и чья история страшнее?
Forwarded from ❌ Лента постов Хабра (не обновляется) (Бот СоХабра)
Смогут ли роботы когда-нибудь по-настоящему осознать себя? Учёные движутся в этом направлении
🏷 Перевод
🗂 Робототехника, Искусственный интеллект
В центре понятия «человек» находится способность осознавать себя. Без неё мы не могли бы ориентироваться, взаимодействовать, сочувствовать или выживать в постоянно меняющемся, сложном мире вместе с другими людьми. Нам необходимо осознавать себя, когда мы делаем что-то, или когда ожидаем последствий потенциальных действий от себя и других.
Учитывая наше стремление включить роботов в наш социальный мир, неудивительно, что создание самосознания у искусственного интеллекта – одна из главных целей исследователей это области. Если эти машины будут заботиться о нас и составлять нам компанию, у них неизбежно должна появиться способность поставить себя на наше место. И хотя учёным ещё далеко до создания роботов, осознающих ...
Читать далее ➡ https://shbr.xyz/hh445260
🏷 Перевод
🗂 Робототехника, Искусственный интеллект
В центре понятия «человек» находится способность осознавать себя. Без неё мы не могли бы ориентироваться, взаимодействовать, сочувствовать или выживать в постоянно меняющемся, сложном мире вместе с другими людьми. Нам необходимо осознавать себя, когда мы делаем что-то, или когда ожидаем последствий потенциальных действий от себя и других.
Учитывая наше стремление включить роботов в наш социальный мир, неудивительно, что создание самосознания у искусственного интеллекта – одна из главных целей исследователей это области. Если эти машины будут заботиться о нас и составлять нам компанию, у них неизбежно должна появиться способность поставить себя на наше место. И хотя учёным ещё далеко до создания роботов, осознающих ...
Читать далее ➡ https://shbr.xyz/hh445260