Forwarded from TJ
Microsoft представила Mesh — платформу для общения и работы в смешанной реальности.
Можно пообщаться с коллегами в одном «помещении», будучи в разных концах света, посмотреть чьё-то выступление, поиграть в Pokemon Go и не только.
По задумке Microsoft, платформа особенно пригодится архитекторам, инженерам и дизайнерам, которым важно взаимодействовать друг с другом.
https://tjournal.ru/347657
Можно пообщаться с коллегами в одном «помещении», будучи в разных концах света, посмотреть чьё-то выступление, поиграть в Pokemon Go и не только.
По задумке Microsoft, платформа особенно пригодится архитекторам, инженерам и дизайнерам, которым важно взаимодействовать друг с другом.
https://tjournal.ru/347657
Forwarded from addmeto (Grigory Bakunov)
В Cisco WebEx внезапно заработал довольно неплохо работающий перевод английской речи в текст, а оттуда в другой язык налету. Т.е. общаясь со своими американскими друзьями вы можете увидеть на их окне русские субтитры (да, русский тоже поддерживается), перевод осуществляется на более чем 100 языков. https://www.zdnet.com/article/ciscos-webex-debuts-free-real-time-translation-from-english-to-100-languages/
ZDNet
Cisco's Webex debuts real-time translation from English to 100+ languages
Targeted at organizations with global workforces, the new feature will help Webex users overcome language barriers
Forwarded from addmeto (Grigory Bakunov)
А майкрософт в ответ тут же показывает маленькие колонки-шайбы Intelligent Speakers, которые налету транскрибируют голосовые встречи (в том числе проводимые через Teams), и что важнее умеют различать по голосам участников и вписывать их репликами в чат, а не просто писать сплошной текст.
Интересно что эту фичу первый раз показали на BUILD'18, т.е. более 2 лет назад уже.
https://www.theverge.com/2021/3/2/22308962/microsoft-intelligent-speaker-teams-translation-trannoscription-features?scrolla=5eb6d68b7fedc32c19ef33b4
Интересно что эту фичу первый раз показали на BUILD'18, т.е. более 2 лет назад уже.
https://www.theverge.com/2021/3/2/22308962/microsoft-intelligent-speaker-teams-translation-trannoscription-features?scrolla=5eb6d68b7fedc32c19ef33b4
The Verge
Microsoft’s new Intelligent Speakers deliver its promised meeting room of the future
Microsoft promised a meeting room of the future, and now it’s delivering it with new hardware.
Forwarded from addmeto (Grigory Bakunov)
Неплохое интервью, в котором Цукерберг украл мою мысль пятилетней давности: в обсуждении AR/VR он говорит, что к 2030 году люди в умных очках будут «телепортироваться» в места для личных встреч. Это именно то применение VR, про которое я все время говорю - легальная альтернатива телепорту для работы. Очень хочу чтобы это начало работать https://www.cnbc.com/2021/03/08/mark-zuckerberg-how-smart-glasses-could-help-combat-climate-change.html
CNBC
Facebook's Mark Zuckerberg thinks smart glasses could help combat climate change
Zuckerberg's remarks are notable because he identifies software that could be the hook to get people to wear advanced headsets.
Forwarded from Внучка урбанистки: Елена Короткова об экономике города
Для роста ВВП нужно 2 дня в неделю работать из дома
Макроэкономисты создали модель про мир на удалёнке - мы больше сидим дома и вроде как больше успеваем. Зато меньше общаемся лично и меньше создаём идей. На удалёнке не теряют доход люди определенных профессий и специальностей уровней. А другие - теряют. Офисов нужно меньше, а жилья больше. Все эти рассуждения сложили вместе и получился вывод про идеальные 2 дня из дома, 3 из офиса.
И что? Макромодели - дело хорошее. Осталось прикинуть, в каком формате удалёнка идеальна для экономики каждого города.
#удаленка #wfh #ввп
https://www.weforum.org/agenda/2021/02/working-home-gdp-padenic-economics-growth-covid-coronavirus/
Макроэкономисты создали модель про мир на удалёнке - мы больше сидим дома и вроде как больше успеваем. Зато меньше общаемся лично и меньше создаём идей. На удалёнке не теряют доход люди определенных профессий и специальностей уровней. А другие - теряют. Офисов нужно меньше, а жилья больше. Все эти рассуждения сложили вместе и получился вывод про идеальные 2 дня из дома, 3 из офиса.
И что? Макромодели - дело хорошее. Осталось прикинуть, в каком формате удалёнка идеальна для экономики каждого города.
#удаленка #wfh #ввп
https://www.weforum.org/agenda/2021/02/working-home-gdp-padenic-economics-growth-covid-coronavirus/
World Economic Forum
This is what working from home might mean for GDP and inequality
In 2014, an estimated 139 million US workers spent a collective 3.4 million years commuting - but research suggests there are downsides to this saved time.
Collective Intelligence
https://booking.ai/personalization-in-practice-2bb4bc680eb3
Полные материалы по персонализации от Booking + 4-х часовая запись выступлений
https://drive.google.com/drive/folders/1c_khoTDRbkoRY5OiaxEfUxRQkyNv3FeK
https://drive.google.com/drive/folders/1c_khoTDRbkoRY5OiaxEfUxRQkyNv3FeK
Human-Centered AI: Reliable, Safe and Trustworthy
The tutorial offers three ideas:
1. An HCAI framework, which shows how it is possible to have both high levels of human control AND high levels of automation.
2. Design metaphors that combine ideas of intelligent autonomous teammates with powerful supertools, active appliances, and teleoperated devices.
3. Governance structures to guide software engineering teams to develop more reliable systems, describe how managers can emphasize a safety culture across teams, advocate industry-specific oversight to promote trustworthy HCAI systems, and clarify how government regulation can accelerate innovation.
https://iui.acm.org/2021/hcai_tutorial.html
https://youtu.be/-VYi_YSNDas
The tutorial offers three ideas:
1. An HCAI framework, which shows how it is possible to have both high levels of human control AND high levels of automation.
2. Design metaphors that combine ideas of intelligent autonomous teammates with powerful supertools, active appliances, and teleoperated devices.
3. Governance structures to guide software engineering teams to develop more reliable systems, describe how managers can emphasize a safety culture across teams, advocate industry-specific oversight to promote trustworthy HCAI systems, and clarify how government regulation can accelerate innovation.
https://iui.acm.org/2021/hcai_tutorial.html
https://youtu.be/-VYi_YSNDas
YouTube
Ben Shneiderman: Human–Centered AI (ACM IUI 2021)
This 3-hour tutorial, as a part of the ACM IUI 2021 Conference, proposes a new synthesis, in which Artificial Intelligence (AI) algorithms are combined with human-centered thinking to make Human-Centered AI (HCAI). This approach combines research on AI algorithms…
Forwarded from Малоизвестное интересное
Прозрение отца ИИ о том, как ИИ сможет понимать мир.
GLOM – революционная теория Джеффри Хинтона (о которой в России почему-то никто не знает).
• Можно научить ИИ понимать окружающий мир так, как его понимают люди. Ключом к этому станет техника восприятия мира, подобная человеческой.
• Человеческое восприятие построено на интуиции, и чтобы ИИ понимал мир, нужно смоделировать для ИИ интуицию.
• Интуиция – это способность легко проводить аналогии. С её помощью ИИ, подобно человеческому мозгу, будет понимать мир и обладать проницательностью.
• С детства и на протяжении всей жизни мы осмысливаем мир, используя рассуждения по аналогии, отображая сходство одного объекта (идеи, концепции …) с другим - или, в терминологии GLOM, - сходство одного большого вектора с другим.
• Современные теории исходят либо из того, что в ходе восприятия мозг обрaбaтывaет изобрaжение («пиксели»), либо из того, что мозг обрабатывает символы. GLOM утверждает, что обa подходы неверны: мозг оперирует не пикселями и не символaми, a большими векторaми нейронной aктивности (т.е. нaборaми aктивaций тех или иных нейронов).
• Если удастся на основе GLOM создать новый класс моделей и алгоритмов глубокого обучения, это может стать прорывом к ИИ, умеющему гибко решать проблемы. Такой ИИ будет способен понимать вещи, с которыми никогда раньше не сталкивался, извлекать сходства из прошлого опыта, экспериментировать с идеями, обобщать, экстраполировать – одним словом, понимать.
GLOM – это новая гипер-прорывная теория ИИ, разработанная Джеффри Хинтоном. То, что его называют отцом ИИ, - вовсе не преувеличение. По словам соучредителя и члена правления Института искусственного интеллекта Vector Джордана Джейкобса: «Через 30 лет мы оглянемся назад и скажем, что Джефф — Эйнштейн для ИИ, глубокого обучения, всего, что мы зовем ИИ».
Из всех исследователей ИИ Хинтона цитируют чаще, чем трех идущих за ним, вместе взятых. Его студенты и аспиранты уходят работать в лаборатории ИИ Apple, Facebook и OpenAI; сам Хинтон — ведущий ученый в команде Google Brain AI. Практически любое достижение в области ИИ за последние десять лет — в переводе, распознавании речи, распознавании изображений и играх — так или иначе касается работ Хинтона.
Его новая теория GLOM решает две самые сложные проблемы для систем визуального восприятия (и то, и другое современный ИИ не умеет в принципе):
• понимание всей сцены в терминах объектов и их естественных частей (например, если такому ИИ показать 10 фрагментов тела подорвавшегося на мине солдата, он опознает, что это труп мужчины);
• распознавание объектов при взгляде с иной точки зрения (современный ИИ не может даже распознать автобус, перевернувшийся и лежащий на крыше).
И хотя GLOM фокусируется на визуальном восприятии, Хинтон ожидает, что эти же идеи можно применить и к языку, чтобы воспроизвести дерево синтаксического анализа в нейронной сети (пока это несбыточная мечта).
Ключевые идеи GLOM недавно были опубликованы Хинтоном в 44-х страничной статье. Эти идеи представляют собой существенный пересмотр архитектуры капсульных нейронных сетей, изобретенной Хинтоном 4 года назад.
И хотя GLOM сегодня – не более, чем «новая философия нейронных сетей», но звучит эта философия чарующе и маняще. Ибо обещает открыть перед ИИ почти что неограниченные горизонты.
Подробней:
- популярно за пэйволом и в обход его
- научно
- очень интересный видео-рассказ о сравнении теории GLOM с «Теорией интеллекта тысячи мозгов»
#КудаИдетИИ #ГлубокоеОбучение
GLOM – революционная теория Джеффри Хинтона (о которой в России почему-то никто не знает).
• Можно научить ИИ понимать окружающий мир так, как его понимают люди. Ключом к этому станет техника восприятия мира, подобная человеческой.
• Человеческое восприятие построено на интуиции, и чтобы ИИ понимал мир, нужно смоделировать для ИИ интуицию.
• Интуиция – это способность легко проводить аналогии. С её помощью ИИ, подобно человеческому мозгу, будет понимать мир и обладать проницательностью.
• С детства и на протяжении всей жизни мы осмысливаем мир, используя рассуждения по аналогии, отображая сходство одного объекта (идеи, концепции …) с другим - или, в терминологии GLOM, - сходство одного большого вектора с другим.
• Современные теории исходят либо из того, что в ходе восприятия мозг обрaбaтывaет изобрaжение («пиксели»), либо из того, что мозг обрабатывает символы. GLOM утверждает, что обa подходы неверны: мозг оперирует не пикселями и не символaми, a большими векторaми нейронной aктивности (т.е. нaборaми aктивaций тех или иных нейронов).
• Если удастся на основе GLOM создать новый класс моделей и алгоритмов глубокого обучения, это может стать прорывом к ИИ, умеющему гибко решать проблемы. Такой ИИ будет способен понимать вещи, с которыми никогда раньше не сталкивался, извлекать сходства из прошлого опыта, экспериментировать с идеями, обобщать, экстраполировать – одним словом, понимать.
GLOM – это новая гипер-прорывная теория ИИ, разработанная Джеффри Хинтоном. То, что его называют отцом ИИ, - вовсе не преувеличение. По словам соучредителя и члена правления Института искусственного интеллекта Vector Джордана Джейкобса: «Через 30 лет мы оглянемся назад и скажем, что Джефф — Эйнштейн для ИИ, глубокого обучения, всего, что мы зовем ИИ».
Из всех исследователей ИИ Хинтона цитируют чаще, чем трех идущих за ним, вместе взятых. Его студенты и аспиранты уходят работать в лаборатории ИИ Apple, Facebook и OpenAI; сам Хинтон — ведущий ученый в команде Google Brain AI. Практически любое достижение в области ИИ за последние десять лет — в переводе, распознавании речи, распознавании изображений и играх — так или иначе касается работ Хинтона.
Его новая теория GLOM решает две самые сложные проблемы для систем визуального восприятия (и то, и другое современный ИИ не умеет в принципе):
• понимание всей сцены в терминах объектов и их естественных частей (например, если такому ИИ показать 10 фрагментов тела подорвавшегося на мине солдата, он опознает, что это труп мужчины);
• распознавание объектов при взгляде с иной точки зрения (современный ИИ не может даже распознать автобус, перевернувшийся и лежащий на крыше).
И хотя GLOM фокусируется на визуальном восприятии, Хинтон ожидает, что эти же идеи можно применить и к языку, чтобы воспроизвести дерево синтаксического анализа в нейронной сети (пока это несбыточная мечта).
Ключевые идеи GLOM недавно были опубликованы Хинтоном в 44-х страничной статье. Эти идеи представляют собой существенный пересмотр архитектуры капсульных нейронных сетей, изобретенной Хинтоном 4 года назад.
И хотя GLOM сегодня – не более, чем «новая философия нейронных сетей», но звучит эта философия чарующе и маняще. Ибо обещает открыть перед ИИ почти что неограниченные горизонты.
Подробней:
- популярно за пэйволом и в обход его
- научно
- очень интересный видео-рассказ о сравнении теории GLOM с «Теорией интеллекта тысячи мозгов»
#КудаИдетИИ #ГлубокоеОбучение
MIT Technology Review
Geoffrey Hinton has a hunch about what’s next for AI
A decade ago, the artificial-intelligence pioneer transformed the field with a major breakthrough. Now he’s working on a new imaginary system named GLOM.
The EU's AI regulation plan
The EU launched its plan to regulate AI, with draft rules and definitions. As with the DSA and DMA, and GDPR before, this is the beginning of a multi-year process of argument, lobbying and amendment. Also like GDPR, it contains some very odd ideas about the technology and industry structure that suggest the drafters have never really listened to anyone in the market they plan to regulate, and it will be full of unintended consequences.
There are certainly real policy questions around AI. Much like databases, we worry what bad people could do with it and we worry about mistakes. We worry what happens if it works and we worry what happens if it doesn't work. Machine learning offers plenty of scope for both, with face recognition on one hand and AI bias and the inscrutable nature of ML models on the other.
The problem is that we don't have a general law regulating databases - we have laws addressing specific questions. A law on consumer credit is not the same as a law on heath records. AI techniques will be part of every single piece of software - writing a law to cover all of that seems like the wrong level of abstraction. Meanwhile, you could write a law saying you're not allowed to have bugs, but would that have stopped Arizona keeping people in prison after their release date because the computer couldn't handle new sentencing rules? Should that have been handled by a database regulator, or the legal system? This is like trying to write a single law covering 'cars', that covers drunk driving, emissions standards, parking, and the tax treatment of highways. Link
The EU launched its plan to regulate AI, with draft rules and definitions. As with the DSA and DMA, and GDPR before, this is the beginning of a multi-year process of argument, lobbying and amendment. Also like GDPR, it contains some very odd ideas about the technology and industry structure that suggest the drafters have never really listened to anyone in the market they plan to regulate, and it will be full of unintended consequences.
There are certainly real policy questions around AI. Much like databases, we worry what bad people could do with it and we worry about mistakes. We worry what happens if it works and we worry what happens if it doesn't work. Machine learning offers plenty of scope for both, with face recognition on one hand and AI bias and the inscrutable nature of ML models on the other.
The problem is that we don't have a general law regulating databases - we have laws addressing specific questions. A law on consumer credit is not the same as a law on heath records. AI techniques will be part of every single piece of software - writing a law to cover all of that seems like the wrong level of abstraction. Meanwhile, you could write a law saying you're not allowed to have bugs, but would that have stopped Arizona keeping people in prison after their release date because the computer couldn't handle new sentencing rules? Should that have been handled by a database regulator, or the legal system? This is like trying to write a single law covering 'cars', that covers drunk driving, emissions standards, parking, and the tax treatment of highways. Link
KJZZ
Whistleblowers: Software bug keeping hundreds of inmates in Arizona prisons beyond release dates
According to Arizona Department of Corrections whistleblowers, hundreds of incarcerated people who should be eligible for release are being held in prison because the inmate management software
Forwarded from tldr_tany (Таня Савельева)
Безопасность и интерпретируемость моделей
https://www.arthur.ai/product
https://www.robustintelligence.com
https://arxiv.org/pdf/2010.10596.pdf
🔎В чем понт
В прошлом посте я писала про модели машинного обучения, которые по нашим характеристикам решают, как нам можно поступать, а где нужно доработать: кредитный скоринг, персонализированное ценообразование и тд. Авторы говорили, что очень важно делать модели интерпретируемыми, понимать, когда что-то идет не так, и не менее важно обьяснять людям решение ML. Кажется это следующий виток в области: с тем, что делать разобрались, теперь нужно контролировать качество, следить за безопасностью и понимать, как это работает (хаха). В этом посте я расскажу про 2 молодых стартапа, которые уже поднимают деньги на теме безопасного и интерпретируемого AI и помогают крупным компаниям.
🦄Что за компании, где я их нашла, сколько денег подняли
В последнее время часто смотрю CBInsights - это аггрегатор информации про компании, стартапы. Там выходят классные, новости, аналитика. Ребята каждый год несколько раз обновляют подборку AI-100 - туда они включают самые promising AI-компании. Выбирают по количеству поднятых инвестиций, профилю инвестора, анализу новостей, рыночному потенциалу, конкурентам, силе команды и новизне в технологиях. Из 100 компаний 2021 года подборки 2 было про интерпретируемость AI: Robust Intellegence и Arthur. На A-round (привлечение денег на начальных этапах, инвесторы требуют масштабируемости, обычно не требуют прибыли) подняли 14 и 12 млн$. Это достаточно много для этого раунда, хотя бывает и больше (китайский стартап грузоперевозок из той же подборки на A-round поднял 220 млн$). Компании основаны в 2018 и 2019 году, то есть совсем молодые.
🍒 Что они делают?
Arthur состоит из трех частей: мониторинги моделей, их аналитика и улучшатель моделей. Все 3 вещи можно смотреть и настраивать в их интерфейсе, к посту прикреплены скрины вкладок в максимально доступном качестве :). На этапе мониторинга Arthur смотрит на производительность модели, аллертит, если что-то изменяется, подсвечивает дрейф данных (если распределение в данных изменилось относительно истории). На втором этапе аналитики тулза выделяет bias, понимает, какие фичи и как влияют на итоговое предсказание и подбирает наиболее информативную метрику для оценки модели. Далее предлагается модель для починки поломок в модели (очень было бы интересно узнать как конкретнее он работает), экспорт отчетов, плюс можно моделировать для пользователя контрфактуалы (не просто информирование о том, что кредит не выдали, а обьяснение, что сделать по-другому в следующий раз, чтобы кредит дали). Arthur выпустил статью-обзор на эту тему, в ссылках наверху.
Robust Intellegence больше сфокусирован на безопасности, а не интерпретируемости (скрин с описанием работы системы в прикрепе). В тулзе есть модуль "профилактического” выявления уязвимости: в данные вносятся небольшие изменения и наблюдается поведение моделей. Также через модель прогоняются потециально проблемные данные: из которых признаки выкинуты или заполнены странными значениями, плохо классифицирующиеся обьекты. Также Robust Intellegence ищет проблемные данные и создают правило, которое помогает избежать ошибок модели на этом срезе.
🥂Что в итоге
Интересное и новое направление в исследованиях и стартапах. Оптимистично настраивает относительного будущего ML: data science не умрет, решив все задачи, а выйдет на новую ступень развития, где появляются все более глубокие проблемы и вызовы.
https://www.arthur.ai/product
https://www.robustintelligence.com
https://arxiv.org/pdf/2010.10596.pdf
🔎В чем понт
В прошлом посте я писала про модели машинного обучения, которые по нашим характеристикам решают, как нам можно поступать, а где нужно доработать: кредитный скоринг, персонализированное ценообразование и тд. Авторы говорили, что очень важно делать модели интерпретируемыми, понимать, когда что-то идет не так, и не менее важно обьяснять людям решение ML. Кажется это следующий виток в области: с тем, что делать разобрались, теперь нужно контролировать качество, следить за безопасностью и понимать, как это работает (хаха). В этом посте я расскажу про 2 молодых стартапа, которые уже поднимают деньги на теме безопасного и интерпретируемого AI и помогают крупным компаниям.
🦄Что за компании, где я их нашла, сколько денег подняли
В последнее время часто смотрю CBInsights - это аггрегатор информации про компании, стартапы. Там выходят классные, новости, аналитика. Ребята каждый год несколько раз обновляют подборку AI-100 - туда они включают самые promising AI-компании. Выбирают по количеству поднятых инвестиций, профилю инвестора, анализу новостей, рыночному потенциалу, конкурентам, силе команды и новизне в технологиях. Из 100 компаний 2021 года подборки 2 было про интерпретируемость AI: Robust Intellegence и Arthur. На A-round (привлечение денег на начальных этапах, инвесторы требуют масштабируемости, обычно не требуют прибыли) подняли 14 и 12 млн$. Это достаточно много для этого раунда, хотя бывает и больше (китайский стартап грузоперевозок из той же подборки на A-round поднял 220 млн$). Компании основаны в 2018 и 2019 году, то есть совсем молодые.
🍒 Что они делают?
Arthur состоит из трех частей: мониторинги моделей, их аналитика и улучшатель моделей. Все 3 вещи можно смотреть и настраивать в их интерфейсе, к посту прикреплены скрины вкладок в максимально доступном качестве :). На этапе мониторинга Arthur смотрит на производительность модели, аллертит, если что-то изменяется, подсвечивает дрейф данных (если распределение в данных изменилось относительно истории). На втором этапе аналитики тулза выделяет bias, понимает, какие фичи и как влияют на итоговое предсказание и подбирает наиболее информативную метрику для оценки модели. Далее предлагается модель для починки поломок в модели (очень было бы интересно узнать как конкретнее он работает), экспорт отчетов, плюс можно моделировать для пользователя контрфактуалы (не просто информирование о том, что кредит не выдали, а обьяснение, что сделать по-другому в следующий раз, чтобы кредит дали). Arthur выпустил статью-обзор на эту тему, в ссылках наверху.
Robust Intellegence больше сфокусирован на безопасности, а не интерпретируемости (скрин с описанием работы системы в прикрепе). В тулзе есть модуль "профилактического” выявления уязвимости: в данные вносятся небольшие изменения и наблюдается поведение моделей. Также через модель прогоняются потециально проблемные данные: из которых признаки выкинуты или заполнены странными значениями, плохо классифицирующиеся обьекты. Также Robust Intellegence ищет проблемные данные и создают правило, которое помогает избежать ошибок модели на этом срезе.
🥂Что в итоге
Интересное и новое направление в исследованиях и стартапах. Оптимистично настраивает относительного будущего ML: data science не умрет, решив все задачи, а выйдет на новую ступень развития, где появляются все более глубокие проблемы и вызовы.