Forwarded from TechSparks
Ещё одна монетка в копилку «нет худа без добра»: борьба с коронавирусом поломала многие отживающие стереотипы в организации науки. Ведь часто первое наблюдение какого-то интересного факта являлось основанием промолчать от нем, получить грант и начать неторопливо писать статью. Сейчас в области любых научных исследований вокруг коронавируса работает фантастическая глобальная коллаборация реального времени: новый факт в течение часов сообщается всем, кому он может быть полезен в любой лаборатории мира. Обмен данными идёт практически в режиме стриминга. Никто не ждёт медленных публикаций в традиционных журналах: все важное выкладывается сразу на medRxiv и bioRxiv.
И ученые видят, насколько это отклонение от традиций реально ускоряет прогресс исследований, насколько мощны оказываются неформальные распределенные команды — и многие войдут во вкус.
Авторы заметки подкалывают Трампа, пытающегося приписать заслуги конкретно американским ученым: trying to sew a “Made in the USA” label onto scientific research gets complicated. Немного удивляет, что наши журналисты не испытывают ни малейших трудностей, наклеивая аналогичные местные этикетки.
https://www.nytimes.com/2020/04/01/world/europe/coronavirus-science-research-cooperation.html
И ученые видят, насколько это отклонение от традиций реально ускоряет прогресс исследований, насколько мощны оказываются неформальные распределенные команды — и многие войдут во вкус.
Авторы заметки подкалывают Трампа, пытающегося приписать заслуги конкретно американским ученым: trying to sew a “Made in the USA” label onto scientific research gets complicated. Немного удивляет, что наши журналисты не испытывают ни малейших трудностей, наклеивая аналогичные местные этикетки.
https://www.nytimes.com/2020/04/01/world/europe/coronavirus-science-research-cooperation.html
NY Times
Covid-19 Changed How the World Does Science, Together
Never before, scientists say, have so many of the world’s researchers focused so urgently on a single topic. Nearly all other research has ground to a halt.
Forwarded from addmeto
Если вы думали, что до чтения мыслей человечеству еще далеко - вот вам свежая научная статья в Nature, я в полном шоке.
Воспользовавшись аппаратом для ECoG (это примерно как ЭЭГ, только с электродами прямо на поверхность мозга), подопытного просили про себя думать или громко проговаривать определенные фразы с довольно небольшим лексиконом: несколько сотен слов, несколько десятков предложений. На этом строили обучающую выборку, после чего человеку предлагалось подумать какую-либо фразу состоящую из тех же слов, а машина переводила все это в текст.
Результаты волшебные, пусть и для такой небольшой выборки - вероятность неправильно распознанного слова не превысила 3%! Да, конечно, это электроды в мозг, да, это ограниченный пока набор фраз. Но сам факт - мы научились читать мозговые сигналы в достаточной мере чтобы читать явно сформулированные мысли! https://doi.org/10.1038/s41593-020-0608-8
Воспользовавшись аппаратом для ECoG (это примерно как ЭЭГ, только с электродами прямо на поверхность мозга), подопытного просили про себя думать или громко проговаривать определенные фразы с довольно небольшим лексиконом: несколько сотен слов, несколько десятков предложений. На этом строили обучающую выборку, после чего человеку предлагалось подумать какую-либо фразу состоящую из тех же слов, а машина переводила все это в текст.
Результаты волшебные, пусть и для такой небольшой выборки - вероятность неправильно распознанного слова не превысила 3%! Да, конечно, это электроды в мозг, да, это ограниченный пока набор фраз. Но сам факт - мы научились читать мозговые сигналы в достаточной мере чтобы читать явно сформулированные мысли! https://doi.org/10.1038/s41593-020-0608-8
Nature
Machine translation of cortical activity to text with an encoder–decoder framework
Nature Neuroscience - Makin and colleagues decode speech from neural signals recorded during a preoperative procedure, using an algorithm inspired by machine translation. For one participant...
Forwarded from Just links
Global-Local Bidirectional Reasoning for Unsupervised Representation Learning of 3D Point Clouds https://arxiv.org/abs/2003.12971
Обсуждаем с коллегой частые очепятки, которые люди делают в своих статьях.
Пока что топ 1 это disgussion
#random
Пока что топ 1 это disgussion
#random
Вдруг кто-то тоже хочет чутка подботать CV
Мне в первую очередь интересна часть без нейронок
1) На первый взгляд самый лучший курс, который я нашла
https://pjreddie.com/courses/computer-vision/
2) CV без нейронок от Carnegie Mellon, но тут в основном презы.
http://www.cs.cmu.edu/~16385/
3) Если надо в нейронки только
https://www.youtube.com/playlist?list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv
Stanford 2017
http://cs231n.stanford.edu/
Spring 2020
4) Книжка с кодом, который запускается прямо в броузере.
Используется MXNet.
http://d2l.ai/chapter_computer-vision/
Если вы знаете еще что-то крутое, напишите в личку плиз:)
#courses
Мне в первую очередь интересна часть без нейронок
1) На первый взгляд самый лучший курс, который я нашла
https://pjreddie.com/courses/computer-vision/
2) CV без нейронок от Carnegie Mellon, но тут в основном презы.
http://www.cs.cmu.edu/~16385/
3) Если надо в нейронки только
https://www.youtube.com/playlist?list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv
Stanford 2017
http://cs231n.stanford.edu/
Spring 2020
4) Книжка с кодом, который запускается прямо в броузере.
Используется MXNet.
http://d2l.ai/chapter_computer-vision/
Если вы знаете еще что-то крутое, напишите в личку плиз:)
#courses
Pjreddie
The Ancient Secrets of Computer Vision
Wow, @j_links поделился ссылкой на ongoing курс по Unsupervised deep learning UC Berkeley.
Есть лекции, colab, презы.
Syllabus
- Intro
- Autoregressive Models
- Flow Models
- Latent Variable Models
- Implicit Models / Generative Adversarial Networks
- Implicit Models / Generative Adversarial Networks (ctd) + Final Project Discussion
- Self-Supervised Learning / Non-Generative Representation Learning
- Strengths and Weaknesses of Unsupervised Learning Methods Covered Thus Far
- Semi-Supervised Learning; Unsupervised Distribution Alignment
- Compression
- Language Models [Guest Instructor: Alec Radford (OpenAI)]
- Representation Learning in Reinforcement Learning
#courses
Есть лекции, colab, презы.
Syllabus
- Intro
- Autoregressive Models
- Flow Models
- Latent Variable Models
- Implicit Models / Generative Adversarial Networks
- Implicit Models / Generative Adversarial Networks (ctd) + Final Project Discussion
- Self-Supervised Learning / Non-Generative Representation Learning
- Strengths and Weaknesses of Unsupervised Learning Methods Covered Thus Far
- Semi-Supervised Learning; Unsupervised Distribution Alignment
- Compression
- Language Models [Guest Instructor: Alec Radford (OpenAI)]
- Representation Learning in Reinforcement Learning
#courses
Telegram
Just links
https://twitter.com/pabbeel/status/1246862102435774464
Если у вас вдруг айфон и вы давно хотели поставить на него windows..
https://getutm.app/
Еще можно ставить программы, которые работают под Linux
https://ish.app/
(но зачем?)
https://getutm.app/
Еще можно ставить программы, которые работают под Linux
https://ish.app/
(но зачем?)