شناسایی اشیاء با YOLOv4 سریعتر از همیشه!
YOLOv4: Optimal Speed and Accuracy of Object Detection
مقاله:
https://arxiv.org/abs/2004.10934
سورس کد:
https://github.com/AlexeyAB/darknet
پیاده سازی غیر رسمی کراس:
keras-yolo4
https://github.com/Ma-Dan/keras-yolo4
YOLOv4: Optimal Speed and Accuracy of Object Detection
مقاله:
https://arxiv.org/abs/2004.10934
سورس کد:
https://github.com/AlexeyAB/darknet
پیاده سازی غیر رسمی کراس:
keras-yolo4
https://github.com/Ma-Dan/keras-yolo4
تمام مقالات ICLR-2020 با سورس کد به صورت سورت شده بر اساس ستارههای GitHub شون
https://paperswithcode.com/conference/iclr-2020-1/official
#ICLR2020
https://paperswithcode.com/conference/iclr-2020-1/official
#ICLR2020
Paperswithcode
Papers with Code - ICLR 2020 1
#آموزش #سورس_کد #بصری_سازی
#GradCAM class activation visualization in Keras
How do you obtain the class activation heatmap for an image classification model in Keras?
کد تنسرفلو 2 - کراس را در گوگل کولب اجرا کنید
https://colab.research.google.com/drive/1CJQSVaXG1ceBQGFrTHnt-pt1xjO4KFDe#scrollTo=xmL6KFrAfdrP
عکس کد:
https://news.1rj.ru/str/cvision/1880
منبع:
https://twitter.com/fchollet/status/1254532671075569664?s=20
مرتبط با ابزار tf.explain که به صورت آماده میتونیم استفاده کنیم:
https://news.1rj.ru/str/cvision/1407
که در وبینار هم بحث شد:
https://www.aparat.com/v/r05IW
#GradCAM class activation visualization in Keras
How do you obtain the class activation heatmap for an image classification model in Keras?
کد تنسرفلو 2 - کراس را در گوگل کولب اجرا کنید
https://colab.research.google.com/drive/1CJQSVaXG1ceBQGFrTHnt-pt1xjO4KFDe#scrollTo=xmL6KFrAfdrP
عکس کد:
https://news.1rj.ru/str/cvision/1880
منبع:
https://twitter.com/fchollet/status/1254532671075569664?s=20
مرتبط با ابزار tf.explain که به صورت آماده میتونیم استفاده کنیم:
https://news.1rj.ru/str/cvision/1407
که در وبینار هم بحث شد:
https://www.aparat.com/v/r05IW
Unsupervised Speech Decomposition Via Triple Information Bottleneck
SpeechSplit - An autoencoder that can decompose speech into content, timbre, rhythm and pitch. Pretty amazing results! Check out the demo page
📝 Paper: https://arxiv.org/pdf/2004.11284.pdf
🎙 Demo: https://anonymous0818.github.io/
SpeechSplit - An autoencoder that can decompose speech into content, timbre, rhythm and pitch. Pretty amazing results! Check out the demo page
📝 Paper: https://arxiv.org/pdf/2004.11284.pdf
🎙 Demo: https://anonymous0818.github.io/
StarGAN v2: Diverse Image Synthesis for Multiple Domains
Paper: https://arxiv.org/abs/1912.01865
Github: https://github.com/clovaai/stargan-v2
Demo: https://m.youtube.com/watch?v=0EVh5Ki4dIY&feature=youtu.be
Paper: https://arxiv.org/abs/1912.01865
Github: https://github.com/clovaai/stargan-v2
Demo: https://m.youtube.com/watch?v=0EVh5Ki4dIY&feature=youtu.be
#مقاله #ICLR2020
You Only Train Once: Loss-Conditional Training of Deep Networks
https://openreview.net/pdf?id=HyxY6JHKwr
You Only Train Once: Loss-Conditional Training of Deep Networks
https://openreview.net/pdf?id=HyxY6JHKwr
#مقاله
Optimizing Multiple Loss Functions with Loss-Conditional Training
ایده ی جالب این مقاله اینه که برای برخی از کاربردها نظیر style transfer و یا image compression و یا ... که چند تا loss مختلف داریم، قبلا مجبور بودیم ضریب هر loss را تعیین کنیم و بعد آموزش بدیم و این ضریب روی خروجی تاثیر داشت.
مثلا در بحث image compression ممکن بود تنظیم این ضریب روی کیفیت عکس و حجم اثر بزاره، مثلا در یک طرف کیفیت بالا و حجم بالا و در طرف مقابل کیفیت پایین و حجم پایین
حالا فکر کنید اگر شبکه عصبی برای کاهش حجم عکس در 3 حالت مختلف ( خیلی کاهش حجم - متوسط - کاهش حجم کم) میخواستیم باید 3 شبکه آموزش میدادیم و ذخیره میکردیم.
در این مقاله گفته فقط یک شبکه ترین کنیم و پارامترهای اینچنینی را بعد از آموزش روش کنترل داشته باشیم.
https://ai.googleblog.com/2020/04/optimizing-multiple-loss-functions-with.html
مرتبط با مقاله:
https://news.1rj.ru/str/cvision/1884
Optimizing Multiple Loss Functions with Loss-Conditional Training
ایده ی جالب این مقاله اینه که برای برخی از کاربردها نظیر style transfer و یا image compression و یا ... که چند تا loss مختلف داریم، قبلا مجبور بودیم ضریب هر loss را تعیین کنیم و بعد آموزش بدیم و این ضریب روی خروجی تاثیر داشت.
مثلا در بحث image compression ممکن بود تنظیم این ضریب روی کیفیت عکس و حجم اثر بزاره، مثلا در یک طرف کیفیت بالا و حجم بالا و در طرف مقابل کیفیت پایین و حجم پایین
حالا فکر کنید اگر شبکه عصبی برای کاهش حجم عکس در 3 حالت مختلف ( خیلی کاهش حجم - متوسط - کاهش حجم کم) میخواستیم باید 3 شبکه آموزش میدادیم و ذخیره میکردیم.
در این مقاله گفته فقط یک شبکه ترین کنیم و پارامترهای اینچنینی را بعد از آموزش روش کنترل داشته باشیم.
https://ai.googleblog.com/2020/04/optimizing-multiple-loss-functions-with.html
مرتبط با مقاله:
https://news.1rj.ru/str/cvision/1884
research.google
Optimizing Multiple Loss Functions with Loss-Conditional Training
Posted by Alexey Dosovitskiy, Research Scientist, Google Research In many machine learning applications the performance of a model cannot be summ...
Andrej Karpathy: Tesla Autopilot and Multi-Task Learning for Perception and Prediction
https://www.youtube.com/watch?v=IHH47nZ7FZU&feature=youtu.be
https://www.youtube.com/watch?v=IHH47nZ7FZU&feature=youtu.be
YouTube
Andrej Karpathy: Tesla Autopilot and Multi-Task Learning for Perception and Prediction
Clips from Andrej Karpathy's talk at ICML (June 2019). I think multi-task learning is one of the most important (and understudied) subfields of machine learning. Most real world problems are multi-task. I especially find the discussion on team workflow fascinating…
TFRT: A new TensorFlow runtime
https://youtu.be/15tiQoPpuZ8
https://blog.tensorflow.org/2020/04/tfrt-new-tensorflow-runtime.html
https://youtu.be/15tiQoPpuZ8
https://blog.tensorflow.org/2020/04/tfrt-new-tensorflow-runtime.html
YouTube
TFRT: A new TensorFlow runtime (TF Dev Summit '20)
TFRT is a new runtime for TensorFlow. Leveraging MLIR, it aims to provide a unified, extensible infrastructure layer with best-in-class performance across a ...
هم اکنون کنفرانس MVIP (پردازش تصویر و بینایی ماشین ایران) به صورت آنلاین در حال برگزاری است و میتوانید به صورت رایگان و بدون ثبت نام در ارائه ها شرکت کنید:
https://news.1rj.ru/str/mvip_2020
https://news.1rj.ru/str/mvip_2020
Telegram
MVIP 2020
The 11th Iranian and the first International Conference on Machine Vision and Image Processing
http://mvip2020.ismvipconf.ir
http://mvip2020.ismvipconf.ir
#آموزش
نوتبوک کولب برای آموزش روشهای مختلف quantization در Tensorflow Keras
https://colab.research.google.com/drive/18WUtl6s8bjSuGpEzUsrvLvCFMts0iiEp
#quantization
نوتبوک کولب برای آموزش روشهای مختلف quantization در Tensorflow Keras
https://colab.research.google.com/drive/18WUtl6s8bjSuGpEzUsrvLvCFMts0iiEp
#quantization
#آموزش
A Visual Guide to Recurrent Layers in Keras
https://amitness.com/2020/04/recurrent-layers-keras/
——-
میتوانید دورهی ضبط شده در صندوق نوآوری و شکوفایی با موضوع شبکه های بازگشتی در Tensorflow و keras را از اینجا تهیه فرمایید:
http://class.vision/deeplearning2/
A Visual Guide to Recurrent Layers in Keras
https://amitness.com/2020/04/recurrent-layers-keras/
——-
میتوانید دورهی ضبط شده در صندوق نوآوری و شکوفایی با موضوع شبکه های بازگشتی در Tensorflow و keras را از اینجا تهیه فرمایید:
http://class.vision/deeplearning2/
Amit Chaudhary
A Visual Guide to Recurrent Layers in Keras
Understand how to use Recurrent Layers like RNN, GRU, and LSTM in Keras with diagrams
Forwarded from Deep learning channel (Mohsen)
Twitter
Jürgen Schmidhuber
GANs are special cases of Artificial Curiosity (1990) and also closely related to Predictability Minimization (1991). Now published in Neural Networks 127:58-66, 2020. #selfcorrectingscience #plagiarism Open Access: https://t.co/QpKd8eQuKb Preprint: http…
#آموزش #سورس_کد
Introduction to #Keras for Researchers:
https://colab.research.google.com/drive/169PfzM0kvtA5UP4k6Sl1yCG9tsE2MLia
Introduction to #Keras for Researchers:
https://colab.research.google.com/drive/169PfzM0kvtA5UP4k6Sl1yCG9tsE2MLia
Google
Google Colaboratory
طرف نوشته با وجود این نمودار نمیفهمم چرا یکی باید شبکهای غیر از efficientNet استفاده کنه!
جرمی هاوارد زیرش پاسخ داده: آخه performance و تعداد پارامترها به یه معنی نیستند...
https://twitter.com/jeremyphoward/status/1255966103102242822?s=20
جرمی هاوارد زیرش پاسخ داده: آخه performance و تعداد پارامترها به یه معنی نیستند...
https://twitter.com/jeremyphoward/status/1255966103102242822?s=20
Interactive Tools for Machine Learning, Deep Learning and Math
https://github.com/Machine-Learning-Tokyo/Interactive_Tools#cnn-explainer
https://github.com/Machine-Learning-Tokyo/Interactive_Tools#cnn-explainer
GitHub
GitHub - Machine-Learning-Tokyo/Interactive_Tools: Interactive Tools for Machine Learning, Deep Learning and Math
Interactive Tools for Machine Learning, Deep Learning and Math - Machine-Learning-Tokyo/Interactive_Tools
#آموزش #tf2 #keras
آموزش دیگری از chollet این بار با موضوع Deep Dream
A modern Deep Dream example in around 60 lines of Keras:
https://colab.research.google.com/drive/18XPdEDVYdr_ODAvW0DrWRCRC25tvTuCE
منبع
https://twitter.com/fchollet/status/1256744926550716417?s=20
آموزش دیگری از chollet این بار با موضوع Deep Dream
A modern Deep Dream example in around 60 lines of Keras:
https://colab.research.google.com/drive/18XPdEDVYdr_ODAvW0DrWRCRC25tvTuCE
منبع
https://twitter.com/fchollet/status/1256744926550716417?s=20