Tensorflow(@CVision) – Telegram
Tensorflow(@CVision)
15.3K subscribers
1.29K photos
310 videos
81 files
2.53K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت:
http://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support

لینک گروه:
@tf2keras
Download Telegram
شناسایی اشیاء با YOLOv4 سریعتر از همیشه!
YOLOv4: Optimal Speed and Accuracy of Object Detection

مقاله:
https://arxiv.org/abs/2004.10934

سورس کد:
https://github.com/AlexeyAB/darknet

پیاده سازی غیر رسمی کراس:
keras-yolo4
https://github.com/Ma-Dan/keras-yolo4
تمام مقالات ICLR-2020 با سورس کد به صورت سورت شده بر اساس ستاره‌های GitHub شون

https://paperswithcode.com/conference/iclr-2020-1/official

#ICLR2020
#آموزش #سورس_کد #بصری_سازی
#GradCAM class activation visualization in Keras

How do you obtain the class activation heatmap for an image classification model in Keras?

کد تنسرفلو 2 - کراس را در گوگل کولب اجرا کنید
https://colab.research.google.com/drive/1CJQSVaXG1ceBQGFrTHnt-pt1xjO4KFDe#scrollTo=xmL6KFrAfdrP

عکس کد:
https://news.1rj.ru/str/cvision/1880
منبع:
https://twitter.com/fchollet/status/1254532671075569664?s=20

مرتبط با ابزار tf.explain که به صورت آماده میتونیم استفاده کنیم:
https://news.1rj.ru/str/cvision/1407

که در وبینار هم بحث شد:
https://www.aparat.com/v/r05IW
Unsupervised Speech Decomposition Via Triple Information Bottleneck

SpeechSplit - An autoencoder that can decompose speech into content, timbre, rhythm and pitch. Pretty amazing results! Check out the demo page



📝 Paper: https://arxiv.org/pdf/2004.11284.pdf
🎙 Demo: https://anonymous0818.github.io/
#مقاله #ICLR2020
You Only Train Once: Loss-Conditional Training of Deep Networks
https://openreview.net/pdf?id=HyxY6JHKwr
#مقاله

Optimizing Multiple Loss Functions with Loss-Conditional Training

ایده ی جالب این مقاله اینه که برای برخی از کاربردها نظیر style transfer و یا image compression و یا ... که چند تا loss مختلف داریم، قبلا مجبور بودیم ضریب هر loss را تعیین کنیم و بعد آموزش بدیم و این ضریب روی خروجی تاثیر داشت.
مثلا در بحث image compression ممکن بود تنظیم این ضریب روی کیفیت عکس و حجم اثر بزاره، مثلا در یک طرف کیفیت بالا و حجم بالا و در طرف مقابل کیفیت پایین و حجم پایین
حالا فکر کنید اگر شبکه عصبی برای کاهش حجم عکس در 3 حالت مختلف ( خیلی کاهش حجم - متوسط - کاهش حجم کم) میخواستیم باید 3 شبکه آموزش میدادیم و ذخیره میکردیم.

در این مقاله گفته فقط یک شبکه ترین کنیم و پارامترهای اینچنینی را بعد از آموزش روش کنترل داشته باشیم.

https://ai.googleblog.com/2020/04/optimizing-multiple-loss-functions-with.html

مرتبط با مقاله:
https://news.1rj.ru/str/cvision/1884
هم اکنون کنفرانس MVIP (پردازش تصویر و بینایی ماشین ایران) به صورت آنلاین در حال برگزاری است و میتوانید به صورت رایگان و بدون ثبت نام در ارائه ها شرکت کنید:
https://news.1rj.ru/str/mvip_2020
#آموزش
نوت‌بوک کولب برای آموزش روش‌های مختلف quantization در Tensorflow Keras

https://colab.research.google.com/drive/18WUtl6s8bjSuGpEzUsrvLvCFMts0iiEp
#quantization
#آموزش

A Visual Guide to Recurrent Layers in Keras

https://amitness.com/2020/04/recurrent-layers-keras/

——-
می‌توانید دوره‌ی ضبط شده در صندوق نوآوری و شکوفایی با موضوع شبکه های بازگشتی در Tensorflow و keras را از اینجا تهیه فرمایید:
http://class.vision/deeplearning2/
طرف نوشته با وجود این نمودار نمیفهمم چرا یکی باید شبکه‌ای غیر از efficientNet استفاده کنه!

جرمی هاوارد زیرش پاسخ داده: آخه performance و تعداد پارامترها به یه معنی نیستند...

https://twitter.com/jeremyphoward/status/1255966103102242822?s=20
#آموزش #tf2 #keras
آموزش دیگری از chollet این بار با موضوع Deep Dream

A modern Deep Dream example in around 60 lines of Keras:

https://colab.research.google.com/drive/18XPdEDVYdr_ODAvW0DrWRCRC25tvTuCE
منبع
https://twitter.com/fchollet/status/1256744926550716417?s=20