استفاده ساده تر از GAN ها در تنسرفلو و کراس
GAN-Sandbox
has a number of popular GAN architectures implemented in Python using the Keras library and a TensorFlow back-end.
Vanilla GAN implemented on top of keras/tensorflow enabling rapid experimentation & research. Branches correspond to implementations of stable GAN variations (i.e. ACGan, InfoGAN) and other promising variations of GANs like conditional and Wasserstein.
Standard GAN implemented on top of keras/tensorflow enabling rapid experimentation & research. Branches correspond to stable implementations of GAN architectures (i.e. ACGan, InfoGAN, Improved wGAN) and other promising variations of GANs (i.e. GAN hacks, local adversarial loss, etc...).
https://github.com/mjdietzx/GAN-Sandbox
#GAN #keras
GAN-Sandbox
has a number of popular GAN architectures implemented in Python using the Keras library and a TensorFlow back-end.
Vanilla GAN implemented on top of keras/tensorflow enabling rapid experimentation & research. Branches correspond to implementations of stable GAN variations (i.e. ACGan, InfoGAN) and other promising variations of GANs like conditional and Wasserstein.
Standard GAN implemented on top of keras/tensorflow enabling rapid experimentation & research. Branches correspond to stable implementations of GAN architectures (i.e. ACGan, InfoGAN, Improved wGAN) and other promising variations of GANs (i.e. GAN hacks, local adversarial loss, etc...).
https://github.com/mjdietzx/GAN-Sandbox
#GAN #keras
GitHub
mjdietzx/GAN-Sandbox
Vanilla GAN implemented on top of keras/tensorflow enabling rapid experimentation & research. Branches correspond to implementations of stable GAN variations (i.e. ACGan, InfoGAN) and other...
چرا آموزش شبکه های GAN دشوار است؟
#GAN — Why it is so hard to train Generative Adversarial Networks!
https://medium.com/@jonathan_hui/gan-why-it-is-so-hard-to-train-generative-advisory-networks-819a86b3750b
#GAN — Why it is so hard to train Generative Adversarial Networks!
https://medium.com/@jonathan_hui/gan-why-it-is-so-hard-to-train-generative-advisory-networks-819a86b3750b
Medium
GAN — Why it is so hard to train Generative Adversarial Networks!
It is easier to recognize a Monet’s painting than drawing one. Generative models (creating data) are considered much harder comparing with…
استفاده از image captioning برای پیدا کردن تصاویر مشابه در فضای بردار ویژگی fastText
Facebook BISON: An Alternative Evaluation Task for Visual-Grounding Systems
https://medium.com/syncedreview/facebook-bison-an-alternative-evaluation-task-for-visual-grounding-systems-857bb5366487
Facebook BISON: An Alternative Evaluation Task for Visual-Grounding Systems
https://medium.com/syncedreview/facebook-bison-an-alternative-evaluation-task-for-visual-grounding-systems-857bb5366487
#خبر
https://www.wired.com/story/worlds-fastest-supercomputer-breaks-ai-record/
🙏Thanks to: @MohsenF91
#gpu #سیستم
https://www.wired.com/story/worlds-fastest-supercomputer-breaks-ai-record/
🙏Thanks to: @MohsenF91
#gpu #سیستم
WIRED
The World’s Fastest Supercomputer Breaks an AI Record
Researchers at Oak Ridge National Laboratory are training Summit, the world's fastest supercomputer, to model climate change using machine learning techniques.
#مجموعه_داده
Hotels-50K: A Global Hotel Recognition Dataset
یک دیتاست خاص!
یک میلیون تصویر از ۵۰۰۰۰ هتل در سراسر جهان.
نکته جالب: اینکه طرف میخواد ازش برای شناسایی هتلهایی که توش انسان قاچاق شده استفاده کنه.
نکتهٔ بامزه: توییت بعدی طرف گفته «با وجود عکسهای اتاق خواب، این مقاله GAN نیست» :))
مقاله:
https://arxiv.org/abs/1901.11397
گیت هاب و داده:
https://github.com/GWUvision/Hotels-50K
لینک به توئیت مرتبط:
https://twitter.com/dennybritz/status/1091312057973014528
🙏Thanks to: @samehraboon
#dataset
Hotels-50K: A Global Hotel Recognition Dataset
یک دیتاست خاص!
یک میلیون تصویر از ۵۰۰۰۰ هتل در سراسر جهان.
نکته جالب: اینکه طرف میخواد ازش برای شناسایی هتلهایی که توش انسان قاچاق شده استفاده کنه.
نکتهٔ بامزه: توییت بعدی طرف گفته «با وجود عکسهای اتاق خواب، این مقاله GAN نیست» :))
مقاله:
https://arxiv.org/abs/1901.11397
گیت هاب و داده:
https://github.com/GWUvision/Hotels-50K
لینک به توئیت مرتبط:
https://twitter.com/dennybritz/status/1091312057973014528
🙏Thanks to: @samehraboon
#dataset
Facial Recognition and Modelling subtasks
https://paperswithcode.com/area/cv/face
more topic:
https://news.1rj.ru/str/cvision/976
#face
https://paperswithcode.com/area/cv/face
more topic:
https://news.1rj.ru/str/cvision/976
#face
#خبر
در این خبر تعداد 27,000 پردازنده گرافیکی یا GPU در آزمایشگاه ملی Oak Ridge برای اجرای مدل تنسرفلو جهت تشخیص الگوهای آب و هوایی و پیش بینی آینده استفاده شده است...
#tensorflow
در این خبر تعداد 27,000 پردازنده گرافیکی یا GPU در آزمایشگاه ملی Oak Ridge برای اجرای مدل تنسرفلو جهت تشخیص الگوهای آب و هوایی و پیش بینی آینده استفاده شده است...
#tensorflow
Telegram
Tensorflow
#خبر
https://www.wired.com/story/worlds-fastest-supercomputer-breaks-ai-record/
🙏Thanks to: @MohsenF91
#gpu #سیستم
https://www.wired.com/story/worlds-fastest-supercomputer-breaks-ai-record/
🙏Thanks to: @MohsenF91
#gpu #سیستم
#مقاله
The Evolved Transformer
The Evolved Transformer: They perform architecture search on Transformer's stackable cells for seq2seq tasks. “A much smaller, mobile-friendly, Evolved Transformer with only ~7M parameters outperforms the original Transformer by 0.7 BLEU on WMT14 EN-DE.”
https://arxiv.org/abs/1901.11117
The Evolved Transformer is twice as efficient as the Transformer in FLOPS without loss in quality.
#seq2seq
The Evolved Transformer
The Evolved Transformer: They perform architecture search on Transformer's stackable cells for seq2seq tasks. “A much smaller, mobile-friendly, Evolved Transformer with only ~7M parameters outperforms the original Transformer by 0.7 BLEU on WMT14 EN-DE.”
https://arxiv.org/abs/1901.11117
The Evolved Transformer is twice as efficient as the Transformer in FLOPS without loss in quality.
#seq2seq
available_pretrained_models.pdf
55.6 KB
مدل های pretrained و عنوان مقالاتشان
🙏Thanks to: @AM_Ghoreyshi
#pretrained
#caffe #tensorflow #keras #pytorch
🙏Thanks to: @AM_Ghoreyshi
#pretrained
#caffe #tensorflow #keras #pytorch
#کورس #آموزش #منبع
سایت کورس یادگیری عمیق دانشگاه واشنگتن مربوط به نویسنده های مقاله Yolo
Joseph Redmon, Ali Farhadi
اسلایدها و مطالب درسی قابل مشاهده است.
https://courses.cs.washington.edu/courses/cse599g1/18au/
🙏Thanks to: @MH_Sattarian
سایت کورس یادگیری عمیق دانشگاه واشنگتن مربوط به نویسنده های مقاله Yolo
Joseph Redmon, Ali Farhadi
اسلایدها و مطالب درسی قابل مشاهده است.
https://courses.cs.washington.edu/courses/cse599g1/18au/
🙏Thanks to: @MH_Sattarian
خاص ترین Introduction :)
YOLOv3 still has the best introduction for any paper I've read so far
https://pjreddie.com/media/files/papers/YOLOv3.pdf
YOLOv3 still has the best introduction for any paper I've read so far
https://pjreddie.com/media/files/papers/YOLOv3.pdf
#مقاله
Approximating CNNs with Bag-of-local-Features models works surprisingly well on ImageNet
https://openreview.net/forum?id=SkfMWhAqYQ
Approximating CNNs with Bag-of-local-Features models works surprisingly well on ImageNet
https://openreview.net/forum?id=SkfMWhAqYQ
#مقاله
یک ایده خاص! شبیه ایده ی bag of vectors یا bag of words اما در تصویر!
این مقاله از ویژگی های محلی استفاده کرده و به ارتباط مکانی ویژگی ها کاری ندارد. با این وجود تنها با patchهای ۱۷ در ۱۷ به دقت معادل شبکه الکس نت رسیده است.
در این شبکه هر کلاس یک heatmap خواهد داشت که در نهایت روی میانگین روی هر heatmap تنها تابع فعالیت softmax اعمال میشود.
از مهمترین ویژگی های این شبکه تفسیر پذیری بالای آن است.
"Approximating CNNs with Bag-of-local-Features models works surprisingly well on ImageNet"
A "bag of words" of nets on tiny 17x17 patches suffice to reach AlexNet-level performance on ImageNet.
A lot of the information is very local.
https://news.1rj.ru/str/cvision/984
یک ایده خاص! شبیه ایده ی bag of vectors یا bag of words اما در تصویر!
این مقاله از ویژگی های محلی استفاده کرده و به ارتباط مکانی ویژگی ها کاری ندارد. با این وجود تنها با patchهای ۱۷ در ۱۷ به دقت معادل شبکه الکس نت رسیده است.
در این شبکه هر کلاس یک heatmap خواهد داشت که در نهایت روی میانگین روی هر heatmap تنها تابع فعالیت softmax اعمال میشود.
از مهمترین ویژگی های این شبکه تفسیر پذیری بالای آن است.
"Approximating CNNs with Bag-of-local-Features models works surprisingly well on ImageNet"
A "bag of words" of nets on tiny 17x17 patches suffice to reach AlexNet-level performance on ImageNet.
A lot of the information is very local.
https://news.1rj.ru/str/cvision/984
Telegram
Tensorflow
#مقاله
Approximating CNNs with Bag-of-local-Features models works surprisingly well on ImageNet
https://openreview.net/forum?id=SkfMWhAqYQ
Approximating CNNs with Bag-of-local-Features models works surprisingly well on ImageNet
https://openreview.net/forum?id=SkfMWhAqYQ
Forwarded from Python_Labs🐍 (Alireza Akhavan)
#خبر #حقوق
چرا استخدام یک تحلیلگر داده گران است؟! دلیل حقوق 140 هزار دلاری تحلیلگر داده در امریکا...
Data Scientists: Why are they so expensive to hire?
https://www.kdnuggets.com/2019/02/data-scientists-expensive-hire.html
چرا استخدام یک تحلیلگر داده گران است؟! دلیل حقوق 140 هزار دلاری تحلیلگر داده در امریکا...
Data Scientists: Why are they so expensive to hire?
https://www.kdnuggets.com/2019/02/data-scientists-expensive-hire.html
#مقاله #سورس_کد
#face #cvpr2018 #face
یکی از کارهای جدید روی بازشناسی چهره با تمرکز روی زاویه چهره:
Pose-Robust Face Recognition via Deep Residual Equivariant Mapping
https://arxiv.org/abs/1803.00839
This is the public repository for our accepted CVPR 2018 paper "Pose-Robust Face Recognition via Deep Residual Equivariant Mapping"
پیاده سازی این مقاله با پای تورچ است.
🙏Thanks to : @samehraboon
#face #cvpr2018 #face
یکی از کارهای جدید روی بازشناسی چهره با تمرکز روی زاویه چهره:
Pose-Robust Face Recognition via Deep Residual Equivariant Mapping
https://arxiv.org/abs/1803.00839
This is the public repository for our accepted CVPR 2018 paper "Pose-Robust Face Recognition via Deep Residual Equivariant Mapping"
پیاده سازی این مقاله با پای تورچ است.
🙏Thanks to : @samehraboon
#سیستم_پیشنهادی
Why building your own Deep Learning Computer is 10x cheaper than AWS
https://medium.com/the-mission/why-building-your-own-deep-learning-computer-is-10x-cheaper-than-aws-b1c91b55ce8c
#GPU
Why building your own Deep Learning Computer is 10x cheaper than AWS
https://medium.com/the-mission/why-building-your-own-deep-learning-computer-is-10x-cheaper-than-aws-b1c91b55ce8c
#GPU
#آموزش
from keras.utils import plot_model
برای رسم گرافیکی گراف مدلتان در #keras در ویندوز علاوه بر نصب پکیج مورد تیاز با
conda install pydot graphviz
نیاز دارید مسیر نصب هم در PATH ویندوز اضافه کنید. بمسیر فایل اجرایی در جایی مثل زیر خواهد شد:
C:\Anaconda3\pkgs\graphviz-2.38-hfd603c8_2\Library\bin\graphviz
from keras.utils import plot_model
برای رسم گرافیکی گراف مدلتان در #keras در ویندوز علاوه بر نصب پکیج مورد تیاز با
conda install pydot graphviz
نیاز دارید مسیر نصب هم در PATH ویندوز اضافه کنید. بمسیر فایل اجرایی در جایی مثل زیر خواهد شد:
C:\Anaconda3\pkgs\graphviz-2.38-hfd603c8_2\Library\bin\graphviz
Tensorflow(@CVision)
#آموزش from keras.utils import plot_model برای رسم گرافیکی گراف مدلتان در #keras در ویندوز علاوه بر نصب پکیج مورد تیاز با conda install pydot graphviz نیاز دارید مسیر نصب هم در PATH ویندوز اضافه کنید. بمسیر فایل اجرایی در جایی مثل زیر خواهد شد: C:\A…
#سوال ؟
به نظر شما
بر اساس تعریف اینجا:
https://news.1rj.ru/str/cvision/955
بر اساس این گراف مدل ، مدل را symbolic نوشته بودم یا با روش Imperative؟ چرا؟
به نظر شما
بر اساس تعریف اینجا:
https://news.1rj.ru/str/cvision/955
بر اساس این گراف مدل ، مدل را symbolic نوشته بودم یا با روش Imperative؟ چرا؟
Telegram
Tensorflow
#آموزش
Imperative (or Model Subclassing) APIs
این سبک API در ابتدا توسط فریم ورک Chainer در سال 2015 معرفی شد و در سال 2017 چندین چارچوب دیگر آن را به کار گرفت (از جمله موارد ذکر شده در اینجا). در چارچوب Keras، شوله، توسعه دهنده کراس آن را "API Subclassing…
Imperative (or Model Subclassing) APIs
این سبک API در ابتدا توسط فریم ورک Chainer در سال 2015 معرفی شد و در سال 2017 چندین چارچوب دیگر آن را به کار گرفت (از جمله موارد ذکر شده در اینجا). در چارچوب Keras، شوله، توسعه دهنده کراس آن را "API Subclassing…