#آموزش
from keras.utils import plot_model
برای رسم گرافیکی گراف مدلتان در #keras در ویندوز علاوه بر نصب پکیج مورد تیاز با
conda install pydot graphviz
نیاز دارید مسیر نصب هم در PATH ویندوز اضافه کنید. بمسیر فایل اجرایی در جایی مثل زیر خواهد شد:
C:\Anaconda3\pkgs\graphviz-2.38-hfd603c8_2\Library\bin\graphviz
from keras.utils import plot_model
برای رسم گرافیکی گراف مدلتان در #keras در ویندوز علاوه بر نصب پکیج مورد تیاز با
conda install pydot graphviz
نیاز دارید مسیر نصب هم در PATH ویندوز اضافه کنید. بمسیر فایل اجرایی در جایی مثل زیر خواهد شد:
C:\Anaconda3\pkgs\graphviz-2.38-hfd603c8_2\Library\bin\graphviz
Tensorflow(@CVision)
#آموزش from keras.utils import plot_model برای رسم گرافیکی گراف مدلتان در #keras در ویندوز علاوه بر نصب پکیج مورد تیاز با conda install pydot graphviz نیاز دارید مسیر نصب هم در PATH ویندوز اضافه کنید. بمسیر فایل اجرایی در جایی مثل زیر خواهد شد: C:\A…
#سوال ؟
به نظر شما
بر اساس تعریف اینجا:
https://news.1rj.ru/str/cvision/955
بر اساس این گراف مدل ، مدل را symbolic نوشته بودم یا با روش Imperative؟ چرا؟
به نظر شما
بر اساس تعریف اینجا:
https://news.1rj.ru/str/cvision/955
بر اساس این گراف مدل ، مدل را symbolic نوشته بودم یا با روش Imperative؟ چرا؟
Telegram
Tensorflow
#آموزش
Imperative (or Model Subclassing) APIs
این سبک API در ابتدا توسط فریم ورک Chainer در سال 2015 معرفی شد و در سال 2017 چندین چارچوب دیگر آن را به کار گرفت (از جمله موارد ذکر شده در اینجا). در چارچوب Keras، شوله، توسعه دهنده کراس آن را "API Subclassing…
Imperative (or Model Subclassing) APIs
این سبک API در ابتدا توسط فریم ورک Chainer در سال 2015 معرفی شد و در سال 2017 چندین چارچوب دیگر آن را به کار گرفت (از جمله موارد ذکر شده در اینجا). در چارچوب Keras، شوله، توسعه دهنده کراس آن را "API Subclassing…
#مقاله
#batchnorm
Fixup Initialization: Residual Learning Without Normalization
اگر علاقه مندید مدل های عمیق را بدون استفاده از batchnorm آموزش بدید، یا براتون سواله چرا batchnorm می تواند به آموزش مدلهای عمیق کمک کند، مقاله زیر را بررسی کنید!
https://arxiv.org/abs/1901.09321
#batchnorm
Fixup Initialization: Residual Learning Without Normalization
اگر علاقه مندید مدل های عمیق را بدون استفاده از batchnorm آموزش بدید، یا براتون سواله چرا batchnorm می تواند به آموزش مدلهای عمیق کمک کند، مقاله زیر را بررسی کنید!
https://arxiv.org/abs/1901.09321
#خبر
AAAI Conference Analytics
People most-cited by AAAI papers shows 25 years of AI history. 1990s greats:
https://www.microsoft.com/en-us/research/project/academic/articles/aaai-conference-analytics/
AAAI Conference Analytics
People most-cited by AAAI papers shows 25 years of AI history. 1990s greats:
https://www.microsoft.com/en-us/research/project/academic/articles/aaai-conference-analytics/
#آموزش
Keras: Multiple Inputs and Mixed Data
https://www.pyimagesearch.com/2019/02/04/keras-multiple-inputs-and-mixed-data/
اگر خاطرتان باشد در https://news.1rj.ru/str/cvision/955 گفته شد: "هوشمنداته ترین روش این است که ترکیب پارادایم های imperative و symbolic را استفاده کنید". در این آموزش میتوانید با یک مثال عملی ببینید.
#keras #symbolic #imperative #Multiple_Input
Keras: Multiple Inputs and Mixed Data
https://www.pyimagesearch.com/2019/02/04/keras-multiple-inputs-and-mixed-data/
اگر خاطرتان باشد در https://news.1rj.ru/str/cvision/955 گفته شد: "هوشمنداته ترین روش این است که ترکیب پارادایم های imperative و symbolic را استفاده کنید". در این آموزش میتوانید با یک مثال عملی ببینید.
#keras #symbolic #imperative #Multiple_Input
#آموزش #کورس
MIT Deep Learning Basics: Introduction and Overview with TensorFlow
https://medium.com/tensorflow/mit-deep-learning-basics-introduction-and-overview-with-tensorflow-355bcd26baf0?linkId=63206779
🙏Thanks to: @vahidreza01
MIT Deep Learning Basics: Introduction and Overview with TensorFlow
https://medium.com/tensorflow/mit-deep-learning-basics-introduction-and-overview-with-tensorflow-355bcd26baf0?linkId=63206779
🙏Thanks to: @vahidreza01
#dataset #مجموعه_داده
Flickr-Faces-HQ (FFHQ) is out now. "... 70,000 high-quality PNG images at 1024×1024 resolution and contains considerable variation in terms of age, ethnicity and image background." The dataset used for the Style-GAN paper.
https://github.com/NVlabs/ffhq-dataset
#face #gan
Flickr-Faces-HQ (FFHQ) is out now. "... 70,000 high-quality PNG images at 1024×1024 resolution and contains considerable variation in terms of age, ethnicity and image background." The dataset used for the Style-GAN paper.
https://github.com/NVlabs/ffhq-dataset
#face #gan
GitHub
GitHub - NVlabs/ffhq-dataset: Flickr-Faces-HQ Dataset (FFHQ)
Flickr-Faces-HQ Dataset (FFHQ). Contribute to NVlabs/ffhq-dataset development by creating an account on GitHub.
#dataset #مجموعه_داده
Flickr-Faces-HQ (FFHQ) is out now. "... 70,000 high-quality PNG images at 1024×1024 resolution and contains considerable variation in terms of age, ethnicity and image background." The dataset used for the Style-GAN paper.
https://github.com/NVlabs/ffhq-dataset
#face #gan
Flickr-Faces-HQ (FFHQ) is out now. "... 70,000 high-quality PNG images at 1024×1024 resolution and contains considerable variation in terms of age, ethnicity and image background." The dataset used for the Style-GAN paper.
https://github.com/NVlabs/ffhq-dataset
#face #gan
Tensorflow(@CVision)
#آموزش Keras: Multiple Inputs and Mixed Data https://www.pyimagesearch.com/2019/02/04/keras-multiple-inputs-and-mixed-data/ اگر خاطرتان باشد در https://news.1rj.ru/str/cvision/955 گفته شد: "هوشمنداته ترین روش این است که ترکیب پارادایم های imperative و symbolic را استفاده…
#آموزش
این آموزش از خیلی جهات به نظرم مفیده.
صورت مساله یه رگرسیون تخمین قیمت خونه است.
نوع دیتاستش که جالبه. که هم داده ی ساختاری یافته داره، مثل اندازه خونه، تعداد اتاق و ... هم تصویر اون خونه ها را داره. که باید جفت این اطلاعات را برای تخمین قیمت استفاده کنیم.
استفاده از کراس هم جالبه اینجا، برای تعریف یکی از شبکه هاش هم از مدل sequential تو keras استفاده کرده. هم از اون مدل sequentialش به عنوان بخشی از تعریف مدل کلیش با functional api کراس استفاده کرده. که اینطوری ترکیب همزمان این دو روش را میشه دید.
https://news.1rj.ru/str/cvision/995
این آموزش از خیلی جهات به نظرم مفیده.
صورت مساله یه رگرسیون تخمین قیمت خونه است.
نوع دیتاستش که جالبه. که هم داده ی ساختاری یافته داره، مثل اندازه خونه، تعداد اتاق و ... هم تصویر اون خونه ها را داره. که باید جفت این اطلاعات را برای تخمین قیمت استفاده کنیم.
استفاده از کراس هم جالبه اینجا، برای تعریف یکی از شبکه هاش هم از مدل sequential تو keras استفاده کرده. هم از اون مدل sequentialش به عنوان بخشی از تعریف مدل کلیش با functional api کراس استفاده کرده. که اینطوری ترکیب همزمان این دو روش را میشه دید.
https://news.1rj.ru/str/cvision/995
Telegram
Tensorflow
#آموزش
Keras: Multiple Inputs and Mixed Data
https://www.pyimagesearch.com/2019/02/04/keras-multiple-inputs-and-mixed-data/
اگر خاطرتان باشد در https://news.1rj.ru/str/cvision/955 گفته شد: "هوشمنداته ترین روش این است که ترکیب پارادایم های imperative و symbolic را…
Keras: Multiple Inputs and Mixed Data
https://www.pyimagesearch.com/2019/02/04/keras-multiple-inputs-and-mixed-data/
اگر خاطرتان باشد در https://news.1rj.ru/str/cvision/955 گفته شد: "هوشمنداته ترین روش این است که ترکیب پارادایم های imperative و symbolic را…
قبلا در اینجا در مورد ONNX یا
#ONNX: Open Neural Network Exchange
نوشتم.
حالا استفاده در مرورگر:
ONNX.js: Universal Deep Learning Models in The Browser
https://towardsdatascience.com/onnx-js-universal-deep-learning-models-in-the-browser-fbd268c67513
مرتبط با:
Open Neural Network eXchange (ONNX) Model Zoo
https://github.com/onnx/models
#ONNX: Open Neural Network Exchange
نوشتم.
حالا استفاده در مرورگر:
ONNX.js: Universal Deep Learning Models in The Browser
https://towardsdatascience.com/onnx-js-universal-deep-learning-models-in-the-browser-fbd268c67513
مرتبط با:
Open Neural Network eXchange (ONNX) Model Zoo
https://github.com/onnx/models
Telegram
Tensorflow
#خبر
#ONNX: Open Neural Network Exchange
ماکروسافت، آمازون ، فیس بوک و چند شرکت مطرح دیگر در یادگیری عمیق برای فرمت مشترک مدلها دست به کار شدند که توسعه دهندگان بتوانند به راحتی از مدل های ایجاد شده در هر یک از این فریم ورک ها در فریم ورک دیگر استفاده…
#ONNX: Open Neural Network Exchange
ماکروسافت، آمازون ، فیس بوک و چند شرکت مطرح دیگر در یادگیری عمیق برای فرمت مشترک مدلها دست به کار شدند که توسعه دهندگان بتوانند به راحتی از مدل های ایجاد شده در هر یک از این فریم ورک ها در فریم ورک دیگر استفاده…
Forwarded from مرکز تحقیقات هوش مصنوعی پارت
#خبر
معرفی نسخه جدید کتابخانه پایتون پردازش زبان طبیعی Stanford با قابلیت پشتیبانی از زبان فارسی
دانشگاه استنفورد به تازگی با بروزسانی کتابخانه پردازش زبان طبیعی خود، علاوه بر بهبود هسته پردازشی خود، قابلیت پشتیبانی از ۵۳ زبان مختلف را اضافه کرده است. نکته قابل توجه اضافه شدن پشتیبانی از زبان فارسی می باشد که برای پژوهش گران پردازش زبان طبیعی میتواند بسیار ارزشمند باشد.
لیست همه زبان هایی که این کتابخانه مورد پشتیبانی قرار داده را با جزئیات بیشتر میتوانید در لینک زیر ملاحظه کنید:
https://stanfordnlp.github.io/stanfordnlp/installation_download.html#human-languages-supported-by-stanfordnlp
امکانات دیگر این کتابخانه و نحوه نصب و راه اندازی آن را میتوانید از این لینک بررسی نمایید:
https://stanfordnlp.github.io/stanfordnlp/index.html
@partdpai
معرفی نسخه جدید کتابخانه پایتون پردازش زبان طبیعی Stanford با قابلیت پشتیبانی از زبان فارسی
دانشگاه استنفورد به تازگی با بروزسانی کتابخانه پردازش زبان طبیعی خود، علاوه بر بهبود هسته پردازشی خود، قابلیت پشتیبانی از ۵۳ زبان مختلف را اضافه کرده است. نکته قابل توجه اضافه شدن پشتیبانی از زبان فارسی می باشد که برای پژوهش گران پردازش زبان طبیعی میتواند بسیار ارزشمند باشد.
لیست همه زبان هایی که این کتابخانه مورد پشتیبانی قرار داده را با جزئیات بیشتر میتوانید در لینک زیر ملاحظه کنید:
https://stanfordnlp.github.io/stanfordnlp/installation_download.html#human-languages-supported-by-stanfordnlp
امکانات دیگر این کتابخانه و نحوه نصب و راه اندازی آن را میتوانید از این لینک بررسی نمایید:
https://stanfordnlp.github.io/stanfordnlp/index.html
@partdpai
stanfordnlp.github.io
High-performance human language analysis tools, now with native deep learning modules in Python, available in many human languages.
#مقاله آقای دکتر سید خلیق رضوی
Integrated Cognitive Assessment:
Speed and Accuracy of Visual Processing as a Reliable Proxy to Cognitive Performance
https://www.nature.com/articles/s41598-018-37709-x?error=cookies_not_supported&code=043882a0-4e6c-4054-ae16-c00437c2e282
Integrated Cognitive Assessment:
Speed and Accuracy of Visual Processing as a Reliable Proxy to Cognitive Performance
https://www.nature.com/articles/s41598-018-37709-x?error=cookies_not_supported&code=043882a0-4e6c-4054-ae16-c00437c2e282
#خبر
TF-Replicator is a framework for distributed ML used by DeepMind and will be part of Tensorflow 2.0 🔥 - Here’s the paper: https://arxiv.org/abs/1902.00465
#tensorflow
TF-Replicator is a framework for distributed ML used by DeepMind and will be part of Tensorflow 2.0 🔥 - Here’s the paper: https://arxiv.org/abs/1902.00465
#tensorflow
#آموزش #صوت
Audio Classification using FastAI and On-the-Fly Frequency Transforms
https://towardsdatascience.com/audio-classification-using-fastai-and-on-the-fly-frequency-transforms-4dbe1b540f89
Audio Classification using FastAI and On-the-Fly Frequency Transforms
https://towardsdatascience.com/audio-classification-using-fastai-and-on-the-fly-frequency-transforms-4dbe1b540f89
Medium
Audio Classification using FastAI and On-the-Fly Frequency Transforms
An experiment with creating a fastai module for generating spectrograms from raw audio at training time.
#سورس_کد #مقاله
کد پیاده سازی تنسرفلو مقاله اخیر Nvidia منتشر شد!
این افراد واقعی نیستند - آنها توسط شبکه های GAN ساخته شده است که اجازه می دهد تا بر جنبه های مختلف تصویر کنترل داشته باشید.
🔗Code:
StyleGAN — Official TensorFlow Implementation
https://github.com/NVlabs/stylegan
🔗paper:
A Style-Based Generator Architecture for Generative Adversarial Networks
http://stylegan.xyz/paper
#tensorflow
#gan #stylegan #nvidia
کد پیاده سازی تنسرفلو مقاله اخیر Nvidia منتشر شد!
این افراد واقعی نیستند - آنها توسط شبکه های GAN ساخته شده است که اجازه می دهد تا بر جنبه های مختلف تصویر کنترل داشته باشید.
🔗Code:
StyleGAN — Official TensorFlow Implementation
https://github.com/NVlabs/stylegan
🔗paper:
A Style-Based Generator Architecture for Generative Adversarial Networks
http://stylegan.xyz/paper
#tensorflow
#gan #stylegan #nvidia
This media is not supported in your browser
VIEW IN TELEGRAM
#مقاله
آیا شبکه های کانولوشنالی به شکل حساسند یا بافت و جنس تصوی !؟
Are CNNs learning to recognize objects by their shapes, or just their textures?
https://arxiv.org/pdf/1811.12231v2.pdf?utm_source=social&utm_medium=linkedin&utm_campaign=TechRecTexture
Convolutional Neural Networks (CNNs) are commonly thought to recognise objects by learning increasingly complex representations of object shapes. Some recent studies suggest a more important role of image textures. We here put these conflicting hypotheses to a quantitative test by evaluating CNNs and human observers on images with a texture-shape cue conflict. We show that ImageNet-trained CNNs are strongly biased towards recognising textures rather than shapes, which is in stark contrast to human behavioural evidence and reveals fundamentally different classification strategies. We then demonstrate that the same standard architecture (ResNet-50) that learns a texture-based representation on ImageNet is able to learn a shape-based representation instead when trained on ‘Stylized- ImageNet’, a stylized version of ImageNet. This provides a much better fit for human behavioural performance in our well-controlled psychophysical lab setting (nine experiments totalling 48,560 psychophysical trials across 97 observers) and comes with a number of unexpected emergent benefits such as improved object detection performance and previously unseen robustness towards a wide range of image distortions, highlighting advantages of a shape-based representation.
🙏Thanks to: @vahidreza01
آیا شبکه های کانولوشنالی به شکل حساسند یا بافت و جنس تصوی !؟
Are CNNs learning to recognize objects by their shapes, or just their textures?
https://arxiv.org/pdf/1811.12231v2.pdf?utm_source=social&utm_medium=linkedin&utm_campaign=TechRecTexture
Convolutional Neural Networks (CNNs) are commonly thought to recognise objects by learning increasingly complex representations of object shapes. Some recent studies suggest a more important role of image textures. We here put these conflicting hypotheses to a quantitative test by evaluating CNNs and human observers on images with a texture-shape cue conflict. We show that ImageNet-trained CNNs are strongly biased towards recognising textures rather than shapes, which is in stark contrast to human behavioural evidence and reveals fundamentally different classification strategies. We then demonstrate that the same standard architecture (ResNet-50) that learns a texture-based representation on ImageNet is able to learn a shape-based representation instead when trained on ‘Stylized- ImageNet’, a stylized version of ImageNet. This provides a much better fit for human behavioural performance in our well-controlled psychophysical lab setting (nine experiments totalling 48,560 psychophysical trials across 97 observers) and comes with a number of unexpected emergent benefits such as improved object detection performance and previously unseen robustness towards a wide range of image distortions, highlighting advantages of a shape-based representation.
🙏Thanks to: @vahidreza01
#سورس_کد
#OpenPose_Keras
A little bit of play with OpenPose without using their API
کد
https://nbviewer.jupyter.org/github/mmittek/openpose-keras/blob/master/StolenOpenPoseHandTracking.ipynb
ویدیو:
https://www.youtube.com/watch?v=FnoI8ufwhbs
گیت هاب:
https://github.com/mmittek/openpose-keras
#keras #hand #pose
#OpenPose_Keras
A little bit of play with OpenPose without using their API
کد
https://nbviewer.jupyter.org/github/mmittek/openpose-keras/blob/master/StolenOpenPoseHandTracking.ipynb
ویدیو:
https://www.youtube.com/watch?v=FnoI8ufwhbs
گیت هاب:
https://github.com/mmittek/openpose-keras
#keras #hand #pose
#مقاله #face
در این تصویر تاثیر مخرب تصاویر profile در کاهش دقت روشهای deep در تطبیق و بازشناسی چهره به خوبی مشخص شده است.
تصاویر profile دو فرد مختلف باهم اشتباه میشوند، و تصاویر profile و frontal یک فرد یکسان اشتباها دو فرد متفاوت تشخیص داده شده است.
https://news.1rj.ru/str/cvision/988
در این تصویر تاثیر مخرب تصاویر profile در کاهش دقت روشهای deep در تطبیق و بازشناسی چهره به خوبی مشخص شده است.
تصاویر profile دو فرد مختلف باهم اشتباه میشوند، و تصاویر profile و frontal یک فرد یکسان اشتباها دو فرد متفاوت تشخیص داده شده است.
https://news.1rj.ru/str/cvision/988