Modern Artificial Intelligence via Deep Learning.pdf
7.9 MB
#Ali_Eslami
اسلاید ارائه ی دکتر علی اسلامی با موضوع :
Modern Artificial Intelligence via Deep Learning
(Beyond Supervised #Deep_Learning)
شنبه ١١ دى 1395، دانشگاه #تهران
#اسلاید #اسلامی #سمینار
اسلاید ارائه ی دکتر علی اسلامی با موضوع :
Modern Artificial Intelligence via Deep Learning
(Beyond Supervised #Deep_Learning)
شنبه ١١ دى 1395، دانشگاه #تهران
#اسلاید #اسلامی #سمینار
Tensorflow(@CVision)
مقالهی جالب کمپانی اپل! ( Submitted for review to a conference on Nov 15, 2016) ✏️Title: Learning from Simulated and Unsupervised Images through Adversarial Training ✏️abstract: With recent progress in graphics, it has become more tractable to train models…
http://www.kurzweilai.net/apples-first-ai-paper-focuses-on-creating-superrealistic-image-recognition
#apple #GAN
#apple #GAN
www.kurzweilai.net
Apple’s first AI paper focuses on creating ‘superrealistic’ image recognition | KurzweilAI
Apple's first paper on artificial intelligence, published Dec. 22 on arXiv (open access), describes a method for improving the ability of a deep neural network
The Alien Style of Deep Learning #Generative Design
https://medium.com/intuitionmachine/the-alien-look-of-deep-learning-generative-design-5c5f871f7d10
[Dec 25, 2016, 3min read]
طراحی های بیگانه، عجیب و کارا توسط یادگیری ژرف!
با استفاده از generative modelها ایده های جالبی برای طراحی های صنعتی یا حتی ایده ی دکوراسیون منزل خروجی بگیرید!
همچنین توانسته یک شبکه ی lstm بهینه را بسازد (کاربرد متا مدل)
این روش به طراحان اجازه می دهد به اهداف طراحی ورودی خاص، از جمله الزامات عملکردی، نوع مواد، روش ساخت، معیارهای عملکرد و محدودیت های هزینه را به عنوان ورودی بدهند.
سیستم پس از ایجاد طرح های مختلف و جستجو در بین طرح های خلق شده، بر اساس نیازمندی های ذکر شده بهترین طرح های پیشنهادی را خروجی میدهد!
#Alien_Style #GAN
https://medium.com/intuitionmachine/the-alien-look-of-deep-learning-generative-design-5c5f871f7d10
[Dec 25, 2016, 3min read]
طراحی های بیگانه، عجیب و کارا توسط یادگیری ژرف!
با استفاده از generative modelها ایده های جالبی برای طراحی های صنعتی یا حتی ایده ی دکوراسیون منزل خروجی بگیرید!
همچنین توانسته یک شبکه ی lstm بهینه را بسازد (کاربرد متا مدل)
این روش به طراحان اجازه می دهد به اهداف طراحی ورودی خاص، از جمله الزامات عملکردی، نوع مواد، روش ساخت، معیارهای عملکرد و محدودیت های هزینه را به عنوان ورودی بدهند.
سیستم پس از ایجاد طرح های مختلف و جستجو در بین طرح های خلق شده، بر اساس نیازمندی های ذکر شده بهترین طرح های پیشنهادی را خروجی میدهد!
#Alien_Style #GAN
Medium
The Alien Style of Deep Learning Generative Design
What happens when you have Deep Learning begin to generate your designs? The commons misconception would be that a machine’s design would…
چرا استفاده از تابع فعالسازی Relu به جای sigmoid در شبکه های عمیق رایج است؟ چه مزایایی دارد؟
pic: http://jmbeaujour.com/pics/posts_pics/udacity-DL/reLu_function.png
مزایا:
- تنها 50 درصد مواقع این تابع فعال میشود و در نتیجه از لحاظ پردازشی صرفه جویی میشود.
- جلوی انفجار گرادیان یا محو شدن آن را میگیرد. (عجب ترجمه ای!)
- با یافته های بیولوژیکی توسط نوروساینتیست ها مطابقت بیشتری دارد (علوم شناختی)
#ReLU provides some important benefits that might not be obvious at first glance:
✔️during the initialization process of a Neural Network model, weights are distributed at random for each unit. ReLU will only activate approximately 50% of the time, which actually saves some processing
power.
✔️The ReLU structure also solves the 'Vanishing Gradient' and 'Exploding Gradient' problems,both of which are well-known issues with the training process.
✔️ as a marginal benefit, this type of activation achieves 'Biological Plausibility', because it's directly relatable to the common biological model of a neuron.
pic: http://jmbeaujour.com/pics/posts_pics/udacity-DL/reLu_function.png
مزایا:
- تنها 50 درصد مواقع این تابع فعال میشود و در نتیجه از لحاظ پردازشی صرفه جویی میشود.
- جلوی انفجار گرادیان یا محو شدن آن را میگیرد. (عجب ترجمه ای!)
- با یافته های بیولوژیکی توسط نوروساینتیست ها مطابقت بیشتری دارد (علوم شناختی)
#ReLU provides some important benefits that might not be obvious at first glance:
✔️during the initialization process of a Neural Network model, weights are distributed at random for each unit. ReLU will only activate approximately 50% of the time, which actually saves some processing
power.
✔️The ReLU structure also solves the 'Vanishing Gradient' and 'Exploding Gradient' problems,both of which are well-known issues with the training process.
✔️ as a marginal benefit, this type of activation achieves 'Biological Plausibility', because it's directly relatable to the common biological model of a neuron.
Tensorflow(@CVision)
چرا استفاده از تابع فعالسازی Relu به جای sigmoid در شبکه های عمیق رایج است؟ چه مزایایی دارد؟ pic: http://jmbeaujour.com/pics/posts_pics/udacity-DL/reLu_function.png مزایا: - تنها 50 درصد مواقع این تابع فعال میشود و در نتیجه از لحاظ پردازشی صرفه جویی میشود.…
#Relu
[109] Nair, V. and G. E. Hinton. 2010. “Rectified Linear Units Improve Restricted Boltzmann Machines,” Proc. 27th Int. Conf. Mach. Learn., no. 3, pp. 807–814.
[109] Nair, V. and G. E. Hinton. 2010. “Rectified Linear Units Improve Restricted Boltzmann Machines,” Proc. 27th Int. Conf. Mach. Learn., no. 3, pp. 807–814.
Tensorflow(@CVision)
چرا استفاده از تابع فعالسازی Relu به جای sigmoid در شبکه های عمیق رایج است؟ چه مزایایی دارد؟ pic: http://jmbeaujour.com/pics/posts_pics/udacity-DL/reLu_function.png مزایا: - تنها 50 درصد مواقع این تابع فعال میشود و در نتیجه از لحاظ پردازشی صرفه جویی میشود.…
توابع فعالساز دیگری نیز نظیر
Parametric ELU (#PELU)
Exponential Linear Unit (#ELU)
برای شبکه های عمیق مطرح شده اند...
pic: http://deepnn.ir/tensorflow-telegram-files/PELU.PNG
Parametric Exponential Linear Unit for Deep Convolutional Neural Networks
[Submitted to International Conference on Learning Representations (ICLR) 2017]
The #activation function is an important component in #Convolutional Neural Networks (CNNs). For instance, recent breakthroughs in Deep Learning can be attributed to the Rectified Linear Unit (ReLU). Another recently proposed activation function, the #Exponential Linear Unit (ELU), has the supplementary property of reducing bias shift without explicitly centering the values at zero. In this paper, we show that learning a parameterization of ELU improves its performance. We analyzed our proposed #Parametric ELU (PELU) in the context of #vanishing gradients and provide a #gradient-based #optimization framework. We conducted several experiments on CIFAR-10/100 and ImageNet with different network architectures, such as NiN, Overfeat, All-CNN and ResNet. Our results show that our PELU has relative error improvements over ELU of 4.45% and 5.68% on CIFAR-10 and 100, and as much as 7.28% with only 0.0003% #parameter increase on ImageNet. We also observed that Vgg using PELU tended to prefer activations saturating closer to zero, as in ReLU, except at the last layer, which saturated near -2. Finally, other presented results suggest that varying the shape of the activations during training along with the other parameters helps controlling vanishing gradients and bias shift, thus facilitating #learning.
🔗https://arxiv.org/abs/1605.09332
🔗https://arxiv.org/pdf/1605.09332v3.pdf
Poster: 🔗http://deepnn.ir/tensorflow-telegram-files/PELU-DLSS_2016.pdf
related: http://www.kdnuggets.com/2016/03/must-know-tips-deep-learning-part-2.html
Parametric ELU (#PELU)
Exponential Linear Unit (#ELU)
برای شبکه های عمیق مطرح شده اند...
pic: http://deepnn.ir/tensorflow-telegram-files/PELU.PNG
Parametric Exponential Linear Unit for Deep Convolutional Neural Networks
[Submitted to International Conference on Learning Representations (ICLR) 2017]
The #activation function is an important component in #Convolutional Neural Networks (CNNs). For instance, recent breakthroughs in Deep Learning can be attributed to the Rectified Linear Unit (ReLU). Another recently proposed activation function, the #Exponential Linear Unit (ELU), has the supplementary property of reducing bias shift without explicitly centering the values at zero. In this paper, we show that learning a parameterization of ELU improves its performance. We analyzed our proposed #Parametric ELU (PELU) in the context of #vanishing gradients and provide a #gradient-based #optimization framework. We conducted several experiments on CIFAR-10/100 and ImageNet with different network architectures, such as NiN, Overfeat, All-CNN and ResNet. Our results show that our PELU has relative error improvements over ELU of 4.45% and 5.68% on CIFAR-10 and 100, and as much as 7.28% with only 0.0003% #parameter increase on ImageNet. We also observed that Vgg using PELU tended to prefer activations saturating closer to zero, as in ReLU, except at the last layer, which saturated near -2. Finally, other presented results suggest that varying the shape of the activations during training along with the other parameters helps controlling vanishing gradients and bias shift, thus facilitating #learning.
🔗https://arxiv.org/abs/1605.09332
🔗https://arxiv.org/pdf/1605.09332v3.pdf
Poster: 🔗http://deepnn.ir/tensorflow-telegram-files/PELU-DLSS_2016.pdf
related: http://www.kdnuggets.com/2016/03/must-know-tips-deep-learning-part-2.html
دوره آموزشی آنلاین «یادگیری ژرف (#deep_learning):
🔗URL: http://course.fast.ai/
در این دوره رایگان که مدت آن ۷ هفته و هر هفته 10 ساعت زمان نیاز است، مبانی یادگیری عمیق بر اساس سرفصلهای دانشگاه سان فرانسیسکو در قالب ویدئو تدریس میشود:
این ویدیوها قسمت اول است و قسمت دوم ویدیوها در تاریخ
May 2017
در همین سایت به صورت آنلاین قرار خواهد گرفت...
پیش نیازها:
- حداقل یکسال سابقه برنامه نویسی
- ریاضی در حد دبیرستان
0—Why deep learning; Intro to convolutions
1—#Recognizing cats and dogs
2—#Convolutional neural networks
3—#Under_fitting and #over_fitting
4—#Collaborative filtering, embeddings, and more
5—Intro to #NLP and RNNs
6—Building RNNs
7—Exotic #CNN architectures; #RNN from scratch
#course
🔗URL: http://course.fast.ai/
در این دوره رایگان که مدت آن ۷ هفته و هر هفته 10 ساعت زمان نیاز است، مبانی یادگیری عمیق بر اساس سرفصلهای دانشگاه سان فرانسیسکو در قالب ویدئو تدریس میشود:
این ویدیوها قسمت اول است و قسمت دوم ویدیوها در تاریخ
May 2017
در همین سایت به صورت آنلاین قرار خواهد گرفت...
پیش نیازها:
- حداقل یکسال سابقه برنامه نویسی
- ریاضی در حد دبیرستان
0—Why deep learning; Intro to convolutions
1—#Recognizing cats and dogs
2—#Convolutional neural networks
3—#Under_fitting and #over_fitting
4—#Collaborative filtering, embeddings, and more
5—Intro to #NLP and RNNs
6—Building RNNs
7—Exotic #CNN architectures; #RNN from scratch
#course
Practical Deep Learning for Coders
Practical Deep Learning for Coders - Practical Deep Learning
A free course designed for people with some coding experience, who want to learn how to apply deep learning and machine learning to practical problems.
Two blogs with wonderful posts about deep learning
دو وبلاگ با پستهای عالی و شگفتانگیز در مورد یادگیری عمیق
http://distill.pub
http://colah.github.io
#blog #deep_learning
دو وبلاگ با پستهای عالی و شگفتانگیز در مورد یادگیری عمیق
http://distill.pub
http://colah.github.io
#blog #deep_learning
Some implementations of Neural Style
https://github.com/andersbll/neural_artistic_style
https://github.com/anishathalye/neural-style
https://github.com/jcjohnson/neural-style
https://github.com/jcjohnson/fast-neural-style
#neural_style
https://github.com/andersbll/neural_artistic_style
https://github.com/anishathalye/neural-style
https://github.com/jcjohnson/neural-style
https://github.com/jcjohnson/fast-neural-style
#neural_style
GitHub
GitHub - andersbll/neural_artistic_style: Neural Artistic Style in Python
Neural Artistic Style in Python. Contribute to andersbll/neural_artistic_style development by creating an account on GitHub.
Tensorflow(@CVision)
Modern Artificial Intelligence via Deep Learning.pdf
👆
مربوط به ارائه ی دکتر اسلامی در دانشگاه تهران است
مربوط به ارائه ی دکتر اسلامی در دانشگاه تهران است
DeepMindNature14236Paper.pdf
4.4 MB
#Google_Nature_paper
Human-level control through deep reinforcement learning
#deep_reinforcement_learning
#deepmind
Human-level control through deep reinforcement learning
#deep_reinforcement_learning
#deepmind
Tensorflow(@CVision)
DeepMindNature14236Paper.pdf
احتمالا قبلا در مورد هوش مصنوعی ای که بازی شطرنج بازی میکرد و اکثر بازیکنان حرفه ای شطرنج را برده شنیده اید! اما حقیقت این است که آن هوش مصنوعی تنها قادر بود شطرنج بازی کند و در واقع فقط برای آن بازی آموزش دیده بود و توانایی هیچ کار دیگری نداشت!
محققان گوگل در مقاله ی سال 2015 نیچر با استفاده از ایده ی #یادگیری_تقویتی شبکه عصبی طراحی کردند که قادر بود که خودش بازی ها را یاد بگیرد!
این هوش مصنوعی که به عنوان ورودی صفحه RGB بازی و به عنوان پاداش امتیاز کسب شده از بازی را دریافت میکرد، با 50 بازی آتاری تست شد و نتایج اعجاب انگیزی داشت!
نکته ی جالب این بود یک ساختار شبکه، توانسته بود خودش هر یک از بازی های آتاری را بیاموزد و در بسیاری از بازی ها از بهترین بازیکن ها ی این بازی ها بهتر بازی کند.
ویدیو نتایج بازی منتشر شده توسط google deepmind:
https://youtu.be/TmPfTpjtdgg
یا
http://deepnn.ir/tensorflow-telegram-files/DQN%20Breakout.mp4
با استفاده از ایدهی #یادگیری_تقویتی، نیاز به داده هایی که انسان در آن دست برده کم تر شده و مدل یا ربات میتواند خودش از دنیای پیرامون اطلاعات کسب کند. در این نوع یادگیری در نهایت تنها پاداش به مدل داده میشود.
#reinforcement_learning #rl #deepmind #atari
محققان گوگل در مقاله ی سال 2015 نیچر با استفاده از ایده ی #یادگیری_تقویتی شبکه عصبی طراحی کردند که قادر بود که خودش بازی ها را یاد بگیرد!
این هوش مصنوعی که به عنوان ورودی صفحه RGB بازی و به عنوان پاداش امتیاز کسب شده از بازی را دریافت میکرد، با 50 بازی آتاری تست شد و نتایج اعجاب انگیزی داشت!
نکته ی جالب این بود یک ساختار شبکه، توانسته بود خودش هر یک از بازی های آتاری را بیاموزد و در بسیاری از بازی ها از بهترین بازیکن ها ی این بازی ها بهتر بازی کند.
ویدیو نتایج بازی منتشر شده توسط google deepmind:
https://youtu.be/TmPfTpjtdgg
یا
http://deepnn.ir/tensorflow-telegram-files/DQN%20Breakout.mp4
با استفاده از ایدهی #یادگیری_تقویتی، نیاز به داده هایی که انسان در آن دست برده کم تر شده و مدل یا ربات میتواند خودش از دنیای پیرامون اطلاعات کسب کند. در این نوع یادگیری در نهایت تنها پاداش به مدل داده میشود.
#reinforcement_learning #rl #deepmind #atari
YouTube
DQN Breakout
This video illustrates the improvement in the performance of DQN over training (i.e. after 100, 200, 400 and 600 episodes). After 600 episodes DQN finds and exploits the optimal strategy in this game, which is to make a tunnel around the side, and then allow…
Tensorflow(@CVision)
احتمالا قبلا در مورد هوش مصنوعی ای که بازی شطرنج بازی میکرد و اکثر بازیکنان حرفه ای شطرنج را برده شنیده اید! اما حقیقت این است که آن هوش مصنوعی تنها قادر بود شطرنج بازی کند و در واقع فقط برای آن بازی آموزش دیده بود و توانایی هیچ کار دیگری نداشت! محققان گوگل…
https://deepmind.com/blog/deep-reinforcement-learning/
Amazingly, DQN achieved human-level performance in almost half of the 50 games to which it was applied; far beyond any previous method. The #DQN source code and Atari 2600 emulator are freely available to anyone who wishes to experiment for themselves.
سورس این شبکه به زبان lua:
https://sites.google.com/a/deepmind.com/dqn/
Atari 2600 emulator برای اجرای بازی های آتاری:
http://stella.sourceforge.net/
Amazingly, DQN achieved human-level performance in almost half of the 50 games to which it was applied; far beyond any previous method. The #DQN source code and Atari 2600 emulator are freely available to anyone who wishes to experiment for themselves.
سورس این شبکه به زبان lua:
https://sites.google.com/a/deepmind.com/dqn/
Atari 2600 emulator برای اجرای بازی های آتاری:
http://stella.sourceforge.net/
Deepmind
Deep Reinforcement Learning
Humans excel at solving a wide variety of challenging problems, from low-level motor control through to high-level cognitive tasks. Our goal at DeepMind is to create artificial agents that can achieve a similar level of performance and generality. Like a…
Forwarded from Farhood F
Introduction to Tensorflow
Amirmohamad Lavasani
فایل صوتی و اسلایدهای آموزش مقدماتی #تنسورفلو توسط آقای لواسانی.
در سمینار آشنایی با مسایل پردازش زبان طبیعی توسط یادگیری ژرف
دانشگاه شهید بهشتی مورخ 24 آذر 1395👆
#beheshti #nlp #Tensorflow
در سمینار آشنایی با مسایل پردازش زبان طبیعی توسط یادگیری ژرف
دانشگاه شهید بهشتی مورخ 24 آذر 1395👆
#beheshti #nlp #Tensorflow
Tensorflow(@CVision)
https://deepmind.com/blog/deep-reinforcement-learning/ Amazingly, DQN achieved human-level performance in almost half of the 50 games to which it was applied; far beyond any previous method. The #DQN source code and Atari 2600 emulator are freely available…
GitHub
GitHub - devsisters/DQN-tensorflow: Tensorflow implementation of Human-Level Control through Deep Reinforcement Learning
Tensorflow implementation of Human-Level Control through Deep Reinforcement Learning - devsisters/DQN-tensorflow
فیلم ارائه :
📝موضوع : Modern Artificial Intelligence via Deep Learning
http://www.aparat.com/v/ZgHv8#
👤 ارائه دهنده :دکتر علی اسلامی
⏱ زمان: ١١ دى 1395
🔅 محل : دانشگاه تهران
#ارائه #فیلم #سمینار #سخنرانی #eslami #deepmind
@cvision
📝موضوع : Modern Artificial Intelligence via Deep Learning
http://www.aparat.com/v/ZgHv8#
👤 ارائه دهنده :دکتر علی اسلامی
⏱ زمان: ١١ دى 1395
🔅 محل : دانشگاه تهران
#ارائه #فیلم #سمینار #سخنرانی #eslami #deepmind
@cvision
آپارات - سرویس اشتراک ویدیو
سخنرانی دکتر اسلامی
علی اسلامی از پژوهشگران شرکت Google DeepMind در لندن است.
وى هم چنین دوره ی فوق دکترای خود را در Microsoft Research شهر کمبریج به پایان رسانده است. او در این رویداد از Deep Learning برای ما صحبت می کند.
می توانید فایل این ارایه را در سایت ما دریافت کنید.…
وى هم چنین دوره ی فوق دکترای خود را در Microsoft Research شهر کمبریج به پایان رسانده است. او در این رویداد از Deep Learning برای ما صحبت می کند.
می توانید فایل این ارایه را در سایت ما دریافت کنید.…