بانک اطلاعات آکادمیک – Telegram
بانک اطلاعات آکادمیک
1.23K subscribers
400 photos
6 videos
531 files
406 links
راهی برای برای تبادل جزوات وکتاب ها و سایت های مفید آکادمیک در رشته های علوم و مهندسی کامپیوتر، ریاضی، آمار .
لینک کانال:
https://news.1rj.ru/str/academicdata

ارسال و درخواست کتاب، جزوه، نمونه سوال،ارتباط با آدمین های کانال :

@legionofanonymous
@AhmadSharifian
Download Telegram
Graph_Algorithms_Neo4j.pdf
10.2 MB
عنوان کتاب: "Graph Algorithms: Practical Examples in Apache Spark and Neo4j"
نویسنده: Mark Needham & Amy E. Hodler
درباره ی کتاب:
"A practical and informative guide to gaining insights on connected data by detecting patterns and structures with graph algorithms. This book is a must-read for developers working with graph databases."
#گراف
#نمونه_سوال
امتحان پایان ترم #منطق
#مبانی_منطق و نظریه مجموعه‌ها
1398
دکتر فراهانی
ترم دوم
#نمونه_سوال
امتحان پایان ترم #مبانی_آنالیز_ریاضی
سال ۹۸
ترم پاییز
جناب آقای دکتر پوربرات
#نمونه_سوال #پایان_ترم
پایان ترم جبر 98، استاد سالمکار
New Doc 2020-01-14 15.37.14.pdf
364.5 KB
#نمونه_سوال اصول #سیستم_عامل دکتر فضلعلی
سال ۱۳۹۸
#نمونه_سوال #معادله_دیفرانسیل #دیفرانسیل
آزمون پایان ترم درس معادلات دیفرانسیل جناب آقای دکتر خلت نمیسال اول 98
با تشکر از جناب آقای پسندیده
jabr.pdf
175.7 KB
#نمونه_سوال امتحان پایان ترم درس #جبر_خطی_عددی
دکنر امانی راد
ترم پاییز
1398
graph.pdf
159.1 KB
#نمونه_سوال امتحان پایان ترم درس نظزیه #گراف
دکتر مریم طهماسبی
۱۳۹۸
نظریه گراف.pdf
214.6 KB
#نمونه_سوال امتحان پایان ترم #گراف دکتر طهماسبی میان ترم اول سال 93
با تشکر از جناب آقای دمیرچلی
امتحان پایانترم #نمونه_سوال آنالیز عددی #عددی #آنالیز_عددی
دکتر یوسفی
آزمون پایان ترم #نمونه_سوال منطق های غیرکلاسیک #منطق_غیر_کلاسیک
دکتر شرفی سال 98
📣 معرفی اساتید ارائه دهنده در سمپوزیم سه روزه یادگیری عمیق و شبکه عصبی

🏢 برگزار کننده: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ

🕒زمان برگزاری کارگاه : شنبه سوم اسفند الی دوشنبه پنجم اسفند

🕒زمان برگزاری سمپوزیم: سه شنبه ششم اسفند الی پنج شنبه هشتم اسفند

🏫مکان: تالار دانشکده برق، دانشگاه شهید بهشتی


⭕️ برای مشاهده جزییات بیشتر و ثبت نام روی این لینک کلیک کنید.

با ما همراه باشید
@CMPlab
@LoopAcademy

🌐 www.CMPLab.ir
🌐 www.LoopAcademy.ir
📣 معرفی اساتید ارائه دهنده در کارگاه سه روزه یادگیری عمیق و شبکه عصبی

🏢 برگزار کننده: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ

🕒زمان برگزاری کارگاه : شنبه سوم اسفند الی دوشنبه پنجم اسفند

🕒زمان برگزاری سمپوزیم: سه شنبه ششم اسفند الی پنج شنبه هشتم اسفند

🏫مکان: تالار دانشکده برق، دانشگاه شهید بهشتی


⭕️ برای مشاهده جزییات بیشتر و ثبت نام روی این لینک کلیک کنید.

با ما همراه باشید
@CMPlab
@LoopAcademy

🌐 www.CMPLab.ir
🌐 www.LoopAcademy.ir
کانال #رویدادهای_دانشجویی_تهران
اطلاع رسانی رویدادهای #علمی، #فرهنگی و #هنری شهر تهران (تمامی رشته ها)
@Tehranunis
📣📣📣 Deep Learning and Neural Networks Symposium and Workshop

⚙️ Organized by: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy

👨🏻‍🎓 Speaker introduction

Dr. Timothée Masquelier,
CNRS Researcher (CR1) in Computational Neuroscience

Title: supervised learning in spiking neural networks

Abstract: I will present two recent works on supervised learning in spiking neural networks.
In the first one, we used backpropagation through time. The most commonly used spiking neuron model, the leaky integrate-and-fire neuron, obeys a differential equation which can be approximated using discrete time steps, leading to a recurrent relation for the potential. The firing threshold causes optimization issues, but they can be overcome using a surrogate gradient. We extended previous approaches in two ways. Firstly, we showed that the approach can be used to train convolutional layers. Secondly, we included fast horizontal connections à la Denève: when a neuron N fires, we subtract to the potentials of all the neurons with the same receptive the dot product between their weight vectors and the one of neuron N. Such connections improved the performance.
The second project focuses on SNNs which use at most one spike per neuron per stimulus, and latency coding. We derived a new learning rule for this sort of network, termed S4NN, akin to traditional error backpropagation, yet based on latencies. We show how approximate error gradients can be computed backward in a feedforward network with any number of layers.


⭕️ For more details please see here

Follow us!

@CMPlab
@LoopAcademy

🌐 www.CMPLab.ir
🌐 www.LoopAcademy.ir
با سلام خدمت همه دوستان از این که در این 4 سال همراه ما بودید در کانال بانک اطلاعاتی از شما سپاس گزاریم . بنده و گروه ادمین های کانال امیدوارم هستیم که این کانال توانسته باشد گام کوچکی برای اشتراک گذاری دانش برداشته باشد .
با توجه به نزدیک بودن فارغ التحصیلی بنده علی شریفی و جناب آقای احمد رضا شریفیان زاده و سایر ادمین های ورودی 95 از سایر دوستان علاقه مند از ورودی های 96 و 97 و 98 کارشناسی و کلیه دانشجویان ارشد و دکتری دعوت میشود که به عنوان ادمین منصوب گردند تا فعالیت کانال هم چنان ادامه داشته باشد .
با سپاس فراوان
لطفا درخواست های خود را به ایدی های
@legionofanonymous
@AhmadSharifian
ارسال فرمایید .

کانال بانک اطلاعاتی
https://news.1rj.ru/str/academicdata
بانک اطلاعات آکادمیک pinned «با سلام خدمت همه دوستان از این که در این 4 سال همراه ما بودید در کانال بانک اطلاعاتی از شما سپاس گزاریم . بنده و گروه ادمین های کانال امیدوارم هستیم که این کانال توانسته باشد گام کوچکی برای اشتراک گذاری دانش برداشته باشد . با توجه به نزدیک بودن فارغ التحصیلی…»
Hands-on-Machine-Learning-with-Scikit-2E.pdf
31.5 MB
#کتاب #یادگیری_ماشین #ml
Hands-on Machine Learning with
Scikit-Learn, Keras, and TensorFlow
ویرایش 2
زبان: #انگلیسی
📣📣📣 Deep Learning and Neural Networks Symposium and Workshop

⚙️ Organized by: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy

👨🏻‍🎓 Speaker introduction

Dr. Mohammad Ganjtabesh,
University of Tehran

Title: Bio-inspired Learning of Visual Features in Shallow and Deep Spiking Neural Networks

Abstract: To date, various computational models have been proposed to mimic the hierarchical processing of the ventral visual pathway in the cortex, with limited success. In this talk, we show how the association of both biologically inspired network architecture and learning rule significantly improves the models' performance in challenging invariant object recognition problems. In all experiments, we used a feedforward convolutional SNN and a temporal coding scheme where the most strongly activated neurons fire first, while less activated ones fire later, or not at all. We start with a shallow network, in which neurons in the higher trainable layer are equipped with STDP learning rule and they progressively become selective to intermediate complexity visual features appropriate for object recognition. Then, a deeper model comprising several convolutional (trainable with STDP) and pooling layers will be presented, in which, the complexity of the extracted features increased along the hierarchy, from edge detectors in the first layer to object prototypes in the last layer. Finally, we show how reinforcement learning can be used efficiently to train a deep SNN to perform object recognition in natural images without using any external classifier and the superiority of reward-modulated STDP (R-STDP) over the STDP in extracting discriminative visual features will be discussed.

⭕️ For more details please see here

Follow us!

@CMPlab
@LoopAcademy

🌐 www.CMPLab.ir
🌐 www.LoopAcademy.ir
SBU_Discrete_Mathematics_3981_midterms.rar
158.6 KB
نمونه سوال #مبانی_ترکیبیات #ترکیبیات
آزمون های میان ترم اول و دوم
دکتر ایردموسی
نیمسال اول ۹۸