Douglas_R_Hofstadter_Gödel,_Escher.pdf
31.3 MB
کتاب: "Gödel, Escher, Bach: an Eternal Golden Braid"
نویسنده: Douglas Hofstadter
درباره کتاب:
"Gödel, Escher, Bach: An Eternal Golden Braid, also known as GEB, is a 1979 book by Douglas Hofstadter. By exploring common themes in the lives and works of logician Kurt Gödel, artist M. C. Escher, and composer Johann Sebastian Bach, the book expounds concepts fundamental to mathematics, symmetry, and intelligence. "
نویسنده: Douglas Hofstadter
درباره کتاب:
"Gödel, Escher, Bach: An Eternal Golden Braid, also known as GEB, is a 1979 book by Douglas Hofstadter. By exploring common themes in the lives and works of logician Kurt Gödel, artist M. C. Escher, and composer Johann Sebastian Bach, the book expounds concepts fundamental to mathematics, symmetry, and intelligence. "
Graph_Algorithms_Neo4j.pdf
10.2 MB
عنوان کتاب: "Graph Algorithms: Practical Examples in Apache Spark and Neo4j"
نویسنده: Mark Needham & Amy E. Hodler
درباره ی کتاب:
"A practical and informative guide to gaining insights on connected data by detecting patterns and structures with graph algorithms. This book is a must-read for developers working with graph databases."
#گراف
نویسنده: Mark Needham & Amy E. Hodler
درباره ی کتاب:
"A practical and informative guide to gaining insights on connected data by detecting patterns and structures with graph algorithms. This book is a must-read for developers working with graph databases."
#گراف
#نمونه_سوال #معادله_دیفرانسیل #دیفرانسیل
آزمون پایان ترم درس معادلات دیفرانسیل جناب آقای دکتر خلت نمیسال اول 98
با تشکر از جناب آقای پسندیده
آزمون پایان ترم درس معادلات دیفرانسیل جناب آقای دکتر خلت نمیسال اول 98
با تشکر از جناب آقای پسندیده
Forwarded from Computational and Mathematical Psychology Lab
📣 معرفی اساتید ارائه دهنده در سمپوزیم سه روزه یادگیری عمیق و شبکه عصبی
🏢 برگزار کننده: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ
🕒زمان برگزاری کارگاه : شنبه سوم اسفند الی دوشنبه پنجم اسفند
🕒زمان برگزاری سمپوزیم: سه شنبه ششم اسفند الی پنج شنبه هشتم اسفند
🏫مکان: تالار دانشکده برق، دانشگاه شهید بهشتی
⭕️ برای مشاهده جزییات بیشتر و ثبت نام روی این لینک کلیک کنید.
با ما همراه باشید
@CMPlab
@LoopAcademy
🌐 www.CMPLab.ir
🌐 www.LoopAcademy.ir
🏢 برگزار کننده: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ
🕒زمان برگزاری کارگاه : شنبه سوم اسفند الی دوشنبه پنجم اسفند
🕒زمان برگزاری سمپوزیم: سه شنبه ششم اسفند الی پنج شنبه هشتم اسفند
🏫مکان: تالار دانشکده برق، دانشگاه شهید بهشتی
⭕️ برای مشاهده جزییات بیشتر و ثبت نام روی این لینک کلیک کنید.
با ما همراه باشید
@CMPlab
@LoopAcademy
🌐 www.CMPLab.ir
🌐 www.LoopAcademy.ir
Forwarded from Computational and Mathematical Psychology Lab
📣 معرفی اساتید ارائه دهنده در کارگاه سه روزه یادگیری عمیق و شبکه عصبی
🏢 برگزار کننده: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ
🕒زمان برگزاری کارگاه : شنبه سوم اسفند الی دوشنبه پنجم اسفند
🕒زمان برگزاری سمپوزیم: سه شنبه ششم اسفند الی پنج شنبه هشتم اسفند
🏫مکان: تالار دانشکده برق، دانشگاه شهید بهشتی
⭕️ برای مشاهده جزییات بیشتر و ثبت نام روی این لینک کلیک کنید.
با ما همراه باشید
@CMPlab
@LoopAcademy
🌐 www.CMPLab.ir
🌐 www.LoopAcademy.ir
🏢 برگزار کننده: پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی و آکادمی لوپ
🕒زمان برگزاری کارگاه : شنبه سوم اسفند الی دوشنبه پنجم اسفند
🕒زمان برگزاری سمپوزیم: سه شنبه ششم اسفند الی پنج شنبه هشتم اسفند
🏫مکان: تالار دانشکده برق، دانشگاه شهید بهشتی
⭕️ برای مشاهده جزییات بیشتر و ثبت نام روی این لینک کلیک کنید.
با ما همراه باشید
@CMPlab
@LoopAcademy
🌐 www.CMPLab.ir
🌐 www.LoopAcademy.ir
جزوه_ترکیبیات_و_کاربردها_دکتر_ایرد.pdf
74.5 MB
نیمسال اول سال تحصیلی 96-97
Forwarded from رویدادهای دانشجویی تهران
کانال #رویدادهای_دانشجویی_تهران
اطلاع رسانی رویدادهای #علمی، #فرهنگی و #هنری شهر تهران (تمامی رشته ها)
@Tehranunis
اطلاع رسانی رویدادهای #علمی، #فرهنگی و #هنری شهر تهران (تمامی رشته ها)
@Tehranunis
Forwarded from Computational and Mathematical Psychology Lab
📣📣📣 Deep Learning and Neural Networks Symposium and Workshop
⚙️ Organized by: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
👨🏻🎓 Speaker introduction
Dr. Timothée Masquelier,
CNRS Researcher (CR1) in Computational Neuroscience
Title: supervised learning in spiking neural networks
Abstract: I will present two recent works on supervised learning in spiking neural networks.
In the first one, we used backpropagation through time. The most commonly used spiking neuron model, the leaky integrate-and-fire neuron, obeys a differential equation which can be approximated using discrete time steps, leading to a recurrent relation for the potential. The firing threshold causes optimization issues, but they can be overcome using a surrogate gradient. We extended previous approaches in two ways. Firstly, we showed that the approach can be used to train convolutional layers. Secondly, we included fast horizontal connections à la Denève: when a neuron N fires, we subtract to the potentials of all the neurons with the same receptive the dot product between their weight vectors and the one of neuron N. Such connections improved the performance.
The second project focuses on SNNs which use at most one spike per neuron per stimulus, and latency coding. We derived a new learning rule for this sort of network, termed S4NN, akin to traditional error backpropagation, yet based on latencies. We show how approximate error gradients can be computed backward in a feedforward network with any number of layers.
⭕️ For more details please see here
Follow us!
@CMPlab
@LoopAcademy
🌐 www.CMPLab.ir
🌐 www.LoopAcademy.ir
⚙️ Organized by: Institute for Cognitive and Brain Sciences, Shahid Beheshti University and Loop Academy
👨🏻🎓 Speaker introduction
Dr. Timothée Masquelier,
CNRS Researcher (CR1) in Computational Neuroscience
Title: supervised learning in spiking neural networks
Abstract: I will present two recent works on supervised learning in spiking neural networks.
In the first one, we used backpropagation through time. The most commonly used spiking neuron model, the leaky integrate-and-fire neuron, obeys a differential equation which can be approximated using discrete time steps, leading to a recurrent relation for the potential. The firing threshold causes optimization issues, but they can be overcome using a surrogate gradient. We extended previous approaches in two ways. Firstly, we showed that the approach can be used to train convolutional layers. Secondly, we included fast horizontal connections à la Denève: when a neuron N fires, we subtract to the potentials of all the neurons with the same receptive the dot product between their weight vectors and the one of neuron N. Such connections improved the performance.
The second project focuses on SNNs which use at most one spike per neuron per stimulus, and latency coding. We derived a new learning rule for this sort of network, termed S4NN, akin to traditional error backpropagation, yet based on latencies. We show how approximate error gradients can be computed backward in a feedforward network with any number of layers.
⭕️ For more details please see here
Follow us!
@CMPlab
@LoopAcademy
🌐 www.CMPLab.ir
🌐 www.LoopAcademy.ir
Telegram
attach 📎
با سلام خدمت همه دوستان از این که در این 4 سال همراه ما بودید در کانال بانک اطلاعاتی از شما سپاس گزاریم . بنده و گروه ادمین های کانال امیدوارم هستیم که این کانال توانسته باشد گام کوچکی برای اشتراک گذاری دانش برداشته باشد .
با توجه به نزدیک بودن فارغ التحصیلی بنده علی شریفی و جناب آقای احمد رضا شریفیان زاده و سایر ادمین های ورودی 95 از سایر دوستان علاقه مند از ورودی های 96 و 97 و 98 کارشناسی و کلیه دانشجویان ارشد و دکتری دعوت میشود که به عنوان ادمین منصوب گردند تا فعالیت کانال هم چنان ادامه داشته باشد .
با سپاس فراوان
لطفا درخواست های خود را به ایدی های
@legionofanonymous
@AhmadSharifian
ارسال فرمایید .
کانال بانک اطلاعاتی
https://news.1rj.ru/str/academicdata
با توجه به نزدیک بودن فارغ التحصیلی بنده علی شریفی و جناب آقای احمد رضا شریفیان زاده و سایر ادمین های ورودی 95 از سایر دوستان علاقه مند از ورودی های 96 و 97 و 98 کارشناسی و کلیه دانشجویان ارشد و دکتری دعوت میشود که به عنوان ادمین منصوب گردند تا فعالیت کانال هم چنان ادامه داشته باشد .
با سپاس فراوان
لطفا درخواست های خود را به ایدی های
@legionofanonymous
@AhmadSharifian
ارسال فرمایید .
کانال بانک اطلاعاتی
https://news.1rj.ru/str/academicdata
Telegram
بانک اطلاعات آکادمیک
راهی برای برای تبادل جزوات وکتاب ها و سایت های مفید آکادمیک در رشته های علوم و مهندسی کامپیوتر، ریاضی، آمار .
لینک کانال:
https://news.1rj.ru/str/academicdata
ارسال و درخواست کتاب، جزوه، نمونه سوال،ارتباط با آدمین های کانال :
@legionofanonymous
@AhmadSharifian
لینک کانال:
https://news.1rj.ru/str/academicdata
ارسال و درخواست کتاب، جزوه، نمونه سوال،ارتباط با آدمین های کانال :
@legionofanonymous
@AhmadSharifian
بانک اطلاعات آکادمیک pinned «با سلام خدمت همه دوستان از این که در این 4 سال همراه ما بودید در کانال بانک اطلاعاتی از شما سپاس گزاریم . بنده و گروه ادمین های کانال امیدوارم هستیم که این کانال توانسته باشد گام کوچکی برای اشتراک گذاری دانش برداشته باشد . با توجه به نزدیک بودن فارغ التحصیلی…»
Hands-on-Machine-Learning-with-Scikit-2E.pdf
31.5 MB
#کتاب #یادگیری_ماشین #ml
Hands-on Machine Learning with
Scikit-Learn, Keras, and TensorFlow
ویرایش 2
زبان: #انگلیسی
Hands-on Machine Learning with
Scikit-Learn, Keras, and TensorFlow
ویرایش 2
زبان: #انگلیسی