به مناسب تولد ماکس پلانک که امروزه😁
توصیه میکنم که برید و این اپیزود اول از سری مجموعه ی چهارگانه ی تکنولوژی های کوانتومی پادکست فانوس رو گوش کنید.
توش در مورد زندگی ماکس پلانک و علاقهاش به فیزیکدان شدن میگه و کلا در مورد این صحبت میکنه که قصهی کوانتوم اصن از کجا شروع شد.
به نظر من که خیلی باحاله امیدوارم که نظر شما هم همین باشه
لینک کست باکس
#podcast
@SingularThinker
توصیه میکنم که برید و این اپیزود اول از سری مجموعه ی چهارگانه ی تکنولوژی های کوانتومی پادکست فانوس رو گوش کنید.
توش در مورد زندگی ماکس پلانک و علاقهاش به فیزیکدان شدن میگه و کلا در مورد این صحبت میکنه که قصهی کوانتوم اصن از کجا شروع شد.
به نظر من که خیلی باحاله امیدوارم که نظر شما هم همین باشه
لینک کست باکس
#podcast
@SingularThinker
Castbox
مجموعه تکنولوژی های کوانتومی | جدال کوانتومی
<p>اپیزود اول از سری مجموعه ی چهارگانه ی <strong>تکنولوژی های کوانتومی</strong></p><p>
</p><p>در قسمت اول از این مجموعه قراره مفاهیم بنیادی مکانیک کو...
</p><p>در قسمت اول از این مجموعه قراره مفاهیم بنیادی مکانیک کو...
👍5
Forwarded from انجمن علمی همبند
📌محفل ریاضی
یه مناسبت بزرگداشت مریم میرزاخانی، ریاضیدان ایرانی
📎سخنرانان
👤دکتر ملیحه یوسف زاده
برنده جایزه مریم میرزاخانی و عضو هیئت علمی دانشگاه اصفهان
عنوان: من از ریاضی بیزارم
👤دکتر مجید سلامت
عضو هیئت علمی دانشگاه صنعتی اصفهان
عنوان: کامل بودن تصادفی گرافها
👤دکتر امیر جعفری
عضو بنیاد مریم
عضو هیئت علمی دانشگاه صنعتی شریف
عنوان: زیباترین قضیه در ریاضیات
📆زمان: پنجشنبه ۲۲ اردیبهشت ماه ۱۴۰۱
🕓ساعت: ۱۶ تا ۱۹:۳۰
🔹مکان: اصفهان، خیابان سعادت آباد، روبهروی مقبره بانو امین، جنب ورزشگاه امین، خانه ریاضیات اصفهان، تالار مریم میرزاخانی
اگر امکان حضور در جلسه را نداشتید میتوانید از طریق لینک زیر به صورت مجازی با ما همراه باشید.
🔸لینک ورود آنلاین به جلسه:
https://www.skyroom.online/ch/mathhouse/woman_math_day_01
♦️حضور در این برنامه برای عموم دانشجویان و علاقهمندان آزاد و رایگان است.
یه مناسبت بزرگداشت مریم میرزاخانی، ریاضیدان ایرانی
📎سخنرانان
👤دکتر ملیحه یوسف زاده
برنده جایزه مریم میرزاخانی و عضو هیئت علمی دانشگاه اصفهان
عنوان: من از ریاضی بیزارم
👤دکتر مجید سلامت
عضو هیئت علمی دانشگاه صنعتی اصفهان
عنوان: کامل بودن تصادفی گرافها
👤دکتر امیر جعفری
عضو بنیاد مریم
عضو هیئت علمی دانشگاه صنعتی شریف
عنوان: زیباترین قضیه در ریاضیات
📆زمان: پنجشنبه ۲۲ اردیبهشت ماه ۱۴۰۱
🕓ساعت: ۱۶ تا ۱۹:۳۰
🔹مکان: اصفهان، خیابان سعادت آباد، روبهروی مقبره بانو امین، جنب ورزشگاه امین، خانه ریاضیات اصفهان، تالار مریم میرزاخانی
اگر امکان حضور در جلسه را نداشتید میتوانید از طریق لینک زیر به صورت مجازی با ما همراه باشید.
🔸لینک ورود آنلاین به جلسه:
https://www.skyroom.online/ch/mathhouse/woman_math_day_01
♦️حضور در این برنامه برای عموم دانشجویان و علاقهمندان آزاد و رایگان است.
👍4
اصطلاح Common Knowledge یا همون "دانش مشترک" به نوعی از دانش گفته میشه که برای گروهی از عاملها(agent) تعریف میکنند. این مفهوم اولین بار توسط یک فیلسوف در 1969 مطرح میشه و آقای Robert Aumman در سال 1976 با استفاده از نظریهی مجموعهها به زبان ریاضی صورت بندیش میکنه. بعدها این قضیه در علوم کامیپوتر محبوب میشه و کلی معماهای جالبانگیز پیرامونش بوجود میاد، که حتی توجه John Conway رو جلب کرده بود به خودش.
به طور خلاصه، یه گزاره p در گروهی از عاملها دانش مشترک به حساب میاد، اگر تمامی اعضای گروه گزارهی p را بدانند و همچنین بدانند که بقیه نیز میدانند و هم چنین میدانند که بقیه میدانند که همه میدانند و الی آخر(تا بینهایت).
این مفهوم در نظریهی بازیها و همچنین علومکامیپوتر بکار بسته میشه. در ویدیوی زیر یکی از معماهای معروف که با استفاده از "دانش مشترک" حل میشه، (The Blue-Eyed Islanders) رو مطرح میکنن که واقعا دیدنش جالبه.
این مثالهای کوچیک نظریهی بازیها واقعا کمک میکنه آدم درک بهتری از جهان اطرافش پیدا بکنه و برای سرکار گذاشتن دوستان و اقوام در مهمونیها هم به شدت توصیه میشه.
https://www.youtube.com/watch?v=98TQv5IAtY8
#video #Game_Theory
@Singular_Thinker
به طور خلاصه، یه گزاره p در گروهی از عاملها دانش مشترک به حساب میاد، اگر تمامی اعضای گروه گزارهی p را بدانند و همچنین بدانند که بقیه نیز میدانند و هم چنین میدانند که بقیه میدانند که همه میدانند و الی آخر(تا بینهایت).
این مفهوم در نظریهی بازیها و همچنین علومکامیپوتر بکار بسته میشه. در ویدیوی زیر یکی از معماهای معروف که با استفاده از "دانش مشترک" حل میشه، (The Blue-Eyed Islanders) رو مطرح میکنن که واقعا دیدنش جالبه.
این مثالهای کوچیک نظریهی بازیها واقعا کمک میکنه آدم درک بهتری از جهان اطرافش پیدا بکنه و برای سرکار گذاشتن دوستان و اقوام در مهمونیها هم به شدت توصیه میشه.
https://www.youtube.com/watch?v=98TQv5IAtY8
#video #Game_Theory
@Singular_Thinker
YouTube
Can you solve the famously difficult green-eyed logic puzzle? - Alex Gendler
Sign up for our newsletter and never miss an animation: http://bit.ly/TEDEdNewsletter
One hundred green-eyed logicians have been imprisoned on an island by a mad dictator. Their only hope for freedom lies in the answer to one famously difficult logic puzzle.…
One hundred green-eyed logicians have been imprisoned on an island by a mad dictator. Their only hope for freedom lies in the answer to one famously difficult logic puzzle.…
👍4❤1
Singular Thinker
اصطلاح Common Knowledge یا همون "دانش مشترک" به نوعی از دانش گفته میشه که برای گروهی از عاملها(agent) تعریف میکنند. این مفهوم اولین بار توسط یک فیلسوف در 1969 مطرح میشه و آقای Robert Aumman در سال 1976 با استفاده از نظریهی مجموعهها به زبان ریاضی صورت بندیش…
آقای Robert Aumman که در تصویر مشاهده میکنید سال 1930 در خانوادهای یهودی در شهر فرانکفورت آلمان بدنیا اومد و در 8 سالگی دو هفته قبل از "شب بلورین" یا "شب شیشههای شکسته" (شروع حملهی نازیها به یهودیان) به آمریکا سفر میکند. دورهی لیسانس رو در رشتهی ریاضی در City College of New York و دورهی ارشد و دکتری رو هم در رشتهی ریاضی در دانشگاه MIT خوندن. ایشون 91 سالشونه و زندن هنوز.
ولی پیش از اینکه به اصل قضیه بپردازیم، یه سری نکتههای جالب راجع به آقای اومن وجود داره که ایشون به شدت سعی کردند که با بهره بردن از نظریهی بازیها که دوراهیهای(dilemma) موجود در تلمود(یکی از کتابهای یهودیت) رو تحلیل کنند و فاندهای بسیاری در این زمینه گرفتند و یا "کد انجیل/تورات" رو رمزگشایی بکنه تا وقایع تاریخی که در این کتاب نوشتهشده رو بفهمن. کلا ادم فعالی در زمینههای سیاسی و مذهبی محسوب میشه و برای مثال یکی از پسراشون در جنگ لبنان کشته میشن.
اما من برای این نکات جذب ایشون نشدم. پس چرا ایشون ادم مهمیه و جالبیه؟
چون حداقل تا جایی که من میدونم سه موضوع خیلی جذابو وارد نظریهی بازیها کردند.
اولیش تعریف کردن "تعادل همبسته" در بازیهای غیرهمکارانه است که منعطفتر از تعادل نش بهنظر میرسه و تو بعضی از کاربردها میتونه که پیشبینی بهتری در مسائل واقعی ارائه بکنه.
همچنین نخستین بار صورتبندی دقیقی از "common knowledge" در نظریهی بازیها ارائه میکنه(ویدیوی پست قبلی رو اگر ندیدید ببینید حتما) و بعد با استفاده از این تعریف یه قضیهی جالب داره تحت عنوان "قضیهی همآوایی آومن" که در ادامه به این میپردازیم.
این قضیه بیان میکند که دو عامل(agent) که به صورت معقول(rational) رفتار میکنند و نسبت به باورهای یکدیگر Common Knowledge دارند، هرگز نمیتوانند به توافق برسند که به توافقی نمیرسند(agree to disagree). به دیگر سخن، اگر 2 عامل هوشمند معقول بیزی با باورهای پیشین یکسان باشند و همچنین هر یک از آنها نسبت به احتمالات پسین یکدیگر Common Knowledge داشته باشند، توضیح پسین آنها یکسان خواهد شد.
نکتهی قابل توجه این است حتی اگر اطلاعات مشاهدهشده توسط هر یک از عاملها متفاوت باشد، این قضیه برقرار است و به توافق میرسند. بعدا توسط اسکات آرانسون اثبات شد که این توافق در زمان موثری قابل دستیابی است.
#bio_summary #game_theory
@Singular_Thinker
ولی پیش از اینکه به اصل قضیه بپردازیم، یه سری نکتههای جالب راجع به آقای اومن وجود داره که ایشون به شدت سعی کردند که با بهره بردن از نظریهی بازیها که دوراهیهای(dilemma) موجود در تلمود(یکی از کتابهای یهودیت) رو تحلیل کنند و فاندهای بسیاری در این زمینه گرفتند و یا "کد انجیل/تورات" رو رمزگشایی بکنه تا وقایع تاریخی که در این کتاب نوشتهشده رو بفهمن. کلا ادم فعالی در زمینههای سیاسی و مذهبی محسوب میشه و برای مثال یکی از پسراشون در جنگ لبنان کشته میشن.
اما من برای این نکات جذب ایشون نشدم. پس چرا ایشون ادم مهمیه و جالبیه؟
چون حداقل تا جایی که من میدونم سه موضوع خیلی جذابو وارد نظریهی بازیها کردند.
اولیش تعریف کردن "تعادل همبسته" در بازیهای غیرهمکارانه است که منعطفتر از تعادل نش بهنظر میرسه و تو بعضی از کاربردها میتونه که پیشبینی بهتری در مسائل واقعی ارائه بکنه.
همچنین نخستین بار صورتبندی دقیقی از "common knowledge" در نظریهی بازیها ارائه میکنه(ویدیوی پست قبلی رو اگر ندیدید ببینید حتما) و بعد با استفاده از این تعریف یه قضیهی جالب داره تحت عنوان "قضیهی همآوایی آومن" که در ادامه به این میپردازیم.
این قضیه بیان میکند که دو عامل(agent) که به صورت معقول(rational) رفتار میکنند و نسبت به باورهای یکدیگر Common Knowledge دارند، هرگز نمیتوانند به توافق برسند که به توافقی نمیرسند(agree to disagree). به دیگر سخن، اگر 2 عامل هوشمند معقول بیزی با باورهای پیشین یکسان باشند و همچنین هر یک از آنها نسبت به احتمالات پسین یکدیگر Common Knowledge داشته باشند، توضیح پسین آنها یکسان خواهد شد.
نکتهی قابل توجه این است حتی اگر اطلاعات مشاهدهشده توسط هر یک از عاملها متفاوت باشد، این قضیه برقرار است و به توافق میرسند. بعدا توسط اسکات آرانسون اثبات شد که این توافق در زمان موثری قابل دستیابی است.
#bio_summary #game_theory
@Singular_Thinker
👍5
Singular Thinker
تا حالا تدیبر شیمیست دیدی؟ 🔻چند ماه گذشته، شرکت OpenAI از ورژن جدید پروژهی قبلی خودش، یعنی Dall.E (ترکیب کلمات Wall.E و Dali) رسما رونمایی کرد. Dall.E در واقع یه مدل هوش مصنوعی محسوب میشه که میتونه جملاتی رو که بهش داده میشه رو به تصویر بکشه، اما نکته…
این تصاویر ایجاد شده توسط Dall.E2 حقیقتا شگفت انگیزه. دوست داشتید بیشتر ببینید:
https://www.youtube.com/watch?v=lbUluHiqwoA
#video
@Singular_Thinker
https://www.youtube.com/watch?v=lbUluHiqwoA
#video
@Singular_Thinker
YouTube
OpenAI’s DALL-E 2: Even More Beautiful Results! 🤯
❤️ Train a neural network and track your experiments with Weights & Biases here: http://wandb.me/paperintro
📝 The paper "Hierarchical Text-Conditional Image Generation with CLIP Latents" is available here:
https://openai.com/dall-e-2/
📝 Our Separable Subsurface…
📝 The paper "Hierarchical Text-Conditional Image Generation with CLIP Latents" is available here:
https://openai.com/dall-e-2/
📝 Our Separable Subsurface…
👍4
تا ما میایم یه چایی بخوریم، و قبلی رو هضمش کنیم دوستان یه مدل جدید میدن.
این بار نوبت Google Research بوده که مدلشو عرضه کنه. نظرتون چیه آیا این مدلها به قدری که داره بهشون توجه میشه خفن هستن؟ مثلا باهاشون میشه انیمیشن سازی کرد یا تو فرآیند ساختش کمک گرفت؟ یا اینا هم صرفا یه سری Hype عه و نتایجی که نشون میدن فقط بخشی از واقعیته؟
مدلی که میتونه عکسای به این خوبی تولید کنه 20 میلیارد پارامتر داره. بنابراین عملا train کردنش رو فقط یه سری جاهای خاص تو دنیا از پسش برمیان. دیگه حس میکنم از دورهی Deep Learning گذر میکنیم و وارد دورهی Very Deep Learning میشیم و خب بیشتر فضا رو برای رقابت در پژوهش سخت میکنه. ولی آیا صرفا با عمیق تر کردن همه مشکلات حل میشه؟
مثال موفق(چپ):
"A portrait photo of a kangaroo wearing an orange hoodie and blue sunglasses standing on the grass in front of the Sydney Opera House holding a sign on the chest that says Welcome Friends!"
مثال ناموفق(راست):
A plate that has no bananas on it. there is a glass without orange juice next to it.
منبع: مدل parti
@Singular_Thinker
این بار نوبت Google Research بوده که مدلشو عرضه کنه. نظرتون چیه آیا این مدلها به قدری که داره بهشون توجه میشه خفن هستن؟ مثلا باهاشون میشه انیمیشن سازی کرد یا تو فرآیند ساختش کمک گرفت؟ یا اینا هم صرفا یه سری Hype عه و نتایجی که نشون میدن فقط بخشی از واقعیته؟
مدلی که میتونه عکسای به این خوبی تولید کنه 20 میلیارد پارامتر داره. بنابراین عملا train کردنش رو فقط یه سری جاهای خاص تو دنیا از پسش برمیان. دیگه حس میکنم از دورهی Deep Learning گذر میکنیم و وارد دورهی Very Deep Learning میشیم و خب بیشتر فضا رو برای رقابت در پژوهش سخت میکنه. ولی آیا صرفا با عمیق تر کردن همه مشکلات حل میشه؟
مثال موفق(چپ):
"A portrait photo of a kangaroo wearing an orange hoodie and blue sunglasses standing on the grass in front of the Sydney Opera House holding a sign on the chest that says Welcome Friends!"
مثال ناموفق(راست):
A plate that has no bananas on it. there is a glass without orange juice next to it.
منبع: مدل parti
@Singular_Thinker
👍6
من امروز به این مدل Dall.E دسترسی پیدا کردم و داشتم تستش می کردم. چند تا نکته به نظرم جالب بود:
🔸 اولا با اینکه نتایجش واقعا تاثیرگذاره، ولی به اون بی نقصی ای که به نظر میومد نیست و اگه یه خورده بپیچونیش یا چیزای سخت بهش بدی تصاویر مشکل دار هم درست می کنه. در واقع اون چیزایی که تا الان به عنوان نتایج این مدل منتشر میشده یه جور نتایج گلچین شده تر و تسک های سر راست تر بودن. البته که کماکان قدرتش تو درست کردن تصاویر فوق العادست.
🔸 یه چیز جالب دیگه وقتیه که یه شخصیت واقعی رو سرچ می کنی، مدل به وضوح اون شخصیت رو با جزئیات میشناسه (حتی می تونید ببینید که فیزیک بدنی و رنگ و طرح لباس های رونالدو و مسی رو تونسته به درستی تشخیص بده)، ولی در عین حال چهره ها رو بازسازی نمی کنه. فکر نمی کنم با قدرت عجیب غریبی که Dall.E داره این یه باگ باشه و حدس می زنم OpenAI آگاهانه تلاش کرده این "فیچر" رو به مدل اضافه کنه که اگه اینجوری باشه خیلی تحسین برانگیزه.
اگر در حال حاضر به این مدل دسترسی ندارید تو کامنت ها بنویسید دیگه چه جیزی رو سرچ کنم و سعی می کنم نتیجه رو همونجا بذارم.
@Singular_Thinker
🔸 اولا با اینکه نتایجش واقعا تاثیرگذاره، ولی به اون بی نقصی ای که به نظر میومد نیست و اگه یه خورده بپیچونیش یا چیزای سخت بهش بدی تصاویر مشکل دار هم درست می کنه. در واقع اون چیزایی که تا الان به عنوان نتایج این مدل منتشر میشده یه جور نتایج گلچین شده تر و تسک های سر راست تر بودن. البته که کماکان قدرتش تو درست کردن تصاویر فوق العادست.
🔸 یه چیز جالب دیگه وقتیه که یه شخصیت واقعی رو سرچ می کنی، مدل به وضوح اون شخصیت رو با جزئیات میشناسه (حتی می تونید ببینید که فیزیک بدنی و رنگ و طرح لباس های رونالدو و مسی رو تونسته به درستی تشخیص بده)، ولی در عین حال چهره ها رو بازسازی نمی کنه. فکر نمی کنم با قدرت عجیب غریبی که Dall.E داره این یه باگ باشه و حدس می زنم OpenAI آگاهانه تلاش کرده این "فیچر" رو به مدل اضافه کنه که اگه اینجوری باشه خیلی تحسین برانگیزه.
اگر در حال حاضر به این مدل دسترسی ندارید تو کامنت ها بنویسید دیگه چه جیزی رو سرچ کنم و سعی می کنم نتیجه رو همونجا بذارم.
@Singular_Thinker
👍6
با توجه به قضیهی Universal approximation theorem به نظر شما با یک شبکه عصبی چندلایه(MLP) میتونیم تابع sin(x) را در کل دامنهی اعداد حقیقی تخمین بزنیم؟
Anonymous Quiz
67%
بله
33%
نه
👍4
اگه مثه من بارها تا حالا از مقداردهی اولیه شبکههای عصبی استفاده کردید و کمی هم در مورد علت استفاده از پشتش میدونید و دوست دارید بیشتر بدونید، پیشنهاد میکنم که این ویدیو رو ببینید تا ببینید اینکه مثلا Xavier Initialization چطور واقعا بدست میاد.
توضیحات ویدیو خیلی عالی نیست یعنی یکم باید آدم مکث کنه ولی در نهایت کار رو راه میندازه به نظرم.
https://youtu.be/0Mv6d_nJNzI
#video #Neural_Networks
@SingularThinker
توضیحات ویدیو خیلی عالی نیست یعنی یکم باید آدم مکث کنه ولی در نهایت کار رو راه میندازه به نظرم.
https://youtu.be/0Mv6d_nJNzI
#video #Neural_Networks
@SingularThinker
👍3