Singular Thinker – Telegram
Singular Thinker
948 subscribers
405 photos
17 videos
5 files
250 links
We talk about things that find them interesting.
توی این کانال از مطالبی که برامون جذاب باشه حرف
میزنیم، یا مطالب جذاب بقیه رو نشر می‌دیم.
Contact/راه ارتباطی:
@Singular_Thinker
Download Telegram
به مناسب تولد ماکس پلانک که امروزه😁
توصیه میکنم که برید و این اپیزود اول از سری مجموعه ی چهارگانه ی تکنولوژی های کوانتومی پادکست فانوس رو گوش کنید.
توش در مورد زندگی ماکس پلانک و علاقه‌اش به فیزیکدان شدن میگه و کلا در مورد این صحبت میکنه که قصه‌ی کوانتوم اصن از کجا شروع شد.
به نظر من که خیلی باحاله امیدوارم که نظر شما هم همین باشه

لینک کست باکس
#podcast
@SingularThinker
👍5
📌محفل ریاضی
یه مناسبت بزرگ‌داشت مریم میرزاخانی، ریاضی‌دان ایرانی

📎سخنرانان
👤دکتر ملیحه یوسف زاده
برنده جایزه مریم میرزاخانی و عضو هیئت علمی دانشگاه اصفهان
عنوان: من از ریاضی بیزارم

👤دکتر مجید سلامت
عضو هیئت علمی دانشگاه صنعتی اصفهان
عنوان: کامل بودن تصادفی گراف‌ها

👤دکتر امیر جعفری
عضو بنیاد مریم
عضو هیئت علمی دانشگاه صنعتی شریف
عنوان: زیباترین قضیه در ریاضیات

📆زمان: پنجشنبه ۲۲ اردیبهشت ماه ۱۴۰۱

🕓ساعت: ۱۶ تا ۱۹:۳۰

🔹مکان: اصفهان، خیابان سعادت آباد، روبه‌روی مقبره بانو امین، جنب ورزشگاه امین، خانه ریاضیات اصفهان، تالار مریم میرزاخانی

اگر امکان حضور در جلسه را نداشتید می‌توانید از طریق لینک زیر به صورت مجازی با ما همراه باشید.

🔸لینک ورود آنلاین به جلسه:
https://www.skyroom.online/ch/mathhouse/woman_math_day_01

♦️حضور در این برنامه برای عموم دانش‌جویان و علاقه‌مندان آزاد و رایگان است.
👍4
اصطلاح Common Knowledge یا همون "دانش مشترک" به نوعی از دانش گفته میشه که برای گروهی از عامل‌ها(agent) تعریف می‌کنند. این مفهوم اولین بار توسط یک فیلسوف در 1969 مطرح میشه و آقای Robert Aumman در سال 1976 با استفاده از نظریه‌ی مجموعه‌ها به زبان ریاضی صورت بندیش می‌کنه. بعدها این قضیه در علوم کامیپوتر محبوب میشه و کلی معماهای جالب‌انگیز پیرامونش بوجود میاد، که حتی توجه John Conway رو جلب کرده بود به خودش.

به طور خلاصه، یه گزاره p در گروهی از عامل‌ها دانش مشترک به حساب میاد، اگر تمامی اعضای گروه گزاره‌ی p را بدانند و هم‌چنین بدانند که بقیه ‌نیز ‌می‌دانند و هم چنین می‌دانند که بقیه ‌می‌دانند که همه‌ می‌دانند و الی آخر(تا بی‌نهایت).

این مفهوم در نظریه‌ی بازی‌ها و هم‌چنین علوم‌کامیپوتر بکار بسته میشه. در ویدیوی زیر یکی از معماهای معروف که با استفاده از "دانش مشترک" حل می‌شه، (The Blue-Eyed Islanders) رو مطرح میکنن که واقعا دیدنش جالبه.

این مثال‌های کوچیک نظریه‌‌ی بازی‌ها واقعا کمک میکنه آدم درک بهتری از جهان اطرافش پیدا بکنه و برای سرکار گذاشتن دوستان و اقوام در مهمونی‌ها هم به شدت توصیه میشه.

https://www.youtube.com/watch?v=98TQv5IAtY8

#video #Game_Theory
@Singular_Thinker
👍41
Singular Thinker
اصطلاح Common Knowledge یا همون "دانش مشترک" به نوعی از دانش گفته میشه که برای گروهی از عامل‌ها(agent) تعریف می‌کنند. این مفهوم اولین بار توسط یک فیلسوف در 1969 مطرح میشه و آقای Robert Aumman در سال 1976 با استفاده از نظریه‌ی مجموعه‌ها به زبان ریاضی صورت بندیش…
آقای Robert Aumman که در تصویر مشاهده می‌کنید سال 1930 در خانوا‌ده‌ای یهودی در شهر فرانکفورت آلمان بدنیا اومد و در 8 سالگی دو هفته قبل از "شب بلورین" یا "شب شیشه‌های شکسته" (شروع حمله‌ی نازی‌ها به یهودیان) به آمریکا سفر می‌کند. دوره‌ی لیسانس رو در رشته‌ی ریاضی در City College of New York و دوره‌ی ارشد و دکتری رو هم در رشته‌ی ریاضی در دانشگاه MIT خوندن. ایشون 91 سالشونه و زندن هنوز.

ولی پیش از اینکه به اصل قضیه بپردازیم، یه سری نکته‌های جالب‌ راجع به آقای اومن وجود داره که ایشون به شدت سعی کردند که با بهره بردن از نظریه‌ی بازی‌ها که دوراهی‌های(dilemma) موجود در تلمود(یکی از کتاب‌های یهودیت) رو تحلیل کنند و فاندهای بسیاری در این زمینه گرفتند و یا "کد انجیل/تورات" رو رمزگشایی بکنه تا وقایع تاریخی که در این کتاب نوشته‌شده رو بفهمن. کلا ادم فعالی در زمینه‌های سیاسی و مذهبی محسوب میشه و برای مثال یکی از پسراشون در جنگ لبنان کشته می‌شن.

اما من برای این‌ نکات جذب ایشون نشدم. پس چرا ایشون ادم مهمیه و جالبیه؟
چون حداقل تا جایی که من میدونم سه موضوع خیلی جذابو وارد نظریه‌ی بازی‌ها کردند.
اولیش تعریف کردن "تعادل ‌هم‌بسته" در بازی‌های غیرهمکارانه است که منعطف‌تر از تعادل نش به‌نظر می‌رسه و تو بعضی‌ از کاربردها میتونه که پیش‎‌بینی بهتری در مسائل واقعی ارائه بکنه.

هم‌چنین نخستین بار صورت‌بندی دقیقی از "common knowledge" در نظریه‌ی بازی‌ها ارائه می‌کنه(ویدیوی پست قبلی رو اگر ندیدید ببینید حتما) و بعد با استفاده از این تعریف یه قضیه‌ی جالب داره تحت عنوان "قضیه‌‌ی هم‌آوایی آومن" که در ادامه‌ به این می‌پردازیم.


این قضیه بیان می‌کند که دو عامل(agent) که به صورت معقول(rational) رفتار می‌کنند و نسبت به باورهای‌ یکدیگر Common Knowledge دارند، هرگز نمی‌توانند به توافق برسند که به توافقی نمی‌رسند(agree to disagree). به دیگر سخن، اگر 2 عامل هوشمند معقول بیزی با باورهای پیشین یکسان باشند و همچنین هر یک از آن‌ها نسبت به احتمالات پسین یکدیگر Common Knowledge داشته باشند، توضیح پسین آن‌ها یکسان خواهد شد.

نکته‌ی قابل توجه این است حتی اگر اطلاعات مشاهده‌شده توسط هر یک از عامل‌ها متفاوت باشد، این قضیه برقرار است و به توافق می‌رسند. بعدا توسط اسکات آرانسون اثبات شد که این توافق در زمان موثری قابل دستیابی است.

#bio_summary #game_theory
@Singular_Thinker
👍5
تا ما میایم یه چایی بخوریم، و قبلی رو هضمش کنیم دوستان یه مدل جدید میدن.
این بار نوبت Google Research بوده که مدلشو عرضه کنه. نظرتون چیه آیا این مدل‌ها به قدری که داره بهشون توجه میشه خفن هستن؟ مثلا باهاشون میشه انیمیشن سازی کرد یا تو فرآیند ساختش کمک گرفت؟ یا اینا هم صرفا یه سری Hype عه و نتایجی که نشون میدن فقط بخشی از واقعیته؟

مدلی که میتونه عکسای به این خوبی تولید کنه 20 میلیارد پارامتر داره. بنابراین عملا train کردنش رو فقط یه سری جاهای خاص تو دنیا از پسش برمیان. دیگه حس میکنم از دوره‌ی Deep Learning گذر میکنیم و وارد دوره‌ی Very Deep Learning میشیم و خب بیشتر فضا رو برای رقابت در پژوهش سخت میکنه. ولی آیا صرفا با عمیق تر کردن همه مشکلات حل میشه؟

مثال موفق(چپ):
"A portrait photo of a kangaroo wearing an orange hoodie and blue sunglasses standing on the grass in front of the Sydney Opera House holding a sign on the chest that says Welcome Friends!"

مثال ناموفق(راست):
A plate that has no bananas on it. there is a glass without orange juice next to it.

منبع: مدل parti
@Singular_Thinker
👍6
من امروز به این مدل Dall.E دسترسی پیدا کردم و داشتم تستش می کردم. چند تا نکته به نظرم جالب بود:

🔸 اولا با اینکه نتایجش واقعا تاثیرگذاره، ولی به اون بی نقصی ای که به نظر میومد نیست و اگه یه خورده بپیچونیش یا چیزای سخت بهش بدی تصاویر مشکل دار هم درست می کنه. در واقع اون چیزایی که تا الان به عنوان نتایج این مدل منتشر میشده یه جور نتایج گلچین شده تر و تسک های سر راست تر بودن. البته که کماکان قدرتش تو درست کردن تصاویر فوق العادست.

🔸 یه چیز جالب دیگه وقتیه که یه شخصیت واقعی رو سرچ می کنی، مدل به وضوح اون شخصیت رو با جزئیات میشناسه (حتی می تونید ببینید که فیزیک بدنی و رنگ و طرح لباس های رونالدو و مسی رو تونسته به درستی تشخیص بده)، ولی در عین حال چهره ها رو بازسازی نمی کنه. فکر نمی کنم با قدرت عجیب غریبی که Dall.E داره این یه باگ باشه و حدس می زنم OpenAI آگاهانه تلاش کرده این "فیچر" رو به مدل اضافه کنه که اگه اینجوری باشه خیلی تحسین برانگیزه.


اگر در حال حاضر به این مدل دسترسی ندارید تو کامنت ها بنویسید دیگه چه جیزی رو سرچ کنم و سعی می کنم نتیجه رو همونجا بذارم.

@Singular_Thinker
👍6
با توجه به قضیه‌ی Universal approximation theorem به نظر شما با یک شبکه‌ عصبی چندلایه(MLP) می‌تونیم تابع sin(x) را در کل دامنه‌ی اعداد حقیقی تخمین بزنیم؟
Anonymous Quiz
67%
بله
33%
نه
👍4
This media is not supported in your browser
VIEW IN TELEGRAM
احتمالا حق ترین چیزی که در تاریخ روی اینترنت قرار گرفته...

@SingularThinker
👍6
اگه مثه من بارها تا حالا از مقداردهی اولیه شبکه‌های عصبی استفاده کردید و کمی هم در مورد علت استفاده از پشتش میدونید و دوست دارید بیشتر بدونید، پیشنهاد میکنم که این ویدیو رو ببینید تا ببینید اینکه مثلا Xavier Initialization چطور واقعا بدست میاد.

توضیحات ویدیو خیلی عالی نیست یعنی یکم باید آدم مکث کنه ولی در نهایت کار رو راه میندازه به نظرم.

https://youtu.be/0Mv6d_nJNzI


#video #Neural_Networks
@SingularThinker
👍3