اصطلاح Common Knowledge یا همون "دانش مشترک" به نوعی از دانش گفته میشه که برای گروهی از عاملها(agent) تعریف میکنند. این مفهوم اولین بار توسط یک فیلسوف در 1969 مطرح میشه و آقای Robert Aumman در سال 1976 با استفاده از نظریهی مجموعهها به زبان ریاضی صورت بندیش میکنه. بعدها این قضیه در علوم کامیپوتر محبوب میشه و کلی معماهای جالبانگیز پیرامونش بوجود میاد، که حتی توجه John Conway رو جلب کرده بود به خودش.
به طور خلاصه، یه گزاره p در گروهی از عاملها دانش مشترک به حساب میاد، اگر تمامی اعضای گروه گزارهی p را بدانند و همچنین بدانند که بقیه نیز میدانند و هم چنین میدانند که بقیه میدانند که همه میدانند و الی آخر(تا بینهایت).
این مفهوم در نظریهی بازیها و همچنین علومکامیپوتر بکار بسته میشه. در ویدیوی زیر یکی از معماهای معروف که با استفاده از "دانش مشترک" حل میشه، (The Blue-Eyed Islanders) رو مطرح میکنن که واقعا دیدنش جالبه.
این مثالهای کوچیک نظریهی بازیها واقعا کمک میکنه آدم درک بهتری از جهان اطرافش پیدا بکنه و برای سرکار گذاشتن دوستان و اقوام در مهمونیها هم به شدت توصیه میشه.
https://www.youtube.com/watch?v=98TQv5IAtY8
#video #Game_Theory
@Singular_Thinker
به طور خلاصه، یه گزاره p در گروهی از عاملها دانش مشترک به حساب میاد، اگر تمامی اعضای گروه گزارهی p را بدانند و همچنین بدانند که بقیه نیز میدانند و هم چنین میدانند که بقیه میدانند که همه میدانند و الی آخر(تا بینهایت).
این مفهوم در نظریهی بازیها و همچنین علومکامیپوتر بکار بسته میشه. در ویدیوی زیر یکی از معماهای معروف که با استفاده از "دانش مشترک" حل میشه، (The Blue-Eyed Islanders) رو مطرح میکنن که واقعا دیدنش جالبه.
این مثالهای کوچیک نظریهی بازیها واقعا کمک میکنه آدم درک بهتری از جهان اطرافش پیدا بکنه و برای سرکار گذاشتن دوستان و اقوام در مهمونیها هم به شدت توصیه میشه.
https://www.youtube.com/watch?v=98TQv5IAtY8
#video #Game_Theory
@Singular_Thinker
YouTube
Can you solve the famously difficult green-eyed logic puzzle? - Alex Gendler
Sign up for our newsletter and never miss an animation: http://bit.ly/TEDEdNewsletter
One hundred green-eyed logicians have been imprisoned on an island by a mad dictator. Their only hope for freedom lies in the answer to one famously difficult logic puzzle.…
One hundred green-eyed logicians have been imprisoned on an island by a mad dictator. Their only hope for freedom lies in the answer to one famously difficult logic puzzle.…
👍4❤1
Singular Thinker
اصطلاح Common Knowledge یا همون "دانش مشترک" به نوعی از دانش گفته میشه که برای گروهی از عاملها(agent) تعریف میکنند. این مفهوم اولین بار توسط یک فیلسوف در 1969 مطرح میشه و آقای Robert Aumman در سال 1976 با استفاده از نظریهی مجموعهها به زبان ریاضی صورت بندیش…
آقای Robert Aumman که در تصویر مشاهده میکنید سال 1930 در خانوادهای یهودی در شهر فرانکفورت آلمان بدنیا اومد و در 8 سالگی دو هفته قبل از "شب بلورین" یا "شب شیشههای شکسته" (شروع حملهی نازیها به یهودیان) به آمریکا سفر میکند. دورهی لیسانس رو در رشتهی ریاضی در City College of New York و دورهی ارشد و دکتری رو هم در رشتهی ریاضی در دانشگاه MIT خوندن. ایشون 91 سالشونه و زندن هنوز.
ولی پیش از اینکه به اصل قضیه بپردازیم، یه سری نکتههای جالب راجع به آقای اومن وجود داره که ایشون به شدت سعی کردند که با بهره بردن از نظریهی بازیها که دوراهیهای(dilemma) موجود در تلمود(یکی از کتابهای یهودیت) رو تحلیل کنند و فاندهای بسیاری در این زمینه گرفتند و یا "کد انجیل/تورات" رو رمزگشایی بکنه تا وقایع تاریخی که در این کتاب نوشتهشده رو بفهمن. کلا ادم فعالی در زمینههای سیاسی و مذهبی محسوب میشه و برای مثال یکی از پسراشون در جنگ لبنان کشته میشن.
اما من برای این نکات جذب ایشون نشدم. پس چرا ایشون ادم مهمیه و جالبیه؟
چون حداقل تا جایی که من میدونم سه موضوع خیلی جذابو وارد نظریهی بازیها کردند.
اولیش تعریف کردن "تعادل همبسته" در بازیهای غیرهمکارانه است که منعطفتر از تعادل نش بهنظر میرسه و تو بعضی از کاربردها میتونه که پیشبینی بهتری در مسائل واقعی ارائه بکنه.
همچنین نخستین بار صورتبندی دقیقی از "common knowledge" در نظریهی بازیها ارائه میکنه(ویدیوی پست قبلی رو اگر ندیدید ببینید حتما) و بعد با استفاده از این تعریف یه قضیهی جالب داره تحت عنوان "قضیهی همآوایی آومن" که در ادامه به این میپردازیم.
این قضیه بیان میکند که دو عامل(agent) که به صورت معقول(rational) رفتار میکنند و نسبت به باورهای یکدیگر Common Knowledge دارند، هرگز نمیتوانند به توافق برسند که به توافقی نمیرسند(agree to disagree). به دیگر سخن، اگر 2 عامل هوشمند معقول بیزی با باورهای پیشین یکسان باشند و همچنین هر یک از آنها نسبت به احتمالات پسین یکدیگر Common Knowledge داشته باشند، توضیح پسین آنها یکسان خواهد شد.
نکتهی قابل توجه این است حتی اگر اطلاعات مشاهدهشده توسط هر یک از عاملها متفاوت باشد، این قضیه برقرار است و به توافق میرسند. بعدا توسط اسکات آرانسون اثبات شد که این توافق در زمان موثری قابل دستیابی است.
#bio_summary #game_theory
@Singular_Thinker
ولی پیش از اینکه به اصل قضیه بپردازیم، یه سری نکتههای جالب راجع به آقای اومن وجود داره که ایشون به شدت سعی کردند که با بهره بردن از نظریهی بازیها که دوراهیهای(dilemma) موجود در تلمود(یکی از کتابهای یهودیت) رو تحلیل کنند و فاندهای بسیاری در این زمینه گرفتند و یا "کد انجیل/تورات" رو رمزگشایی بکنه تا وقایع تاریخی که در این کتاب نوشتهشده رو بفهمن. کلا ادم فعالی در زمینههای سیاسی و مذهبی محسوب میشه و برای مثال یکی از پسراشون در جنگ لبنان کشته میشن.
اما من برای این نکات جذب ایشون نشدم. پس چرا ایشون ادم مهمیه و جالبیه؟
چون حداقل تا جایی که من میدونم سه موضوع خیلی جذابو وارد نظریهی بازیها کردند.
اولیش تعریف کردن "تعادل همبسته" در بازیهای غیرهمکارانه است که منعطفتر از تعادل نش بهنظر میرسه و تو بعضی از کاربردها میتونه که پیشبینی بهتری در مسائل واقعی ارائه بکنه.
همچنین نخستین بار صورتبندی دقیقی از "common knowledge" در نظریهی بازیها ارائه میکنه(ویدیوی پست قبلی رو اگر ندیدید ببینید حتما) و بعد با استفاده از این تعریف یه قضیهی جالب داره تحت عنوان "قضیهی همآوایی آومن" که در ادامه به این میپردازیم.
این قضیه بیان میکند که دو عامل(agent) که به صورت معقول(rational) رفتار میکنند و نسبت به باورهای یکدیگر Common Knowledge دارند، هرگز نمیتوانند به توافق برسند که به توافقی نمیرسند(agree to disagree). به دیگر سخن، اگر 2 عامل هوشمند معقول بیزی با باورهای پیشین یکسان باشند و همچنین هر یک از آنها نسبت به احتمالات پسین یکدیگر Common Knowledge داشته باشند، توضیح پسین آنها یکسان خواهد شد.
نکتهی قابل توجه این است حتی اگر اطلاعات مشاهدهشده توسط هر یک از عاملها متفاوت باشد، این قضیه برقرار است و به توافق میرسند. بعدا توسط اسکات آرانسون اثبات شد که این توافق در زمان موثری قابل دستیابی است.
#bio_summary #game_theory
@Singular_Thinker
👍5
Singular Thinker
تا حالا تدیبر شیمیست دیدی؟ 🔻چند ماه گذشته، شرکت OpenAI از ورژن جدید پروژهی قبلی خودش، یعنی Dall.E (ترکیب کلمات Wall.E و Dali) رسما رونمایی کرد. Dall.E در واقع یه مدل هوش مصنوعی محسوب میشه که میتونه جملاتی رو که بهش داده میشه رو به تصویر بکشه، اما نکته…
این تصاویر ایجاد شده توسط Dall.E2 حقیقتا شگفت انگیزه. دوست داشتید بیشتر ببینید:
https://www.youtube.com/watch?v=lbUluHiqwoA
#video
@Singular_Thinker
https://www.youtube.com/watch?v=lbUluHiqwoA
#video
@Singular_Thinker
YouTube
OpenAI’s DALL-E 2: Even More Beautiful Results! 🤯
❤️ Train a neural network and track your experiments with Weights & Biases here: http://wandb.me/paperintro
📝 The paper "Hierarchical Text-Conditional Image Generation with CLIP Latents" is available here:
https://openai.com/dall-e-2/
📝 Our Separable Subsurface…
📝 The paper "Hierarchical Text-Conditional Image Generation with CLIP Latents" is available here:
https://openai.com/dall-e-2/
📝 Our Separable Subsurface…
👍4
تا ما میایم یه چایی بخوریم، و قبلی رو هضمش کنیم دوستان یه مدل جدید میدن.
این بار نوبت Google Research بوده که مدلشو عرضه کنه. نظرتون چیه آیا این مدلها به قدری که داره بهشون توجه میشه خفن هستن؟ مثلا باهاشون میشه انیمیشن سازی کرد یا تو فرآیند ساختش کمک گرفت؟ یا اینا هم صرفا یه سری Hype عه و نتایجی که نشون میدن فقط بخشی از واقعیته؟
مدلی که میتونه عکسای به این خوبی تولید کنه 20 میلیارد پارامتر داره. بنابراین عملا train کردنش رو فقط یه سری جاهای خاص تو دنیا از پسش برمیان. دیگه حس میکنم از دورهی Deep Learning گذر میکنیم و وارد دورهی Very Deep Learning میشیم و خب بیشتر فضا رو برای رقابت در پژوهش سخت میکنه. ولی آیا صرفا با عمیق تر کردن همه مشکلات حل میشه؟
مثال موفق(چپ):
"A portrait photo of a kangaroo wearing an orange hoodie and blue sunglasses standing on the grass in front of the Sydney Opera House holding a sign on the chest that says Welcome Friends!"
مثال ناموفق(راست):
A plate that has no bananas on it. there is a glass without orange juice next to it.
منبع: مدل parti
@Singular_Thinker
این بار نوبت Google Research بوده که مدلشو عرضه کنه. نظرتون چیه آیا این مدلها به قدری که داره بهشون توجه میشه خفن هستن؟ مثلا باهاشون میشه انیمیشن سازی کرد یا تو فرآیند ساختش کمک گرفت؟ یا اینا هم صرفا یه سری Hype عه و نتایجی که نشون میدن فقط بخشی از واقعیته؟
مدلی که میتونه عکسای به این خوبی تولید کنه 20 میلیارد پارامتر داره. بنابراین عملا train کردنش رو فقط یه سری جاهای خاص تو دنیا از پسش برمیان. دیگه حس میکنم از دورهی Deep Learning گذر میکنیم و وارد دورهی Very Deep Learning میشیم و خب بیشتر فضا رو برای رقابت در پژوهش سخت میکنه. ولی آیا صرفا با عمیق تر کردن همه مشکلات حل میشه؟
مثال موفق(چپ):
"A portrait photo of a kangaroo wearing an orange hoodie and blue sunglasses standing on the grass in front of the Sydney Opera House holding a sign on the chest that says Welcome Friends!"
مثال ناموفق(راست):
A plate that has no bananas on it. there is a glass without orange juice next to it.
منبع: مدل parti
@Singular_Thinker
👍6
من امروز به این مدل Dall.E دسترسی پیدا کردم و داشتم تستش می کردم. چند تا نکته به نظرم جالب بود:
🔸 اولا با اینکه نتایجش واقعا تاثیرگذاره، ولی به اون بی نقصی ای که به نظر میومد نیست و اگه یه خورده بپیچونیش یا چیزای سخت بهش بدی تصاویر مشکل دار هم درست می کنه. در واقع اون چیزایی که تا الان به عنوان نتایج این مدل منتشر میشده یه جور نتایج گلچین شده تر و تسک های سر راست تر بودن. البته که کماکان قدرتش تو درست کردن تصاویر فوق العادست.
🔸 یه چیز جالب دیگه وقتیه که یه شخصیت واقعی رو سرچ می کنی، مدل به وضوح اون شخصیت رو با جزئیات میشناسه (حتی می تونید ببینید که فیزیک بدنی و رنگ و طرح لباس های رونالدو و مسی رو تونسته به درستی تشخیص بده)، ولی در عین حال چهره ها رو بازسازی نمی کنه. فکر نمی کنم با قدرت عجیب غریبی که Dall.E داره این یه باگ باشه و حدس می زنم OpenAI آگاهانه تلاش کرده این "فیچر" رو به مدل اضافه کنه که اگه اینجوری باشه خیلی تحسین برانگیزه.
اگر در حال حاضر به این مدل دسترسی ندارید تو کامنت ها بنویسید دیگه چه جیزی رو سرچ کنم و سعی می کنم نتیجه رو همونجا بذارم.
@Singular_Thinker
🔸 اولا با اینکه نتایجش واقعا تاثیرگذاره، ولی به اون بی نقصی ای که به نظر میومد نیست و اگه یه خورده بپیچونیش یا چیزای سخت بهش بدی تصاویر مشکل دار هم درست می کنه. در واقع اون چیزایی که تا الان به عنوان نتایج این مدل منتشر میشده یه جور نتایج گلچین شده تر و تسک های سر راست تر بودن. البته که کماکان قدرتش تو درست کردن تصاویر فوق العادست.
🔸 یه چیز جالب دیگه وقتیه که یه شخصیت واقعی رو سرچ می کنی، مدل به وضوح اون شخصیت رو با جزئیات میشناسه (حتی می تونید ببینید که فیزیک بدنی و رنگ و طرح لباس های رونالدو و مسی رو تونسته به درستی تشخیص بده)، ولی در عین حال چهره ها رو بازسازی نمی کنه. فکر نمی کنم با قدرت عجیب غریبی که Dall.E داره این یه باگ باشه و حدس می زنم OpenAI آگاهانه تلاش کرده این "فیچر" رو به مدل اضافه کنه که اگه اینجوری باشه خیلی تحسین برانگیزه.
اگر در حال حاضر به این مدل دسترسی ندارید تو کامنت ها بنویسید دیگه چه جیزی رو سرچ کنم و سعی می کنم نتیجه رو همونجا بذارم.
@Singular_Thinker
👍6
با توجه به قضیهی Universal approximation theorem به نظر شما با یک شبکه عصبی چندلایه(MLP) میتونیم تابع sin(x) را در کل دامنهی اعداد حقیقی تخمین بزنیم؟
Anonymous Quiz
67%
بله
33%
نه
👍4
اگه مثه من بارها تا حالا از مقداردهی اولیه شبکههای عصبی استفاده کردید و کمی هم در مورد علت استفاده از پشتش میدونید و دوست دارید بیشتر بدونید، پیشنهاد میکنم که این ویدیو رو ببینید تا ببینید اینکه مثلا Xavier Initialization چطور واقعا بدست میاد.
توضیحات ویدیو خیلی عالی نیست یعنی یکم باید آدم مکث کنه ولی در نهایت کار رو راه میندازه به نظرم.
https://youtu.be/0Mv6d_nJNzI
#video #Neural_Networks
@SingularThinker
توضیحات ویدیو خیلی عالی نیست یعنی یکم باید آدم مکث کنه ولی در نهایت کار رو راه میندازه به نظرم.
https://youtu.be/0Mv6d_nJNzI
#video #Neural_Networks
@SingularThinker
👍3
Shab Navard (Ft Mohammadreza Lotfi & Shahram Nazari)
Mohammadreza Shajarian
شب است و چهرهی میهن سیاهه
نشستن در سیاهیها گناهه
تفنگم را بده تا ره بجویم
که هر کی عاشق پایش بهراهه
.
.
برادر/خواهر نوجونه
برادر/خواهر غرق خونه
برادر/خواهر دشت سینهاش لالهزاره
@singularthinker
نشستن در سیاهیها گناهه
تفنگم را بده تا ره بجویم
که هر کی عاشق پایش بهراهه
.
.
برادر/خواهر نوجونه
برادر/خواهر غرق خونه
برادر/خواهر دشت سینهاش لالهزاره
@singularthinker
😢5❤1