Singular Thinker – Telegram
Singular Thinker
948 subscribers
405 photos
17 videos
5 files
250 links
We talk about things that find them interesting.
توی این کانال از مطالبی که برامون جذاب باشه حرف
میزنیم، یا مطالب جذاب بقیه رو نشر می‌دیم.
Contact/راه ارتباطی:
@Singular_Thinker
Download Telegram
این یک دوره کامل درسهای علوم اعصاب و بینایی هست که پارسال در NIH یا انیستیتوی ملی سلامت آمریکا توسط دکتر آرش افراز, رضا آزادی، رزا لفر سوزا و الیا شهبازی تدریس شده. به نظر چیز خفنی میاد :) 😁

https://youtube.com/playlist?list=PLV9WJDAawyhZJNfwJxehh1Fkzeqs1Qw6D

با تشکر از @mahscience
#Course #Vision #Neuroscience
@SingularThinker
👍5
یه چنتا بازی جدولی هستش که من حدودا دو سه هفته ای هست که روزا انجامش میدم در مجموع شاید یه ربع نیم ساعت وقت بگیره ولی مثلا اروم اروم حس میکنم دارم قوی تر میشم و مخم کلمات و معادلات رو راحت تر پیدا میکنه.

ورزش ذهنی خوبیه به نظرم. حال داشتید یه چکی بکنید.

پ.ن: از طرفی یه سری پست باحال در موردش پیدا کردم که احتمالا فردا در موردش بیشتر توضیح میدم گفتم قبلش خود بازی رو هم انجام داده باشید خوبه.

https://nerdlegame.com

https://www.nytimes.com/games/wordle/index.html

https://www.vaajoor.com/

@SingularThinker
👍8
Singular Thinker
یه چنتا بازی جدولی هستش که من حدودا دو سه هفته ای هست که روزا انجامش میدم در مجموع شاید یه ربع نیم ساعت وقت بگیره ولی مثلا اروم اروم حس میکنم دارم قوی تر میشم و مخم کلمات و معادلات رو راحت تر پیدا میکنه. ورزش ذهنی خوبیه به نظرم. حال داشتید یه چکی بکنید.…
خب من ویدیوهای مرتبط با wordle رو دیدم و به نظرم به ترتیبی که بهتره دیده بشن قرارش میدم(از ساده به سخت).

اول میخوام راجع به این ویدیو از جادی صحبت کنم، که توی این ویدیو جادی سعی میکنه پیدا کنه که بهترین کلمه برای شروع wordle چی میتونه باشه. ایده‌اش خیلی ساده است، دنبال کلمه‌های 5 حرفی‌ای میگرده که توی اون کلمه حرف‌های پرتکرار زیادترن. برای اینکار از کد خیلی ساده پایتون استفاده میکنه که نحوه توسعه کدش واقعا جالبه.

https://youtu.be/NQU70thNfAQ

اینم ورژن انگلیسی همون ویدیو است که تو کانال انگلیسیش گذاشته.
https://youtu.be/g33LHUzleRI

پ.ن: به نظرتون راهی که جادی پیشنهاد میکنه بهینه است؟

#video
@SingularThinker
👍3
Singular Thinker
خب من ویدیوهای مرتبط با wordle رو دیدم و به نظرم به ترتیبی که بهتره دیده بشن قرارش میدم(از ساده به سخت). اول میخوام راجع به این ویدیو از جادی صحبت کنم، که توی این ویدیو جادی سعی میکنه پیدا کنه که بهترین کلمه برای شروع wordle چی میتونه باشه. ایده‌اش خیلی…
خب حالا توی ویدیوی بعدی، سعی میکنیم بفهمیم که بعد از اینکه حدس اولمون رو زدیم چطوری میتونیم با استفاده از دونستن حروف مشخص شده یا حذف شده تعداد کلمات توی دیکشنری رو محدودترش بکنیم که برای این کار از Regex استفاده میکنه.

خب regex در واقع یه رشته‌ای از کاراکتراست که الگوی خاصی رو مشخص میکنه و کامپیوتر میفهمدش. مثلا اگه بخوای بگی برو ببین تو فلان کلمه ببین اولش با E شروع میشه، وسطش یه o داره و آخرشم k داره، میتونی regex شو بنویسی و بری بگردی تو تمام کلمات و اونایی که این طورین رو بهت برمیگردونه :) یاد گرفتن سینتکساش کار طاقت فرساییه🥴 ولی نیاز نیست ادم حفظشون کنه میتونه شروع کنه به تمرین تا کم کم یادش بگیره.

همین طور که مشخصه تو wordle که خیلی به کار میاد و البته تو کلی جای دیگه. این ویدیو آموزش جامع و کامل regex نیست ولی خب یه مثال کاربردیه برای بهتر یاد گرفتنش.

این سری به توصیه خود جادی، جفت ویدیوها رو ببینید ظاهرا چیزای یکم متفاوتی هست توی دومی😁:
https://youtu.be/Pm7baDkoeiE
https://youtu.be/ZbdTghkVM_4

#video
@SingularThinker
👍2
Singular Thinker
خب من ویدیوهای مرتبط با wordle رو دیدم و به نظرم به ترتیبی که بهتره دیده بشن قرارش میدم(از ساده به سخت). اول میخوام راجع به این ویدیو از جادی صحبت کنم، که توی این ویدیو جادی سعی میکنه پیدا کنه که بهترین کلمه برای شروع wordle چی میتونه باشه. ایده‌اش خیلی…
🪄در جواب سوال آخر پست قبلی باید بگم که بله میشه بهتر از اینا هم شروع کرد. مشکلی که روشی که جادی گفت داره در عین سادگی اینه که در سطح حروف داره به قضیه نگاه میکنه نه کلمه. مثلا "nails" و "snail" حروف یکسانی دارن ولی خب الزاما میزان تکرارشون یکسان نیست. یعنی در واقع ممکنه کلمه‌ای سرشار از حروف پرتکرار الفبایی باشه ولی خودش بسیار کم‌کاربرد باشه. خب پس چیکار کنیم؟

خب باید بریم و در سطح کلمات بررسی کنیم و ببینیم کدوم کلمه برای ما بهتره یا در واقع به طور متوسط بیشترین اطلاعات رو فاش می‌کنه، ولی چطوری باید حساب کنیم؟

اینفورمیشن تئوری (نظریه اطلاعات)، درسته! توی این ویدیو از کانال جذاب 3Blue1Brown مفهوم جالب آنتروپی رو توضیح میده به عنوان معیاری برای سنجیدن اطلاعات متوسط یک چیز (به طور دقیق‌تر یک متغییر تصادفی). ماجرای نامگذاریشم واقعا یه نبوغ دیگست از آقا فان نیومن :))

خب اینم از لینک ویدیوهاش، دومین ویدیو اصلاحیه یه اشتباه کوچیک تو ویدیو اوله:

https://youtu.be/v68zYyaEmEA
https://youtu.be/fRed0Xmc2Wg

پ.ن: فقط همون‌طوری که خودش تاکید میکنه در نهایت این چیزا یه بهونه است واسه یادگیری و مرور چیزایی که بلدیم. و قرار نیست لذت حل کردن wordle به روش خودمون رو ازمون بگیره :))
#video
@SingularThinker
👍4
تا حالا تدی‌بر شیمیست دیدی؟

🔻چند ماه گذشته، شرکت OpenAI از ورژن جدید پروژه‌ی قبلی خودش، یعنی Dall.E (ترکیب کلمات Wall.E و Dali) رسما رونمایی کرد. Dall.E در واقع یه مدل هوش مصنوعی محسوب میشه که میتونه جملاتی رو که بهش داده میشه رو به تصویر بکشه، اما نکته مهم اینه که تواناییش تو ورژن جدید واقعا کم‌نظیره.

چون خودم خیلی اطلاعات خاصی ندارم، صرفا لینک های مربوط بهش رو قرار میدم:

📎لینک خبر
📎 لینک دموی محصول خود سایت OpenAI
📎 لینک صفحه اینستاگرام


پ.ن: پیشنهاد میکنم که ویدیویی که در صفحه OpenAI گذاشتن هم ببینید.

#News
@SingularThinker
👍8
به مناسب تولد ماکس پلانک که امروزه😁
توصیه میکنم که برید و این اپیزود اول از سری مجموعه ی چهارگانه ی تکنولوژی های کوانتومی پادکست فانوس رو گوش کنید.
توش در مورد زندگی ماکس پلانک و علاقه‌اش به فیزیکدان شدن میگه و کلا در مورد این صحبت میکنه که قصه‌ی کوانتوم اصن از کجا شروع شد.
به نظر من که خیلی باحاله امیدوارم که نظر شما هم همین باشه

لینک کست باکس
#podcast
@SingularThinker
👍5
📌محفل ریاضی
یه مناسبت بزرگ‌داشت مریم میرزاخانی، ریاضی‌دان ایرانی

📎سخنرانان
👤دکتر ملیحه یوسف زاده
برنده جایزه مریم میرزاخانی و عضو هیئت علمی دانشگاه اصفهان
عنوان: من از ریاضی بیزارم

👤دکتر مجید سلامت
عضو هیئت علمی دانشگاه صنعتی اصفهان
عنوان: کامل بودن تصادفی گراف‌ها

👤دکتر امیر جعفری
عضو بنیاد مریم
عضو هیئت علمی دانشگاه صنعتی شریف
عنوان: زیباترین قضیه در ریاضیات

📆زمان: پنجشنبه ۲۲ اردیبهشت ماه ۱۴۰۱

🕓ساعت: ۱۶ تا ۱۹:۳۰

🔹مکان: اصفهان، خیابان سعادت آباد، روبه‌روی مقبره بانو امین، جنب ورزشگاه امین، خانه ریاضیات اصفهان، تالار مریم میرزاخانی

اگر امکان حضور در جلسه را نداشتید می‌توانید از طریق لینک زیر به صورت مجازی با ما همراه باشید.

🔸لینک ورود آنلاین به جلسه:
https://www.skyroom.online/ch/mathhouse/woman_math_day_01

♦️حضور در این برنامه برای عموم دانش‌جویان و علاقه‌مندان آزاد و رایگان است.
👍4
اصطلاح Common Knowledge یا همون "دانش مشترک" به نوعی از دانش گفته میشه که برای گروهی از عامل‌ها(agent) تعریف می‌کنند. این مفهوم اولین بار توسط یک فیلسوف در 1969 مطرح میشه و آقای Robert Aumman در سال 1976 با استفاده از نظریه‌ی مجموعه‌ها به زبان ریاضی صورت بندیش می‌کنه. بعدها این قضیه در علوم کامیپوتر محبوب میشه و کلی معماهای جالب‌انگیز پیرامونش بوجود میاد، که حتی توجه John Conway رو جلب کرده بود به خودش.

به طور خلاصه، یه گزاره p در گروهی از عامل‌ها دانش مشترک به حساب میاد، اگر تمامی اعضای گروه گزاره‌ی p را بدانند و هم‌چنین بدانند که بقیه ‌نیز ‌می‌دانند و هم چنین می‌دانند که بقیه ‌می‌دانند که همه‌ می‌دانند و الی آخر(تا بی‌نهایت).

این مفهوم در نظریه‌ی بازی‌ها و هم‌چنین علوم‌کامیپوتر بکار بسته میشه. در ویدیوی زیر یکی از معماهای معروف که با استفاده از "دانش مشترک" حل می‌شه، (The Blue-Eyed Islanders) رو مطرح میکنن که واقعا دیدنش جالبه.

این مثال‌های کوچیک نظریه‌‌ی بازی‌ها واقعا کمک میکنه آدم درک بهتری از جهان اطرافش پیدا بکنه و برای سرکار گذاشتن دوستان و اقوام در مهمونی‌ها هم به شدت توصیه میشه.

https://www.youtube.com/watch?v=98TQv5IAtY8

#video #Game_Theory
@Singular_Thinker
👍41
Singular Thinker
اصطلاح Common Knowledge یا همون "دانش مشترک" به نوعی از دانش گفته میشه که برای گروهی از عامل‌ها(agent) تعریف می‌کنند. این مفهوم اولین بار توسط یک فیلسوف در 1969 مطرح میشه و آقای Robert Aumman در سال 1976 با استفاده از نظریه‌ی مجموعه‌ها به زبان ریاضی صورت بندیش…
آقای Robert Aumman که در تصویر مشاهده می‌کنید سال 1930 در خانوا‌ده‌ای یهودی در شهر فرانکفورت آلمان بدنیا اومد و در 8 سالگی دو هفته قبل از "شب بلورین" یا "شب شیشه‌های شکسته" (شروع حمله‌ی نازی‌ها به یهودیان) به آمریکا سفر می‌کند. دوره‌ی لیسانس رو در رشته‌ی ریاضی در City College of New York و دوره‌ی ارشد و دکتری رو هم در رشته‌ی ریاضی در دانشگاه MIT خوندن. ایشون 91 سالشونه و زندن هنوز.

ولی پیش از اینکه به اصل قضیه بپردازیم، یه سری نکته‌های جالب‌ راجع به آقای اومن وجود داره که ایشون به شدت سعی کردند که با بهره بردن از نظریه‌ی بازی‌ها که دوراهی‌های(dilemma) موجود در تلمود(یکی از کتاب‌های یهودیت) رو تحلیل کنند و فاندهای بسیاری در این زمینه گرفتند و یا "کد انجیل/تورات" رو رمزگشایی بکنه تا وقایع تاریخی که در این کتاب نوشته‌شده رو بفهمن. کلا ادم فعالی در زمینه‌های سیاسی و مذهبی محسوب میشه و برای مثال یکی از پسراشون در جنگ لبنان کشته می‌شن.

اما من برای این‌ نکات جذب ایشون نشدم. پس چرا ایشون ادم مهمیه و جالبیه؟
چون حداقل تا جایی که من میدونم سه موضوع خیلی جذابو وارد نظریه‌ی بازی‌ها کردند.
اولیش تعریف کردن "تعادل ‌هم‌بسته" در بازی‌های غیرهمکارانه است که منعطف‌تر از تعادل نش به‌نظر می‌رسه و تو بعضی‌ از کاربردها میتونه که پیش‎‌بینی بهتری در مسائل واقعی ارائه بکنه.

هم‌چنین نخستین بار صورت‌بندی دقیقی از "common knowledge" در نظریه‌ی بازی‌ها ارائه می‌کنه(ویدیوی پست قبلی رو اگر ندیدید ببینید حتما) و بعد با استفاده از این تعریف یه قضیه‌ی جالب داره تحت عنوان "قضیه‌‌ی هم‌آوایی آومن" که در ادامه‌ به این می‌پردازیم.


این قضیه بیان می‌کند که دو عامل(agent) که به صورت معقول(rational) رفتار می‌کنند و نسبت به باورهای‌ یکدیگر Common Knowledge دارند، هرگز نمی‌توانند به توافق برسند که به توافقی نمی‌رسند(agree to disagree). به دیگر سخن، اگر 2 عامل هوشمند معقول بیزی با باورهای پیشین یکسان باشند و همچنین هر یک از آن‌ها نسبت به احتمالات پسین یکدیگر Common Knowledge داشته باشند، توضیح پسین آن‌ها یکسان خواهد شد.

نکته‌ی قابل توجه این است حتی اگر اطلاعات مشاهده‌شده توسط هر یک از عامل‌ها متفاوت باشد، این قضیه برقرار است و به توافق می‌رسند. بعدا توسط اسکات آرانسون اثبات شد که این توافق در زمان موثری قابل دستیابی است.

#bio_summary #game_theory
@Singular_Thinker
👍5
تا ما میایم یه چایی بخوریم، و قبلی رو هضمش کنیم دوستان یه مدل جدید میدن.
این بار نوبت Google Research بوده که مدلشو عرضه کنه. نظرتون چیه آیا این مدل‌ها به قدری که داره بهشون توجه میشه خفن هستن؟ مثلا باهاشون میشه انیمیشن سازی کرد یا تو فرآیند ساختش کمک گرفت؟ یا اینا هم صرفا یه سری Hype عه و نتایجی که نشون میدن فقط بخشی از واقعیته؟

مدلی که میتونه عکسای به این خوبی تولید کنه 20 میلیارد پارامتر داره. بنابراین عملا train کردنش رو فقط یه سری جاهای خاص تو دنیا از پسش برمیان. دیگه حس میکنم از دوره‌ی Deep Learning گذر میکنیم و وارد دوره‌ی Very Deep Learning میشیم و خب بیشتر فضا رو برای رقابت در پژوهش سخت میکنه. ولی آیا صرفا با عمیق تر کردن همه مشکلات حل میشه؟

مثال موفق(چپ):
"A portrait photo of a kangaroo wearing an orange hoodie and blue sunglasses standing on the grass in front of the Sydney Opera House holding a sign on the chest that says Welcome Friends!"

مثال ناموفق(راست):
A plate that has no bananas on it. there is a glass without orange juice next to it.

منبع: مدل parti
@Singular_Thinker
👍6
من امروز به این مدل Dall.E دسترسی پیدا کردم و داشتم تستش می کردم. چند تا نکته به نظرم جالب بود:

🔸 اولا با اینکه نتایجش واقعا تاثیرگذاره، ولی به اون بی نقصی ای که به نظر میومد نیست و اگه یه خورده بپیچونیش یا چیزای سخت بهش بدی تصاویر مشکل دار هم درست می کنه. در واقع اون چیزایی که تا الان به عنوان نتایج این مدل منتشر میشده یه جور نتایج گلچین شده تر و تسک های سر راست تر بودن. البته که کماکان قدرتش تو درست کردن تصاویر فوق العادست.

🔸 یه چیز جالب دیگه وقتیه که یه شخصیت واقعی رو سرچ می کنی، مدل به وضوح اون شخصیت رو با جزئیات میشناسه (حتی می تونید ببینید که فیزیک بدنی و رنگ و طرح لباس های رونالدو و مسی رو تونسته به درستی تشخیص بده)، ولی در عین حال چهره ها رو بازسازی نمی کنه. فکر نمی کنم با قدرت عجیب غریبی که Dall.E داره این یه باگ باشه و حدس می زنم OpenAI آگاهانه تلاش کرده این "فیچر" رو به مدل اضافه کنه که اگه اینجوری باشه خیلی تحسین برانگیزه.


اگر در حال حاضر به این مدل دسترسی ندارید تو کامنت ها بنویسید دیگه چه جیزی رو سرچ کنم و سعی می کنم نتیجه رو همونجا بذارم.

@Singular_Thinker
👍6