Singular Thinker – Telegram
Singular Thinker
948 subscribers
405 photos
17 videos
5 files
250 links
We talk about things that find them interesting.
توی این کانال از مطالبی که برامون جذاب باشه حرف
میزنیم، یا مطالب جذاب بقیه رو نشر می‌دیم.
Contact/راه ارتباطی:
@Singular_Thinker
Download Telegram
#Meme
Left: when a statistician rebrands as a data scientist.

@SingularThinker
گاهی‌ اوقات باید هیچی نگفت و رد شد.
#meme
@SingularThinker
👍3
Forwarded from کافه ریاضی
«مریم میرزاخانی در سال اول راهنمایی در همه کلاس‌ها شاگرد اول بود، به غیر از ریاضی. در ثلث اول نمره‌اش براش راضی‌کننده نبود، سعی کرد در ثلث دوم خوب بشه که شد نمره سوم کلاس (۱۶٫۵). ورقه امتحان رو گرفت و پاره کرد و گفت من دیگه با ریاضی هیچ کاری ندارم!

۲ ماه بعد مدرسه تعطیل شد و بعد تابستون بود. ولی در سال دوم راهنمایی نه تنها ناامید نشده بود، بلکه خیلی هم در ریاضی خوب شده بود.

احتمالا چند ماه دور بودن از استرس مدرسه باعث شده بود این سد ذهنی مریم در مورد ریاضی از بین بره»

از سخنرانی دکتر رویا بهشتی زواره (استاد دانشگاه واشنگتن در سن لوئیز) در مورد مریم میرزاخانی.

لینک سخنرانی: https://www.youtube.com/watch?v=0REqECnbIH0
4
Singular Thinker
به مناسبت سالگرد درگذشت مریم میرزاخانی چندتا از مصاحبه‌ها و مستندهای در مورد زندگی مریم رو معرفی می‌کنم. ◾️ مصاحبه با گاردین در سال ۲۰۱۴( مطالعه ترجمه در تلگراف) در بخشی از این مصاحبه خبرنگار گاردین از میرزاخانی می‌پرسد که رضایت‌بخش‌ترین قسمت کار در ریاضی…
این‌ بار به مناسبت تولد مریم میرزاخانی و روز زنان در ریاضیات هم میتونید یه نگاهی به این لیست بکنید و هم این فایل بالا که روایت دست اول از طرف رویا بهشتیه رو گوش بدید. تو این فایل رویا بهشتی ماجرای نمره ناراضی کننده ریاضی راهنمایی مریم رو مجددا و به صورت کامل توضیح میده.

البته تو چنل یوتیوب پیام بالا سخنرانی دکتر امیر جعفری رو هم خواستید ببینید به نظر من جذابه.

علاوه بر این منابع بالا اگه یه زندگی‌نامه مختصر هم میخواد که فقط صوتی باشه می‌تونید به این اپیزود از پادکست رخ گوش کنید‌.

من خودم هر سال به این مناسبت چیزای جالبی میرم و گوش میکنم و واقعا آموزنده است.
#podcast
@SingularThinker
🔥4
با آرزوی سلامتی برای خرسا و گرگ‌ها و دور بودن بلا از جنگل‌های زیبای ارسباران و با تشکر‌از هلی‌کوپتر، بیایم گوش بدیم ببینیم حافظ داره با طعنه چی میگه:

دارایِ جهان نصرتِ دین خسروِ کامل
یَحییِ بنِ مُظَفَّر مَلِکِ عالمِ عادل

ای درگهِ اسلام پناهِ تو گشاده
بر رویِ زمین روزنهٔ جان و دَرِ دل

تعظیمِ تو بر جان و خِرَد واجب و لازم
اِنعام تو بر کون و مکان فایض و شامل

روزِ ازل از کِلکِ تو یک قطره سیاهی
بر رویِ مَه افتاد که شد حلِّ مسائل

خورشید چو آن خالِ سیَه دید، به دل گفت
ای کاج که من بودَمی آن هندویِ مقبل

شاها فلک از بزمِ[مرگ؟] تو در رقص و سَماع است
دستِ طَرَب از دامنِ این زمزمه مَگسِل


مِی نوش و جهان بخش که از زلفِ کمندت
شد گردنِ بدخواه گرفتار سَلاسِل

دورِ فلکی یکسَره بر مَنْهَجِ عدل است
خوش باش که ظالم نَبَرد راه به منزل

حافظ قلمِ شاه جهان مقسِمِ رزق است
از بهرِ معیشت مَکُن اندیشهٔ باطل
https://ganjoor.net/hafez/ghazal/sh304
#شعر
@SingularThinker
11👍4👎3
Just watched these memes for chillaxing after the deadline.

And I found my answer to question,
How do you feel in your life?

#Meme
@SingularThinker
نگار می‌گوید که
چیزی که همیشه وقتی در مورد هیلبرت و این هتل بینهایت فکر میکنم درگیرم میکنه اینه که چطوری اینقدر راحت از کلمه‌ی بینهایت استفاده می‌کنیم وقتی هیچ بینهایتی وجود نداره؟
خب اینجا گفتم بحث در مورد کانتور بمونه برای بعد و خب الانم نمیخوام چیزی بگم در مورد کارها و شخصیت عجیب‌غریبش ولی در عوض میخوام راجع به این جملات نگار و بی‌نهایت صحبت کنم.

قضیه اینه که تو چند ماه گذشته من روی پروژه‌ای کار میکردم که سعی‌ داشتیم برای متغییر تصادفی‌هایی که تو فضای هیلبرت هستند و یک فرآیند تصادفی رو میسازن، نابرابری‌های تمرکزی( Concentration inequality) پیدا کنیم. نابرابری تمرکزی میگه که جمع یه سری متغییر تصادفی چقدر میتونه از میانگین مقدار چشمداشتی‌شون (expected value) فاصله بگیره و برای این فاصله یه حد بالا در قالب یه نابرابری ارائه میده. البته بگم که من بیشتر داشتم کسب تجربه میکردم و مهارت خاصی تو این زمینه ندارم.

خب حالا چرا اصن میخواستیم که تو فضای هیلبرت ناتساوی داشته باشیم بخاطر اینکه برای یادگرفتن دینامیک سیستم با استفاده از داده‌های محدود نیازه که فارغ از اینکه فضای حالت اون سیستم دینامیکی‌مون چیه یه بازنمایی خوبی داشته باشیم. خب نکته اینجاست که چه بازنمایی خوب هست حالا؟ جواب اینه که چی بهتر از فضای هیلبرت که میتونه بازنمایی‌هایی با طول بی‌نهایت بهمون بده و از طرف دیگه به خاطر قضیه kernel tricks تو محاسبات ما خود بردارها که طولشون بی‌نهایت رو نیاز نداریم و فقط ضرب داخلی‌شون رو میخوایم که یه عدد حقیقیه. ازون گذشته فضای مشاهده‌پذیرها/observables هم میدونیم که هیلبرته و بنابراین میتونیم به جای اینکه فقط سیستم دینامیکی‌مون رو یاد بگیریم میتونیم یاد بگیریم که مقدار چشمداشتی هر مشاهده‌پذیر تو لحظات بعدی رو پیش‌نگری/forecast کنیم.

حالا نکته جالب اینجاست که وقتی بخوایم کواریانس رو بین دو متغییر‌ از این فرآیند تصادفی حساب کنیم دیگه با ماتریس طرف نیستیم و با عملگر مواجهیم و خب گودلاک😂
حالا در عمل اما میایم چیکار میکنیم میایم یه برآوردگر/estimator ای ازین عملگر رو استفاده می‌کنیم که یه ماتریس میشه با ابعاد n × n. خلاصه درد سرتون ندم به قول علی‌بی و یه ذره از جزئیات ماجرا میپرم چون هم با متن نمیشه گفت هم اصن چه کاریه.

تو یه مثالی خاصی میشد مستقیم خطای این برآوردی که زدیم از مقدار واقعیش رو در یک فضای متریک خاصی حساب کرد و میخواستیم این رو برحسب تعداد داده‌ای که داشتیم حساب کنیم و هی تعداد رو تغییر بدیم ببینیم چی میشه و همون طور که انتظار داریم هر چه داده بیشتر داشته باشیم تخمینمون دقیق‌تر خواهد بود پس فاصله‌ی بین این دو باید کمتر باشه ولی من هر چی حساب می‌کردم تا یه جایی فاصله داشت کم میشد و یهو ثابت میشد و بعد حتی بیشتر میشد :***).
اینجا جاییه که تو فلسفه علم میگن وقتی میبینی نتیجه آزمایش منطبق با پیش‌بینی فرضیه نیست اولین جایی که شک میکنی این نیست که فرضیه اشتباهه بلکه شک میکنی که احتمالا نحوه‌ی اجرا آزمایش هست که اشتباهه که همین طور هم بود. داستان این بود که من میخواستم جمع توان دو درایه‌های یه ماتریسی که به سایز n × n بود و n هم تعداد داده هامون رو حساب کنم و بعدش میانگیش رو بگیریم یعنی تقسیم بر n^2 کنم. حالا من بر حسب تجربه آزمایش قبلی میومدم همون اول تقسیم بر n میکردم بعد توان ۲ میرسوندم و بعد جمع میکردم و میشد اون اشتباهی که میدیدیم. بعد حالا الان کیه؟ دو روز مونده به ددلاین😂😁
هیچی دیگه چون قبلا مارگزیده بودم که درجا فهمیدم که این نکته ممکنه مربوط به این باشه و اول توان ۲ رسوندم و جمع کردم و بعد تقسیم و ماجرا حل شد.

حالا ربطش به متن کوت شده چیه؟ امروز داشتم فک میکردم که خب ببین کد اول من از نظر ریاضی و منطقی هیچ مشکلی نداشت و کاملا هم درست بود. اتفاقا یه جاهایی چون ممکنه inf بگیری روش هوشمندانه‌ای هم بود. (حواستون خیلی به این چیزا باشه خیلی میتونه باگ‌هایی ایجاد کنه که تشخیصش سخته). در واقع ماجرا این جاست که درسته که هیچ بی‌نهایتی در واقعیت وجود نداره ولی وقتی بعد یه سیستم یا تعداد متغییرهای تصادفی از یه حدی بیشتر میشه یه سری اتفاق عجیب شروع میکنه به افتادن.

مثلا تو کیس من مشکل کجا بود؟ این بود که شما وقتی n=10^4 قرار میدی باید ۱۰۰ هزار میلیارد درایه رو با هم جمع کنی و اونجاست که نیازه محاسباتت رو تا ۱۰ رقم بعد اعشار حساب کنی و گرنه کلاهت پس معرکه است‌. خلاصه یهو امروز یاد این افتادم که قدوسیان تو کلاس ریاضی ۱ میگفت هر وقت به بی‌نهایت رسیدی یه لحظه صبر کن و با تامل باهاش برخورد کن و بعدم یاد حرف نگار افتادم. یعنی چون که ما در دنیای واقعی محاسبات رو به معنایی کاملا دقیق انجام نمیدیم وقتی تعداد جمع‌ها زیاد میشه باید حواسمون به این دقت انجام محاسباتت باشه چون اعداد حقیقی میتونن تا بی‌نهایت :) ادامه دار بشن.

این آخرم یاد گذار فاز و این صحبتا افتادم که دیگه خیلی پرحرفی کردم و ارجاعتون میدم به این پادکست فانوس و صحبت‌های افشین منتخب که اون اوایل کانال راجع بهش حرف زدیم.#math
@SingularThinker
3👍2
I found the below workshop if you are interested check it out.
"Spring 2024 Mentorship Workshop - https://let-all.com/spring24.html
In Spring 2024, we will organize a mentorship workshop centered on the day-to-day life of an ML/theory researcher for Undergraduate, Masters, PhD students, and Postdocs interested in Learning Theory and adjacent fields."
#Learning_Theory
#Workshop
@SingularThinker
ECE524: Foundations of Reinforcement Learning Course
https://sites.google.com/view/cjin/teaching/ece524

Check the reference readings and related courses in the webpage.

#Course
@SingularThinker
ورکشاپ هایی که در کنفرانس های بزرگ ماشین لرنینگ برگزار میشن به نظرم به قدر کافی توجه نمیشه بهشون تو کامیونیتی ایرانی و به نظرم از چندین جنبه اهمیت دارن. یک اینکه خیلی وقتا کارهای پژوهشی که ما تو مقطع ارشد تو ایران انجام میدیم سخته که در کنفرانس های اصلی پذیرفته بشه بنابراین این ورکشاپ ها خیلی فرصت خوبیه برای اینکه اینطور پژوهش ها رو ارسال کنیم. در خیلی موارد مقاله ها محدودیت چهار صفحه ای دارن و از طرف دیگه بعضی وقتا تو proceeding های خوبی هم چاپ میشن و میتونه رزومه خوبی باشه. در کل رقابت کمتری هست با توجه به اینکه موضوع ورکشاپ ها خیلی تخصصیه.

از طرف دیگه از طریق این ورکشاپ ها میشه زمینه های داغ تحقیقاتی و سوال های باز و همچنین افراد مهم و برجسته تو هر حوزه رو شناخت و پیگیری کرد. کلا با توجه به این سرعت تغییرات و مقاله بیرون اومدن تو حوزه ماشین لرنینگ بروز موندن خیلی سخته و شاید مثلا این ورکشاپ ها کمک کننده باشه. یه مزیت دیگه هم اینه که خیلی وقتا چالش های جالبی رو این ورکشاپ ها برگزار میکنن مثلا اینکه یه دیتاستی رو در اختیار قرار میدن و تیم های مختلف میتونن با هم رقابت کنن. یا مثلا یه بخش برای بلاگ پست ها باز میکنن.

حالا چی شد که من یادم افتاد این حرفا رو بزنم. چند روز پیش داشتم میگشتم اتفاقی برای دوستم تو این ورکشاپ های ICML بعد واقعا چیزهای جالبی دیدم. اینم بگم که یه سری از این ورکشاپ ها هنوز مهلت دارن تا 30 May برای دریافت مقاله برای همین اگه کار آماده ای دارید میتونید بفرستید براشون.

در آخر اینم ورکشاپ هایی که به نظر من جالب میومد:

- Geometry-grounded Representation Learning and Generative Modeling
- Next Generation of Sequence Modelling Architectures
ICML 2024 Workshop on
Theoretical Foundations of Foundation Models

- Mechanistic Interpretability Workshop 2024
- AI for Science: Scaling in AI for Scientific Discovery
- Foundations of RL and Control
- Aligning Reinforcement Learning Experimentalists and Theorists

اگه تا اینجا اومدی اینم لیست پیپرهای اکسپت شده تو کنفرانس COLT عه که مخفف Conference on Learning Theory عه.
#research_stuff #learning_theory
@SingularThinker
👍3