Singular Thinker – Telegram
Singular Thinker
948 subscribers
405 photos
17 videos
5 files
250 links
We talk about things that find them interesting.
توی این کانال از مطالبی که برامون جذاب باشه حرف
میزنیم، یا مطالب جذاب بقیه رو نشر می‌دیم.
Contact/راه ارتباطی:
@Singular_Thinker
Download Telegram
Forwarded from کافه ریاضی
«مریم میرزاخانی در سال اول راهنمایی در همه کلاس‌ها شاگرد اول بود، به غیر از ریاضی. در ثلث اول نمره‌اش براش راضی‌کننده نبود، سعی کرد در ثلث دوم خوب بشه که شد نمره سوم کلاس (۱۶٫۵). ورقه امتحان رو گرفت و پاره کرد و گفت من دیگه با ریاضی هیچ کاری ندارم!

۲ ماه بعد مدرسه تعطیل شد و بعد تابستون بود. ولی در سال دوم راهنمایی نه تنها ناامید نشده بود، بلکه خیلی هم در ریاضی خوب شده بود.

احتمالا چند ماه دور بودن از استرس مدرسه باعث شده بود این سد ذهنی مریم در مورد ریاضی از بین بره»

از سخنرانی دکتر رویا بهشتی زواره (استاد دانشگاه واشنگتن در سن لوئیز) در مورد مریم میرزاخانی.

لینک سخنرانی: https://www.youtube.com/watch?v=0REqECnbIH0
4
Singular Thinker
به مناسبت سالگرد درگذشت مریم میرزاخانی چندتا از مصاحبه‌ها و مستندهای در مورد زندگی مریم رو معرفی می‌کنم. ◾️ مصاحبه با گاردین در سال ۲۰۱۴( مطالعه ترجمه در تلگراف) در بخشی از این مصاحبه خبرنگار گاردین از میرزاخانی می‌پرسد که رضایت‌بخش‌ترین قسمت کار در ریاضی…
این‌ بار به مناسبت تولد مریم میرزاخانی و روز زنان در ریاضیات هم میتونید یه نگاهی به این لیست بکنید و هم این فایل بالا که روایت دست اول از طرف رویا بهشتیه رو گوش بدید. تو این فایل رویا بهشتی ماجرای نمره ناراضی کننده ریاضی راهنمایی مریم رو مجددا و به صورت کامل توضیح میده.

البته تو چنل یوتیوب پیام بالا سخنرانی دکتر امیر جعفری رو هم خواستید ببینید به نظر من جذابه.

علاوه بر این منابع بالا اگه یه زندگی‌نامه مختصر هم میخواد که فقط صوتی باشه می‌تونید به این اپیزود از پادکست رخ گوش کنید‌.

من خودم هر سال به این مناسبت چیزای جالبی میرم و گوش میکنم و واقعا آموزنده است.
#podcast
@SingularThinker
🔥4
با آرزوی سلامتی برای خرسا و گرگ‌ها و دور بودن بلا از جنگل‌های زیبای ارسباران و با تشکر‌از هلی‌کوپتر، بیایم گوش بدیم ببینیم حافظ داره با طعنه چی میگه:

دارایِ جهان نصرتِ دین خسروِ کامل
یَحییِ بنِ مُظَفَّر مَلِکِ عالمِ عادل

ای درگهِ اسلام پناهِ تو گشاده
بر رویِ زمین روزنهٔ جان و دَرِ دل

تعظیمِ تو بر جان و خِرَد واجب و لازم
اِنعام تو بر کون و مکان فایض و شامل

روزِ ازل از کِلکِ تو یک قطره سیاهی
بر رویِ مَه افتاد که شد حلِّ مسائل

خورشید چو آن خالِ سیَه دید، به دل گفت
ای کاج که من بودَمی آن هندویِ مقبل

شاها فلک از بزمِ[مرگ؟] تو در رقص و سَماع است
دستِ طَرَب از دامنِ این زمزمه مَگسِل


مِی نوش و جهان بخش که از زلفِ کمندت
شد گردنِ بدخواه گرفتار سَلاسِل

دورِ فلکی یکسَره بر مَنْهَجِ عدل است
خوش باش که ظالم نَبَرد راه به منزل

حافظ قلمِ شاه جهان مقسِمِ رزق است
از بهرِ معیشت مَکُن اندیشهٔ باطل
https://ganjoor.net/hafez/ghazal/sh304
#شعر
@SingularThinker
11👍4👎3
Just watched these memes for chillaxing after the deadline.

And I found my answer to question,
How do you feel in your life?

#Meme
@SingularThinker
نگار می‌گوید که
چیزی که همیشه وقتی در مورد هیلبرت و این هتل بینهایت فکر میکنم درگیرم میکنه اینه که چطوری اینقدر راحت از کلمه‌ی بینهایت استفاده می‌کنیم وقتی هیچ بینهایتی وجود نداره؟
خب اینجا گفتم بحث در مورد کانتور بمونه برای بعد و خب الانم نمیخوام چیزی بگم در مورد کارها و شخصیت عجیب‌غریبش ولی در عوض میخوام راجع به این جملات نگار و بی‌نهایت صحبت کنم.

قضیه اینه که تو چند ماه گذشته من روی پروژه‌ای کار میکردم که سعی‌ داشتیم برای متغییر تصادفی‌هایی که تو فضای هیلبرت هستند و یک فرآیند تصادفی رو میسازن، نابرابری‌های تمرکزی( Concentration inequality) پیدا کنیم. نابرابری تمرکزی میگه که جمع یه سری متغییر تصادفی چقدر میتونه از میانگین مقدار چشمداشتی‌شون (expected value) فاصله بگیره و برای این فاصله یه حد بالا در قالب یه نابرابری ارائه میده. البته بگم که من بیشتر داشتم کسب تجربه میکردم و مهارت خاصی تو این زمینه ندارم.

خب حالا چرا اصن میخواستیم که تو فضای هیلبرت ناتساوی داشته باشیم بخاطر اینکه برای یادگرفتن دینامیک سیستم با استفاده از داده‌های محدود نیازه که فارغ از اینکه فضای حالت اون سیستم دینامیکی‌مون چیه یه بازنمایی خوبی داشته باشیم. خب نکته اینجاست که چه بازنمایی خوب هست حالا؟ جواب اینه که چی بهتر از فضای هیلبرت که میتونه بازنمایی‌هایی با طول بی‌نهایت بهمون بده و از طرف دیگه به خاطر قضیه kernel tricks تو محاسبات ما خود بردارها که طولشون بی‌نهایت رو نیاز نداریم و فقط ضرب داخلی‌شون رو میخوایم که یه عدد حقیقیه. ازون گذشته فضای مشاهده‌پذیرها/observables هم میدونیم که هیلبرته و بنابراین میتونیم به جای اینکه فقط سیستم دینامیکی‌مون رو یاد بگیریم میتونیم یاد بگیریم که مقدار چشمداشتی هر مشاهده‌پذیر تو لحظات بعدی رو پیش‌نگری/forecast کنیم.

حالا نکته جالب اینجاست که وقتی بخوایم کواریانس رو بین دو متغییر‌ از این فرآیند تصادفی حساب کنیم دیگه با ماتریس طرف نیستیم و با عملگر مواجهیم و خب گودلاک😂
حالا در عمل اما میایم چیکار میکنیم میایم یه برآوردگر/estimator ای ازین عملگر رو استفاده می‌کنیم که یه ماتریس میشه با ابعاد n × n. خلاصه درد سرتون ندم به قول علی‌بی و یه ذره از جزئیات ماجرا میپرم چون هم با متن نمیشه گفت هم اصن چه کاریه.

تو یه مثالی خاصی میشد مستقیم خطای این برآوردی که زدیم از مقدار واقعیش رو در یک فضای متریک خاصی حساب کرد و میخواستیم این رو برحسب تعداد داده‌ای که داشتیم حساب کنیم و هی تعداد رو تغییر بدیم ببینیم چی میشه و همون طور که انتظار داریم هر چه داده بیشتر داشته باشیم تخمینمون دقیق‌تر خواهد بود پس فاصله‌ی بین این دو باید کمتر باشه ولی من هر چی حساب می‌کردم تا یه جایی فاصله داشت کم میشد و یهو ثابت میشد و بعد حتی بیشتر میشد :***).
اینجا جاییه که تو فلسفه علم میگن وقتی میبینی نتیجه آزمایش منطبق با پیش‌بینی فرضیه نیست اولین جایی که شک میکنی این نیست که فرضیه اشتباهه بلکه شک میکنی که احتمالا نحوه‌ی اجرا آزمایش هست که اشتباهه که همین طور هم بود. داستان این بود که من میخواستم جمع توان دو درایه‌های یه ماتریسی که به سایز n × n بود و n هم تعداد داده هامون رو حساب کنم و بعدش میانگیش رو بگیریم یعنی تقسیم بر n^2 کنم. حالا من بر حسب تجربه آزمایش قبلی میومدم همون اول تقسیم بر n میکردم بعد توان ۲ میرسوندم و بعد جمع میکردم و میشد اون اشتباهی که میدیدیم. بعد حالا الان کیه؟ دو روز مونده به ددلاین😂😁
هیچی دیگه چون قبلا مارگزیده بودم که درجا فهمیدم که این نکته ممکنه مربوط به این باشه و اول توان ۲ رسوندم و جمع کردم و بعد تقسیم و ماجرا حل شد.

حالا ربطش به متن کوت شده چیه؟ امروز داشتم فک میکردم که خب ببین کد اول من از نظر ریاضی و منطقی هیچ مشکلی نداشت و کاملا هم درست بود. اتفاقا یه جاهایی چون ممکنه inf بگیری روش هوشمندانه‌ای هم بود. (حواستون خیلی به این چیزا باشه خیلی میتونه باگ‌هایی ایجاد کنه که تشخیصش سخته). در واقع ماجرا این جاست که درسته که هیچ بی‌نهایتی در واقعیت وجود نداره ولی وقتی بعد یه سیستم یا تعداد متغییرهای تصادفی از یه حدی بیشتر میشه یه سری اتفاق عجیب شروع میکنه به افتادن.

مثلا تو کیس من مشکل کجا بود؟ این بود که شما وقتی n=10^4 قرار میدی باید ۱۰۰ هزار میلیارد درایه رو با هم جمع کنی و اونجاست که نیازه محاسباتت رو تا ۱۰ رقم بعد اعشار حساب کنی و گرنه کلاهت پس معرکه است‌. خلاصه یهو امروز یاد این افتادم که قدوسیان تو کلاس ریاضی ۱ میگفت هر وقت به بی‌نهایت رسیدی یه لحظه صبر کن و با تامل باهاش برخورد کن و بعدم یاد حرف نگار افتادم. یعنی چون که ما در دنیای واقعی محاسبات رو به معنایی کاملا دقیق انجام نمیدیم وقتی تعداد جمع‌ها زیاد میشه باید حواسمون به این دقت انجام محاسباتت باشه چون اعداد حقیقی میتونن تا بی‌نهایت :) ادامه دار بشن.

این آخرم یاد گذار فاز و این صحبتا افتادم که دیگه خیلی پرحرفی کردم و ارجاعتون میدم به این پادکست فانوس و صحبت‌های افشین منتخب که اون اوایل کانال راجع بهش حرف زدیم.#math
@SingularThinker
3👍2
I found the below workshop if you are interested check it out.
"Spring 2024 Mentorship Workshop - https://let-all.com/spring24.html
In Spring 2024, we will organize a mentorship workshop centered on the day-to-day life of an ML/theory researcher for Undergraduate, Masters, PhD students, and Postdocs interested in Learning Theory and adjacent fields."
#Learning_Theory
#Workshop
@SingularThinker
ECE524: Foundations of Reinforcement Learning Course
https://sites.google.com/view/cjin/teaching/ece524

Check the reference readings and related courses in the webpage.

#Course
@SingularThinker
ورکشاپ هایی که در کنفرانس های بزرگ ماشین لرنینگ برگزار میشن به نظرم به قدر کافی توجه نمیشه بهشون تو کامیونیتی ایرانی و به نظرم از چندین جنبه اهمیت دارن. یک اینکه خیلی وقتا کارهای پژوهشی که ما تو مقطع ارشد تو ایران انجام میدیم سخته که در کنفرانس های اصلی پذیرفته بشه بنابراین این ورکشاپ ها خیلی فرصت خوبیه برای اینکه اینطور پژوهش ها رو ارسال کنیم. در خیلی موارد مقاله ها محدودیت چهار صفحه ای دارن و از طرف دیگه بعضی وقتا تو proceeding های خوبی هم چاپ میشن و میتونه رزومه خوبی باشه. در کل رقابت کمتری هست با توجه به اینکه موضوع ورکشاپ ها خیلی تخصصیه.

از طرف دیگه از طریق این ورکشاپ ها میشه زمینه های داغ تحقیقاتی و سوال های باز و همچنین افراد مهم و برجسته تو هر حوزه رو شناخت و پیگیری کرد. کلا با توجه به این سرعت تغییرات و مقاله بیرون اومدن تو حوزه ماشین لرنینگ بروز موندن خیلی سخته و شاید مثلا این ورکشاپ ها کمک کننده باشه. یه مزیت دیگه هم اینه که خیلی وقتا چالش های جالبی رو این ورکشاپ ها برگزار میکنن مثلا اینکه یه دیتاستی رو در اختیار قرار میدن و تیم های مختلف میتونن با هم رقابت کنن. یا مثلا یه بخش برای بلاگ پست ها باز میکنن.

حالا چی شد که من یادم افتاد این حرفا رو بزنم. چند روز پیش داشتم میگشتم اتفاقی برای دوستم تو این ورکشاپ های ICML بعد واقعا چیزهای جالبی دیدم. اینم بگم که یه سری از این ورکشاپ ها هنوز مهلت دارن تا 30 May برای دریافت مقاله برای همین اگه کار آماده ای دارید میتونید بفرستید براشون.

در آخر اینم ورکشاپ هایی که به نظر من جالب میومد:

- Geometry-grounded Representation Learning and Generative Modeling
- Next Generation of Sequence Modelling Architectures
ICML 2024 Workshop on
Theoretical Foundations of Foundation Models

- Mechanistic Interpretability Workshop 2024
- AI for Science: Scaling in AI for Scientific Discovery
- Foundations of RL and Control
- Aligning Reinforcement Learning Experimentalists and Theorists

اگه تا اینجا اومدی اینم لیست پیپرهای اکسپت شده تو کنفرانس COLT عه که مخفف Conference on Learning Theory عه.
#research_stuff #learning_theory
@SingularThinker
👍3
RaD
L0L
My favourite alive philosopher :))))
ویدئو را دیدم و فوق‌العاده بود.[لینک]

اولین بار مهبد این رو ۲۷ دسامبر فرستاده بود و گفته بود که از دستش ندید و دوباره اتفاقی دیدم جایی لینکشو و بلاخره دیشب دیدمش و فوق‌العاده بود. جالبه وقتی داشتم میگشتم این پیامشو تو انباری‌ تلگرامم پیدا کنم دیدم اولین بار ۲۰۲۱ خودش این کانال پشم‌سوز رو معرفی کرده بود. از دیشب ولی همچنان ذهنم درگیر موضوعه هی با خودم گفتم یه کپشن یه خطی یا دو کلمه بنویس و بعد هم لینک و تمام. ازین فازا که در آن نشانه‌هایی است برای کسانی ‌که می‌اندیشند اما دیدم نمیشه.

میگم فوق‌العاده بود ولی منظورم فقط از منظر ساخت ویدئو و این‌ها نیست بلکه از منظر شخصی هم این ویدئو در راستای چندتا از پرسش‌های بزرگ و طولانی من هستش و از دیشب تا الان یاد چندین صحنه در طی سال‌های مختلف زندگی افتادم و دیدم که بد نیست که ماجراهارو بگم تا برای خودم جایی داشته باشمش. سوال‌هایی مثل اینکه اصلا اخلاق چیه و چطور پدید می‌آد؟ یا اصن به طور کلی‌تر چطور باید در زندگی تصمیم گرفت؟ خیلی وقته که گوشه‌ی ذهن من هست.

پرده اول- یادمه اولین بار تو حیاط دبیرستان بود که صحبت راسل بود و یکی از دوستام(احتمالا آریا یا حسین) که دقیق خاطرم نیست داشت نقل میکرد که راسل در جایی سعی میکنه لزوم رعایت آنچه اخلاقی می‌نامیم رو صرفا با در نظر داشتن بیشتر کردن سود شخصی بیان کنه و خب جرقه این سوال‌ها از همون جا تو ذهنم زده شد و همین طور اونجا موند.

پرده دوم- جلوتر با نگار و دوستان کتاب جهان‌بینی‌ها رو می‌خوندیم که در فصل ۲۸ دلالت‌های فلسفی مفهومی نظریه‌ی تکامل بود که بحث iterated prisoner's dilemma و ارتباطش با اخلاق مطرح شد و اونجا بود که انگار زاویه‌ای جدید روبرم باز شد. یادمه که ترم قبلش اصن نظریه‌ی بازی‌ها رو برداشته بودم و بعد خوندن و بحث در مورد این فصل انقدر هی علاقه‌مندتر شدم که ترم بعدش رفتم سر کلاسای کسری علیشاهی و حتی موضوع تز ارشدم یکم هول دادم به این سمتی کلا. کوتاه سخن این که یه بازی خیلی جالبی هست که یه آدم خیلی باحالی ساختتش. اسم بازی هست اعتماد و دیگه توضیح اضافه‌ای نمیدم.
کمتر از نیم ساعت وقتتونو میگیره ولی به نظرم خیلی جالبه نتایجش.
https://ncase.me/trust/

پرده‌ی سوم- درست یادم میاد که برای مشکلی رفته بودم بیمارستان و تو مسیر داشتم با چشمانی کمی بیرون‌زده‌تر از حالت عادی این پرونده از پادکست پرسه گوش میدادم و غرق فکر کردن بودم. انقدر روز خاصی هست برام که جزییات اون روز رو بخطار میارم حتی اینکه چه عکسایی گرفتم، به کی ویس دادم و توش چی گفتم. انقدر خوب بود که همون روز این پیام رو اینجا گذاشتم.

بریم پرده‌ی آخر؟ باید بگم که داستان من و این موضوع که فک کنم همچنان ادامه پیدا خواهد کرد و مثل دیدن این ویدئو دیر یا زود داره ولی سوخت و سوز نداره. بیشتر نیاز به فکر کردن و شنیدن دارم و شاید یه روزی اصن شد یکی از زمینه‌های کاری/پژوهشی من ولی فعلا الان وقتشه به قولی که به خودم داده بودم عمل کنم و selfish gene از داوکنیز رو که نصفه مونده کاملش کنم، میدونم فصلای آخرش راجع به این هم صحبت میکنه و باید بخونم تا ببینیم سحر چه زاید.
یه سری ارائه هم داشتم در مورد کارای Von Neumann و نظریه‌ی تصمیم و یه سری ایده‌ی خام در این موارد که ایشالا در آینده تو فرصت مناسب میگم.

خلاصه این بود دعوتی به پیگیری چندتا لینک خوب در مورد این موضوع مهم که خیلی وقتا خیلی از دوستان مغلطه‌گر سعی میکنن به این اشاره کنن که اخلاق وابسته به دین است و غیره که دونستن زاویه این وری هم میتونه دریچه جدیدی باز کنه.

هشتگ #game_theory رو بروز کردم و قبلا هم دو سه باری در مورد مثال‌های جالبی که کمتر جاهای دیگه دیده بودم حرف زدم‌، دوست داشتید اونا رو هم بررسی کنید.

#video
@SingularThinker
4👍2
Forwarded from Agora (Alireza Azadi)
اگر اهل کتابید (نه اون اهل کتاب معروف، منظورم اهل کتاب خوندنه) به‌نظرم راه انداختن اکانت goodreads و کانکت شدن با آدم‌های کتاب‌خون و یا دوست و رفیقاتون یک لطفیه در وهله‌ی اول به خودتون و بعدش به رفیقاتون. چقدر بدون مقدمه‌چینی شروع کردم! :))

گودریدز چیه؟ میشه گفت یه کامیونیتی از آدم‌هایی که کتاب‌هایی که خوندن و دارن میخونن رو اونجا میذارن. به کتاب‌ها نمره میدن، اگر حوصله داشتن باشن و در کنارش هم دستی به قلم، نقد و نظری هم براش می‌نویسن. یا کاری که خیلی به‌نظر من جذابه، اینه که که وضعیت پیشرفت کتاب‌هایی درحال مطالعه‌شون هستند رو آپدیت میکنن (این که تا کدوم صفحه پیش رفتن) و البته این که کتاب‌هایی که میخوان بخونن رو به کتاب‌خونه‌شون اضافه میکنن. یه سری چیز‌های دیگه هم داره مثل چالش مطالعه‌ی سالانه و الی آخر که خب میتونید خودتون بررسی کنید.

تمام این کار ها، از اضافه کردن کتابی به لیست «کتاب‌هایی که میخوام بخونم» تا آپدیت کردن وضعیت مطالعه، به شکل یه ایونت توی تایم‌لاین دوستاتون ثبت میشه و خب اون‌ها میتونن لایک کنن و لایک شدن چیز مهمیه! لایکی که اینقدر میتونه موثر باشه که توی بدترین روز‌هاش، منتجه به نوشتن هر مزخرفی واسه گرفتن همین «لایک» میشه و حالا این‌جا (حداقل فعلا) میشه ازش سود برد.

سود گودریدز برای من اینطوره که، اول از همه میتونم کتاب‌هایی که دوستای هم‌پیکم و کسایی که سلیقه‌شون بهم نزدیکه یا علاقه‌مندی مشترکی باهم دارن رو ببینم. چه اون‌هایی که خودشون خوندن، چه اون‌هایی که میخوان بخونن. همین باب آشنایی با کتاب‌های جالب و جدید توی حوزه‌ی مورد‌علاقه‌م رو واسم باز میکنه. کتاب‌هایی که احتمالا خودم به این زودی‌های و شاید هم هیچ‌وقت بهشون برنمی‌خوردم رو حالا دیگه این‌ها رو برای خودم لیست کردم که بهشون برگردم و بخونمشون یا اگر واقعا جالب به‌نظرم اومدن، بلافاصله شروعشون کنم.
دوم، دیدن پیش‌ رفتن بقیه‌س. همین تلاش برای عقب نیفتادن از قافله برام محرکه. این تعامل مشوقیه تا وضعیتت رو آپدیت نگه‌داری و کم کم به یک تعامل دوسویه که هر دو سر میتونن ازش سود ببرن تبدیل بشه. آدم‌ها بدون این که بخوان هم‌دیگه رو به جلو هول میدن.


اگر خواستید توی کامنت‌های این پست میتونید اکانت خودتون رو بذارید که هرکسی که مایل بود بهتون کانکت بشه.
🔥51