Forwarded from کافه ریاضی
«مریم میرزاخانی در سال اول راهنمایی در همه کلاسها شاگرد اول بود، به غیر از ریاضی. در ثلث اول نمرهاش براش راضیکننده نبود، سعی کرد در ثلث دوم خوب بشه که شد نمره سوم کلاس (۱۶٫۵). ورقه امتحان رو گرفت و پاره کرد و گفت من دیگه با ریاضی هیچ کاری ندارم!
۲ ماه بعد مدرسه تعطیل شد و بعد تابستون بود. ولی در سال دوم راهنمایی نه تنها ناامید نشده بود، بلکه خیلی هم در ریاضی خوب شده بود.
احتمالا چند ماه دور بودن از استرس مدرسه باعث شده بود این سد ذهنی مریم در مورد ریاضی از بین بره»
از سخنرانی دکتر رویا بهشتی زواره (استاد دانشگاه واشنگتن در سن لوئیز) در مورد مریم میرزاخانی.
لینک سخنرانی: https://www.youtube.com/watch?v=0REqECnbIH0
۲ ماه بعد مدرسه تعطیل شد و بعد تابستون بود. ولی در سال دوم راهنمایی نه تنها ناامید نشده بود، بلکه خیلی هم در ریاضی خوب شده بود.
احتمالا چند ماه دور بودن از استرس مدرسه باعث شده بود این سد ذهنی مریم در مورد ریاضی از بین بره»
از سخنرانی دکتر رویا بهشتی زواره (استاد دانشگاه واشنگتن در سن لوئیز) در مورد مریم میرزاخانی.
لینک سخنرانی: https://www.youtube.com/watch?v=0REqECnbIH0
YouTube
وبینار «مریم، مدرسه و خاطرهها» - بنیاد مریم میرزاخانی
سخنران: دکتر رویا بهشتی زواره (استاد دانشگاه واشینگتن در سن لوئیز)
تاریخ: ۲۲ اردیبهشت ۱۴۰۰
http://www.mmirzakhani.org/fa/edu/lecture/class.php?id=458
تاریخ: ۲۲ اردیبهشت ۱۴۰۰
http://www.mmirzakhani.org/fa/edu/lecture/class.php?id=458
❤4
Singular Thinker
به مناسبت سالگرد درگذشت مریم میرزاخانی چندتا از مصاحبهها و مستندهای در مورد زندگی مریم رو معرفی میکنم. ◾️ مصاحبه با گاردین در سال ۲۰۱۴( مطالعه ترجمه در تلگراف) در بخشی از این مصاحبه خبرنگار گاردین از میرزاخانی میپرسد که رضایتبخشترین قسمت کار در ریاضی…
این بار به مناسبت تولد مریم میرزاخانی و روز زنان در ریاضیات هم میتونید یه نگاهی به این لیست بکنید و هم این فایل بالا که روایت دست اول از طرف رویا بهشتیه رو گوش بدید. تو این فایل رویا بهشتی ماجرای نمره ناراضی کننده ریاضی راهنمایی مریم رو مجددا و به صورت کامل توضیح میده.
البته تو چنل یوتیوب پیام بالا سخنرانی دکتر امیر جعفری رو هم خواستید ببینید به نظر من جذابه.
علاوه بر این منابع بالا اگه یه زندگینامه مختصر هم میخواد که فقط صوتی باشه میتونید به این اپیزود از پادکست رخ گوش کنید.
من خودم هر سال به این مناسبت چیزای جالبی میرم و گوش میکنم و واقعا آموزنده است.
#podcast
@SingularThinker
البته تو چنل یوتیوب پیام بالا سخنرانی دکتر امیر جعفری رو هم خواستید ببینید به نظر من جذابه.
علاوه بر این منابع بالا اگه یه زندگینامه مختصر هم میخواد که فقط صوتی باشه میتونید به این اپیزود از پادکست رخ گوش کنید.
من خودم هر سال به این مناسبت چیزای جالبی میرم و گوش میکنم و واقعا آموزنده است.
#podcast
@SingularThinker
d.castbox.fm
Best free podcast app for Apple iOS and Android | Let words move you
Millions of podcasts for all topics. Listen to the best free podcast on Android, Apple iOS, Amazon Alexa, Google Home, Carplay, Android Auto, PC. Create...
🔥4
با آرزوی سلامتی برای خرسا و گرگها و دور بودن بلا از جنگلهای زیبای ارسباران و با تشکراز هلیکوپتر، بیایم گوش بدیم ببینیم حافظ داره با طعنه چی میگه:
دارایِ جهان نصرتِ دین خسروِ کامل
یَحییِ بنِ مُظَفَّر مَلِکِ عالمِ عادل
ای درگهِ اسلام پناهِ تو گشاده
بر رویِ زمین روزنهٔ جان و دَرِ دل
تعظیمِ تو بر جان و خِرَد واجب و لازم
اِنعام تو بر کون و مکان فایض و شامل
روزِ ازل از کِلکِ تو یک قطره سیاهی
بر رویِ مَه افتاد که شد حلِّ مسائل
خورشید چو آن خالِ سیَه دید، به دل گفت
ای کاج که من بودَمی آن هندویِ مقبل
شاها فلک از بزمِ[مرگ؟] تو در رقص و سَماع است
دستِ طَرَب از دامنِ این زمزمه مَگسِل
مِی نوش و جهان بخش که از زلفِ کمندت
شد گردنِ بدخواه گرفتار سَلاسِل
دورِ فلکی یکسَره بر مَنْهَجِ عدل است
خوش باش که ظالم نَبَرد راه به منزل
حافظ قلمِ شاه جهان مقسِمِ رزق است
از بهرِ معیشت مَکُن اندیشهٔ باطل
https://ganjoor.net/hafez/ghazal/sh304
#شعر
@SingularThinker
دارایِ جهان نصرتِ دین خسروِ کامل
یَحییِ بنِ مُظَفَّر مَلِکِ عالمِ عادل
ای درگهِ اسلام پناهِ تو گشاده
بر رویِ زمین روزنهٔ جان و دَرِ دل
تعظیمِ تو بر جان و خِرَد واجب و لازم
اِنعام تو بر کون و مکان فایض و شامل
روزِ ازل از کِلکِ تو یک قطره سیاهی
بر رویِ مَه افتاد که شد حلِّ مسائل
خورشید چو آن خالِ سیَه دید، به دل گفت
ای کاج که من بودَمی آن هندویِ مقبل
شاها فلک از بزمِ[مرگ؟] تو در رقص و سَماع است
دستِ طَرَب از دامنِ این زمزمه مَگسِل
مِی نوش و جهان بخش که از زلفِ کمندت
شد گردنِ بدخواه گرفتار سَلاسِل
دورِ فلکی یکسَره بر مَنْهَجِ عدل است
خوش باش که ظالم نَبَرد راه به منزل
حافظ قلمِ شاه جهان مقسِمِ رزق است
از بهرِ معیشت مَکُن اندیشهٔ باطل
https://ganjoor.net/hafez/ghazal/sh304
#شعر
@SingularThinker
❤11👍4👎3
Just watched these memes for chillaxing after the deadline.
And I found my answer to question,
How do you feel in your life?
#Meme
@SingularThinker
And I found my answer to question,
How do you feel in your life?
#Meme
@SingularThinker
نگار میگوید که
چیزی که همیشه وقتی در مورد هیلبرت و این هتل بینهایت فکر میکنم درگیرم میکنه اینه که چطوری اینقدر راحت از کلمهی بینهایت استفاده میکنیم وقتی هیچ بینهایتی وجود نداره؟
خب اینجا گفتم بحث در مورد کانتور بمونه برای بعد و خب الانم نمیخوام چیزی بگم در مورد کارها و شخصیت عجیبغریبش ولی در عوض میخوام راجع به این جملات نگار و بینهایت صحبت کنم.
قضیه اینه که تو چند ماه گذشته من روی پروژهای کار میکردم که سعی داشتیم برای متغییر تصادفیهایی که تو فضای هیلبرت هستند و یک فرآیند تصادفی رو میسازن، نابرابریهای تمرکزی( Concentration inequality) پیدا کنیم. نابرابری تمرکزی میگه که جمع یه سری متغییر تصادفی چقدر میتونه از میانگین مقدار چشمداشتیشون (expected value) فاصله بگیره و برای این فاصله یه حد بالا در قالب یه نابرابری ارائه میده. البته بگم که من بیشتر داشتم کسب تجربه میکردم و مهارت خاصی تو این زمینه ندارم.
خب حالا چرا اصن میخواستیم که تو فضای هیلبرت ناتساوی داشته باشیم بخاطر اینکه برای یادگرفتن دینامیک سیستم با استفاده از دادههای محدود نیازه که فارغ از اینکه فضای حالت اون سیستم دینامیکیمون چیه یه بازنمایی خوبی داشته باشیم. خب نکته اینجاست که چه بازنمایی خوب هست حالا؟ جواب اینه که چی بهتر از فضای هیلبرت که میتونه بازنماییهایی با طول بینهایت بهمون بده و از طرف دیگه به خاطر قضیه kernel tricks تو محاسبات ما خود بردارها که طولشون بینهایت رو نیاز نداریم و فقط ضرب داخلیشون رو میخوایم که یه عدد حقیقیه. ازون گذشته فضای مشاهدهپذیرها/observables هم میدونیم که هیلبرته و بنابراین میتونیم به جای اینکه فقط سیستم دینامیکیمون رو یاد بگیریم میتونیم یاد بگیریم که مقدار چشمداشتی هر مشاهدهپذیر تو لحظات بعدی رو پیشنگری/forecast کنیم.
حالا نکته جالب اینجاست که وقتی بخوایم کواریانس رو بین دو متغییر از این فرآیند تصادفی حساب کنیم دیگه با ماتریس طرف نیستیم و با عملگر مواجهیم و خب گودلاک😂
حالا در عمل اما میایم چیکار میکنیم میایم یه برآوردگر/estimator ای ازین عملگر رو استفاده میکنیم که یه ماتریس میشه با ابعاد n × n. خلاصه درد سرتون ندم به قول علیبی و یه ذره از جزئیات ماجرا میپرم چون هم با متن نمیشه گفت هم اصن چه کاریه.
تو یه مثالی خاصی میشد مستقیم خطای این برآوردی که زدیم از مقدار واقعیش رو در یک فضای متریک خاصی حساب کرد و میخواستیم این رو برحسب تعداد دادهای که داشتیم حساب کنیم و هی تعداد رو تغییر بدیم ببینیم چی میشه و همون طور که انتظار داریم هر چه داده بیشتر داشته باشیم تخمینمون دقیقتر خواهد بود پس فاصلهی بین این دو باید کمتر باشه ولی من هر چی حساب میکردم تا یه جایی فاصله داشت کم میشد و یهو ثابت میشد و بعد حتی بیشتر میشد :***).
اینجا جاییه که تو فلسفه علم میگن وقتی میبینی نتیجه آزمایش منطبق با پیشبینی فرضیه نیست اولین جایی که شک میکنی این نیست که فرضیه اشتباهه بلکه شک میکنی که احتمالا نحوهی اجرا آزمایش هست که اشتباهه که همین طور هم بود. داستان این بود که من میخواستم جمع توان دو درایههای یه ماتریسی که به سایز n × n بود و n هم تعداد داده هامون رو حساب کنم و بعدش میانگیش رو بگیریم یعنی تقسیم بر n^2 کنم. حالا من بر حسب تجربه آزمایش قبلی میومدم همون اول تقسیم بر n میکردم بعد توان ۲ میرسوندم و بعد جمع میکردم و میشد اون اشتباهی که میدیدیم. بعد حالا الان کیه؟ دو روز مونده به ددلاین😂😁
هیچی دیگه چون قبلا مارگزیده بودم که درجا فهمیدم که این نکته ممکنه مربوط به این باشه و اول توان ۲ رسوندم و جمع کردم و بعد تقسیم و ماجرا حل شد.
حالا ربطش به متن کوت شده چیه؟ امروز داشتم فک میکردم که خب ببین کد اول من از نظر ریاضی و منطقی هیچ مشکلی نداشت و کاملا هم درست بود. اتفاقا یه جاهایی چون ممکنه inf بگیری روش هوشمندانهای هم بود. (حواستون خیلی به این چیزا باشه خیلی میتونه باگهایی ایجاد کنه که تشخیصش سخته). در واقع ماجرا این جاست که درسته که هیچ بینهایتی در واقعیت وجود نداره ولی وقتی بعد یه سیستم یا تعداد متغییرهای تصادفی از یه حدی بیشتر میشه یه سری اتفاق عجیب شروع میکنه به افتادن.
مثلا تو کیس من مشکل کجا بود؟ این بود که شما وقتی n=10^4 قرار میدی باید ۱۰۰ هزار میلیارد درایه رو با هم جمع کنی و اونجاست که نیازه محاسباتت رو تا ۱۰ رقم بعد اعشار حساب کنی و گرنه کلاهت پس معرکه است. خلاصه یهو امروز یاد این افتادم که قدوسیان تو کلاس ریاضی ۱ میگفت هر وقت به بینهایت رسیدی یه لحظه صبر کن و با تامل باهاش برخورد کن و بعدم یاد حرف نگار افتادم. یعنی چون که ما در دنیای واقعی محاسبات رو به معنایی کاملا دقیق انجام نمیدیم وقتی تعداد جمعها زیاد میشه باید حواسمون به این دقت انجام محاسباتت باشه چون اعداد حقیقی میتونن تا بینهایت :) ادامه دار بشن.
این آخرم یاد گذار فاز و این صحبتا افتادم که دیگه خیلی پرحرفی کردم و ارجاعتون میدم به این پادکست فانوس و صحبتهای افشین منتخب که اون اوایل کانال راجع بهش حرف زدیم.#math
@SingularThinker
قضیه اینه که تو چند ماه گذشته من روی پروژهای کار میکردم که سعی داشتیم برای متغییر تصادفیهایی که تو فضای هیلبرت هستند و یک فرآیند تصادفی رو میسازن، نابرابریهای تمرکزی( Concentration inequality) پیدا کنیم. نابرابری تمرکزی میگه که جمع یه سری متغییر تصادفی چقدر میتونه از میانگین مقدار چشمداشتیشون (expected value) فاصله بگیره و برای این فاصله یه حد بالا در قالب یه نابرابری ارائه میده. البته بگم که من بیشتر داشتم کسب تجربه میکردم و مهارت خاصی تو این زمینه ندارم.
خب حالا چرا اصن میخواستیم که تو فضای هیلبرت ناتساوی داشته باشیم بخاطر اینکه برای یادگرفتن دینامیک سیستم با استفاده از دادههای محدود نیازه که فارغ از اینکه فضای حالت اون سیستم دینامیکیمون چیه یه بازنمایی خوبی داشته باشیم. خب نکته اینجاست که چه بازنمایی خوب هست حالا؟ جواب اینه که چی بهتر از فضای هیلبرت که میتونه بازنماییهایی با طول بینهایت بهمون بده و از طرف دیگه به خاطر قضیه kernel tricks تو محاسبات ما خود بردارها که طولشون بینهایت رو نیاز نداریم و فقط ضرب داخلیشون رو میخوایم که یه عدد حقیقیه. ازون گذشته فضای مشاهدهپذیرها/observables هم میدونیم که هیلبرته و بنابراین میتونیم به جای اینکه فقط سیستم دینامیکیمون رو یاد بگیریم میتونیم یاد بگیریم که مقدار چشمداشتی هر مشاهدهپذیر تو لحظات بعدی رو پیشنگری/forecast کنیم.
حالا نکته جالب اینجاست که وقتی بخوایم کواریانس رو بین دو متغییر از این فرآیند تصادفی حساب کنیم دیگه با ماتریس طرف نیستیم و با عملگر مواجهیم و خب گودلاک😂
حالا در عمل اما میایم چیکار میکنیم میایم یه برآوردگر/estimator ای ازین عملگر رو استفاده میکنیم که یه ماتریس میشه با ابعاد n × n. خلاصه درد سرتون ندم به قول علیبی و یه ذره از جزئیات ماجرا میپرم چون هم با متن نمیشه گفت هم اصن چه کاریه.
تو یه مثالی خاصی میشد مستقیم خطای این برآوردی که زدیم از مقدار واقعیش رو در یک فضای متریک خاصی حساب کرد و میخواستیم این رو برحسب تعداد دادهای که داشتیم حساب کنیم و هی تعداد رو تغییر بدیم ببینیم چی میشه و همون طور که انتظار داریم هر چه داده بیشتر داشته باشیم تخمینمون دقیقتر خواهد بود پس فاصلهی بین این دو باید کمتر باشه ولی من هر چی حساب میکردم تا یه جایی فاصله داشت کم میشد و یهو ثابت میشد و بعد حتی بیشتر میشد :***).
اینجا جاییه که تو فلسفه علم میگن وقتی میبینی نتیجه آزمایش منطبق با پیشبینی فرضیه نیست اولین جایی که شک میکنی این نیست که فرضیه اشتباهه بلکه شک میکنی که احتمالا نحوهی اجرا آزمایش هست که اشتباهه که همین طور هم بود. داستان این بود که من میخواستم جمع توان دو درایههای یه ماتریسی که به سایز n × n بود و n هم تعداد داده هامون رو حساب کنم و بعدش میانگیش رو بگیریم یعنی تقسیم بر n^2 کنم. حالا من بر حسب تجربه آزمایش قبلی میومدم همون اول تقسیم بر n میکردم بعد توان ۲ میرسوندم و بعد جمع میکردم و میشد اون اشتباهی که میدیدیم. بعد حالا الان کیه؟ دو روز مونده به ددلاین😂😁
هیچی دیگه چون قبلا مارگزیده بودم که درجا فهمیدم که این نکته ممکنه مربوط به این باشه و اول توان ۲ رسوندم و جمع کردم و بعد تقسیم و ماجرا حل شد.
حالا ربطش به متن کوت شده چیه؟ امروز داشتم فک میکردم که خب ببین کد اول من از نظر ریاضی و منطقی هیچ مشکلی نداشت و کاملا هم درست بود. اتفاقا یه جاهایی چون ممکنه inf بگیری روش هوشمندانهای هم بود. (حواستون خیلی به این چیزا باشه خیلی میتونه باگهایی ایجاد کنه که تشخیصش سخته). در واقع ماجرا این جاست که درسته که هیچ بینهایتی در واقعیت وجود نداره ولی وقتی بعد یه سیستم یا تعداد متغییرهای تصادفی از یه حدی بیشتر میشه یه سری اتفاق عجیب شروع میکنه به افتادن.
مثلا تو کیس من مشکل کجا بود؟ این بود که شما وقتی n=10^4 قرار میدی باید ۱۰۰ هزار میلیارد درایه رو با هم جمع کنی و اونجاست که نیازه محاسباتت رو تا ۱۰ رقم بعد اعشار حساب کنی و گرنه کلاهت پس معرکه است. خلاصه یهو امروز یاد این افتادم که قدوسیان تو کلاس ریاضی ۱ میگفت هر وقت به بینهایت رسیدی یه لحظه صبر کن و با تامل باهاش برخورد کن و بعدم یاد حرف نگار افتادم. یعنی چون که ما در دنیای واقعی محاسبات رو به معنایی کاملا دقیق انجام نمیدیم وقتی تعداد جمعها زیاد میشه باید حواسمون به این دقت انجام محاسباتت باشه چون اعداد حقیقی میتونن تا بینهایت :) ادامه دار بشن.
این آخرم یاد گذار فاز و این صحبتا افتادم که دیگه خیلی پرحرفی کردم و ارجاعتون میدم به این پادکست فانوس و صحبتهای افشین منتخب که اون اوایل کانال راجع بهش حرف زدیم.#math
@SingularThinker
Telegram
Singular Thinker
تقلیل گرایی (Reductionism) و پدیداری (Emergence) فلسفه های بسیار پرکاربردی به خصوص در موضوعاتی مثل شبکه و آگاهی (consciousness) هستند. این دو فلسفه خیلی وقت ها به عنوان دو دیدگاه متقابل دیده میشن. در این ویدئو دکتر منتخب توضیح میدن چرا Emergence و Reductionism…
❤3👍2
I found the below workshop if you are interested check it out.
"Spring 2024 Mentorship Workshop - https://let-all.com/spring24.html
In Spring 2024, we will organize a mentorship workshop centered on the day-to-day life of an ML/theory researcher for Undergraduate, Masters, PhD students, and Postdocs interested in Learning Theory and adjacent fields."
#Learning_Theory
#Workshop
@SingularThinker
"Spring 2024 Mentorship Workshop - https://let-all.com/spring24.html
In Spring 2024, we will organize a mentorship workshop centered on the day-to-day life of an ML/theory researcher for Undergraduate, Masters, PhD students, and Postdocs interested in Learning Theory and adjacent fields."
#Learning_Theory
#Workshop
@SingularThinker
ECE524: Foundations of Reinforcement Learning Course
https://sites.google.com/view/cjin/teaching/ece524
Check the reference readings and related courses in the webpage.
#Course
@SingularThinker
https://sites.google.com/view/cjin/teaching/ece524
Check the reference readings and related courses in the webpage.
#Course
@SingularThinker
Google
Chi Jin - ECE524
ECE524: Foundations of Reinforcement Learning
ورکشاپ هایی که در کنفرانس های بزرگ ماشین لرنینگ برگزار میشن به نظرم به قدر کافی توجه نمیشه بهشون تو کامیونیتی ایرانی و به نظرم از چندین جنبه اهمیت دارن. یک اینکه خیلی وقتا کارهای پژوهشی که ما تو مقطع ارشد تو ایران انجام میدیم سخته که در کنفرانس های اصلی پذیرفته بشه بنابراین این ورکشاپ ها خیلی فرصت خوبیه برای اینکه اینطور پژوهش ها رو ارسال کنیم. در خیلی موارد مقاله ها محدودیت چهار صفحه ای دارن و از طرف دیگه بعضی وقتا تو proceeding های خوبی هم چاپ میشن و میتونه رزومه خوبی باشه. در کل رقابت کمتری هست با توجه به اینکه موضوع ورکشاپ ها خیلی تخصصیه.
از طرف دیگه از طریق این ورکشاپ ها میشه زمینه های داغ تحقیقاتی و سوال های باز و همچنین افراد مهم و برجسته تو هر حوزه رو شناخت و پیگیری کرد. کلا با توجه به این سرعت تغییرات و مقاله بیرون اومدن تو حوزه ماشین لرنینگ بروز موندن خیلی سخته و شاید مثلا این ورکشاپ ها کمک کننده باشه. یه مزیت دیگه هم اینه که خیلی وقتا چالش های جالبی رو این ورکشاپ ها برگزار میکنن مثلا اینکه یه دیتاستی رو در اختیار قرار میدن و تیم های مختلف میتونن با هم رقابت کنن. یا مثلا یه بخش برای بلاگ پست ها باز میکنن.
حالا چی شد که من یادم افتاد این حرفا رو بزنم. چند روز پیش داشتم میگشتم اتفاقی برای دوستم تو این ورکشاپ های ICML بعد واقعا چیزهای جالبی دیدم. اینم بگم که یه سری از این ورکشاپ ها هنوز مهلت دارن تا 30 May برای دریافت مقاله برای همین اگه کار آماده ای دارید میتونید بفرستید براشون.
در آخر اینم ورکشاپ هایی که به نظر من جالب میومد:
- Geometry-grounded Representation Learning and Generative Modeling
- Next Generation of Sequence Modelling Architectures
ICML 2024 Workshop on
Theoretical Foundations of Foundation Models
- Mechanistic Interpretability Workshop 2024
- AI for Science: Scaling in AI for Scientific Discovery
- Foundations of RL and Control
- Aligning Reinforcement Learning Experimentalists and Theorists
اگه تا اینجا اومدی اینم لیست پیپرهای اکسپت شده تو کنفرانس COLT عه که مخفف Conference on Learning Theory عه.
#research_stuff #learning_theory
@SingularThinker
از طرف دیگه از طریق این ورکشاپ ها میشه زمینه های داغ تحقیقاتی و سوال های باز و همچنین افراد مهم و برجسته تو هر حوزه رو شناخت و پیگیری کرد. کلا با توجه به این سرعت تغییرات و مقاله بیرون اومدن تو حوزه ماشین لرنینگ بروز موندن خیلی سخته و شاید مثلا این ورکشاپ ها کمک کننده باشه. یه مزیت دیگه هم اینه که خیلی وقتا چالش های جالبی رو این ورکشاپ ها برگزار میکنن مثلا اینکه یه دیتاستی رو در اختیار قرار میدن و تیم های مختلف میتونن با هم رقابت کنن. یا مثلا یه بخش برای بلاگ پست ها باز میکنن.
حالا چی شد که من یادم افتاد این حرفا رو بزنم. چند روز پیش داشتم میگشتم اتفاقی برای دوستم تو این ورکشاپ های ICML بعد واقعا چیزهای جالبی دیدم. اینم بگم که یه سری از این ورکشاپ ها هنوز مهلت دارن تا 30 May برای دریافت مقاله برای همین اگه کار آماده ای دارید میتونید بفرستید براشون.
در آخر اینم ورکشاپ هایی که به نظر من جالب میومد:
- Geometry-grounded Representation Learning and Generative Modeling
- Next Generation of Sequence Modelling Architectures
ICML 2024 Workshop on
Theoretical Foundations of Foundation Models
- Mechanistic Interpretability Workshop 2024
- AI for Science: Scaling in AI for Scientific Discovery
- Foundations of RL and Control
- Aligning Reinforcement Learning Experimentalists and Theorists
اگه تا اینجا اومدی اینم لیست پیپرهای اکسپت شده تو کنفرانس COLT عه که مخفف Conference on Learning Theory عه.
#research_stuff #learning_theory
@SingularThinker
👍3