با آرزوی سلامتی برای خرسا و گرگها و دور بودن بلا از جنگلهای زیبای ارسباران و با تشکراز هلیکوپتر، بیایم گوش بدیم ببینیم حافظ داره با طعنه چی میگه:
دارایِ جهان نصرتِ دین خسروِ کامل
یَحییِ بنِ مُظَفَّر مَلِکِ عالمِ عادل
ای درگهِ اسلام پناهِ تو گشاده
بر رویِ زمین روزنهٔ جان و دَرِ دل
تعظیمِ تو بر جان و خِرَد واجب و لازم
اِنعام تو بر کون و مکان فایض و شامل
روزِ ازل از کِلکِ تو یک قطره سیاهی
بر رویِ مَه افتاد که شد حلِّ مسائل
خورشید چو آن خالِ سیَه دید، به دل گفت
ای کاج که من بودَمی آن هندویِ مقبل
شاها فلک از بزمِ[مرگ؟] تو در رقص و سَماع است
دستِ طَرَب از دامنِ این زمزمه مَگسِل
مِی نوش و جهان بخش که از زلفِ کمندت
شد گردنِ بدخواه گرفتار سَلاسِل
دورِ فلکی یکسَره بر مَنْهَجِ عدل است
خوش باش که ظالم نَبَرد راه به منزل
حافظ قلمِ شاه جهان مقسِمِ رزق است
از بهرِ معیشت مَکُن اندیشهٔ باطل
https://ganjoor.net/hafez/ghazal/sh304
#شعر
@SingularThinker
دارایِ جهان نصرتِ دین خسروِ کامل
یَحییِ بنِ مُظَفَّر مَلِکِ عالمِ عادل
ای درگهِ اسلام پناهِ تو گشاده
بر رویِ زمین روزنهٔ جان و دَرِ دل
تعظیمِ تو بر جان و خِرَد واجب و لازم
اِنعام تو بر کون و مکان فایض و شامل
روزِ ازل از کِلکِ تو یک قطره سیاهی
بر رویِ مَه افتاد که شد حلِّ مسائل
خورشید چو آن خالِ سیَه دید، به دل گفت
ای کاج که من بودَمی آن هندویِ مقبل
شاها فلک از بزمِ[مرگ؟] تو در رقص و سَماع است
دستِ طَرَب از دامنِ این زمزمه مَگسِل
مِی نوش و جهان بخش که از زلفِ کمندت
شد گردنِ بدخواه گرفتار سَلاسِل
دورِ فلکی یکسَره بر مَنْهَجِ عدل است
خوش باش که ظالم نَبَرد راه به منزل
حافظ قلمِ شاه جهان مقسِمِ رزق است
از بهرِ معیشت مَکُن اندیشهٔ باطل
https://ganjoor.net/hafez/ghazal/sh304
#شعر
@SingularThinker
❤11👍4👎3
Just watched these memes for chillaxing after the deadline.
And I found my answer to question,
How do you feel in your life?
#Meme
@SingularThinker
And I found my answer to question,
How do you feel in your life?
#Meme
@SingularThinker
نگار میگوید که
چیزی که همیشه وقتی در مورد هیلبرت و این هتل بینهایت فکر میکنم درگیرم میکنه اینه که چطوری اینقدر راحت از کلمهی بینهایت استفاده میکنیم وقتی هیچ بینهایتی وجود نداره؟
خب اینجا گفتم بحث در مورد کانتور بمونه برای بعد و خب الانم نمیخوام چیزی بگم در مورد کارها و شخصیت عجیبغریبش ولی در عوض میخوام راجع به این جملات نگار و بینهایت صحبت کنم.
قضیه اینه که تو چند ماه گذشته من روی پروژهای کار میکردم که سعی داشتیم برای متغییر تصادفیهایی که تو فضای هیلبرت هستند و یک فرآیند تصادفی رو میسازن، نابرابریهای تمرکزی( Concentration inequality) پیدا کنیم. نابرابری تمرکزی میگه که جمع یه سری متغییر تصادفی چقدر میتونه از میانگین مقدار چشمداشتیشون (expected value) فاصله بگیره و برای این فاصله یه حد بالا در قالب یه نابرابری ارائه میده. البته بگم که من بیشتر داشتم کسب تجربه میکردم و مهارت خاصی تو این زمینه ندارم.
خب حالا چرا اصن میخواستیم که تو فضای هیلبرت ناتساوی داشته باشیم بخاطر اینکه برای یادگرفتن دینامیک سیستم با استفاده از دادههای محدود نیازه که فارغ از اینکه فضای حالت اون سیستم دینامیکیمون چیه یه بازنمایی خوبی داشته باشیم. خب نکته اینجاست که چه بازنمایی خوب هست حالا؟ جواب اینه که چی بهتر از فضای هیلبرت که میتونه بازنماییهایی با طول بینهایت بهمون بده و از طرف دیگه به خاطر قضیه kernel tricks تو محاسبات ما خود بردارها که طولشون بینهایت رو نیاز نداریم و فقط ضرب داخلیشون رو میخوایم که یه عدد حقیقیه. ازون گذشته فضای مشاهدهپذیرها/observables هم میدونیم که هیلبرته و بنابراین میتونیم به جای اینکه فقط سیستم دینامیکیمون رو یاد بگیریم میتونیم یاد بگیریم که مقدار چشمداشتی هر مشاهدهپذیر تو لحظات بعدی رو پیشنگری/forecast کنیم.
حالا نکته جالب اینجاست که وقتی بخوایم کواریانس رو بین دو متغییر از این فرآیند تصادفی حساب کنیم دیگه با ماتریس طرف نیستیم و با عملگر مواجهیم و خب گودلاک😂
حالا در عمل اما میایم چیکار میکنیم میایم یه برآوردگر/estimator ای ازین عملگر رو استفاده میکنیم که یه ماتریس میشه با ابعاد n × n. خلاصه درد سرتون ندم به قول علیبی و یه ذره از جزئیات ماجرا میپرم چون هم با متن نمیشه گفت هم اصن چه کاریه.
تو یه مثالی خاصی میشد مستقیم خطای این برآوردی که زدیم از مقدار واقعیش رو در یک فضای متریک خاصی حساب کرد و میخواستیم این رو برحسب تعداد دادهای که داشتیم حساب کنیم و هی تعداد رو تغییر بدیم ببینیم چی میشه و همون طور که انتظار داریم هر چه داده بیشتر داشته باشیم تخمینمون دقیقتر خواهد بود پس فاصلهی بین این دو باید کمتر باشه ولی من هر چی حساب میکردم تا یه جایی فاصله داشت کم میشد و یهو ثابت میشد و بعد حتی بیشتر میشد :***).
اینجا جاییه که تو فلسفه علم میگن وقتی میبینی نتیجه آزمایش منطبق با پیشبینی فرضیه نیست اولین جایی که شک میکنی این نیست که فرضیه اشتباهه بلکه شک میکنی که احتمالا نحوهی اجرا آزمایش هست که اشتباهه که همین طور هم بود. داستان این بود که من میخواستم جمع توان دو درایههای یه ماتریسی که به سایز n × n بود و n هم تعداد داده هامون رو حساب کنم و بعدش میانگیش رو بگیریم یعنی تقسیم بر n^2 کنم. حالا من بر حسب تجربه آزمایش قبلی میومدم همون اول تقسیم بر n میکردم بعد توان ۲ میرسوندم و بعد جمع میکردم و میشد اون اشتباهی که میدیدیم. بعد حالا الان کیه؟ دو روز مونده به ددلاین😂😁
هیچی دیگه چون قبلا مارگزیده بودم که درجا فهمیدم که این نکته ممکنه مربوط به این باشه و اول توان ۲ رسوندم و جمع کردم و بعد تقسیم و ماجرا حل شد.
حالا ربطش به متن کوت شده چیه؟ امروز داشتم فک میکردم که خب ببین کد اول من از نظر ریاضی و منطقی هیچ مشکلی نداشت و کاملا هم درست بود. اتفاقا یه جاهایی چون ممکنه inf بگیری روش هوشمندانهای هم بود. (حواستون خیلی به این چیزا باشه خیلی میتونه باگهایی ایجاد کنه که تشخیصش سخته). در واقع ماجرا این جاست که درسته که هیچ بینهایتی در واقعیت وجود نداره ولی وقتی بعد یه سیستم یا تعداد متغییرهای تصادفی از یه حدی بیشتر میشه یه سری اتفاق عجیب شروع میکنه به افتادن.
مثلا تو کیس من مشکل کجا بود؟ این بود که شما وقتی n=10^4 قرار میدی باید ۱۰۰ هزار میلیارد درایه رو با هم جمع کنی و اونجاست که نیازه محاسباتت رو تا ۱۰ رقم بعد اعشار حساب کنی و گرنه کلاهت پس معرکه است. خلاصه یهو امروز یاد این افتادم که قدوسیان تو کلاس ریاضی ۱ میگفت هر وقت به بینهایت رسیدی یه لحظه صبر کن و با تامل باهاش برخورد کن و بعدم یاد حرف نگار افتادم. یعنی چون که ما در دنیای واقعی محاسبات رو به معنایی کاملا دقیق انجام نمیدیم وقتی تعداد جمعها زیاد میشه باید حواسمون به این دقت انجام محاسباتت باشه چون اعداد حقیقی میتونن تا بینهایت :) ادامه دار بشن.
این آخرم یاد گذار فاز و این صحبتا افتادم که دیگه خیلی پرحرفی کردم و ارجاعتون میدم به این پادکست فانوس و صحبتهای افشین منتخب که اون اوایل کانال راجع بهش حرف زدیم.#math
@SingularThinker
قضیه اینه که تو چند ماه گذشته من روی پروژهای کار میکردم که سعی داشتیم برای متغییر تصادفیهایی که تو فضای هیلبرت هستند و یک فرآیند تصادفی رو میسازن، نابرابریهای تمرکزی( Concentration inequality) پیدا کنیم. نابرابری تمرکزی میگه که جمع یه سری متغییر تصادفی چقدر میتونه از میانگین مقدار چشمداشتیشون (expected value) فاصله بگیره و برای این فاصله یه حد بالا در قالب یه نابرابری ارائه میده. البته بگم که من بیشتر داشتم کسب تجربه میکردم و مهارت خاصی تو این زمینه ندارم.
خب حالا چرا اصن میخواستیم که تو فضای هیلبرت ناتساوی داشته باشیم بخاطر اینکه برای یادگرفتن دینامیک سیستم با استفاده از دادههای محدود نیازه که فارغ از اینکه فضای حالت اون سیستم دینامیکیمون چیه یه بازنمایی خوبی داشته باشیم. خب نکته اینجاست که چه بازنمایی خوب هست حالا؟ جواب اینه که چی بهتر از فضای هیلبرت که میتونه بازنماییهایی با طول بینهایت بهمون بده و از طرف دیگه به خاطر قضیه kernel tricks تو محاسبات ما خود بردارها که طولشون بینهایت رو نیاز نداریم و فقط ضرب داخلیشون رو میخوایم که یه عدد حقیقیه. ازون گذشته فضای مشاهدهپذیرها/observables هم میدونیم که هیلبرته و بنابراین میتونیم به جای اینکه فقط سیستم دینامیکیمون رو یاد بگیریم میتونیم یاد بگیریم که مقدار چشمداشتی هر مشاهدهپذیر تو لحظات بعدی رو پیشنگری/forecast کنیم.
حالا نکته جالب اینجاست که وقتی بخوایم کواریانس رو بین دو متغییر از این فرآیند تصادفی حساب کنیم دیگه با ماتریس طرف نیستیم و با عملگر مواجهیم و خب گودلاک😂
حالا در عمل اما میایم چیکار میکنیم میایم یه برآوردگر/estimator ای ازین عملگر رو استفاده میکنیم که یه ماتریس میشه با ابعاد n × n. خلاصه درد سرتون ندم به قول علیبی و یه ذره از جزئیات ماجرا میپرم چون هم با متن نمیشه گفت هم اصن چه کاریه.
تو یه مثالی خاصی میشد مستقیم خطای این برآوردی که زدیم از مقدار واقعیش رو در یک فضای متریک خاصی حساب کرد و میخواستیم این رو برحسب تعداد دادهای که داشتیم حساب کنیم و هی تعداد رو تغییر بدیم ببینیم چی میشه و همون طور که انتظار داریم هر چه داده بیشتر داشته باشیم تخمینمون دقیقتر خواهد بود پس فاصلهی بین این دو باید کمتر باشه ولی من هر چی حساب میکردم تا یه جایی فاصله داشت کم میشد و یهو ثابت میشد و بعد حتی بیشتر میشد :***).
اینجا جاییه که تو فلسفه علم میگن وقتی میبینی نتیجه آزمایش منطبق با پیشبینی فرضیه نیست اولین جایی که شک میکنی این نیست که فرضیه اشتباهه بلکه شک میکنی که احتمالا نحوهی اجرا آزمایش هست که اشتباهه که همین طور هم بود. داستان این بود که من میخواستم جمع توان دو درایههای یه ماتریسی که به سایز n × n بود و n هم تعداد داده هامون رو حساب کنم و بعدش میانگیش رو بگیریم یعنی تقسیم بر n^2 کنم. حالا من بر حسب تجربه آزمایش قبلی میومدم همون اول تقسیم بر n میکردم بعد توان ۲ میرسوندم و بعد جمع میکردم و میشد اون اشتباهی که میدیدیم. بعد حالا الان کیه؟ دو روز مونده به ددلاین😂😁
هیچی دیگه چون قبلا مارگزیده بودم که درجا فهمیدم که این نکته ممکنه مربوط به این باشه و اول توان ۲ رسوندم و جمع کردم و بعد تقسیم و ماجرا حل شد.
حالا ربطش به متن کوت شده چیه؟ امروز داشتم فک میکردم که خب ببین کد اول من از نظر ریاضی و منطقی هیچ مشکلی نداشت و کاملا هم درست بود. اتفاقا یه جاهایی چون ممکنه inf بگیری روش هوشمندانهای هم بود. (حواستون خیلی به این چیزا باشه خیلی میتونه باگهایی ایجاد کنه که تشخیصش سخته). در واقع ماجرا این جاست که درسته که هیچ بینهایتی در واقعیت وجود نداره ولی وقتی بعد یه سیستم یا تعداد متغییرهای تصادفی از یه حدی بیشتر میشه یه سری اتفاق عجیب شروع میکنه به افتادن.
مثلا تو کیس من مشکل کجا بود؟ این بود که شما وقتی n=10^4 قرار میدی باید ۱۰۰ هزار میلیارد درایه رو با هم جمع کنی و اونجاست که نیازه محاسباتت رو تا ۱۰ رقم بعد اعشار حساب کنی و گرنه کلاهت پس معرکه است. خلاصه یهو امروز یاد این افتادم که قدوسیان تو کلاس ریاضی ۱ میگفت هر وقت به بینهایت رسیدی یه لحظه صبر کن و با تامل باهاش برخورد کن و بعدم یاد حرف نگار افتادم. یعنی چون که ما در دنیای واقعی محاسبات رو به معنایی کاملا دقیق انجام نمیدیم وقتی تعداد جمعها زیاد میشه باید حواسمون به این دقت انجام محاسباتت باشه چون اعداد حقیقی میتونن تا بینهایت :) ادامه دار بشن.
این آخرم یاد گذار فاز و این صحبتا افتادم که دیگه خیلی پرحرفی کردم و ارجاعتون میدم به این پادکست فانوس و صحبتهای افشین منتخب که اون اوایل کانال راجع بهش حرف زدیم.#math
@SingularThinker
Telegram
Singular Thinker
تقلیل گرایی (Reductionism) و پدیداری (Emergence) فلسفه های بسیار پرکاربردی به خصوص در موضوعاتی مثل شبکه و آگاهی (consciousness) هستند. این دو فلسفه خیلی وقت ها به عنوان دو دیدگاه متقابل دیده میشن. در این ویدئو دکتر منتخب توضیح میدن چرا Emergence و Reductionism…
❤3👍2
I found the below workshop if you are interested check it out.
"Spring 2024 Mentorship Workshop - https://let-all.com/spring24.html
In Spring 2024, we will organize a mentorship workshop centered on the day-to-day life of an ML/theory researcher for Undergraduate, Masters, PhD students, and Postdocs interested in Learning Theory and adjacent fields."
#Learning_Theory
#Workshop
@SingularThinker
"Spring 2024 Mentorship Workshop - https://let-all.com/spring24.html
In Spring 2024, we will organize a mentorship workshop centered on the day-to-day life of an ML/theory researcher for Undergraduate, Masters, PhD students, and Postdocs interested in Learning Theory and adjacent fields."
#Learning_Theory
#Workshop
@SingularThinker
ECE524: Foundations of Reinforcement Learning Course
https://sites.google.com/view/cjin/teaching/ece524
Check the reference readings and related courses in the webpage.
#Course
@SingularThinker
https://sites.google.com/view/cjin/teaching/ece524
Check the reference readings and related courses in the webpage.
#Course
@SingularThinker
Google
Chi Jin - ECE524
ECE524: Foundations of Reinforcement Learning
ورکشاپ هایی که در کنفرانس های بزرگ ماشین لرنینگ برگزار میشن به نظرم به قدر کافی توجه نمیشه بهشون تو کامیونیتی ایرانی و به نظرم از چندین جنبه اهمیت دارن. یک اینکه خیلی وقتا کارهای پژوهشی که ما تو مقطع ارشد تو ایران انجام میدیم سخته که در کنفرانس های اصلی پذیرفته بشه بنابراین این ورکشاپ ها خیلی فرصت خوبیه برای اینکه اینطور پژوهش ها رو ارسال کنیم. در خیلی موارد مقاله ها محدودیت چهار صفحه ای دارن و از طرف دیگه بعضی وقتا تو proceeding های خوبی هم چاپ میشن و میتونه رزومه خوبی باشه. در کل رقابت کمتری هست با توجه به اینکه موضوع ورکشاپ ها خیلی تخصصیه.
از طرف دیگه از طریق این ورکشاپ ها میشه زمینه های داغ تحقیقاتی و سوال های باز و همچنین افراد مهم و برجسته تو هر حوزه رو شناخت و پیگیری کرد. کلا با توجه به این سرعت تغییرات و مقاله بیرون اومدن تو حوزه ماشین لرنینگ بروز موندن خیلی سخته و شاید مثلا این ورکشاپ ها کمک کننده باشه. یه مزیت دیگه هم اینه که خیلی وقتا چالش های جالبی رو این ورکشاپ ها برگزار میکنن مثلا اینکه یه دیتاستی رو در اختیار قرار میدن و تیم های مختلف میتونن با هم رقابت کنن. یا مثلا یه بخش برای بلاگ پست ها باز میکنن.
حالا چی شد که من یادم افتاد این حرفا رو بزنم. چند روز پیش داشتم میگشتم اتفاقی برای دوستم تو این ورکشاپ های ICML بعد واقعا چیزهای جالبی دیدم. اینم بگم که یه سری از این ورکشاپ ها هنوز مهلت دارن تا 30 May برای دریافت مقاله برای همین اگه کار آماده ای دارید میتونید بفرستید براشون.
در آخر اینم ورکشاپ هایی که به نظر من جالب میومد:
- Geometry-grounded Representation Learning and Generative Modeling
- Next Generation of Sequence Modelling Architectures
ICML 2024 Workshop on
Theoretical Foundations of Foundation Models
- Mechanistic Interpretability Workshop 2024
- AI for Science: Scaling in AI for Scientific Discovery
- Foundations of RL and Control
- Aligning Reinforcement Learning Experimentalists and Theorists
اگه تا اینجا اومدی اینم لیست پیپرهای اکسپت شده تو کنفرانس COLT عه که مخفف Conference on Learning Theory عه.
#research_stuff #learning_theory
@SingularThinker
از طرف دیگه از طریق این ورکشاپ ها میشه زمینه های داغ تحقیقاتی و سوال های باز و همچنین افراد مهم و برجسته تو هر حوزه رو شناخت و پیگیری کرد. کلا با توجه به این سرعت تغییرات و مقاله بیرون اومدن تو حوزه ماشین لرنینگ بروز موندن خیلی سخته و شاید مثلا این ورکشاپ ها کمک کننده باشه. یه مزیت دیگه هم اینه که خیلی وقتا چالش های جالبی رو این ورکشاپ ها برگزار میکنن مثلا اینکه یه دیتاستی رو در اختیار قرار میدن و تیم های مختلف میتونن با هم رقابت کنن. یا مثلا یه بخش برای بلاگ پست ها باز میکنن.
حالا چی شد که من یادم افتاد این حرفا رو بزنم. چند روز پیش داشتم میگشتم اتفاقی برای دوستم تو این ورکشاپ های ICML بعد واقعا چیزهای جالبی دیدم. اینم بگم که یه سری از این ورکشاپ ها هنوز مهلت دارن تا 30 May برای دریافت مقاله برای همین اگه کار آماده ای دارید میتونید بفرستید براشون.
در آخر اینم ورکشاپ هایی که به نظر من جالب میومد:
- Geometry-grounded Representation Learning and Generative Modeling
- Next Generation of Sequence Modelling Architectures
ICML 2024 Workshop on
Theoretical Foundations of Foundation Models
- Mechanistic Interpretability Workshop 2024
- AI for Science: Scaling in AI for Scientific Discovery
- Foundations of RL and Control
- Aligning Reinforcement Learning Experimentalists and Theorists
اگه تا اینجا اومدی اینم لیست پیپرهای اکسپت شده تو کنفرانس COLT عه که مخفف Conference on Learning Theory عه.
#research_stuff #learning_theory
@SingularThinker
👍3
ویدئو را دیدم و فوقالعاده بود.[لینک]
اولین بار مهبد این رو ۲۷ دسامبر فرستاده بود و گفته بود که از دستش ندید و دوباره اتفاقی دیدم جایی لینکشو و بلاخره دیشب دیدمش و فوقالعاده بود. جالبه وقتی داشتم میگشتم این پیامشو تو انباری تلگرامم پیدا کنم دیدم اولین بار ۲۰۲۱ خودش این کانال پشمسوز رو معرفی کرده بود. از دیشب ولی همچنان ذهنم درگیر موضوعه هی با خودم گفتم یه کپشن یه خطی یا دو کلمه بنویس و بعد هم لینک و تمام. ازین فازا که در آن نشانههایی است برای کسانی که میاندیشند اما دیدم نمیشه.
میگم فوقالعاده بود ولی منظورم فقط از منظر ساخت ویدئو و اینها نیست بلکه از منظر شخصی هم این ویدئو در راستای چندتا از پرسشهای بزرگ و طولانی من هستش و از دیشب تا الان یاد چندین صحنه در طی سالهای مختلف زندگی افتادم و دیدم که بد نیست که ماجراهارو بگم تا برای خودم جایی داشته باشمش. سوالهایی مثل اینکه اصلا اخلاق چیه و چطور پدید میآد؟ یا اصن به طور کلیتر چطور باید در زندگی تصمیم گرفت؟ خیلی وقته که گوشهی ذهن من هست.
پرده اول- یادمه اولین بار تو حیاط دبیرستان بود که صحبت راسل بود و یکی از دوستام(احتمالا آریا یا حسین) که دقیق خاطرم نیست داشت نقل میکرد که راسل در جایی سعی میکنه لزوم رعایت آنچه اخلاقی مینامیم رو صرفا با در نظر داشتن بیشتر کردن سود شخصی بیان کنه و خب جرقه این سوالها از همون جا تو ذهنم زده شد و همین طور اونجا موند.
پرده دوم- جلوتر با نگار و دوستان کتاب جهانبینیها رو میخوندیم که در فصل ۲۸ دلالتهای فلسفی مفهومی نظریهی تکامل بود که بحث iterated prisoner's dilemma و ارتباطش با اخلاق مطرح شد و اونجا بود که انگار زاویهای جدید روبرم باز شد. یادمه که ترم قبلش اصن نظریهی بازیها رو برداشته بودم و بعد خوندن و بحث در مورد این فصل انقدر هی علاقهمندتر شدم که ترم بعدش رفتم سر کلاسای کسری علیشاهی و حتی موضوع تز ارشدم یکم هول دادم به این سمتی کلا. کوتاه سخن این که یه بازی خیلی جالبی هست که یه آدم خیلی باحالی ساختتش. اسم بازی هست اعتماد و دیگه توضیح اضافهای نمیدم.
کمتر از نیم ساعت وقتتونو میگیره ولی به نظرم خیلی جالبه نتایجش.
https://ncase.me/trust/
پردهی سوم- درست یادم میاد که برای مشکلی رفته بودم بیمارستان و تو مسیر داشتم با چشمانی کمی بیرونزدهتر از حالت عادی این پرونده از پادکست پرسه گوش میدادم و غرق فکر کردن بودم. انقدر روز خاصی هست برام که جزییات اون روز رو بخطار میارم حتی اینکه چه عکسایی گرفتم، به کی ویس دادم و توش چی گفتم. انقدر خوب بود که همون روز این پیام رو اینجا گذاشتم.
بریم پردهی آخر؟ باید بگم که داستان من و این موضوع که فک کنم همچنان ادامه پیدا خواهد کرد و مثل دیدن این ویدئو دیر یا زود داره ولی سوخت و سوز نداره. بیشتر نیاز به فکر کردن و شنیدن دارم و شاید یه روزی اصن شد یکی از زمینههای کاری/پژوهشی من ولی فعلا الان وقتشه به قولی که به خودم داده بودم عمل کنم و selfish gene از داوکنیز رو که نصفه مونده کاملش کنم، میدونم فصلای آخرش راجع به این هم صحبت میکنه و باید بخونم تا ببینیم سحر چه زاید.
یه سری ارائه هم داشتم در مورد کارای Von Neumann و نظریهی تصمیم و یه سری ایدهی خام در این موارد که ایشالا در آینده تو فرصت مناسب میگم.
خلاصه این بود دعوتی به پیگیری چندتا لینک خوب در مورد این موضوع مهم که خیلی وقتا خیلی از دوستان مغلطهگر سعی میکنن به این اشاره کنن که اخلاق وابسته به دین است و غیره که دونستن زاویه این وری هم میتونه دریچه جدیدی باز کنه.
هشتگ #game_theory رو بروز کردم و قبلا هم دو سه باری در مورد مثالهای جالبی که کمتر جاهای دیگه دیده بودم حرف زدم، دوست داشتید اونا رو هم بررسی کنید.
#video
@SingularThinker
اولین بار مهبد این رو ۲۷ دسامبر فرستاده بود و گفته بود که از دستش ندید و دوباره اتفاقی دیدم جایی لینکشو و بلاخره دیشب دیدمش و فوقالعاده بود. جالبه وقتی داشتم میگشتم این پیامشو تو انباری تلگرامم پیدا کنم دیدم اولین بار ۲۰۲۱ خودش این کانال پشمسوز رو معرفی کرده بود. از دیشب ولی همچنان ذهنم درگیر موضوعه هی با خودم گفتم یه کپشن یه خطی یا دو کلمه بنویس و بعد هم لینک و تمام. ازین فازا که در آن نشانههایی است برای کسانی که میاندیشند اما دیدم نمیشه.
میگم فوقالعاده بود ولی منظورم فقط از منظر ساخت ویدئو و اینها نیست بلکه از منظر شخصی هم این ویدئو در راستای چندتا از پرسشهای بزرگ و طولانی من هستش و از دیشب تا الان یاد چندین صحنه در طی سالهای مختلف زندگی افتادم و دیدم که بد نیست که ماجراهارو بگم تا برای خودم جایی داشته باشمش. سوالهایی مثل اینکه اصلا اخلاق چیه و چطور پدید میآد؟ یا اصن به طور کلیتر چطور باید در زندگی تصمیم گرفت؟ خیلی وقته که گوشهی ذهن من هست.
پرده اول- یادمه اولین بار تو حیاط دبیرستان بود که صحبت راسل بود و یکی از دوستام(احتمالا آریا یا حسین) که دقیق خاطرم نیست داشت نقل میکرد که راسل در جایی سعی میکنه لزوم رعایت آنچه اخلاقی مینامیم رو صرفا با در نظر داشتن بیشتر کردن سود شخصی بیان کنه و خب جرقه این سوالها از همون جا تو ذهنم زده شد و همین طور اونجا موند.
پرده دوم- جلوتر با نگار و دوستان کتاب جهانبینیها رو میخوندیم که در فصل ۲۸ دلالتهای فلسفی مفهومی نظریهی تکامل بود که بحث iterated prisoner's dilemma و ارتباطش با اخلاق مطرح شد و اونجا بود که انگار زاویهای جدید روبرم باز شد. یادمه که ترم قبلش اصن نظریهی بازیها رو برداشته بودم و بعد خوندن و بحث در مورد این فصل انقدر هی علاقهمندتر شدم که ترم بعدش رفتم سر کلاسای کسری علیشاهی و حتی موضوع تز ارشدم یکم هول دادم به این سمتی کلا. کوتاه سخن این که یه بازی خیلی جالبی هست که یه آدم خیلی باحالی ساختتش. اسم بازی هست اعتماد و دیگه توضیح اضافهای نمیدم.
کمتر از نیم ساعت وقتتونو میگیره ولی به نظرم خیلی جالبه نتایجش.
https://ncase.me/trust/
پردهی سوم- درست یادم میاد که برای مشکلی رفته بودم بیمارستان و تو مسیر داشتم با چشمانی کمی بیرونزدهتر از حالت عادی این پرونده از پادکست پرسه گوش میدادم و غرق فکر کردن بودم. انقدر روز خاصی هست برام که جزییات اون روز رو بخطار میارم حتی اینکه چه عکسایی گرفتم، به کی ویس دادم و توش چی گفتم. انقدر خوب بود که همون روز این پیام رو اینجا گذاشتم.
بریم پردهی آخر؟ باید بگم که داستان من و این موضوع که فک کنم همچنان ادامه پیدا خواهد کرد و مثل دیدن این ویدئو دیر یا زود داره ولی سوخت و سوز نداره. بیشتر نیاز به فکر کردن و شنیدن دارم و شاید یه روزی اصن شد یکی از زمینههای کاری/پژوهشی من ولی فعلا الان وقتشه به قولی که به خودم داده بودم عمل کنم و selfish gene از داوکنیز رو که نصفه مونده کاملش کنم، میدونم فصلای آخرش راجع به این هم صحبت میکنه و باید بخونم تا ببینیم سحر چه زاید.
یه سری ارائه هم داشتم در مورد کارای Von Neumann و نظریهی تصمیم و یه سری ایدهی خام در این موارد که ایشالا در آینده تو فرصت مناسب میگم.
خلاصه این بود دعوتی به پیگیری چندتا لینک خوب در مورد این موضوع مهم که خیلی وقتا خیلی از دوستان مغلطهگر سعی میکنن به این اشاره کنن که اخلاق وابسته به دین است و غیره که دونستن زاویه این وری هم میتونه دریچه جدیدی باز کنه.
هشتگ #game_theory رو بروز کردم و قبلا هم دو سه باری در مورد مثالهای جالبی که کمتر جاهای دیگه دیده بودم حرف زدم، دوست داشتید اونا رو هم بررسی کنید.
#video
@SingularThinker
❤4👍2
Forwarded from Agora (Alireza Azadi)
اگر اهل کتابید (نه اون اهل کتاب معروف، منظورم اهل کتاب خوندنه) بهنظرم راه انداختن اکانت goodreads و کانکت شدن با آدمهای کتابخون و یا دوست و رفیقاتون یک لطفیه در وهلهی اول به خودتون و بعدش به رفیقاتون. چقدر بدون مقدمهچینی شروع کردم! :))
گودریدز چیه؟ میشه گفت یه کامیونیتی از آدمهایی که کتابهایی که خوندن و دارن میخونن رو اونجا میذارن. به کتابها نمره میدن، اگر حوصله داشتن باشن و در کنارش هم دستی به قلم، نقد و نظری هم براش مینویسن. یا کاری که خیلی بهنظر من جذابه، اینه که که وضعیت پیشرفت کتابهایی درحال مطالعهشون هستند رو آپدیت میکنن (این که تا کدوم صفحه پیش رفتن) و البته این که کتابهایی که میخوان بخونن رو به کتابخونهشون اضافه میکنن. یه سری چیزهای دیگه هم داره مثل چالش مطالعهی سالانه و الی آخر که خب میتونید خودتون بررسی کنید.
تمام این کار ها، از اضافه کردن کتابی به لیست «کتابهایی که میخوام بخونم» تا آپدیت کردن وضعیت مطالعه، به شکل یه ایونت توی تایملاین دوستاتون ثبت میشه و خب اونها میتونن لایک کنن و لایک شدن چیز مهمیه! لایکی که اینقدر میتونه موثر باشه که توی بدترین روزهاش، منتجه به نوشتن هر مزخرفی واسه گرفتن همین «لایک» میشه و حالا اینجا (حداقل فعلا) میشه ازش سود برد.
سود گودریدز برای من اینطوره که، اول از همه میتونم کتابهایی که دوستای همپیکم و کسایی که سلیقهشون بهم نزدیکه یا علاقهمندی مشترکی باهم دارن رو ببینم. چه اونهایی که خودشون خوندن، چه اونهایی که میخوان بخونن. همین باب آشنایی با کتابهای جالب و جدید توی حوزهی موردعلاقهم رو واسم باز میکنه. کتابهایی که احتمالا خودم به این زودیهای و شاید هم هیچوقت بهشون برنمیخوردم رو حالا دیگه اینها رو برای خودم لیست کردم که بهشون برگردم و بخونمشون یا اگر واقعا جالب بهنظرم اومدن، بلافاصله شروعشون کنم.
دوم، دیدن پیش رفتن بقیهس. همین تلاش برای عقب نیفتادن از قافله برام محرکه. این تعامل مشوقیه تا وضعیتت رو آپدیت نگهداری و کم کم به یک تعامل دوسویه که هر دو سر میتونن ازش سود ببرن تبدیل بشه. آدمها بدون این که بخوان همدیگه رو به جلو هول میدن.
اگر خواستید توی کامنتهای این پست میتونید اکانت خودتون رو بذارید که هرکسی که مایل بود بهتون کانکت بشه.
گودریدز چیه؟ میشه گفت یه کامیونیتی از آدمهایی که کتابهایی که خوندن و دارن میخونن رو اونجا میذارن. به کتابها نمره میدن، اگر حوصله داشتن باشن و در کنارش هم دستی به قلم، نقد و نظری هم براش مینویسن. یا کاری که خیلی بهنظر من جذابه، اینه که که وضعیت پیشرفت کتابهایی درحال مطالعهشون هستند رو آپدیت میکنن (این که تا کدوم صفحه پیش رفتن) و البته این که کتابهایی که میخوان بخونن رو به کتابخونهشون اضافه میکنن. یه سری چیزهای دیگه هم داره مثل چالش مطالعهی سالانه و الی آخر که خب میتونید خودتون بررسی کنید.
تمام این کار ها، از اضافه کردن کتابی به لیست «کتابهایی که میخوام بخونم» تا آپدیت کردن وضعیت مطالعه، به شکل یه ایونت توی تایملاین دوستاتون ثبت میشه و خب اونها میتونن لایک کنن و لایک شدن چیز مهمیه! لایکی که اینقدر میتونه موثر باشه که توی بدترین روزهاش، منتجه به نوشتن هر مزخرفی واسه گرفتن همین «لایک» میشه و حالا اینجا (حداقل فعلا) میشه ازش سود برد.
سود گودریدز برای من اینطوره که، اول از همه میتونم کتابهایی که دوستای همپیکم و کسایی که سلیقهشون بهم نزدیکه یا علاقهمندی مشترکی باهم دارن رو ببینم. چه اونهایی که خودشون خوندن، چه اونهایی که میخوان بخونن. همین باب آشنایی با کتابهای جالب و جدید توی حوزهی موردعلاقهم رو واسم باز میکنه. کتابهایی که احتمالا خودم به این زودیهای و شاید هم هیچوقت بهشون برنمیخوردم رو حالا دیگه اینها رو برای خودم لیست کردم که بهشون برگردم و بخونمشون یا اگر واقعا جالب بهنظرم اومدن، بلافاصله شروعشون کنم.
دوم، دیدن پیش رفتن بقیهس. همین تلاش برای عقب نیفتادن از قافله برام محرکه. این تعامل مشوقیه تا وضعیتت رو آپدیت نگهداری و کم کم به یک تعامل دوسویه که هر دو سر میتونن ازش سود ببرن تبدیل بشه. آدمها بدون این که بخوان همدیگه رو به جلو هول میدن.
اگر خواستید توی کامنتهای این پست میتونید اکانت خودتون رو بذارید که هرکسی که مایل بود بهتون کانکت بشه.
Goodreads
Discover and share books you love on Goodreads, the world's largest site for readers and book recommendations!
🔥5❤1
Singular Thinker
💥Don't miss this. Have you ever thought about what exactly is the meaning of matrix? A box of numbers? Multiple column/row vectors? A way of representing linear transformation? and maybe all/none is true. But Have you ever tried to visualize a matrix…
در مورد خفن بودن آقا Steven Strogatz که واقعا حرف زیاده ولی شما برای مثال به این ۵ دیقه گوش بدید که توش به سادهترین وجه ممکن میگه که eigenvector چیه و به چه دردی میخوره.
من خیلی چند وقته به این مهارت توضیح دادن چیزها به روشهای خلاقانه و ارتباطش با عمق فهم اون ماجرا فکر میکنم. البته به نظرم ارتباط یه طرفه وجود نداره به این معنا که هر کس که عمیق فهمیده باشه بتونه ساده هم بیانش کنه ولی یه مهارت واقعا جالبیه که کسایی که خیلی عمیق فهمیدن یه مطلبو دیده میشه.
خلاصه ببینید و عشق کنید.
#video #math
@SingularThinker
من خیلی چند وقته به این مهارت توضیح دادن چیزها به روشهای خلاقانه و ارتباطش با عمق فهم اون ماجرا فکر میکنم. البته به نظرم ارتباط یه طرفه وجود نداره به این معنا که هر کس که عمیق فهمیده باشه بتونه ساده هم بیانش کنه ولی یه مهارت واقعا جالبیه که کسایی که خیلی عمیق فهمیدن یه مطلبو دیده میشه.
خلاصه ببینید و عشق کنید.
#video #math
@SingularThinker
YouTube
Steven Strogatz explains how he teaches eigenvectors and eigenvalues.
This is how a great teacher makes concepts intuitively accessible.
http://teachbetter.co/podcast.html
https://itunes.apple.com/us/podcast/the-teach-better-podcast/id965589233?mt=2
http://teachbetter.co/podcast.html
https://itunes.apple.com/us/podcast/the-teach-better-podcast/id965589233?mt=2
👍4
ترمودینامیک؛ علمی برای درک جهان و الهام گرفتن
بیاغراق هر چه بیشتر با ترمودینامیک و اثرگذاریاش در سایر علمها و دانشها، مخصوصا زمینههایی محاسباتی، ریاضی و مسائل فلسفی آشنا میشم، بیشتر شگفتزده میشم از جالب بودن و عمیق بودن این علم. متاسفانه هنوز سواد خیلی کمی در مورد ترمودینامیک دارم برخلاف اینکه از ابتدای دوره تحصیل درسهایی رو در موردش گذروندم. متاسفانه تنها چیزی که در نگاه مهندسی به ترمودینامیک مهم نبوده معنا و مفهوم بوده و صرفا محاسبه یه سری فرمول و حل مسئله اولویت بوده و تمام.
دوستهای نزدیک من میدونن که من چند ساله که میخوام یه ورکشاپی پیرامون کاربردهای ترمودینامیک در هوش مصنوعی و نظریهاطلاعات و غیره برگزار کنم که هی عقب میفته چون هر سری میبینم که چقدر عمق ماجرا زیاده و فهم من در مورد این موضوعات کم ولی همیشه به طور خاصی برام جذابه.
اولین چیزی که معمولا وقتی صحبت از ترمودینامیک و تاثیراتش به ذهن میرسه انتروپیه. که ما هم مثلا تو این پست ارجاع دادیم که چطور انتروپی میتونه توضیحدهنده و جواب بسیاری از سوالهای هر روزهی ما باشه و حتی در فهم ما از مفاهیم بنیادین مثل زمان موثر باشه.
اما فارغ از آنتروپی و استفادهها و الهام های متعددی که از این مفهوم برای انجام محاسبات در نظریهاطلاعات و مخابرات و همچنین هوش مصنوعی میشه یک مورد مرتبط دیگهای هم هست که آقای کارل فریستون، پژوهشگر معروف علوم اعصاب دانشگاه UCL اون رو سالها پیش نظریهپردازی کرده برداشت و اون چیزی نیست جز اصل انرژی آزاد/ Free Energy principle. یک یادآوری ساده اینکه free energy در ترمودینامیک میتونه خودبخودی بودن یا نبودن یک فرآیند رو مشخص کنه. پژوهشگران از اصل اشارهشده برای توضیح پدیدههای مختلفی استفاده شده (خیلی مختلف حتی در زمینه معماری) و درنهایت به عنوان یک مدل تصمیمگیری(مثلا در مسائل Bandit) در جاهای بسیار متنوعی استفاده میشه که خب واقعا صحبت در موردش وقت مناسب خودش رو میطلبه و نیاز به بررسی دقیقتری هست فقط میخواستم بگم انقدر این موضوع برای من جالب بود که سعی کردم تز کارشناسی ارشد رو به سمت استفاده از این مفهوم ببرم که واقعا جوابهای جالبی هم گرفتم ازش.
اما هدف از نوشتن این پست صحبت در مورد زمینهی دیگری که متاثر از ترمودینامیکه هست که من به واسطهی کار اخیری که انجام میدادم باهاش آشنا شدم و برای دوستام تعریف کردن و بنظرم جالب اومد که برای شما هم بگم.
میشه گفت زمینهی کلیای که به این بخش گفته میشه نظریهی ارگودیگ/ergodic theory هست که یک شاخه از ریاضیاته که به مطالعهی خاصیتهای آماری یک سیستم دینامیکی قطعی/deterministic میپردازه. در واقع سعی میکنه ببینه در طول زمان رفتار توابع مختلف از حالت/state سیستم چه خاصیتهای آماری دارن. این نظریه هم مثل خیلی چیزهای جالب دیگه در ریاضیات در اواخر دههی ۱۹۲۰ و اوایل ۱۹۳۰ توسط J. 😍Von Neumann و G.D. Birkhoff به صورت کامل ریاضیوار بیان شد اما پیشینهی این نظریه برمیگرده به کارهایی که توسط L. Boltzmann و J.W. Gibbs در اواخر قرن ۱۹ انجام شد. هدف این دو دانشمند خفن و نازنین ارائهی یک پایهی میکروسکوپیک دینامیکی برای ترمودیناک با استفاده از مکانیک آماری بود.
در نهایت مفهوم ergodicity و درهمآمیختگی*/mixing از دل این نظریه بیرون اومد که از اونها برای مدلسازی و مطالعهی فرآیندهای تصادفی و سیستمهای دینامیکی استفاده میشه. که در نتیجه با استفاده از این ابزارها میشه پدیدههای زیادی در دنیای اطراف ما رو مدل کرد و در نتیجه این مفاهیم خیلی کارآ هستن.
قطعا نمیشه تو یه متن تلگرامی نظریهای به این وسعت رو توضیح داد ولی حالا صرفا بیایم به این فک کنیم که مفهوم درهمآمیزنده/mixing چیه و چرا بهش این طور میگن و کجا میتونه به کار بیاد.
مفهوم mixing یک مفهوم انتزاعیه که اصالتا به فیزیک تعلق داره و در واقع تلاشیه برای مدلسازی فرآیندهای ترمودینامیک برگشتناپذیر درهمآمیزنده/mixing که در روزمره همه جا مشاهده میشه.
مثلا شما بارها دیدید که موقع درست کردن انواع غذا تراکم یه ماده تو یه بخشی بیشتر از جاهای دیگه است ولی به مرور زمان در هم آمیخته میشن به طوری که دیگه نمیشه جایی از غذا رو مشخص کرد که تراکم فلان ماده بیشتر از سایر جاها باشه.
برای اینکه تجسم بهتری داشته باشید به گیف پایین نگاه کنید. بقیه مطلب رو همونجا میگم.
⬇️⬇️⬇️⬇️
#Thermodynamics #note #math
@SingularThinker
بیاغراق هر چه بیشتر با ترمودینامیک و اثرگذاریاش در سایر علمها و دانشها، مخصوصا زمینههایی محاسباتی، ریاضی و مسائل فلسفی آشنا میشم، بیشتر شگفتزده میشم از جالب بودن و عمیق بودن این علم. متاسفانه هنوز سواد خیلی کمی در مورد ترمودینامیک دارم برخلاف اینکه از ابتدای دوره تحصیل درسهایی رو در موردش گذروندم. متاسفانه تنها چیزی که در نگاه مهندسی به ترمودینامیک مهم نبوده معنا و مفهوم بوده و صرفا محاسبه یه سری فرمول و حل مسئله اولویت بوده و تمام.
دوستهای نزدیک من میدونن که من چند ساله که میخوام یه ورکشاپی پیرامون کاربردهای ترمودینامیک در هوش مصنوعی و نظریهاطلاعات و غیره برگزار کنم که هی عقب میفته چون هر سری میبینم که چقدر عمق ماجرا زیاده و فهم من در مورد این موضوعات کم ولی همیشه به طور خاصی برام جذابه.
اولین چیزی که معمولا وقتی صحبت از ترمودینامیک و تاثیراتش به ذهن میرسه انتروپیه. که ما هم مثلا تو این پست ارجاع دادیم که چطور انتروپی میتونه توضیحدهنده و جواب بسیاری از سوالهای هر روزهی ما باشه و حتی در فهم ما از مفاهیم بنیادین مثل زمان موثر باشه.
اما فارغ از آنتروپی و استفادهها و الهام های متعددی که از این مفهوم برای انجام محاسبات در نظریهاطلاعات و مخابرات و همچنین هوش مصنوعی میشه یک مورد مرتبط دیگهای هم هست که آقای کارل فریستون، پژوهشگر معروف علوم اعصاب دانشگاه UCL اون رو سالها پیش نظریهپردازی کرده برداشت و اون چیزی نیست جز اصل انرژی آزاد/ Free Energy principle. یک یادآوری ساده اینکه free energy در ترمودینامیک میتونه خودبخودی بودن یا نبودن یک فرآیند رو مشخص کنه. پژوهشگران از اصل اشارهشده برای توضیح پدیدههای مختلفی استفاده شده (خیلی مختلف حتی در زمینه معماری) و درنهایت به عنوان یک مدل تصمیمگیری(مثلا در مسائل Bandit) در جاهای بسیار متنوعی استفاده میشه که خب واقعا صحبت در موردش وقت مناسب خودش رو میطلبه و نیاز به بررسی دقیقتری هست فقط میخواستم بگم انقدر این موضوع برای من جالب بود که سعی کردم تز کارشناسی ارشد رو به سمت استفاده از این مفهوم ببرم که واقعا جوابهای جالبی هم گرفتم ازش.
اما هدف از نوشتن این پست صحبت در مورد زمینهی دیگری که متاثر از ترمودینامیکه هست که من به واسطهی کار اخیری که انجام میدادم باهاش آشنا شدم و برای دوستام تعریف کردن و بنظرم جالب اومد که برای شما هم بگم.
میشه گفت زمینهی کلیای که به این بخش گفته میشه نظریهی ارگودیگ/ergodic theory هست که یک شاخه از ریاضیاته که به مطالعهی خاصیتهای آماری یک سیستم دینامیکی قطعی/deterministic میپردازه. در واقع سعی میکنه ببینه در طول زمان رفتار توابع مختلف از حالت/state سیستم چه خاصیتهای آماری دارن. این نظریه هم مثل خیلی چیزهای جالب دیگه در ریاضیات در اواخر دههی ۱۹۲۰ و اوایل ۱۹۳۰ توسط J. 😍Von Neumann و G.D. Birkhoff به صورت کامل ریاضیوار بیان شد اما پیشینهی این نظریه برمیگرده به کارهایی که توسط L. Boltzmann و J.W. Gibbs در اواخر قرن ۱۹ انجام شد. هدف این دو دانشمند خفن و نازنین ارائهی یک پایهی میکروسکوپیک دینامیکی برای ترمودیناک با استفاده از مکانیک آماری بود.
در نهایت مفهوم ergodicity و درهمآمیختگی*/mixing از دل این نظریه بیرون اومد که از اونها برای مدلسازی و مطالعهی فرآیندهای تصادفی و سیستمهای دینامیکی استفاده میشه. که در نتیجه با استفاده از این ابزارها میشه پدیدههای زیادی در دنیای اطراف ما رو مدل کرد و در نتیجه این مفاهیم خیلی کارآ هستن.
قطعا نمیشه تو یه متن تلگرامی نظریهای به این وسعت رو توضیح داد ولی حالا صرفا بیایم به این فک کنیم که مفهوم درهمآمیزنده/mixing چیه و چرا بهش این طور میگن و کجا میتونه به کار بیاد.
مفهوم mixing یک مفهوم انتزاعیه که اصالتا به فیزیک تعلق داره و در واقع تلاشیه برای مدلسازی فرآیندهای ترمودینامیک برگشتناپذیر درهمآمیزنده/mixing که در روزمره همه جا مشاهده میشه.
مثلا شما بارها دیدید که موقع درست کردن انواع غذا تراکم یه ماده تو یه بخشی بیشتر از جاهای دیگه است ولی به مرور زمان در هم آمیخته میشن به طوری که دیگه نمیشه جایی از غذا رو مشخص کرد که تراکم فلان ماده بیشتر از سایر جاها باشه.
برای اینکه تجسم بهتری داشته باشید به گیف پایین نگاه کنید. بقیه مطلب رو همونجا میگم.
⬇️⬇️⬇️⬇️
#Thermodynamics #note #math
@SingularThinker
🔥4👍1