Mathematical Musings – Telegram
Mathematical Musings
3.02K subscribers
1.38K photos
91 videos
151 files
678 links
Nature is written in mathematical language.
Download Telegram
جناب تائو می گه مهمترین مزیت AI در ریاضیات مربوط به حل مسائل خیلی سخت نیست، بلکه استفاده از اون ها در حل مسائل زمان بر هست. می گه در این حالت خروجی یه AI همون چیزیه که یه انسان هم می تونه انجام بده ولی با صرف زمان بیشتر، ولی خود این نکته نقص نیست، یه مزیته، چون قابل بررسی توسط انسان هست.
می گه نمونه اش literature review هست، وقتی روی یه مساله معروف کار می کنی، مرور ادبیات سخت نیست، خود پژوهشگر می تونه کارو پیش ببره، ولی وقتی مساله منابع کم و یا پراکنده ای داره، پیدا کردن منابع سخت و طاقت فرسا است.
یه مثال می زنه در مورد سایت
https://www.erdosproblems.com/
می گه بالای هزارتا مساله از اردوش توش هست که حدود ۶۰۰ تا حل نشده است، بعضی هاش خیلی معروف اند و بعضی ها گمنام. با کمک هوش مصنوعی تونستند جواب های این سوالات رو با جستجو در ادبیات موجود پیدا کنند(دقت کنید اینجا AI خودش چیزی حل نکرده، مرور ادبیات انجام داده و گزارش داده: این چیزایی که می گید open، قبلا اصلا حل شده)
https://www.erdosproblems.com/339
https://www.erdosproblems.com/1043
https://www.erdosproblems.com/494
https://www.erdosproblems.com/621
https://www.erdosproblems.com/822
https://www.erdosproblems.com/903

می گه اگر از انسان بخوایم این چیزا رو جستجو کنه معمولا درست و درمون گزارشات منفی رو بیان نمی کنه، یعنی اینکه بیاد بگه چیزی پیدا نشد(از ترس اینکه بعدا پیدا بشه و ضایع بشه)
https://mathstodon.xyz/@tao/115385022005130505
17👏11
این واژه ها توی اثبات و استدلال استفاده می شند و انتخاب هر کدوم موضع نویسنده رو نشون می ده: ۱.دقیق و رسمی، ۲.بی طرفانه و ۳.مبهم و حتی مغرضانه!
18🆒7🔥4👎1
Mathematical Musings
این واژه ها توی اثبات و استدلال استفاده می شند و انتخاب هر کدوم موضع نویسنده رو نشون می ده: ۱.دقیق و رسمی، ۲.بی طرفانه و ۳.مبهم و حتی مغرضانه!
معروفه که توی یه مقاله ای نویسنده وقتی داشته یه سری انتگرال رو محاسبه می کرده، می نویسه: انتگرال های قهرمانانه یا طاقت فرسا یا همچین چیزی. اشاره به سختی محاسباتی که داشته انجام می داده(اصطلاحی که به کار بردنش خیلی هم معمول نیست در مقالات)
چند سال بعد که داشته به همون انتگرال ها ارجاع می داده و ازشون استفاده می کرده می نویسه: "می بینیم که" یا "داریم".
152
🤣32🔥54
در اینجا OC یعنی محتوای اصیل.
معروفه که می خواسته یه عدد اول مثال بزنه، گفته بوده: ۵۷.
🤣226
مرگ یک توپولوژیست
ظاهرا آقای
Andrew Casson
دار فانی رو وداع گفته. زمینه کاری اش
geometric topology
بود، هیچ وقت رساله دکتراش رو تموم نکرد.
در زمینه
high-dimensional
منیفلدها و همین طور منیفلدهای ۳ و ۴ بعدی کار کرده بود. کارهاش نقش اساسی در اثبات حدس پوانکاره در بعد ۴ داشت.
یه invariant هم به نامش هست به اسم
Casson invariant.
33👏3🤔1
به صورت رسمی جایی منتشر نشده البته و عنوانش هم می گه اثبات دقیق ریاضی نیست.
بیشتر شبیه فیلم های علمی تخیلی می مونه، حتی اسم نویسنده ها!
https://fermatslibrary.com/p/4ceb2280
10👏3🤣1🆒1
Mathematical Musings
If you drop a map of your country on the floor, there will be a point on the map that touches the actual point it refers to. Brouwer's fixed point theorem.
Every position of Rubik's cube can be solved in at most 20 half-turn moves. Moreover there are positions for which 19 moves is not enough.
🔥164👏3
Forwarded from Science and Religion (M.M.J)
#پیام_موقت
🖤 انّا للّه و انّا الیه راجعون🖤
«بازگشت همه به سوی اوست»

درگذشت تاسف‌بار استاد گرانقدر، آقای دکتر ناصر بروجردیان را به جامعه دانشگاهی، خصوصا اساتید و دانشجویان دانشکده ریاضی و علوم کامپیوتر دانشگاه صنعتی امیرکبیر تسلیت عرض نموده، و از خداوند متعال، علو درجات برای آن مرحوم و صبر و شکیبایی برای خانواده محترم ایشان مسألت می‌نماییم.
برای شادی روح آن مرحوم، فاتحه‌ای قرائت بفرمایید.
513🤔2🤣2
یه خواننده آمریکایی توی سال ۱۹۹۴، اسم خودش رو می ذاره: ۵۰ سنت.
حالا این وب سایت گفته اگر بخوایم اثر تورم رو در نظر بگیریم اسمش باید بشه ۱۰۹ سنت!
حالا به زبون دیگه و ساده تر بخوایم بگیم توی سی سال گذشته قیمت ها در آمریکا تقریبا دوبرابر شده، البته دقت کنید که این اتفاق به تدریج افتاده و اگر از اون فرمول معروف که همه مون می دونیم استفاده کنیم، در هر سال قیمت ها ۲.۵ درصد رفته بالا.
این رو دیدم، رفت رو اعصابم، گفتم با شما هم share کنم.

https://50centadjustedforinflation.com/
🤣2553
ثروتِ واقعی:
۱.خوابِ بی‌نگرانی
۲.وجدانی آسوده
۳.قدردانی متقابل
۴.نبود حسادت
۵.قهوه‌ای با کف فراوان
۶.نان تُرد
۷. دوستان قابل اعتماد و دشمنانِ بی‌تجربه
۸.لبخندهای مکرر
۹.هیچ وعده‌ی غذایی به‌تنهایی
۱۰.لباس‌های شیک در شب (و ناهارِ جمعه)
۱۱.هیچ دوستی با خودبیمارانگاری
۱۲.هیچ کلاس ورزشی گروهی
۱۳.دوچرخه‌سواری روی شن‌ریزه‌ها
۱۴.عملکرد گوارشی سالم
۱۵.بدون «جلسات» زوم
۱۶.بدون داروی مزمن
۱۷.شگفتی‌های دوره‌ای
۱۸.هیچ چیز برای پنهان کردن: آرامشِ مالی و مالیاتی
۱۹.قدرت و استقامت عضلانی
۲۰. توانایی چُرت زدن
۲۱.آزادی
۲۲.خانواده
۲۳. عشق یک انسان نیک سرشت...
۲۴.زمانی برای اندیشیدن، به‌ویژه درباره‌ی ریاضیات
38👍8👎1
Number Theory (Andrej Dujella) (Z-Library).pdf
37 MB
این کتاب در نظریه اعداد کتاب خوبیه، آقای
Michael Penn
هم اون رو توصیه کرده.
البته که سطحش جاهایی از سطح اون چیزی که در کارشناسی خونده می شه می ره بالاتر.
🔥94👏2
Mathematical Musings
Number Theory (Andrej Dujella) (Z-Library).pdf
یه بار یکی از استادهای ایرانی توی یادداشتی نوشته بود که من فقط ریاضی خوندم، اصلا به فکر سلامتی خودم نبودم، تغذیه درست نداشتم، اضافه وزن دارم، کسی نبود به ما بگه این چیزا رو و از این حرفا.
در مورد آقای Penn سرچ می کردم یاد این حرف افتادم(تصویر هم عکس آقای Penn هست).
هر چند ایشون(منظور استاد مربوط) با توجه به تحصیلاتش و محیط هایی که بوده قطعا نمونه های خوبی دوروبرش بوده.
پ ن: تا حالا هر وقت نوشتم یه استاد ایرانی، منظورم یه نفر بوده(شاید جز یکی دو مورد)
25👍6👏3
صفحه ویکی پدیای خانم Wolf که ریاضیدان هستند و شاگرد آقای گاورز بودند.
ملت رفتند عکس یه ولف دیگه رو آپلود کردند.
https://www.juliawolf.org/
🤣534👎3
Mathematical Musings
صفحه ویکی پدیای خانم Wolf که ریاضیدان هستند و شاگرد آقای گاورز بودند. ملت رفتند عکس یه ولف دیگه رو آپلود کردند. https://www.juliawolf.org/
ایشون هستند، فکر کنم یه بار جایی اشاره کرده بودند که اون سایت رو هم خودشون راه اندازی کردند.
48🤣14
دنباله فیبوناچی در 1/89
🆒259🔥6🫡2🤣1
یه ریاضیدانی از Grok خواسته یه مقاله رو بخونه و تمام open problem هاش رو بررسی کنه و در صورت امکان مثال نقض براشون ارائه کنه. همه رو درست تشخیص داده و واسه دو مورد مثال نقض ارائه کرده. از نحوه محاسبه Grok و نمایش جواب ها راضی نبوده ظاهرا، بعد از چند بار رفت و برگشت در نهایت به نتیجه مطلوب می رسه. می گه فقط باید حوصله داشته باشی و باهاش خوب تعامل کنی.
حالا نکته جالب تر اینکه Grok متوجه می شه بررسی یه چیزی در یه لمی جا افتاده!

می گه یه گپی قبلا تو یه اثبات قضیه ای در یک مقاله ای چند سال پیش پیدا کرده بودم که به نویسنده اش هم اطلاع دادم که اون هم confirm کرد و گفت: درست می گی. می گه ChatGPT همون گپ رو توی بیست دقیقه پیدا کرد.
ای کاش اونقدر زنده می موندیم ببینیم صد سال دیگه وضعیت ریاضیات چه جوری می شه؟
اینجا باید مثل هیلبرت که در مورد فرضیه ریمان گفته بود، بگیم که: من اگر بعد از هزار سال از خواب بیدار شوم اولین سوالم این خواهد بود که الان ریاضیدان ها دارند چی کار می کنند؟
لینک مربوط به سوال و جواب با Grok
🤔198🔥7👎1
Forwarded from Singular Thinker
تا حالا به این فک کردید که الگوریتم Gradient Descent از کجا اومده؟

از یه طرف میشه که فک کرد که این الگوریتم محصول گسسته سازی gradient flow عه ولی ازین نگاه من خیلی intuition ای نمیگیرم(اگه شما ولی دید خاصی دارید بگید حتما بهم) ولی از یه طرف دیگه میشه اون رو یک حالت خاص از اصل steepest descent دونست.

یعنی چی؟ ‌یعنی وقتی که شما اگه در لحظه t هستی، مقدار متغییرت در لحظه t+1 رو طوری انتخاب می کنی که بیشترین میزان کاهش در تابع هدفت داشته باشی. این رو بهش میگیم اصل بیشترین کاهش. حالا اگه بیای بسط تیلور رو تا مرتبه اول برای تابع هدفت حول نقطه x_t بنویسی و بخوای طبق اصل بیشترین کاهش پیش بری باید یه قدم فیلی(با طول بینهایت) در راستای معکوس گرادیان ورداری که چنین چیزی مناسب نیست چون تقریب مرتبه اولت فقط در همسایگی نقطه x_t ات درست بوده.

پس حالا میای میگی که یه قید به مسئله اضافه میکنیم در عین این که میخوایم اصل بیشترین کاهش رو رعایت کنیم. و اون این قید هستش که در یک همسایگی از نقطه x_t باقی بمونم. حالا اینجا باید بیایم مفهوم همسایگی رو تعریف کنیم که منظورمون چیه؟
حالت پیش فرض چیه که همه بلدیم؟ بله، فاصله ی اقلیدسی. پس با فرض داشتن فضای اقلیدسی و اعمال اصل بیشترین کاهش می رسیم به الگوریتم gradient descent ولی همون طور که از متن برمیاد میتونیم فاصله ها و فضاهای دیگری رو در نظر بگیریم و به چیزای دیگه ای برسیم.

اینجاست که اسم natural gradient استفاده میشه. اگه به نظرتون این موارد جذابه حتما توصیه میکنم این بلاگ پست زیبا رو بخونید:
https://andrewcharlesjones.github.io/journal/natural-gradients.html#appendix

#note
@SingularThinker
5👍3
اینجا توی این مقاله می گه اینقدر تاکید کردند روی درک مفهومی ریاضیات که گند زدند به نمرات بچه های مردم. می گه دیگه کسی دنبال حفظ کردن نیست، کسی دنبال جواب نهایی سوال نیست. فقط می گند فرآیند رو یاد بگیری اکیه، محاسبه نمی خواد.

می گه معلم ها بیشترشون نمی دونند مغز چطور کار می کنه و این خودش اوضاع رو بدتر کرده. یه بخش مغز به ما کمک می کنه چیزی رو توضیح بدیم و یه بخشش با تمرین و تکرار و تشخیص الگو ورزیده می شه. می گه سیستم های جدید از فنلاند تا نیوزلند تا تایوان فقط تاکید کردند روی اولی و با اینکه زمانی الگو بودند برای بقیه کشورها الان سقوط کردند.

می گه توی این سیستم ها بچه ها فرآیندها رو توضیح می دند ولی توی ساده ترین محاسبات می مونند.

در کل می گه اینقدر تاکید کردند روی درک مفهومی و حفظ کردنی ها و تمرین و تکرار رو گذاشتند کنار که گند زدند به همه چیز!
می گه افسانه اینکه ما نیاز نداریم چیزی رو حفظ کنیم، ما AI داریم، چرته.
https://www.seattletimes.com/opinion/wa-math-education-is-in-crisis-heres-what-could-help/
👏258👎5👍2🤣2