خب تا توی این پست یه کوت از فان نیومن گذاشتم و اینجا هم گفتم چرا انقدر شخصیتش برام جالبه و خیلی تصادفی یه کتاب بیوگرافی ایشون و در واقع روایت زیبای کسری علیشاهی از این کتاب برخوردم و پشفاکینگمام حقیقتا.
مسیر این زندگی آدم واقعا حیرتانگیزه. دستکم چندین فیلم سینمایی میشه ازش در آورد.
🔗 لینک پادکست فارکست - خلاصه کتاب مردی از آینده در کست باکس
⚠️اسپویلر الرت(به نظرم شنیدنش از زبون کسری جالبه ولی اگه خواستید یه تیزر طور این پایین برم براتون):
فان نیومن کار علمیاش رو در دوره دکتری در تلاش برای حل بحران در مبانی ریاضیات شروع میکنه بعد انقدر جذاب بوده که دیوید هیلبرت میگه تو بیا پیش خودم ازم دور نباش. بعد به فرمالیسم نظریه کوانتوم میپردازه و نشون میده که در واقع هر دو فرمالیسم هایزنبرگ که از ماتریسهای بینهایت استفاده میکرده و فرمالیسم شرودینگر که از معادلات دیفرانسیل پارهای تصادفی یک چیزه صرفا در دو فضای هیلبرت متفاوت تا پروژه منهتن،عضویت در تیم محرمانه تصمیمگیرنده در مورد پرتاب بمب، مبدع ایده ساخت بمب هیدروژنی، نظریهبازیها و معماری کامپیوترهای امروزی، اولین برنامههای پیشبینی هوا، پیشبینی کردن مسئله گرمایش جهانی و کارهایی در باب سلولار اتوماتا و ارتباط بین مغز و کامپیوتر که سرطان فرصت نداد، همهی اینها در ۵۳ سال. چه حیف که این تلاشهای آخرش در مورد ارتباط مغز و کامپیوتر رو نتونست کامل کنه واقعا حیف.
پ.ن: تازه یادم اومد کسری شایدم کتاب به نقش فان نیومن در ergodic theory اشاره نمیکنه. من یکمی مقدمه در موردش گفتم اینجا ولی خیلی ابتداییه(دارم میخونم ایشالا بیشتر بفهمم میگم براتون).
#podcast
@SingularThinker
مسیر این زندگی آدم واقعا حیرتانگیزه. دستکم چندین فیلم سینمایی میشه ازش در آورد.
🔗 لینک پادکست فارکست - خلاصه کتاب مردی از آینده در کست باکس
⚠️اسپویلر الرت(به نظرم شنیدنش از زبون کسری جالبه ولی اگه خواستید یه تیزر طور این پایین برم براتون):
پ.ن: تازه یادم اومد کسری شایدم کتاب به نقش فان نیومن در ergodic theory اشاره نمیکنه. من یکمی مقدمه در موردش گفتم اینجا ولی خیلی ابتداییه(دارم میخونم ایشالا بیشتر بفهمم میگم براتون).
#podcast
@SingularThinker
❤5👍1
کمپرسور؛ یه ابزار جالب!
یه اکانت جالب رو توی توییتر دنبال میکنم یه چند وقتی هست که خلاصه مقالاتی رو که میخونه منتشر میکنه. امروز متوجه یه ابزار خیلی کارا و مفید توسعه داده که به کمک اون لیست تمام مقالههای پذیرفتهشده تو کنفرانسهای معتبر ml به همراه یه دو سه جمله خلاصه رو منتشر میکنه.
اگر دنبال مقالههای بروز و خوب در مورد یه موضوع خاصی تو ml گشته باشید، دیدید که چقدر این کار سردرده و این ابزار خیلی کمک میکنه. من الان یه چندتا کار مرتبط با کار خودم پیدا کردم به کمک cntrl + f عزیز😁
- NeurIPS 2023
- ICLR 2024
- ICML 2024
#research_stuff
@SingularThinker
یه اکانت جالب رو توی توییتر دنبال میکنم یه چند وقتی هست که خلاصه مقالاتی رو که میخونه منتشر میکنه. امروز متوجه یه ابزار خیلی کارا و مفید توسعه داده که به کمک اون لیست تمام مقالههای پذیرفتهشده تو کنفرانسهای معتبر ml به همراه یه دو سه جمله خلاصه رو منتشر میکنه.
اگر دنبال مقالههای بروز و خوب در مورد یه موضوع خاصی تو ml گشته باشید، دیدید که چقدر این کار سردرده و این ابزار خیلی کمک میکنه. من الان یه چندتا کار مرتبط با کار خودم پیدا کردم به کمک cntrl + f عزیز😁
- NeurIPS 2023
- ICLR 2024
- ICML 2024
#research_stuff
@SingularThinker
GitHub
GitHub - yobibyte/compressor: Because we don't have enough time to read everything
Because we don't have enough time to read everything - yobibyte/compressor
👍6❤1
This media is not supported in your browser
VIEW IN TELEGRAM
arXiv -> alphaXiv
Students at Stanford have built alphaXiv, an open discussion forum for arXiv papers.
You can post questions and comments directly on top of any arXiv paper by changing arXiv to alphaXiv in any URL!
🔗 Stanford AI Lab (@StanfordAILab)
پ.ن: این پست رو گذاشتم چون جایی ندیدم در مورد این صحبت کنه و به نظرم خیلی میتونه کمک باشه. چون آدما خیلی وقتا سوالایی خوبی دارن ولی نمیپرسن. فقط یه نکته این باید url pdf مقاله رو عوض کنید نه وقتی دارید abstract رو میخونید.
#tweet #research_stuff
@SingularThinker
Students at Stanford have built alphaXiv, an open discussion forum for arXiv papers.
You can post questions and comments directly on top of any arXiv paper by changing arXiv to alphaXiv in any URL!
🔗 Stanford AI Lab (@StanfordAILab)
پ.ن: این پست رو گذاشتم چون جایی ندیدم در مورد این صحبت کنه و به نظرم خیلی میتونه کمک باشه. چون آدما خیلی وقتا سوالایی خوبی دارن ولی نمیپرسن. فقط یه نکته این باید url pdf مقاله رو عوض کنید نه وقتی دارید abstract رو میخونید.
#tweet #research_stuff
@SingularThinker
🔥8
برشی از این مصاحبه که برام جاالب بود:
Rocco Gaudenzi:
Larry Abbott:
@SingularThinker
Rocco Gaudenzi:
Where do you think that physics-inspired computational neuroscience will head to in the future? Are there some physics concepts and tools that have not (yet) been
implemented into it?
Larry Abbott:
It is wise for the reader to keep in mind that the physics to which I have been comparing theoretical neuroscience is the physics of 40 years ago. This is not just because of my age, but also because this is the version of physics that seems to be in people’s minds, even younger people, when they make such comparisons. But physics has changed. Much of what used to be particle physics now involves speculations about theories for which we have no experimental evidence, except in so far as it is negative. This should not serve as a model for neuroscience or, probably, any other type of research. My advice is to stop looking at physics, either the physics of the present or of the past. The tools of physics are the tools of applying mathematics to nature. We have a huge bag of such tools, probably, if you dig around deep enough, a sufficient number to carry us far into the future.
What we need is the art of finding the right level of abstraction (all models are abstractions) to experimental data obtained at the right level of detail, with “right” defined, not by philosophical considerations, but by the question being asked. Thus, in the end, it all comes down to asking the right question.
@SingularThinker
SpringerLink
Theoretical Physics and Theoretical Neuroscience: What Each Can Learn from the Other
Human Arenas - This interview with Larry Abbott, a distinguished physicist who made his way from theoretical particle physics to neuroscience, explores similarities and differences between the...
Consider the real vector space P(ℝ), given by the polynomials. Is the element x -> 1 + x + x^2/2 + x^3/3! + ... = exp(x) an element of P(ℝ)?
Anonymous Quiz
55%
Yes, it is.
45%
No, it is not a polynomial.
👍1
بیاین با هم بریم به دنیای RKHSها
قسمت اول: kernel trick
درسته شبیه ولاگها شروع کردم ولی این یه بلاگه اونم راجع به Reproducing Kernel Hilbert Sapceها. اگه با من تو سفر ساختن یه فضای هیلبرت از ابتدا پیش اومدید(قسمت ۱ و ۲) و قبلترش چرا اصن فضای هیلبرت مهمه که اینجا در موردش حرف زدم، پیش اومدید بریم امروز ببینیم این فضای هیلبرت از نوع reproducing kernel چی هست. اگر هم فایلهای قبلی رو ندیدید، توصیه میکنم با این شروع کنید دنیا رو چه دیدی شاید شما هم مشتری شدید.
اولش بگم که من خودم یه مدتی هست که بخاطر کاری که میکنیم با این کلمهها و مفاهیم زیاد سر و کار دارم ولی بخاطر یه سوتفاهم (خدا نگذره ازت خانوم luxburg) نمیتونستم تفاوت بین kernel و reproducing kernel و در نتیجه فضای هیلبرت عادی و RKHS رو بفهمم. خلاصه امروز نشستم از اول و از چندتا منبع همه چیز رو خوندم و برام روشن شد. البته بحثایی که با علیک کرده بودیم هم راهگشا بود. ولی قبل از اینکه بریم ببینیم دو به دو فرق این اسامی بالا و همینطور ارتباطشون با هم چیه بذارید اول بگم که به چه دردی میخورن اصن؟
فک کنم تقریبا همهی ما یه درس آزمایشگاه تو دانشگاه داشتیم که یه سری داده رو اندازه گرفتیم و خواستیم بهترین رابطه خطی بین اون دو تا متغییری که مشاهده کردیم رو پیدا کنیم. این کار یعنی همون linear regression یکی از پایه ای ترین روش هاست در آمار و یادگیری ماشین/آماری. این روش خیلی خوبه دیگه چون با کمک جبرخطی و یه ماشین حساب مهندسی یا اکسل ساده میشه حلش کرد و تازه میشه به راحتی فهمید که چرا این خط انتخاب شده و ... . حالا بد روزگار اونجاست که رابطه بین هر دو متغییری که ما تو آزمایشگاه مشاهده میکنیم که خطی نیست که بیایم یه خط بهش برازش بکنیم. پس نیاز به مدلهای پیچیدهتر داریم مثلا میتونیم یه سهمی برازش کنیم یا مثلا یه چند جمله ای از درجه سه با بیشتر🧐. ولی
ازون طرف وقتی مدلمون رو پیچیده کنیم پیدا کردن ضرایب اون چندجمله ای که بهترین برازش رو برای داده ما داره هم سختتر میشه. پس چیکار کنیم؟ اینجور موقعها میگن فضاتو عوض کن. یعنی صرفا به جای این که بخوایم y(متغییر مدنظر) رو برحسب یه عدد (x) پیدا کنیم میایم یه بردار میسازیم متشکل [x, x^2] بعد حالا y رو براساس این بردار جدید پیدا میکنیم. پس الان نقاط ما تو دستگاه سه بعدی هستن که یه بعدش x عه یکی x^2 و اون یکی y. یعنی داریم دنبال یه صفحه، y=ax^2+bx+c(در اصل دنبال ضرایبش) میگردیم انگار که به بهترین نحو به داده ما برازش میشه ولی اگه برگردیم به همون مختصات دو بعدی y بر حسب x میبینیم که یه سهمی داریم حالا. درست شد؟
حالا دقیقا از همین روشها در دنیای روزمره برای پیشبینی قیمت خونه و ...بر اساس داده های موجود میتونیم استفاده کنیم ولی سوال این جاست که کدوم درجه برای مدلسازی ما مناسبتره؟ چه میدونیم تا حالا برازش نکردیم که (به قول دوست اردبیلیمون). مگر اینکه دقیقا فرمول ریاضی بین متغییرها رو بهمون گفته باشن که در اغلب موارد این طوری نیست. ولی خب حالا جدا الان که دارید میخونید حدسی ندارید که بهتره مثلا از یه چندجملهای درجه بالا استفاده کنیم یا پایین؟
آره آفرین درجه بالا در نظر میگیریم فوقش اینه که اون ضرایب درجه های بالا صفر در میاد دیگه. خب سوال بعدی رو اگه ناراحت نشی بپرسم بالا یعنی چقدر؟ ۱۰ الان بالاست یا ۱۰۰ یا هزار یا یک میلیارد؟
خب هر چی بیشتر بهتر اصن. بینهایت چی نظرته؟ اع وایسا تو گفته بودی هر جا به بینهایت رسیدی مکث کن. اولا که برحسب کوییز آخر وقتی درجه چند جملهای بی نهایت بشه که دیگه چندجملهای نیست. آفرین دقیقا و برای همین پس میتونیم هر تابعی که دلمون میخواد رو باهاش تخمین بزنیم. ولی وایسا دفعه قبلی که درجه ۲ انتخاب کردیم تو یه بردار تو تو فضای R^2 درنظر گرفتی الان درجه رو بینهایت گرفتی یعنی باید تو یه فضایی با بعد بینهایت کار کنیم؟اره دیگه برای همین اسم این بلاگ هیلبرته.
یعنی تو داری که میگی که من بیام تو ماشین حسابم یا اکسل یه سری بردار به طول بینهایت نگه دارم بعد اینا رو تازه وارون و ضرب و اینا هم بکنم؟
نه بابا اینکه نمیشه که اصن. خب د همین پس چطوری؟
خب سوال خوبی پرسیدی. راستش اینجا یه تردستی هست که بهش میگن kernel trick. به طرز جالبی تو محاسبه های مدل خطی مثلا برای رگرسیون و همچنین SVM ما نیازی نداریم که خود بردارهای با طول بینهایت رو داشته باشیم و تنها ضرب داخلی بین دو تا بردار رو نیاز داریم که یه عدد میشه و خبر خوب اینه که با توجه به قضیه های ریاضی که در سال ۱۹۵۰ توسط Nachman Aronszajn که یه ریاضیدان لهستانی/آمریکایی پیدا شده بوده میدونیم که میشه این ضرب داخلی دو بردار در RKHSرو به صورت ریاضی پیدا کنیم. چطوریش رو تو متن بعدی توضیح میدم.
مرسی که خوندی سوالی/نظری داشتی تو کامنت بگو.
#note #math
@SingularThinker
قسمت اول: kernel trick
درسته شبیه ولاگها شروع کردم ولی این یه بلاگه اونم راجع به Reproducing Kernel Hilbert Sapceها. اگه با من تو سفر ساختن یه فضای هیلبرت از ابتدا پیش اومدید(قسمت ۱ و ۲) و قبلترش چرا اصن فضای هیلبرت مهمه که اینجا در موردش حرف زدم، پیش اومدید بریم امروز ببینیم این فضای هیلبرت از نوع reproducing kernel چی هست. اگر هم فایلهای قبلی رو ندیدید، توصیه میکنم با این شروع کنید دنیا رو چه دیدی شاید شما هم مشتری شدید.
اولش بگم که من خودم یه مدتی هست که بخاطر کاری که میکنیم با این کلمهها و مفاهیم زیاد سر و کار دارم ولی بخاطر یه سوتفاهم (خدا نگذره ازت خانوم luxburg) نمیتونستم تفاوت بین kernel و reproducing kernel و در نتیجه فضای هیلبرت عادی و RKHS رو بفهمم. خلاصه امروز نشستم از اول و از چندتا منبع همه چیز رو خوندم و برام روشن شد. البته بحثایی که با علیک کرده بودیم هم راهگشا بود. ولی قبل از اینکه بریم ببینیم دو به دو فرق این اسامی بالا و همینطور ارتباطشون با هم چیه بذارید اول بگم که به چه دردی میخورن اصن؟
فک کنم تقریبا همهی ما یه درس آزمایشگاه تو دانشگاه داشتیم که یه سری داده رو اندازه گرفتیم و خواستیم بهترین رابطه خطی بین اون دو تا متغییری که مشاهده کردیم رو پیدا کنیم. این کار یعنی همون linear regression یکی از پایه ای ترین روش هاست در آمار و یادگیری ماشین/آماری. این روش خیلی خوبه دیگه چون با کمک جبرخطی و یه ماشین حساب مهندسی یا اکسل ساده میشه حلش کرد و تازه میشه به راحتی فهمید که چرا این خط انتخاب شده و ... . حالا بد روزگار اونجاست که رابطه بین هر دو متغییری که ما تو آزمایشگاه مشاهده میکنیم که خطی نیست که بیایم یه خط بهش برازش بکنیم. پس نیاز به مدلهای پیچیدهتر داریم مثلا میتونیم یه سهمی برازش کنیم یا مثلا یه چند جمله ای از درجه سه با بیشتر🧐. ولی
ازون طرف وقتی مدلمون رو پیچیده کنیم پیدا کردن ضرایب اون چندجمله ای که بهترین برازش رو برای داده ما داره هم سختتر میشه. پس چیکار کنیم؟ اینجور موقعها میگن فضاتو عوض کن. یعنی صرفا به جای این که بخوایم y(متغییر مدنظر) رو برحسب یه عدد (x) پیدا کنیم میایم یه بردار میسازیم متشکل [x, x^2] بعد حالا y رو براساس این بردار جدید پیدا میکنیم. پس الان نقاط ما تو دستگاه سه بعدی هستن که یه بعدش x عه یکی x^2 و اون یکی y. یعنی داریم دنبال یه صفحه، y=ax^2+bx+c(در اصل دنبال ضرایبش) میگردیم انگار که به بهترین نحو به داده ما برازش میشه ولی اگه برگردیم به همون مختصات دو بعدی y بر حسب x میبینیم که یه سهمی داریم حالا. درست شد؟
حالا دقیقا از همین روشها در دنیای روزمره برای پیشبینی قیمت خونه و ...بر اساس داده های موجود میتونیم استفاده کنیم ولی سوال این جاست که کدوم درجه برای مدلسازی ما مناسبتره؟ چه میدونیم تا حالا برازش نکردیم که (به قول دوست اردبیلیمون). مگر اینکه دقیقا فرمول ریاضی بین متغییرها رو بهمون گفته باشن که در اغلب موارد این طوری نیست. ولی خب حالا جدا الان که دارید میخونید حدسی ندارید که بهتره مثلا از یه چندجملهای درجه بالا استفاده کنیم یا پایین؟
آره آفرین درجه بالا در نظر میگیریم فوقش اینه که اون ضرایب درجه های بالا صفر در میاد دیگه. خب سوال بعدی رو اگه ناراحت نشی بپرسم بالا یعنی چقدر؟ ۱۰ الان بالاست یا ۱۰۰ یا هزار یا یک میلیارد؟
خب هر چی بیشتر بهتر اصن. بینهایت چی نظرته؟ اع وایسا تو گفته بودی هر جا به بینهایت رسیدی مکث کن. اولا که برحسب کوییز آخر وقتی درجه چند جملهای بی نهایت بشه که دیگه چندجملهای نیست. آفرین دقیقا و برای همین پس میتونیم هر تابعی که دلمون میخواد رو باهاش تخمین بزنیم. ولی وایسا دفعه قبلی که درجه ۲ انتخاب کردیم تو یه بردار تو تو فضای R^2 درنظر گرفتی الان درجه رو بینهایت گرفتی یعنی باید تو یه فضایی با بعد بینهایت کار کنیم؟اره دیگه برای همین اسم این بلاگ هیلبرته.
یعنی تو داری که میگی که من بیام تو ماشین حسابم یا اکسل یه سری بردار به طول بینهایت نگه دارم بعد اینا رو تازه وارون و ضرب و اینا هم بکنم؟
نه بابا اینکه نمیشه که اصن. خب د همین پس چطوری؟
خب سوال خوبی پرسیدی. راستش اینجا یه تردستی هست که بهش میگن kernel trick. به طرز جالبی تو محاسبه های مدل خطی مثلا برای رگرسیون و همچنین SVM ما نیازی نداریم که خود بردارهای با طول بینهایت رو داشته باشیم و تنها ضرب داخلی بین دو تا بردار رو نیاز داریم که یه عدد میشه و خبر خوب اینه که با توجه به قضیه های ریاضی که در سال ۱۹۵۰ توسط Nachman Aronszajn که یه ریاضیدان لهستانی/آمریکایی پیدا شده بوده میدونیم که میشه این ضرب داخلی دو بردار در RKHSرو به صورت ریاضی پیدا کنیم. چطوریش رو تو متن بعدی توضیح میدم.
مرسی که خوندی سوالی/نظری داشتی تو کامنت بگو.
#note #math
@SingularThinker
❤3🔥2👍1
دنیای RKHSها
قسمت ۲: RKHS نگو کرنل بگو
خب تو متن قبلی تا اینجا صحبت شد که با یه روش تردستی میتونیم حاصل ضرب داخلی دو بردار با طول بینهایت رو پیدا کنیم. اما دقیقا چطوری؟
خب اون مثال آزمایشگاه رو یادتون هست که متغییر x رو از ℝ به ℝ^2 بردیم؟ یادتونه به چه صورت این کارو انجام دادیم؟ به اون نگاشتی که استفاده کردیم برای این کار میگن feature map و با phi نشونش میدن. اگه دقت کنید میشد به روشهای مختلف اینکار رو انجام داد مثلا میشد [x, x^2+5x+6] رو به عنوان نگاشت phi درنظر گرفت.
حالا در آخر متن اشاره کردیم که با کمک kernel trick میتونیم feature mapای رو در نظر بگیریم که فضای ورودی رو به یه فضای هیلبرت خاصی نگاشت میکنه و تو اون فضای هیلبرت خاص به جای ضرب داخلی بین دو بردار که ممکنه طولشون بینهایت باشه یه تابعی وجود داره به اسم کرنل که میشه دو نقطه ورودی رو مستقیم داد بهش و مقدار ضرب داخلی بردار نگاشت شده هر کدوم از نقطههای ورودی توسط phi رو به ما برگردونه. جالب شد نه؟
اما اصلا تابع کرنل، k، چی هست اصلا؟ به صورت دقیق به تابعی میگیم کرنل که دو عضو از فضای ورودی دریافت میکنه و یک عدد حقیقی رو به عنوان خروجی برمیگردونه اگر این تابع متقارن(k(x,y)=k(y,x)) و مثبت معین(هر ماتریس gram/گرامی که با مقداردهی در n نقطه دلخواه بدست میاد مثبت معین باشه) باشه رو بهش میگیم تابع کرنل.
حالا شاید بپرسید که این تابع کرنل داره چی رو اندازه میگیره؟ در واقع این تابع داره اندازه میگیره که این دو بردار x و y چقدر در اون فضای هیلبرت بهم شباهت دارن. چرا؟ چون ضرب داخلی، اگه یادتون باشه، قرار بود مفهوم زاویه بین دو بردار رو تعمیم بده. زاویه هم در واقع سنجهای از جهت دو بردار فارغ از اندازهشون بود دیگه.
حالا نکته جالب اینجاست که تناظر کاملا یک به یک بین کرنل ها و فضای هیلبرت خاصی که بالاتر اشاره کردم و در واقع اسمش RKHS عه وجود داره.
این فضای RKHS یه فضای هیلبرتی هست که شامل تابعهایی حقیقی بر روی فضای ورودی داده ماست اگر که این خاصیت رو داشته باشن. و اون خاصیت اینه که تمام تابعک های دیراک/Dirac functionals رو اون فضای هیلبرت پیوسته باشند.
هاااا ای که گفتی یعنی چَه؟
خب بذار الان میگم. گفتم که فضای هیلبرتمون توش پر از تابع هست که دامنه شون همون فضای دادههای ورودیمونه و بردش هم ℝ هست. حالا این تابعکهای دیراک یه عضو از این فضای هیلبرت رو میگیره مثلا f و تو یه نقطه دلخواه مثلا x مقداردهیاش میکنه. یعنی خود این تابعک یه تابعی هست که یه f میگیره و اون رو تو نقطه دلخواه x مقداردهی میکنه پس f(x) رو برمیگردونه.
اوه سخت شد که!! آره ولی اگه نگرفتی که چی شد مهم نیست. چون اصلا مهم نیست که RKHS دقیقا چیه.
شاهکار تئوری آقای Aronszajn اینجاست که تو وقتی یه تابع کرنل داشته باشی مطمئنی که یه RKHS یکتایی وجود داره که اگه داده هات رو ببری تو اون فضا که بعدش بینهایت هم هست میتونی اونجا مدلهای خطیات رو یاد بگیری و در عین حال بتونی خیلی تابعهای پیچیدهای رو تو فضای اصلی درست کنی. پس از این به بعد ما فقط به این فکر میکنیم که از چه تابع کرنلی استفاده کنیم و کدوم کرنل برای چه مسئله ای بهتره.
در نهایت اینکه RKHS رو به چشم یک تغییر فضا ببینید که ممکنه حل مسئله تون رو راحتتر کنه مثل تبدیل Laplace و یا Fourier. این تغییر فضا هم از طریق انتخاب تابع کرنل انجام میشه. این ایده پیدا کردن فضای مناسب شاید بشه گفت ابر ایدهایه که تو هزاران مقاله ml میشه دید که همه دارن واسه مسئله خودشون دنبالش میگردن.
دو تا نکته تکمیلی بگم و بریم. یکی اینکه تو متن قبلی گفتم هر چی درجه مدلی که برازش میکنیم بیشتر باشه بهتر چون مدل پیچیده تری میتونه درست بکنه. این لزوما میتونه درست نباشه و مدل ما رو دچار بیش برازش بکنه ولی در استفاده از kernel methodها معمولا با تنظیم کردن پارامتر kernel میشه از این مسئله جلوگیری کرد و تنظیمش کرد. نکته دیگه اینکه من گفتم با توجه به نوع فرمول بندی SVM و رگرسیون خطی به صورت تصادفی فقط ضرب داخلی ظاهر میشه و بنابراین نیاز به کار کردن به بردارهای بینهایت نداریم که اینجا باید اضافه کنم که البته به لطف قضیه representer که یکی از پایه های تئوری یادگیری آماری هست میدونیم که هر تابعی در RKHS که کمینه کننده ی یک empirical risk هستش رو میشه برحسب یه ترکیب خطی تابع کرنل مقداردهی شده در داده ها نوشت. پس حالا کلا بر پایه ی تردستی و جادو و اینا پیش نمیریم و درسته که اینها خروجیشون بعضا اعجاب برانگیزه ولی حداقل مدلهای سنتی ml پایه های ریاضیاتی خیلی قویای دارن. منتها موقعی که میخوان توضیح بدن اکثرا اشاره خاصی نمیکنن چون ریاضیات نسبتا سطح بالایی برای تحلیل شون نیاز هست البته اگه Kc (ادمین کانال a pessimistic researcher) ناراحت نمیشه.
#note #math
@SingularThinker
قسمت ۲: RKHS نگو کرنل بگو
خب تو متن قبلی تا اینجا صحبت شد که با یه روش تردستی میتونیم حاصل ضرب داخلی دو بردار با طول بینهایت رو پیدا کنیم. اما دقیقا چطوری؟
خب اون مثال آزمایشگاه رو یادتون هست که متغییر x رو از ℝ به ℝ^2 بردیم؟ یادتونه به چه صورت این کارو انجام دادیم؟ به اون نگاشتی که استفاده کردیم برای این کار میگن feature map و با phi نشونش میدن. اگه دقت کنید میشد به روشهای مختلف اینکار رو انجام داد مثلا میشد [x, x^2+5x+6] رو به عنوان نگاشت phi درنظر گرفت.
حالا در آخر متن اشاره کردیم که با کمک kernel trick میتونیم feature mapای رو در نظر بگیریم که فضای ورودی رو به یه فضای هیلبرت خاصی نگاشت میکنه و تو اون فضای هیلبرت خاص به جای ضرب داخلی بین دو بردار که ممکنه طولشون بینهایت باشه یه تابعی وجود داره به اسم کرنل که میشه دو نقطه ورودی رو مستقیم داد بهش و مقدار ضرب داخلی بردار نگاشت شده هر کدوم از نقطههای ورودی توسط phi رو به ما برگردونه. جالب شد نه؟
اما اصلا تابع کرنل، k، چی هست اصلا؟ به صورت دقیق به تابعی میگیم کرنل که دو عضو از فضای ورودی دریافت میکنه و یک عدد حقیقی رو به عنوان خروجی برمیگردونه اگر این تابع متقارن(k(x,y)=k(y,x)) و مثبت معین(هر ماتریس gram/گرامی که با مقداردهی در n نقطه دلخواه بدست میاد مثبت معین باشه) باشه رو بهش میگیم تابع کرنل.
حالا شاید بپرسید که این تابع کرنل داره چی رو اندازه میگیره؟ در واقع این تابع داره اندازه میگیره که این دو بردار x و y چقدر در اون فضای هیلبرت بهم شباهت دارن. چرا؟ چون ضرب داخلی، اگه یادتون باشه، قرار بود مفهوم زاویه بین دو بردار رو تعمیم بده. زاویه هم در واقع سنجهای از جهت دو بردار فارغ از اندازهشون بود دیگه.
حالا نکته جالب اینجاست که تناظر کاملا یک به یک بین کرنل ها و فضای هیلبرت خاصی که بالاتر اشاره کردم و در واقع اسمش RKHS عه وجود داره.
این فضای RKHS یه فضای هیلبرتی هست که شامل تابعهایی حقیقی بر روی فضای ورودی داده ماست اگر که این خاصیت رو داشته باشن. و اون خاصیت اینه که تمام تابعک های دیراک/Dirac functionals رو اون فضای هیلبرت پیوسته باشند.
هاااا ای که گفتی یعنی چَه؟
خب بذار الان میگم. گفتم که فضای هیلبرتمون توش پر از تابع هست که دامنه شون همون فضای دادههای ورودیمونه و بردش هم ℝ هست. حالا این تابعکهای دیراک یه عضو از این فضای هیلبرت رو میگیره مثلا f و تو یه نقطه دلخواه مثلا x مقداردهیاش میکنه. یعنی خود این تابعک یه تابعی هست که یه f میگیره و اون رو تو نقطه دلخواه x مقداردهی میکنه پس f(x) رو برمیگردونه.
اوه سخت شد که!! آره ولی اگه نگرفتی که چی شد مهم نیست. چون اصلا مهم نیست که RKHS دقیقا چیه.
شاهکار تئوری آقای Aronszajn اینجاست که تو وقتی یه تابع کرنل داشته باشی مطمئنی که یه RKHS یکتایی وجود داره که اگه داده هات رو ببری تو اون فضا که بعدش بینهایت هم هست میتونی اونجا مدلهای خطیات رو یاد بگیری و در عین حال بتونی خیلی تابعهای پیچیدهای رو تو فضای اصلی درست کنی. پس از این به بعد ما فقط به این فکر میکنیم که از چه تابع کرنلی استفاده کنیم و کدوم کرنل برای چه مسئله ای بهتره.
در نهایت اینکه RKHS رو به چشم یک تغییر فضا ببینید که ممکنه حل مسئله تون رو راحتتر کنه مثل تبدیل Laplace و یا Fourier. این تغییر فضا هم از طریق انتخاب تابع کرنل انجام میشه. این ایده پیدا کردن فضای مناسب شاید بشه گفت ابر ایدهایه که تو هزاران مقاله ml میشه دید که همه دارن واسه مسئله خودشون دنبالش میگردن.
دو تا نکته تکمیلی بگم و بریم. یکی اینکه تو متن قبلی گفتم هر چی درجه مدلی که برازش میکنیم بیشتر باشه بهتر چون مدل پیچیده تری میتونه درست بکنه. این لزوما میتونه درست نباشه و مدل ما رو دچار بیش برازش بکنه ولی در استفاده از kernel methodها معمولا با تنظیم کردن پارامتر kernel میشه از این مسئله جلوگیری کرد و تنظیمش کرد. نکته دیگه اینکه من گفتم با توجه به نوع فرمول بندی SVM و رگرسیون خطی به صورت تصادفی فقط ضرب داخلی ظاهر میشه و بنابراین نیاز به کار کردن به بردارهای بینهایت نداریم که اینجا باید اضافه کنم که البته به لطف قضیه representer که یکی از پایه های تئوری یادگیری آماری هست میدونیم که هر تابعی در RKHS که کمینه کننده ی یک empirical risk هستش رو میشه برحسب یه ترکیب خطی تابع کرنل مقداردهی شده در داده ها نوشت. پس حالا کلا بر پایه ی تردستی و جادو و اینا پیش نمیریم و درسته که اینها خروجیشون بعضا اعجاب برانگیزه ولی حداقل مدلهای سنتی ml پایه های ریاضیاتی خیلی قویای دارن. منتها موقعی که میخوان توضیح بدن اکثرا اشاره خاصی نمیکنن چون ریاضیات نسبتا سطح بالایی برای تحلیل شون نیاز هست البته اگه Kc (ادمین کانال a pessimistic researcher) ناراحت نمیشه.
#note #math
@SingularThinker
Telegram
Singular Thinker
بیاین با هم بریم به دنیای RKHSها
قسمت اول: kernel trick
درسته شبیه ولاگها شروع کردم ولی این یه بلاگه اونم راجع به Reproducing Kernel Hilbert Sapceها. اگه با من تو سفر ساختن یه فضای هیلبرت از ابتدا پیش اومدید(قسمت ۱ و ۲) و قبلترش چرا اصن فضای هیلبرت مهمه…
قسمت اول: kernel trick
درسته شبیه ولاگها شروع کردم ولی این یه بلاگه اونم راجع به Reproducing Kernel Hilbert Sapceها. اگه با من تو سفر ساختن یه فضای هیلبرت از ابتدا پیش اومدید(قسمت ۱ و ۲) و قبلترش چرا اصن فضای هیلبرت مهمه…
🔥4❤1
Singular Thinker
دنیای RKHSها قسمت ۲: RKHS نگو کرنل بگو خب تو متن قبلی تا اینجا صحبت شد که با یه روش تردستی میتونیم حاصل ضرب داخلی دو بردار با طول بینهایت رو پیدا کنیم. اما دقیقا چطوری؟ خب اون مثال آزمایشگاه رو یادتون هست که متغییر x رو از ℝ به ℝ^2 بردیم؟ یادتونه به چه صورت…
خب متن تموم شدم و من راجع به خیلی چیزها از جمله تعریف reproducing kernel و ... صحبت نکردم. چون هم حس کردم لزوما نیازی نیست واسه منتقل کردن ایده اصلی پشت RKHS و هم اینکه اینجا جای خیلی مناسب نیست براش. در عوض میخوام بهتون یه رفرنسی رو معرفی کنم که اگه خواستید به طور دقیق تعاریف هر کدوم از این چیزا رو بدونید، خیلی خوبه. من خیلی لکچرنوت و اسلاید و این چیزا در مورد RKHS دیدم ولی فصل چهارم کتاب Support Vector Machines از Steinwart وChristmann واقعا خوب و با دقت ریاضی بالایی توضیح داده این چیزا رو.
بازم ممنون که خوندید نظر/سوالی داشتید حتما بهم بگید.
بازم ممنون که خوندید نظر/سوالی داشتید حتما بهم بگید.
SpringerLink
Support Vector Machines
Every mathematical discipline goes through three periods of development: the naive, the formal, and the critical. David Hilbert The goal of this book is to explain the principles that made support vector machines (SVMs) a successful modeling and prediction…
🔥2👍1
How to prepare a presentation
عنوان واقعا مشخص کننده است و تو ویدیو هم کامل توضیح میده پس الکی سرتونو درد نیارم.
چون دیروز داشتم ارائه میدادم و کمک کرد گفتم اینجا هم بفرستم. البته ۱۰۰ درصد حرفاشو موافق نیستم و همیشه اون دید شخصی تون رو تو کار بیارید به نظرم خیلی جذابترش میکنه.
خلاصه که Hope it helps.
#research_stuff
@SingularThinker
عنوان واقعا مشخص کننده است و تو ویدیو هم کامل توضیح میده پس الکی سرتونو درد نیارم.
چون دیروز داشتم ارائه میدادم و کمک کرد گفتم اینجا هم بفرستم. البته ۱۰۰ درصد حرفاشو موافق نیستم و همیشه اون دید شخصی تون رو تو کار بیارید به نظرم خیلی جذابترش میکنه.
خلاصه که Hope it helps.
#research_stuff
@SingularThinker
YouTube
How to prepare a presentation
Link to slides: http://bit.ly/PresentingByAlfcnz
In this video I'm illustrating how to craft an effective presentation for technical and scientific content.
The content is obviously subjective, but if you care about what my (and many others') opinion is…
In this video I'm illustrating how to craft an effective presentation for technical and scientific content.
The content is obviously subjective, but if you care about what my (and many others') opinion is…
👍6❤2
L'utopie
[...Did you ever read Albert Camus?
The bit about how you gotta turn away
From the world to understand it
was in a mindless kind of queue
And then I went a pulled myself right out
Found things just got a bit wilder
Haven't you heard right?
It's a truly absurd life
Tomorrow you could be a big hole
And the next day you could be a kin
The bit about how you gotta turn away
From the world to understand it
was in a mindless kind of queue
And then I went a pulled myself right out
Found things just got a bit wilder
Haven't you heard right?
It's a truly absurd life
Tomorrow you could be a big hole
And the next day you could be a kin
Did you ever read Albert Camus?
❤1👍1
Forwarded from موماست (erfan vahabi)
اگر میخواین کار کردن با گیت رو تمرین کنین یا میخواین یادش بگیرین سایت زیر با تمرینای عملی و محیط گرافیکیای که داره به نظرم باحاله. از مبتدی شروع میکنه و به چیزای پیچیدهتر میرسه.
خودم یه بار قبلا تمومش کردهم ولی هر چند وقت یه بار یه چیزاییش رو برمیگردم و تمرین میکنم باهاش.
https://learngitbranching.js.org/
خودم یه بار قبلا تمومش کردهم ولی هر چند وقت یه بار یه چیزاییش رو برمیگردم و تمرین میکنم باهاش.
https://learngitbranching.js.org/
learngitbranching.js.org
Learn Git Branching
An interactive Git visualization tool to educate and challenge!
👍4❤3🔥1
نگار میگوید که
شهودی که ما از الکتروشیمی داریم، دریچهای به دنیای انتزاعی علمه. میبینم، مدل میسازیم و در نهایت دوباره با کمک اون مدل چیزی که مطلوب طبیعت نیست و مطلوب ما هست رو میسازیم و بررسی میکنیم.
این بحثی که با نگار داشتیم یه گوشهی ذهن من مونده بود تا اینکه امروز که داشتم خبرایی که سیو کردم برای خودم رو میخوندم، دوباره تو ذهنم جرقه خورد. علت این داستان هم اینجاست که این شاخه quantum computing خیلی دقیقا این ویژگیای که نگار میگفت رو داره به نظرم. چون شما فک کن یه سری آدم با بکگراندهای خیلی متفاوت(فیزیک، ریاضی و کامپیوتر و ...) میشنن کنار هم کار میکنن و عملا از کامپیوتری که میسازن و الگوریتمی که طراحی میکنن بر روی اون سخت افزار برای فهم خود کوانتوم استفاده میکنن.
سرتونو درد نیارم حالا، عنوان مطلب این بود که دانشمندان علوم کامپیوتر اثبات کردند که بالای یه دمای خاصی درهمتنیدگی(entanglement) کوانتومی رخ نمیده. در واقع احتمال وقوعش صفر مطلقه و نه حتی حدی. گزارش از مجله quanta است و جالب نوشته شده بود، طوری که اگه مثه من فقط اسم اصطلاحهای کوانتومی رو بلد باشین میشه دنبال کرد. اما داستان پشت این اثبات هم خیلی جالبه که مثه خیلی وقتای دیگه تصادفی به این گزاره میرسن و در واقع داشتن روی چیز دیگهای کار میکردن و بعد به این میرسن.
مثلا یه جای داستان میگه که این که ما تیمی با هم کار میکردیم خیلی کمکون کرد و جالبتر حتی اینکه:
و در نهایت ایدهای از کار سابقشون که در زمینه #learning_theory بوده رو میتونن تطبیقش بدن با مسئله جدید و این واقعا برای منی که دارم سعی میکنم دکتریام رو تو این زمینه ببرم جلو جالبه واقعا.
خلاصه خبر خیلی جالبی بود، ولی خب دانش من از کوانتوم خیلی اندکه اگه اطلاعات دقیقتری و توضیح بیشتری دارید از خودتون یا هر سورس دیگهای دریغ نکنید.
#tweet #note
@SingularThinker
سرتونو درد نیارم حالا، عنوان مطلب این بود که دانشمندان علوم کامپیوتر اثبات کردند که بالای یه دمای خاصی درهمتنیدگی(entanglement) کوانتومی رخ نمیده. در واقع احتمال وقوعش صفر مطلقه و نه حتی حدی. گزارش از مجله quanta است و جالب نوشته شده بود، طوری که اگه مثه من فقط اسم اصطلاحهای کوانتومی رو بلد باشین میشه دنبال کرد. اما داستان پشت این اثبات هم خیلی جالبه که مثه خیلی وقتای دیگه تصادفی به این گزاره میرسن و در واقع داشتن روی چیز دیگهای کار میکردن و بعد به این میرسن.
مثلا یه جای داستان میگه که این که ما تیمی با هم کار میکردیم خیلی کمکون کرد و جالبتر حتی اینکه:
Before that 2023 breakthrough, the three MIT researchers had never worked on quantum algorithms. Their background was in learning theory, a subfield of computer science that focuses on algorithms for statistical analysis. But like ambitious upstarts everywhere, they viewed their relative naïveté as an advantage, a way to see a problem with fresh eyes. “One of our strengths is that we don’t know much quantum,” Moitra said. “The only quantum we know is the quantum that Ewin taught us.”
و در نهایت ایدهای از کار سابقشون که در زمینه #learning_theory بوده رو میتونن تطبیقش بدن با مسئله جدید و این واقعا برای منی که دارم سعی میکنم دکتریام رو تو این زمینه ببرم جلو جالبه واقعا.
The team decided to focus on relatively high temperatures, where researchers suspected that fast quantum algorithms would exist, even though nobody had been able to prove it. Soon enough, they found a way to adapt an old technique from learning theory into a new fast algorithm. But as they were writing up their paper, another team came out with a similar result(opens a new tab): a proof that a promising algorithm(opens a new tab) developed the previous year would work well at high temperatures. They’d been scooped.
خلاصه خبر خیلی جالبی بود، ولی خب دانش من از کوانتوم خیلی اندکه اگه اطلاعات دقیقتری و توضیح بیشتری دارید از خودتون یا هر سورس دیگهای دریغ نکنید.
#tweet #note
@SingularThinker
👍2❤1🔥1
بهانهای برای نوشتن در مورد آنچه تفکر نقادانه مینامند
چکیده
این جستار دعوتی است برای تماشای این ویدیوی خیلی مهم از علی آقای بندری و بحث پیرامون موضوع.
پرده ۱
چندی پیش تو سمپوزیوم ELLIS بودم و به طور اتفاقی با یکی از بچهها همصحبت شدم که روی ساختن chatbotها برای کاربردهای آموزشی کار میکرد و بحث به جاهای جالبی رسید؛ بعله فلسفه.
ایدهی اصلی این پروژه، maike: a Socratic chatbot اینه که هنگام چت کردن با ربات، اون مثل سقراط، خرمگس آتن، در مواجهی با سوال شما به جای آنکه فورا جوابی تایپ نماید، اندکی مکث کرده و سوال رندانه و تیزی بپرسد.
حالا سقراط دقیقا چی کار میکرد؟
سقراط در مواجه با سوالهای مردم در کوچه و خیابان این طور واکنش نشون میداد که ابتدا با طرف مقابل خود را همدل نشون میداد و با طرح سوالهای هدفمند و مکرر از طرف مقابل پیرامون سوال مطرح شده در نهایت تناقضهای استدلال طرف مقابل را به آن نشون میداد و صرفا با استفاده از موضعهای طرف مقابل مدعاش رو رد میکرد.
دیالکتیک سقراطی یکی از روشهاییه که در سیستمهای آموزشی نوین سعی میشه برای تقویت توانایی تفکر نقادانه استفاده بشه که دقیقا این موضوع ایدهی اصلی ساخت ربات سقراط برای استفاده دانش آموزان ازون هست به عنوان پناهی واسهی اینکه تو عصر chatgpt این مهارت همچنان زنده بمونه.
پرده ۲
با استادم و Lucile، دانشجویی که روی این پروژه کار میکنه، سر میز ناهار نشسته بودیم و بحث این پروژه مطرح شد. بعد Lucile میگفت که در سیستم آموزشی فرانسه روی این مسئله که دانشآموزان یاد بگیرند سوالهای بجا بپرسند به خوبی تمرکز نمیشه و ازین جور چیزها. احتمالا میتوانید افکاری که در سرم میگذشت و بدو بیراههایی که نسیب معلم دینی و پرورشی و غیره کردم رو تصور کنید. خلاصه آهی کشیدم و گذشت تا اینکه به این ویدیو از بیپلاس رسیدم.
پرده ۳
علی بندری تو این ویدئو به طور نقادانهای در مورد تفکر نقادانه صحبت میکنه. یعنی یه طوری که بهمون بگه چه کارای عملیای تو زندگی روزمرهمون انجام بدیم که بتونیم تو مسیر قوی کردن این مهارت ازش استفاده کنیم. در ارزشمندی اینکه چطور باید فکر کنیم، چطوری باید این دنیایی از اطلاعات که هر روز باهاش مواجه میشیم رو پردازش کنیم و چطوری باید سوال بجا و درست بپرسیم فک نکنم کسی شکی داشته باشه. پس جدیش بگیرید مخصوصا اگه تو سیستم آموزشی رشد پیدا کردید که کلی در جهت عکس این ما رو شستشوی مغزی داده باشن. ما حتی نوشتن رو تمرین نکردیم به قول علیبی نوشتنی که آدمو مجبور به فکر کردن و استدلال ورزیدن بکنه نه صرفا بیان احساسات. احتمالا یه دلیلی که همهمون انقدر با writing آیلتس مشکل داریم هم اینه.
پردهی ۴
کسایی که منو میشناسن میدونن که من به عنوان یه تفریح با دوستام بحث میکنم، یعنی مثلا همینطور که کنارشون دارم کیلومترها راه میرم یا وسط ویدیوکال یت چت سعی میکنم پیرامون یه موضوعی عمیق شم و این کار دقیقا همون طور که علی بندری میگه مثه رقص دو نفره است و با هر کسی نمیشه انجامش داد. آدما نیازه که خوب بهم دیگه گوش بدن، خوب استدلال کنن و مشتاق و علاقهمند به یادگرفتن چیزای جدید راجع به اون موضوع باشن و مثل متین جاورسینه به این نکته معتقد نباشن که "من که میدونم ته بحث به هیچی نمیرسه و اصن بحث کردن چه فایدهای داره؟"
پردهی آخر
من خودم سعی کردم شروع بکنم به انجام تمرینها برای قوی کردن این مهارتها و سعی میکنم لیست یه سری از منابع جالب به غیر از اونایی که زیر این ویدیو معرفی شد هم تو کامنت همین پست بذارم. شما علیالحساب این پست قدیمی کانال رو ببینید. ولی قبل از تموم کردن متن دوست دارم یادی کنم از کسری علیشاهی عزیز که واقعا تو تک کلاسی که به لطف کرونا باهاش داشتم واقعا کلی تمرین استدلال کردن و شنیدن رو انجام دادیم سر کلاسش. بیش باد واقعا.
#note #video
@SingularThinker
چکیده
این جستار دعوتی است برای تماشای این ویدیوی خیلی مهم از علی آقای بندری و بحث پیرامون موضوع.
پرده ۱
چندی پیش تو سمپوزیوم ELLIS بودم و به طور اتفاقی با یکی از بچهها همصحبت شدم که روی ساختن chatbotها برای کاربردهای آموزشی کار میکرد و بحث به جاهای جالبی رسید؛ بعله فلسفه.
ایدهی اصلی این پروژه، maike: a Socratic chatbot اینه که هنگام چت کردن با ربات، اون مثل سقراط، خرمگس آتن، در مواجهی با سوال شما به جای آنکه فورا جوابی تایپ نماید، اندکی مکث کرده و سوال رندانه و تیزی بپرسد.
حالا سقراط دقیقا چی کار میکرد؟
سقراط در مواجه با سوالهای مردم در کوچه و خیابان این طور واکنش نشون میداد که ابتدا با طرف مقابل خود را همدل نشون میداد و با طرح سوالهای هدفمند و مکرر از طرف مقابل پیرامون سوال مطرح شده در نهایت تناقضهای استدلال طرف مقابل را به آن نشون میداد و صرفا با استفاده از موضعهای طرف مقابل مدعاش رو رد میکرد.
دیالکتیک سقراطی یکی از روشهاییه که در سیستمهای آموزشی نوین سعی میشه برای تقویت توانایی تفکر نقادانه استفاده بشه که دقیقا این موضوع ایدهی اصلی ساخت ربات سقراط برای استفاده دانش آموزان ازون هست به عنوان پناهی واسهی اینکه تو عصر chatgpt این مهارت همچنان زنده بمونه.
پرده ۲
با استادم و Lucile، دانشجویی که روی این پروژه کار میکنه، سر میز ناهار نشسته بودیم و بحث این پروژه مطرح شد. بعد Lucile میگفت که در سیستم آموزشی فرانسه روی این مسئله که دانشآموزان یاد بگیرند سوالهای بجا بپرسند به خوبی تمرکز نمیشه و ازین جور چیزها. احتمالا میتوانید افکاری که در سرم میگذشت و بدو بیراههایی که نسیب معلم دینی و پرورشی و غیره کردم رو تصور کنید. خلاصه آهی کشیدم و گذشت تا اینکه به این ویدیو از بیپلاس رسیدم.
پرده ۳
علی بندری تو این ویدئو به طور نقادانهای در مورد تفکر نقادانه صحبت میکنه. یعنی یه طوری که بهمون بگه چه کارای عملیای تو زندگی روزمرهمون انجام بدیم که بتونیم تو مسیر قوی کردن این مهارت ازش استفاده کنیم. در ارزشمندی اینکه چطور باید فکر کنیم، چطوری باید این دنیایی از اطلاعات که هر روز باهاش مواجه میشیم رو پردازش کنیم و چطوری باید سوال بجا و درست بپرسیم فک نکنم کسی شکی داشته باشه. پس جدیش بگیرید مخصوصا اگه تو سیستم آموزشی رشد پیدا کردید که کلی در جهت عکس این ما رو شستشوی مغزی داده باشن. ما حتی نوشتن رو تمرین نکردیم به قول علیبی نوشتنی که آدمو مجبور به فکر کردن و استدلال ورزیدن بکنه نه صرفا بیان احساسات. احتمالا یه دلیلی که همهمون انقدر با writing آیلتس مشکل داریم هم اینه.
پردهی ۴
کسایی که منو میشناسن میدونن که من به عنوان یه تفریح با دوستام بحث میکنم، یعنی مثلا همینطور که کنارشون دارم کیلومترها راه میرم یا وسط ویدیوکال یت چت سعی میکنم پیرامون یه موضوعی عمیق شم و این کار دقیقا همون طور که علی بندری میگه مثه رقص دو نفره است و با هر کسی نمیشه انجامش داد. آدما نیازه که خوب بهم دیگه گوش بدن، خوب استدلال کنن و مشتاق و علاقهمند به یادگرفتن چیزای جدید راجع به اون موضوع باشن و مثل متین جاورسینه به این نکته معتقد نباشن که "من که میدونم ته بحث به هیچی نمیرسه و اصن بحث کردن چه فایدهای داره؟"
پردهی آخر
من خودم سعی کردم شروع بکنم به انجام تمرینها برای قوی کردن این مهارتها و سعی میکنم لیست یه سری از منابع جالب به غیر از اونایی که زیر این ویدیو معرفی شد هم تو کامنت همین پست بذارم. شما علیالحساب این پست قدیمی کانال رو ببینید. ولی قبل از تموم کردن متن دوست دارم یادی کنم از کسری علیشاهی عزیز که واقعا تو تک کلاسی که به لطف کرونا باهاش داشتم واقعا کلی تمرین استدلال کردن و شنیدن رو انجام دادیم سر کلاسش. بیش باد واقعا.
#note #video
@SingularThinker
👍12
This media is not supported in your browser
VIEW IN TELEGRAM
اولین بار این جمله از شوپنهاور رو فک کنم وقتی که تو دفتر استاد ریاضیام(قدوس) نشسته بودیم در حالیکه داشت سیگار میکشید برامون گفت، روزهای تلخی بود پوچی دنیا رو با تموم استخون حس میکردم و سعی میکردم که همین طوری با آدمایی که فک میکردم اهل فکرن سر صحبتو باز کنم و دیدشون به زندگی رو ببینم که چطوره. اصن یادم نیست که چطور بحثم با قدوسیان به اینجا رسیده بود.
چند روز پیش که یکی از دوستام ازم پرسید آیا تا به حال پوچی جهان رو حس کردی؟ نه اینکه صرفا اینکه بهش فک کنیا لمسش کردی عمیقا؟ و برخوردت باهاش چطور بوده؟
جوابی که بهش دادم چیزی بود که یادمه اون روز تو مکالمهام با استادم رد و بدل شد بینمون اولا که آره، حس کردم واقعا تو مقاطع مختلف برای مدتهای کوتاه و گاه طولانی.
مرحله اول به نظرم اینه که با این قضیه کنار بیایم یعنی بپذیریم که دنیا این طوره و قرار نبوده طور دیگهای هم باشه و حقیقتا به قول شوپنهاور به هیچ جاشم نیست ما چی فک میکنیم. خلاصه بعضی وقتا این جور فکرا باید یه سری نظامهای باور ما یا همون جهانبینی ما رو تغییر بده و یه ذره ما رو از اون خود مرکزِ جهانبین بودن دور کنه.
دوم اینکه به قول آقا قدوس جهل مقدس پیش بگیرید؛ یعنی بیش از حد فکر نکردن به این قضیه و نه البته انکارشها. یعنی آره من هم مزهی گس زندگی رو میفهمم و مشتهاش میخوره تو سر و صورتم هر از چندگاهی و میدونم که میمیرم پودر میشم و یه نقطهام تو جهان و همهی اینها ولی من واسه خودم میگم که تهش که این اتفاقا میفته الان که هستم برم بشینم نمیدونم چیزی که دوست دارم، فعلا ml theory، رو بخونم، با دوستام در موردش بحث کنم، چه میدونم برم تو جنگل بدوام و غیره حالا میمیرم دیگه خودم سر موقعش.
دقیقا مثل همین آخر این ویدیو اگه هم خیلی دارم میبینم که تحت فشارم کمک میگیرم از روانشناس یا روانپزشک که مثلا قرصی چیزی باید مصرف کنم. شما هم حتما این کارو بکنید.
اون روز واسه علی خیلی کوتاه نوشتم گفتم اینجا این ویدیو رو هم بذارم یادآوری بشه هم به خودم هم به علی. همیشه هم دوست داشتم این اینجا باشه.
#note
@SingularThinker
چند روز پیش که یکی از دوستام ازم پرسید آیا تا به حال پوچی جهان رو حس کردی؟ نه اینکه صرفا اینکه بهش فک کنیا لمسش کردی عمیقا؟ و برخوردت باهاش چطور بوده؟
جوابی که بهش دادم چیزی بود که یادمه اون روز تو مکالمهام با استادم رد و بدل شد بینمون اولا که آره، حس کردم واقعا تو مقاطع مختلف برای مدتهای کوتاه و گاه طولانی.
مرحله اول به نظرم اینه که با این قضیه کنار بیایم یعنی بپذیریم که دنیا این طوره و قرار نبوده طور دیگهای هم باشه و حقیقتا به قول شوپنهاور به هیچ جاشم نیست ما چی فک میکنیم. خلاصه بعضی وقتا این جور فکرا باید یه سری نظامهای باور ما یا همون جهانبینی ما رو تغییر بده و یه ذره ما رو از اون خود مرکزِ جهانبین بودن دور کنه.
دوم اینکه به قول آقا قدوس جهل مقدس پیش بگیرید؛ یعنی بیش از حد فکر نکردن به این قضیه و نه البته انکارشها. یعنی آره من هم مزهی گس زندگی رو میفهمم و مشتهاش میخوره تو سر و صورتم هر از چندگاهی و میدونم که میمیرم پودر میشم و یه نقطهام تو جهان و همهی اینها ولی من واسه خودم میگم که تهش که این اتفاقا میفته الان که هستم برم بشینم نمیدونم چیزی که دوست دارم، فعلا ml theory، رو بخونم، با دوستام در موردش بحث کنم، چه میدونم برم تو جنگل بدوام و غیره حالا میمیرم دیگه خودم سر موقعش.
دقیقا مثل همین آخر این ویدیو اگه هم خیلی دارم میبینم که تحت فشارم کمک میگیرم از روانشناس یا روانپزشک که مثلا قرصی چیزی باید مصرف کنم. شما هم حتما این کارو بکنید.
اون روز واسه علی خیلی کوتاه نوشتم گفتم اینجا این ویدیو رو هم بذارم یادآوری بشه هم به خودم هم به علی. همیشه هم دوست داشتم این اینجا باشه.
#note
@SingularThinker
👍11❤4👎1
Forwarded from جادی | Jadi
یه محقق آماتور، با استفاده از یه نرم افزار آزاد، بزرگترین عدد اول شناخته شده جهان رو کشف کرد.
این عدد اول که ۴۱ میلیون رقم داره که ۱۶ میلیون رقم طولانیتر از بزرگترین عدد اول کشف شده قبلی است و پیدا کردنش شش سال زمان برده.
لوک دورانت از یه برنامه آزاد به اسم «جستجوی عظیم اینترنتی عدد اول مرسن» استفاده میکرده که اجازه می ده داوطلبان سراسر جهان با استفاده از جی پی یو و سی پی یو دنبال عددهای اول به فرم مرسن بگردن. عددهای مرسن اعداد به شکل «دو به توان ایکس منفی یک» هستن که ایدهشون به کشیشی فرانسوی به همین نام میرسه.
عدد جدید کشف شده، ۵۲مین عدد اول مرسن است که ۴۱ میلیون و ۲۴ هزار و ۳۲۰ رقم داره. این کشف جایزه ۳هزار دلاری رو نصیب آقای دورانت کرده و جوایز بعدی برای اعداد بالای ۱۰۰ میلیون رقم و یک میلیارد رقم، ۱۵۰هزار و ۲۵۰ هزار دلار هستن.
اگر علاقمند به مشارکت و تجربه و تست هستین، برنامه مرسن اینجاست:
https://www.mersenne.org/download/
#خبر #ریاضی #آزادی
این عدد اول که ۴۱ میلیون رقم داره که ۱۶ میلیون رقم طولانیتر از بزرگترین عدد اول کشف شده قبلی است و پیدا کردنش شش سال زمان برده.
لوک دورانت از یه برنامه آزاد به اسم «جستجوی عظیم اینترنتی عدد اول مرسن» استفاده میکرده که اجازه می ده داوطلبان سراسر جهان با استفاده از جی پی یو و سی پی یو دنبال عددهای اول به فرم مرسن بگردن. عددهای مرسن اعداد به شکل «دو به توان ایکس منفی یک» هستن که ایدهشون به کشیشی فرانسوی به همین نام میرسه.
عدد جدید کشف شده، ۵۲مین عدد اول مرسن است که ۴۱ میلیون و ۲۴ هزار و ۳۲۰ رقم داره. این کشف جایزه ۳هزار دلاری رو نصیب آقای دورانت کرده و جوایز بعدی برای اعداد بالای ۱۰۰ میلیون رقم و یک میلیارد رقم، ۱۵۰هزار و ۲۵۰ هزار دلار هستن.
اگر علاقمند به مشارکت و تجربه و تست هستین، برنامه مرسن اینجاست:
https://www.mersenne.org/download/
#خبر #ریاضی #آزادی
🔥4❤2
جادی | Jadi
یه محقق آماتور، با استفاده از یه نرم افزار آزاد، بزرگترین عدد اول شناخته شده جهان رو کشف کرد. این عدد اول که ۴۱ میلیون رقم داره که ۱۶ میلیون رقم طولانیتر از بزرگترین عدد اول کشف شده قبلی است و پیدا کردنش شش سال زمان برده. لوک دورانت از یه برنامه آزاد به…
یه جادویی انگار توی اعداد اول هست که واقعا همیشه آدمو مجذوب میکنه. در عین اینکه خیلی مجرد و محضه کلی کاربرد هم داره. نمیدونم چطوری بگم انگار نظریه اعداد مثلا جزو درسای هاگوارتز بوده. شما میفهمید چی میگم؟
#math
#math
👍14❤2👎1