Consider the real vector space P(ℝ), given by the polynomials. Is the element x -> 1 + x + x^2/2 + x^3/3! + ... = exp(x) an element of P(ℝ)?
Anonymous Quiz
55%
Yes, it is.
45%
No, it is not a polynomial.
👍1
بیاین با هم بریم به دنیای RKHSها
قسمت اول: kernel trick
درسته شبیه ولاگها شروع کردم ولی این یه بلاگه اونم راجع به Reproducing Kernel Hilbert Sapceها. اگه با من تو سفر ساختن یه فضای هیلبرت از ابتدا پیش اومدید(قسمت ۱ و ۲) و قبلترش چرا اصن فضای هیلبرت مهمه که اینجا در موردش حرف زدم، پیش اومدید بریم امروز ببینیم این فضای هیلبرت از نوع reproducing kernel چی هست. اگر هم فایلهای قبلی رو ندیدید، توصیه میکنم با این شروع کنید دنیا رو چه دیدی شاید شما هم مشتری شدید.
اولش بگم که من خودم یه مدتی هست که بخاطر کاری که میکنیم با این کلمهها و مفاهیم زیاد سر و کار دارم ولی بخاطر یه سوتفاهم (خدا نگذره ازت خانوم luxburg) نمیتونستم تفاوت بین kernel و reproducing kernel و در نتیجه فضای هیلبرت عادی و RKHS رو بفهمم. خلاصه امروز نشستم از اول و از چندتا منبع همه چیز رو خوندم و برام روشن شد. البته بحثایی که با علیک کرده بودیم هم راهگشا بود. ولی قبل از اینکه بریم ببینیم دو به دو فرق این اسامی بالا و همینطور ارتباطشون با هم چیه بذارید اول بگم که به چه دردی میخورن اصن؟
فک کنم تقریبا همهی ما یه درس آزمایشگاه تو دانشگاه داشتیم که یه سری داده رو اندازه گرفتیم و خواستیم بهترین رابطه خطی بین اون دو تا متغییری که مشاهده کردیم رو پیدا کنیم. این کار یعنی همون linear regression یکی از پایه ای ترین روش هاست در آمار و یادگیری ماشین/آماری. این روش خیلی خوبه دیگه چون با کمک جبرخطی و یه ماشین حساب مهندسی یا اکسل ساده میشه حلش کرد و تازه میشه به راحتی فهمید که چرا این خط انتخاب شده و ... . حالا بد روزگار اونجاست که رابطه بین هر دو متغییری که ما تو آزمایشگاه مشاهده میکنیم که خطی نیست که بیایم یه خط بهش برازش بکنیم. پس نیاز به مدلهای پیچیدهتر داریم مثلا میتونیم یه سهمی برازش کنیم یا مثلا یه چند جمله ای از درجه سه با بیشتر🧐. ولی
ازون طرف وقتی مدلمون رو پیچیده کنیم پیدا کردن ضرایب اون چندجمله ای که بهترین برازش رو برای داده ما داره هم سختتر میشه. پس چیکار کنیم؟ اینجور موقعها میگن فضاتو عوض کن. یعنی صرفا به جای این که بخوایم y(متغییر مدنظر) رو برحسب یه عدد (x) پیدا کنیم میایم یه بردار میسازیم متشکل [x, x^2] بعد حالا y رو براساس این بردار جدید پیدا میکنیم. پس الان نقاط ما تو دستگاه سه بعدی هستن که یه بعدش x عه یکی x^2 و اون یکی y. یعنی داریم دنبال یه صفحه، y=ax^2+bx+c(در اصل دنبال ضرایبش) میگردیم انگار که به بهترین نحو به داده ما برازش میشه ولی اگه برگردیم به همون مختصات دو بعدی y بر حسب x میبینیم که یه سهمی داریم حالا. درست شد؟
حالا دقیقا از همین روشها در دنیای روزمره برای پیشبینی قیمت خونه و ...بر اساس داده های موجود میتونیم استفاده کنیم ولی سوال این جاست که کدوم درجه برای مدلسازی ما مناسبتره؟ چه میدونیم تا حالا برازش نکردیم که (به قول دوست اردبیلیمون). مگر اینکه دقیقا فرمول ریاضی بین متغییرها رو بهمون گفته باشن که در اغلب موارد این طوری نیست. ولی خب حالا جدا الان که دارید میخونید حدسی ندارید که بهتره مثلا از یه چندجملهای درجه بالا استفاده کنیم یا پایین؟
آره آفرین درجه بالا در نظر میگیریم فوقش اینه که اون ضرایب درجه های بالا صفر در میاد دیگه. خب سوال بعدی رو اگه ناراحت نشی بپرسم بالا یعنی چقدر؟ ۱۰ الان بالاست یا ۱۰۰ یا هزار یا یک میلیارد؟
خب هر چی بیشتر بهتر اصن. بینهایت چی نظرته؟ اع وایسا تو گفته بودی هر جا به بینهایت رسیدی مکث کن. اولا که برحسب کوییز آخر وقتی درجه چند جملهای بی نهایت بشه که دیگه چندجملهای نیست. آفرین دقیقا و برای همین پس میتونیم هر تابعی که دلمون میخواد رو باهاش تخمین بزنیم. ولی وایسا دفعه قبلی که درجه ۲ انتخاب کردیم تو یه بردار تو تو فضای R^2 درنظر گرفتی الان درجه رو بینهایت گرفتی یعنی باید تو یه فضایی با بعد بینهایت کار کنیم؟اره دیگه برای همین اسم این بلاگ هیلبرته.
یعنی تو داری که میگی که من بیام تو ماشین حسابم یا اکسل یه سری بردار به طول بینهایت نگه دارم بعد اینا رو تازه وارون و ضرب و اینا هم بکنم؟
نه بابا اینکه نمیشه که اصن. خب د همین پس چطوری؟
خب سوال خوبی پرسیدی. راستش اینجا یه تردستی هست که بهش میگن kernel trick. به طرز جالبی تو محاسبه های مدل خطی مثلا برای رگرسیون و همچنین SVM ما نیازی نداریم که خود بردارهای با طول بینهایت رو داشته باشیم و تنها ضرب داخلی بین دو تا بردار رو نیاز داریم که یه عدد میشه و خبر خوب اینه که با توجه به قضیه های ریاضی که در سال ۱۹۵۰ توسط Nachman Aronszajn که یه ریاضیدان لهستانی/آمریکایی پیدا شده بوده میدونیم که میشه این ضرب داخلی دو بردار در RKHSرو به صورت ریاضی پیدا کنیم. چطوریش رو تو متن بعدی توضیح میدم.
مرسی که خوندی سوالی/نظری داشتی تو کامنت بگو.
#note #math
@SingularThinker
قسمت اول: kernel trick
درسته شبیه ولاگها شروع کردم ولی این یه بلاگه اونم راجع به Reproducing Kernel Hilbert Sapceها. اگه با من تو سفر ساختن یه فضای هیلبرت از ابتدا پیش اومدید(قسمت ۱ و ۲) و قبلترش چرا اصن فضای هیلبرت مهمه که اینجا در موردش حرف زدم، پیش اومدید بریم امروز ببینیم این فضای هیلبرت از نوع reproducing kernel چی هست. اگر هم فایلهای قبلی رو ندیدید، توصیه میکنم با این شروع کنید دنیا رو چه دیدی شاید شما هم مشتری شدید.
اولش بگم که من خودم یه مدتی هست که بخاطر کاری که میکنیم با این کلمهها و مفاهیم زیاد سر و کار دارم ولی بخاطر یه سوتفاهم (خدا نگذره ازت خانوم luxburg) نمیتونستم تفاوت بین kernel و reproducing kernel و در نتیجه فضای هیلبرت عادی و RKHS رو بفهمم. خلاصه امروز نشستم از اول و از چندتا منبع همه چیز رو خوندم و برام روشن شد. البته بحثایی که با علیک کرده بودیم هم راهگشا بود. ولی قبل از اینکه بریم ببینیم دو به دو فرق این اسامی بالا و همینطور ارتباطشون با هم چیه بذارید اول بگم که به چه دردی میخورن اصن؟
فک کنم تقریبا همهی ما یه درس آزمایشگاه تو دانشگاه داشتیم که یه سری داده رو اندازه گرفتیم و خواستیم بهترین رابطه خطی بین اون دو تا متغییری که مشاهده کردیم رو پیدا کنیم. این کار یعنی همون linear regression یکی از پایه ای ترین روش هاست در آمار و یادگیری ماشین/آماری. این روش خیلی خوبه دیگه چون با کمک جبرخطی و یه ماشین حساب مهندسی یا اکسل ساده میشه حلش کرد و تازه میشه به راحتی فهمید که چرا این خط انتخاب شده و ... . حالا بد روزگار اونجاست که رابطه بین هر دو متغییری که ما تو آزمایشگاه مشاهده میکنیم که خطی نیست که بیایم یه خط بهش برازش بکنیم. پس نیاز به مدلهای پیچیدهتر داریم مثلا میتونیم یه سهمی برازش کنیم یا مثلا یه چند جمله ای از درجه سه با بیشتر🧐. ولی
ازون طرف وقتی مدلمون رو پیچیده کنیم پیدا کردن ضرایب اون چندجمله ای که بهترین برازش رو برای داده ما داره هم سختتر میشه. پس چیکار کنیم؟ اینجور موقعها میگن فضاتو عوض کن. یعنی صرفا به جای این که بخوایم y(متغییر مدنظر) رو برحسب یه عدد (x) پیدا کنیم میایم یه بردار میسازیم متشکل [x, x^2] بعد حالا y رو براساس این بردار جدید پیدا میکنیم. پس الان نقاط ما تو دستگاه سه بعدی هستن که یه بعدش x عه یکی x^2 و اون یکی y. یعنی داریم دنبال یه صفحه، y=ax^2+bx+c(در اصل دنبال ضرایبش) میگردیم انگار که به بهترین نحو به داده ما برازش میشه ولی اگه برگردیم به همون مختصات دو بعدی y بر حسب x میبینیم که یه سهمی داریم حالا. درست شد؟
حالا دقیقا از همین روشها در دنیای روزمره برای پیشبینی قیمت خونه و ...بر اساس داده های موجود میتونیم استفاده کنیم ولی سوال این جاست که کدوم درجه برای مدلسازی ما مناسبتره؟ چه میدونیم تا حالا برازش نکردیم که (به قول دوست اردبیلیمون). مگر اینکه دقیقا فرمول ریاضی بین متغییرها رو بهمون گفته باشن که در اغلب موارد این طوری نیست. ولی خب حالا جدا الان که دارید میخونید حدسی ندارید که بهتره مثلا از یه چندجملهای درجه بالا استفاده کنیم یا پایین؟
آره آفرین درجه بالا در نظر میگیریم فوقش اینه که اون ضرایب درجه های بالا صفر در میاد دیگه. خب سوال بعدی رو اگه ناراحت نشی بپرسم بالا یعنی چقدر؟ ۱۰ الان بالاست یا ۱۰۰ یا هزار یا یک میلیارد؟
خب هر چی بیشتر بهتر اصن. بینهایت چی نظرته؟ اع وایسا تو گفته بودی هر جا به بینهایت رسیدی مکث کن. اولا که برحسب کوییز آخر وقتی درجه چند جملهای بی نهایت بشه که دیگه چندجملهای نیست. آفرین دقیقا و برای همین پس میتونیم هر تابعی که دلمون میخواد رو باهاش تخمین بزنیم. ولی وایسا دفعه قبلی که درجه ۲ انتخاب کردیم تو یه بردار تو تو فضای R^2 درنظر گرفتی الان درجه رو بینهایت گرفتی یعنی باید تو یه فضایی با بعد بینهایت کار کنیم؟اره دیگه برای همین اسم این بلاگ هیلبرته.
یعنی تو داری که میگی که من بیام تو ماشین حسابم یا اکسل یه سری بردار به طول بینهایت نگه دارم بعد اینا رو تازه وارون و ضرب و اینا هم بکنم؟
نه بابا اینکه نمیشه که اصن. خب د همین پس چطوری؟
خب سوال خوبی پرسیدی. راستش اینجا یه تردستی هست که بهش میگن kernel trick. به طرز جالبی تو محاسبه های مدل خطی مثلا برای رگرسیون و همچنین SVM ما نیازی نداریم که خود بردارهای با طول بینهایت رو داشته باشیم و تنها ضرب داخلی بین دو تا بردار رو نیاز داریم که یه عدد میشه و خبر خوب اینه که با توجه به قضیه های ریاضی که در سال ۱۹۵۰ توسط Nachman Aronszajn که یه ریاضیدان لهستانی/آمریکایی پیدا شده بوده میدونیم که میشه این ضرب داخلی دو بردار در RKHSرو به صورت ریاضی پیدا کنیم. چطوریش رو تو متن بعدی توضیح میدم.
مرسی که خوندی سوالی/نظری داشتی تو کامنت بگو.
#note #math
@SingularThinker
❤3🔥2👍1
دنیای RKHSها
قسمت ۲: RKHS نگو کرنل بگو
خب تو متن قبلی تا اینجا صحبت شد که با یه روش تردستی میتونیم حاصل ضرب داخلی دو بردار با طول بینهایت رو پیدا کنیم. اما دقیقا چطوری؟
خب اون مثال آزمایشگاه رو یادتون هست که متغییر x رو از ℝ به ℝ^2 بردیم؟ یادتونه به چه صورت این کارو انجام دادیم؟ به اون نگاشتی که استفاده کردیم برای این کار میگن feature map و با phi نشونش میدن. اگه دقت کنید میشد به روشهای مختلف اینکار رو انجام داد مثلا میشد [x, x^2+5x+6] رو به عنوان نگاشت phi درنظر گرفت.
حالا در آخر متن اشاره کردیم که با کمک kernel trick میتونیم feature mapای رو در نظر بگیریم که فضای ورودی رو به یه فضای هیلبرت خاصی نگاشت میکنه و تو اون فضای هیلبرت خاص به جای ضرب داخلی بین دو بردار که ممکنه طولشون بینهایت باشه یه تابعی وجود داره به اسم کرنل که میشه دو نقطه ورودی رو مستقیم داد بهش و مقدار ضرب داخلی بردار نگاشت شده هر کدوم از نقطههای ورودی توسط phi رو به ما برگردونه. جالب شد نه؟
اما اصلا تابع کرنل، k، چی هست اصلا؟ به صورت دقیق به تابعی میگیم کرنل که دو عضو از فضای ورودی دریافت میکنه و یک عدد حقیقی رو به عنوان خروجی برمیگردونه اگر این تابع متقارن(k(x,y)=k(y,x)) و مثبت معین(هر ماتریس gram/گرامی که با مقداردهی در n نقطه دلخواه بدست میاد مثبت معین باشه) باشه رو بهش میگیم تابع کرنل.
حالا شاید بپرسید که این تابع کرنل داره چی رو اندازه میگیره؟ در واقع این تابع داره اندازه میگیره که این دو بردار x و y چقدر در اون فضای هیلبرت بهم شباهت دارن. چرا؟ چون ضرب داخلی، اگه یادتون باشه، قرار بود مفهوم زاویه بین دو بردار رو تعمیم بده. زاویه هم در واقع سنجهای از جهت دو بردار فارغ از اندازهشون بود دیگه.
حالا نکته جالب اینجاست که تناظر کاملا یک به یک بین کرنل ها و فضای هیلبرت خاصی که بالاتر اشاره کردم و در واقع اسمش RKHS عه وجود داره.
این فضای RKHS یه فضای هیلبرتی هست که شامل تابعهایی حقیقی بر روی فضای ورودی داده ماست اگر که این خاصیت رو داشته باشن. و اون خاصیت اینه که تمام تابعک های دیراک/Dirac functionals رو اون فضای هیلبرت پیوسته باشند.
هاااا ای که گفتی یعنی چَه؟
خب بذار الان میگم. گفتم که فضای هیلبرتمون توش پر از تابع هست که دامنه شون همون فضای دادههای ورودیمونه و بردش هم ℝ هست. حالا این تابعکهای دیراک یه عضو از این فضای هیلبرت رو میگیره مثلا f و تو یه نقطه دلخواه مثلا x مقداردهیاش میکنه. یعنی خود این تابعک یه تابعی هست که یه f میگیره و اون رو تو نقطه دلخواه x مقداردهی میکنه پس f(x) رو برمیگردونه.
اوه سخت شد که!! آره ولی اگه نگرفتی که چی شد مهم نیست. چون اصلا مهم نیست که RKHS دقیقا چیه.
شاهکار تئوری آقای Aronszajn اینجاست که تو وقتی یه تابع کرنل داشته باشی مطمئنی که یه RKHS یکتایی وجود داره که اگه داده هات رو ببری تو اون فضا که بعدش بینهایت هم هست میتونی اونجا مدلهای خطیات رو یاد بگیری و در عین حال بتونی خیلی تابعهای پیچیدهای رو تو فضای اصلی درست کنی. پس از این به بعد ما فقط به این فکر میکنیم که از چه تابع کرنلی استفاده کنیم و کدوم کرنل برای چه مسئله ای بهتره.
در نهایت اینکه RKHS رو به چشم یک تغییر فضا ببینید که ممکنه حل مسئله تون رو راحتتر کنه مثل تبدیل Laplace و یا Fourier. این تغییر فضا هم از طریق انتخاب تابع کرنل انجام میشه. این ایده پیدا کردن فضای مناسب شاید بشه گفت ابر ایدهایه که تو هزاران مقاله ml میشه دید که همه دارن واسه مسئله خودشون دنبالش میگردن.
دو تا نکته تکمیلی بگم و بریم. یکی اینکه تو متن قبلی گفتم هر چی درجه مدلی که برازش میکنیم بیشتر باشه بهتر چون مدل پیچیده تری میتونه درست بکنه. این لزوما میتونه درست نباشه و مدل ما رو دچار بیش برازش بکنه ولی در استفاده از kernel methodها معمولا با تنظیم کردن پارامتر kernel میشه از این مسئله جلوگیری کرد و تنظیمش کرد. نکته دیگه اینکه من گفتم با توجه به نوع فرمول بندی SVM و رگرسیون خطی به صورت تصادفی فقط ضرب داخلی ظاهر میشه و بنابراین نیاز به کار کردن به بردارهای بینهایت نداریم که اینجا باید اضافه کنم که البته به لطف قضیه representer که یکی از پایه های تئوری یادگیری آماری هست میدونیم که هر تابعی در RKHS که کمینه کننده ی یک empirical risk هستش رو میشه برحسب یه ترکیب خطی تابع کرنل مقداردهی شده در داده ها نوشت. پس حالا کلا بر پایه ی تردستی و جادو و اینا پیش نمیریم و درسته که اینها خروجیشون بعضا اعجاب برانگیزه ولی حداقل مدلهای سنتی ml پایه های ریاضیاتی خیلی قویای دارن. منتها موقعی که میخوان توضیح بدن اکثرا اشاره خاصی نمیکنن چون ریاضیات نسبتا سطح بالایی برای تحلیل شون نیاز هست البته اگه Kc (ادمین کانال a pessimistic researcher) ناراحت نمیشه.
#note #math
@SingularThinker
قسمت ۲: RKHS نگو کرنل بگو
خب تو متن قبلی تا اینجا صحبت شد که با یه روش تردستی میتونیم حاصل ضرب داخلی دو بردار با طول بینهایت رو پیدا کنیم. اما دقیقا چطوری؟
خب اون مثال آزمایشگاه رو یادتون هست که متغییر x رو از ℝ به ℝ^2 بردیم؟ یادتونه به چه صورت این کارو انجام دادیم؟ به اون نگاشتی که استفاده کردیم برای این کار میگن feature map و با phi نشونش میدن. اگه دقت کنید میشد به روشهای مختلف اینکار رو انجام داد مثلا میشد [x, x^2+5x+6] رو به عنوان نگاشت phi درنظر گرفت.
حالا در آخر متن اشاره کردیم که با کمک kernel trick میتونیم feature mapای رو در نظر بگیریم که فضای ورودی رو به یه فضای هیلبرت خاصی نگاشت میکنه و تو اون فضای هیلبرت خاص به جای ضرب داخلی بین دو بردار که ممکنه طولشون بینهایت باشه یه تابعی وجود داره به اسم کرنل که میشه دو نقطه ورودی رو مستقیم داد بهش و مقدار ضرب داخلی بردار نگاشت شده هر کدوم از نقطههای ورودی توسط phi رو به ما برگردونه. جالب شد نه؟
اما اصلا تابع کرنل، k، چی هست اصلا؟ به صورت دقیق به تابعی میگیم کرنل که دو عضو از فضای ورودی دریافت میکنه و یک عدد حقیقی رو به عنوان خروجی برمیگردونه اگر این تابع متقارن(k(x,y)=k(y,x)) و مثبت معین(هر ماتریس gram/گرامی که با مقداردهی در n نقطه دلخواه بدست میاد مثبت معین باشه) باشه رو بهش میگیم تابع کرنل.
حالا شاید بپرسید که این تابع کرنل داره چی رو اندازه میگیره؟ در واقع این تابع داره اندازه میگیره که این دو بردار x و y چقدر در اون فضای هیلبرت بهم شباهت دارن. چرا؟ چون ضرب داخلی، اگه یادتون باشه، قرار بود مفهوم زاویه بین دو بردار رو تعمیم بده. زاویه هم در واقع سنجهای از جهت دو بردار فارغ از اندازهشون بود دیگه.
حالا نکته جالب اینجاست که تناظر کاملا یک به یک بین کرنل ها و فضای هیلبرت خاصی که بالاتر اشاره کردم و در واقع اسمش RKHS عه وجود داره.
این فضای RKHS یه فضای هیلبرتی هست که شامل تابعهایی حقیقی بر روی فضای ورودی داده ماست اگر که این خاصیت رو داشته باشن. و اون خاصیت اینه که تمام تابعک های دیراک/Dirac functionals رو اون فضای هیلبرت پیوسته باشند.
هاااا ای که گفتی یعنی چَه؟
خب بذار الان میگم. گفتم که فضای هیلبرتمون توش پر از تابع هست که دامنه شون همون فضای دادههای ورودیمونه و بردش هم ℝ هست. حالا این تابعکهای دیراک یه عضو از این فضای هیلبرت رو میگیره مثلا f و تو یه نقطه دلخواه مثلا x مقداردهیاش میکنه. یعنی خود این تابعک یه تابعی هست که یه f میگیره و اون رو تو نقطه دلخواه x مقداردهی میکنه پس f(x) رو برمیگردونه.
اوه سخت شد که!! آره ولی اگه نگرفتی که چی شد مهم نیست. چون اصلا مهم نیست که RKHS دقیقا چیه.
شاهکار تئوری آقای Aronszajn اینجاست که تو وقتی یه تابع کرنل داشته باشی مطمئنی که یه RKHS یکتایی وجود داره که اگه داده هات رو ببری تو اون فضا که بعدش بینهایت هم هست میتونی اونجا مدلهای خطیات رو یاد بگیری و در عین حال بتونی خیلی تابعهای پیچیدهای رو تو فضای اصلی درست کنی. پس از این به بعد ما فقط به این فکر میکنیم که از چه تابع کرنلی استفاده کنیم و کدوم کرنل برای چه مسئله ای بهتره.
در نهایت اینکه RKHS رو به چشم یک تغییر فضا ببینید که ممکنه حل مسئله تون رو راحتتر کنه مثل تبدیل Laplace و یا Fourier. این تغییر فضا هم از طریق انتخاب تابع کرنل انجام میشه. این ایده پیدا کردن فضای مناسب شاید بشه گفت ابر ایدهایه که تو هزاران مقاله ml میشه دید که همه دارن واسه مسئله خودشون دنبالش میگردن.
دو تا نکته تکمیلی بگم و بریم. یکی اینکه تو متن قبلی گفتم هر چی درجه مدلی که برازش میکنیم بیشتر باشه بهتر چون مدل پیچیده تری میتونه درست بکنه. این لزوما میتونه درست نباشه و مدل ما رو دچار بیش برازش بکنه ولی در استفاده از kernel methodها معمولا با تنظیم کردن پارامتر kernel میشه از این مسئله جلوگیری کرد و تنظیمش کرد. نکته دیگه اینکه من گفتم با توجه به نوع فرمول بندی SVM و رگرسیون خطی به صورت تصادفی فقط ضرب داخلی ظاهر میشه و بنابراین نیاز به کار کردن به بردارهای بینهایت نداریم که اینجا باید اضافه کنم که البته به لطف قضیه representer که یکی از پایه های تئوری یادگیری آماری هست میدونیم که هر تابعی در RKHS که کمینه کننده ی یک empirical risk هستش رو میشه برحسب یه ترکیب خطی تابع کرنل مقداردهی شده در داده ها نوشت. پس حالا کلا بر پایه ی تردستی و جادو و اینا پیش نمیریم و درسته که اینها خروجیشون بعضا اعجاب برانگیزه ولی حداقل مدلهای سنتی ml پایه های ریاضیاتی خیلی قویای دارن. منتها موقعی که میخوان توضیح بدن اکثرا اشاره خاصی نمیکنن چون ریاضیات نسبتا سطح بالایی برای تحلیل شون نیاز هست البته اگه Kc (ادمین کانال a pessimistic researcher) ناراحت نمیشه.
#note #math
@SingularThinker
Telegram
Singular Thinker
بیاین با هم بریم به دنیای RKHSها
قسمت اول: kernel trick
درسته شبیه ولاگها شروع کردم ولی این یه بلاگه اونم راجع به Reproducing Kernel Hilbert Sapceها. اگه با من تو سفر ساختن یه فضای هیلبرت از ابتدا پیش اومدید(قسمت ۱ و ۲) و قبلترش چرا اصن فضای هیلبرت مهمه…
قسمت اول: kernel trick
درسته شبیه ولاگها شروع کردم ولی این یه بلاگه اونم راجع به Reproducing Kernel Hilbert Sapceها. اگه با من تو سفر ساختن یه فضای هیلبرت از ابتدا پیش اومدید(قسمت ۱ و ۲) و قبلترش چرا اصن فضای هیلبرت مهمه…
🔥4❤1
Singular Thinker
دنیای RKHSها قسمت ۲: RKHS نگو کرنل بگو خب تو متن قبلی تا اینجا صحبت شد که با یه روش تردستی میتونیم حاصل ضرب داخلی دو بردار با طول بینهایت رو پیدا کنیم. اما دقیقا چطوری؟ خب اون مثال آزمایشگاه رو یادتون هست که متغییر x رو از ℝ به ℝ^2 بردیم؟ یادتونه به چه صورت…
خب متن تموم شدم و من راجع به خیلی چیزها از جمله تعریف reproducing kernel و ... صحبت نکردم. چون هم حس کردم لزوما نیازی نیست واسه منتقل کردن ایده اصلی پشت RKHS و هم اینکه اینجا جای خیلی مناسب نیست براش. در عوض میخوام بهتون یه رفرنسی رو معرفی کنم که اگه خواستید به طور دقیق تعاریف هر کدوم از این چیزا رو بدونید، خیلی خوبه. من خیلی لکچرنوت و اسلاید و این چیزا در مورد RKHS دیدم ولی فصل چهارم کتاب Support Vector Machines از Steinwart وChristmann واقعا خوب و با دقت ریاضی بالایی توضیح داده این چیزا رو.
بازم ممنون که خوندید نظر/سوالی داشتید حتما بهم بگید.
بازم ممنون که خوندید نظر/سوالی داشتید حتما بهم بگید.
SpringerLink
Support Vector Machines
Every mathematical discipline goes through three periods of development: the naive, the formal, and the critical. David Hilbert The goal of this book is to explain the principles that made support vector machines (SVMs) a successful modeling and prediction…
🔥2👍1
How to prepare a presentation
عنوان واقعا مشخص کننده است و تو ویدیو هم کامل توضیح میده پس الکی سرتونو درد نیارم.
چون دیروز داشتم ارائه میدادم و کمک کرد گفتم اینجا هم بفرستم. البته ۱۰۰ درصد حرفاشو موافق نیستم و همیشه اون دید شخصی تون رو تو کار بیارید به نظرم خیلی جذابترش میکنه.
خلاصه که Hope it helps.
#research_stuff
@SingularThinker
عنوان واقعا مشخص کننده است و تو ویدیو هم کامل توضیح میده پس الکی سرتونو درد نیارم.
چون دیروز داشتم ارائه میدادم و کمک کرد گفتم اینجا هم بفرستم. البته ۱۰۰ درصد حرفاشو موافق نیستم و همیشه اون دید شخصی تون رو تو کار بیارید به نظرم خیلی جذابترش میکنه.
خلاصه که Hope it helps.
#research_stuff
@SingularThinker
YouTube
How to prepare a presentation
Link to slides: http://bit.ly/PresentingByAlfcnz
In this video I'm illustrating how to craft an effective presentation for technical and scientific content.
The content is obviously subjective, but if you care about what my (and many others') opinion is…
In this video I'm illustrating how to craft an effective presentation for technical and scientific content.
The content is obviously subjective, but if you care about what my (and many others') opinion is…
👍6❤2
L'utopie
[...Did you ever read Albert Camus?
The bit about how you gotta turn away
From the world to understand it
was in a mindless kind of queue
And then I went a pulled myself right out
Found things just got a bit wilder
Haven't you heard right?
It's a truly absurd life
Tomorrow you could be a big hole
And the next day you could be a kin
The bit about how you gotta turn away
From the world to understand it
was in a mindless kind of queue
And then I went a pulled myself right out
Found things just got a bit wilder
Haven't you heard right?
It's a truly absurd life
Tomorrow you could be a big hole
And the next day you could be a kin
Did you ever read Albert Camus?
❤1👍1
Forwarded from موماست (erfan vahabi)
اگر میخواین کار کردن با گیت رو تمرین کنین یا میخواین یادش بگیرین سایت زیر با تمرینای عملی و محیط گرافیکیای که داره به نظرم باحاله. از مبتدی شروع میکنه و به چیزای پیچیدهتر میرسه.
خودم یه بار قبلا تمومش کردهم ولی هر چند وقت یه بار یه چیزاییش رو برمیگردم و تمرین میکنم باهاش.
https://learngitbranching.js.org/
خودم یه بار قبلا تمومش کردهم ولی هر چند وقت یه بار یه چیزاییش رو برمیگردم و تمرین میکنم باهاش.
https://learngitbranching.js.org/
learngitbranching.js.org
Learn Git Branching
An interactive Git visualization tool to educate and challenge!
👍4❤3🔥1
نگار میگوید که
شهودی که ما از الکتروشیمی داریم، دریچهای به دنیای انتزاعی علمه. میبینم، مدل میسازیم و در نهایت دوباره با کمک اون مدل چیزی که مطلوب طبیعت نیست و مطلوب ما هست رو میسازیم و بررسی میکنیم.
این بحثی که با نگار داشتیم یه گوشهی ذهن من مونده بود تا اینکه امروز که داشتم خبرایی که سیو کردم برای خودم رو میخوندم، دوباره تو ذهنم جرقه خورد. علت این داستان هم اینجاست که این شاخه quantum computing خیلی دقیقا این ویژگیای که نگار میگفت رو داره به نظرم. چون شما فک کن یه سری آدم با بکگراندهای خیلی متفاوت(فیزیک، ریاضی و کامپیوتر و ...) میشنن کنار هم کار میکنن و عملا از کامپیوتری که میسازن و الگوریتمی که طراحی میکنن بر روی اون سخت افزار برای فهم خود کوانتوم استفاده میکنن.
سرتونو درد نیارم حالا، عنوان مطلب این بود که دانشمندان علوم کامپیوتر اثبات کردند که بالای یه دمای خاصی درهمتنیدگی(entanglement) کوانتومی رخ نمیده. در واقع احتمال وقوعش صفر مطلقه و نه حتی حدی. گزارش از مجله quanta است و جالب نوشته شده بود، طوری که اگه مثه من فقط اسم اصطلاحهای کوانتومی رو بلد باشین میشه دنبال کرد. اما داستان پشت این اثبات هم خیلی جالبه که مثه خیلی وقتای دیگه تصادفی به این گزاره میرسن و در واقع داشتن روی چیز دیگهای کار میکردن و بعد به این میرسن.
مثلا یه جای داستان میگه که این که ما تیمی با هم کار میکردیم خیلی کمکون کرد و جالبتر حتی اینکه:
و در نهایت ایدهای از کار سابقشون که در زمینه #learning_theory بوده رو میتونن تطبیقش بدن با مسئله جدید و این واقعا برای منی که دارم سعی میکنم دکتریام رو تو این زمینه ببرم جلو جالبه واقعا.
خلاصه خبر خیلی جالبی بود، ولی خب دانش من از کوانتوم خیلی اندکه اگه اطلاعات دقیقتری و توضیح بیشتری دارید از خودتون یا هر سورس دیگهای دریغ نکنید.
#tweet #note
@SingularThinker
سرتونو درد نیارم حالا، عنوان مطلب این بود که دانشمندان علوم کامپیوتر اثبات کردند که بالای یه دمای خاصی درهمتنیدگی(entanglement) کوانتومی رخ نمیده. در واقع احتمال وقوعش صفر مطلقه و نه حتی حدی. گزارش از مجله quanta است و جالب نوشته شده بود، طوری که اگه مثه من فقط اسم اصطلاحهای کوانتومی رو بلد باشین میشه دنبال کرد. اما داستان پشت این اثبات هم خیلی جالبه که مثه خیلی وقتای دیگه تصادفی به این گزاره میرسن و در واقع داشتن روی چیز دیگهای کار میکردن و بعد به این میرسن.
مثلا یه جای داستان میگه که این که ما تیمی با هم کار میکردیم خیلی کمکون کرد و جالبتر حتی اینکه:
Before that 2023 breakthrough, the three MIT researchers had never worked on quantum algorithms. Their background was in learning theory, a subfield of computer science that focuses on algorithms for statistical analysis. But like ambitious upstarts everywhere, they viewed their relative naïveté as an advantage, a way to see a problem with fresh eyes. “One of our strengths is that we don’t know much quantum,” Moitra said. “The only quantum we know is the quantum that Ewin taught us.”
و در نهایت ایدهای از کار سابقشون که در زمینه #learning_theory بوده رو میتونن تطبیقش بدن با مسئله جدید و این واقعا برای منی که دارم سعی میکنم دکتریام رو تو این زمینه ببرم جلو جالبه واقعا.
The team decided to focus on relatively high temperatures, where researchers suspected that fast quantum algorithms would exist, even though nobody had been able to prove it. Soon enough, they found a way to adapt an old technique from learning theory into a new fast algorithm. But as they were writing up their paper, another team came out with a similar result(opens a new tab): a proof that a promising algorithm(opens a new tab) developed the previous year would work well at high temperatures. They’d been scooped.
خلاصه خبر خیلی جالبی بود، ولی خب دانش من از کوانتوم خیلی اندکه اگه اطلاعات دقیقتری و توضیح بیشتری دارید از خودتون یا هر سورس دیگهای دریغ نکنید.
#tweet #note
@SingularThinker
👍2❤1🔥1
بهانهای برای نوشتن در مورد آنچه تفکر نقادانه مینامند
چکیده
این جستار دعوتی است برای تماشای این ویدیوی خیلی مهم از علی آقای بندری و بحث پیرامون موضوع.
پرده ۱
چندی پیش تو سمپوزیوم ELLIS بودم و به طور اتفاقی با یکی از بچهها همصحبت شدم که روی ساختن chatbotها برای کاربردهای آموزشی کار میکرد و بحث به جاهای جالبی رسید؛ بعله فلسفه.
ایدهی اصلی این پروژه، maike: a Socratic chatbot اینه که هنگام چت کردن با ربات، اون مثل سقراط، خرمگس آتن، در مواجهی با سوال شما به جای آنکه فورا جوابی تایپ نماید، اندکی مکث کرده و سوال رندانه و تیزی بپرسد.
حالا سقراط دقیقا چی کار میکرد؟
سقراط در مواجه با سوالهای مردم در کوچه و خیابان این طور واکنش نشون میداد که ابتدا با طرف مقابل خود را همدل نشون میداد و با طرح سوالهای هدفمند و مکرر از طرف مقابل پیرامون سوال مطرح شده در نهایت تناقضهای استدلال طرف مقابل را به آن نشون میداد و صرفا با استفاده از موضعهای طرف مقابل مدعاش رو رد میکرد.
دیالکتیک سقراطی یکی از روشهاییه که در سیستمهای آموزشی نوین سعی میشه برای تقویت توانایی تفکر نقادانه استفاده بشه که دقیقا این موضوع ایدهی اصلی ساخت ربات سقراط برای استفاده دانش آموزان ازون هست به عنوان پناهی واسهی اینکه تو عصر chatgpt این مهارت همچنان زنده بمونه.
پرده ۲
با استادم و Lucile، دانشجویی که روی این پروژه کار میکنه، سر میز ناهار نشسته بودیم و بحث این پروژه مطرح شد. بعد Lucile میگفت که در سیستم آموزشی فرانسه روی این مسئله که دانشآموزان یاد بگیرند سوالهای بجا بپرسند به خوبی تمرکز نمیشه و ازین جور چیزها. احتمالا میتوانید افکاری که در سرم میگذشت و بدو بیراههایی که نسیب معلم دینی و پرورشی و غیره کردم رو تصور کنید. خلاصه آهی کشیدم و گذشت تا اینکه به این ویدیو از بیپلاس رسیدم.
پرده ۳
علی بندری تو این ویدئو به طور نقادانهای در مورد تفکر نقادانه صحبت میکنه. یعنی یه طوری که بهمون بگه چه کارای عملیای تو زندگی روزمرهمون انجام بدیم که بتونیم تو مسیر قوی کردن این مهارت ازش استفاده کنیم. در ارزشمندی اینکه چطور باید فکر کنیم، چطوری باید این دنیایی از اطلاعات که هر روز باهاش مواجه میشیم رو پردازش کنیم و چطوری باید سوال بجا و درست بپرسیم فک نکنم کسی شکی داشته باشه. پس جدیش بگیرید مخصوصا اگه تو سیستم آموزشی رشد پیدا کردید که کلی در جهت عکس این ما رو شستشوی مغزی داده باشن. ما حتی نوشتن رو تمرین نکردیم به قول علیبی نوشتنی که آدمو مجبور به فکر کردن و استدلال ورزیدن بکنه نه صرفا بیان احساسات. احتمالا یه دلیلی که همهمون انقدر با writing آیلتس مشکل داریم هم اینه.
پردهی ۴
کسایی که منو میشناسن میدونن که من به عنوان یه تفریح با دوستام بحث میکنم، یعنی مثلا همینطور که کنارشون دارم کیلومترها راه میرم یا وسط ویدیوکال یت چت سعی میکنم پیرامون یه موضوعی عمیق شم و این کار دقیقا همون طور که علی بندری میگه مثه رقص دو نفره است و با هر کسی نمیشه انجامش داد. آدما نیازه که خوب بهم دیگه گوش بدن، خوب استدلال کنن و مشتاق و علاقهمند به یادگرفتن چیزای جدید راجع به اون موضوع باشن و مثل متین جاورسینه به این نکته معتقد نباشن که "من که میدونم ته بحث به هیچی نمیرسه و اصن بحث کردن چه فایدهای داره؟"
پردهی آخر
من خودم سعی کردم شروع بکنم به انجام تمرینها برای قوی کردن این مهارتها و سعی میکنم لیست یه سری از منابع جالب به غیر از اونایی که زیر این ویدیو معرفی شد هم تو کامنت همین پست بذارم. شما علیالحساب این پست قدیمی کانال رو ببینید. ولی قبل از تموم کردن متن دوست دارم یادی کنم از کسری علیشاهی عزیز که واقعا تو تک کلاسی که به لطف کرونا باهاش داشتم واقعا کلی تمرین استدلال کردن و شنیدن رو انجام دادیم سر کلاسش. بیش باد واقعا.
#note #video
@SingularThinker
چکیده
این جستار دعوتی است برای تماشای این ویدیوی خیلی مهم از علی آقای بندری و بحث پیرامون موضوع.
پرده ۱
چندی پیش تو سمپوزیوم ELLIS بودم و به طور اتفاقی با یکی از بچهها همصحبت شدم که روی ساختن chatbotها برای کاربردهای آموزشی کار میکرد و بحث به جاهای جالبی رسید؛ بعله فلسفه.
ایدهی اصلی این پروژه، maike: a Socratic chatbot اینه که هنگام چت کردن با ربات، اون مثل سقراط، خرمگس آتن، در مواجهی با سوال شما به جای آنکه فورا جوابی تایپ نماید، اندکی مکث کرده و سوال رندانه و تیزی بپرسد.
حالا سقراط دقیقا چی کار میکرد؟
سقراط در مواجه با سوالهای مردم در کوچه و خیابان این طور واکنش نشون میداد که ابتدا با طرف مقابل خود را همدل نشون میداد و با طرح سوالهای هدفمند و مکرر از طرف مقابل پیرامون سوال مطرح شده در نهایت تناقضهای استدلال طرف مقابل را به آن نشون میداد و صرفا با استفاده از موضعهای طرف مقابل مدعاش رو رد میکرد.
دیالکتیک سقراطی یکی از روشهاییه که در سیستمهای آموزشی نوین سعی میشه برای تقویت توانایی تفکر نقادانه استفاده بشه که دقیقا این موضوع ایدهی اصلی ساخت ربات سقراط برای استفاده دانش آموزان ازون هست به عنوان پناهی واسهی اینکه تو عصر chatgpt این مهارت همچنان زنده بمونه.
پرده ۲
با استادم و Lucile، دانشجویی که روی این پروژه کار میکنه، سر میز ناهار نشسته بودیم و بحث این پروژه مطرح شد. بعد Lucile میگفت که در سیستم آموزشی فرانسه روی این مسئله که دانشآموزان یاد بگیرند سوالهای بجا بپرسند به خوبی تمرکز نمیشه و ازین جور چیزها. احتمالا میتوانید افکاری که در سرم میگذشت و بدو بیراههایی که نسیب معلم دینی و پرورشی و غیره کردم رو تصور کنید. خلاصه آهی کشیدم و گذشت تا اینکه به این ویدیو از بیپلاس رسیدم.
پرده ۳
علی بندری تو این ویدئو به طور نقادانهای در مورد تفکر نقادانه صحبت میکنه. یعنی یه طوری که بهمون بگه چه کارای عملیای تو زندگی روزمرهمون انجام بدیم که بتونیم تو مسیر قوی کردن این مهارت ازش استفاده کنیم. در ارزشمندی اینکه چطور باید فکر کنیم، چطوری باید این دنیایی از اطلاعات که هر روز باهاش مواجه میشیم رو پردازش کنیم و چطوری باید سوال بجا و درست بپرسیم فک نکنم کسی شکی داشته باشه. پس جدیش بگیرید مخصوصا اگه تو سیستم آموزشی رشد پیدا کردید که کلی در جهت عکس این ما رو شستشوی مغزی داده باشن. ما حتی نوشتن رو تمرین نکردیم به قول علیبی نوشتنی که آدمو مجبور به فکر کردن و استدلال ورزیدن بکنه نه صرفا بیان احساسات. احتمالا یه دلیلی که همهمون انقدر با writing آیلتس مشکل داریم هم اینه.
پردهی ۴
کسایی که منو میشناسن میدونن که من به عنوان یه تفریح با دوستام بحث میکنم، یعنی مثلا همینطور که کنارشون دارم کیلومترها راه میرم یا وسط ویدیوکال یت چت سعی میکنم پیرامون یه موضوعی عمیق شم و این کار دقیقا همون طور که علی بندری میگه مثه رقص دو نفره است و با هر کسی نمیشه انجامش داد. آدما نیازه که خوب بهم دیگه گوش بدن، خوب استدلال کنن و مشتاق و علاقهمند به یادگرفتن چیزای جدید راجع به اون موضوع باشن و مثل متین جاورسینه به این نکته معتقد نباشن که "من که میدونم ته بحث به هیچی نمیرسه و اصن بحث کردن چه فایدهای داره؟"
پردهی آخر
من خودم سعی کردم شروع بکنم به انجام تمرینها برای قوی کردن این مهارتها و سعی میکنم لیست یه سری از منابع جالب به غیر از اونایی که زیر این ویدیو معرفی شد هم تو کامنت همین پست بذارم. شما علیالحساب این پست قدیمی کانال رو ببینید. ولی قبل از تموم کردن متن دوست دارم یادی کنم از کسری علیشاهی عزیز که واقعا تو تک کلاسی که به لطف کرونا باهاش داشتم واقعا کلی تمرین استدلال کردن و شنیدن رو انجام دادیم سر کلاسش. بیش باد واقعا.
#note #video
@SingularThinker
👍12
This media is not supported in your browser
VIEW IN TELEGRAM
اولین بار این جمله از شوپنهاور رو فک کنم وقتی که تو دفتر استاد ریاضیام(قدوس) نشسته بودیم در حالیکه داشت سیگار میکشید برامون گفت، روزهای تلخی بود پوچی دنیا رو با تموم استخون حس میکردم و سعی میکردم که همین طوری با آدمایی که فک میکردم اهل فکرن سر صحبتو باز کنم و دیدشون به زندگی رو ببینم که چطوره. اصن یادم نیست که چطور بحثم با قدوسیان به اینجا رسیده بود.
چند روز پیش که یکی از دوستام ازم پرسید آیا تا به حال پوچی جهان رو حس کردی؟ نه اینکه صرفا اینکه بهش فک کنیا لمسش کردی عمیقا؟ و برخوردت باهاش چطور بوده؟
جوابی که بهش دادم چیزی بود که یادمه اون روز تو مکالمهام با استادم رد و بدل شد بینمون اولا که آره، حس کردم واقعا تو مقاطع مختلف برای مدتهای کوتاه و گاه طولانی.
مرحله اول به نظرم اینه که با این قضیه کنار بیایم یعنی بپذیریم که دنیا این طوره و قرار نبوده طور دیگهای هم باشه و حقیقتا به قول شوپنهاور به هیچ جاشم نیست ما چی فک میکنیم. خلاصه بعضی وقتا این جور فکرا باید یه سری نظامهای باور ما یا همون جهانبینی ما رو تغییر بده و یه ذره ما رو از اون خود مرکزِ جهانبین بودن دور کنه.
دوم اینکه به قول آقا قدوس جهل مقدس پیش بگیرید؛ یعنی بیش از حد فکر نکردن به این قضیه و نه البته انکارشها. یعنی آره من هم مزهی گس زندگی رو میفهمم و مشتهاش میخوره تو سر و صورتم هر از چندگاهی و میدونم که میمیرم پودر میشم و یه نقطهام تو جهان و همهی اینها ولی من واسه خودم میگم که تهش که این اتفاقا میفته الان که هستم برم بشینم نمیدونم چیزی که دوست دارم، فعلا ml theory، رو بخونم، با دوستام در موردش بحث کنم، چه میدونم برم تو جنگل بدوام و غیره حالا میمیرم دیگه خودم سر موقعش.
دقیقا مثل همین آخر این ویدیو اگه هم خیلی دارم میبینم که تحت فشارم کمک میگیرم از روانشناس یا روانپزشک که مثلا قرصی چیزی باید مصرف کنم. شما هم حتما این کارو بکنید.
اون روز واسه علی خیلی کوتاه نوشتم گفتم اینجا این ویدیو رو هم بذارم یادآوری بشه هم به خودم هم به علی. همیشه هم دوست داشتم این اینجا باشه.
#note
@SingularThinker
چند روز پیش که یکی از دوستام ازم پرسید آیا تا به حال پوچی جهان رو حس کردی؟ نه اینکه صرفا اینکه بهش فک کنیا لمسش کردی عمیقا؟ و برخوردت باهاش چطور بوده؟
جوابی که بهش دادم چیزی بود که یادمه اون روز تو مکالمهام با استادم رد و بدل شد بینمون اولا که آره، حس کردم واقعا تو مقاطع مختلف برای مدتهای کوتاه و گاه طولانی.
مرحله اول به نظرم اینه که با این قضیه کنار بیایم یعنی بپذیریم که دنیا این طوره و قرار نبوده طور دیگهای هم باشه و حقیقتا به قول شوپنهاور به هیچ جاشم نیست ما چی فک میکنیم. خلاصه بعضی وقتا این جور فکرا باید یه سری نظامهای باور ما یا همون جهانبینی ما رو تغییر بده و یه ذره ما رو از اون خود مرکزِ جهانبین بودن دور کنه.
دوم اینکه به قول آقا قدوس جهل مقدس پیش بگیرید؛ یعنی بیش از حد فکر نکردن به این قضیه و نه البته انکارشها. یعنی آره من هم مزهی گس زندگی رو میفهمم و مشتهاش میخوره تو سر و صورتم هر از چندگاهی و میدونم که میمیرم پودر میشم و یه نقطهام تو جهان و همهی اینها ولی من واسه خودم میگم که تهش که این اتفاقا میفته الان که هستم برم بشینم نمیدونم چیزی که دوست دارم، فعلا ml theory، رو بخونم، با دوستام در موردش بحث کنم، چه میدونم برم تو جنگل بدوام و غیره حالا میمیرم دیگه خودم سر موقعش.
دقیقا مثل همین آخر این ویدیو اگه هم خیلی دارم میبینم که تحت فشارم کمک میگیرم از روانشناس یا روانپزشک که مثلا قرصی چیزی باید مصرف کنم. شما هم حتما این کارو بکنید.
اون روز واسه علی خیلی کوتاه نوشتم گفتم اینجا این ویدیو رو هم بذارم یادآوری بشه هم به خودم هم به علی. همیشه هم دوست داشتم این اینجا باشه.
#note
@SingularThinker
👍11❤4👎1
Forwarded from جادی | Jadi
یه محقق آماتور، با استفاده از یه نرم افزار آزاد، بزرگترین عدد اول شناخته شده جهان رو کشف کرد.
این عدد اول که ۴۱ میلیون رقم داره که ۱۶ میلیون رقم طولانیتر از بزرگترین عدد اول کشف شده قبلی است و پیدا کردنش شش سال زمان برده.
لوک دورانت از یه برنامه آزاد به اسم «جستجوی عظیم اینترنتی عدد اول مرسن» استفاده میکرده که اجازه می ده داوطلبان سراسر جهان با استفاده از جی پی یو و سی پی یو دنبال عددهای اول به فرم مرسن بگردن. عددهای مرسن اعداد به شکل «دو به توان ایکس منفی یک» هستن که ایدهشون به کشیشی فرانسوی به همین نام میرسه.
عدد جدید کشف شده، ۵۲مین عدد اول مرسن است که ۴۱ میلیون و ۲۴ هزار و ۳۲۰ رقم داره. این کشف جایزه ۳هزار دلاری رو نصیب آقای دورانت کرده و جوایز بعدی برای اعداد بالای ۱۰۰ میلیون رقم و یک میلیارد رقم، ۱۵۰هزار و ۲۵۰ هزار دلار هستن.
اگر علاقمند به مشارکت و تجربه و تست هستین، برنامه مرسن اینجاست:
https://www.mersenne.org/download/
#خبر #ریاضی #آزادی
این عدد اول که ۴۱ میلیون رقم داره که ۱۶ میلیون رقم طولانیتر از بزرگترین عدد اول کشف شده قبلی است و پیدا کردنش شش سال زمان برده.
لوک دورانت از یه برنامه آزاد به اسم «جستجوی عظیم اینترنتی عدد اول مرسن» استفاده میکرده که اجازه می ده داوطلبان سراسر جهان با استفاده از جی پی یو و سی پی یو دنبال عددهای اول به فرم مرسن بگردن. عددهای مرسن اعداد به شکل «دو به توان ایکس منفی یک» هستن که ایدهشون به کشیشی فرانسوی به همین نام میرسه.
عدد جدید کشف شده، ۵۲مین عدد اول مرسن است که ۴۱ میلیون و ۲۴ هزار و ۳۲۰ رقم داره. این کشف جایزه ۳هزار دلاری رو نصیب آقای دورانت کرده و جوایز بعدی برای اعداد بالای ۱۰۰ میلیون رقم و یک میلیارد رقم، ۱۵۰هزار و ۲۵۰ هزار دلار هستن.
اگر علاقمند به مشارکت و تجربه و تست هستین، برنامه مرسن اینجاست:
https://www.mersenne.org/download/
#خبر #ریاضی #آزادی
🔥4❤2
جادی | Jadi
یه محقق آماتور، با استفاده از یه نرم افزار آزاد، بزرگترین عدد اول شناخته شده جهان رو کشف کرد. این عدد اول که ۴۱ میلیون رقم داره که ۱۶ میلیون رقم طولانیتر از بزرگترین عدد اول کشف شده قبلی است و پیدا کردنش شش سال زمان برده. لوک دورانت از یه برنامه آزاد به…
یه جادویی انگار توی اعداد اول هست که واقعا همیشه آدمو مجذوب میکنه. در عین اینکه خیلی مجرد و محضه کلی کاربرد هم داره. نمیدونم چطوری بگم انگار نظریه اعداد مثلا جزو درسای هاگوارتز بوده. شما میفهمید چی میگم؟
#math
#math
👍14❤2👎1
زنان پیشرو ایرانی
خیلی عجیبه فک میکردم قبلا راجع به پادکستهایی که راجع به زنان تاثیرگذار ایرانی بودن حرف زده بودم ولی الان هر چه میگردم پیداش نمیکنم.
نمیدونم خلاصهاش اینه که من برام جالبه که از وضعیت آدمایی که در ۱۰۰ سال یا ۲۰۰ سال گذشته همین مملکت زندگی میکردن بیشتر بدونم مخصوصا آدمهایی که متفاوت از جامعه فکر و عمل میکردن مخصوصا زنها چونکه اغلب خیلی اطلاعاتی کمی ازشون داریم به دلایل مختلف که نمیخوام الان وارد بحثش بشم.
بهونهی این پیامم ویدئوی اخیرا منتشر شده در کانال یوتیوب بیپلاس هست که داستان پشت سه عکس رو به قدری گیرا و جذاب تعریف میکنه که ادم با خودش میگه یه عکس چقدر میتونه داستان پشتش باشه. عکس مربوط به "مریم عمید" ملقب به مزینالسلطنه هستش که از زنان پیشرو در دوران قاجار بوده. از خانواده مهم و متمولی میاد ولی به شدت سختکوش کنجکاو و جذاب بوده. توصیف بیشتر رو میسپارم به علی آقای بندری در این ویدئو.
دیگه چی؟ یه سری پادکست خوب دیگه هم در مورد یه سری از زنان دیگه گوش دادم که لینکشو اینجا میذارم.
مثلا اینجا نگار میگوید که(کانالش پرایوته ولی میتونید درخواست بدید):
و به عنوان حسن ختام این پست هم دوست دارم از زندگی بیبی مریم استرآبادی بگم .اپیزود هفتاد و پنجم پادکست طنزپردازی، با عنوان
"قهرمانی که از قضا زن بود" در مورد سرگذشت بی بی خانم استرآبادی هست که ایشون اولین زن طنزنویس ایرانی و بنیان گذار اولین مدرسه دخترانه در ایران و نویسندهی کتاب "معایب الرجال" بودن.
جالبی حرکت این آدمها در این بوده که چیزی فرای موفقیت فردی رو در زندگی دنبال میکردن اما نه به طور سوپرمنگونهای که دنیا رو تنهایی نجات بدن بلکه به شدت واقعی و با پاهایی کاملا به روی زمین. اگه این اپیزودا رو گوش دادید به من بگید که کجای داستان واستون جالب بوده یا کجاشو دوست نداشتید تا یکم بحث هم شکل بگیره این پایین.
#video #podcast
@SingularThinker
خیلی عجیبه فک میکردم قبلا راجع به پادکستهایی که راجع به زنان تاثیرگذار ایرانی بودن حرف زده بودم ولی الان هر چه میگردم پیداش نمیکنم.
نمیدونم خلاصهاش اینه که من برام جالبه که از وضعیت آدمایی که در ۱۰۰ سال یا ۲۰۰ سال گذشته همین مملکت زندگی میکردن بیشتر بدونم مخصوصا آدمهایی که متفاوت از جامعه فکر و عمل میکردن مخصوصا زنها چونکه اغلب خیلی اطلاعاتی کمی ازشون داریم به دلایل مختلف که نمیخوام الان وارد بحثش بشم.
بهونهی این پیامم ویدئوی اخیرا منتشر شده در کانال یوتیوب بیپلاس هست که داستان پشت سه عکس رو به قدری گیرا و جذاب تعریف میکنه که ادم با خودش میگه یه عکس چقدر میتونه داستان پشتش باشه. عکس مربوط به "مریم عمید" ملقب به مزینالسلطنه هستش که از زنان پیشرو در دوران قاجار بوده. از خانواده مهم و متمولی میاد ولی به شدت سختکوش کنجکاو و جذاب بوده. توصیف بیشتر رو میسپارم به علی آقای بندری در این ویدئو.
دیگه چی؟ یه سری پادکست خوب دیگه هم در مورد یه سری از زنان دیگه گوش دادم که لینکشو اینجا میذارم.
مثلا اینجا نگار میگوید که(کانالش پرایوته ولی میتونید درخواست بدید):
به مناسبت روز جهانی زن وقت بازشنیدن اپیزود ویژهی روز زن #پادکست رخ هست.یا مثلا در پادکست رامشگر (پادکست زنان موسیقی ایران) زندگی قمرالملوک وزیری شرح داده میشه که واقعا به شدت جالبه این زن. (خلاصهای کوتاه از این اپیزود رو تو کامنت همین پست میذارم.)
لینک castbox
https://castbox.fm/vb/579806205
لینک Spotify
https://open.spotify.com/episode/32iApGFxA1W1MO7Nbfu1aT?si=jL-Mosk3RiWiXB4M0uB_Xg
توی این اپیزود امیر سودبخش خلاصهایی از زنان پیشرو در زمان خودشون میگه؛ مثل قمرالملوک وزیری، بیبی مریم و ایران درودی
و به عنوان حسن ختام این پست هم دوست دارم از زندگی بیبی مریم استرآبادی بگم .اپیزود هفتاد و پنجم پادکست طنزپردازی، با عنوان
"قهرمانی که از قضا زن بود" در مورد سرگذشت بی بی خانم استرآبادی هست که ایشون اولین زن طنزنویس ایرانی و بنیان گذار اولین مدرسه دخترانه در ایران و نویسندهی کتاب "معایب الرجال" بودن.
جالبی حرکت این آدمها در این بوده که چیزی فرای موفقیت فردی رو در زندگی دنبال میکردن اما نه به طور سوپرمنگونهای که دنیا رو تنهایی نجات بدن بلکه به شدت واقعی و با پاهایی کاملا به روی زمین. اگه این اپیزودا رو گوش دادید به من بگید که کجای داستان واستون جالب بوده یا کجاشو دوست نداشتید تا یکم بحث هم شکل بگیره این پایین.
#video #podcast
@SingularThinker
d.castbox.fm
Best free podcast app for Apple iOS and Android | Let words move you
Millions of podcasts for all topics. Listen to the best free podcast on Android, Apple iOS, Amazon Alexa, Google Home, Carplay, Android Auto, PC. Create...
❤8
خب خب من یه چند وقتی درگیر بودم خیلی نرسیدم اخبارو پیگیری کنم. دو تا چیزی که خودم سیو کردم که حتما چک کنم یکیش search gpt عه و اون یکی notebook llm
در مورد این دو تا اگه سورس خوبی توییتی چیزی دارید بفرستید.
و اینکه دیگه چه خبرا بوده این چند وقت؟
کلا اگه نقدی، پیشنهادی چیزی دارید به آدرس توی بیو یا این لینک ناشناس بگید.
در مورد این دو تا اگه سورس خوبی توییتی چیزی دارید بفرستید.
و اینکه دیگه چه خبرا بوده این چند وقت؟
کلا اگه نقدی، پیشنهادی چیزی دارید به آدرس توی بیو یا این لینک ناشناس بگید.
Telegram
برنامه ناشناس
بزرگترین ، قدیمیترین بات پیام ناشناس
📢 کانال رسمی و پشتیبانی
👨💻 @ChatgramSupport
📢 کانال رسمی و پشتیبانی
👨💻 @ChatgramSupport
🔥1
مدلهای زبانی به عنوان ویرایشگر متن
احتمالا همهی ما موقع نوشتن ایمیل، یا نوشتن مقاله، sop یا موارد این چنینی از مدلهای زبانی استفاده کردیم و میکنیم و خواهیم کرد. دیشب یه رشته توئییتی دیدم که چندتا راهنمایی جالب در مورد چگونه بهینهتر کردن این ویرایشها داشت. این پایین یه خلاصهای برای خودم نوشتم که اگه دوست داشتید بخونید و اگر نه برید سراغ اصل توییت.
به طور کلی میگفت که ما بعد از اینکه نسخهی اولیه متنمون رو نوشتیم میتونیم در ۲ جنبهی کلی استفاده کنیم از مدلهای زبانی: ۱. گرامر و ساختار زبانی ۲. ساختار متن و پیامهای اصلی
در واقع اینکه متن ما از نظر زبانی مشکل جدیای نداشته باشه و دوم اینکه نکات کلیدی رو بشه راحت ازش فهمید.
واسه اولی پیشنهادش این بود که بپرسیم ازش که تمام جملاتی که نیاز به تغییر دارن و به همراه تصحیحشون و علتش برامون لیست کنه و صریحا بهش میگه تنها جملاتی رو در نظر بگیره که واقعا مشکل دارن.
واسه دومی هم که یکم سختتره میخواد ازش که ۱.نکات اساسی که از متن ما فهمیده رو به صورت خلاصه بگه و ۲.جریان متن رو فهرست وار بیان کنه.
حالا وقت ارزیابی هستش که چک میکنه اون اهدافی که داشته محقق شده یا نه و اگه نشده کل فرآیند رو دوباره انجام میده و این کارو تکرار میکنه.
اگه تو هم روش جالبی برای استفاده از این مدلها داری خوشحال میشم که بهم تو کامنت یا جاهای دیگه بگی.
#tweet #language_modeling
@SingularThinker
احتمالا همهی ما موقع نوشتن ایمیل، یا نوشتن مقاله، sop یا موارد این چنینی از مدلهای زبانی استفاده کردیم و میکنیم و خواهیم کرد. دیشب یه رشته توئییتی دیدم که چندتا راهنمایی جالب در مورد چگونه بهینهتر کردن این ویرایشها داشت. این پایین یه خلاصهای برای خودم نوشتم که اگه دوست داشتید بخونید و اگر نه برید سراغ اصل توییت.
در واقع اینکه متن ما از نظر زبانی مشکل جدیای نداشته باشه و دوم اینکه نکات کلیدی رو بشه راحت ازش فهمید.
واسه اولی پیشنهادش این بود که بپرسیم ازش که تمام جملاتی که نیاز به تغییر دارن و به همراه تصحیحشون و علتش برامون لیست کنه و صریحا بهش میگه تنها جملاتی رو در نظر بگیره که واقعا مشکل دارن.
واسه دومی هم که یکم سختتره میخواد ازش که ۱.نکات اساسی که از متن ما فهمیده رو به صورت خلاصه بگه و ۲.جریان متن رو فهرست وار بیان کنه.
حالا وقت ارزیابی هستش که چک میکنه اون اهدافی که داشته محقق شده یا نه و اگه نشده کل فرآیند رو دوباره انجام میده و این کارو تکرار میکنه.
اگه تو هم روش جالبی برای استفاده از این مدلها داری خوشحال میشم که بهم تو کامنت یا جاهای دیگه بگی.
#tweet #language_modeling
@SingularThinker
👍2❤1🔥1
Simply Typed Existence
#خانه_داری
برای تمیزی بهتر ظرفها، مایع ظرفشویی و سرکهٔ قرمز رو به نسبت ۲ به ۱ (دو واحد مایع، یک واحد سرکه) مخلوط کنید و سپس ظرفها رو بشورید.
برای تمیزی بهتر ظرفها، مایع ظرفشویی و سرکهٔ قرمز رو به نسبت ۲ به ۱ (دو واحد مایع، یک واحد سرکه) مخلوط کنید و سپس ظرفها رو بشورید.
یه نکته در باب این نکات خانهداری که Annie میگه که خیلی به من کمک کرده هم بگم امروز که خیلی فاز بالای منبر رفتن هست
اگر دارید مستقل زندگی میکنید و خسته شدید ازین که هی به این فکر کنید که ناهار و شام چی درست کنید پیشنهاد میکنم که برنامهی غذای هفتگی رو یادداشت کنید واسه خودتون بعد متناسب با اون برید خرید و این چرخهی معیوب هوس فلان چیز کردیم ولی بهمان چیز رو نداریم رو پایان بدید.
نمیدونم چرا خواستم اینو اینجا بگم بهتون ولی دیگه حالا امتحان میکنیم پایینم یه سری میم میذارم که خودم خیلی وقته دلم تنگ شده بود.
پ.ن: اوصیکم به توجه کردن به میزان پروتئین لازم و دریافتی در هر روز.
#life_hack
@SingularThinker
اگر دارید مستقل زندگی میکنید و خسته شدید ازین که هی به این فکر کنید که ناهار و شام چی درست کنید پیشنهاد میکنم که برنامهی غذای هفتگی رو یادداشت کنید واسه خودتون بعد متناسب با اون برید خرید و این چرخهی معیوب هوس فلان چیز کردیم ولی بهمان چیز رو نداریم رو پایان بدید.
نمیدونم چرا خواستم اینو اینجا بگم بهتون ولی دیگه حالا امتحان میکنیم پایینم یه سری میم میذارم که خودم خیلی وقته دلم تنگ شده بود.
پ.ن: اوصیکم به توجه کردن به میزان پروتئین لازم و دریافتی در هر روز.
#life_hack
@SingularThinker
❤1🔥1
Forwarded from موماست (erfan vahabi)
«چه جالب. ولی نه.»
جملهای که بدون اون تو دنیای ارتباطات و شلوغ امروز خواهی مرد.
جملهای که بدون اون تو دنیای ارتباطات و شلوغ امروز خواهی مرد.
❤3🔥1
❤3🔥1