رسم تطاول
آن که رخسارِ تو را رنگِ گل و نسرین داد
صبر و آرام توانَد به منِ مسکین داد
وان که گیسویِ تو را رسمِ تَطاول آموخت
هم تواند کَرَمَش دادِ منِ غمگین داد
من همان روز ز فرهاد طمع بُبریدم
که عنانِ دلِ شیدا به لبِ شیرین داد
گنجِ زر گر نَبُوَد، کُنجِ قناعت باقیست
آن که آن داد به شاهان، به گدایان این داد
خوش عروسیست جهان از رهِ صورت لیکن
هر که پیوست بدو، عمرِ خودش کاوین داد
بعد از این دستِ من و دامنِ سرو و لبِ جوی
خاصه اکنون که صبا مژده فروردین داد
در کفِ غصه دوران، دلِ حافظ خون شد
از فراقِ رُخَت ای خواجه قوامُ الدین، داد
حافظ
——————
دو بیت اول این شعر بسیار زیباست. در بیت اول میگه که همون کسی که چهره تو رو این چنین زیبا کرده، همون هم (فقط) میتونه به من مسکین صبر و آرامش اعطا کنه. در بیت دوم هم میگه همون کسی که به موی تو رسم ستمگری و ربایش و دست درازی به دلها رو یاد داده، همون هم (فقط) میتونه با کرمش به داد من غمگین برسه. در باقی ابیات هم انگار داره از عشق و معشوقش عقبنشینی میکنه.
آن که رخسارِ تو را رنگِ گل و نسرین داد
صبر و آرام توانَد به منِ مسکین داد
وان که گیسویِ تو را رسمِ تَطاول آموخت
هم تواند کَرَمَش دادِ منِ غمگین داد
من همان روز ز فرهاد طمع بُبریدم
که عنانِ دلِ شیدا به لبِ شیرین داد
گنجِ زر گر نَبُوَد، کُنجِ قناعت باقیست
آن که آن داد به شاهان، به گدایان این داد
خوش عروسیست جهان از رهِ صورت لیکن
هر که پیوست بدو، عمرِ خودش کاوین داد
بعد از این دستِ من و دامنِ سرو و لبِ جوی
خاصه اکنون که صبا مژده فروردین داد
در کفِ غصه دوران، دلِ حافظ خون شد
از فراقِ رُخَت ای خواجه قوامُ الدین، داد
حافظ
——————
دو بیت اول این شعر بسیار زیباست. در بیت اول میگه که همون کسی که چهره تو رو این چنین زیبا کرده، همون هم (فقط) میتونه به من مسکین صبر و آرامش اعطا کنه. در بیت دوم هم میگه همون کسی که به موی تو رسم ستمگری و ربایش و دست درازی به دلها رو یاد داده، همون هم (فقط) میتونه با کرمش به داد من غمگین برسه. در باقی ابیات هم انگار داره از عشق و معشوقش عقبنشینی میکنه.
Out of Distribution
Photo
مهندسی نرمافزار برای دیتاساینتیستها
واقعیت غیرقابل انکاری که وجود داره وجود یک gap میان software engineering و data scientist هاست. دیتاساینتیستها معمولا به دانششون در حوزه هوش و تحلیل داده مینازند، در حالی که هر چه قدر هم این دانش عمیق باشه اما در موقعیتهای عملی واقعی که نیاز به طراحی و توسعه یک محصول پایدار و منعطف با همراهی با بقیه توسعهدهندهها میره، نیاز به نوعی دانش و مهارت مهندسی نرمافزار وجود داره. حالا این کتاب Software Engineering for Data Scientist از انتشارات Oreilly سعی داره تا همین گپ رو برای دیتا ساینتیستها پر کنه و به میزان کافی و نه بیشتر، به اونها نکات مهندسیطور قضیه رو هم انتقال بده. کتاب متن خوبی داره و واقعا قبل از این که یک کتاب مهندسی نرم افزار باشه یک کتابیه که انگار از زاویه دید یک دیتا ساینتیست به مسائل و راهحلهاشون نگاه کرده، برای همین خیلی جاها مثالهاش رو حتی روی ژوپیتر نوتبوک هم زده. این کتاب ۱۵ فصل داره:
چه طوری بهتر کد بنویسم و کد خوب اصلا چیه
چه طوری و از چه زوایایی عملکرد کد رو آنالیز کنیم
چهطوری از دادهساختارها بهتر استفاده کنیم و در هر موقعیت از کدامشان استفاده کنیم
برنامه نویسی OO و Functional، چطور از هر کدوم در موقعیت مخصوص به خودش استفاده کنیم.
هندلکردن ارورها و لاگ و دیباگ
مسائل Code Formatting و Linting
تستکردن کد
دیزاین و ریفکتور، چطوری پروژهمون رو ساختاردهی کنیم و از یک نوتبوک به یک اسکرپیت برسیم
داکیومنتیشن و این که چگونه کدمون رو برای بقیه قابل خوندن و فهمیدن کنیم
به اشتراک گذاری کد و چیزایی مثل Version Control و Dependency
درست کردن API
دپلویکردن و آشنایی با ابزارهای اتومات نظیر CICD
امنیت و ریسکها و خطراتی که میتونن تهدید کنند
مهارتهای توسعه نرمافزار و یک سری مفاهیم پیشرفتهتر از جمله این ۱۵ فصل کتاب هستند. من این کتاب رو چند وقت پیش خوندم و ضمن لذتبردن نوع نگاهم به بعضی مسائل رو هم تغییر داد. بعد از چند وقت اما حس کردم که برای بهتر ملکه ذهن شدنم نیاز دارم تا مطالبش رو توضیح بدم و جایی برای خودم دوباره بنویسم. از همین رو در ادامه انشالله هر از چندگاهی فصلی از این کتاب رو در موردش به صورت خلاصه و اجمالی پست رفته میشه.
واقعیت غیرقابل انکاری که وجود داره وجود یک gap میان software engineering و data scientist هاست. دیتاساینتیستها معمولا به دانششون در حوزه هوش و تحلیل داده مینازند، در حالی که هر چه قدر هم این دانش عمیق باشه اما در موقعیتهای عملی واقعی که نیاز به طراحی و توسعه یک محصول پایدار و منعطف با همراهی با بقیه توسعهدهندهها میره، نیاز به نوعی دانش و مهارت مهندسی نرمافزار وجود داره. حالا این کتاب Software Engineering for Data Scientist از انتشارات Oreilly سعی داره تا همین گپ رو برای دیتا ساینتیستها پر کنه و به میزان کافی و نه بیشتر، به اونها نکات مهندسیطور قضیه رو هم انتقال بده. کتاب متن خوبی داره و واقعا قبل از این که یک کتاب مهندسی نرم افزار باشه یک کتابیه که انگار از زاویه دید یک دیتا ساینتیست به مسائل و راهحلهاشون نگاه کرده، برای همین خیلی جاها مثالهاش رو حتی روی ژوپیتر نوتبوک هم زده. این کتاب ۱۵ فصل داره:
چه طوری بهتر کد بنویسم و کد خوب اصلا چیه
چه طوری و از چه زوایایی عملکرد کد رو آنالیز کنیم
چهطوری از دادهساختارها بهتر استفاده کنیم و در هر موقعیت از کدامشان استفاده کنیم
برنامه نویسی OO و Functional، چطور از هر کدوم در موقعیت مخصوص به خودش استفاده کنیم.
هندلکردن ارورها و لاگ و دیباگ
مسائل Code Formatting و Linting
تستکردن کد
دیزاین و ریفکتور، چطوری پروژهمون رو ساختاردهی کنیم و از یک نوتبوک به یک اسکرپیت برسیم
داکیومنتیشن و این که چگونه کدمون رو برای بقیه قابل خوندن و فهمیدن کنیم
به اشتراک گذاری کد و چیزایی مثل Version Control و Dependency
درست کردن API
دپلویکردن و آشنایی با ابزارهای اتومات نظیر CICD
امنیت و ریسکها و خطراتی که میتونن تهدید کنند
مهارتهای توسعه نرمافزار و یک سری مفاهیم پیشرفتهتر از جمله این ۱۵ فصل کتاب هستند. من این کتاب رو چند وقت پیش خوندم و ضمن لذتبردن نوع نگاهم به بعضی مسائل رو هم تغییر داد. بعد از چند وقت اما حس کردم که برای بهتر ملکه ذهن شدنم نیاز دارم تا مطالبش رو توضیح بدم و جایی برای خودم دوباره بنویسم. از همین رو در ادامه انشالله هر از چندگاهی فصلی از این کتاب رو در موردش به صورت خلاصه و اجمالی پست رفته میشه.
Out of Distribution
تژاژدی پروتستانیسم اسلامی: وقتی به چیزی که باهاش مبارزه میکنی، تبدیل میشی. محمد قوچانی در سالهای اخیر، یک مجموعه کتاب پنجتایی با عنوان "کتابخانه نقد الهیات سیاسی" نوشته که در اون به بررسی رابطه نوگرایی و بنیادگرایی دینی پرداخته. تراژدی پروتستانیسم اسلامی،…
برداشتهای من از فصل یک کتاب تراژدی پروتستانیسم اسلامی که در اون قوچانی به بیان ویژگیهای بنیادگرایی میپردازه.
لینک
لینک
Telegraph
تراژدی پروتستانیسم اسلامی: خدمتها و بدعتهای بنیادگرایی
در فصل اول از کتاب تراژدی پروتستانیسم اسلامی، قوچانی به سراغ توضیح در مورد معنای اسلامگرایی و بنیادگرایی و اضافاتش بر اسلام میره. قوچانی چهار چیز رو به عنوان بدعتهای بنیادگرایی برمیشمره: احیای تئوکراسی، آرمان عدالت اجتماعی، نهضت اتحاد اسلام و البته نظریه…
This media is not supported in your browser
VIEW IN TELEGRAM
چهارشنبه توی کیفش یک مشت ستاره داره ...
و در نهایت خدای این ژانر، سرود چهارشنبه را بشنوید.
نکتهای که برای من همیشه سوال بوده این بوده که هدف و موضوع این سرود، آیا معلم کلاس بوده یا آن دانش آموز.
در ضمن، در عبارت چهارشنبه توی کیفش یک مشت ستاره داره به جای صفر هر بیست یک ستاره میذاره، این که صفر و بیست در کنار هم قرار داده شدن و به جای صفر هر بیست یک ستاره گذاشته میشه خیلی معنا نمادین به ذهن تبادر میکنه. این که بیست، صفر داره و طرف به جای هر صفر بیستش یک ستاره که از کیفش برداشته میگذارد ...
و در نهایت خدای این ژانر، سرود چهارشنبه را بشنوید.
نکتهای که برای من همیشه سوال بوده این بوده که هدف و موضوع این سرود، آیا معلم کلاس بوده یا آن دانش آموز.
در ضمن، در عبارت چهارشنبه توی کیفش یک مشت ستاره داره به جای صفر هر بیست یک ستاره میذاره، این که صفر و بیست در کنار هم قرار داده شدن و به جای صفر هر بیست یک ستاره گذاشته میشه خیلی معنا نمادین به ذهن تبادر میکنه. این که بیست، صفر داره و طرف به جای هر صفر بیستش یک ستاره که از کیفش برداشته میگذارد ...
Out of Distribution
مهندسی نرمافزار برای دیتاساینتیستها واقعیت غیرقابل انکاری که وجود داره وجود یک gap میان software engineering و data scientist هاست. دیتاساینتیستها معمولا به دانششون در حوزه هوش و تحلیل داده مینازند، در حالی که هر چه قدر هم این دانش عمیق باشه اما در…
کد خوب چه کدیه؟
یادداشتهایی از فصل یک کتاب Software Engineering for Data Scientist.
به طور خلاصه: درد ما تغییره. باید بتونیم تغییرات رو پذیرا باشیم. کدی که بخواد در برابر تغییرات انعطافپذیری داشته باشه باید پنج ویزگی زیر رو داشته باشه:
ساده باشه، یعنی هر جاییش رو که تغییر میدید بشه پیشبینی کرد چه جاهای دیگهای اثر میپذیرن.
ماژولار باشه، یعنی به قطعات کوچکتر شکستهشده باشه، به نحوی که تغییر در یک جا، جاهای کمتر دیگهای رو تغییر بده.
خوانا باشه یعنی خودتون بعدها یا یک غریبه دیگه بتونه کد رو بخونه و با کمترین درد بفهمه.
کارا باشه از لحاظ های مختلف عملکردی
و مقاوم و مستحکم باشه یعنی هم بشه به راحتی اجراش رو تکرار کرد و هم اگر جایی ورودی غیرمنتظرهای گرفت بدون دلیل و جهت fail نکنه.
و ما در واقع راجع به کد صحبت نمیکنیم. عقاید ما هم باید همین شکلی باشند.
ساده باشند، یعنی بدونیم اگر نظرمون در مورد فلان چیز رو تغییر دادیم، نظراتمون در چه مسائل دیگه ای تغییر میکنند.
ماژولار باشه، یعنی جهان بینی کلیمون در ابعاد و مسایل مختلف تا حدی از هم مستقل باشن، مثلا اگر در حوزه اقتصاد از چپ به راست یا بالعکس تغییر گرایش دادیم یهو در یک حوزه دیگه هم مجبور به بازتعریف کل نظراتمون نباشیم.
خوانا باشه، یعنی بتونیم برای شخص دیگهای عقایدمون رو توضیح بدیم.
کارا باشه یعنی هدف اصلی زندگی کردن و بقا رو تامین کنه.
و در نهایت مقاوم باشه. افراد دیگه مستقل از ما بتونن به کار ببندنش و اگر هم مورد پیشبینی نشده ای رخ داد بتونیم هندلش کنیم.
لینک
یادداشتهایی از فصل یک کتاب Software Engineering for Data Scientist.
به طور خلاصه: درد ما تغییره. باید بتونیم تغییرات رو پذیرا باشیم. کدی که بخواد در برابر تغییرات انعطافپذیری داشته باشه باید پنج ویزگی زیر رو داشته باشه:
ساده باشه، یعنی هر جاییش رو که تغییر میدید بشه پیشبینی کرد چه جاهای دیگهای اثر میپذیرن.
ماژولار باشه، یعنی به قطعات کوچکتر شکستهشده باشه، به نحوی که تغییر در یک جا، جاهای کمتر دیگهای رو تغییر بده.
خوانا باشه یعنی خودتون بعدها یا یک غریبه دیگه بتونه کد رو بخونه و با کمترین درد بفهمه.
کارا باشه از لحاظ های مختلف عملکردی
و مقاوم و مستحکم باشه یعنی هم بشه به راحتی اجراش رو تکرار کرد و هم اگر جایی ورودی غیرمنتظرهای گرفت بدون دلیل و جهت fail نکنه.
و ما در واقع راجع به کد صحبت نمیکنیم. عقاید ما هم باید همین شکلی باشند.
ساده باشند، یعنی بدونیم اگر نظرمون در مورد فلان چیز رو تغییر دادیم، نظراتمون در چه مسائل دیگه ای تغییر میکنند.
ماژولار باشه، یعنی جهان بینی کلیمون در ابعاد و مسایل مختلف تا حدی از هم مستقل باشن، مثلا اگر در حوزه اقتصاد از چپ به راست یا بالعکس تغییر گرایش دادیم یهو در یک حوزه دیگه هم مجبور به بازتعریف کل نظراتمون نباشیم.
خوانا باشه، یعنی بتونیم برای شخص دیگهای عقایدمون رو توضیح بدیم.
کارا باشه یعنی هدف اصلی زندگی کردن و بقا رو تامین کنه.
و در نهایت مقاوم باشه. افراد دیگه مستقل از ما بتونن به کار ببندنش و اگر هم مورد پیشبینی نشده ای رخ داد بتونیم هندلش کنیم.
لینک
Telegraph
Software Engineering for Data Scientists: What is Good Code?
فصل یک از کتاب درباره این پرسش و مساله هست که کد خوب چه کدی هست؟ و در ابتدا شروع میکنه یک سری معیار برای کد خوب میگه: سریع اجرا بشه سادهبشه خوندش و فهمیدش نگهداری ازش ساده باشه یعنی اگر پروژه تغییر کرد و نیازمندی جدیدی اضافه شده بود، بشه به راحتی کد رو…
Out of Distribution
برداشتهای من از فصل یک کتاب تراژدی پروتستانیسم اسلامی که در اون قوچانی به بیان ویژگیهای بنیادگرایی میپردازه. لینک
برداشتهای من از فصل دوم کتاب تراژدی پروتستانیسم اسلامی: جایی که در اون قوچانی مطرح میکنه که که چطور روشنفکری دینی به صورت دیالیکتیکطور به بنیادگرایی آخرالزمانی سقوط میکنه.
داستان به صورت تمثیلی اینه که احمد میخواد دست به روشنفکری دینی بزنه. احمد با نهاد روحانیت و ناکارآمدیهاش مخالفه. احمد میدونه که بنیان نهاد روحانیت بر مهدویته. احمد پس در جهت نقد روحانیت، میاد تعریف جدیدی از مهدویت سیاسی رو ارائه میده تا روحانیت رو از بازی خارج کنه. احمد بعد از حذف نهاد روحانیت و برای عدمشکلگیری دوباره روحانیت، برای تفسیر دین نهاد و مکتب خاص خودش رو تعریف میکنه و این وسط مفاهیمی مثل ولایت معنوی رو هم مجبوره وارد کنه. در نهایت احمد میمونه و مهدویت سیاسی و مذهب جدیدش و عرفانهایی که وارد اون مذهب کرده. احمد اومد روحانیت رو اصلاح کنه اما خودش یک نهاد مشابه دیگه ساخت.
لینک
داستان به صورت تمثیلی اینه که احمد میخواد دست به روشنفکری دینی بزنه. احمد با نهاد روحانیت و ناکارآمدیهاش مخالفه. احمد میدونه که بنیان نهاد روحانیت بر مهدویته. احمد پس در جهت نقد روحانیت، میاد تعریف جدیدی از مهدویت سیاسی رو ارائه میده تا روحانیت رو از بازی خارج کنه. احمد بعد از حذف نهاد روحانیت و برای عدمشکلگیری دوباره روحانیت، برای تفسیر دین نهاد و مکتب خاص خودش رو تعریف میکنه و این وسط مفاهیمی مثل ولایت معنوی رو هم مجبوره وارد کنه. در نهایت احمد میمونه و مهدویت سیاسی و مذهب جدیدش و عرفانهایی که وارد اون مذهب کرده. احمد اومد روحانیت رو اصلاح کنه اما خودش یک نهاد مشابه دیگه ساخت.
لینک
Telegraph
تراژدی پروتستانیسم اسلامی: چرا و چگونه روشنفکری دینی به بنیادگرایی دینی میانجامد؟
قوچانی در این فصل، از دیالکتیک هگل شروع میکنه و میگه همونطور که هر چیزی، ضد خودش رو درون خودش و در جهت عکس خودش پرورش میده، روشنفکری دینی هم باعث بنیادگرایی آخرالزمانی میشه. دیدگاه اسلام سنتی در مورد امام مهدی، این بود که پس از شهادت امام حسن عسگری، حضرت…
Out of Distribution
Photo
عذرخواهی، بخشش و توبه ایشیدا
امروز در ادامه عادت انیمهبینی که امسال آغازش کردهام، A Silent Voice را دیدم. فیلم دوست داشتنی است. وقتی شروع میشود و جلو میرود فکر میکنید با یک داستان عاشقانه طرفید ولی آخر سر میفهمید داستان چیزی فراتر از یک داستان عاشقانه است. شاید راجع به زندگی و مرگ، کلنجارهایمان با خودمان و دیگران است. رخدادهای کاملا واقعپذیر و دور از کلیشهای در مسیر داستان رخ میدهد و احساسات و شخصیت کاراکترها هم واقعی به نظر میرسند. به دور از هر کلیشهای فیلم جلو میرود و در نهایت هم با کمترین کلیشه تمام میشود. چند چیز جالبی که به نظرم رسیدم:
نیشیما و ایشیدا به نوعی نقش متقارن هم دارند. برای هر دو آن اتفاق بزرگ رخ میدهد، یگی در ابتدای فیلم و دیگری در پایانش. یکی لال است و نمیتواند حرف بزند و دیگری هم از شنیدن صحبتهای مردم درباره خودش در آزار است.
ایشیدا به وضوح افسرده است اما هیچ جای فیلم ما گریهکردن او را نمیبینیم.
شخصیت مادربزرگ نیشیما با وجود این که حضور خیلی کمی داره ولی دوستداشتنی بود.
هر کدام از ما به نوعی در یک انزوا از سایرینیم. همانگونه که شخصیتها فیلم این چنیناند.
بارها و بارها در فیلم برای ایشیدا این سوال مطرح میشود که آیا دوستی با نیشیما به دلایل خودخواهانه است یا نه.
دو تا کامنت جالبی که در یوتیوب درباره A silent voice خوندم رو هم اینجا میذارم:
When you finally realize that "A silent voice" is not a story about a guy falling in love with a girl, It's about a guy being able to love himself again.
apologising is hard,
forgiving is harder,
but forgiving yourself is near impossible.
فرآیندی هم که انگار در طول فیلم طی میکنیم همین معذرتخواهی، بخشش و در نهایت توبه ایشیدا است. به راستی معنی توبه و بخشش خود چیست؟
امروز در ادامه عادت انیمهبینی که امسال آغازش کردهام، A Silent Voice را دیدم. فیلم دوست داشتنی است. وقتی شروع میشود و جلو میرود فکر میکنید با یک داستان عاشقانه طرفید ولی آخر سر میفهمید داستان چیزی فراتر از یک داستان عاشقانه است. شاید راجع به زندگی و مرگ، کلنجارهایمان با خودمان و دیگران است. رخدادهای کاملا واقعپذیر و دور از کلیشهای در مسیر داستان رخ میدهد و احساسات و شخصیت کاراکترها هم واقعی به نظر میرسند. به دور از هر کلیشهای فیلم جلو میرود و در نهایت هم با کمترین کلیشه تمام میشود. چند چیز جالبی که به نظرم رسیدم:
نیشیما و ایشیدا به نوعی نقش متقارن هم دارند. برای هر دو آن اتفاق بزرگ رخ میدهد، یگی در ابتدای فیلم و دیگری در پایانش. یکی لال است و نمیتواند حرف بزند و دیگری هم از شنیدن صحبتهای مردم درباره خودش در آزار است.
ایشیدا به وضوح افسرده است اما هیچ جای فیلم ما گریهکردن او را نمیبینیم.
شخصیت مادربزرگ نیشیما با وجود این که حضور خیلی کمی داره ولی دوستداشتنی بود.
هر کدام از ما به نوعی در یک انزوا از سایرینیم. همانگونه که شخصیتها فیلم این چنیناند.
بارها و بارها در فیلم برای ایشیدا این سوال مطرح میشود که آیا دوستی با نیشیما به دلایل خودخواهانه است یا نه.
دو تا کامنت جالبی که در یوتیوب درباره A silent voice خوندم رو هم اینجا میذارم:
When you finally realize that "A silent voice" is not a story about a guy falling in love with a girl, It's about a guy being able to love himself again.
apologising is hard,
forgiving is harder,
but forgiving yourself is near impossible.
فرآیندی هم که انگار در طول فیلم طی میکنیم همین معذرتخواهی، بخشش و در نهایت توبه ایشیدا است. به راستی معنی توبه و بخشش خود چیست؟
شرکت openai دقایقی پیش از مدلی به نام o1 رونمایی کرده که ادعا میکنه مسائل reasoning و پیچیده رو در حوزه ریاضی و کد و علم رو به واسطه صرف زمان بیشتری برای فکر کردن بهتر میتونه حل کنه. در نگاه اول به نظر در معماری تغییری ندادن و صرفا شاید دیتاستی با chain of thoughtهای بیشتری رو برای آموزش مدل فراهم کردند. خلاصه که به نظر هنوز اتفاق و گام بزرگ خاصی در رسیدن به System2 و Reasoning و AGI هنوز رخ نداده.
پینوشت: البته از ساید کاربردی، قطعا پیشرفت llmها در کدزنی، باعث پیشرفت در محصولات پایین دستی نظیر همین replit اینها میشه.
https://openai.com/index/introducing-openai-o1-preview/
آپدیت ۱: open ai در بلاگی به توضیح بیشتر در مورد o1 پرداخته و گویا قضیه فراتر از صرف غنیکردن دیتاست هست بلکه RL رو هم به فرآیند reasoning اضافه کردند طبقه گفته خودشون. هر چند صحبت بیشتری مطرح نکردند که به صورت جزیی چطور RL وارد داستان شده (با تشکر از علی رمضانی):
https://openai.com/index/learning-to-reason-with-llms/
آپدیت ۲: پست بعدی رو بخونید
پینوشت: البته از ساید کاربردی، قطعا پیشرفت llmها در کدزنی، باعث پیشرفت در محصولات پایین دستی نظیر همین replit اینها میشه.
https://openai.com/index/introducing-openai-o1-preview/
آپدیت ۱: open ai در بلاگی به توضیح بیشتر در مورد o1 پرداخته و گویا قضیه فراتر از صرف غنیکردن دیتاست هست بلکه RL رو هم به فرآیند reasoning اضافه کردند طبقه گفته خودشون. هر چند صحبت بیشتری مطرح نکردند که به صورت جزیی چطور RL وارد داستان شده (با تشکر از علی رمضانی):
https://openai.com/index/learning-to-reason-with-llms/
آپدیت ۲: پست بعدی رو بخونید
Out of Distribution
شرکت openai دقایقی پیش از مدلی به نام o1 رونمایی کرده که ادعا میکنه مسائل reasoning و پیچیده رو در حوزه ریاضی و کد و علم رو به واسطه صرف زمان بیشتری برای فکر کردن بهتر میتونه حل کنه. در نگاه اول به نظر در معماری تغییری ندادن و صرفا شاید دیتاستی با chain…
آیا o1 یک paradigm changer است؟
این نمودار سمت راستی که openai در بلاگش منتشر کرده جالب توجهه و من حرف پست قبلی رو پس میگیرم. تا این لحظه توضیح رسمی نیومده که o1 چطور reasoning رو انجام میده و RL دقیقا چه طور درش به کار رفته. (مدل pricing دقیقی هم من ازش ندیدم اگر بود قابل حدستر بود). اما نکته این نمودار اینه که داره به scale کردن در زمان inference اشاره میکنه. آیا مثلا این شکلیه که فرآیند تولید توکنهای reasoning (رو که اتفاقا به کاربر نشون نمیده) رو داره در یک قالب سرچ با کمک RL انجام میده ؟؟
این نمودار سمت راستی که openai در بلاگش منتشر کرده جالب توجهه و من حرف پست قبلی رو پس میگیرم. تا این لحظه توضیح رسمی نیومده که o1 چطور reasoning رو انجام میده و RL دقیقا چه طور درش به کار رفته. (مدل pricing دقیقی هم من ازش ندیدم اگر بود قابل حدستر بود). اما نکته این نمودار اینه که داره به scale کردن در زمان inference اشاره میکنه. آیا مثلا این شکلیه که فرآیند تولید توکنهای reasoning (رو که اتفاقا به کاربر نشون نمیده) رو داره در یک قالب سرچ با کمک RL انجام میده ؟؟
Out of Distribution
کد خوب چه کدیه؟ یادداشتهایی از فصل یک کتاب Software Engineering for Data Scientist. به طور خلاصه: درد ما تغییره. باید بتونیم تغییرات رو پذیرا باشیم. کدی که بخواد در برابر تغییرات انعطافپذیری داشته باشه باید پنج ویزگی زیر رو داشته باشه: ساده باشه، یعنی…
چه طوری و از چه زوایایی عملکرد کد رو آنالیز کنیم
یادداشتهایی از فصل دو کتاب Software Engineering for Data Scientist.
تقدیم به امیرعلی رستمی که تشویق به ادامه این پستها کرد.
لینک
یادداشتهایی از فصل دو کتاب Software Engineering for Data Scientist.
تقدیم به امیرعلی رستمی که تشویق به ادامه این پستها کرد.
لینک
Telegraph
Software Engineering for Data Scientists: Analyzing Code Performance
فصل دوم از کتاب به سراغ مساله performance کد میره. اولین مساله اینه که کد باید درست کار کنه و حالا بعد سراغ performance اش بریم. معنی نداره کدی داشته باشید که کار نکنه و بخواید از نظر performance ای بهبودش بدید (گرچه سناریو متداولی برای افراد وسواسی هست).…
Forwarded from وقایع اتفاقیه AI
مدل o1 و معرفی پارادایم جدید برای مقیاس Inference
تا الان بودجه محاسباتی و پردازشی که خرج LLM ها میشه، عمدتا برای مرحله Pre-train یا همون ساخت LLM ها مصرف میشده. بعد از ساخت و سرو کردن مدل روی پروداکشن، به ازای هر پرامپتی که سمت LLM میاد، یک بار یک جنریت رخ میده و پاسخ تحویل کاربر داده میشه. این روال فعلی تمام LLM ها چه Open و چه Close source هست. هرچند که خود جنریت کردن رو اگر بعنوان تسک پیشبینی توکن بعدی ببینیم، استراتژیهای زیادی براش وجود داره و اتفاقا استفاده از استراتژیهای متفاوت منجر به نتایج متفاوت میشه. مثال معروفش Temperature است که بهتره برای تسکهایی که خلاقیت نیاز داره (مثل نوشتن شعر)، بالا باشه. ولی با این وجود در هرحال عرف تا الان این بوده که برای یک پرامپت، یک پاسخ جنریت میشده ولو با استراتژیهای مختلف.
حالا بطور خلاصه اگر بخوام کار بزرگی که در مدل جدید OpenAI رخ داده رو اشاره کنم، تغییر این رواله. یعنی به ازای یک پرامپت لزوما یک پاسخ دیگه جنریت نمیشه. بلکه پاسخهای بسیاری چه بصورت موازی و چه متوالی تولید میشه و براساس یک سری مکانیزمهای انتخاب و خودبهبودی درنهایت جواب نهایی تولید و به کاربر نمایش داده میشه. پاسخهای موازی یعنی گرفتن پاسخ از LLM با کانفیگهای جنریشن متفاوت و پاسخهای متوالی یعنی دادن جنریت قبلی مدل به مدل و خواستن جنریت بهتر. با اینکه در نهایت به کاربر یک پاسخ نمایش داده میشه ولی میزان توکن تولیدی توسط LLM با میزان توکن نمایش داده شده برابر نیست و این همون چیزیه که OpenAI به جهات مارکتینگی اسمش رو گذاشت Thinking.
سوالی که اینجا بوجود میاد اینه که این مکانیزمهای انتخاب چی ها هستن؟ تقریبا یک ماه پیش Deep-Mind یک مقاله منتشر کرد که در اون برای اولین بار صحبت از قانون مقیاس Inference time شد و به طور جزئی و با آزمایشات مختلف مکانیزمهای انتخاب رو بررسی کرد. مقاله بر محور این سوال میره جلو که اگر ما یک بودجه محاسباتی ثابت (ولی نه ناچیز بلکه زیاد) برای Inference داشته باشیم، مدل چقدر میتونه دقت بیشتر روی پرامپتهای چالشی بهمون بده؟ در ادامه مقاله دو روش برای خود-بهبودی مدل حین اینفرنس پیاده میکنه که بطور مختصر اشاره میکنم.
تو روش اول میایم distribution مدل رو برای پاسخ بهتر تغییر میدیم. مدل رو قبل از اینکه بره روی پروداکشن یک دور با یک سری دیتا و با یک سری متدهای الهامگرفته از یادگیری تقویتی مثل STaR یا ReST فاینتیون میکنند.به محض اینکه روی پروداکشن پرامپتی بیاد که شبیه به اون پرامپتهایی باشه که در فاینتیون دیده، فورا بعد از جنریت اولیه، پاسخ بهتر رو به روش CoT تولید میکنه. حالا این پاسخها میتونه بصورت موازی باشه و چه متوالی و همچنین میتونه با روش بعدی ترکیب بشه. خالق این روش گوگل و دیپمایند نبوده و اینها صرفا برای مساله مدنظر (یعنی بررسی افزایش دقت با افزایش بودجه محاسباتی زمان Inference) ازش استفاده کردند.
تو روش دوم، مدل پاسخهای متعددی رو چه بصورت موازی و چه سری جنریت میکنه و یک مدل دیگهای (Reward Model) میاد بعنوان Verifier عمل میکنه و Score میده به پاسخها و بهترین پاسخ رو به کاربر نمایش میده. جذابیت این روش اینه که میشه تمام پاسخها رو به فرمت CoT از مدل گرفت و این بار Verifier بهجای دادن Score روی کل پاسخ بیاد روی هر قسمت از پاسخها Score بده. به این شکل میشه جوابها رو در هم ترکیب کرد و با اجرای الگوریتمهای Tree Search بهترین پاسخ رو تولید کرد. مثلا اگر از مدل، سه تا پاسخ به صورت CoT یا همون Chain of thought گرفتیم، بیایم مقدمه اول از پاسخ اول رو با مقدمه دوم از پاسخ دوم ترکیب کنیم و از قسمت نتیجه پاسخ سه استفاده کنیم و درنهایت پاسخ نهایی رو تولید کنیم. این روش تا 4 برابر میزان Inference time رو نسبت به زمانی که صرفا چند پاسخ از مدل بگیریم و در نهایت یک رای نهایی توسط Verifier صادر بشه کاهش داده.
در نهایت این مقاله به یک نتیجهگیری مهم رسیده و اون اینکه برای تسکهای ساده تا کمی دشوار (و نه خیلی دشوار) اگر یک مدل از چنین روشی استفاده کنه، به فرض بودجه محاسباتی ثابت، دقت خروجی این مدل برابر با دقت یک مدل با 14برابر! وزن بیشتره در حالتی که فقط یک پاسخ جنریت میکنه. این یعنی میشه با همون مدل قبلی GPT4 تا 14 برابر هوشمندی بیشتر دریافت کرد. این همون نتایج شگفتانگیزیه که OpenAI خیلی زودتر از بقیه متوجه شد و الان ما اون چیزی که روی کاعذهای دیپمایند میخونیم رو توی ChatGPT حسش میکنیم. در این مقاله به این موضوع هم اشاره شده که برای تسکهای خیلی دشوار بهصرفهتر اینه که بیشترین حجم بودجه پردازشی رو بدیم به Pre-training ولی برای بقیه تسکها فرض اینه که حجم زیادی از بودجه محاسباتی برای Inference time خواهد بود.
@AI_360
تا الان بودجه محاسباتی و پردازشی که خرج LLM ها میشه، عمدتا برای مرحله Pre-train یا همون ساخت LLM ها مصرف میشده. بعد از ساخت و سرو کردن مدل روی پروداکشن، به ازای هر پرامپتی که سمت LLM میاد، یک بار یک جنریت رخ میده و پاسخ تحویل کاربر داده میشه. این روال فعلی تمام LLM ها چه Open و چه Close source هست. هرچند که خود جنریت کردن رو اگر بعنوان تسک پیشبینی توکن بعدی ببینیم، استراتژیهای زیادی براش وجود داره و اتفاقا استفاده از استراتژیهای متفاوت منجر به نتایج متفاوت میشه. مثال معروفش Temperature است که بهتره برای تسکهایی که خلاقیت نیاز داره (مثل نوشتن شعر)، بالا باشه. ولی با این وجود در هرحال عرف تا الان این بوده که برای یک پرامپت، یک پاسخ جنریت میشده ولو با استراتژیهای مختلف.
حالا بطور خلاصه اگر بخوام کار بزرگی که در مدل جدید OpenAI رخ داده رو اشاره کنم، تغییر این رواله. یعنی به ازای یک پرامپت لزوما یک پاسخ دیگه جنریت نمیشه. بلکه پاسخهای بسیاری چه بصورت موازی و چه متوالی تولید میشه و براساس یک سری مکانیزمهای انتخاب و خودبهبودی درنهایت جواب نهایی تولید و به کاربر نمایش داده میشه. پاسخهای موازی یعنی گرفتن پاسخ از LLM با کانفیگهای جنریشن متفاوت و پاسخهای متوالی یعنی دادن جنریت قبلی مدل به مدل و خواستن جنریت بهتر. با اینکه در نهایت به کاربر یک پاسخ نمایش داده میشه ولی میزان توکن تولیدی توسط LLM با میزان توکن نمایش داده شده برابر نیست و این همون چیزیه که OpenAI به جهات مارکتینگی اسمش رو گذاشت Thinking.
سوالی که اینجا بوجود میاد اینه که این مکانیزمهای انتخاب چی ها هستن؟ تقریبا یک ماه پیش Deep-Mind یک مقاله منتشر کرد که در اون برای اولین بار صحبت از قانون مقیاس Inference time شد و به طور جزئی و با آزمایشات مختلف مکانیزمهای انتخاب رو بررسی کرد. مقاله بر محور این سوال میره جلو که اگر ما یک بودجه محاسباتی ثابت (ولی نه ناچیز بلکه زیاد) برای Inference داشته باشیم، مدل چقدر میتونه دقت بیشتر روی پرامپتهای چالشی بهمون بده؟ در ادامه مقاله دو روش برای خود-بهبودی مدل حین اینفرنس پیاده میکنه که بطور مختصر اشاره میکنم.
تو روش اول میایم distribution مدل رو برای پاسخ بهتر تغییر میدیم. مدل رو قبل از اینکه بره روی پروداکشن یک دور با یک سری دیتا و با یک سری متدهای الهامگرفته از یادگیری تقویتی مثل STaR یا ReST فاینتیون میکنند.به محض اینکه روی پروداکشن پرامپتی بیاد که شبیه به اون پرامپتهایی باشه که در فاینتیون دیده، فورا بعد از جنریت اولیه، پاسخ بهتر رو به روش CoT تولید میکنه. حالا این پاسخها میتونه بصورت موازی باشه و چه متوالی و همچنین میتونه با روش بعدی ترکیب بشه. خالق این روش گوگل و دیپمایند نبوده و اینها صرفا برای مساله مدنظر (یعنی بررسی افزایش دقت با افزایش بودجه محاسباتی زمان Inference) ازش استفاده کردند.
تو روش دوم، مدل پاسخهای متعددی رو چه بصورت موازی و چه سری جنریت میکنه و یک مدل دیگهای (Reward Model) میاد بعنوان Verifier عمل میکنه و Score میده به پاسخها و بهترین پاسخ رو به کاربر نمایش میده. جذابیت این روش اینه که میشه تمام پاسخها رو به فرمت CoT از مدل گرفت و این بار Verifier بهجای دادن Score روی کل پاسخ بیاد روی هر قسمت از پاسخها Score بده. به این شکل میشه جوابها رو در هم ترکیب کرد و با اجرای الگوریتمهای Tree Search بهترین پاسخ رو تولید کرد. مثلا اگر از مدل، سه تا پاسخ به صورت CoT یا همون Chain of thought گرفتیم، بیایم مقدمه اول از پاسخ اول رو با مقدمه دوم از پاسخ دوم ترکیب کنیم و از قسمت نتیجه پاسخ سه استفاده کنیم و درنهایت پاسخ نهایی رو تولید کنیم. این روش تا 4 برابر میزان Inference time رو نسبت به زمانی که صرفا چند پاسخ از مدل بگیریم و در نهایت یک رای نهایی توسط Verifier صادر بشه کاهش داده.
در نهایت این مقاله به یک نتیجهگیری مهم رسیده و اون اینکه برای تسکهای ساده تا کمی دشوار (و نه خیلی دشوار) اگر یک مدل از چنین روشی استفاده کنه، به فرض بودجه محاسباتی ثابت، دقت خروجی این مدل برابر با دقت یک مدل با 14برابر! وزن بیشتره در حالتی که فقط یک پاسخ جنریت میکنه. این یعنی میشه با همون مدل قبلی GPT4 تا 14 برابر هوشمندی بیشتر دریافت کرد. این همون نتایج شگفتانگیزیه که OpenAI خیلی زودتر از بقیه متوجه شد و الان ما اون چیزی که روی کاعذهای دیپمایند میخونیم رو توی ChatGPT حسش میکنیم. در این مقاله به این موضوع هم اشاره شده که برای تسکهای خیلی دشوار بهصرفهتر اینه که بیشترین حجم بودجه پردازشی رو بدیم به Pre-training ولی برای بقیه تسکها فرض اینه که حجم زیادی از بودجه محاسباتی برای Inference time خواهد بود.
@AI_360
Out of Distribution
برداشتهای من از فصل دوم کتاب تراژدی پروتستانیسم اسلامی: جایی که در اون قوچانی مطرح میکنه که که چطور روشنفکری دینی به صورت دیالیکتیکطور به بنیادگرایی آخرالزمانی سقوط میکنه. داستان به صورت تمثیلی اینه که احمد میخواد دست به روشنفکری دینی بزنه. احمد با نهاد…
برداشتهای من از فصل سوم کتاب تراژدی پروتستانیسم اسلامی.
این فصل به بررسی تاریخ شکلگیری پروتستانیسم مسیحی میپردازه. جایی که پروتستانها با نیت اصلاح شریعت اما به سمت باطنیگرایی رفتند و با باطنیگرایی استبداد دینی سنگینتری رو ایجاد کردند و در بعضی موارد از شریعت هم عبور کردند.
لینک
این فصل به بررسی تاریخ شکلگیری پروتستانیسم مسیحی میپردازه. جایی که پروتستانها با نیت اصلاح شریعت اما به سمت باطنیگرایی رفتند و با باطنیگرایی استبداد دینی سنگینتری رو ایجاد کردند و در بعضی موارد از شریعت هم عبور کردند.
لینک
Telegraph
تراژدی پروتستانیسم اسلامی: پروتستانیسم مسیحی
فصل سه تراژدی پروتستانیسم اسلامی، قوچانی به سراغ بررسی تاریخی پدیده پروتستانیسم مسیحت و مارتین لوتر میره و سپس نمونههای شیعی رو برمیشمره. قوچانی این فصل رو با یک سخن بسیار جالب از اشتفان تسوایگ شروع میکنه:
Out of Distribution
Photo
پیکسار رنگ و نقش زیادی در خاطرات دوران کودکی ما متولدین ۷۵ تا ۸۵ دارد. یادم نیست که toy story 1 را اولین بار کی دیدم، اما به خوبی یادم هست که Cars را در عصر اول فروردین یک سالی در خانه مادربزرگم دیدم. Ratatouille و Finding Nemo را در تابستان از تلویزیون دیدم. Monsters, Inc. را یادم هست مادرم سیدی اش را برایم خریده بود و اولین بار با آن جا قدرت دوبله فارسی را درک کردم. WALL-E را یک عصر پاییزی از شبکه دو دیدم. Toy Story 3 را یکی از همان چهارشنبهسوریهایی که معنیاش برایمان پخش انیمیشنهای نو از تلویزیون بود، دیدم. UP همین دقیقا یک چهارشنبه سوری دیگر. و البته Inside Out رو هم در یک شب زمستانی وقتی خانه مادربزرگم بودم فکر کنم از فیلیمو دیدم. همان Inside Out اما تقریبا شروع سراشیبی پیکسار بود. The Good Dinosaur و Turning Red و Lightyear و ... همگی افتضاح بودند. این وسط البته Coco و Soul تا حدی داستان قابل درگیرشدنی داشتند. اما حرکت کلی پیکسار از ۲۰۱۰ به بعد دیگر آن حرکت ۲۰۰۰ تا ۲۰۱۰ نبود. ایدههای جدید پیکسار نظیر همین دایناسور خوب و قرمزشدن خوب از آب درنیامدند و دنبالههایی هم که نظیر نمو ۲ و داستان اسباببازی ۴ و ماشینهای ۲ و ... ساختند بدتر خاطرات قدیمی را خراب کردند. امروز بالاخره فرصتی شد تا Inside Out 2 را ببینم. به نظرم از ۲۰۱۰ و Toy Story3 به بعد، این بهترین دنبالهای است که پیکسار توانسته بسازد و دچار مریضی دنبالهسازیهای قبلی نشده. با این که هنوز آن حس شگفتی که با دیدن آن انیمیشنهای اول متن لمس میکردیم را برنمیانگیزد اما بالاخره دیدنی است و آدم میگوید خوب شد که دیدمش. هر چند هنوز پیکسار به نظرم از روند افت خودش خارج نشده و دنباله سازیهایش بیشتر شبیه سیاستهای محافظهکاری است.
از پیکسار بگذریم. inside out2 واقعا دیدنی است. مهمترین دلیل شاید به روی صحنه آوردن همین احساساتی است که درون خودمان با آنها رو به رو میشویم و برایمان کاملا آشنا هستند. آن جایی که اضطراب میگوید که هر تصمیمی تا آخر عمر تاثیر میگذارد :) آن جایی که رایلی از وال سوال الکی میپرسد که وال از او خوشش بیاید :) آن جایی که حسادت میگوید که اگر نه جزو بهترین بازیکنها باشیم و نه بدترینها و نهایتا گمنام و فراموش شویم چطور :) آن جایی که اضطراب به شادی میگوید که من این کارها را برای تو میکنم که رایلی در آینده شادتر باشد :) آن جایی که شادی میگوید که بزرگترشدن این طوریه که کمتر احساس شادی میکنی و .... همگی صحنههایی هستند که لااقل برای خود من خیلی آشنا هستند. به علاوه پرداخت خوبی را هم در جزییات میبیینم. شخصیت بلوفی آدم را سریع به دوران کودکیاش و کارتون سگ آبی میبرد. تک تک احساسات هم طنز مناسبی دارند. فقط ای کاش پایانبندی آن شکلی کلیشهای نداشت. (یاد پایانبندی Soul افتادم)
اما در مورد پیام فیلم. پیامی که من گرفتم همان پیام معمول است که باید همه جنبههای وجودیمان را درک کنیم و بپذیریم. شاید اوج این نمایش قرار گرفتن شخصیت I am a good person دربرابر I am not good enough بود. جایی که در نهایت هیچ کدام از این دو حذف نشدند و هر دو در داخل هم قرار گرفتند. دیالوگی که شادی میگوید که هر بخش آشفته و زیبایش را دوست داریم به همین مفهوم پذیرش اشاره میکند. اما نقدی که من به این قضیه پذیرفتهشدن خودمون دارم اینه که همین طور که ما جنبه های مختلفی داریم، در بعد اجتماعی هم چیزهایی فراتر از ما هستند و ما بخشی از اون هستیم. من خودم یک سیستم پیچیدهای از خصیصههای مختلف خوب و بد هستم. ممکن است نهایتا به این نتیجه برسم که باید خودم را با تمامی این ها بپذیرم اما خود من هم به عنوان یک فرد، بخشی از جامعه هستم. خیلی وقتها ما با خودمان به صلح و آرامش میرسیم اما جامعه دست از سر ما برنمیدارد و ما را دوباره به جنگ با خودمان برمیگرداند. همیشه این سوال برای آدم شکل میگیرد که من تا وقتی خفنم مورد پذیرش دیگران قرار میگیرم اما وقتی اشتباهی کنم، سودی برایشان نداشته باشه طرز نگاه آنها به من عوض خواهد شد. به نظر تا وقتی جامعه به این قضیه پذیرش کلی نرسد، صلح ما در درون هم شکننده است. نمیدانم شاید هم راه درست این است که ما به عنوان فرد، جامعه را با تمام ویژگیهایش بپذیریم. احساسات درون فردی، فردی که از آن احساسات تشکیل شده و جامعهای که از افراد مختلف تشکیل شده به نظر همگی در یک معما و بازی پیچیده هستند.
از پیکسار بگذریم. inside out2 واقعا دیدنی است. مهمترین دلیل شاید به روی صحنه آوردن همین احساساتی است که درون خودمان با آنها رو به رو میشویم و برایمان کاملا آشنا هستند. آن جایی که اضطراب میگوید که هر تصمیمی تا آخر عمر تاثیر میگذارد :) آن جایی که رایلی از وال سوال الکی میپرسد که وال از او خوشش بیاید :) آن جایی که حسادت میگوید که اگر نه جزو بهترین بازیکنها باشیم و نه بدترینها و نهایتا گمنام و فراموش شویم چطور :) آن جایی که اضطراب به شادی میگوید که من این کارها را برای تو میکنم که رایلی در آینده شادتر باشد :) آن جایی که شادی میگوید که بزرگترشدن این طوریه که کمتر احساس شادی میکنی و .... همگی صحنههایی هستند که لااقل برای خود من خیلی آشنا هستند. به علاوه پرداخت خوبی را هم در جزییات میبیینم. شخصیت بلوفی آدم را سریع به دوران کودکیاش و کارتون سگ آبی میبرد. تک تک احساسات هم طنز مناسبی دارند. فقط ای کاش پایانبندی آن شکلی کلیشهای نداشت. (یاد پایانبندی Soul افتادم)
اما در مورد پیام فیلم. پیامی که من گرفتم همان پیام معمول است که باید همه جنبههای وجودیمان را درک کنیم و بپذیریم. شاید اوج این نمایش قرار گرفتن شخصیت I am a good person دربرابر I am not good enough بود. جایی که در نهایت هیچ کدام از این دو حذف نشدند و هر دو در داخل هم قرار گرفتند. دیالوگی که شادی میگوید که هر بخش آشفته و زیبایش را دوست داریم به همین مفهوم پذیرش اشاره میکند. اما نقدی که من به این قضیه پذیرفتهشدن خودمون دارم اینه که همین طور که ما جنبه های مختلفی داریم، در بعد اجتماعی هم چیزهایی فراتر از ما هستند و ما بخشی از اون هستیم. من خودم یک سیستم پیچیدهای از خصیصههای مختلف خوب و بد هستم. ممکن است نهایتا به این نتیجه برسم که باید خودم را با تمامی این ها بپذیرم اما خود من هم به عنوان یک فرد، بخشی از جامعه هستم. خیلی وقتها ما با خودمان به صلح و آرامش میرسیم اما جامعه دست از سر ما برنمیدارد و ما را دوباره به جنگ با خودمان برمیگرداند. همیشه این سوال برای آدم شکل میگیرد که من تا وقتی خفنم مورد پذیرش دیگران قرار میگیرم اما وقتی اشتباهی کنم، سودی برایشان نداشته باشه طرز نگاه آنها به من عوض خواهد شد. به نظر تا وقتی جامعه به این قضیه پذیرش کلی نرسد، صلح ما در درون هم شکننده است. نمیدانم شاید هم راه درست این است که ما به عنوان فرد، جامعه را با تمام ویژگیهایش بپذیریم. احساسات درون فردی، فردی که از آن احساسات تشکیل شده و جامعهای که از افراد مختلف تشکیل شده به نظر همگی در یک معما و بازی پیچیده هستند.
با اون بازی نکن
پادکست چراز در آخرین قسمتش به سراغ مساله ناترازی برق رفته. توضیح داده ماجرا دقیقا چیه و در طی همین روایت هم یک تصویر بزرگتری از ماجراهای دیگه ای مثل قیمتگذاری دستوری و این که چرا نباید با قیمت بازی کرد، رو ارائه داده. چند تا سوال و پاسخهایی که در اثنای بحث این قسمت بهشون پاسخ داده میشه:
اگر تحریمها برداشته بشه فرقی میکنه؟
خیر. ما دچار ناترازی یا کسری در برق هستیم. تحریم هم برداشته بشه باید به اندازه هفت ماه پول صادرات نفتمون رو بدیم به جاش برق وارد کنیم.
چرا در این دو سال اخیر برق قطع نمیشد؟
در دو سال اخیر دولت چون به انتخابات ۱۴۰۴ نگاه داشت، برق صنعتی رو قطع میکرد و برق مردم رو وصل نگه میداشت تا دولت بتونه در ۱۴۰۴ رای بیاره. ولی با رخدادهای ریاست جمهوری اسلامی، وقتی اینها هم چیزی برای نگرانی نداشتند اون سیاست حفظ برق مردم به قیمت قطع برق صنعتی رو رها کردند.
آیا مردم در مصرف برق مقصرند؟
اینجا به نظرم بهترین قسمت این برنامه است. چراز کلی عدد و آمار ارائه میده و به طور خاص ایران و ترکیه رو با هم مقایسه میکنه. فکت اینه که تولید برق ما بیشتر از ترکیه است، جمعیت ما هم یکسانه اونا قطعی برق ندارند ولی ما داریم. فکت دیگه این که ما سرانه مصرف بالایی داریم اما این سرانه مصرف هم اون قدر عجیب و غریب نیست. چیزی که بحث میشه اینه که بین پیک مصرف برق در تابستان و زمستان ایران اختلاف زیادی وجود داره. در تابستان پیک مصرف ۷۳ گیگاوات ساعت هست و در زمستان ۴۵ گیگاوات ساعت. برای همین یکی از دلایلی هست که نمیصرفه در ایران نیروگاه برقی زد. چون عمده تقاضاش در تابستان هست و در زمستان عملا بیکاره (این وسط یک بحثی که مطرح میشه اینه که ما خریت کردیم کل کشور رو لوله گاز کشیدیم، در حالی که در کشورهای دیگه از برق به جای گاز استفاده میشه).
پیک تابستان به چه علته؟
چراز میگه که کولر گازی. مصرف کولرگازی ۶ برابر کولرآبی هست. قیمت برق هم این قدر پایینه که میصرفه شما کولرگازی مصرف کنید. قیمت برق در ترکیه ۷ سنت و در ایران ۰.۵ سنت هست. به نظر چراز حتی اگر حداقل حقوق رو هم حساب کنیم که در ترکیه سه برابر ایرانه، باز قیمت برق در ایران خیلی ارزون درمیاد.
قیمت پایین برق باعث چه میشه؟
اول این که وقتی قیمت گذاری خراب باشه نمیصرفه تکنولوژی کولر رو عوض کنند. تاثیر مهمتر این که سرمایه گذاری در صنعت نیروگاه هم کم شده. نمیصرفه نیروگاه زد. نمیصرفه حتی سمت نیروگاههای انرژی تجدیدپذیر نظیر خورشید و باد رفت. قیمت گذاری پایین باعث حتی قاچاق برق به وسیله ماینرها هم میشه. از اونور کمبود برق هم باعث میشه تا تولید در ایران بخوابه. فرار سرمایه بیشتر و سیکل مشکلات بیشتر.
اینها تقصیر کیه؟
چراز برمیگرده به سال ۸۳. در اون سالها طبق قانون قیمت حاملهای انرژی هر سال بسته به تورم افزایش پیدا میکردند و قرار بود ظرف ۵ سال قیمتها آزادسازی بشه. اما مجلس هفتم به رهبری احمد توکلی به علت رقابتهای سیاسی برای انتخابات ریاست جمهوری سال آینده، طرح تثبیت قیمتها رو کلید زدند که اجازه افزایش قیمت حاملهای انرژی رو از دولت میگرفت و کل داستان از اون موقع خراب شد.
پینوشت من:
روایت چراز در کل منطقی به نظر میرسه اما سوالی که برای من وجود داره، نحوه توزیع مصرف حاملهای انرژی بین دهکهای مختلفه. بیاید همون مساله کولر گازی رو در نظر بگیریم. ما کشوری هستیم که درصد زیادی از جمعیتمون زیر خط فقر هستند و احتمالا هم نقشی در همون داستان کولر گازی ندارند. پس شاید احتمالا سهم زیادی از این ناترازی تقصیر صدکهای بالای جامعه باشه. اما سوالی که هست اینه که آیا آزادسازی قیمتها چاره کاره؟ قبلا هم در اینجا بحث کرده بودیم با آزادسازی قیمتها دوباره این طبقه پایین جامعه است که بیشتر آسیب میبینه و طبقه بالا چون ابزار اقتصادی دستش داره دوباره خودش رو وفق میده. آزادسازی در شرایط فعلی یک جراحیه که مستقیم موجب مرگ اقشار غیربالای جامعه میشه و چه بسا باعث پیامدهای امنیتی و اجتماعی بعدش هم بشه. آزادسازی وقتی باید رخ بده که یک دولت مقتدر در ایران بر سر کار باشه. دولتی که تحت تحریمهای درآمدهای خارجی نباشه و بتونه در صورت لزوم منابع مالی لازم رو فراهم کنه. دولتی که بتونه به تمام و کامل مالیاتی رو از جا و افرادی که باید، بگیره. دولتی که در عین حال از حقوق کارگران و کارمندان دفاع کنه و جلوی سرکوب حقوق اونها رو بگیره. الله اعلم.
لینک:
https://www.youtube.com/watch?v=S9BoyvewRP0
پادکست چراز در آخرین قسمتش به سراغ مساله ناترازی برق رفته. توضیح داده ماجرا دقیقا چیه و در طی همین روایت هم یک تصویر بزرگتری از ماجراهای دیگه ای مثل قیمتگذاری دستوری و این که چرا نباید با قیمت بازی کرد، رو ارائه داده. چند تا سوال و پاسخهایی که در اثنای بحث این قسمت بهشون پاسخ داده میشه:
اگر تحریمها برداشته بشه فرقی میکنه؟
خیر. ما دچار ناترازی یا کسری در برق هستیم. تحریم هم برداشته بشه باید به اندازه هفت ماه پول صادرات نفتمون رو بدیم به جاش برق وارد کنیم.
چرا در این دو سال اخیر برق قطع نمیشد؟
در دو سال اخیر دولت چون به انتخابات ۱۴۰۴ نگاه داشت، برق صنعتی رو قطع میکرد و برق مردم رو وصل نگه میداشت تا دولت بتونه در ۱۴۰۴ رای بیاره. ولی با رخدادهای ریاست جمهوری اسلامی، وقتی اینها هم چیزی برای نگرانی نداشتند اون سیاست حفظ برق مردم به قیمت قطع برق صنعتی رو رها کردند.
آیا مردم در مصرف برق مقصرند؟
اینجا به نظرم بهترین قسمت این برنامه است. چراز کلی عدد و آمار ارائه میده و به طور خاص ایران و ترکیه رو با هم مقایسه میکنه. فکت اینه که تولید برق ما بیشتر از ترکیه است، جمعیت ما هم یکسانه اونا قطعی برق ندارند ولی ما داریم. فکت دیگه این که ما سرانه مصرف بالایی داریم اما این سرانه مصرف هم اون قدر عجیب و غریب نیست. چیزی که بحث میشه اینه که بین پیک مصرف برق در تابستان و زمستان ایران اختلاف زیادی وجود داره. در تابستان پیک مصرف ۷۳ گیگاوات ساعت هست و در زمستان ۴۵ گیگاوات ساعت. برای همین یکی از دلایلی هست که نمیصرفه در ایران نیروگاه برقی زد. چون عمده تقاضاش در تابستان هست و در زمستان عملا بیکاره (این وسط یک بحثی که مطرح میشه اینه که ما خریت کردیم کل کشور رو لوله گاز کشیدیم، در حالی که در کشورهای دیگه از برق به جای گاز استفاده میشه).
پیک تابستان به چه علته؟
چراز میگه که کولر گازی. مصرف کولرگازی ۶ برابر کولرآبی هست. قیمت برق هم این قدر پایینه که میصرفه شما کولرگازی مصرف کنید. قیمت برق در ترکیه ۷ سنت و در ایران ۰.۵ سنت هست. به نظر چراز حتی اگر حداقل حقوق رو هم حساب کنیم که در ترکیه سه برابر ایرانه، باز قیمت برق در ایران خیلی ارزون درمیاد.
قیمت پایین برق باعث چه میشه؟
اول این که وقتی قیمت گذاری خراب باشه نمیصرفه تکنولوژی کولر رو عوض کنند. تاثیر مهمتر این که سرمایه گذاری در صنعت نیروگاه هم کم شده. نمیصرفه نیروگاه زد. نمیصرفه حتی سمت نیروگاههای انرژی تجدیدپذیر نظیر خورشید و باد رفت. قیمت گذاری پایین باعث حتی قاچاق برق به وسیله ماینرها هم میشه. از اونور کمبود برق هم باعث میشه تا تولید در ایران بخوابه. فرار سرمایه بیشتر و سیکل مشکلات بیشتر.
اینها تقصیر کیه؟
چراز برمیگرده به سال ۸۳. در اون سالها طبق قانون قیمت حاملهای انرژی هر سال بسته به تورم افزایش پیدا میکردند و قرار بود ظرف ۵ سال قیمتها آزادسازی بشه. اما مجلس هفتم به رهبری احمد توکلی به علت رقابتهای سیاسی برای انتخابات ریاست جمهوری سال آینده، طرح تثبیت قیمتها رو کلید زدند که اجازه افزایش قیمت حاملهای انرژی رو از دولت میگرفت و کل داستان از اون موقع خراب شد.
پینوشت من:
روایت چراز در کل منطقی به نظر میرسه اما سوالی که برای من وجود داره، نحوه توزیع مصرف حاملهای انرژی بین دهکهای مختلفه. بیاید همون مساله کولر گازی رو در نظر بگیریم. ما کشوری هستیم که درصد زیادی از جمعیتمون زیر خط فقر هستند و احتمالا هم نقشی در همون داستان کولر گازی ندارند. پس شاید احتمالا سهم زیادی از این ناترازی تقصیر صدکهای بالای جامعه باشه. اما سوالی که هست اینه که آیا آزادسازی قیمتها چاره کاره؟ قبلا هم در اینجا بحث کرده بودیم با آزادسازی قیمتها دوباره این طبقه پایین جامعه است که بیشتر آسیب میبینه و طبقه بالا چون ابزار اقتصادی دستش داره دوباره خودش رو وفق میده. آزادسازی در شرایط فعلی یک جراحیه که مستقیم موجب مرگ اقشار غیربالای جامعه میشه و چه بسا باعث پیامدهای امنیتی و اجتماعی بعدش هم بشه. آزادسازی وقتی باید رخ بده که یک دولت مقتدر در ایران بر سر کار باشه. دولتی که تحت تحریمهای درآمدهای خارجی نباشه و بتونه در صورت لزوم منابع مالی لازم رو فراهم کنه. دولتی که بتونه به تمام و کامل مالیاتی رو از جا و افرادی که باید، بگیره. دولتی که در عین حال از حقوق کارگران و کارمندان دفاع کنه و جلوی سرکوب حقوق اونها رو بگیره. الله اعلم.
لینک:
https://www.youtube.com/watch?v=S9BoyvewRP0
YouTube
بحران ناترازی برق؛ آیندهی تاریک پیشرو و راهکار برونرفت از آن
🔹بحران ناترازی برق؛ آیندهی تاریک پیشرو راهکار برونرفت از آن
🔹مقصر اصلی قطعی برق چیست؟
🔸در چند سال گذشته، کسری برق سبب قطعیهای مکرر و اختلال در زندگی عادی مردم شده است. پاسخ دولتها به این مشکل، تلاش برای مدیریت مصرف و نیز جیرهبندی برق صنایع بوده…
🔹مقصر اصلی قطعی برق چیست؟
🔸در چند سال گذشته، کسری برق سبب قطعیهای مکرر و اختلال در زندگی عادی مردم شده است. پاسخ دولتها به این مشکل، تلاش برای مدیریت مصرف و نیز جیرهبندی برق صنایع بوده…
ای دوست حقیقت شنو از من سخنی
با بادهٔ لعل باش و با سیم تنی
کانکس که جهان کرد فراغت دارد
از سبلت چون تویی و ریش چو منی
واضحا خیام
————————
خیام در این رباعی میگه اون کسی که این دنیا رو خلق کرده براش سبیل تو یا ریش من اهمیتی نداره، پس برو دنبال حالبردن باش و باقی جزییات
با بادهٔ لعل باش و با سیم تنی
کانکس که جهان کرد فراغت دارد
از سبلت چون تویی و ریش چو منی
واضحا خیام
————————
خیام در این رباعی میگه اون کسی که این دنیا رو خلق کرده براش سبیل تو یا ریش من اهمیتی نداره، پس برو دنبال حالبردن باش و باقی جزییات
تا رسانم بوسهای بر رویِ ماهت یک سحر
نکته جالبی که در مورد openai o1 قابل دیدنه اینه که نسبت به نسخههای قبلی بهتر میتونه شعر فارسی بگه. نسخههای قبلی وزن و عروض رو به خوبی نمیتونستند دربیارن ولی o1 در این مورد خیلی بهتره. هر چند کامل نیست و خیلی جاها هم خراب میکنه ولی در کل بهتر از یک آدم نرمال میتونه شعر بگه و چه بسا o2 یا o3 بتونند فال حافظ و غزل سعدی رو هم بیکار کنند. یک نمونه از خروجیهای شعر o1 رو که هیچ اصلاحی روشون اعمال نشده رو در ادامه میفرستم:
آمدی ای صبحِ روشن، از پسِ شامِ سحر
بردهای خواب از دو چشمم، با نگاهی خیره سر
شوقِ دیدارِ تو دارم، ای نگارِ نازنین
دل شده آشفتهٔ تو، بیقرار و در به در
عشقِ تو آتشفشان است، در دلِ دیوانهام
میکِشد سودای وصلت، هر نفس سوی خطر
در رهت جان میسپارم، ای پری رویِ قمر
تا رسانم بوسهای بر رویِ ماهت یک سحر
با خیالِ وصلِ رویت زندهام در این قفس
چون شکسته بالِ خسته، منتظر بر یک خبر
کاش آید آن زمانی کز لبت نوشم شراب
میشود پایان غمها، میرسد خورشیدِ بر
پرامپت: یک غزل عاشقانه بنویس که در آن قافیه و وزن و عروض رعایت شده باشد. این غزل باید به سبک محمد حسین شهریار باشد. وزن غزل باید "فاعلاتن فاعلاتن فاعلاتن فاعلن (رمل مثمن محذوف" باشد
نکته جالبی که در مورد openai o1 قابل دیدنه اینه که نسبت به نسخههای قبلی بهتر میتونه شعر فارسی بگه. نسخههای قبلی وزن و عروض رو به خوبی نمیتونستند دربیارن ولی o1 در این مورد خیلی بهتره. هر چند کامل نیست و خیلی جاها هم خراب میکنه ولی در کل بهتر از یک آدم نرمال میتونه شعر بگه و چه بسا o2 یا o3 بتونند فال حافظ و غزل سعدی رو هم بیکار کنند. یک نمونه از خروجیهای شعر o1 رو که هیچ اصلاحی روشون اعمال نشده رو در ادامه میفرستم:
آمدی ای صبحِ روشن، از پسِ شامِ سحر
بردهای خواب از دو چشمم، با نگاهی خیره سر
شوقِ دیدارِ تو دارم، ای نگارِ نازنین
دل شده آشفتهٔ تو، بیقرار و در به در
عشقِ تو آتشفشان است، در دلِ دیوانهام
میکِشد سودای وصلت، هر نفس سوی خطر
در رهت جان میسپارم، ای پری رویِ قمر
تا رسانم بوسهای بر رویِ ماهت یک سحر
با خیالِ وصلِ رویت زندهام در این قفس
چون شکسته بالِ خسته، منتظر بر یک خبر
کاش آید آن زمانی کز لبت نوشم شراب
میشود پایان غمها، میرسد خورشیدِ بر
پرامپت: یک غزل عاشقانه بنویس که در آن قافیه و وزن و عروض رعایت شده باشد. این غزل باید به سبک محمد حسین شهریار باشد. وزن غزل باید "فاعلاتن فاعلاتن فاعلاتن فاعلن (رمل مثمن محذوف" باشد
چشمِ مستِ تو به یک غمزه دلم بُرد از دست
یک غزل عاشقانه بنویس که در آن قافیه و وزن و عروض رعایت شده باشد
این غزل باید به سبک حافظ باشد.
وزن این شعر باید فعلاتن فعلاتن فعلاتن فعلن باشد:
در هوای رخ تو مرغ دلم بیپر شد
به صفای نگهت عالم دل یکسر شد
چشمِ مستِ تو به یک غمزه دلم بُرد از دست
عقل رفت از سَرِ من، کارِ دلم دیگر شد
دیدم آن رویِ تو را، خانه ز نور آکنده
دل ز شوقِ رُخِ تو، ای گلِ من، احمر شد
شوقِ دیدارِ تو دارم شب و روز ای دلبر
بیتو این جان و دلم عاشق و جانبر در شد
در ره عشق تو ای دوست، سبکبال شدم
هر چه غیر از تو رها گشت و دل از غم بر شد
آخر ای مرغِ نفس، بال و پَرَت کو تا باز
برسم بر سرِ کویش که دلم مضطر شـد
یک غزل عاشقانه بنویس که در آن قافیه و وزن و عروض رعایت شده باشد
این غزل باید به سبک حافظ باشد.
وزن این شعر باید فعلاتن فعلاتن فعلاتن فعلن باشد:
در هوای رخ تو مرغ دلم بیپر شد
به صفای نگهت عالم دل یکسر شد
چشمِ مستِ تو به یک غمزه دلم بُرد از دست
عقل رفت از سَرِ من، کارِ دلم دیگر شد
دیدم آن رویِ تو را، خانه ز نور آکنده
دل ز شوقِ رُخِ تو، ای گلِ من، احمر شد
شوقِ دیدارِ تو دارم شب و روز ای دلبر
بیتو این جان و دلم عاشق و جانبر در شد
در ره عشق تو ای دوست، سبکبال شدم
هر چه غیر از تو رها گشت و دل از غم بر شد
آخر ای مرغِ نفس، بال و پَرَت کو تا باز
برسم بر سرِ کویش که دلم مضطر شـد