Out of Distribution – Telegram
Out of Distribution
2.28K subscribers
452 photos
9 videos
8 files
267 links
Download Telegram
رسم تطاول

آن که رخسارِ تو را رنگِ گل و نسرین داد
صبر و آرام توانَد به منِ مسکین داد

وان که گیسویِ تو را رسمِ تَطاول آموخت
هم تواند کَرَمَش دادِ منِ غمگین داد

من همان روز ز فرهاد طمع بُبریدم
که عنانِ دلِ شیدا به لبِ شیرین داد

گنجِ زر گر نَبُوَد، کُنجِ قناعت باقیست
آن که آن داد به شاهان، به گدایان این داد

خوش عروسیست جهان از رهِ صورت لیکن
هر که پیوست بدو، عمرِ خودش کاوین داد

بعد از این دستِ من و دامنِ سرو و لبِ جوی
خاصه اکنون که صبا مژده فروردین داد

در کفِ غصه دوران، دلِ حافظ خون شد
از فراقِ رُخَت ای خواجه قوامُ الدین، داد

حافظ
——————
دو بیت اول این شعر بسیار زیباست. در بیت اول می‌گه که همون کسی که چهره تو رو این چنین زیبا کرده، همون هم (فقط) می‌تونه به من مسکین صبر و آرامش اعطا کنه. در بیت دوم هم می‌گه همون کسی که به موی تو رسم ستمگری و ربایش و دست درازی به دل‌ها رو یاد داده، همون هم (فقط) می‌تونه با کرمش به داد من غمگین برسه. در باقی ابیات هم انگار داره از عشق و معشوقش عقب‌نشینی می‌کنه.
Out of Distribution
Photo
مهندسی‌ نرم‌افزار برای دیتاساینتیست‌ها

واقعیت غیرقابل انکاری که وجود داره وجود یک gap میان software engineering و data scientist هاست. دیتاساینتیست‌ها معمولا به دانششون در حوزه هوش و تحلیل داده می‌نازند، در حالی که هر چه قدر هم این دانش عمیق باشه اما در موقعیت‌های عملی واقعی که نیاز به طراحی و توسعه یک محصول پایدار و منعطف با همراهی با بقیه توسعه‌دهنده‌ها می‌ره، نیاز به نوعی دانش و مهارت مهندسی نرم‌افزار وجود داره. حالا این کتاب Software Engineering for Data Scientist از انتشارات Oreilly سعی داره تا همین گپ رو برای دیتا ساینتیست‌ها پر کنه و به میزان کافی و نه بیشتر، به اونها نکات مهندسی‌طور قضیه رو هم انتقال بده. کتاب متن خوبی داره و واقعا قبل از این که یک کتاب مهندسی نرم افزار باشه یک کتابیه که انگار از زاویه دید یک دیتا ساینتیست به مسائل و راه‌حل‌هاشون نگاه کرده، برای همین خیلی‌ جاها مثال‌هاش رو حتی روی ژوپیتر نوتبوک هم زده. این کتاب ۱۵ فصل داره:
چه طوری بهتر کد بنویسم و کد خوب اصلا چیه
چه طوری و از چه زوایایی عملکرد کد رو آنالیز کنیم
چه‌طوری از داده‌ساختار‌ها بهتر استفاده کنیم و در هر موقعیت از کدامشان استفاده کنیم
برنامه نویسی OO و Functional، چطور از هر کدوم در موقعیت مخصوص به خودش استفاده کنیم.
هندل‌کردن ارورها و لاگ و دیباگ
مسائل Code Formatting و Linting
تست‌کردن کد
دیزاین و ریفکتور، چطوری پروژه‌مون رو ساختاردهی کنیم و از یک نوتبوک به یک اسکرپیت برسیم
داکیومنتیشن و این که چگونه کدمون رو برای بقیه قابل خوندن و فهمیدن کنیم
به اشتراک گذاری کد و چیزایی مثل Version Control و Dependency
درست کردن API
دپلوی‌کردن و آشنایی با ابزارهای اتومات نظیر CICD
امنیت و ریسک‌ها و خطراتی که می‌تونن تهدید کنند
مهارت‌های توسعه نرم‌افزار و یک سری مفاهیم پیشرفته‌تر از جمله این ۱۵ فصل کتاب هستند. من این کتاب رو چند وقت پیش خوندم و ضمن لذت‌بردن نوع نگاهم به بعضی مسائل رو هم تغییر داد. بعد از چند وقت اما حس کردم که برای بهتر ملکه ذهن شدنم نیاز دارم تا مطالبش رو توضیح بدم و جایی برای خودم دوباره بنویسم. از همین رو در ادامه انشالله هر از چندگاهی فصلی از این کتاب رو در موردش به صورت خلاصه و اجمالی پست رفته ‌‌میشه.
This media is not supported in your browser
VIEW IN TELEGRAM
چهارشنبه توی کیفش یک مشت ستاره داره ...

و در نهایت خدای این ژانر، سرود چهارشنبه را بشنوید.

نکته‌ای که برای من همیشه سوال بوده این بوده که هدف و موضوع این سرود، آیا معلم کلاس بوده یا آن دانش آموز.

در ضمن، در عبارت چهارشنبه توی کیفش یک مشت ستاره داره به جای صفر هر بیست یک ستاره می‌ذاره، این که صفر و بیست در کنار هم قرار داده شدن و به جای صفر هر بیست یک ستاره گذاشته می‌شه خیلی معنا نمادین به ذهن تبادر می‌کنه. این که بیست، صفر داره و طرف به جای هر صفر بیستش یک ستاره که از کیفش برداشته می‌گذارد ...
Out of Distribution
مهندسی‌ نرم‌افزار برای دیتاساینتیست‌ها واقعیت غیرقابل انکاری که وجود داره وجود یک gap میان software engineering و data scientist هاست. دیتاساینتیست‌ها معمولا به دانششون در حوزه هوش و تحلیل داده می‌نازند، در حالی که هر چه قدر هم این دانش عمیق باشه اما در…
کد خوب چه کدیه؟

یادداشت‌هایی از فصل یک کتاب Software Engineering for Data Scientist.

به طور خلاصه: درد ما تغییره. باید بتونیم تغییرات رو پذیرا باشیم. کدی که بخواد در برابر تغییرات انعطاف‌پذیری داشته باشه باید پنج ویزگی زیر رو داشته باشه:

ساده باشه، یعنی هر جاییش رو که تغییر می‌دید بشه پیش‌بینی کرد چه جاهای دیگه‌ای اثر می‌پذیرن.
ماژولار باشه،‌ یعنی به قطعات کوچکتر شکسته‌شده باشه، به نحوی که تغییر در یک جا، جاهای کمتر دیگه‌ای رو تغییر بده.
خوانا باشه یعنی خودتون بعدها یا یک غریبه دیگه بتونه کد رو بخونه و با کمترین درد بفهمه.
کارا باشه از لحاظ های مختلف عملکردی
و مقاوم و مستحکم باشه یعنی هم بشه به راحتی اجراش رو تکرار کرد و هم اگر جایی ورودی غیرمنتظره‌ای گرفت بدون دلیل و جهت fail نکنه.

و ما در واقع راجع به کد صحبت نمی‌کنیم. عقاید ما هم باید همین شکلی باشند.
ساده باشند، یعنی بدونیم اگر نظرمون در مورد فلان چیز رو تغییر دادیم، نظراتمون در چه مسائل دیگه ای تغییر می‌کنند.
ماژولار باشه، یعنی جهان بینی کلی‌مون در ابعاد و مسایل مختلف تا حدی از هم مستقل باشن، مثلا اگر در حوزه اقتصاد از چپ به راست یا بالعکس تغییر گرایش دادیم یهو در یک حوزه دیگه هم مجبور به بازتعریف کل نظراتمون نباشیم.
خوانا باشه، یعنی بتونیم برای شخص دیگه‌ای عقایدمون رو توضیح بدیم.
کارا باشه یعنی هدف اصلی زندگی کردن و بقا رو تامین کنه.
و در نهایت مقاوم باشه. افراد دیگه مستقل از ما بتونن به کار ببندنش و اگر هم مورد پیش‌بینی نشده ای رخ داد بتونیم هندلش کنیم.

لینک
Out of Distribution
برداشت‌های من از فصل یک کتاب تراژدی پروتستانیسم اسلامی که در اون قوچانی به بیان ویژگی‌های بنیادگرایی می‌پردازه. لینک
برداشت‌های من از فصل دوم کتاب تراژدی پروتستانیسم اسلامی: جایی که در اون قوچانی مطرح می‌کنه که که چطور روشنفکری دینی به صورت دیالیکتیک‌طور به بنیادگرایی آخرالزمانی سقوط می‌کنه.

داستان به صورت تمثیلی اینه که احمد می‌خواد دست به روشنفکری دینی بزنه. احمد با نهاد روحانیت و ناکارآمدی‌هاش مخالفه. احمد می‌دونه که بنیان نهاد روحانیت بر مهدویته. احمد پس در جهت نقد روحانیت، میاد تعریف جدیدی از مهدویت سیاسی رو ارائه می‌ده تا روحانیت رو از بازی خارج کنه. احمد بعد از حذف نهاد روحانیت و برای عدم‌شکل‌گیری دوباره روحانیت، برای تفسیر دین نهاد و مکتب خاص خودش رو تعریف می‌کنه و این وسط مفاهیمی مثل ولایت معنوی رو هم مجبوره وارد کنه. در نهایت احمد می‌مونه و مهدویت سیاسی و مذهب جدیدش و عرفان‌هایی که وارد اون مذهب‌ کرده. احمد اومد روحانیت رو اصلاح کنه اما خودش یک نهاد مشابه دیگه ساخت.

لینک
Out of Distribution
Photo
عذرخواهی، بخشش و توبه ایشیدا

امروز در ادامه عادت انیمه‌بینی که امسال آغازش کرده‌ام، A Silent Voice را دیدم. فیلم دوست داشتنی است. وقتی شروع می‌شود و جلو می‌رود فکر می‌کنید با یک داستان عاشقانه طرفید ولی آخر سر می‌فهمید داستان چیزی فراتر از یک داستان عاشقانه است. شاید راجع به زندگی و مرگ، کلنجارهایمان با خودمان و دیگران است. رخدادهای کاملا واقع‌پذیر و دور از کلیشه‌ای در مسیر داستان رخ می‌دهد و احساسات و شخصیت کاراکترها هم واقعی به نظر می‌رسند. به دور از هر کلیشه‌ای فیلم جلو می‌رود و در نهایت هم با کمترین کلیشه تمام می‌شود. چند چیز جالبی که به نظرم رسیدم:

نیشیما و ایشیدا به نوعی نقش متقارن هم دارند. برای هر دو آن اتفاق بزرگ رخ می‌دهد، یگی در ابتدای فیلم و دیگری در پایانش. یکی لال است و نمی‌تواند حرف بزند و دیگری هم از شنیدن صحبت‌های مردم درباره خودش در آزار است.
ایشیدا به وضوح افسرده است اما هیچ جای فیلم ما گریه‌کردن او را نمی‌بینیم.
شخصیت مادربزرگ نیشیما با وجود این که حضور خیلی کمی داره ولی دوست‌داشتنی بود.
هر کدام از ما به نوعی در یک انزوا از سایرینیم. همانگونه که شخصیت‌ها فیلم این چنین‌اند.
بارها و بارها در فیلم برای ایشیدا این سوال مطرح می‌شود که آیا دوستی با نیشیما به دلایل خودخواهانه‌ است یا نه.


دو تا کامنت جالبی که در یوتیوب درباره A silent voice خوندم رو هم اینجا می‌ذارم:


When you finally realize that "A silent voice" is not a story about a guy falling in love with a girl, It's about a guy being able to love himself again.

apologising is hard,
forgiving is harder,
but forgiving yourself is near impossible.

فرآیندی هم که انگار در طول فیلم طی می‌کنیم همین معذرت‌خواهی، بخشش و در نهایت توبه ایشیدا است. به راستی معنی توبه و بخشش خود چیست؟
شرکت openai دقایقی پیش از مدلی به نام o1 رونمایی کرده که ادعا می‌کنه مسائل reasoning و پیچیده رو در حوزه ریاضی و کد و علم رو به واسطه صرف زمان بیشتری برای فکر کردن بهتر می‌تونه حل کنه. در نگاه اول به نظر در معماری تغییری ندادن و صرفا شاید دیتاستی با chain of thought‌های بیشتری رو برای آموزش مدل فراهم کردند. خلاصه که به نظر هنوز اتفاق و گام بزرگ خاصی در رسیدن به System2 و Reasoning و AGI هنوز رخ نداده.

پی‌نوشت: البته از ساید کاربردی، قطعا پیشرفت llm‌ها در کدزنی، باعث پیشرفت در محصولات پایین دستی نظیر همین replit این‌ها میشه.

https://openai.com/index/introducing-openai-o1-preview/

آپدیت ۱: open ai در بلاگی به توضیح بیشتر در مورد o1 پرداخته و گویا قضیه فراتر از صرف غنی‌کردن دیتاست هست بلکه RL رو هم به فرآیند reasoning اضافه کردند طبقه گفته خودشون. هر چند صحبت بیشتری مطرح نکردند که به صورت جزیی چطور RL وارد داستان شده (با تشکر از علی رمضانی):

https://openai.com/index/learning-to-reason-with-llms/

آپدیت ۲: پست بعدی رو بخونید
Out of Distribution
شرکت openai دقایقی پیش از مدلی به نام o1 رونمایی کرده که ادعا می‌کنه مسائل reasoning و پیچیده رو در حوزه ریاضی و کد و علم رو به واسطه صرف زمان بیشتری برای فکر کردن بهتر می‌تونه حل کنه. در نگاه اول به نظر در معماری تغییری ندادن و صرفا شاید دیتاستی با chain…
آیا o1 یک paradigm changer است؟

این نمودار سمت راستی که openai در بلاگش منتشر کرده جالب توجهه و من حرف پست قبلی رو پس می‌گیرم. تا این لحظه توضیح رسمی نیومده که o1 چطور reasoning رو انجام می‌ده و RL دقیقا چه طور درش به کار رفته. (مدل pricing دقیقی هم من ازش ندیدم اگر بود قابل حدس‌تر بود). اما نکته این نمودار اینه که داره به scale کردن در زمان inference اشاره می‌کنه. آیا مثلا این شکلیه که فرآیند تولید توکن‌های reasoning (رو که اتفاقا به کاربر نشون نمی‌ده) رو داره در یک قالب سرچ با کمک RL انجام می‌ده ؟؟
و این میم همیشگی این چند سال اخیر ...
مدل o1 و معرفی پارادایم جدید برای مقیاس Inference


تا الان بودجه محاسباتی و پردازشی که خرج LLM ها می‌شه، عمدتا برای مرحله Pre-train یا همون ساخت LLM ها مصرف می‌شده. بعد از ساخت و سرو کردن مدل روی پروداکشن، به ازای هر پرامپتی که سمت LLM میاد، یک بار یک جنریت رخ می‌ده و پاسخ تحویل کاربر داده می‌شه. این روال فعلی تمام LLM ها چه Open و چه Close source هست. هرچند که خود جنریت کردن رو اگر بعنوان تسک پیش‌بینی توکن بعدی ببینیم، استراتژی‌های زیادی براش وجود داره و اتفاقا استفاده از استراتژی‌های متفاوت منجر به نتایج متفاوت می‌شه. مثال معروفش Temperature است که بهتره برای تسک‌هایی که خلاقیت نیاز داره (مثل نوشتن شعر)، بالا باشه. ولی با این وجود در هرحال عرف تا الان این بوده که برای یک پرامپت، یک پاسخ جنریت می‌شده ولو با استراتژی‌های مختلف.

حالا بطور خلاصه اگر بخوام کار بزرگی که در مدل جدید OpenAI رخ داده رو اشاره کنم، تغییر این رواله. یعنی به ازای یک پرامپت لزوما یک پاسخ دیگه جنریت نمی‌شه. بلکه پاسخ‌های بسیاری چه بصورت موازی و چه متوالی تولید می‌شه و براساس یک سری مکانیزم‌های انتخاب و خودبهبودی درنهایت جواب نهایی تولید و به کاربر نمایش داده می‌شه. پاسخ‌های موازی یعنی گرفتن پاسخ از LLM با کانفیگ‌های جنریشن متفاوت و پاسخ‌های متوالی یعنی دادن جنریت قبلی مدل به مدل و خواستن جنریت بهتر. با اینکه در نهایت به کاربر یک پاسخ نمایش داده می‌شه ولی میزان توکن تولیدی توسط LLM با میزان توکن نمایش داده شده برابر نیست و این همون چیزیه که OpenAI به جهات مارکتینگی اسمش رو گذاشت Thinking.

سوالی که اینجا بوجود میاد اینه که این مکانیزم‌های انتخاب چی ها هستن؟ تقریبا یک ماه پیش Deep-Mind یک مقاله منتشر کرد که در اون برای اولین بار صحبت از قانون مقیاس Inference time شد و به طور جزئی و با آزمایشات مختلف مکانیزم‌های انتخاب رو بررسی کرد. مقاله بر محور این سوال می‌ره جلو که اگر ما یک بودجه محاسباتی ثابت (ولی نه ناچیز بلکه زیاد) برای Inference داشته باشیم، مدل چقدر می‌تونه دقت بیشتر روی پرامپت‌های چالشی بهمون بده؟ در ادامه مقاله دو روش برای خود-بهبودی مدل حین اینفرنس پیاده می‌کنه که بطور مختصر اشاره می‌کنم.

تو روش اول میایم distribution مدل رو برای پاسخ بهتر تغییر می‌دیم. مدل رو قبل از اینکه بره روی پروداکشن یک دور با یک سری دیتا و با یک سری متدهای الهام‌گرفته از یادگیری تقویتی مثل STaR یا ReST فاین‌تیون می‌کنند.به محض اینکه روی پروداکشن پرامپتی بیاد که شبیه به اون پرامپت‌هایی باشه که در فاین‌تیون دیده، فورا بعد از جنریت اولیه، پاسخ بهتر رو به روش CoT تولید می‌کنه. حالا این پاسخ‌ها می‌تونه بصورت موازی باشه و چه متوالی و همچنین می‌تونه با روش بعدی ترکیب بشه. خالق این روش گوگل و دیپ‌مایند نبوده و اینها صرفا برای مساله مدنظر (یعنی بررسی افزایش دقت با افزایش بودجه محاسباتی زمان Inference) ازش استفاده کردند.

تو روش دوم، مدل پاسخ‌های متعددی رو چه بصورت موازی و چه سری جنریت می‌کنه و یک مدل دیگه‌ای (Reward Model) میاد بعنوان Verifier عمل می‌کنه و Score میده به پاسخ‌ها و بهترین پاسخ رو به کاربر نمایش می‌ده. جذابیت این روش اینه که می‌شه تمام پاسخ‌ها رو به فرمت CoT از مدل گرفت و این بار Verifier به‌جای دادن Score روی کل پاسخ بیاد روی هر قسمت از پاسخ‌ها Score بده. به این شکل می‌شه جواب‌ها رو در هم ترکیب کرد و با اجرای الگوریتم‌های Tree Search بهترین پاسخ رو تولید کرد. مثلا اگر از مدل، سه تا پاسخ به صورت CoT یا همون Chain of thought گرفتیم، بیایم مقدمه اول از پاسخ اول رو با مقدمه دوم از پاسخ دوم ترکیب کنیم و از قسمت نتیجه پاسخ سه استفاده کنیم و درنهایت پاسخ نهایی رو تولید کنیم. این روش تا 4 برابر میزان Inference time رو نسبت به زمانی که صرفا چند پاسخ از مدل بگیریم و در نهایت یک رای نهایی توسط Verifier صادر بشه کاهش داده.

در نهایت این مقاله به یک نتیجه‌گیری مهم رسیده و اون اینکه برای تسک‌های ساده تا کمی دشوار (و نه خیلی دشوار) اگر یک مدل از چنین روشی استفاده کنه، به فرض بودجه محاسباتی ثابت، دقت خروجی این مدل برابر با دقت یک مدل با 14برابر! وزن بیشتره در حالتی که فقط یک پاسخ جنریت می‌کنه. این یعنی می‌شه با همون مدل قبلی GPT4 تا 14 برابر هوشمندی بیشتر دریافت کرد. این همون نتایج شگفت‌انگیزیه که OpenAI خیلی زودتر از بقیه متوجه شد و الان ما اون چیزی که روی کاعذهای دیپ‌مایند می‌خونیم رو توی ChatGPT حسش می‌کنیم. در این مقاله به این موضوع هم اشاره شده که برای تسک‌های خیلی دشوار به‌صرفه‌تر اینه که بیشترین حجم بودجه پردازشی رو بدیم به Pre-training ولی برای بقیه تسک‌ها فرض اینه که حجم زیادی از بودجه محاسباتی برای Inference time خواهد بود.

@AI_360
Out of Distribution
برداشت‌های من از فصل دوم کتاب تراژدی پروتستانیسم اسلامی: جایی که در اون قوچانی مطرح می‌کنه که که چطور روشنفکری دینی به صورت دیالیکتیک‌طور به بنیادگرایی آخرالزمانی سقوط می‌کنه. داستان به صورت تمثیلی اینه که احمد می‌خواد دست به روشنفکری دینی بزنه. احمد با نهاد…
برداشت‌های من از فصل سوم کتاب تراژدی پروتستانیسم اسلامی.

این فصل به بررسی تاریخ شکل‌گیری پروتستانیسم مسیحی می‌پردازه. جایی که پروتستان‌ها با نیت اصلاح شریعت اما به سمت باطنی‌گرایی رفتند و با باطنی‌گرایی استبداد دینی سنگین‌تری رو ایجاد کردند و در بعضی موارد از شریعت هم عبور کردند.

لینک
Out of Distribution
Photo
پیکسار رنگ و نقش زیادی در خاطرات دوران کودکی ما متولدین ۷۵ تا ۸۵ دارد. یادم نیست که toy story 1 را اولین بار کی دیدم، اما به خوبی یادم هست که Cars را در عصر اول فروردین یک سالی در خانه مادربزرگم دیدم. Ratatouille و Finding Nemo را در تابستان از تلویزیون دیدم. Monsters, Inc. را یادم هست مادرم سی‌دی اش را برایم خریده بود و اولین بار با آن جا قدرت دوبله فارسی را درک کردم. WALL-E را یک عصر پاییزی از شبکه دو دیدم. Toy Story 3 را یکی از همان چهارشنبه‌سوری‌هایی که معنی‌اش برایمان پخش انیمیشن‌های نو از تلویزیون بود، دیدم. UP همین دقیقا یک چهارشنبه سوری دیگر. و البته Inside Out رو هم در یک شب زمستانی وقتی خانه مادربزرگم بودم فکر کنم از فیلیمو دیدم. همان Inside Out اما تقریبا شروع سراشیبی پیکسار بود. The Good Dinosaur و Turning Red و Lightyear و ... همگی افتضاح بودند. این وسط البته Coco و Soul تا حدی داستان قابل درگیرشدنی داشتند. اما حرکت کلی پیکسار از ۲۰۱۰ به بعد دیگر آن حرکت ۲۰۰۰ تا ۲۰۱۰ نبود. ایده‌های جدید پیکسار نظیر همین دایناسور خوب و قرمزشدن خوب از آب درنیامدند و دنباله‌هایی هم که نظیر نمو ۲ و داستان اسباب‌بازی ۴ و ماشین‌های ۲ و ... ساختند بدتر خاطرات قدیمی را خراب کردند. امروز بالاخره فرصتی شد تا Inside Out 2 را ببینم. به نظرم از ۲۰۱۰ و Toy Story3 به بعد، این بهترین دنباله‌ای است که پیکسار توانسته بسازد و دچار مریضی دنباله‌‌سازی‌های قبلی نشده. با این که هنوز آن حس شگفتی که با دیدن آن انیمیشن‌های اول متن لمس می‌کردیم را برنمی‌‌انگیزد اما بالاخره دیدنی است و آدم می‌گوید خوب شد که دیدمش. هر چند هنوز پیکسار به نظرم از روند افت خودش خارج نشده و دنباله سازی‌هایش بیشتر شبیه سیاست‌های محافظه‌کاری است.

از پیکسار بگذریم. inside out2 واقعا دیدنی است. مهم‌ترین دلیل شاید به روی صحنه آوردن همین احساساتی است که درون خودمان با آن‌ها رو به رو می‌شویم و برایمان کاملا آشنا هستند. آن جایی که اضطراب می‌گوید که هر تصمیمی تا آخر عمر تاثیر می‌گذارد :) آن جایی که رایلی از وال سوال الکی می‌پرسد که وال از او خوشش بیاید :) آن جایی که حسادت می‌گوید که اگر نه جزو بهترین بازیکن‌ها باشیم و نه بدترین‌ها و نهایتا گمنام و فراموش شویم چطور :) آن جایی که اضطراب به شادی می‌گوید که من این کارها را برای تو می‌کنم که رایلی در آینده شادتر باشد :) آن جایی که شادی می‌گوید که بزرگترشدن این طوریه که کمتر احساس شادی می‌کنی و .... همگی صحنه‌هایی هستند که لااقل برای خود من خیلی آشنا هستند. به علاوه پرداخت خوبی را هم در جزییات می‌بیینم. شخصیت بلوفی آدم را سریع به دوران کودکی‌اش و کارتون سگ آبی می‌برد. تک تک احساسات هم طنز مناسبی دارند. فقط ای کاش پایان‌بندی آن شکلی کلیشه‌ای نداشت. (یاد پایان‌بندی Soul افتادم)

اما در مورد پیام فیلم. پیامی که من گرفتم همان پیام معمول است که باید همه جنبه‌های وجودیمان را درک کنیم و بپذیریم. شاید اوج این نمایش قرار گرفتن شخصیت I am a good person دربرابر I am not good enough بود. جایی که در نهایت هیچ کدام از این دو حذف نشدند و هر دو در داخل هم قرار گرفتند. دیالوگی که شادی می‌گوید که هر بخش آشفته و زیبایش را دوست داریم به همین مفهوم پذیرش اشاره می‌کند. اما نقدی که من به این قضیه پذیرفته‌شدن خودمون دارم اینه که همین طور که ما جنبه های مختلفی داریم، در بعد اجتماعی هم چیزهایی فراتر از ما هستند و ما بخشی از اون هستیم. من خودم یک سیستم پیچیده‌ای از خصیصه‌های مختلف خوب و بد هستم. ممکن است نهایتا به این نتیجه برسم که باید خودم را با تمامی این ها بپذیرم اما خود من هم به عنوان یک فرد، بخشی از جامعه هستم. خیلی وقت‌ها ما با خودمان به صلح و آرامش می‌رسیم اما جامعه دست از سر ما برنمی‌دارد و ما را دوباره به جنگ با خودمان برمی‌گرداند. همیشه این سوال برای آدم شکل می‌گیرد که من تا وقتی خفنم مورد پذیرش دیگران قرار می‌گیرم اما وقتی اشتباهی کنم، سودی برایشان نداشته باشه طرز نگاه آن‌ها به من عوض خواهد شد. به نظر تا وقتی جامعه به این قضیه پذیرش کلی نرسد، صلح ما در درون هم شکننده است. نمی‌دانم شاید هم راه درست این است که ما به عنوان فرد، جامعه را با تمام ویژگی‌هایش بپذیریم. احساسات درون فردی،‌ فردی که از آن احساسات تشکیل شده و جامعه‌ای که از افراد مختلف تشکیل شده به نظر همگی در یک معما و بازی پیچیده هستند.
با اون بازی نکن

پادکست چراز در آخرین قسمتش به سراغ مساله ناترازی برق رفته. توضیح داده ماجرا دقیقا چیه و در طی همین روایت هم یک تصویر بزرگتری از ماجراهای دیگه ای مثل قیمت‌گذاری دستوری و این که چرا نباید با قیمت بازی کرد، رو ارائه داده. چند تا سوال و پاسخ‌هایی که در اثنای بحث این قسمت بهشون پاسخ داده می‌شه:

اگر تحریم‌ها برداشته بشه فرقی می‌کنه؟
خیر. ما دچار ناترازی یا کسری در برق هستیم. تحریم هم برداشته بشه باید به اندازه هفت ماه پول صادرات نفتمون رو بدیم به جاش برق وارد کنیم.

چرا در این دو سال اخیر برق قطع نمی‌شد؟
در دو سال اخیر دولت چون به انتخابات ۱۴۰۴ نگاه داشت، برق صنعتی رو قطع می‌کرد و برق مردم رو وصل نگه می‌داشت تا دولت بتونه در ۱۴۰۴ رای بیاره. ولی با رخدادهای ریاست جمهوری اسلامی، وقتی اینها هم چیزی برای نگرانی نداشتند اون سیاست حفظ برق مردم به قیمت قطع برق صنعتی رو رها کردند.

آیا مردم در مصرف برق مقصرند؟
اینجا به نظرم بهترین قسمت این برنامه است. چراز کلی عدد و آمار ارائه می‌ده و به طور خاص ایران و ترکیه رو با هم مقایسه می‌کنه. فکت اینه که تولید برق ما بیشتر از ترکیه است،‌ جمعیت ما هم یکسانه اونا قطعی برق ندارند ولی ما داریم. فکت دیگه این که ما سرانه مصرف بالایی داریم اما این سرانه مصرف هم اون قدر عجیب و غریب نیست. چیزی که بحث می‌شه اینه که بین پیک مصرف برق در تابستان و زمستان ایران اختلاف زیادی وجود داره. در تابستان پیک مصرف ۷۳ گیگاوات ساعت هست و در زمستان ۴۵ گیگاوات ساعت. برای همین یکی از دلایلی هست که نمی‌صرفه در ایران نیروگاه برقی زد. چون عمده تقاضاش در تابستان هست و در زمستان عملا بی‌کاره (این وسط یک بحثی که مطرح می‌شه اینه که ما خریت کردیم کل کشور رو لوله گاز کشیدیم، در حالی که در کشورهای دیگه از برق به جای گاز استفاده می‌شه).

پیک تابستان به چه علته؟
چراز می‌گه که کولر گازی. مصرف کولرگازی ۶ برابر کولرآبی هست. قیمت برق هم این قدر پایینه که می‌صرفه شما کولرگازی مصرف کنید. قیمت برق در ترکیه ۷ سنت و در ایران ۰.۵ سنت هست. به نظر چراز حتی اگر حداقل حقوق رو هم حساب کنیم که در ترکیه سه برابر ایرانه، باز قیمت برق در ایران خیلی ارزون درمیاد.

قیمت پایین برق باعث چه می‌شه؟
اول این که وقتی قیمت گذاری خراب باشه نمی‌صرفه تکنولوژی کولر رو عوض کنند. تاثیر مهم‌تر این که سرمایه گذاری در صنعت نیروگاه هم کم شده. نمی‌صرفه نیروگاه زد. نمی‌صرفه حتی سمت نیروگاه‌های انرژی تجدیدپذیر نظیر خورشید و باد رفت. قیمت گذاری پایین باعث حتی قاچاق برق به وسیله ماینرها هم می‌شه. از اونور کمبود برق هم باعث می‌شه تا تولید در ایران بخوابه. فرار سرمایه بیشتر و سیکل مشکلات بیشتر.

این‌ها تقصیر کیه؟
چراز برمی‌گرده به سال ۸۳. در اون سالها طبق قانون قیمت حامل‌های انرژی هر سال بسته به تورم افزایش پیدا می‌کردند و قرار بود ظرف ۵ سال قیمت‌ها آزادسازی بشه. اما مجلس هفتم به رهبری احمد توکلی به علت رقابت‌های سیاسی برای انتخابات ریاست جمهوری سال آینده، طرح تثبیت قیمت‌ها رو کلید زدند که اجازه افزایش قیمت حامل‌های انرژی رو از دولت می‌گرفت و کل داستان از اون موقع خراب شد.

پی‌نوشت من:
روایت چراز در کل منطقی به نظر می‌رسه اما سوالی که برای من وجود داره، نحوه توزیع مصرف حامل‌های انرژی بین دهک‌های مختلفه. بیاید همون مساله کولر گازی رو در نظر بگیریم. ما کشوری هستیم که درصد زیادی از جمعیتمون زیر خط فقر هستند و احتمالا هم نقشی در همون داستان کولر گازی ندارند. پس شاید احتمالا سهم زیادی از این ناترازی تقصیر صدک‌های بالای جامعه باشه. اما سوالی که هست اینه که آیا آزادسازی قیمت‌ها چاره کاره؟ قبلا هم در اینجا بحث کرده بودیم با آزادسازی قیمت‌ها دوباره این طبقه پایین جامعه است که بیشتر آسیب می‌بینه و طبقه بالا چون ابزار اقتصادی دستش داره دوباره خودش رو وفق می‌ده. آزادسازی در شرایط فعلی یک جراحیه که مستقیم موجب مرگ اقشار غیربالای جامعه می‌شه و چه بسا باعث پیامدهای امنیتی و اجتماعی بعدش هم بشه. آزادسازی وقتی باید رخ بده که یک دولت مقتدر در ایران بر سر کار باشه. دولتی که تحت تحریم‌های درآمد‌های خارجی نباشه و بتونه در صورت لزوم منابع مالی لازم رو فراهم کنه. دولتی که بتونه به تمام و کامل مالیاتی رو از جا و افرادی که باید، بگیره. دولتی که در عین حال از حقوق کارگران و کارمندان دفاع کنه و جلوی سرکوب حقوق اونها رو بگیره. الله اعلم.


لینک:
https://www.youtube.com/watch?v=S9BoyvewRP0
ای دوست حقیقت شنو از من سخنی

با بادهٔ لعل باش و با سیم تنی

کانکس که جهان کرد فراغت دارد

از سبلت چون تویی و ریش چو منی

واضحا خیام

————————

خیام در این رباعی می‌گه اون کسی که این دنیا رو خلق کرده براش سبیل تو یا ریش من اهمیتی نداره، پس برو دنبال حال‌بردن باش و باقی جزییات
تا رسانم بوسه‌ای بر رویِ ماهت یک سحر

نکته جالبی که در مورد openai o1 قابل دیدنه اینه که نسبت به نسخه‌های قبلی بهتر می‌تونه شعر فارسی بگه. نسخه‌های قبلی وزن و عروض رو به خوبی نمی‌تونستند دربیارن ولی o1 در این مورد خیلی بهتره. هر چند کامل نیست و خیلی جاها هم خراب می‌کنه ولی در کل بهتر از یک آدم نرمال می‌تونه شعر بگه و چه بسا o2 یا o3 بتونند فال حافظ و غزل سعدی رو هم بی‌کار کنند. یک نمونه از خروجی‌های شعر o1 رو که هیچ اصلاحی روشون اعمال نشده رو در ادامه می‌فرستم:

آمدی ای صبحِ روشن، از پسِ شامِ سحر
برده‌ای خواب از دو چشمم، با نگاهی خیره سر

شوقِ دیدارِ تو دارم، ای نگارِ نازنین
دل شده آشفتهٔ تو، بی‌قرار و در به در

عشقِ تو آتش‌فشان است، در دلِ دیوانه‌ام
می‌کِشد سودای وصلت، هر نفس سوی خطر

در رهت جان می‌سپارم، ای پری رویِ قمر
تا رسانم بوسه‌ای بر رویِ ماهت یک سحر

با خیالِ وصلِ رویت زنده‌ام در این قفس
چون شکسته بالِ خسته، منتظر بر یک خبر

کاش آید آن زمانی کز لبت نوشم شراب
می‌شود پایان غم‌ها، می‌رسد خورشیدِ بر

پرامپت: یک غزل عاشقانه بنویس که در آن قافیه و وزن و عروض رعایت شده باشد. این غزل باید به سبک محمد حسین شهریار باشد. وزن غزل باید "فاعلاتن فاعلاتن فاعلاتن فاعلن (رمل مثمن محذوف" باشد
چشمِ مستِ تو به یک غمزه دلم بُرد از دست

یک غزل عاشقانه بنویس که در آن قافیه و وزن و عروض رعایت شده باشد
این غزل باید به سبک حافظ باشد.
وزن این شعر باید فعلاتن فعلاتن فعلاتن فعلن باشد:

در هوای رخ تو مرغ دلم بی‌پر شد
به صفای نگهت عالم دل یکسر شد

چشمِ مستِ تو به یک غمزه دلم بُرد از دست
عقل رفت از سَرِ من، کارِ دلم دیگر شد

دیدم آن رویِ تو را، خانه ز نور آکنده
دل ز شوقِ رُخِ تو، ای گلِ من، احمر شد

شوقِ دیدارِ تو دارم شب و روز ای دلبر
بی‌تو این جان و دلم عاشق و جان‌بر در شد

در ره عشق تو ای دوست، سبکبال شدم
هر چه غیر از تو رها گشت و دل از غم بر شد

آخر ای مرغِ نفس، بال و پَرَت کو تا باز
برسم بر سرِ کویش که دلم مضطر شـد