Supersonic AI
این جمله از هایدگر اول کتاب گوتلوب فرگه قشنگ بود. کتاب گوتلوب فرگه هم توسط هانس اسلوگا فیلسوف آلمانی نوشته شده و به بررسی بینشهای فرگه توی موضوعات مختلف میپردازه. اگه میخواستید بخونیدش میتونید از لینک استفاده کنید. https://archive.org/details/hans-d.-sluga…
این هم جالب بود. در مورد دیدگاه سیاسی فرگه این رو گفته. لینک کامل مقالهش:
https://tarjomaan.com/%DA%A9%D8%A7%D8%B4-%D8%AF%D9%81%D8%AA%D8%B1%DA%86%DB%80-%D8%AE%D8%A7%D8%B7%D8%B1%D8%A7%D8%AA-%D9%81%D8%B1%DA%AF%D9%87-%D9%BE%DB%8C%D8%AF%D8%A7-%D9%86%D9%85%DB%8C%D8%B4%D8%AF/
https://tarjomaan.com/%DA%A9%D8%A7%D8%B4-%D8%AF%D9%81%D8%AA%D8%B1%DA%86%DB%80-%D8%AE%D8%A7%D8%B7%D8%B1%D8%A7%D8%AA-%D9%81%D8%B1%DA%AF%D9%87-%D9%BE%DB%8C%D8%AF%D8%A7-%D9%86%D9%85%DB%8C%D8%B4%D8%AF/
Supersonic AI
Photo
یوری لینیک متولد ۸ ژانویه ۱۹۱۵ در شهری بنام Bila Tserkva در اوکراین امروزی بود. پدر و مادرش معلم بودن و گویا بعدها پدرش دانشمند شناخته شدهای در زمینه اپتیک میشه و عضو USSR Academy of Sciences میشه. یوری لینیک بعد از اتمام دوره دبیرستان و یک سال فعالیت به عنوان laboratory assistant وارد دانشگاه ایالتی لنینگراد در سال ۱۹۳۲ میشه. اوایل فیزیک میخوند ولی بعد سه سال بخاطر "گرایش ناگزیر به حساب عالی" به دانشکده ریاضی و مکانیک منتقل شد. همون زمان روی "نمایش اعداد توسط فرمهای مربعی سهگانه مثبت" کار میکرد و بعداً هم تبدیل به تز دکتراش شد. یوری لینیک در سال ۱۹۴۰ در ۲۵ سالگی دکترای ریاضیش رو میگیره و به شعبه لنینگراد موسسه Steklov Institute of Mathematics میپیونده. با شروع جنگ جهانی دوم، به ارتش میره و به عنوان فرمانده گروهان خدمت میکنه ولی بعد مدتی بخاطر وضعیت جسمانی ضعیفی که داشته معاف میشه. وقتی محاصره لنینگراد توسط نیروهای آلمانی شدت میگیره، لینیک توسط موسسه Steklov به شهر کازان میره و یجورایی شانس هم میاره چون محاصره لنینگراد ۸۷۲ روز طول کشید و خیلیها بخاطر قحطی و گرسنگی کشته شدن. بعد از شکستن محاصره در سال ۱۹۴۴ به لنینگراد بر میگرده و به عنوان استاد دانشگاه در دانشگاه لنینگراد و پژوهشگر موسسه Steklov مشغول به کار میشه. لینیک توی چند زمینه مختلف از ریاضیات کار میکرد: نظریه اعداد، نظریه احتمال، آمار ریاضی.
از معروفترین نتایجش میشه به Linnik's theorem اشاره کرد که در مورد عدد اول در یک arithmetic progression با شرایط معین صحبت میکنه.
در سال ۱۹۴۱، روش مهمی به اسم Large Sieve Method رو ابداع میکنه که تاثیر بسزایی در تحلیل مسائل نظریه اعداد داشته. در دهه ۵۰ میلادی روش دیگهای به اسم Dispersion Method رو گسترش میده.
از روشهای ergodic در نظریه اعداد هم استفاده کرد.
در نهایت یوری لینیک در ۳۰ ژوئن ۱۹۷۲ در لنینگراد (سنتپترزبورگ) در گذشت.
از معروفترین نتایجش میشه به Linnik's theorem اشاره کرد که در مورد عدد اول در یک arithmetic progression با شرایط معین صحبت میکنه.
در سال ۱۹۴۱، روش مهمی به اسم Large Sieve Method رو ابداع میکنه که تاثیر بسزایی در تحلیل مسائل نظریه اعداد داشته. در دهه ۵۰ میلادی روش دیگهای به اسم Dispersion Method رو گسترش میده.
از روشهای ergodic در نظریه اعداد هم استفاده کرد.
در نهایت یوری لینیک در ۳۰ ژوئن ۱۹۷۲ در لنینگراد (سنتپترزبورگ) در گذشت.
Forwarded from Mathematical Musings
اومدند fMRI مغز یه سری ریاضیدان حرفه ای و یه سری فرد عادی رو بررسی کردند. یه سری جمله بهشون دادند شامل جملات ریاضی و غیر ریاضی. نتیجه این بوده که ریاضیدان های حرفه ای در بررسی جملات ریاضی از بخش زبانی مغز استفاده نمی کردند و اون بخش هایی که به عدد و فضا مربوط می شه فعال می شده.
در مقابل افراد عادی برای جملات ریاضی هم از بخش زبانی مغز استفاده می کردند.
نتیجه؟
"اینکه ریاضی همون زبان طبیعی هست فقط پیچیده تر شده" اشتباه است، دست کم برای بزرگسالان.
این نتیجه برای بچه ها لزوما درست نیست و ممکنه اون ها برای یادگیری ریاضیات از زبان کمک بگیرند و بعدا در مرحله بالاتر در ریاضیات، استفاده از بخش های مربوط به زبان کمتر بشه یا از بین بره.
دو نکته دیگه:
از مقایسه آدم های عادی با ریاضیدان ها نتیجه گرفتند که بخش های ریاضی مغز با آموزش طولانی و... رشد می کنه و یه چیز صرفا مادرزادی نیست.
الگوی مغزی ریاضیدان ها اونقدر شبیه هم هست که می شه از fMRI یه فرد تشخیص داد که ریاضیدان حرفه ای هست یا نه!
در مقابل افراد عادی برای جملات ریاضی هم از بخش زبانی مغز استفاده می کردند.
نتیجه؟
"اینکه ریاضی همون زبان طبیعی هست فقط پیچیده تر شده" اشتباه است، دست کم برای بزرگسالان.
این نتیجه برای بچه ها لزوما درست نیست و ممکنه اون ها برای یادگیری ریاضیات از زبان کمک بگیرند و بعدا در مرحله بالاتر در ریاضیات، استفاده از بخش های مربوط به زبان کمتر بشه یا از بین بره.
دو نکته دیگه:
از مقایسه آدم های عادی با ریاضیدان ها نتیجه گرفتند که بخش های ریاضی مغز با آموزش طولانی و... رشد می کنه و یه چیز صرفا مادرزادی نیست.
الگوی مغزی ریاضیدان ها اونقدر شبیه هم هست که می شه از fMRI یه فرد تشخیص داد که ریاضیدان حرفه ای هست یا نه!
🔥5❤1
Forwarded from Fasihi-Ramandi Math
منطق ریاضی به زبان ساده.pdf
168 MB
کتاب منطق ریاضی به زبان ساده، تالیف زنده یاد دکتر ناصر بروجردیان. مناسب برای دانشجویان ریاضی و تمام علاقمندان به منطق ریاضی.
Audio
بار دگر شانزدهم آذر
آمد و سر به سر
در قلوب مردم شعله افکند
جنبش دانشجوئی ایران
به خون شهیدان
در ره خلق مان
خورده سوگند
که تا آخرین نفر
آخرین نفس
کوشیم و بشکنیم
دیوار این قفس
در ره آزادی ایران
شریعت رضوی
قندچی، بزرگ نیا
گشتند شهید در ره
ستیزه با ارتجاع
آمد و سر به سر
در قلوب مردم شعله افکند
جنبش دانشجوئی ایران
به خون شهیدان
در ره خلق مان
خورده سوگند
که تا آخرین نفر
آخرین نفس
کوشیم و بشکنیم
دیوار این قفس
در ره آزادی ایران
شریعت رضوی
قندچی، بزرگ نیا
گشتند شهید در ره
ستیزه با ارتجاع
❤2👎2
توی این مقاله میگه وقتی حرف مسائل سخت میشه گویا دانشمندها گیر میکنن و میدونن اون مسئله سخته، ولی نمیتونن از لحاظ ریاضی اثباتش کنن. مثلاً مسئله TSP رو همه میدونن وقتی تعداد شهرهای روی گراف زیاد بشه، هر الگوریتمی واسه حل مسئلهش بشدت کند میشه و احتمالاً هیچ راهحل سریعی واسش وجود نداره ولی کسی بلد نیست این رو اثبات کنه. بیشتر از پنجاه ساله که محققین حوزه نظریه پیچیدگی سعی دارن جمله «مسئله فروشنده دورهگرد سخته» رو به یه قضیه ریاضی محکم تبدیل کنن ولی نتونستن. حالا دنبال اینن که چرا اصلاً نتونستن اثباتش کنن.
در مورد Meta Mathematics هم توضیح میده و میگه اینکه خود فرآیند اثبات ریاضی یه مسئله رو تبدیل به چیزی کنن که بشه روش تحقیق کرد، میره زیرمجموعه حوزه بدقلق Meta Mathematics. توی این حوزه معمولاً روی فرضهای پایهای تمرکز میکنن و بررسی میکنن که اگر این اصلها رو تغییر بدن، چه چیزهایی قابل اثبات میشن. امیدشون هم اینه که بفهمن چرا بعد این همه سال نتونستن سخت بودن مسئلهها رو اثبات کنن.
گویا سال پیش سهتا محقق فرمول هزار ساله ریاضیدانها رو بر عکس کردن و به جای اینکه از اصلها شروع کنن و یه قضیه رو اثبات کنن، اومدن یکی از اصلها رو با یه قضیه عوض کردن و بعد خود اون اصل رو اثبات کردن. این روش که بهش reverse math هم میگن بهشون اثبات کرد که قضیههای زیادی در نظریه پیچیدگی با هم معادل هستن.
مارکو کارموسینو، یکی از تئوریسینهای پیچیدگی IBM گفت:
توی سال 2020 یه دانشجوی دکترا به اسم لیجی چن داشت دوره دکتراش رو جمعبندی میکرد که چون وقت زیادی داشته چند ماه میره رو حوزه متا متمتیکس تحقیق میکنه. وقتی داشته در موردش میخونده یاد حوزهای از پیچیدگی میفته به اسم «پیچیدگی ارتباطی». یعنی اینکه برای انجام یه کار دو نفر چقدر باید با هم حرف بزنن. سادهترین مسئلهاش میشه «مسئلهٔ برابری»: دو نفر دو تا رشته صفر و یک دارن و باید با کمترین پیامدادن بفهمن آیا رشتههاشون یکیه یا نه. سادهترین راه اینه که یکی کل رشتهاش رو بفرسته. آیا راه بهتری واسش هست؟ سالهای قبل ثابت شد که نه و برای فهمیدن برابری، باید حداقل همون تعداد بیت رو ردوبدل کرد. این حداقل رو میگن «کفِ پیچیدگی». اما چن دنبال خودِ کف نبود؛ دنبال روش اثباتش بود. همه اثباتها از یه اصل ساده استفاده میکنن: «اصل لانهکبوتری». میگه اگه تعداد کبوترها بیشتر از تعداد لونهها باشه، حداقل یه لونه بیش از یک کبوتر میگیره. چن به یه نکته رسید: همیشه از اصل لانهکبوتری برای اثبات کفِ مسئلهٔ برابری استفاده شده. آیا میشه برعکسش کرد؟ یعنی از کف مسئله برابری، خودِ اصل لانهکبوتری رو ثابت کرد؟
چن ایده رو با جیاتو لی، یه دانشجوی کارشناسی تسینگهوا که قبلاً باهاش کار کرده بود، مطرح کرد. برای اینکه این ایده را رسمی کنن باید یه مجموعه اصل انتخاب میکردن. متامتمتیکدانها معمولاً مجموعههای ضعیفتر رو انتخاب میکنن چون روابط رو راحتتر نشون میده. اینا از مجموعهای استفاده کردن به اسم PV1. مجموعه PV1 اونقدر قوی هست که یه سری قضیه مهمِ پیچیدگی رو ثابت کنه. اگه نسخهای از اصل لانهکبوتری رو هم بهش اضافه کنی، کفِ مسئله برابری رو هم میتونی ثابت کنی. دسامبر ۲۰۲۲ چن و لی نشون دادن که اگه دوتا قضیه رو جابهجا هم بکنی، باز تو PV1 ثابت میشن. یعنی این دوتا قضیه توی چارچوب PV1 دقیقاً معادل هستن. وقتی نتیجه رو با ایگور الیویرا مطرح کردن، فهمیدن میشه این روش معکوسسازی رو روی کلی قضیه پراکنده دیگه هم امتحان کرد. و همین کار رو هم کردن. چن گفت: «اولش فقط دوتا چیز معادل داشتیم، الان یه شبکهٔ بزرگ ساختیم.»
جذابترین ارتباطشون این بود که همون نسخه اصل لانهکبوتری رو وصل کردن به یکی از اولین قضیههایی که دانشجوها تو درس پیچیدگی میبینن؛ یه قضیه دربارهٔ اینکه یه ماشینی به اسم ماشین تورینگ تکنوار برای تشخیص پالیندرومها چقدر زمان لازم داره. نتیجه این شد که تو PV1 این قضیه هم با اصل لانهکبوتری معادله.
چن گفت: «اگه کسی اینو همینجوری بهم میگفت، باور نمیکردم. خیلی مسخره به نظر میاد.»
https://www.quantamagazine.org/reverse-mathematics-illuminates-why-hard-problems-are-hard-20251201/
در مورد Meta Mathematics هم توضیح میده و میگه اینکه خود فرآیند اثبات ریاضی یه مسئله رو تبدیل به چیزی کنن که بشه روش تحقیق کرد، میره زیرمجموعه حوزه بدقلق Meta Mathematics. توی این حوزه معمولاً روی فرضهای پایهای تمرکز میکنن و بررسی میکنن که اگر این اصلها رو تغییر بدن، چه چیزهایی قابل اثبات میشن. امیدشون هم اینه که بفهمن چرا بعد این همه سال نتونستن سخت بودن مسئلهها رو اثبات کنن.
گویا سال پیش سهتا محقق فرمول هزار ساله ریاضیدانها رو بر عکس کردن و به جای اینکه از اصلها شروع کنن و یه قضیه رو اثبات کنن، اومدن یکی از اصلها رو با یه قضیه عوض کردن و بعد خود اون اصل رو اثبات کردن. این روش که بهش reverse math هم میگن بهشون اثبات کرد که قضیههای زیادی در نظریه پیچیدگی با هم معادل هستن.
مارکو کارموسینو، یکی از تئوریسینهای پیچیدگی IBM گفت:
«واقعا انتظار نداشتم اینقدر جلو برن. آدمها اینو میبینن و میگن: خب، این همون چیزیه که منو کشوند تو Meta Mathematics.»
توی سال 2020 یه دانشجوی دکترا به اسم لیجی چن داشت دوره دکتراش رو جمعبندی میکرد که چون وقت زیادی داشته چند ماه میره رو حوزه متا متمتیکس تحقیق میکنه. وقتی داشته در موردش میخونده یاد حوزهای از پیچیدگی میفته به اسم «پیچیدگی ارتباطی». یعنی اینکه برای انجام یه کار دو نفر چقدر باید با هم حرف بزنن. سادهترین مسئلهاش میشه «مسئلهٔ برابری»: دو نفر دو تا رشته صفر و یک دارن و باید با کمترین پیامدادن بفهمن آیا رشتههاشون یکیه یا نه. سادهترین راه اینه که یکی کل رشتهاش رو بفرسته. آیا راه بهتری واسش هست؟ سالهای قبل ثابت شد که نه و برای فهمیدن برابری، باید حداقل همون تعداد بیت رو ردوبدل کرد. این حداقل رو میگن «کفِ پیچیدگی». اما چن دنبال خودِ کف نبود؛ دنبال روش اثباتش بود. همه اثباتها از یه اصل ساده استفاده میکنن: «اصل لانهکبوتری». میگه اگه تعداد کبوترها بیشتر از تعداد لونهها باشه، حداقل یه لونه بیش از یک کبوتر میگیره. چن به یه نکته رسید: همیشه از اصل لانهکبوتری برای اثبات کفِ مسئلهٔ برابری استفاده شده. آیا میشه برعکسش کرد؟ یعنی از کف مسئله برابری، خودِ اصل لانهکبوتری رو ثابت کرد؟
چن ایده رو با جیاتو لی، یه دانشجوی کارشناسی تسینگهوا که قبلاً باهاش کار کرده بود، مطرح کرد. برای اینکه این ایده را رسمی کنن باید یه مجموعه اصل انتخاب میکردن. متامتمتیکدانها معمولاً مجموعههای ضعیفتر رو انتخاب میکنن چون روابط رو راحتتر نشون میده. اینا از مجموعهای استفاده کردن به اسم PV1. مجموعه PV1 اونقدر قوی هست که یه سری قضیه مهمِ پیچیدگی رو ثابت کنه. اگه نسخهای از اصل لانهکبوتری رو هم بهش اضافه کنی، کفِ مسئله برابری رو هم میتونی ثابت کنی. دسامبر ۲۰۲۲ چن و لی نشون دادن که اگه دوتا قضیه رو جابهجا هم بکنی، باز تو PV1 ثابت میشن. یعنی این دوتا قضیه توی چارچوب PV1 دقیقاً معادل هستن. وقتی نتیجه رو با ایگور الیویرا مطرح کردن، فهمیدن میشه این روش معکوسسازی رو روی کلی قضیه پراکنده دیگه هم امتحان کرد. و همین کار رو هم کردن. چن گفت: «اولش فقط دوتا چیز معادل داشتیم، الان یه شبکهٔ بزرگ ساختیم.»
جذابترین ارتباطشون این بود که همون نسخه اصل لانهکبوتری رو وصل کردن به یکی از اولین قضیههایی که دانشجوها تو درس پیچیدگی میبینن؛ یه قضیه دربارهٔ اینکه یه ماشینی به اسم ماشین تورینگ تکنوار برای تشخیص پالیندرومها چقدر زمان لازم داره. نتیجه این شد که تو PV1 این قضیه هم با اصل لانهکبوتری معادله.
چن گفت: «اگه کسی اینو همینجوری بهم میگفت، باور نمیکردم. خیلی مسخره به نظر میاد.»
https://www.quantamagazine.org/reverse-mathematics-illuminates-why-hard-problems-are-hard-20251201/
Quanta Magazine
‘Reverse Mathematics’ Illuminates Why Hard Problems Are Hard
Researchers have used metamathematical techniques to show that certain theorems that look superficially distinct are in fact logically equivalent.
میگه توی دسامبر که OpenAI تولد ده سالگیش رو جشن میگیره میتونه خوشحال باشه که تبدیل به یکی از غولهای تکنولوژی شده ولی از هدف اولیهای که داشته فاصله گرفته و درگیر کاپیتالیزم (سرمایهداری؟) شده. علاوه بر اینکه باید به مردم خیر برسونه، موظفه که برای سهامدارهاش پول در بیاره. و این قضیهی قاطی شدن اخلاق و سرمایهداری واسش دردسرسازه. این روند هم با اون چیزی که اول راه بود خیلی فرق داره. میگه ماموریت اولیه OpenAI این بود که هوشمصنوعی به نفع کل بشریت باشه و از اینکه هوشمصنوعی بخواد نسل بشر رو نابود کنه یا به بردگی بگیره، جلوگیری کنه.
غیرانتفاعی بودن OpenAI قلب اون ماموریت بوده چون اگه پول دراوردن وابسته به این بود که هوشمصنوعی رو در مسیر خطرناکی هل بدن، یه شرکت که دنبال پول بوده قطعاً اینکارو میکرده ولی یه شرکت غیرانتفاعی نه. آلتمن سال ۲۰۱۷ گفته بود که نمیخوان تصمیمهاشون برای راضی کردن سهامدارها باشه و به تنها کسی که باید جواب پس بدن کل بشریته.
حالا میگن OpenAI خودش و آرمانهاش رو فروخته و بین پولدار شدن و وفادار موندن به اون آرمانها گیر کردن. سر همین هم خیلی از افرادی که توی شکلگیری OpenAI نقش داشتن تصمیم گرفتن شرکت رو ترک کنن.
در مورد یه دیدگاه دیگه به این قضیه هم میگه که OpenAI فهمید اگه قراره ماموریت اخلاقیش رو انجام بده نیاز به سرمایه داره چون بدون پول توی دنیای هوشمصنوعی هیچکاری نمیشه کرد. رقباش هم که شرکتای فوقالعاده سرمایهداری مثل گوگل و آمازون و متا هستن.
اگه اوپناِیآی میخواست روی مسیر هوش مصنوعی تأثیر بذاره، مجبور بود با اینا رقابت کنه. برای رقابت، سرمایه میخواست. و هیچ سرمایهگذاری، بدون امید به سود، پول نمیریزه.
آلتمن خودش درباره چرخش قبلیشون به سمت سود گفته بود: «به اندازه کافی تلاش کردیم و شکست خوردیم که بهعنوان غیرانتفاعی سرمایه جذب کنیم. راهی جلو پامون نبود. پس مجبور شدیم یه مقدار از مزایای سرمایهداری رو قبول کنیم.»
اما سرمایهداری فقط مزایا نداره.
توی مقاله در مورد یه اصطلاح از مارکس هم صحبت میکنه که میگه مارکس یه اصطلاح داشت به اسم «قوانین اجباری رقابت». یعنی تو بازار رقابتی، بنگاهها مجبور میشن سود رو بذارن اولویت. حتی اگه اخلاقی فکر کنن، اگه کاری سودده باشه ولی انجامش ندن، یه شرکت بیاخلاقتر میاد و اون سود رو میقاپه. یه جور بازیه که اگر اصول اخلاقیتو رعایت کنی، خودت میبازی و اخلاق هم میبازه.
فیلسوف آیریس ماریون یانگ یه مثال معروف داره: صاحب یه کارگاه میگه: «من خیلی دوست دارم به کارگرام حقوق بیشتری بدم.» ولی اگه این کارو کنه، هزینهش زیاد میشه و رقبا که بدتر با کارگراشون رفتار میکنن، بازار رو ازش میگیرن. یعنی مهربونتر بودن آخرش حتی به کارگرا هم کمکی نمیکنه.
برای اوپناِیآی هم همین نسخه صادقه. اگه به خاطر نگرانی از مصرف انرژی یا خودآسیبی یا انتشار اطلاعات غلط، چتجیپیتی رو دیرتر منتشر میکرد، شرکتای دیگه جلو میزدن. بعدش دیگه سرمایه جمع کردن سخت میشد و عملاً از اثرگذاری روی آیندهی هوش مصنوعی عقب میموند.
پس در عمل، حتی وقتی رسماً کمپانیِ اخلاقمحور بود، شبیه یه شرکت سودمحور رفتار میکرد. مجبور بود. قانون بازی همینه.
https://theconversation.com/why-openai-is-a-prime-example-of-the-ethical-limits-of-capitalism-270407
غیرانتفاعی بودن OpenAI قلب اون ماموریت بوده چون اگه پول دراوردن وابسته به این بود که هوشمصنوعی رو در مسیر خطرناکی هل بدن، یه شرکت که دنبال پول بوده قطعاً اینکارو میکرده ولی یه شرکت غیرانتفاعی نه. آلتمن سال ۲۰۱۷ گفته بود که نمیخوان تصمیمهاشون برای راضی کردن سهامدارها باشه و به تنها کسی که باید جواب پس بدن کل بشریته.
حالا میگن OpenAI خودش و آرمانهاش رو فروخته و بین پولدار شدن و وفادار موندن به اون آرمانها گیر کردن. سر همین هم خیلی از افرادی که توی شکلگیری OpenAI نقش داشتن تصمیم گرفتن شرکت رو ترک کنن.
در مورد یه دیدگاه دیگه به این قضیه هم میگه که OpenAI فهمید اگه قراره ماموریت اخلاقیش رو انجام بده نیاز به سرمایه داره چون بدون پول توی دنیای هوشمصنوعی هیچکاری نمیشه کرد. رقباش هم که شرکتای فوقالعاده سرمایهداری مثل گوگل و آمازون و متا هستن.
اگه اوپناِیآی میخواست روی مسیر هوش مصنوعی تأثیر بذاره، مجبور بود با اینا رقابت کنه. برای رقابت، سرمایه میخواست. و هیچ سرمایهگذاری، بدون امید به سود، پول نمیریزه.
آلتمن خودش درباره چرخش قبلیشون به سمت سود گفته بود: «به اندازه کافی تلاش کردیم و شکست خوردیم که بهعنوان غیرانتفاعی سرمایه جذب کنیم. راهی جلو پامون نبود. پس مجبور شدیم یه مقدار از مزایای سرمایهداری رو قبول کنیم.»
اما سرمایهداری فقط مزایا نداره.
توی مقاله در مورد یه اصطلاح از مارکس هم صحبت میکنه که میگه مارکس یه اصطلاح داشت به اسم «قوانین اجباری رقابت». یعنی تو بازار رقابتی، بنگاهها مجبور میشن سود رو بذارن اولویت. حتی اگه اخلاقی فکر کنن، اگه کاری سودده باشه ولی انجامش ندن، یه شرکت بیاخلاقتر میاد و اون سود رو میقاپه. یه جور بازیه که اگر اصول اخلاقیتو رعایت کنی، خودت میبازی و اخلاق هم میبازه.
فیلسوف آیریس ماریون یانگ یه مثال معروف داره: صاحب یه کارگاه میگه: «من خیلی دوست دارم به کارگرام حقوق بیشتری بدم.» ولی اگه این کارو کنه، هزینهش زیاد میشه و رقبا که بدتر با کارگراشون رفتار میکنن، بازار رو ازش میگیرن. یعنی مهربونتر بودن آخرش حتی به کارگرا هم کمکی نمیکنه.
برای اوپناِیآی هم همین نسخه صادقه. اگه به خاطر نگرانی از مصرف انرژی یا خودآسیبی یا انتشار اطلاعات غلط، چتجیپیتی رو دیرتر منتشر میکرد، شرکتای دیگه جلو میزدن. بعدش دیگه سرمایه جمع کردن سخت میشد و عملاً از اثرگذاری روی آیندهی هوش مصنوعی عقب میموند.
پس در عمل، حتی وقتی رسماً کمپانیِ اخلاقمحور بود، شبیه یه شرکت سودمحور رفتار میکرد. مجبور بود. قانون بازی همینه.
https://theconversation.com/why-openai-is-a-prime-example-of-the-ethical-limits-of-capitalism-270407
The Conversation
Why OpenAI is a prime example of the ethical limits of capitalism
Money and morality are a challenging corporate combination.
👍2
این کانال یوتیوب ویدیوهای جالبی میذاره پیشنهادش میکنم
https://youtu.be/UEUXThiwZvQ?si=NudEaYInWgB8Hbcu
https://youtu.be/UEUXThiwZvQ?si=NudEaYInWgB8Hbcu
❤4
خانه سرخ و کوچه سرخ است و خیابان سرخ است
آری از خون پهنه ی برزن و میدان سرخ است
ده به ده پرچم خشم است که بر میخیزد
مزرعه زرد و چپر سبز و بیابان سرخ است
خانه سرخ و کوچه سرخ است و خیابان سرخ است
آری از خون پهنه ی برزن و میدان سرخ است
ده به ده پرچم خشم است که بر میخیزد
مزرعه زرد و چپر سبز و بیابان سرخ است
تا گل خونی فریاد در این باغستان
ساقه از ضربه ی شلاق زمستان سرخ است
وحشتی نیست از انبوه مسلسل داران
تا در این دشت غرور کینه داران سرخ است
رو سیاه است اگر این شب مردم کش بد
تا دم صبح وطن سینه ی یاران سرخ است
با تو سرسبزی از ایثار سیه پوشان است
ای مسلط دستت از خون شهیدان سرخ است
ده به ده پرچم خشم است که بر میخیزد
مزرعه زرد و چپر سبز و بیابان سرخ است
تا گل خونی فریاد در این باغستان
ساقه از ضربه ی شلاق زمستان سرخ است
وحشتی نیست از انبوه مسلسل داران
تا در این دشت غرور کینه داران سرخ است
رو سیاه است اگر این شب مردم کش بد
تا دم صبح وطن سینه ی یاران سرخ است
با تو سرسبزی از ایثار سیه پوشان است
ای مسلط دستت از خون شهیدان سرخ است
ده به ده پرچم خشم است که بر میخیزد
مزرعه زرد و چپر سبز و بیابان سرخ است
- ایرج جنتی عطایی
آری از خون پهنه ی برزن و میدان سرخ است
ده به ده پرچم خشم است که بر میخیزد
مزرعه زرد و چپر سبز و بیابان سرخ است
خانه سرخ و کوچه سرخ است و خیابان سرخ است
آری از خون پهنه ی برزن و میدان سرخ است
ده به ده پرچم خشم است که بر میخیزد
مزرعه زرد و چپر سبز و بیابان سرخ است
تا گل خونی فریاد در این باغستان
ساقه از ضربه ی شلاق زمستان سرخ است
وحشتی نیست از انبوه مسلسل داران
تا در این دشت غرور کینه داران سرخ است
رو سیاه است اگر این شب مردم کش بد
تا دم صبح وطن سینه ی یاران سرخ است
با تو سرسبزی از ایثار سیه پوشان است
ای مسلط دستت از خون شهیدان سرخ است
ده به ده پرچم خشم است که بر میخیزد
مزرعه زرد و چپر سبز و بیابان سرخ است
تا گل خونی فریاد در این باغستان
ساقه از ضربه ی شلاق زمستان سرخ است
وحشتی نیست از انبوه مسلسل داران
تا در این دشت غرور کینه داران سرخ است
رو سیاه است اگر این شب مردم کش بد
تا دم صبح وطن سینه ی یاران سرخ است
با تو سرسبزی از ایثار سیه پوشان است
ای مسلط دستت از خون شهیدان سرخ است
ده به ده پرچم خشم است که بر میخیزد
مزرعه زرد و چپر سبز و بیابان سرخ است
- ایرج جنتی عطایی
❤1
توی این مقاله میگه چرا ویتگنشتاین با همه مخالفت میکرد حتی با خودش :)
اولش میگه در اکتبر ۱۹۱۱ یه دانشجوی ۲۲ ساله مهندسی هوانوردی در منچستر با قطار به کمبریج میره. چون عاشق منطق ریاضی شده بوده، میخواسته از برتراند راسل که اون موقع مدرس تازه وارد کالج ترینیتی بوده بهره ببره، اما راسل به خواهر بزرگتر ویتگنشتاین میگه:
ده سال بعد ویتگنشتاین کتاب "رساله منطقی-فلسفی" رو منتشر میکنه که بنظر خودش همه مسائل بنیادی فلسفه رو حل کرده. ولی خب اینطور نبوده و بر اساس تعریف، مسائل فلسفی حل نشدنی هستن. رسالهای که نوشت اساساً در مورد حدود زبان بوده و به گفته ویتگنشتاین زبانی که فقط برای بیان واقعیتها سودمنده. به همین خاطر بخش بزرگی از چیزی که میگیم بیمعناست و وقتی در مورد مسائل دینی، پرسشهای زیباییشناختی و... حرف میزنیم به تعبیر ویتگنشتاین داریم یاوه میگیم :) در این مورد خود فیلسوفها رو هم صحبتش شامل شده و صرفاً مردم عادی مد نظرش نبوده.
ویتگنشتاین معتقد نبود فقط چیزهای مهم همونهاییاند که میتونیم دربارهشون حرف بزنیم، بلکه برعکس، اون چیزی که نمیتونیم دربارهاش سخن بگیم اهمیت بیشتری داره.
سال ۱۹۲۲ رساله ویتگنشتاین به انگلیسی ترجمه شد اما بعدهها، ویتگنشتاین مجموعه تازهای از استدلالها رو پیش کشید که با هر چیزی که در رسالهش اومده بود در تضاد بوده. ویتگنشتاین ریشه مشکلات ما با زبان رو نه در منطق، بلکه در قیود و برداشتهای خودمون از کاربرد زبان میدونه.
ویتگنشتاین توی یه خانواده ثروتمند به دنیا اومده بود و یه نکته جالب در موردش اینه که مدتی با آدولف هیتلر هممدرسه بوده :))
میگه که روح سرگردانی داشته و همونطور که هوانوردی رو رها کرد تا منطقدان بشه، منطق رو هم رها کرد و معلم دبستان شد. بعدش معلمی رو هم رها میکنه و باغبون یک صومعه میشه. بعد از باغبونی هم خودش رو معمار میدونست و یه خونه هم طراحی میکنه که به طرز وهمآوری بی نقص بوده.
زندگی عاطفیش از این هم بیثباتتر بود. یکی از رنجکشیدهترین همجنسگرایان تاریخ بوده و در عین حال، خودش هم بقیه رو میرنجوند. مثل کنت ویلیامز، عادت داشت به زنان پیشنهاد ازدواج بده، در حالی که با قاطعیت بر عفیفبودن اون ازدواج پافشاری میکرد. برای مردهای جوانی که دوستشون داشت هم اوضاع خوب نبود، چون هیچقت بهشون نمیگفت که دوستشون داره. ویتگنشتاین درباره دیوید پینسنت—که رسالهش به اون تقدیم شده—گفت مرگش در یک آزمایش پروازی، چند ماه قبل از پایان جنگ جهانی اول، «نیمی از زندگیام را از من گرفت». با این حال، بهگفته گاتلیب، «هیچ نشانهای وجود ندارد که پینسنت از چنین احساساتی آگاه بوده باشد… یا خودش چنین احساسی داشته باشد.»
در حالی که فرانسیس اسکینرِ «پسرانه، مهربان و حساس» از عشق ویتگنشتاین مطمئن بود، یادداشتهای روزانه ویتگنشتاین نشان میده که خودِ اون چندان مطمئن نبوده: «دو سه بار با او خوابیدم. همیشه اول با این احساس که کار بدی نیست، بعد با شرم.»
در مقاله در مورد ویتگنشتاین میگه:
دوستش فرانک رمزی میگفت: «اگر در درستی حرفهایش تردید کنی، فوراً فکر میکند اصلاً نفهمیدهای چه گفته.» و برای مردی که استدلال میکرد اخلاق را نمیتوان بهطور معنادار بحث کرد، وقت عجیبی صرف موعظه اخلاقی دیگران میکرد.
نورمن مالکوم از «تمایل او به سرزنشگری» شکایت داشته. گئورگ فون رایت، یکی از وصیّان ادبیاش، گفت که صحبتکردن با اون «وحشتناک بود… مثل اینکه روز داوری را از سر بگذرانی.»
در آخر هم توی مقاله میگن بیگمان، کسی که ویتگنشتاین بیشتر از همه به اون سخت میگرفت، خودش بود. افکار خودکشی بهندرت از ذهنش دور میشد. بیش از یکبار دوستانش را مجبور کرد بنشینند و فهرست دروغها و گناهانش را بشنوند. و سالها بعد از اونکه در یه مدرسه ابتدایی در اتریش شاگردانش را کتک زده بود، برگشت و جداگانه از آنها عذرخواهی کرد. روی بستر مرگ گفت: «بهشان بگویید زندگی فوقالعادهای داشتم.» شاید چنین بود، اما این زندگینامه عالی را که میبندی، به این فکر میافتی که فیلسوف زبان، جی. ال. آستین، بهترین جمعبندی را کرده بود: «بیچاره پیرمرد ویتِرز.»
https://www.telegraph.co.uk/books/non-fiction/review-wittgenstein-philosophy-age-airplanes-gottlieb/
اولش میگه در اکتبر ۱۹۱۱ یه دانشجوی ۲۲ ساله مهندسی هوانوردی در منچستر با قطار به کمبریج میره. چون عاشق منطق ریاضی شده بوده، میخواسته از برتراند راسل که اون موقع مدرس تازه وارد کالج ترینیتی بوده بهره ببره، اما راسل به خواهر بزرگتر ویتگنشتاین میگه:
ما انتظار داریم گام بزرگ بعدی در فلسفه را برادر شما بردارد.
ده سال بعد ویتگنشتاین کتاب "رساله منطقی-فلسفی" رو منتشر میکنه که بنظر خودش همه مسائل بنیادی فلسفه رو حل کرده. ولی خب اینطور نبوده و بر اساس تعریف، مسائل فلسفی حل نشدنی هستن. رسالهای که نوشت اساساً در مورد حدود زبان بوده و به گفته ویتگنشتاین زبانی که فقط برای بیان واقعیتها سودمنده. به همین خاطر بخش بزرگی از چیزی که میگیم بیمعناست و وقتی در مورد مسائل دینی، پرسشهای زیباییشناختی و... حرف میزنیم به تعبیر ویتگنشتاین داریم یاوه میگیم :) در این مورد خود فیلسوفها رو هم صحبتش شامل شده و صرفاً مردم عادی مد نظرش نبوده.
ویتگنشتاین معتقد نبود فقط چیزهای مهم همونهاییاند که میتونیم دربارهشون حرف بزنیم، بلکه برعکس، اون چیزی که نمیتونیم دربارهاش سخن بگیم اهمیت بیشتری داره.
سال ۱۹۲۲ رساله ویتگنشتاین به انگلیسی ترجمه شد اما بعدهها، ویتگنشتاین مجموعه تازهای از استدلالها رو پیش کشید که با هر چیزی که در رسالهش اومده بود در تضاد بوده. ویتگنشتاین ریشه مشکلات ما با زبان رو نه در منطق، بلکه در قیود و برداشتهای خودمون از کاربرد زبان میدونه.
ویتگنشتاین توی یه خانواده ثروتمند به دنیا اومده بود و یه نکته جالب در موردش اینه که مدتی با آدولف هیتلر هممدرسه بوده :))
میگه که روح سرگردانی داشته و همونطور که هوانوردی رو رها کرد تا منطقدان بشه، منطق رو هم رها کرد و معلم دبستان شد. بعدش معلمی رو هم رها میکنه و باغبون یک صومعه میشه. بعد از باغبونی هم خودش رو معمار میدونست و یه خونه هم طراحی میکنه که به طرز وهمآوری بی نقص بوده.
زندگی عاطفیش از این هم بیثباتتر بود. یکی از رنجکشیدهترین همجنسگرایان تاریخ بوده و در عین حال، خودش هم بقیه رو میرنجوند. مثل کنت ویلیامز، عادت داشت به زنان پیشنهاد ازدواج بده، در حالی که با قاطعیت بر عفیفبودن اون ازدواج پافشاری میکرد. برای مردهای جوانی که دوستشون داشت هم اوضاع خوب نبود، چون هیچقت بهشون نمیگفت که دوستشون داره. ویتگنشتاین درباره دیوید پینسنت—که رسالهش به اون تقدیم شده—گفت مرگش در یک آزمایش پروازی، چند ماه قبل از پایان جنگ جهانی اول، «نیمی از زندگیام را از من گرفت». با این حال، بهگفته گاتلیب، «هیچ نشانهای وجود ندارد که پینسنت از چنین احساساتی آگاه بوده باشد… یا خودش چنین احساسی داشته باشد.»
در حالی که فرانسیس اسکینرِ «پسرانه، مهربان و حساس» از عشق ویتگنشتاین مطمئن بود، یادداشتهای روزانه ویتگنشتاین نشان میده که خودِ اون چندان مطمئن نبوده: «دو سه بار با او خوابیدم. همیشه اول با این احساس که کار بدی نیست، بعد با شرم.»
در مقاله در مورد ویتگنشتاین میگه:
او انسان بود، بیش از حد انسان. بیچونوچرا نابغه بود، اما در عین حال تحملناپذیر و متکبر.
دوستش فرانک رمزی میگفت: «اگر در درستی حرفهایش تردید کنی، فوراً فکر میکند اصلاً نفهمیدهای چه گفته.» و برای مردی که استدلال میکرد اخلاق را نمیتوان بهطور معنادار بحث کرد، وقت عجیبی صرف موعظه اخلاقی دیگران میکرد.
نورمن مالکوم از «تمایل او به سرزنشگری» شکایت داشته. گئورگ فون رایت، یکی از وصیّان ادبیاش، گفت که صحبتکردن با اون «وحشتناک بود… مثل اینکه روز داوری را از سر بگذرانی.»
در آخر هم توی مقاله میگن بیگمان، کسی که ویتگنشتاین بیشتر از همه به اون سخت میگرفت، خودش بود. افکار خودکشی بهندرت از ذهنش دور میشد. بیش از یکبار دوستانش را مجبور کرد بنشینند و فهرست دروغها و گناهانش را بشنوند. و سالها بعد از اونکه در یه مدرسه ابتدایی در اتریش شاگردانش را کتک زده بود، برگشت و جداگانه از آنها عذرخواهی کرد. روی بستر مرگ گفت: «بهشان بگویید زندگی فوقالعادهای داشتم.» شاید چنین بود، اما این زندگینامه عالی را که میبندی، به این فکر میافتی که فیلسوف زبان، جی. ال. آستین، بهترین جمعبندی را کرده بود: «بیچاره پیرمرد ویتِرز.»
https://www.telegraph.co.uk/books/non-fiction/review-wittgenstein-philosophy-age-airplanes-gottlieb/
The Telegraph
Why Wittgenstein disagreed with everyone (including himself)
In 1921, he’d solved all the fundamental problems of philosophy – then he tore it all up
💯1
Forwarded from Math ebook (mahdi)
4_5940619719525534851.pdf
31.3 MB
⬅️ کتاب اواریست گالوا
نویسنده : لئوپولد اینفلد
مترجم : پرویز شهریاری
ناشر : نشر بردار
#چاپ_دوم_۱۳۷۳
#تاریخ_و_فلسفه_ریاضیات
🆔 @Math_ebook
نویسنده : لئوپولد اینفلد
مترجم : پرویز شهریاری
ناشر : نشر بردار
#چاپ_دوم_۱۳۷۳
#تاریخ_و_فلسفه_ریاضیات
🆔 @Math_ebook
کتاب انقلاب فرانسه و رژیم پیش از آن از دوتوکویل رو میخوندم و این پاراگرافش بنظرم جالب اومد با توجه به اینکه چنین تجربهای رو هم خودمون قبلاً در اصلاحات ارضی دوره پهلوی داستیم و نتیجه هر دو چه در فرانسه چه در ایران یکسان بود و به انقلاب ختم شد.
پ.ن: تا اینجا که کتابش رو خوندم این حس رو القا میکنه که انگار نویسنده خیلی طرفدار نظام فئودالی پیش از انقلاب بوده ولی در مجموع کتاب خوبیه و پیشنهادش میکنم اگر علاقه داشتید.
پ.ن: تا اینجا که کتابش رو خوندم این حس رو القا میکنه که انگار نویسنده خیلی طرفدار نظام فئودالی پیش از انقلاب بوده ولی در مجموع کتاب خوبیه و پیشنهادش میکنم اگر علاقه داشتید.
👍1
Supersonic AI
کتاب انقلاب فرانسه و رژیم پیش از آن از دوتوکویل رو میخوندم و این پاراگرافش بنظرم جالب اومد با توجه به اینکه چنین تجربهای رو هم خودمون قبلاً در اصلاحات ارضی دوره پهلوی داستیم و نتیجه هر دو چه در فرانسه چه در ایران یکسان بود و به انقلاب ختم شد. پ.ن: تا اینجا…
در ادامهش هم میگه واگذاری زمین به کشاورزها باعث شد کلی کشاورز صاحب قطعه زمینهای کوچیکی بشن که نه سود خاصی براشون داشت و علاوه بر اون کلی سختی و خسارت بهشون تحمیل کرد و فقط باعث شد که بقولی این قضیه صاحب زمین بودن زیر دندون کشاورزها مزه کنه و دنبال چیزهای بیشتری برن.
این در حالی بوده که اتفاقاً توی فرانسه طبقه کارگر و رعیت به نسبت از آزادی بیشتری بر خوردار بودن در مقابل آلمان و انگلیس.
در همون حین هم با وجود همین نظام فئودالی توی انگلیس، این کشور از نظر کشاورزی حرف اول رو توی اروپا میزده و پیشرفتهای خیلی زیادی داشته. ولی بجای اینکه فئودالیسم، اونجا هم منجر به انقلاب بشه مثل فرانسه، طی یه روند آهسته و پیوسته کشاورزها و بطور کلی طبقه رعیت تونستن حق و حقوق بیشتری کسب کنن و وضعشون بهبود پیدا کرد.
این در حالی بوده که اتفاقاً توی فرانسه طبقه کارگر و رعیت به نسبت از آزادی بیشتری بر خوردار بودن در مقابل آلمان و انگلیس.
در همون حین هم با وجود همین نظام فئودالی توی انگلیس، این کشور از نظر کشاورزی حرف اول رو توی اروپا میزده و پیشرفتهای خیلی زیادی داشته. ولی بجای اینکه فئودالیسم، اونجا هم منجر به انقلاب بشه مثل فرانسه، طی یه روند آهسته و پیوسته کشاورزها و بطور کلی طبقه رعیت تونستن حق و حقوق بیشتری کسب کنن و وضعشون بهبود پیدا کرد.
❤1
شیوه پرامپتنویسی خوب از زبون خود ChatGPT
اول: دقیقاً بدون چی میخوای، نه «حدوداً»
«یه توضیح بده»، «یه متن خوب بنویس»، «تحلیل کن» یعنی هیچ. مدل قرار نیست نیتخوانی کنه. باید بدونه خروجی قراره چیه: مقاله؟ خلاصه؟ نقد فنی؟ متن عامهپسند؟ اگر خودت نمیدونی، مشکل از پرامپته، نه از مدل.
دوم: کانتکست ندادن یعنی شلیک تو تاریکی
LLM بدون زمینه مثل استاد دانشگاهیه که وسط خواب بیدارش کنی بگی «نظر بده». باید بدونه:
مخاطب کیه
سطح فنی چقدره
هدف استفاده چیه
محدودیتها کدومن
هر خط کانتکست خوب، ده خط خروجی بهتر میسازه.
سوم: نقش تعیین کن، ولی ادا درنیار
«تو یک متخصص فلان با ۲۰ سال تجربه هستی» اگر فقط ژست باشه، فایده نداره. نقش باید با وظیفه بخونه.
مثلاً: «مثل یک داور مقالهی علمی سختگیر نقد کن» خیلی بهتر از «تو نابغهای».
چهارم: فرمت خروجی رو دیکته کن
اگر نگفتی خروجی چطوری باشه، مدل هرجور دلش خواست میریزه.
بگو: پاراگرافی، بولتپوینت، جدول، مرحلهبهمرحله، با مثال، بدون مثال، کوتاه، مفصل.
این کنترل نیست؛ مهندسیه.
پنجم: ابهام = توهم
هرجا مبهم بنویسی، مدل پرش میکنه. بعد میگی «چرا هالوسینیشن داد؟»
پاسخ سادهست: چون تو بهش اجازه دادی.
اگر داده قطعی نداری، خودت بگو «اگر داده کافی نیست، فرضیاتت رو شفاف بگو».
ششم: پرامپت خوب، یکبار نوشته نمیشه
انتظار نداشته باش با یک شات شاهکار بگیری.
پرامپتنویسی فرآیند تکراره:
خروجی رو میبینی
ضعفش رو تشخیص میدی
پرامپت رو اصلاح میکنی
کسی که این کار رو نکنه، داره وقت تلف میکنه.
هفتم (مهم ولی ناراحتکننده): مدل آینهی توئه
اگر سوالت سطحیه، جواب سطحی میگیری.
اگر تفکرت شفاف نیست، متن شفاف تحویل نمیگیری.
LLM تقویتکنندهست، نه معجزهگر. احمق رو نابغه نمیکنه، نابغه رو هم نجات نمیده.
جمعبندیِ بیرحمانه:
پرامپتنویسی یعنی «واضح فکر کردن با صدای بلند».
هرجا خروجی بده، اول از خودت بپرس: من دقیق بودم یا تنبل؟
کسی که این مهارت رو جدی بگیره، از همون ابزارها نتیجهای میگیره که بقیه فکر میکنن «جادو»ست.
مثال ۱: درخواست توضیح
❌ پرامپت بد:
«یادگیری ماشین رو توضیح بده.»
مشکلش چیه؟
هیچی مشخص نیست. برای کی؟ در چه سطحی؟ با چه هدفی؟ نتیجه میشه یه متن کلیشهای و بیخاصیت.
✅ پرامپت خوب:
«یادگیری ماشین رو برای یک دانشجوی سال اول مهندسی توضیح بده، بدون فرمول ریاضی، با دو مثال کاربردی از زندگی روزمره، در حداکثر ۳ پاراگراف.»
نتیجه؟
مدل میفهمه کجا وایساده، چی رو حذف کنه، چی رو برجسته کنه 🎯
مثال ۲: تولید محتوا
❌ پرامپت بد:
«یه متن انگیزشی درباره موفقیت بنویس.»
این یعنی دعوت رسمی به تولید مزخرفات اینستاگرامی 😑
✅ پرامپت خوب:
«یک متن انگیزشی کوتاه بنویس که کلیشهای نباشه، لحن واقعگرایانه داشته باشه، روی هزینهی واقعی موفقیت تمرکز کنه، و مناسب مخاطب ۲۰ تا ۲۵ ساله باشه.»
حالا مدل مجبور میشه فکر کنه، نه کپی کنه 🔍
مثال ۳: تحلیل فنی
❌ پرامپت بد:
«این مقاله رو تحلیل کن.»
تحلیل یعنی چی؟ خلاصه؟ نقد؟ بررسی روش؟ ایرادگیری؟ معلوم نیست.
✅ پرامپت خوب:
«این مقاله را از نظر روششناسی، فرضیات پنهان، و نقاط ضعف تجربی تحلیل کن. اگر دادهها ناکافی هستند، صریحاً بگو. لحن نقد آکادمیک و بیطرفانه باشه.»
مدل میفهمه قرار نیست تعریف کنه، قراره داوری کنه ⚖️
مثال ۴: برنامهریزی
❌ پرامپت بد:
«برام برنامه یادگیری هوش مصنوعی بنویس.»
این یعنی یا خیلی کلی، یا کاملاً نامربوط.
✅ پرامپت خوب:
«برای فردی با پیشزمینه برنامهنویسی پایتون و آمار پایه، یک برنامهی ۶ ماههی یادگیری هوش مصنوعی بنویس که هدفش آمادگی برای ریسرچ آکادمیک باشه. هر ماه هدف، منابع پیشنهادی و خروجی قابل اندازهگیری داشته باشه.»
اینجا خروجی میتونه واقعاً استفاده بشه 📈
مثال ۵: خلاقیت
❌ پرامپت بد:
«یه داستان کوتاه بنویس.»
مدل میره سمت امنترین و خستهکنندهترین الگو 😴
✅ پرامپت خوب:
«یک داستان کوتاه بنویس با لحن سرد و مینیمال، راوی سومشخص محدود، دربارهی انسانی که متوجه میشه سیستم بیش از حد به او نیاز داره. پایان باز باشه و از توضیح مستقیم پرهیز کن.»
اول: دقیقاً بدون چی میخوای، نه «حدوداً»
«یه توضیح بده»، «یه متن خوب بنویس»، «تحلیل کن» یعنی هیچ. مدل قرار نیست نیتخوانی کنه. باید بدونه خروجی قراره چیه: مقاله؟ خلاصه؟ نقد فنی؟ متن عامهپسند؟ اگر خودت نمیدونی، مشکل از پرامپته، نه از مدل.
دوم: کانتکست ندادن یعنی شلیک تو تاریکی
LLM بدون زمینه مثل استاد دانشگاهیه که وسط خواب بیدارش کنی بگی «نظر بده». باید بدونه:
مخاطب کیه
سطح فنی چقدره
هدف استفاده چیه
محدودیتها کدومن
هر خط کانتکست خوب، ده خط خروجی بهتر میسازه.
سوم: نقش تعیین کن، ولی ادا درنیار
«تو یک متخصص فلان با ۲۰ سال تجربه هستی» اگر فقط ژست باشه، فایده نداره. نقش باید با وظیفه بخونه.
مثلاً: «مثل یک داور مقالهی علمی سختگیر نقد کن» خیلی بهتر از «تو نابغهای».
چهارم: فرمت خروجی رو دیکته کن
اگر نگفتی خروجی چطوری باشه، مدل هرجور دلش خواست میریزه.
بگو: پاراگرافی، بولتپوینت، جدول، مرحلهبهمرحله، با مثال، بدون مثال، کوتاه، مفصل.
این کنترل نیست؛ مهندسیه.
پنجم: ابهام = توهم
هرجا مبهم بنویسی، مدل پرش میکنه. بعد میگی «چرا هالوسینیشن داد؟»
پاسخ سادهست: چون تو بهش اجازه دادی.
اگر داده قطعی نداری، خودت بگو «اگر داده کافی نیست، فرضیاتت رو شفاف بگو».
ششم: پرامپت خوب، یکبار نوشته نمیشه
انتظار نداشته باش با یک شات شاهکار بگیری.
پرامپتنویسی فرآیند تکراره:
خروجی رو میبینی
ضعفش رو تشخیص میدی
پرامپت رو اصلاح میکنی
کسی که این کار رو نکنه، داره وقت تلف میکنه.
هفتم (مهم ولی ناراحتکننده): مدل آینهی توئه
اگر سوالت سطحیه، جواب سطحی میگیری.
اگر تفکرت شفاف نیست، متن شفاف تحویل نمیگیری.
LLM تقویتکنندهست، نه معجزهگر. احمق رو نابغه نمیکنه، نابغه رو هم نجات نمیده.
جمعبندیِ بیرحمانه:
پرامپتنویسی یعنی «واضح فکر کردن با صدای بلند».
هرجا خروجی بده، اول از خودت بپرس: من دقیق بودم یا تنبل؟
کسی که این مهارت رو جدی بگیره، از همون ابزارها نتیجهای میگیره که بقیه فکر میکنن «جادو»ست.
مثال ۱: درخواست توضیح
❌ پرامپت بد:
«یادگیری ماشین رو توضیح بده.»
مشکلش چیه؟
هیچی مشخص نیست. برای کی؟ در چه سطحی؟ با چه هدفی؟ نتیجه میشه یه متن کلیشهای و بیخاصیت.
✅ پرامپت خوب:
«یادگیری ماشین رو برای یک دانشجوی سال اول مهندسی توضیح بده، بدون فرمول ریاضی، با دو مثال کاربردی از زندگی روزمره، در حداکثر ۳ پاراگراف.»
نتیجه؟
مدل میفهمه کجا وایساده، چی رو حذف کنه، چی رو برجسته کنه 🎯
مثال ۲: تولید محتوا
❌ پرامپت بد:
«یه متن انگیزشی درباره موفقیت بنویس.»
این یعنی دعوت رسمی به تولید مزخرفات اینستاگرامی 😑
✅ پرامپت خوب:
«یک متن انگیزشی کوتاه بنویس که کلیشهای نباشه، لحن واقعگرایانه داشته باشه، روی هزینهی واقعی موفقیت تمرکز کنه، و مناسب مخاطب ۲۰ تا ۲۵ ساله باشه.»
حالا مدل مجبور میشه فکر کنه، نه کپی کنه 🔍
مثال ۳: تحلیل فنی
❌ پرامپت بد:
«این مقاله رو تحلیل کن.»
تحلیل یعنی چی؟ خلاصه؟ نقد؟ بررسی روش؟ ایرادگیری؟ معلوم نیست.
✅ پرامپت خوب:
«این مقاله را از نظر روششناسی، فرضیات پنهان، و نقاط ضعف تجربی تحلیل کن. اگر دادهها ناکافی هستند، صریحاً بگو. لحن نقد آکادمیک و بیطرفانه باشه.»
مدل میفهمه قرار نیست تعریف کنه، قراره داوری کنه ⚖️
مثال ۴: برنامهریزی
❌ پرامپت بد:
«برام برنامه یادگیری هوش مصنوعی بنویس.»
این یعنی یا خیلی کلی، یا کاملاً نامربوط.
✅ پرامپت خوب:
«برای فردی با پیشزمینه برنامهنویسی پایتون و آمار پایه، یک برنامهی ۶ ماههی یادگیری هوش مصنوعی بنویس که هدفش آمادگی برای ریسرچ آکادمیک باشه. هر ماه هدف، منابع پیشنهادی و خروجی قابل اندازهگیری داشته باشه.»
اینجا خروجی میتونه واقعاً استفاده بشه 📈
مثال ۵: خلاقیت
❌ پرامپت بد:
«یه داستان کوتاه بنویس.»
مدل میره سمت امنترین و خستهکنندهترین الگو 😴
✅ پرامپت خوب:
«یک داستان کوتاه بنویس با لحن سرد و مینیمال، راوی سومشخص محدود، دربارهی انسانی که متوجه میشه سیستم بیش از حد به او نیاز داره. پایان باز باشه و از توضیح مستقیم پرهیز کن.»