Forwarded from lune blessée
اگه ترکیبیات دوست دارید.
اینم صرف تجربه تدریس.
🥇منابع سطح مقدماتی:
آنالیز ترکیبی- نشرالگو-علیپور
روش های ترکیبیات1-نشرفاطمی-علیپور
محافل ریاضی-نشر فاطمی
سوالات مرحله یک و مرحله دوی تستی المپیاد کامپیوتر کامپیوتر ایران
سوالات ترکیبیات المپیاد ریاضی ایران
سوالات مسابقات AMC آمریکا
سوالات مسابقات تورنمت شهرها
ترکیبیات(زرد)-نشر فاطمی-علیپور
🥇منابع سطح پیشرفته و آزاد:
ترکیبیات(زرد)-نشر فاطمی-علیپور
روشهای ترکیبیات2،3و4-نشرفاطمی-علیپور
المپیادهای ریاضی ایران(مرحله دو، دوره تابستان و انتخاب تیم)
سوالات ترکیبیات IMO
سوالات المپیاد کامپیوتر ایران مرحله دوم تشریحی
سوالات مسابقات تورنمت شهرها
سوالات ترکیبیات المپیاد های ریاضی روسیه
نظریه گراف وست
https://news.1rj.ru/str/ICOofficial/374
اینم صرف تجربه تدریس.
🥇منابع سطح مقدماتی:
آنالیز ترکیبی- نشرالگو-علیپور
روش های ترکیبیات1-نشرفاطمی-علیپور
محافل ریاضی-نشر فاطمی
سوالات مرحله یک و مرحله دوی تستی المپیاد کامپیوتر کامپیوتر ایران
سوالات ترکیبیات المپیاد ریاضی ایران
سوالات مسابقات AMC آمریکا
سوالات مسابقات تورنمت شهرها
ترکیبیات(زرد)-نشر فاطمی-علیپور
🥇منابع سطح پیشرفته و آزاد:
ترکیبیات(زرد)-نشر فاطمی-علیپور
روشهای ترکیبیات2،3و4-نشرفاطمی-علیپور
المپیادهای ریاضی ایران(مرحله دو، دوره تابستان و انتخاب تیم)
سوالات ترکیبیات IMO
سوالات المپیاد کامپیوتر ایران مرحله دوم تشریحی
سوالات مسابقات تورنمت شهرها
سوالات ترکیبیات المپیاد های ریاضی روسیه
نظریه گراف وست
https://news.1rj.ru/str/ICOofficial/374
lune blessée
اگه ترکیبیات دوست دارید. اینم صرف تجربه تدریس. 🥇منابع سطح مقدماتی: آنالیز ترکیبی- نشرالگو-علیپور روش های ترکیبیات1-نشرفاطمی-علیپور محافل ریاضی-نشر فاطمی سوالات مرحله یک و مرحله دوی تستی المپیاد کامپیوتر کامپیوتر ایران سوالات ترکیبیات المپیاد ریاضی ایران…
بنظر جالب میاد دوست داشتید ثبتنام کنید. من خودمم ثبتنام کردم :)
این جمله از هایدگر اول کتاب گوتلوب فرگه قشنگ بود. کتاب گوتلوب فرگه هم توسط هانس اسلوگا فیلسوف آلمانی نوشته شده و به بررسی بینشهای فرگه توی موضوعات مختلف میپردازه. اگه میخواستید بخونیدش میتونید از لینک استفاده کنید.
https://archive.org/details/hans-d.-sluga-gottlob-frege/page/n1/mode/1up
ترجمه کتاب هم از نشر نی منتشر شده.
https://archive.org/details/hans-d.-sluga-gottlob-frege/page/n1/mode/1up
ترجمه کتاب هم از نشر نی منتشر شده.
❤1
Supersonic AI
ایشونم نیکولای لوزین ریاضیدان اهل شورویه که بخاطر کارهاش در زمینه denoscriptive set theory شناخته شدهست. زندگی جالبی داشته بعداً در موردش مینویسم.
نیکولای لوزین متولد 9 دسامبر 1883 در یک شهر کوچیک در سیبری متولد شد. بعد از تموم کردن دوره متوسطه، در سال 1901 وارد دانشکده فیزیک و ریاضیات دانشگاه مسکو شد و اونجا زیر نظر دیمیتری فِدوْرویچ اِگُرُف (D. F. Egorov) شروع به تحصیل کرد و استعدادش در آنالیز و نظریه ردیفهای مثلثاتی کشف شد.
لوزین در دهه اول قرن بیستم دچار بحرانهای فکری و معنوی میشه و در نامههایی که به دوستانش مینوشت، از احساس بیمعنایی ریاضیات در برابر موضوعات انسانی صحبت میکرد و گویا قصد داشته تغییر رشته بده اما در نهایت در ریاضیات کارش رو ادامه میده. توی یکی از همین نامهها به همدانشگاهیش مینویسه:
اولین نتیجه علمی مهم لوزین در حدود سال 1912 ساختن نمونهای از سری مثلثاتی بود که ضرایبش به صفر میل میکنن اما سری تقریباً واگراست. رساله دکترای اون هم در مورد "انتگرال و سریهای مثلثاتی" بود. لوزین همراه با شاگردش میخائیل سوسلین در توسعه نظریه مجموعههای تحلیلی نقش مهمی داشت و از بنیانگذاران شاخهای بود که بعدها «نظریهٔ مجموعههای توصیفی» نامیده شد.
در سال 1936، لوزین هدف فشار و اتهام سیاسی در اتحاد شوروی قرار گرفت که به "ماجرای لوزین" معروف شد. روزنامهٔ «پراودا» و برخی فعالان محافل حزبی اون رو متهم کردند که «دشمن در لباس شوروی» هست و به قراردادهای علمی با غرب و بهطور کلی به رفتارهای «ضدملّی» متهم شد. این پرونده در جلسات ویژهٔ آکادمی علوم و کمیسیونهای حزبی مورد بررسی قرار گرفت؛ علیرغم شدت حملات، لوزین با وجود تضعیف حیثیتی و محدودیتهای حرفهای زنده موند و در نهایت اعدام یا تبعید کامل اون رخ نداد، ولی اعتبار و موقعیت کاریاش برای سالها آسیب دید.
بعد از بحران 1936، لوزین تا حدی به حاشیه رفت اما همچنان به پژوهش ادامه داد و توی مؤسسات تحقیقاتی وابسته به آکادمی علوم کار کرد. در نهایت اون در 28 فوریهٔ 1950 در مسکو درگذشت.
در یکی از جملات معروفی هم که ازش نقل قول میشه، در خصوص واکنشش به آموزش مشتق و حد میگه که:
لوزین در دهه اول قرن بیستم دچار بحرانهای فکری و معنوی میشه و در نامههایی که به دوستانش مینوشت، از احساس بیمعنایی ریاضیات در برابر موضوعات انسانی صحبت میکرد و گویا قصد داشته تغییر رشته بده اما در نهایت در ریاضیات کارش رو ادامه میده. توی یکی از همین نامهها به همدانشگاهیش مینویسه:
وقتی من رو در دانشگاه پیدا کردی، کودکی بیش نبودم و هیچی نمیدونستم. نمیدانم چگونه شد، اما دیگر نمیتوانم با توابع تحلیلی و سریهای تیلور راضی بشم... این حدود یک سال پیش اتفاق افتاد... دیدن فلاکت مردم، دیدن رنج زندگی، بازگشتن به خانه بعد از یک جلسه ریاضی... و آنجا در سرما، زنانی میلرزند و بیهوده در انتظار شام با وحشت خریده شده ایستادهاند. این منظره تحمل ناپذیر است. پس از دیدن چنین چیزی، مطالعه آرام علم و در واقع لذت بردن از آن غیر ممکن است. بعد از آن دیگر نتوانستم فقط ریاضی بخوانم و میخواستم به دانشکدهٔ پزشکی منتقل شوم.
اولین نتیجه علمی مهم لوزین در حدود سال 1912 ساختن نمونهای از سری مثلثاتی بود که ضرایبش به صفر میل میکنن اما سری تقریباً واگراست. رساله دکترای اون هم در مورد "انتگرال و سریهای مثلثاتی" بود. لوزین همراه با شاگردش میخائیل سوسلین در توسعه نظریه مجموعههای تحلیلی نقش مهمی داشت و از بنیانگذاران شاخهای بود که بعدها «نظریهٔ مجموعههای توصیفی» نامیده شد.
در سال 1936، لوزین هدف فشار و اتهام سیاسی در اتحاد شوروی قرار گرفت که به "ماجرای لوزین" معروف شد. روزنامهٔ «پراودا» و برخی فعالان محافل حزبی اون رو متهم کردند که «دشمن در لباس شوروی» هست و به قراردادهای علمی با غرب و بهطور کلی به رفتارهای «ضدملّی» متهم شد. این پرونده در جلسات ویژهٔ آکادمی علوم و کمیسیونهای حزبی مورد بررسی قرار گرفت؛ علیرغم شدت حملات، لوزین با وجود تضعیف حیثیتی و محدودیتهای حرفهای زنده موند و در نهایت اعدام یا تبعید کامل اون رخ نداد، ولی اعتبار و موقعیت کاریاش برای سالها آسیب دید.
بعد از بحران 1936، لوزین تا حدی به حاشیه رفت اما همچنان به پژوهش ادامه داد و توی مؤسسات تحقیقاتی وابسته به آکادمی علوم کار کرد. در نهایت اون در 28 فوریهٔ 1950 در مسکو درگذشت.
در یکی از جملات معروفی هم که ازش نقل قول میشه، در خصوص واکنشش به آموزش مشتق و حد میگه که:
«They won't fool me: it's simply the ratio of infinitesimals, nothing else.»
Supersonic AI
این جمله از هایدگر اول کتاب گوتلوب فرگه قشنگ بود. کتاب گوتلوب فرگه هم توسط هانس اسلوگا فیلسوف آلمانی نوشته شده و به بررسی بینشهای فرگه توی موضوعات مختلف میپردازه. اگه میخواستید بخونیدش میتونید از لینک استفاده کنید. https://archive.org/details/hans-d.-sluga…
این هم جالب بود. در مورد دیدگاه سیاسی فرگه این رو گفته. لینک کامل مقالهش:
https://tarjomaan.com/%DA%A9%D8%A7%D8%B4-%D8%AF%D9%81%D8%AA%D8%B1%DA%86%DB%80-%D8%AE%D8%A7%D8%B7%D8%B1%D8%A7%D8%AA-%D9%81%D8%B1%DA%AF%D9%87-%D9%BE%DB%8C%D8%AF%D8%A7-%D9%86%D9%85%DB%8C%D8%B4%D8%AF/
https://tarjomaan.com/%DA%A9%D8%A7%D8%B4-%D8%AF%D9%81%D8%AA%D8%B1%DA%86%DB%80-%D8%AE%D8%A7%D8%B7%D8%B1%D8%A7%D8%AA-%D9%81%D8%B1%DA%AF%D9%87-%D9%BE%DB%8C%D8%AF%D8%A7-%D9%86%D9%85%DB%8C%D8%B4%D8%AF/
Supersonic AI
Photo
یوری لینیک متولد ۸ ژانویه ۱۹۱۵ در شهری بنام Bila Tserkva در اوکراین امروزی بود. پدر و مادرش معلم بودن و گویا بعدها پدرش دانشمند شناخته شدهای در زمینه اپتیک میشه و عضو USSR Academy of Sciences میشه. یوری لینیک بعد از اتمام دوره دبیرستان و یک سال فعالیت به عنوان laboratory assistant وارد دانشگاه ایالتی لنینگراد در سال ۱۹۳۲ میشه. اوایل فیزیک میخوند ولی بعد سه سال بخاطر "گرایش ناگزیر به حساب عالی" به دانشکده ریاضی و مکانیک منتقل شد. همون زمان روی "نمایش اعداد توسط فرمهای مربعی سهگانه مثبت" کار میکرد و بعداً هم تبدیل به تز دکتراش شد. یوری لینیک در سال ۱۹۴۰ در ۲۵ سالگی دکترای ریاضیش رو میگیره و به شعبه لنینگراد موسسه Steklov Institute of Mathematics میپیونده. با شروع جنگ جهانی دوم، به ارتش میره و به عنوان فرمانده گروهان خدمت میکنه ولی بعد مدتی بخاطر وضعیت جسمانی ضعیفی که داشته معاف میشه. وقتی محاصره لنینگراد توسط نیروهای آلمانی شدت میگیره، لینیک توسط موسسه Steklov به شهر کازان میره و یجورایی شانس هم میاره چون محاصره لنینگراد ۸۷۲ روز طول کشید و خیلیها بخاطر قحطی و گرسنگی کشته شدن. بعد از شکستن محاصره در سال ۱۹۴۴ به لنینگراد بر میگرده و به عنوان استاد دانشگاه در دانشگاه لنینگراد و پژوهشگر موسسه Steklov مشغول به کار میشه. لینیک توی چند زمینه مختلف از ریاضیات کار میکرد: نظریه اعداد، نظریه احتمال، آمار ریاضی.
از معروفترین نتایجش میشه به Linnik's theorem اشاره کرد که در مورد عدد اول در یک arithmetic progression با شرایط معین صحبت میکنه.
در سال ۱۹۴۱، روش مهمی به اسم Large Sieve Method رو ابداع میکنه که تاثیر بسزایی در تحلیل مسائل نظریه اعداد داشته. در دهه ۵۰ میلادی روش دیگهای به اسم Dispersion Method رو گسترش میده.
از روشهای ergodic در نظریه اعداد هم استفاده کرد.
در نهایت یوری لینیک در ۳۰ ژوئن ۱۹۷۲ در لنینگراد (سنتپترزبورگ) در گذشت.
از معروفترین نتایجش میشه به Linnik's theorem اشاره کرد که در مورد عدد اول در یک arithmetic progression با شرایط معین صحبت میکنه.
در سال ۱۹۴۱، روش مهمی به اسم Large Sieve Method رو ابداع میکنه که تاثیر بسزایی در تحلیل مسائل نظریه اعداد داشته. در دهه ۵۰ میلادی روش دیگهای به اسم Dispersion Method رو گسترش میده.
از روشهای ergodic در نظریه اعداد هم استفاده کرد.
در نهایت یوری لینیک در ۳۰ ژوئن ۱۹۷۲ در لنینگراد (سنتپترزبورگ) در گذشت.
Forwarded from Mathematical Musings
اومدند fMRI مغز یه سری ریاضیدان حرفه ای و یه سری فرد عادی رو بررسی کردند. یه سری جمله بهشون دادند شامل جملات ریاضی و غیر ریاضی. نتیجه این بوده که ریاضیدان های حرفه ای در بررسی جملات ریاضی از بخش زبانی مغز استفاده نمی کردند و اون بخش هایی که به عدد و فضا مربوط می شه فعال می شده.
در مقابل افراد عادی برای جملات ریاضی هم از بخش زبانی مغز استفاده می کردند.
نتیجه؟
"اینکه ریاضی همون زبان طبیعی هست فقط پیچیده تر شده" اشتباه است، دست کم برای بزرگسالان.
این نتیجه برای بچه ها لزوما درست نیست و ممکنه اون ها برای یادگیری ریاضیات از زبان کمک بگیرند و بعدا در مرحله بالاتر در ریاضیات، استفاده از بخش های مربوط به زبان کمتر بشه یا از بین بره.
دو نکته دیگه:
از مقایسه آدم های عادی با ریاضیدان ها نتیجه گرفتند که بخش های ریاضی مغز با آموزش طولانی و... رشد می کنه و یه چیز صرفا مادرزادی نیست.
الگوی مغزی ریاضیدان ها اونقدر شبیه هم هست که می شه از fMRI یه فرد تشخیص داد که ریاضیدان حرفه ای هست یا نه!
در مقابل افراد عادی برای جملات ریاضی هم از بخش زبانی مغز استفاده می کردند.
نتیجه؟
"اینکه ریاضی همون زبان طبیعی هست فقط پیچیده تر شده" اشتباه است، دست کم برای بزرگسالان.
این نتیجه برای بچه ها لزوما درست نیست و ممکنه اون ها برای یادگیری ریاضیات از زبان کمک بگیرند و بعدا در مرحله بالاتر در ریاضیات، استفاده از بخش های مربوط به زبان کمتر بشه یا از بین بره.
دو نکته دیگه:
از مقایسه آدم های عادی با ریاضیدان ها نتیجه گرفتند که بخش های ریاضی مغز با آموزش طولانی و... رشد می کنه و یه چیز صرفا مادرزادی نیست.
الگوی مغزی ریاضیدان ها اونقدر شبیه هم هست که می شه از fMRI یه فرد تشخیص داد که ریاضیدان حرفه ای هست یا نه!
🔥5❤1
Forwarded from Fasihi-Ramandi Math
منطق ریاضی به زبان ساده.pdf
168 MB
کتاب منطق ریاضی به زبان ساده، تالیف زنده یاد دکتر ناصر بروجردیان. مناسب برای دانشجویان ریاضی و تمام علاقمندان به منطق ریاضی.
Audio
بار دگر شانزدهم آذر
آمد و سر به سر
در قلوب مردم شعله افکند
جنبش دانشجوئی ایران
به خون شهیدان
در ره خلق مان
خورده سوگند
که تا آخرین نفر
آخرین نفس
کوشیم و بشکنیم
دیوار این قفس
در ره آزادی ایران
شریعت رضوی
قندچی، بزرگ نیا
گشتند شهید در ره
ستیزه با ارتجاع
آمد و سر به سر
در قلوب مردم شعله افکند
جنبش دانشجوئی ایران
به خون شهیدان
در ره خلق مان
خورده سوگند
که تا آخرین نفر
آخرین نفس
کوشیم و بشکنیم
دیوار این قفس
در ره آزادی ایران
شریعت رضوی
قندچی، بزرگ نیا
گشتند شهید در ره
ستیزه با ارتجاع
❤2👎1
توی این مقاله میگه وقتی حرف مسائل سخت میشه گویا دانشمندها گیر میکنن و میدونن اون مسئله سخته، ولی نمیتونن از لحاظ ریاضی اثباتش کنن. مثلاً مسئله TSP رو همه میدونن وقتی تعداد شهرهای روی گراف زیاد بشه، هر الگوریتمی واسه حل مسئلهش بشدت کند میشه و احتمالاً هیچ راهحل سریعی واسش وجود نداره ولی کسی بلد نیست این رو اثبات کنه. بیشتر از پنجاه ساله که محققین حوزه نظریه پیچیدگی سعی دارن جمله «مسئله فروشنده دورهگرد سخته» رو به یه قضیه ریاضی محکم تبدیل کنن ولی نتونستن. حالا دنبال اینن که چرا اصلاً نتونستن اثباتش کنن.
در مورد Meta Mathematics هم توضیح میده و میگه اینکه خود فرآیند اثبات ریاضی یه مسئله رو تبدیل به چیزی کنن که بشه روش تحقیق کرد، میره زیرمجموعه حوزه بدقلق Meta Mathematics. توی این حوزه معمولاً روی فرضهای پایهای تمرکز میکنن و بررسی میکنن که اگر این اصلها رو تغییر بدن، چه چیزهایی قابل اثبات میشن. امیدشون هم اینه که بفهمن چرا بعد این همه سال نتونستن سخت بودن مسئلهها رو اثبات کنن.
گویا سال پیش سهتا محقق فرمول هزار ساله ریاضیدانها رو بر عکس کردن و به جای اینکه از اصلها شروع کنن و یه قضیه رو اثبات کنن، اومدن یکی از اصلها رو با یه قضیه عوض کردن و بعد خود اون اصل رو اثبات کردن. این روش که بهش reverse math هم میگن بهشون اثبات کرد که قضیههای زیادی در نظریه پیچیدگی با هم معادل هستن.
مارکو کارموسینو، یکی از تئوریسینهای پیچیدگی IBM گفت:
توی سال 2020 یه دانشجوی دکترا به اسم لیجی چن داشت دوره دکتراش رو جمعبندی میکرد که چون وقت زیادی داشته چند ماه میره رو حوزه متا متمتیکس تحقیق میکنه. وقتی داشته در موردش میخونده یاد حوزهای از پیچیدگی میفته به اسم «پیچیدگی ارتباطی». یعنی اینکه برای انجام یه کار دو نفر چقدر باید با هم حرف بزنن. سادهترین مسئلهاش میشه «مسئلهٔ برابری»: دو نفر دو تا رشته صفر و یک دارن و باید با کمترین پیامدادن بفهمن آیا رشتههاشون یکیه یا نه. سادهترین راه اینه که یکی کل رشتهاش رو بفرسته. آیا راه بهتری واسش هست؟ سالهای قبل ثابت شد که نه و برای فهمیدن برابری، باید حداقل همون تعداد بیت رو ردوبدل کرد. این حداقل رو میگن «کفِ پیچیدگی». اما چن دنبال خودِ کف نبود؛ دنبال روش اثباتش بود. همه اثباتها از یه اصل ساده استفاده میکنن: «اصل لانهکبوتری». میگه اگه تعداد کبوترها بیشتر از تعداد لونهها باشه، حداقل یه لونه بیش از یک کبوتر میگیره. چن به یه نکته رسید: همیشه از اصل لانهکبوتری برای اثبات کفِ مسئلهٔ برابری استفاده شده. آیا میشه برعکسش کرد؟ یعنی از کف مسئله برابری، خودِ اصل لانهکبوتری رو ثابت کرد؟
چن ایده رو با جیاتو لی، یه دانشجوی کارشناسی تسینگهوا که قبلاً باهاش کار کرده بود، مطرح کرد. برای اینکه این ایده را رسمی کنن باید یه مجموعه اصل انتخاب میکردن. متامتمتیکدانها معمولاً مجموعههای ضعیفتر رو انتخاب میکنن چون روابط رو راحتتر نشون میده. اینا از مجموعهای استفاده کردن به اسم PV1. مجموعه PV1 اونقدر قوی هست که یه سری قضیه مهمِ پیچیدگی رو ثابت کنه. اگه نسخهای از اصل لانهکبوتری رو هم بهش اضافه کنی، کفِ مسئله برابری رو هم میتونی ثابت کنی. دسامبر ۲۰۲۲ چن و لی نشون دادن که اگه دوتا قضیه رو جابهجا هم بکنی، باز تو PV1 ثابت میشن. یعنی این دوتا قضیه توی چارچوب PV1 دقیقاً معادل هستن. وقتی نتیجه رو با ایگور الیویرا مطرح کردن، فهمیدن میشه این روش معکوسسازی رو روی کلی قضیه پراکنده دیگه هم امتحان کرد. و همین کار رو هم کردن. چن گفت: «اولش فقط دوتا چیز معادل داشتیم، الان یه شبکهٔ بزرگ ساختیم.»
جذابترین ارتباطشون این بود که همون نسخه اصل لانهکبوتری رو وصل کردن به یکی از اولین قضیههایی که دانشجوها تو درس پیچیدگی میبینن؛ یه قضیه دربارهٔ اینکه یه ماشینی به اسم ماشین تورینگ تکنوار برای تشخیص پالیندرومها چقدر زمان لازم داره. نتیجه این شد که تو PV1 این قضیه هم با اصل لانهکبوتری معادله.
چن گفت: «اگه کسی اینو همینجوری بهم میگفت، باور نمیکردم. خیلی مسخره به نظر میاد.»
https://www.quantamagazine.org/reverse-mathematics-illuminates-why-hard-problems-are-hard-20251201/
در مورد Meta Mathematics هم توضیح میده و میگه اینکه خود فرآیند اثبات ریاضی یه مسئله رو تبدیل به چیزی کنن که بشه روش تحقیق کرد، میره زیرمجموعه حوزه بدقلق Meta Mathematics. توی این حوزه معمولاً روی فرضهای پایهای تمرکز میکنن و بررسی میکنن که اگر این اصلها رو تغییر بدن، چه چیزهایی قابل اثبات میشن. امیدشون هم اینه که بفهمن چرا بعد این همه سال نتونستن سخت بودن مسئلهها رو اثبات کنن.
گویا سال پیش سهتا محقق فرمول هزار ساله ریاضیدانها رو بر عکس کردن و به جای اینکه از اصلها شروع کنن و یه قضیه رو اثبات کنن، اومدن یکی از اصلها رو با یه قضیه عوض کردن و بعد خود اون اصل رو اثبات کردن. این روش که بهش reverse math هم میگن بهشون اثبات کرد که قضیههای زیادی در نظریه پیچیدگی با هم معادل هستن.
مارکو کارموسینو، یکی از تئوریسینهای پیچیدگی IBM گفت:
«واقعا انتظار نداشتم اینقدر جلو برن. آدمها اینو میبینن و میگن: خب، این همون چیزیه که منو کشوند تو Meta Mathematics.»
توی سال 2020 یه دانشجوی دکترا به اسم لیجی چن داشت دوره دکتراش رو جمعبندی میکرد که چون وقت زیادی داشته چند ماه میره رو حوزه متا متمتیکس تحقیق میکنه. وقتی داشته در موردش میخونده یاد حوزهای از پیچیدگی میفته به اسم «پیچیدگی ارتباطی». یعنی اینکه برای انجام یه کار دو نفر چقدر باید با هم حرف بزنن. سادهترین مسئلهاش میشه «مسئلهٔ برابری»: دو نفر دو تا رشته صفر و یک دارن و باید با کمترین پیامدادن بفهمن آیا رشتههاشون یکیه یا نه. سادهترین راه اینه که یکی کل رشتهاش رو بفرسته. آیا راه بهتری واسش هست؟ سالهای قبل ثابت شد که نه و برای فهمیدن برابری، باید حداقل همون تعداد بیت رو ردوبدل کرد. این حداقل رو میگن «کفِ پیچیدگی». اما چن دنبال خودِ کف نبود؛ دنبال روش اثباتش بود. همه اثباتها از یه اصل ساده استفاده میکنن: «اصل لانهکبوتری». میگه اگه تعداد کبوترها بیشتر از تعداد لونهها باشه، حداقل یه لونه بیش از یک کبوتر میگیره. چن به یه نکته رسید: همیشه از اصل لانهکبوتری برای اثبات کفِ مسئلهٔ برابری استفاده شده. آیا میشه برعکسش کرد؟ یعنی از کف مسئله برابری، خودِ اصل لانهکبوتری رو ثابت کرد؟
چن ایده رو با جیاتو لی، یه دانشجوی کارشناسی تسینگهوا که قبلاً باهاش کار کرده بود، مطرح کرد. برای اینکه این ایده را رسمی کنن باید یه مجموعه اصل انتخاب میکردن. متامتمتیکدانها معمولاً مجموعههای ضعیفتر رو انتخاب میکنن چون روابط رو راحتتر نشون میده. اینا از مجموعهای استفاده کردن به اسم PV1. مجموعه PV1 اونقدر قوی هست که یه سری قضیه مهمِ پیچیدگی رو ثابت کنه. اگه نسخهای از اصل لانهکبوتری رو هم بهش اضافه کنی، کفِ مسئله برابری رو هم میتونی ثابت کنی. دسامبر ۲۰۲۲ چن و لی نشون دادن که اگه دوتا قضیه رو جابهجا هم بکنی، باز تو PV1 ثابت میشن. یعنی این دوتا قضیه توی چارچوب PV1 دقیقاً معادل هستن. وقتی نتیجه رو با ایگور الیویرا مطرح کردن، فهمیدن میشه این روش معکوسسازی رو روی کلی قضیه پراکنده دیگه هم امتحان کرد. و همین کار رو هم کردن. چن گفت: «اولش فقط دوتا چیز معادل داشتیم، الان یه شبکهٔ بزرگ ساختیم.»
جذابترین ارتباطشون این بود که همون نسخه اصل لانهکبوتری رو وصل کردن به یکی از اولین قضیههایی که دانشجوها تو درس پیچیدگی میبینن؛ یه قضیه دربارهٔ اینکه یه ماشینی به اسم ماشین تورینگ تکنوار برای تشخیص پالیندرومها چقدر زمان لازم داره. نتیجه این شد که تو PV1 این قضیه هم با اصل لانهکبوتری معادله.
چن گفت: «اگه کسی اینو همینجوری بهم میگفت، باور نمیکردم. خیلی مسخره به نظر میاد.»
https://www.quantamagazine.org/reverse-mathematics-illuminates-why-hard-problems-are-hard-20251201/
Quanta Magazine
‘Reverse Mathematics’ Illuminates Why Hard Problems Are Hard
Researchers have used metamathematical techniques to show that certain theorems that look superficially distinct are in fact logically equivalent.
میگه توی دسامبر که OpenAI تولد ده سالگیش رو جشن میگیره میتونه خوشحال باشه که تبدیل به یکی از غولهای تکنولوژی شده ولی از هدف اولیهای که داشته فاصله گرفته و درگیر کاپیتالیزم (سرمایهداری؟) شده. علاوه بر اینکه باید به مردم خیر برسونه، موظفه که برای سهامدارهاش پول در بیاره. و این قضیهی قاطی شدن اخلاق و سرمایهداری واسش دردسرسازه. این روند هم با اون چیزی که اول راه بود خیلی فرق داره. میگه ماموریت اولیه OpenAI این بود که هوشمصنوعی به نفع کل بشریت باشه و از اینکه هوشمصنوعی بخواد نسل بشر رو نابود کنه یا به بردگی بگیره، جلوگیری کنه.
غیرانتفاعی بودن OpenAI قلب اون ماموریت بوده چون اگه پول دراوردن وابسته به این بود که هوشمصنوعی رو در مسیر خطرناکی هل بدن، یه شرکت که دنبال پول بوده قطعاً اینکارو میکرده ولی یه شرکت غیرانتفاعی نه. آلتمن سال ۲۰۱۷ گفته بود که نمیخوان تصمیمهاشون برای راضی کردن سهامدارها باشه و به تنها کسی که باید جواب پس بدن کل بشریته.
حالا میگن OpenAI خودش و آرمانهاش رو فروخته و بین پولدار شدن و وفادار موندن به اون آرمانها گیر کردن. سر همین هم خیلی از افرادی که توی شکلگیری OpenAI نقش داشتن تصمیم گرفتن شرکت رو ترک کنن.
در مورد یه دیدگاه دیگه به این قضیه هم میگه که OpenAI فهمید اگه قراره ماموریت اخلاقیش رو انجام بده نیاز به سرمایه داره چون بدون پول توی دنیای هوشمصنوعی هیچکاری نمیشه کرد. رقباش هم که شرکتای فوقالعاده سرمایهداری مثل گوگل و آمازون و متا هستن.
اگه اوپناِیآی میخواست روی مسیر هوش مصنوعی تأثیر بذاره، مجبور بود با اینا رقابت کنه. برای رقابت، سرمایه میخواست. و هیچ سرمایهگذاری، بدون امید به سود، پول نمیریزه.
آلتمن خودش درباره چرخش قبلیشون به سمت سود گفته بود: «به اندازه کافی تلاش کردیم و شکست خوردیم که بهعنوان غیرانتفاعی سرمایه جذب کنیم. راهی جلو پامون نبود. پس مجبور شدیم یه مقدار از مزایای سرمایهداری رو قبول کنیم.»
اما سرمایهداری فقط مزایا نداره.
توی مقاله در مورد یه اصطلاح از مارکس هم صحبت میکنه که میگه مارکس یه اصطلاح داشت به اسم «قوانین اجباری رقابت». یعنی تو بازار رقابتی، بنگاهها مجبور میشن سود رو بذارن اولویت. حتی اگه اخلاقی فکر کنن، اگه کاری سودده باشه ولی انجامش ندن، یه شرکت بیاخلاقتر میاد و اون سود رو میقاپه. یه جور بازیه که اگر اصول اخلاقیتو رعایت کنی، خودت میبازی و اخلاق هم میبازه.
فیلسوف آیریس ماریون یانگ یه مثال معروف داره: صاحب یه کارگاه میگه: «من خیلی دوست دارم به کارگرام حقوق بیشتری بدم.» ولی اگه این کارو کنه، هزینهش زیاد میشه و رقبا که بدتر با کارگراشون رفتار میکنن، بازار رو ازش میگیرن. یعنی مهربونتر بودن آخرش حتی به کارگرا هم کمکی نمیکنه.
برای اوپناِیآی هم همین نسخه صادقه. اگه به خاطر نگرانی از مصرف انرژی یا خودآسیبی یا انتشار اطلاعات غلط، چتجیپیتی رو دیرتر منتشر میکرد، شرکتای دیگه جلو میزدن. بعدش دیگه سرمایه جمع کردن سخت میشد و عملاً از اثرگذاری روی آیندهی هوش مصنوعی عقب میموند.
پس در عمل، حتی وقتی رسماً کمپانیِ اخلاقمحور بود، شبیه یه شرکت سودمحور رفتار میکرد. مجبور بود. قانون بازی همینه.
https://theconversation.com/why-openai-is-a-prime-example-of-the-ethical-limits-of-capitalism-270407
غیرانتفاعی بودن OpenAI قلب اون ماموریت بوده چون اگه پول دراوردن وابسته به این بود که هوشمصنوعی رو در مسیر خطرناکی هل بدن، یه شرکت که دنبال پول بوده قطعاً اینکارو میکرده ولی یه شرکت غیرانتفاعی نه. آلتمن سال ۲۰۱۷ گفته بود که نمیخوان تصمیمهاشون برای راضی کردن سهامدارها باشه و به تنها کسی که باید جواب پس بدن کل بشریته.
حالا میگن OpenAI خودش و آرمانهاش رو فروخته و بین پولدار شدن و وفادار موندن به اون آرمانها گیر کردن. سر همین هم خیلی از افرادی که توی شکلگیری OpenAI نقش داشتن تصمیم گرفتن شرکت رو ترک کنن.
در مورد یه دیدگاه دیگه به این قضیه هم میگه که OpenAI فهمید اگه قراره ماموریت اخلاقیش رو انجام بده نیاز به سرمایه داره چون بدون پول توی دنیای هوشمصنوعی هیچکاری نمیشه کرد. رقباش هم که شرکتای فوقالعاده سرمایهداری مثل گوگل و آمازون و متا هستن.
اگه اوپناِیآی میخواست روی مسیر هوش مصنوعی تأثیر بذاره، مجبور بود با اینا رقابت کنه. برای رقابت، سرمایه میخواست. و هیچ سرمایهگذاری، بدون امید به سود، پول نمیریزه.
آلتمن خودش درباره چرخش قبلیشون به سمت سود گفته بود: «به اندازه کافی تلاش کردیم و شکست خوردیم که بهعنوان غیرانتفاعی سرمایه جذب کنیم. راهی جلو پامون نبود. پس مجبور شدیم یه مقدار از مزایای سرمایهداری رو قبول کنیم.»
اما سرمایهداری فقط مزایا نداره.
توی مقاله در مورد یه اصطلاح از مارکس هم صحبت میکنه که میگه مارکس یه اصطلاح داشت به اسم «قوانین اجباری رقابت». یعنی تو بازار رقابتی، بنگاهها مجبور میشن سود رو بذارن اولویت. حتی اگه اخلاقی فکر کنن، اگه کاری سودده باشه ولی انجامش ندن، یه شرکت بیاخلاقتر میاد و اون سود رو میقاپه. یه جور بازیه که اگر اصول اخلاقیتو رعایت کنی، خودت میبازی و اخلاق هم میبازه.
فیلسوف آیریس ماریون یانگ یه مثال معروف داره: صاحب یه کارگاه میگه: «من خیلی دوست دارم به کارگرام حقوق بیشتری بدم.» ولی اگه این کارو کنه، هزینهش زیاد میشه و رقبا که بدتر با کارگراشون رفتار میکنن، بازار رو ازش میگیرن. یعنی مهربونتر بودن آخرش حتی به کارگرا هم کمکی نمیکنه.
برای اوپناِیآی هم همین نسخه صادقه. اگه به خاطر نگرانی از مصرف انرژی یا خودآسیبی یا انتشار اطلاعات غلط، چتجیپیتی رو دیرتر منتشر میکرد، شرکتای دیگه جلو میزدن. بعدش دیگه سرمایه جمع کردن سخت میشد و عملاً از اثرگذاری روی آیندهی هوش مصنوعی عقب میموند.
پس در عمل، حتی وقتی رسماً کمپانیِ اخلاقمحور بود، شبیه یه شرکت سودمحور رفتار میکرد. مجبور بود. قانون بازی همینه.
https://theconversation.com/why-openai-is-a-prime-example-of-the-ethical-limits-of-capitalism-270407
The Conversation
Why OpenAI is a prime example of the ethical limits of capitalism
Money and morality are a challenging corporate combination.
👍2