از نورون تا هوش ◇---<
ترق تروق، از صدای سوختن چوب تا محاسبات نورونها زاپری کتاب خودش به نام «نویز ترق تروقی» یا crackling noise که سال ۲۰۲۲ چاپ شده رو اینطور شروع میکنه: گستره عظیمی از پدیدههای معمولی فیزیکی سر و صدایی ایجاد میکنند که در دسته «ترق تروق» قرار میگیرد، به معنای…
Audio
🔥 صدای ترق تروق آتش
همین الان نورونها در کورتکس شما ترق تروق میکنند. 😉
@Physics_Daily | از نورون تا هوش
همین الان نورونها در کورتکس شما ترق تروق میکنند. 😉
@Physics_Daily | از نورون تا هوش
🔥11 7👍2🤩2😁1 1
🧠 نورونها منطق را پیادهسازی میکنند
مگه میشه؟ مغز فقط با چهار تا نورون این همه شگفتی خلق کنه؟ قبلا درباره کار مهم مککالک و پیتز باهاتون حرف زدم (توضیحات و مقاله مهمشون).
اینجا چندتا دروازه منطقی نورونی بهتون نشون میدم. بعد یه تمرین بهتون میدم که فکر کنید ببینید میتونید ایراد اصلی که مینسکی به پرسپترون وارد کرد رو متوجه بشید؟
☑️ گفتیم چیزی به اسم «دروازههای منطقی» داریم. این دروازههای منطقی رو میشه مثل لگو (آجر اسباببازی) کنار هم چید. اگر تمام دروازههای منطقی رو داشته باشید، با کنار هم چیدنشون میتونید تمام محاسبات رو انجام بدید.
☑️ در یک نگاه می شه نورونها رو واحدهای محاسباتی کوچک دانست. با سیمکشی درست و تنظیم آستانه آتش کردن، نورونها میتوانند تمام دروازههای منطقی را بسازند.
☑️ بیایید نورون رو اینجوری ببینیم:
۱. هر نورون ورودیهایی دریافت میکنه. مثلا یه ورودی. دوتا ورودی. یا دهتا. یا اصلا هیچی. این ورودیها معمولا از نورونهای همسایهای میاد که همین اخیرا آتش کردهاند و سیگنال فرستادهاند.
۲. هر ورودی در وزن خودش ضرب میشه. چرا؟ چون اتصال بعضی نورونهای همسایه قویتره. بنابرین سیگنالشون در عدد بزرگتری ضرب میشه. همینطور اتصالات کوچکتر باعث کوچک شدن سیگنال ورودی میشن.
۳. همه سیگنالهای ورودی بعد از ضرب شدن در وزن اتصال جمع میشن و ورودی کلی نورون رو می سازند.
۴. یک آستانه وجود داره. این آستانه یه عدده. میتونه برای هر نورون متفاوت باشه. اگر ورودی کلی از آستانه بزرگتر باشه، نورون ما روشن میشه و آتش میکنه--- و به همسایههاش سیگنال میده.
🟢 پس: ورودی -> جمع وزنی -> آستانه -> خروجی
حالا بریم دوتا دروازه منطقی بسازیم:
1️⃣ AND دروازه
دو تا نورون همسایه داریم.
وزن اتصالشون یک هست.
آستانه دو هست.
نورون آتش میکند فقط در صورتی که هردو همسایه آتش کنند و هر دو ورودی بهش برسند و ورودی کلی بشه دو--- مساوی آستانه.
میشه این حالت:
۱ × ۱ + ۱ × ۱ = ۲
2️⃣ OR دروازه
دوباره دوتا نورون همسایه داریم.
دوباره وزن اتصال یک هست.
این بار آستانه یک هست.
ورودی کلی اگر بزرگتر مساوی یک (آستانه) باشه نورون آتش میکند.
میشه این سه حالت:
۱ × ۰ + ۱ × ۱ = ۱
۱ × ۱ + ۱ × ۰ = ۱
۱ × ۱ + ۱ × ۱ = ۲
در بیان دیگر، اگر این یا آن نورون همسایه آتش کند نورون ما آتش میکند.
🟢 قاعده کلی: با تغییرات وزن و آستانه میشه با یک نورون (که از همسایههاش سیگنال می گیره) دروازههای منطقی بسیاری
ساخت.
🔴 اما سوال. آیا میشه با یک نورون دروازه منطقی XOR رو ساخت؟
دقت کنید، این دروازه منطقی باید اینجوری کار کنه: نورون ما روشن میشه اگر فقط و فقط یکی از همسایههاش روشن بشن. (اگر هردو روشن یا هردو خاموش باشند نورون باید خاموش بمونه)
@Physics_Daily | از نورون تا هوش
مگه میشه؟ مغز فقط با چهار تا نورون این همه شگفتی خلق کنه؟ قبلا درباره کار مهم مککالک و پیتز باهاتون حرف زدم (توضیحات و مقاله مهمشون).
اینجا چندتا دروازه منطقی نورونی بهتون نشون میدم. بعد یه تمرین بهتون میدم که فکر کنید ببینید میتونید ایراد اصلی که مینسکی به پرسپترون وارد کرد رو متوجه بشید؟
☑️ گفتیم چیزی به اسم «دروازههای منطقی» داریم. این دروازههای منطقی رو میشه مثل لگو (آجر اسباببازی) کنار هم چید. اگر تمام دروازههای منطقی رو داشته باشید، با کنار هم چیدنشون میتونید تمام محاسبات رو انجام بدید.
☑️ در یک نگاه می شه نورونها رو واحدهای محاسباتی کوچک دانست. با سیمکشی درست و تنظیم آستانه آتش کردن، نورونها میتوانند تمام دروازههای منطقی را بسازند.
☑️ بیایید نورون رو اینجوری ببینیم:
۱. هر نورون ورودیهایی دریافت میکنه. مثلا یه ورودی. دوتا ورودی. یا دهتا. یا اصلا هیچی. این ورودیها معمولا از نورونهای همسایهای میاد که همین اخیرا آتش کردهاند و سیگنال فرستادهاند.
۲. هر ورودی در وزن خودش ضرب میشه. چرا؟ چون اتصال بعضی نورونهای همسایه قویتره. بنابرین سیگنالشون در عدد بزرگتری ضرب میشه. همینطور اتصالات کوچکتر باعث کوچک شدن سیگنال ورودی میشن.
۳. همه سیگنالهای ورودی بعد از ضرب شدن در وزن اتصال جمع میشن و ورودی کلی نورون رو می سازند.
۴. یک آستانه وجود داره. این آستانه یه عدده. میتونه برای هر نورون متفاوت باشه. اگر ورودی کلی از آستانه بزرگتر باشه، نورون ما روشن میشه و آتش میکنه--- و به همسایههاش سیگنال میده.
🟢 پس: ورودی -> جمع وزنی -> آستانه -> خروجی
حالا بریم دوتا دروازه منطقی بسازیم:
1️⃣ AND دروازه
دو تا نورون همسایه داریم.
وزن اتصالشون یک هست.
آستانه دو هست.
نورون آتش میکند فقط در صورتی که هردو همسایه آتش کنند و هر دو ورودی بهش برسند و ورودی کلی بشه دو--- مساوی آستانه.
میشه این حالت:
۱ × ۱ + ۱ × ۱ = ۲
2️⃣ OR دروازه
دوباره دوتا نورون همسایه داریم.
دوباره وزن اتصال یک هست.
این بار آستانه یک هست.
ورودی کلی اگر بزرگتر مساوی یک (آستانه) باشه نورون آتش میکند.
میشه این سه حالت:
۱ × ۰ + ۱ × ۱ = ۱
۱ × ۱ + ۱ × ۰ = ۱
۱ × ۱ + ۱ × ۱ = ۲
در بیان دیگر، اگر این یا آن نورون همسایه آتش کند نورون ما آتش میکند.
🟢 قاعده کلی: با تغییرات وزن و آستانه میشه با یک نورون (که از همسایههاش سیگنال می گیره) دروازههای منطقی بسیاری
ساخت.
🔴 اما سوال. آیا میشه با یک نورون دروازه منطقی XOR رو ساخت؟
دقت کنید، این دروازه منطقی باید اینجوری کار کنه: نورون ما روشن میشه اگر فقط و فقط یکی از همسایههاش روشن بشن. (اگر هردو روشن یا هردو خاموش باشند نورون باید خاموش بمونه)
@Physics_Daily | از نورون تا هوش
میتونید هر روز برای چند دقیقه به این حقیقت فکر کنید که شما فقط شمای این لحظه نیستید. بلکه انسان علاوه بر یک حجم فضایی، یک گستره زمانی رو هم اشغال میکنه.
شمای فردا، هفته دیگه، ماه دیگه، سال دیگه و دهههای بعد درگستره زمانی موجوده و زندگیش متاثر از تصمیمات این لحظهست. احتمالا ترجیح میده خواست اون هم لحاظ بشه. 😉
@Physics_Daily | از نورون تا هوش
شمای فردا، هفته دیگه، ماه دیگه، سال دیگه و دهههای بعد درگستره زمانی موجوده و زندگیش متاثر از تصمیمات این لحظهست. احتمالا ترجیح میده خواست اون هم لحاظ بشه. 😉
@Physics_Daily | از نورون تا هوش
👍24 14🤩4🤔2🔥1
⚡️ چطور با جیپیتی موضوع پژوهش یا پایاننامه انتخاب کنم؟
از سختترین جاهای پژوهش انتخاب موضوع و سواله. جیپیتی نمیتونه جایگزین کنجکاوی و تخصص شما بشه. اما میتونه دستیار خیلی خوبی باشه.
پنج نکته که به ذهنم رسید رو نوشتم. امیدوارم در مسیرتون به کار بیاد.
1️⃣ فضا رو بهتر ببینید.
ازش بخواید پنج سوال اصلی، یا محل بحث و اختلاف نظر، در زمینه تحقیقتون رو بهتون بگه. اگر کلی حرف زد بهش بگید نقش یک پژوهشگر خبره در زمینه مورد نظرتون رو بگیره و سوال رو تکرار کنید. باهاش کلنجار برید تا بالاخره چندتا زمینه فعال که هنوز جای کار داره بهتون معرفی کنه. معرفی که کرد ازش مقالات مهم هر بحث رو بخواید.
2️⃣ پیدا کردن اختلاف نظرها
اگر اختلاف نظری هست، شاید بشه به یک سمت بحث کمک کرد! یک فرصته! جای امنی برای شروع کاره. و میتونید مطمئن باشید به کارتون توجه میشه. پس از جیپیتی بخواید «دو نگاه مخالف درباره موضوع فلان (که قبلا با کمک خودش پیدا کردید) رو بهتون بگه.» باز شاید مجبور بشید باهاش کلنجار برید. اما اگر پیدا کنید خیلی براتون خوبه.
3️⃣ پیدا کردن محدودیتهای زمینه
نواقص یا محدودیتهای فعلی یک زمینه تحقیقاتی محل خیلی خوبی برای شروع کار هستند. شاید بتونید محدودیت رو کم کنید! معمولا از مورد قبلی سختتره اما بازم میشه مطمئن بود سابیدن کشک نیست و احتمالا راه به جایی میبره. از جیپیتی بخواید بزرگترین محدودیتهای تحقیقات در موضوع مورد نظر رو بهتون بگه.
4️⃣ پیشفرضها
میتونید از جیپیتی بخواید پیشفرضهای زمینه تحقیقاتی مورد نظر رو براتون بگه. بعد براتون آزمایشهایی طراحی کنه که پیشفرضهای زمینه مورد نظر رو محک بزنه.
5️⃣ در آخر ازش بخواید پروپوزال یا حتی همون سوال نهایی که بهش رسیدید رو داوری کنه و بهبود بده.
یادمون نره، جیپیتی علامه دهر نیست، جای ما رو هم (هنوز) نگرفته، اما از اونطرف از بهترین دستیارهاییه که میتونستید داشته باشید. تعارف نکنید و در جای درست ازش کمک بگیرید.
@Physics_Daily | از نورون تا هوش
از سختترین جاهای پژوهش انتخاب موضوع و سواله. جیپیتی نمیتونه جایگزین کنجکاوی و تخصص شما بشه. اما میتونه دستیار خیلی خوبی باشه.
پنج نکته که به ذهنم رسید رو نوشتم. امیدوارم در مسیرتون به کار بیاد.
1️⃣ فضا رو بهتر ببینید.
ازش بخواید پنج سوال اصلی، یا محل بحث و اختلاف نظر، در زمینه تحقیقتون رو بهتون بگه. اگر کلی حرف زد بهش بگید نقش یک پژوهشگر خبره در زمینه مورد نظرتون رو بگیره و سوال رو تکرار کنید. باهاش کلنجار برید تا بالاخره چندتا زمینه فعال که هنوز جای کار داره بهتون معرفی کنه. معرفی که کرد ازش مقالات مهم هر بحث رو بخواید.
2️⃣ پیدا کردن اختلاف نظرها
اگر اختلاف نظری هست، شاید بشه به یک سمت بحث کمک کرد! یک فرصته! جای امنی برای شروع کاره. و میتونید مطمئن باشید به کارتون توجه میشه. پس از جیپیتی بخواید «دو نگاه مخالف درباره موضوع فلان (که قبلا با کمک خودش پیدا کردید) رو بهتون بگه.» باز شاید مجبور بشید باهاش کلنجار برید. اما اگر پیدا کنید خیلی براتون خوبه.
3️⃣ پیدا کردن محدودیتهای زمینه
نواقص یا محدودیتهای فعلی یک زمینه تحقیقاتی محل خیلی خوبی برای شروع کار هستند. شاید بتونید محدودیت رو کم کنید! معمولا از مورد قبلی سختتره اما بازم میشه مطمئن بود سابیدن کشک نیست و احتمالا راه به جایی میبره. از جیپیتی بخواید بزرگترین محدودیتهای تحقیقات در موضوع مورد نظر رو بهتون بگه.
4️⃣ پیشفرضها
میتونید از جیپیتی بخواید پیشفرضهای زمینه تحقیقاتی مورد نظر رو براتون بگه. بعد براتون آزمایشهایی طراحی کنه که پیشفرضهای زمینه مورد نظر رو محک بزنه.
5️⃣ در آخر ازش بخواید پروپوزال یا حتی همون سوال نهایی که بهش رسیدید رو داوری کنه و بهبود بده.
یادمون نره، جیپیتی علامه دهر نیست، جای ما رو هم (هنوز) نگرفته، اما از اونطرف از بهترین دستیارهاییه که میتونستید داشته باشید. تعارف نکنید و در جای درست ازش کمک بگیرید.
@Physics_Daily | از نورون تا هوش
👍22🔥9 5💔1
⚡️ هجرت هینتون
عکس هینتون ۳۱ ساله رو نشون میده--- سمت راستیه. هینتون روی شبکههای عصبی پافشاری کرد، وقتی شبکههای عصبی داشت به فحش تبدیل میشد. نه فقط در بریتانیا، جایی که زندگی میکرد. بلکه در تمام دنیا. اما رفتن به آمریکا تفاوتهای مثبتی ایجاد کرد.
🔴 گفتیم زمستان هوش مصنوعی شروع شده بود. بودجههای تحقیقاتی به شدت کم بود. مخصوصا شبکههای عصبی به دید تحقیر نگاه میشدن. «اگه شبکه عصبی میخواست کار کنه تا حالا کرده بود!» و «شبکههای عصبی که رد شدهاند،» ذهنیت غالب بود.
🟢 با این حال و در کمال تعجب هینتون تونست موقعیت پسادکتری پیدا کنه. در گروه کوچکی در جنوب کالیفرنیا.
✅️ گروه کار خودش رو «پی دی پی» معرفی میکرد که کوتاه شده پردازش موازی توزیعی بود. در اصل کارشون شبکههای عصبی بود. اسمش رو اینجوری میگفتن که کسی بهشون گیر نده.
✅️ اعضای گروه هم کامپیوتر ساینتیست نبودند--- که فکر کنم توی این کانال همه به بین رشتهای بودن دانش عادت دارند. به هرحال، یه تعداد روانشناس عضو گروه بودند و یک نوروساینتیست. حالا اون نوروساینتیست کی بود؟ فرانسیس کریک! کاشف دیانای. 🧬
✅️ هینتون دچار شوک فرهنگی میشه. در بریتانیا یک جور تکفرهنگی فکری برقرار بود. مثلا همه موافق بودند که شبکه عصبی مزخرفه. در آمریکا اینطور نبود. امکان همزیستی نظرهای مختلف وجود داشت.
بله، اینجا اجماع غلطی در آکادمیا رو میبینیم. و امثال هینتون واقعا اقلیتی بودند که درست میگفتند. اما جهت جلوگیری از سواستفاده سواستفادهگران دو نکته بگم:
1️⃣ این اجماع غلط مدت کوتاهی برقرار بود. علم خودش رو تصحیح میکنه. این بار به دست امثال هینتون انجامش داد.
2️⃣ هینتون توی فضای مجازی برحق بودنش رو اثبات نکرد. پشت قلمبه سلمبه گویی قایم نشد. الکی خودش رو به آدمهای مشهور نچسبوند و نگفت هگل یا انیشتین گفته من درست میگم. قاضیِ برحق بودن هینتون مردم غیر متخصص نبودند. هینتون مشکلش رو مستقیم با خود مینسکی و امثالهم حل کرد--- که خیلی هالیوودی هم بود و براتون مینویسم.
مخلص
@Physics_Daily | از نورون تا هوش
عکس هینتون ۳۱ ساله رو نشون میده--- سمت راستیه. هینتون روی شبکههای عصبی پافشاری کرد، وقتی شبکههای عصبی داشت به فحش تبدیل میشد. نه فقط در بریتانیا، جایی که زندگی میکرد. بلکه در تمام دنیا. اما رفتن به آمریکا تفاوتهای مثبتی ایجاد کرد.
🔴 گفتیم زمستان هوش مصنوعی شروع شده بود. بودجههای تحقیقاتی به شدت کم بود. مخصوصا شبکههای عصبی به دید تحقیر نگاه میشدن. «اگه شبکه عصبی میخواست کار کنه تا حالا کرده بود!» و «شبکههای عصبی که رد شدهاند،» ذهنیت غالب بود.
🟢 با این حال و در کمال تعجب هینتون تونست موقعیت پسادکتری پیدا کنه. در گروه کوچکی در جنوب کالیفرنیا.
✅️ گروه کار خودش رو «پی دی پی» معرفی میکرد که کوتاه شده پردازش موازی توزیعی بود. در اصل کارشون شبکههای عصبی بود. اسمش رو اینجوری میگفتن که کسی بهشون گیر نده.
✅️ اعضای گروه هم کامپیوتر ساینتیست نبودند--- که فکر کنم توی این کانال همه به بین رشتهای بودن دانش عادت دارند. به هرحال، یه تعداد روانشناس عضو گروه بودند و یک نوروساینتیست. حالا اون نوروساینتیست کی بود؟ فرانسیس کریک! کاشف دیانای. 🧬
✅️ هینتون دچار شوک فرهنگی میشه. در بریتانیا یک جور تکفرهنگی فکری برقرار بود. مثلا همه موافق بودند که شبکه عصبی مزخرفه. در آمریکا اینطور نبود. امکان همزیستی نظرهای مختلف وجود داشت.
بله، اینجا اجماع غلطی در آکادمیا رو میبینیم. و امثال هینتون واقعا اقلیتی بودند که درست میگفتند. اما جهت جلوگیری از سواستفاده سواستفادهگران دو نکته بگم:
1️⃣ این اجماع غلط مدت کوتاهی برقرار بود. علم خودش رو تصحیح میکنه. این بار به دست امثال هینتون انجامش داد.
2️⃣ هینتون توی فضای مجازی برحق بودنش رو اثبات نکرد. پشت قلمبه سلمبه گویی قایم نشد. الکی خودش رو به آدمهای مشهور نچسبوند و نگفت هگل یا انیشتین گفته من درست میگم. قاضیِ برحق بودن هینتون مردم غیر متخصص نبودند. هینتون مشکلش رو مستقیم با خود مینسکی و امثالهم حل کرد--- که خیلی هالیوودی هم بود و براتون مینویسم.
مخلص
@Physics_Daily | از نورون تا هوش
👍12 8🔥2🤯1
⚡️ نیک باسترام از سه نوع اَبَرهوش صحبت میکنه. هر کدوم رو مفصل بحث خواهم کرد. اما قبلش حدس بزنید. کدوم قویتره؟ ابرهوشِ ...
Anonymous Poll
9%
سرعتی: میتواند هرکاری انسان میکند را انجام بدهد اما بارها سریعتر
59%
تجمعی: متشکل از تعداد بسیار بسیار زیادی سیستم هوشمند که به موازات عمل میکنند
32%
کیفی: میتواند همسرعت انسان عمل کند اما از لحاظ کیفی بارها باهوشتر است
فعلا این درس زندگی رو داشته باشید. هرچند زیاد نورونی نیست. 😉
👍26 8 6😁2😐2💯1
🧠 اَبَرهوش سرعتی: نوع اول ابرهوش در کتاب نیک باسترام
این کتاب یه کلاسیک محسوب میشه. البته که عمومیه، اما اطلاعات زیادی داخلش هست. سال ۲۰۱۴ نوشته شده، بنابرین میشه گزارههای کتاب رو با رویدادهای این ده سال مقایسه کرد.
ابرهوش چیه؟ نیک باسترام میگه ابرهوش یه هوشیه که به طرز چشمگیری بهترین توانمندی ذهن انسان رو مغلوب کنه، در بسیاری زمینههای شناختی.
در این کتاب سه نوع ابرهوش رو از هم تفکیک میکنه:
۱. سرعتی
۲. تجمعی
۳. کیفی
اینجا براتون درباره سرعتی میگم.
🟢 نکات کتاب درباره ابرهوش سرعتی:
✅️ ابرهوش سرعتی قادر است هر کاری انسان انجام میدهد را انجام بدهد، اما بسیار بسیار سریعتر.
✅️ برای تفهیم، به یک شبیهسازی کامپیوتری مغز انسان فکر کنید. این شبیهسازی به قدر نیاز کامل است و تمام عملکردهای مغز را پیاده سازی میکند. اما سختافزار آن بارها و بارها سریعتر از بستر زیستیست.
✅️ چنین سیستمی، اگر مثلا دههزار برابر مغز انسان سریع باشد میتواند یک کتاب را در چند ثانیه بخواند و یک تز دکتری را در یک بعد از ظهر بنویسد.
✅️ اگر یک میلیون برابر سریع باشد، میتواند دههها کار را در یک روز انجام بدهد.
✅️ برای چنین ذهن سریعی، رویدادها در حالت slow motion یا کند تجربه میشوند. اگر ذهن شما ده هزار برابر سریع بود، رویدادی مثل افتادن فنجان چای بر قالی را در مدت زمان چندین ساعت تجربه میکردید.
✅️ کتاب استدلال میکند، حوصله ابرهوشی با چنین ادراک زمانی در دنیای ما سر خواهد رفت. محال است آنها ساعتها بنشینند و نگاهمان کنند تا یک جمله بهشان بگوییم. بنابرین احتمالا منزوی شده و جامعه خودشان را شکل میدهند.
🔴 یادداشت من بر این تعریف:
✅️ به طور کلی موافقم که هوشی با توان ذهنی مساوی انسان اما سرعت بسیار بسیار زیادتر میتواند ابرهوش نامیده بشود.
اما دو نقد به نوشته باسترام دارم.
1️⃣ ما پردازش ناخوداگاه هم داریم. منظورم روانکاوی نیست! همین الان شما بخش بزرگی از پردازش مغزتان را تجربه نمیکنید--- در ظرف آگاهی شما نمیآید. شما معنی جملات مرا میفهمید (و آگاهانه تجربه میکنید)، بدون آنکه از پردازش لایه لایه نورون های مغزتان که از پرتوهای نور روی مانیتور به کلمات رسیده و بعد آنها را سر هم بسته و جملات با معنی در سرتان ساختهاند خبر داشته باشید. به همین منوال، نیازی نیست تصور کنیم که ابرهوش تمام پردازشها را تجربه کرده و بنابرین حوصله اش سر برود. تمام این پردازشها می تواند در ناخوداگاه او صورت بگیرد و تنها بخشی از اینها وارد ظرف آگاهی بشود که حوصلهاش را سر نمیبرد.
2️⃣ محاسبات مجانی نیست. دستکاری بیتهای اطلاعات هزینه انرژی دارد. همینطور اعمال عملیات منطقی. بنابرین باید قیود فیزیکی را در نظر گرفت. دنیای فیزیکی اجازه هر ابرهوشی با هر سرعت محاسبهای را نمیدهد.
@Physics_Daily | از نورون تا هوش
این کتاب یه کلاسیک محسوب میشه. البته که عمومیه، اما اطلاعات زیادی داخلش هست. سال ۲۰۱۴ نوشته شده، بنابرین میشه گزارههای کتاب رو با رویدادهای این ده سال مقایسه کرد.
ابرهوش چیه؟ نیک باسترام میگه ابرهوش یه هوشیه که به طرز چشمگیری بهترین توانمندی ذهن انسان رو مغلوب کنه، در بسیاری زمینههای شناختی.
در این کتاب سه نوع ابرهوش رو از هم تفکیک میکنه:
۱. سرعتی
۲. تجمعی
۳. کیفی
اینجا براتون درباره سرعتی میگم.
🟢 نکات کتاب درباره ابرهوش سرعتی:
✅️ ابرهوش سرعتی قادر است هر کاری انسان انجام میدهد را انجام بدهد، اما بسیار بسیار سریعتر.
✅️ برای تفهیم، به یک شبیهسازی کامپیوتری مغز انسان فکر کنید. این شبیهسازی به قدر نیاز کامل است و تمام عملکردهای مغز را پیاده سازی میکند. اما سختافزار آن بارها و بارها سریعتر از بستر زیستیست.
✅️ چنین سیستمی، اگر مثلا دههزار برابر مغز انسان سریع باشد میتواند یک کتاب را در چند ثانیه بخواند و یک تز دکتری را در یک بعد از ظهر بنویسد.
✅️ اگر یک میلیون برابر سریع باشد، میتواند دههها کار را در یک روز انجام بدهد.
✅️ برای چنین ذهن سریعی، رویدادها در حالت slow motion یا کند تجربه میشوند. اگر ذهن شما ده هزار برابر سریع بود، رویدادی مثل افتادن فنجان چای بر قالی را در مدت زمان چندین ساعت تجربه میکردید.
✅️ کتاب استدلال میکند، حوصله ابرهوشی با چنین ادراک زمانی در دنیای ما سر خواهد رفت. محال است آنها ساعتها بنشینند و نگاهمان کنند تا یک جمله بهشان بگوییم. بنابرین احتمالا منزوی شده و جامعه خودشان را شکل میدهند.
🔴 یادداشت من بر این تعریف:
✅️ به طور کلی موافقم که هوشی با توان ذهنی مساوی انسان اما سرعت بسیار بسیار زیادتر میتواند ابرهوش نامیده بشود.
اما دو نقد به نوشته باسترام دارم.
1️⃣ ما پردازش ناخوداگاه هم داریم. منظورم روانکاوی نیست! همین الان شما بخش بزرگی از پردازش مغزتان را تجربه نمیکنید--- در ظرف آگاهی شما نمیآید. شما معنی جملات مرا میفهمید (و آگاهانه تجربه میکنید)، بدون آنکه از پردازش لایه لایه نورون های مغزتان که از پرتوهای نور روی مانیتور به کلمات رسیده و بعد آنها را سر هم بسته و جملات با معنی در سرتان ساختهاند خبر داشته باشید. به همین منوال، نیازی نیست تصور کنیم که ابرهوش تمام پردازشها را تجربه کرده و بنابرین حوصله اش سر برود. تمام این پردازشها می تواند در ناخوداگاه او صورت بگیرد و تنها بخشی از اینها وارد ظرف آگاهی بشود که حوصلهاش را سر نمیبرد.
2️⃣ محاسبات مجانی نیست. دستکاری بیتهای اطلاعات هزینه انرژی دارد. همینطور اعمال عملیات منطقی. بنابرین باید قیود فیزیکی را در نظر گرفت. دنیای فیزیکی اجازه هر ابرهوشی با هر سرعت محاسبهای را نمیدهد.
@Physics_Daily | از نورون تا هوش
👍13 12🙏3🔥1 1
خلاقیت، ادراک، اخلاقمندی و سایر خصوصیاتی که براشون ذوق داریم و دربارهشون با حرارت مینویسیم و سخنوری میکنیم، میراث تکاملی هستند و واقعا نقش مثبتی در زندگی ما دارند--- حالا کمابیش. 🧬
اما انگار ارزشمند بودن چیزها توی ذهن ما در گرو انحصاری بودنشونه. مثلا خلاقیت و اخلاقمندی و آگاهی (کانشسنس) ارزشمنده به شرطیکه فقط انسان داشته باشدش. برای همینه که وقتی نشون میدی حیوانات هم اینها رو دارند، یا حداقل احتمالا اینها رو دارند، خیلیها کفری میشوند. چقدر هم در انکارش مینویسند! 🤭
هوش مصنوعی هم همینه. مدام میخوایم بگیم هوش مصنوعی نمیتونه خصوصیات ما رو داشته باشه. البته که موافقم! هوش مصنوعی در حال حاضر بسیاری از خصوصیات ما رو نداره--- بسیاریش هم داره. اما خیلی به ندرت پیش میاد ببینم یکی به محدودیتی در هوش مصنوعی میپردازه که واقعا وجود داره. یا در حالت بهترش، به محدودیتی میپردازه که واقعا بنیادیه و قابل برطرف کردن با یکی دو تا ایده نسبتا ساده نیست. این داستان شامل شخص جان سرل و اتاق چینیش هم میشه. 🙂↕️
@Physics_Daily | از نورون تا هوش
اما انگار ارزشمند بودن چیزها توی ذهن ما در گرو انحصاری بودنشونه. مثلا خلاقیت و اخلاقمندی و آگاهی (کانشسنس) ارزشمنده به شرطیکه فقط انسان داشته باشدش. برای همینه که وقتی نشون میدی حیوانات هم اینها رو دارند، یا حداقل احتمالا اینها رو دارند، خیلیها کفری میشوند. چقدر هم در انکارش مینویسند! 🤭
هوش مصنوعی هم همینه. مدام میخوایم بگیم هوش مصنوعی نمیتونه خصوصیات ما رو داشته باشه. البته که موافقم! هوش مصنوعی در حال حاضر بسیاری از خصوصیات ما رو نداره--- بسیاریش هم داره. اما خیلی به ندرت پیش میاد ببینم یکی به محدودیتی در هوش مصنوعی میپردازه که واقعا وجود داره. یا در حالت بهترش، به محدودیتی میپردازه که واقعا بنیادیه و قابل برطرف کردن با یکی دو تا ایده نسبتا ساده نیست. این داستان شامل شخص جان سرل و اتاق چینیش هم میشه. 🙂↕️
@Physics_Daily | از نورون تا هوش
شنیدید توی علم پیش میاد که چند نفر با هم یک چیز رو کشف میکنند؟
پریروز داشتم سریال میدیدم که دوستی پیشپرینت یک مقاله رو برام فرستاد. عنوانش چی بود؟ تقریبا همون عنوانی که من میخواستم روی مقاله آخرم بگذارم.
محتوای مقاله؟ به لحاظ فکری همخط، اما خیلی متفاوت با کار من. من معمولا سعی میکنم سمت چیزی نرم که راحت به ذهن دیگری برسه، یا هرکسی بتونه انجامش بده. اما میدونم که ذهن جامعه چطور کار میکنه. وقتی شباهت عنوانها رو ببینند به تفاوت محتوا کمتر توجه میکنن.
از اون طرف باید عجله کنم. اگر مقاله خودم رو خیلی دیرتر از اونها عمومی کنم این تصور پیش میاد که ازشون وام گرفتم.
بنابرین دارم تمام روزم رو مینویسم. ولی به نظر خودم دارم زیباترین مقالهم تا به امروز رو مینویسم.
یکی از بین رشتهای ترین کارهایی هم هست که میشناسم. کاملا بین فیزیک آماری (ماده چگال)، نوروساینس و هوش مصنوعی.
امیدوارم بتونم تا یک هفته الی ده روز دیگه پیش پرینت رو عمومی کنم.
خلاصه دلیل کمتر فعال بودنم اینه. ولی کانال رو از میوت دربیارید که مطالب رو ببینید--- با اینکه فرکانسشون یه مدت پایینتره.
مخلص.
پریروز داشتم سریال میدیدم که دوستی پیشپرینت یک مقاله رو برام فرستاد. عنوانش چی بود؟ تقریبا همون عنوانی که من میخواستم روی مقاله آخرم بگذارم.
محتوای مقاله؟ به لحاظ فکری همخط، اما خیلی متفاوت با کار من. من معمولا سعی میکنم سمت چیزی نرم که راحت به ذهن دیگری برسه، یا هرکسی بتونه انجامش بده. اما میدونم که ذهن جامعه چطور کار میکنه. وقتی شباهت عنوانها رو ببینند به تفاوت محتوا کمتر توجه میکنن.
از اون طرف باید عجله کنم. اگر مقاله خودم رو خیلی دیرتر از اونها عمومی کنم این تصور پیش میاد که ازشون وام گرفتم.
بنابرین دارم تمام روزم رو مینویسم. ولی به نظر خودم دارم زیباترین مقالهم تا به امروز رو مینویسم.
یکی از بین رشتهای ترین کارهایی هم هست که میشناسم. کاملا بین فیزیک آماری (ماده چگال)، نوروساینس و هوش مصنوعی.
امیدوارم بتونم تا یک هفته الی ده روز دیگه پیش پرینت رو عمومی کنم.
خلاصه دلیل کمتر فعال بودنم اینه. ولی کانال رو از میوت دربیارید که مطالب رو ببینید--- با اینکه فرکانسشون یه مدت پایینتره.
مخلص.
⚡️مهمترین درسی که امسال گرفتم--- بر اساس کتاب همهوشی، نوشته ایثن مالیک
کجا باید از هوش مصنوعی استفاده کنم، و کجا باید ازش دوری کنم؟ این سوال رو چند باری ازم پرسیدید. امروز میخوام جوابش رو براتون بنویسم. فکر میکنم جوابش براتون عجیب باشه. میتونه زندگیتون رو عوض کنه.
🧠 مقدمه
✅️ برعکس باور رایج که متاسفانه چهرههای شناخته شده هم ترویجش میکنند، بخش بزرگی از رفتار هوش مصنوعی طراحیشده نیست.
✅️ هوش مصنوعی یک نرمافزار معمولی نیست که سلسلهای از اگر-آنگاههای از پیش طراحی شده را اعمال کند.
✅️ اسمش را گذاشتهاند "هوش" چون نیازی به طراحی کامل ندارد. طراح هدف را برایش تعیین میکند، داده را در اختیارش میگذارد، و خود هوش مصنوعی سلسله اگر-آنگاههای لازم را میسازد.
✅️ به همین جهت، بخش بزرگی از رفتار هوش مصنوعی برای خالقین آن غیرقابل پیشبینیست! مگر آنکه مثل من و شما نقش کاربر گرفته و رفتار هوش مصنوعی را با استفاده کردن از آن کشف کنند.
🕵 کشف توانمندیهای هوش مصنوعی
به عنوان کاربر، بخشی از وقت شما به سنجش توانمندیهای هوش مصنوعی میگذرد.
احتمالا دریافتهاید جیپیتی بعضی مسائل را خیلی راحتتر حل میکند. مثلا اگر به او بگویید: "رمانهای روسی مشهور قرن نوزده را نام ببر." خیلی راحت از پس کار برمیآید.
اما اگر از او بخواهید "رمان کاملی برایتان بنویسد"، حاصل کارش چنگی به دل نمیزند.
خیلی هم خوب! اما مشکل اینجاست! ما پس از کمی کار کردن با هوش مصنوعی دچار خطای عجیبی میشویم.به اشتباه تصور میکنیم قوت و ضعف هوش مصنوعی را میدانیم.
🌕 خطای تصور دایرهشکل (میتوانید از این بخش عبور کرده و به نتیجهگیری بروید)
ذهن شما مدل دایرهشکلی از توانمندی هوش مصنوعی میسازد. به عکس بالا نگاه کنید. مرکز دایره درخشانتر است. مرکز نشاندهنده سوالاتیست که جیپیتی در پاسخ گفتن به آنها بسیار توانمند است. در این تصور ذهنی، جهت مهم نیست! در هر جهتی از مرکز دور بشویم (یعنی پرسش را در هر راستایی دشوار کنیم)، توانمندی جیپیتی در پاسخ گفتن به شکل یکسانی کم میشود.
1️⃣ مثلا سوالاتی مثل "رمانهای مشهور روسی قرن نوزدهم را نام ببر،" و "قاعده تقسیم و باقیمانده را به من یاد بده" ساده هستند. پس در مرکز بسیار روشن دایره قرار میگیرند. و جیپیتی به راحتی از پسشان برمیآید.
2️⃣ اما قبلا دیدهاید جیپیتی در جواب دادن به سوالی مثل "یک رمان برایم بنویس" بد عمل میکند. اینجا با دشوار کردن سوال در راستای موضوعات ادبی (که فرض میکنیم سمت و سوی شرق دایره را دارند)، از مرکز فاصله گرفتهاید و مشاهده کردهاید که توانمندی بسیار کم شده (روشنی کم شده و صفحه تیره شده).
3️⃣ بر همین اساس، ذهن شما تعمیم میدهد. یعنی انتظار دارد سوالی مثل "معادلات غیر خطی نورونی مختلف را برایم بنویس و آنها را مقایسه کن" که این بار در راستای ریاضی دشوار است هم جایی بسیار دور از مرکز و در گوشه مثلا شمالی قرار بگیرد--- که در این شکل تاریک است. یعنی جیپیتی نتواند حلش کند.
⚠️ اما واقعیت این نیست. ممکن است توانمندی جیپیتی از سمت شمالی (تحلیل معادلات) خیلی بیشتر از سمت شرقی (ادبیات) باشد و درواقع وجه شمالی دایره کش بیاید. در این صورت، برای تصحیح تصور ذهنی، به جای دایره، میبایست یک بیضی تصور کنید که از شمال کش آمده. البته نقشه توانمندیهای واقعی هوش مصنوعی قلمرویی بسیار عجقوجقتر از بیضی و دایره دارد و کشف آن مستلزم استفاده مداوم است.
⚡️ نتیجهگیری: از امروز تلاش کنید که در هر کاری از هوش مصنوعی استفاده کنید!
نه به این خاطر که هوش مصنوعی از پس هر کاری بر میآید--- که نمیآید.
نه به این شکل که خودتان عمل و فکر نکنید و عنان را به جیپیتی بسپارید.
در عصر هوش مصنوعی، کسانی خواهند درخشید که یاد گرفتهاند بهترین بهره را از هوش مصنوعی ببرند.
امیدوارم این درس برای شما هم مفید باشه. باور دارم میتونه زندگیتون رو عوض کنه.
@Physics_Daily | از نورون تا هوش
کجا باید از هوش مصنوعی استفاده کنم، و کجا باید ازش دوری کنم؟ این سوال رو چند باری ازم پرسیدید. امروز میخوام جوابش رو براتون بنویسم. فکر میکنم جوابش براتون عجیب باشه. میتونه زندگیتون رو عوض کنه.
🧠 مقدمه
✅️ برعکس باور رایج که متاسفانه چهرههای شناخته شده هم ترویجش میکنند، بخش بزرگی از رفتار هوش مصنوعی طراحیشده نیست.
✅️ هوش مصنوعی یک نرمافزار معمولی نیست که سلسلهای از اگر-آنگاههای از پیش طراحی شده را اعمال کند.
✅️ اسمش را گذاشتهاند "هوش" چون نیازی به طراحی کامل ندارد. طراح هدف را برایش تعیین میکند، داده را در اختیارش میگذارد، و خود هوش مصنوعی سلسله اگر-آنگاههای لازم را میسازد.
✅️ به همین جهت، بخش بزرگی از رفتار هوش مصنوعی برای خالقین آن غیرقابل پیشبینیست! مگر آنکه مثل من و شما نقش کاربر گرفته و رفتار هوش مصنوعی را با استفاده کردن از آن کشف کنند.
🕵 کشف توانمندیهای هوش مصنوعی
به عنوان کاربر، بخشی از وقت شما به سنجش توانمندیهای هوش مصنوعی میگذرد.
احتمالا دریافتهاید جیپیتی بعضی مسائل را خیلی راحتتر حل میکند. مثلا اگر به او بگویید: "رمانهای روسی مشهور قرن نوزده را نام ببر." خیلی راحت از پس کار برمیآید.
اما اگر از او بخواهید "رمان کاملی برایتان بنویسد"، حاصل کارش چنگی به دل نمیزند.
خیلی هم خوب! اما مشکل اینجاست! ما پس از کمی کار کردن با هوش مصنوعی دچار خطای عجیبی میشویم.
🌕 خطای تصور دایرهشکل (میتوانید از این بخش عبور کرده و به نتیجهگیری بروید)
ذهن شما مدل دایرهشکلی از توانمندی هوش مصنوعی میسازد. به عکس بالا نگاه کنید. مرکز دایره درخشانتر است. مرکز نشاندهنده سوالاتیست که جیپیتی در پاسخ گفتن به آنها بسیار توانمند است. در این تصور ذهنی، جهت مهم نیست! در هر جهتی از مرکز دور بشویم (یعنی پرسش را در هر راستایی دشوار کنیم)، توانمندی جیپیتی در پاسخ گفتن به شکل یکسانی کم میشود.
1️⃣ مثلا سوالاتی مثل "رمانهای مشهور روسی قرن نوزدهم را نام ببر،" و "قاعده تقسیم و باقیمانده را به من یاد بده" ساده هستند. پس در مرکز بسیار روشن دایره قرار میگیرند. و جیپیتی به راحتی از پسشان برمیآید.
2️⃣ اما قبلا دیدهاید جیپیتی در جواب دادن به سوالی مثل "یک رمان برایم بنویس" بد عمل میکند. اینجا با دشوار کردن سوال در راستای موضوعات ادبی (که فرض میکنیم سمت و سوی شرق دایره را دارند)، از مرکز فاصله گرفتهاید و مشاهده کردهاید که توانمندی بسیار کم شده (روشنی کم شده و صفحه تیره شده).
3️⃣ بر همین اساس، ذهن شما تعمیم میدهد. یعنی انتظار دارد سوالی مثل "معادلات غیر خطی نورونی مختلف را برایم بنویس و آنها را مقایسه کن" که این بار در راستای ریاضی دشوار است هم جایی بسیار دور از مرکز و در گوشه مثلا شمالی قرار بگیرد--- که در این شکل تاریک است. یعنی جیپیتی نتواند حلش کند.
⚠️ اما واقعیت این نیست. ممکن است توانمندی جیپیتی از سمت شمالی (تحلیل معادلات) خیلی بیشتر از سمت شرقی (ادبیات) باشد و درواقع وجه شمالی دایره کش بیاید. در این صورت، برای تصحیح تصور ذهنی، به جای دایره، میبایست یک بیضی تصور کنید که از شمال کش آمده. البته نقشه توانمندیهای واقعی هوش مصنوعی قلمرویی بسیار عجقوجقتر از بیضی و دایره دارد و کشف آن مستلزم استفاده مداوم است.
⚡️ نتیجهگیری: از امروز تلاش کنید که در هر کاری از هوش مصنوعی استفاده کنید!
نه به این خاطر که هوش مصنوعی از پس هر کاری بر میآید--- که نمیآید.
نه به این شکل که خودتان عمل و فکر نکنید و عنان را به جیپیتی بسپارید.
در هر کاری از هوش مصنوعی استفاده کنید، به این هدف که توانمندی آن را در قلمروهای متنوع محک بزنید، و تجربه کنید و نقشه واقعی را کشف کنید.
امیدوارم این درس برای شما هم مفید باشه. باور دارم میتونه زندگیتون رو عوض کنه.
@Physics_Daily | از نورون تا هوش
👍74 27💯8🔥6 3
طی دو هفته گذشته ۶۰۰ نفر به جمعمون اضافه شدند. پست قبلی بیش از ۱۱۰ بار اشتراکگذاری شده. به نظر میاد کانال دوباره زنده شده، و این به خاطر شماست. ❤️
برای روزهای آتی تعدادی پست آماده کردم که طبق معمول شامل ایناست:
۱. کاربرد هوش مصنوعی در زندگی 🎯
۲. ادامه تاریخ هوش مصنوعی 🧵
۳. طرز کار هوش مصنوعی 📐
ریاکشنها و اشتراکگذاریهای شما مسیر محتوایی کانال رو مشخص میکنه. 💪🏻
برای روزهای آتی تعدادی پست آماده کردم که طبق معمول شامل ایناست:
۱. کاربرد هوش مصنوعی در زندگی 🎯
۲. ادامه تاریخ هوش مصنوعی 🧵
۳. طرز کار هوش مصنوعی 📐
ریاکشنها و اشتراکگذاریهای شما مسیر محتوایی کانال رو مشخص میکنه. 💪🏻
👍57 33💯6 5🔥3🎉3
🧠 اَبَرهوش تجمعی: نوع دوم ابرهوش در کتاب نیک باسترام
قبلا در مورد ابرهوش یه نظرسنجی داشتیم. نوع اولش هم که ابرهوش سرعتی بود معرفی کردیم. امروز درباره ابرهوش تجمعی از زاویه کتاب ابرهوش از نیک باسترام براتون میگم. البته با تحلیلهای خودم. دونستن اینها به فهم خطرات هوش مصنوعی--- که در آینده بحث میکنیم--- کمک خواهد کرد.
یاداوری: این کتاب یه کلاسیک محسوب میشه. البته که عمومیه، اما اطلاعات زیادی داخلش هست. سال ۲۰۱۴ نوشته شده، بنابرین میشه گزارههای کتاب رو با رویدادهای این ده سال مقایسه کرد. ابرهوش چیه؟ نیک باسترام میگه ابرهوش یه هوشیه که به طرز چشمگیری بهترین توانمندی ذهن انسان رو مغلوب کنه، در بسیاری زمینههای شناختی.
🧠 ابرهوش تجمعی: حاصل تجمع اصولی تعداد بسیار بسیار زیادی هوشهای کوچکتر که توانمندی آن در گستره وسیعی از زمینهها از هر سیستم شناختی موجودی بیشتر است.
✅️ ما تجربه هوش جمعی رو داریم: ادارات، تیمهای کاری، شبکههای غیبت (!)، گروههای اجتماعی، جوامع علمی، کشورها (!)، و حتی بشریت به عنوان یک کل، رو میشه با تعریفی شُل و وِل هوش جمعی دانست.
✅️ هوش جمعی برای حل مسائلی که میتوان آنها را به مسائل کوچکتر شکاند ایدهآل است. فکر میکنید چرا بازار آزاد انقدر قوی عمل میکنه؟
✅️ در دانشگاه بودجهها و گروههای مختلف بر مسائل متنوع و گستردهای متمرکز میشوند. اگر دقت کنید اینجا و آنجا گروههای علمی پیدا میشه که بین زمینهها پل میزنه و این تنوع رو یکپارچه میکنه. بخشی از معجزه دانشگاه همین شکاندن و سر هم کردن کردنه.
🔴 اما اینها ابرهوش نیست. یک ارتش مقتدر یک هوش جمعیه که مساله دفاع یا حمله رو حل میکنه. سیستم دانشگاهی یک هوش جمعیه که دانش میسازه. هیچکدوم اَبَرهوش نیستند چون کارشون مشخصه، و در راستای عمومی کار نمیکنند. ارتش نمیتونه کار دانشگاه رو بکنه و برعکس.
✅️ البته هوش یا ابرهوش بودن میتونه نسبی باشه. جوامع امروزی با جمعیت بسیار بزرگتر و دانش انباشته شده و ابزارهای مدرن میتونه گستره بسیار بزرگتری از انسان کهن رو حل کنه. ابرهوشی که اینجا دنبالشیم تا حدی نسبت به وضع فعلیمونه.
✅️ حالا سراغ یه سیاره خیالی بریم. سیاره فرازمین رو تجسم کنید. در فرازمین مردم همین تکنولوژی و رفاه و چالشهای ما رو دارند. اما تعدادشون هزار برابر ماست. بنابرین تعداد آدمهای خیلی خیلی باهوششون هم هزار برابر ماست. بنابرین تعداد ایدههای خوبشون برای حل مسائل هزار برابر ماست. (اینجا شاید باید به هزار برابر خرابکار و احمق هم فکر کرد، نه؟) باسترام میگه سرعت پیشرفت اینها بسیار بسیار زیاده و خیلی زود، نسبت به ما، میشن یه چیزی شبیه ابرهوش تجمعی.
✅️ کتاب در آخر این مبحث میگه دوتا متغیر داریم. همبستگی و استقلال. هوشهای کوچکتر گاهی بسیار مستقلند، گاهی بسیار همبسته و گاهی چیزی بین این دو. باسترام میگه اگر همبستگی زیاد بشه چیزی شبیه ذهن جمعی خلق میشه و ابرهوش جمعی به ابرهوش کیفی تبدیل میشه--- که بحث بعدیه.
این رو اضافه کنم که همبستگی در عین استقلال از ویژگیهای سیستمهای پیچیدهای هست که دوام، پایداری و توانایی حل مساله بالایی دارند.
چه راههایی برای ساختن ابرهوش تجمعی، با استفاده از کامپیوتر و رباتها، به ذهنتون میرسه؟
@Physics_Daily | از نورون تا هوش
قبلا در مورد ابرهوش یه نظرسنجی داشتیم. نوع اولش هم که ابرهوش سرعتی بود معرفی کردیم. امروز درباره ابرهوش تجمعی از زاویه کتاب ابرهوش از نیک باسترام براتون میگم. البته با تحلیلهای خودم. دونستن اینها به فهم خطرات هوش مصنوعی--- که در آینده بحث میکنیم--- کمک خواهد کرد.
یاداوری: این کتاب یه کلاسیک محسوب میشه. البته که عمومیه، اما اطلاعات زیادی داخلش هست. سال ۲۰۱۴ نوشته شده، بنابرین میشه گزارههای کتاب رو با رویدادهای این ده سال مقایسه کرد. ابرهوش چیه؟ نیک باسترام میگه ابرهوش یه هوشیه که به طرز چشمگیری بهترین توانمندی ذهن انسان رو مغلوب کنه، در بسیاری زمینههای شناختی.
🧠 ابرهوش تجمعی: حاصل تجمع اصولی تعداد بسیار بسیار زیادی هوشهای کوچکتر که توانمندی آن در گستره وسیعی از زمینهها از هر سیستم شناختی موجودی بیشتر است.
✅️ ما تجربه هوش جمعی رو داریم: ادارات، تیمهای کاری، شبکههای غیبت (!)، گروههای اجتماعی، جوامع علمی، کشورها (!)، و حتی بشریت به عنوان یک کل، رو میشه با تعریفی شُل و وِل هوش جمعی دانست.
✅️ هوش جمعی برای حل مسائلی که میتوان آنها را به مسائل کوچکتر شکاند ایدهآل است. فکر میکنید چرا بازار آزاد انقدر قوی عمل میکنه؟
✅️ در دانشگاه بودجهها و گروههای مختلف بر مسائل متنوع و گستردهای متمرکز میشوند. اگر دقت کنید اینجا و آنجا گروههای علمی پیدا میشه که بین زمینهها پل میزنه و این تنوع رو یکپارچه میکنه. بخشی از معجزه دانشگاه همین شکاندن و سر هم کردن کردنه.
🔴 اما اینها ابرهوش نیست. یک ارتش مقتدر یک هوش جمعیه که مساله دفاع یا حمله رو حل میکنه. سیستم دانشگاهی یک هوش جمعیه که دانش میسازه. هیچکدوم اَبَرهوش نیستند چون کارشون مشخصه، و در راستای عمومی کار نمیکنند. ارتش نمیتونه کار دانشگاه رو بکنه و برعکس.
✅️ البته هوش یا ابرهوش بودن میتونه نسبی باشه. جوامع امروزی با جمعیت بسیار بزرگتر و دانش انباشته شده و ابزارهای مدرن میتونه گستره بسیار بزرگتری از انسان کهن رو حل کنه. ابرهوشی که اینجا دنبالشیم تا حدی نسبت به وضع فعلیمونه.
✅️ حالا سراغ یه سیاره خیالی بریم. سیاره فرازمین رو تجسم کنید. در فرازمین مردم همین تکنولوژی و رفاه و چالشهای ما رو دارند. اما تعدادشون هزار برابر ماست. بنابرین تعداد آدمهای خیلی خیلی باهوششون هم هزار برابر ماست. بنابرین تعداد ایدههای خوبشون برای حل مسائل هزار برابر ماست. (اینجا شاید باید به هزار برابر خرابکار و احمق هم فکر کرد، نه؟) باسترام میگه سرعت پیشرفت اینها بسیار بسیار زیاده و خیلی زود، نسبت به ما، میشن یه چیزی شبیه ابرهوش تجمعی.
✅️ کتاب در آخر این مبحث میگه دوتا متغیر داریم. همبستگی و استقلال. هوشهای کوچکتر گاهی بسیار مستقلند، گاهی بسیار همبسته و گاهی چیزی بین این دو. باسترام میگه اگر همبستگی زیاد بشه چیزی شبیه ذهن جمعی خلق میشه و ابرهوش جمعی به ابرهوش کیفی تبدیل میشه--- که بحث بعدیه.
این رو اضافه کنم که همبستگی در عین استقلال از ویژگیهای سیستمهای پیچیدهای هست که دوام، پایداری و توانایی حل مساله بالایی دارند.
چه راههایی برای ساختن ابرهوش تجمعی، با استفاده از کامپیوتر و رباتها، به ذهنتون میرسه؟
@Physics_Daily | از نورون تا هوش
👍15 6🙏3
🧠 مغز بر لبه تیغ بحرانیت
یک راه ساده اما قدرتمند برای فهم مغز مدل شاخهای هست.
این تصویر رو از کتاب "کورتکس و نقطه بحرانی" نوشته همکارم جان بگز برداشتم. نورونها در تصویر به شکل دایره و آتش کردنشون با مشکی شدن دایره نشون داده شده. به آتش کردن نورونها اسپایک هم میگیم.
به طور میانگین، اگر هر اسپایک:
۱. کمتر از یک اسپایک ایجاد کند، فعالیت خیلی زود خاموش میشود (سطر اول تصویر).
۲. بیشتر از یک اسپایک ایجاد کند، فعالیت از کنترل خارج میشود (سطر پایین).
۳. دقیقا یک اسپایک ایجاد کند --> سیستم در نزدیکی نقطه بحرانی، بین دو حالت قبلی، می ماند.
چه اهمیتی داره؟
بحرانیت به مغز خصوصیات مهمی میده:
بیشینه انتقال اطلاعات: سیگنالها بدون خاموش شدن یا رشد غیر قابل کنترل در مغز حرکت میکنند.
تنوع زیاد: الگوهای فعالیت نورونی متنوعی شکل میگیرد که میتواند اطلاعات گسترده ای را بازنمایی کند.
تعادل: پایدار بودن به اندازهای که سیگنالها نابود نشوند، در عین منعطف بودن برای بروز رفتارهای جدید.
تصویر بزرگتر:
بحرانیت ممکنه یک اصل یا قانون برای پردازش اطلاعات یا شناخت باشه.
محاسبات مغز نه سفت و سخت و از پیش مشخص شدهست و نه آشوبناک و غیرقابل کنترل.
مغز بر لبه تیغ بحرانیت محاسبه میکنه. جایی که هر اسپایک میتونه مهم باشه.
@Physics_Daily | از نورون تا هوش
یک راه ساده اما قدرتمند برای فهم مغز مدل شاخهای هست.
این تصویر رو از کتاب "کورتکس و نقطه بحرانی" نوشته همکارم جان بگز برداشتم. نورونها در تصویر به شکل دایره و آتش کردنشون با مشکی شدن دایره نشون داده شده. به آتش کردن نورونها اسپایک هم میگیم.
به طور میانگین، اگر هر اسپایک:
۱. کمتر از یک اسپایک ایجاد کند، فعالیت خیلی زود خاموش میشود (سطر اول تصویر).
۲. بیشتر از یک اسپایک ایجاد کند، فعالیت از کنترل خارج میشود (سطر پایین).
۳. دقیقا یک اسپایک ایجاد کند --> سیستم در نزدیکی نقطه بحرانی، بین دو حالت قبلی، می ماند.
چه اهمیتی داره؟
بحرانیت به مغز خصوصیات مهمی میده:
بیشینه انتقال اطلاعات: سیگنالها بدون خاموش شدن یا رشد غیر قابل کنترل در مغز حرکت میکنند.
تنوع زیاد: الگوهای فعالیت نورونی متنوعی شکل میگیرد که میتواند اطلاعات گسترده ای را بازنمایی کند.
تعادل: پایدار بودن به اندازهای که سیگنالها نابود نشوند، در عین منعطف بودن برای بروز رفتارهای جدید.
تصویر بزرگتر:
بحرانیت ممکنه یک اصل یا قانون برای پردازش اطلاعات یا شناخت باشه.
محاسبات مغز نه سفت و سخت و از پیش مشخص شدهست و نه آشوبناک و غیرقابل کنترل.
مغز بر لبه تیغ بحرانیت محاسبه میکنه. جایی که هر اسپایک میتونه مهم باشه.
@Physics_Daily | از نورون تا هوش
Forwarded from پوریا آزادی (Poria Azadi) (Poria)
برنامه لایو شنبه شب ساعت ۲۱
لینک صفحه اینستاگرام
دوستان ازتون درخواست میکنم که حتما حتما حتما این پست رو برای دوستان، اقوام و آشنایان و خانواده بفرستید و در لایو شنبه شب شرکت کنید.
برخی از دوستان ممکنه در روزهای آینده تصمیمهایی رو بگیرن که تا سالها بابتش حسرت بخورن.
@the_maze2022
لینک صفحه اینستاگرام
دوستان ازتون درخواست میکنم که حتما حتما حتما این پست رو برای دوستان، اقوام و آشنایان و خانواده بفرستید و در لایو شنبه شب شرکت کنید.
برخی از دوستان ممکنه در روزهای آینده تصمیمهایی رو بگیرن که تا سالها بابتش حسرت بخورن.
@the_maze2022
👍6🔥5💯2 1
زندگی لبه آشوب
1️⃣ یعنی چی؟
سیستمها میتونند بیش از حد قانونمند و منظم باشند. صلب و قابل حدس.
یا آشوبناک باشند. تصادفی و ناپایدار.
لبه آشوب تعادل بین ساختارمندی و انعطافه.
2️⃣ مثال؟
سیستم حمل و نقل: کم ماشین توی خیابون باشه حمل و نقلی انجام نمیشه. زیاد باشه ترافیک. یه تعدلی بین این دو ---> جریان و انتقال کالا و انسان در شهر.
یادگیری: حفظ کردن خالی یه ذهن خشک و نامنعطف میسازه که از روبرویی با شرایط جدید ناتوانه. خلاقیت و استدلال خالی به درد نمیخوره، مگر از طریق حافظه با واقعیتهای دنیا در تماس باشه. یادگیری موثر ---> ذهنی که میتونه با پیچیدگی دنیا روبرو بشه.
نظم سیاسی: اگر بیش از حد ضعیف باشه نمیتونه ثبات خودش یا حقوق و امنیت شهروندانش رو تامین کنه. اگر بیش از حد مقتدر باشه آزادیهای شهروندانش رو زیر پا میگذاره.
3️⃣ چه ازش متنفرید چه عاشقشید یا هر چیزی--- خسته شدم از این بحثهای مجازی :))). ولی جوردن پیترسون به مساله «چگونه زیستن» با تعبیری مشابه لبه آشوب جواب میده. یک پا رو در امنها و شناختهشدهها محکم کنید و با پای دیگه به قلمرو ناشناخته برید.
4️⃣ مغز؟
گفتیم که اگر آتش کردن نورونها زیادی ضعیف باشه مغز خاموش میشه.
اگر زیادی قوی باشه از دست در میره--- امکان حمله صرعی.
لبه آشوب--> بهمنهای نورونی که اطلاعات رو به خوبی تا فواصل دور حمل میکنند.
5️⃣ هوش مصنوعی؟
نورونهای مصنوعی با اتصالات شبیهسازی شده به هم وصل هستند. اگر اتصالات بیش از حد ضعیف باشد سیگنالها به انتهای شبکه عمیق نمیرسند.
اگر بیش از حد قوی باشند، سیگنالها اصطلاحا من.فجر میشن (خیلی بزرگ میشن).
لبه آشوبه که یادگیری عمیق و هوش مصنوعی ممکن میشه.
✅️ لبه آشوب به سیستمها آداپتهپذیری، خلاقیت و بهینگی میده.
✅️ به این دلیله که مغز در تکامل به سمت لب آشوب رفته، و پژوهشگران هوش مصنوعی رو به سمت لبه آشوب کوک میکنند.
(حالا من یه جدلی سر این ماجرا دارم که مقالهش بیاد عرض میکنم.)
@Physics_Daily | از نورون تا هوش
1️⃣ یعنی چی؟
سیستمها میتونند بیش از حد قانونمند و منظم باشند. صلب و قابل حدس.
یا آشوبناک باشند. تصادفی و ناپایدار.
لبه آشوب تعادل بین ساختارمندی و انعطافه.
2️⃣ مثال؟
سیستم حمل و نقل: کم ماشین توی خیابون باشه حمل و نقلی انجام نمیشه. زیاد باشه ترافیک. یه تعدلی بین این دو ---> جریان و انتقال کالا و انسان در شهر.
یادگیری: حفظ کردن خالی یه ذهن خشک و نامنعطف میسازه که از روبرویی با شرایط جدید ناتوانه. خلاقیت و استدلال خالی به درد نمیخوره، مگر از طریق حافظه با واقعیتهای دنیا در تماس باشه. یادگیری موثر ---> ذهنی که میتونه با پیچیدگی دنیا روبرو بشه.
نظم سیاسی: اگر بیش از حد ضعیف باشه نمیتونه ثبات خودش یا حقوق و امنیت شهروندانش رو تامین کنه. اگر بیش از حد مقتدر باشه آزادیهای شهروندانش رو زیر پا میگذاره.
3️⃣ چه ازش متنفرید چه عاشقشید یا هر چیزی--- خسته شدم از این بحثهای مجازی :))). ولی جوردن پیترسون به مساله «چگونه زیستن» با تعبیری مشابه لبه آشوب جواب میده. یک پا رو در امنها و شناختهشدهها محکم کنید و با پای دیگه به قلمرو ناشناخته برید.
4️⃣ مغز؟
گفتیم که اگر آتش کردن نورونها زیادی ضعیف باشه مغز خاموش میشه.
اگر زیادی قوی باشه از دست در میره--- امکان حمله صرعی.
لبه آشوب--> بهمنهای نورونی که اطلاعات رو به خوبی تا فواصل دور حمل میکنند.
5️⃣ هوش مصنوعی؟
نورونهای مصنوعی با اتصالات شبیهسازی شده به هم وصل هستند. اگر اتصالات بیش از حد ضعیف باشد سیگنالها به انتهای شبکه عمیق نمیرسند.
اگر بیش از حد قوی باشند، سیگنالها اصطلاحا من.فجر میشن (خیلی بزرگ میشن).
لبه آشوبه که یادگیری عمیق و هوش مصنوعی ممکن میشه.
✅️ لبه آشوب به سیستمها آداپتهپذیری، خلاقیت و بهینگی میده.
✅️ به این دلیله که مغز در تکامل به سمت لب آشوب رفته، و پژوهشگران هوش مصنوعی رو به سمت لبه آشوب کوک میکنند.
(حالا من یه جدلی سر این ماجرا دارم که مقالهش بیاد عرض میکنم.)
@Physics_Daily | از نورون تا هوش
👍15 8🔥5😱1