یادگیری با چت جیپیتی--- ۱۰ باید و نباید
🤷🏻♂️ خواهی نخواهی هوش مصنوعی بخشی از یادگیری همه ما شده. فرار کردن ازش به نفعتون نیست. اما باید حواستون باشه. خیلیها زیادی روی جیپیتی حساب میکنند و خیلیها دست کمش میگیرند.
اینجا ده موردی که به ذهنم رسید لیست کردم. امیدوارم کمکتون کنه.
✅️ بایدها (یا بهتر استها):
1️⃣ پیشزمینه بدید. هرچقدر بیشتر روشن کنید در چه زمینهای میخواید یاد بگیرید، کمتر جوابهای کلی همهپسند میگیرید.
2️⃣ قدم به قدم بپرسید. مثلا به جای "هینتون کی بود؟" ازش بخواید مفصل توضیح بده: هینتون در چه جوی به دنیا اومد؟ --> خونوادهش چجوری بود؟ --> چی خوند؟ --> چه شخصیتی داشت؟ --> دستاورد اولش چی بود؟ و...
3️⃣ حتما چک کنید! هوش مصنوعی میتونه چرند بگه. هذیان بگه. بسیار اشتباه میکنه. حتما ازش رفرنس بخواید. و بررسی کنید.
4️⃣ فعالانه یاد بگیرید. میدونستید جیپیتی این امکان رو بهتون میده که خودتون رو بسنجید؟ بهش بگید ازتون کوییز بگیره.
5️⃣ برگردید و سوالاتتون رو دقیقتر بپرسید. حالا که اطلاعات کسب کردید میتونید از اول شروع کنید و همون سوالات رو دقیقتر بپرسید که ابهامات برطرف بشه.
❌️ نبایدها (یا کارهایی که بهتره نکنید):
6️⃣ همینطوری کپی نکنید. پاسخهای جیپیتی و کلا هوش مصنوعی میتونند کاملا غلط باشند. کم هم پیش نمیاد.
7️⃣ از پرسیدن چرا غافل نشید. بدترین استفاده اینه که عقلتون رو بسپارید بهش. پس نخواید که جیپیتی صرفا جواب نهایی رو بهتون بده. ازش بپرسید چرا این جواب! باید قانعتون کنه.
8️⃣ گول ظاهرش رو نخورید. میتونه کلمات درشت استفاده کنه. میتونه با لفاظی خیلی فهیم به نظر برسه. ما ایرانیها زیاد از این سوراخ گزیده شدیم. دنبال جان کلامش باشید نه شکلش.
9️⃣ دنبال آسون شدن بیش از حد نباشید. یادگیری هنوز قراره سختی داشته باشه. یادگیری همچنان یک نوع تحول درونیه. بگذارید کمکتون کنه اما قرار نیست مغزتون رو بازنشسته کنه.
0️⃣1️⃣ ارزش محتوای انسانی فراموش نشه. فکر نکنید میتونید از زیر مطالعه کتاب و مقاله در برید. قابل قیاس نیستند. فرض کنید دستیار یا معلم خصوصی دارید. داشتنش نیازتون به مطالعه رو برطرف نمیکنه.
این محتوا رو برای دوستانتون هم بفرستید.
@physics_daily | از نورون تا هوش
🤷🏻♂️ خواهی نخواهی هوش مصنوعی بخشی از یادگیری همه ما شده. فرار کردن ازش به نفعتون نیست. اما باید حواستون باشه. خیلیها زیادی روی جیپیتی حساب میکنند و خیلیها دست کمش میگیرند.
اینجا ده موردی که به ذهنم رسید لیست کردم. امیدوارم کمکتون کنه.
✅️ بایدها (یا بهتر استها):
1️⃣ پیشزمینه بدید. هرچقدر بیشتر روشن کنید در چه زمینهای میخواید یاد بگیرید، کمتر جوابهای کلی همهپسند میگیرید.
2️⃣ قدم به قدم بپرسید. مثلا به جای "هینتون کی بود؟" ازش بخواید مفصل توضیح بده: هینتون در چه جوی به دنیا اومد؟ --> خونوادهش چجوری بود؟ --> چی خوند؟ --> چه شخصیتی داشت؟ --> دستاورد اولش چی بود؟ و...
3️⃣ حتما چک کنید! هوش مصنوعی میتونه چرند بگه. هذیان بگه. بسیار اشتباه میکنه. حتما ازش رفرنس بخواید. و بررسی کنید.
4️⃣ فعالانه یاد بگیرید. میدونستید جیپیتی این امکان رو بهتون میده که خودتون رو بسنجید؟ بهش بگید ازتون کوییز بگیره.
5️⃣ برگردید و سوالاتتون رو دقیقتر بپرسید. حالا که اطلاعات کسب کردید میتونید از اول شروع کنید و همون سوالات رو دقیقتر بپرسید که ابهامات برطرف بشه.
❌️ نبایدها (یا کارهایی که بهتره نکنید):
6️⃣ همینطوری کپی نکنید. پاسخهای جیپیتی و کلا هوش مصنوعی میتونند کاملا غلط باشند. کم هم پیش نمیاد.
7️⃣ از پرسیدن چرا غافل نشید. بدترین استفاده اینه که عقلتون رو بسپارید بهش. پس نخواید که جیپیتی صرفا جواب نهایی رو بهتون بده. ازش بپرسید چرا این جواب! باید قانعتون کنه.
8️⃣ گول ظاهرش رو نخورید. میتونه کلمات درشت استفاده کنه. میتونه با لفاظی خیلی فهیم به نظر برسه. ما ایرانیها زیاد از این سوراخ گزیده شدیم. دنبال جان کلامش باشید نه شکلش.
9️⃣ دنبال آسون شدن بیش از حد نباشید. یادگیری هنوز قراره سختی داشته باشه. یادگیری همچنان یک نوع تحول درونیه. بگذارید کمکتون کنه اما قرار نیست مغزتون رو بازنشسته کنه.
0️⃣1️⃣ ارزش محتوای انسانی فراموش نشه. فکر نکنید میتونید از زیر مطالعه کتاب و مقاله در برید. قابل قیاس نیستند. فرض کنید دستیار یا معلم خصوصی دارید. داشتنش نیازتون به مطالعه رو برطرف نمیکنه.
این محتوا رو برای دوستانتون هم بفرستید.
@physics_daily | از نورون تا هوش
👍47 22💯5🔥3🤔2
🧠 خیلیها نمیدونند.
مدلهای امروزی هوش مصنوعی مثل جیپیتی با خودِ کلمات کار نمیکنند. اونها با اعداد سر و کار دارند.
هر کلمه بر اساس قواعدی تبدیل به برداری در فضایی بسیار بزرگ میشه. به این عمل «اِمبِدینگ»، «کاشتن» یا «جاسازی» گفته میشه.
کلمات با معنای شبیه به هم در این فضا نزدیک به هم قرار میگیرند.
حتی بیشتر! روابطی مثل:
به صورت تقریبی برقرار میشه.
درواقع شگفتی و جذابیتش اینجاست: معنا در روابط هندسی (مثل همین تفریق و جمع بالا) ظهور پیدا میکنه.
یه مقاله که شاید بخواید بخونید.
@physics_daily | از نورون تا هوش
مدلهای امروزی هوش مصنوعی مثل جیپیتی با خودِ کلمات کار نمیکنند. اونها با اعداد سر و کار دارند.
هر کلمه بر اساس قواعدی تبدیل به برداری در فضایی بسیار بزرگ میشه. به این عمل «اِمبِدینگ»، «کاشتن» یا «جاسازی» گفته میشه.
کلمات با معنای شبیه به هم در این فضا نزدیک به هم قرار میگیرند.
حتی بیشتر! روابطی مثل:
ملکه = زن + مرد - پادشاه
به صورت تقریبی برقرار میشه.
درواقع شگفتی و جذابیتش اینجاست: معنا در روابط هندسی (مثل همین تفریق و جمع بالا) ظهور پیدا میکنه.
یه مقاله که شاید بخواید بخونید.
@physics_daily | از نورون تا هوش
یه اشتباه "احمقانه" من هفتهها تحقیق رو خراب کرد.
🦧 مربوط میشه به اون اوایل راه که بودم.
من داشتم با اکسپوننشال یک ماتریس مثل ماتریس اکسپوننشالها برخورد میکردم. بچههای ریاضی میدونند چقدر آفسایده. هفتهها کارم رو خراب کرد. آخرش استاد راهنمام غلطم رو گرفت و شدیدا شرمنده شدم. 🥲
به عقب که نگاه میکنم، جور دیگهای میبینم. هر ساینتیستی با گاف دادن شروع میکنه. طبیعیه، و دقت و محافظهکاریت رو بالا میبره. 🔍
پس اگه درباره خطایی دچار شرم هستید، یا بدتر، ترس از خطا کردن متوقفتون کرده، بدونید این چیزا فقط بخشی از یک فرآیند زیباست. 🌱
تنها نیستید. آخر دنیا هم نیست.
تازه من اون اوایل یه گاف خیلی خیلی بدتر دادم که شاید بهتون بگم. 😁
@physics_daily | از نورون تا هوش
🦧 مربوط میشه به اون اوایل راه که بودم.
من داشتم با اکسپوننشال یک ماتریس مثل ماتریس اکسپوننشالها برخورد میکردم. بچههای ریاضی میدونند چقدر آفسایده. هفتهها کارم رو خراب کرد. آخرش استاد راهنمام غلطم رو گرفت و شدیدا شرمنده شدم. 🥲
به عقب که نگاه میکنم، جور دیگهای میبینم. هر ساینتیستی با گاف دادن شروع میکنه. طبیعیه، و دقت و محافظهکاریت رو بالا میبره. 🔍
پس اگه درباره خطایی دچار شرم هستید، یا بدتر، ترس از خطا کردن متوقفتون کرده، بدونید این چیزا فقط بخشی از یک فرآیند زیباست. 🌱
تنها نیستید. آخر دنیا هم نیست.
تازه من اون اوایل یه گاف خیلی خیلی بدتر دادم که شاید بهتون بگم. 😁
@physics_daily | از نورون تا هوش
Telegram
از نورون تا هوش ◇---<
هوش مصنوعی + هوش طبیعی
کاربردها و تاریخ و مفاهیم
جواب سوالهای شما در ناشناس رو اینجا میدم:
@physics_daily_QandA
من:
آرشام غواصیه، پژوهشگر پسادکتری ایندیانا
آرشیو مطالب کانال قبلی:
@physics_daily_archive
کاربردها و تاریخ و مفاهیم
جواب سوالهای شما در ناشناس رو اینجا میدم:
@physics_daily_QandA
من:
آرشام غواصیه، پژوهشگر پسادکتری ایندیانا
آرشیو مطالب کانال قبلی:
@physics_daily_archive
زمینه تخصصی شما بیشتر به کدوم نزدیکه؟ ممنون از مشارکت شما.
Anonymous Poll
49%
ریاضیات، فیزیک، مهندسی و...
20%
زیستشناسی، پزشکی، دارو و...
31%
انسانی، اقتصاد، روانشناسی، فلسفه و...
⚡️ راز موفقیت جیپیتی: توجه کردن
براتون سواله جیپیتی چطور موفق شد؟ جواب جادو نیست. بلکه جواب در یک مقاله سال ۲۰۱۷ آمده به اسم: تمام آنچه نیاز دارید توجه است.
به زبان ساده براتون نوشتم.
🔴 پیش از توجه، مدلهای قدیمیتر مثل RNN ها و LSTM ها با مشکل فراموشی طرف بودند. این جمله را تصور کنید: "مقالهای که دانشجویی که استاد او را دوست داشت نوشته بود به چاپ رسید."
زمانی که هوش مصنوعی به کلمه "چاپ" میرسید فراموش کرده بود "چه کسی" چاپ کرده!
✅️ توجه داستان را عوض کرد. به جای دنبال کردن جمله مثل یک توالی از کلمات، مکانیسم توجه به کل جمله نگاه میکند و میپرسد: "هر کلمه به کدام کلمات دیگر مربوط است؟"
مثلا در جمله: "من صبحانه خوردم، دعوای گنجشکها را تماشا کردم و رفتم سر کار."
مکانیسم توجه ارتباط قوی بین من و صبحانه خوردن و سر کار رفتن برقرار میکند و دعوا کردن را به جای من به گنجشکها وصل میکند.
✅️ نمایی از دستور کار که نیازی نیست کامل درک کنید اما برای ایجاد تصویر ذهنی مینویسم:
1️⃣ کلمهها کاشته یا، در بیان دیگر، تبدیل به اعداد میشوند (اینجا توضیح دادم).
2️⃣ مکانیسم توجه ارتباط بین کلمات کاشته شده را حدس میزند.
3️⃣ شبکهای ساخته میشود. اعضای آن کلمات هستند. اتصالات مربوط بودن آنها به یکدیگر را نشان میدهد.
4️⃣ هر کلمه اطلاعاتی از همسایههایش دریافت میکند و کمی در فضای اعداد جابجا میشود (اصطلاحا غنی میشود).
✅️ به جمله مشهور "گربه روی زیرانداز نشست چون خسته بود" فکر کنید. مکانیسم توجه به هوش مصنوعی کمک میکند تا خسته بودن را به گربه نسبت بدهد و نه زیرانداز! حتی اگر جمله دهها کلمه دیگر هم بین گربه و خستگی میگذاشت، مکانیسم توجه ارتباط گربه و خستگی را حفظ میکرد.
مکانیسم توجه مرز تکنولوژی رو جابجا کرد. اگر دقت کنید به لحاظ فنی (مثلا ریاضیاتی) چیز عجیب غریبی نبود. بیشتر یک نگاه تازه بود:
اینم راز جیپیتی. خیلیها نمیدونند. براشون بفرستید.
@Physics_Daily | از نورون تا هوش
براتون سواله جیپیتی چطور موفق شد؟ جواب جادو نیست. بلکه جواب در یک مقاله سال ۲۰۱۷ آمده به اسم: تمام آنچه نیاز دارید توجه است.
به زبان ساده براتون نوشتم.
🔴 پیش از توجه، مدلهای قدیمیتر مثل RNN ها و LSTM ها با مشکل فراموشی طرف بودند. این جمله را تصور کنید: "مقالهای که دانشجویی که استاد او را دوست داشت نوشته بود به چاپ رسید."
زمانی که هوش مصنوعی به کلمه "چاپ" میرسید فراموش کرده بود "چه کسی" چاپ کرده!
✅️ توجه داستان را عوض کرد. به جای دنبال کردن جمله مثل یک توالی از کلمات، مکانیسم توجه به کل جمله نگاه میکند و میپرسد: "هر کلمه به کدام کلمات دیگر مربوط است؟"
مثلا در جمله: "من صبحانه خوردم، دعوای گنجشکها را تماشا کردم و رفتم سر کار."
مکانیسم توجه ارتباط قوی بین من و صبحانه خوردن و سر کار رفتن برقرار میکند و دعوا کردن را به جای من به گنجشکها وصل میکند.
✅️ نمایی از دستور کار که نیازی نیست کامل درک کنید اما برای ایجاد تصویر ذهنی مینویسم:
1️⃣ کلمهها کاشته یا، در بیان دیگر، تبدیل به اعداد میشوند (اینجا توضیح دادم).
2️⃣ مکانیسم توجه ارتباط بین کلمات کاشته شده را حدس میزند.
3️⃣ شبکهای ساخته میشود. اعضای آن کلمات هستند. اتصالات مربوط بودن آنها به یکدیگر را نشان میدهد.
4️⃣ هر کلمه اطلاعاتی از همسایههایش دریافت میکند و کمی در فضای اعداد جابجا میشود (اصطلاحا غنی میشود).
✅️ به جمله مشهور "گربه روی زیرانداز نشست چون خسته بود" فکر کنید. مکانیسم توجه به هوش مصنوعی کمک میکند تا خسته بودن را به گربه نسبت بدهد و نه زیرانداز! حتی اگر جمله دهها کلمه دیگر هم بین گربه و خستگی میگذاشت، مکانیسم توجه ارتباط گربه و خستگی را حفظ میکرد.
مکانیسم توجه مرز تکنولوژی رو جابجا کرد. اگر دقت کنید به لحاظ فنی (مثلا ریاضیاتی) چیز عجیب غریبی نبود. بیشتر یک نگاه تازه بود:
به جای به خاطر سپردن همه چیز در توالی که دارند، بگذاریم هر کلمه به کلماتی توجه کند که برایش مهم هستند.
اینم راز جیپیتی. خیلیها نمیدونند. براشون بفرستید.
@Physics_Daily | از نورون تا هوش
هینتون، جوان گیج شکستخورده، یا پدرخوانده یادگیری عمیق؟
در ادامه تاریخ هوش مصنوعی، به جفری هینتون میرسیم. مردی که امروزه ازش اسطوره ساخته میشه. اما داستانش رو کمتر کسی میدونه. هینتون از کجا شروع کرد؟ براتون میگم.
1️⃣ خونوادهش پر از آدم تحصیلکرده بود. طبیعتا خودش هم رفت سراغ دانشگاه. میخواست مغز رو مطالعه کنه. 🧠
2️⃣ فهمید دانشمندان سر از بخشهایی از مغز در میآورند. اما نه به قدر کافی. نه آنقدر که توضیح بدهد کنار هم گذاشتن این بخشها چطور دیدن، شنیدن، به یاد آوردن، یادگیری و تفکر را میسازد. 🦧
3️⃣ هینتون سعی کرد فیزیولوژی، فلسفه، شیمی، فیزیک و روانشناسی بخونه. فیزیک رو جدی شروع کرد ولی دید مهارت ریاضیاتی لازم رو نداره. انصراف داد و رفت روانشناسی آزمایشگاهی، و بعدش از ادامه تحصیل انصراف داد. 🥲
4️⃣ بعد رفت مدیتیشن ثروت کرد و با قانون جذب موفق شد. مسلما نه! هینتون رفت نجار شد که مخارج زندگی رو تامین کنه. 🪚
5️⃣ همون سال کتاب "سازمان رفتار" از دانلد هِب رو خوند. این کتاب رو براتون گذاشتم و دربارهش گفتم.
6️⃣ با بهتر فهمیدن کار هِب و رزنبلات سر ذوق اومد. شنبهها که تعطیل بود میرفت کتابخونه و دفتر و خودکار میبرد. برای خودش مینوشت! نظریه میساخت که مغز چطوری کار میکنه! 🔥
7️⃣ هینتون هم مثل رزنبلات بود. هوش مصنوعی در نگاهش وسیلهای برای آزمون کردن نظریههایی درباره مغز بود. ولی طرفدارهای امروزی هینتون توی کامنتهای اینستاگرام ناراحت میشن بشنون. 🤭
8️⃣ یکباره پروگرامی در دانشگاه ادینبرگ پیدا کرد. عنوان پروگرام هوش مصنوعی بود! این بار دیگه باید انجامش میداد. پس با هر زحمتی بود پذیرش گرفت.
9️⃣ استاد راهنماش یه روز قبل از اونکه هینتون بره دانشگاه نظرش عوض شد. اون کتاب مینسکی رو خونده بود (لینک کتاب و لینک توضیحاتم در موردش). و از شبکههای عصبی ناامید شده بود. اینطور شد که هینتون بدجوری تنها موند.
0️⃣1️⃣ "شبکههای عصبی که رد شدهاند!" کسانی که کتاب مینسکی رو خونده بودند عین طوطی تکرار میکردند. عین همین اتفاق رو در اینستای خودمون میبینید. اسمش رو میگذارم "نقد سیاه" و توضیح خواهم داد چیه.
هینتون میدونست که مینسکی، علیرغم نکات درستی که گفته، کاریکاتوری از کار رزنبلات رو نقد کرده. اما فایدهای نداشت. چون این جمعیت نفهمیده پذیرفته بود. هفتهای یک بار استاد راهنماش رو میدید و هر از گاهی هم داد و بیداد میکردند. اما حداقل داشت روی علاقهش کار میکرد. بالاخره.
ادامه داستان هینتون و برخورد مستقیمش با مینسکی رو خواهم نوشت. امیدوارم دیدن فراز و فرود و شکست و پیروزی این چهرهها به شما انگیزه انجام بزرگترین کارها رو بده. 😉
@Physics_Daily | از نورون تا هوش
در ادامه تاریخ هوش مصنوعی، به جفری هینتون میرسیم. مردی که امروزه ازش اسطوره ساخته میشه. اما داستانش رو کمتر کسی میدونه. هینتون از کجا شروع کرد؟ براتون میگم.
1️⃣ خونوادهش پر از آدم تحصیلکرده بود. طبیعتا خودش هم رفت سراغ دانشگاه. میخواست مغز رو مطالعه کنه. 🧠
2️⃣ فهمید دانشمندان سر از بخشهایی از مغز در میآورند. اما نه به قدر کافی. نه آنقدر که توضیح بدهد کنار هم گذاشتن این بخشها چطور دیدن، شنیدن، به یاد آوردن، یادگیری و تفکر را میسازد. 🦧
3️⃣ هینتون سعی کرد فیزیولوژی، فلسفه، شیمی، فیزیک و روانشناسی بخونه. فیزیک رو جدی شروع کرد ولی دید مهارت ریاضیاتی لازم رو نداره. انصراف داد و رفت روانشناسی آزمایشگاهی، و بعدش از ادامه تحصیل انصراف داد. 🥲
4️⃣ بعد رفت مدیتیشن ثروت کرد و با قانون جذب موفق شد. مسلما نه! هینتون رفت نجار شد که مخارج زندگی رو تامین کنه. 🪚
5️⃣ همون سال کتاب "سازمان رفتار" از دانلد هِب رو خوند. این کتاب رو براتون گذاشتم و دربارهش گفتم.
6️⃣ با بهتر فهمیدن کار هِب و رزنبلات سر ذوق اومد. شنبهها که تعطیل بود میرفت کتابخونه و دفتر و خودکار میبرد. برای خودش مینوشت! نظریه میساخت که مغز چطوری کار میکنه! 🔥
7️⃣ هینتون هم مثل رزنبلات بود. هوش مصنوعی در نگاهش وسیلهای برای آزمون کردن نظریههایی درباره مغز بود. ولی طرفدارهای امروزی هینتون توی کامنتهای اینستاگرام ناراحت میشن بشنون. 🤭
8️⃣ یکباره پروگرامی در دانشگاه ادینبرگ پیدا کرد. عنوان پروگرام هوش مصنوعی بود! این بار دیگه باید انجامش میداد. پس با هر زحمتی بود پذیرش گرفت.
9️⃣ استاد راهنماش یه روز قبل از اونکه هینتون بره دانشگاه نظرش عوض شد. اون کتاب مینسکی رو خونده بود (لینک کتاب و لینک توضیحاتم در موردش). و از شبکههای عصبی ناامید شده بود. اینطور شد که هینتون بدجوری تنها موند.
0️⃣1️⃣ "شبکههای عصبی که رد شدهاند!" کسانی که کتاب مینسکی رو خونده بودند عین طوطی تکرار میکردند. عین همین اتفاق رو در اینستای خودمون میبینید. اسمش رو میگذارم "نقد سیاه" و توضیح خواهم داد چیه.
هینتون میدونست که مینسکی، علیرغم نکات درستی که گفته، کاریکاتوری از کار رزنبلات رو نقد کرده. اما فایدهای نداشت. چون این جمعیت نفهمیده پذیرفته بود. هفتهای یک بار استاد راهنماش رو میدید و هر از گاهی هم داد و بیداد میکردند. اما حداقل داشت روی علاقهش کار میکرد. بالاخره.
ادامه داستان هینتون و برخورد مستقیمش با مینسکی رو خواهم نوشت. امیدوارم دیدن فراز و فرود و شکست و پیروزی این چهرهها به شما انگیزه انجام بزرگترین کارها رو بده. 😉
@Physics_Daily | از نورون تا هوش
👍24 16😎3🔥2🤩1
ترق تروق، از صدای سوختن چوب تا محاسبات نورونها
زاپری کتاب خودش به نام «نویز ترق تروقی» یا crackling noise که سال ۲۰۲۲ چاپ شده رو اینطور شروع میکنه:
@Physics_Daily | از نورون تا هوش
زاپری کتاب خودش به نام «نویز ترق تروقی» یا crackling noise که سال ۲۰۲۲ چاپ شده رو اینطور شروع میکنه:
گستره عظیمی از پدیدههای معمولی فیزیکی سر و صدایی ایجاد میکنند که در دسته «ترق تروق» قرار میگیرد، به معنای سر و صداهای بزرگ ناگهانی در میان بازههای ساکتتر. برای مثال به صدای سوختن چوب فکر کنید، یا صدای باز شدن زرورق یک آبنبات، یا صدای پاره شدن کاغذ. مشابه این ترق تروقها را از ترکیدن حبابها می شنوید، اگر با دقت به لیوان شامپاین گوش کنید، یا به غلات (برشتوک) وقتی رویش شیر میریزید.به مرور به شما نشان میدهم، این ترق تروقها چقدر برای مغز شما و عملکرد آن اهمیت دارد.
...
یک نکته مهم این است که ترق تروقها از فرایند فیزیکی ناشی میشوند که به آن «بهمن» میگوییم. همانطور که از اسمش پیداست، بهمن یک فعالیت ناگهانی جمعی است که در فضا و زمان به طور علی به هم مربوط است. یک مثال رایج آن بهمن برفی است: در اثر رانههای آهسته، مثل تغییرات دما، یا محرکهای مکانیکی، یک تکه برف میتواند از جایش کنده شود، در دامنه کوه بلغزد و سقوط کند. [...]
فهم مکانیسم فیزیکی پخش بهمنها تنها برای زمینشناسان جالب نیست، چراکه این رفتار در بسیاری سیستمهای فیزیکی دیگر هم رخ میدهد. حقیقتا در این کتاب خیلی جزیی به پدیدههای زمینشناسانه مثل بهمنهای برفی، حرکت صفحات زمین، زمینلرزهها و ... خواهیم پرداخت و بیشتر بر مثالهای ماده چگال متمرکز خواهیم بود.
@Physics_Daily | از نورون تا هوش
ایرادات املایی و نگارشی من رو ببخشید. هیچکدام از نوشتههای این کانال رو هوش مصنوعی نمینویسه. ویراستاری هم ندارم. خودم هم آدم چندان دقیقی در قواعد نوشتن نیستم. 🙏
داریم یه کار بزرگ میکنیم.
یه پادکست در نظر بگیرید که میتونید توی اوقات فراغت گوش کنید.
دو تا پژوهشگر پسادکتری میزبانش هستند. به زبان ساده جذابترین مقالات کلاسیک هوش مصنوعی و طبیعی رو براتون توضیح میدن.
زحمت زیاد داره. اما مطمئنم اثر خودش رو خواهد گذاشت.
یه پادکست در نظر بگیرید که میتونید توی اوقات فراغت گوش کنید.
دو تا پژوهشگر پسادکتری میزبانش هستند. به زبان ساده جذابترین مقالات کلاسیک هوش مصنوعی و طبیعی رو براتون توضیح میدن.
زحمت زیاد داره. اما مطمئنم اثر خودش رو خواهد گذاشت.
🔥59 20👍15🙏7 3💔1
از نورون تا هوش ◇---<
ترق تروق، از صدای سوختن چوب تا محاسبات نورونها زاپری کتاب خودش به نام «نویز ترق تروقی» یا crackling noise که سال ۲۰۲۲ چاپ شده رو اینطور شروع میکنه: گستره عظیمی از پدیدههای معمولی فیزیکی سر و صدایی ایجاد میکنند که در دسته «ترق تروق» قرار میگیرد، به معنای…
Audio
🔥 صدای ترق تروق آتش
همین الان نورونها در کورتکس شما ترق تروق میکنند. 😉
@Physics_Daily | از نورون تا هوش
همین الان نورونها در کورتکس شما ترق تروق میکنند. 😉
@Physics_Daily | از نورون تا هوش
🔥11 7👍2🤩2😁1 1
🧠 نورونها منطق را پیادهسازی میکنند
مگه میشه؟ مغز فقط با چهار تا نورون این همه شگفتی خلق کنه؟ قبلا درباره کار مهم مککالک و پیتز باهاتون حرف زدم (توضیحات و مقاله مهمشون).
اینجا چندتا دروازه منطقی نورونی بهتون نشون میدم. بعد یه تمرین بهتون میدم که فکر کنید ببینید میتونید ایراد اصلی که مینسکی به پرسپترون وارد کرد رو متوجه بشید؟
☑️ گفتیم چیزی به اسم «دروازههای منطقی» داریم. این دروازههای منطقی رو میشه مثل لگو (آجر اسباببازی) کنار هم چید. اگر تمام دروازههای منطقی رو داشته باشید، با کنار هم چیدنشون میتونید تمام محاسبات رو انجام بدید.
☑️ در یک نگاه می شه نورونها رو واحدهای محاسباتی کوچک دانست. با سیمکشی درست و تنظیم آستانه آتش کردن، نورونها میتوانند تمام دروازههای منطقی را بسازند.
☑️ بیایید نورون رو اینجوری ببینیم:
۱. هر نورون ورودیهایی دریافت میکنه. مثلا یه ورودی. دوتا ورودی. یا دهتا. یا اصلا هیچی. این ورودیها معمولا از نورونهای همسایهای میاد که همین اخیرا آتش کردهاند و سیگنال فرستادهاند.
۲. هر ورودی در وزن خودش ضرب میشه. چرا؟ چون اتصال بعضی نورونهای همسایه قویتره. بنابرین سیگنالشون در عدد بزرگتری ضرب میشه. همینطور اتصالات کوچکتر باعث کوچک شدن سیگنال ورودی میشن.
۳. همه سیگنالهای ورودی بعد از ضرب شدن در وزن اتصال جمع میشن و ورودی کلی نورون رو می سازند.
۴. یک آستانه وجود داره. این آستانه یه عدده. میتونه برای هر نورون متفاوت باشه. اگر ورودی کلی از آستانه بزرگتر باشه، نورون ما روشن میشه و آتش میکنه--- و به همسایههاش سیگنال میده.
🟢 پس: ورودی -> جمع وزنی -> آستانه -> خروجی
حالا بریم دوتا دروازه منطقی بسازیم:
1️⃣ AND دروازه
دو تا نورون همسایه داریم.
وزن اتصالشون یک هست.
آستانه دو هست.
نورون آتش میکند فقط در صورتی که هردو همسایه آتش کنند و هر دو ورودی بهش برسند و ورودی کلی بشه دو--- مساوی آستانه.
میشه این حالت:
۱ × ۱ + ۱ × ۱ = ۲
2️⃣ OR دروازه
دوباره دوتا نورون همسایه داریم.
دوباره وزن اتصال یک هست.
این بار آستانه یک هست.
ورودی کلی اگر بزرگتر مساوی یک (آستانه) باشه نورون آتش میکند.
میشه این سه حالت:
۱ × ۰ + ۱ × ۱ = ۱
۱ × ۱ + ۱ × ۰ = ۱
۱ × ۱ + ۱ × ۱ = ۲
در بیان دیگر، اگر این یا آن نورون همسایه آتش کند نورون ما آتش میکند.
🟢 قاعده کلی: با تغییرات وزن و آستانه میشه با یک نورون (که از همسایههاش سیگنال می گیره) دروازههای منطقی بسیاری
ساخت.
🔴 اما سوال. آیا میشه با یک نورون دروازه منطقی XOR رو ساخت؟
دقت کنید، این دروازه منطقی باید اینجوری کار کنه: نورون ما روشن میشه اگر فقط و فقط یکی از همسایههاش روشن بشن. (اگر هردو روشن یا هردو خاموش باشند نورون باید خاموش بمونه)
@Physics_Daily | از نورون تا هوش
مگه میشه؟ مغز فقط با چهار تا نورون این همه شگفتی خلق کنه؟ قبلا درباره کار مهم مککالک و پیتز باهاتون حرف زدم (توضیحات و مقاله مهمشون).
اینجا چندتا دروازه منطقی نورونی بهتون نشون میدم. بعد یه تمرین بهتون میدم که فکر کنید ببینید میتونید ایراد اصلی که مینسکی به پرسپترون وارد کرد رو متوجه بشید؟
☑️ گفتیم چیزی به اسم «دروازههای منطقی» داریم. این دروازههای منطقی رو میشه مثل لگو (آجر اسباببازی) کنار هم چید. اگر تمام دروازههای منطقی رو داشته باشید، با کنار هم چیدنشون میتونید تمام محاسبات رو انجام بدید.
☑️ در یک نگاه می شه نورونها رو واحدهای محاسباتی کوچک دانست. با سیمکشی درست و تنظیم آستانه آتش کردن، نورونها میتوانند تمام دروازههای منطقی را بسازند.
☑️ بیایید نورون رو اینجوری ببینیم:
۱. هر نورون ورودیهایی دریافت میکنه. مثلا یه ورودی. دوتا ورودی. یا دهتا. یا اصلا هیچی. این ورودیها معمولا از نورونهای همسایهای میاد که همین اخیرا آتش کردهاند و سیگنال فرستادهاند.
۲. هر ورودی در وزن خودش ضرب میشه. چرا؟ چون اتصال بعضی نورونهای همسایه قویتره. بنابرین سیگنالشون در عدد بزرگتری ضرب میشه. همینطور اتصالات کوچکتر باعث کوچک شدن سیگنال ورودی میشن.
۳. همه سیگنالهای ورودی بعد از ضرب شدن در وزن اتصال جمع میشن و ورودی کلی نورون رو می سازند.
۴. یک آستانه وجود داره. این آستانه یه عدده. میتونه برای هر نورون متفاوت باشه. اگر ورودی کلی از آستانه بزرگتر باشه، نورون ما روشن میشه و آتش میکنه--- و به همسایههاش سیگنال میده.
🟢 پس: ورودی -> جمع وزنی -> آستانه -> خروجی
حالا بریم دوتا دروازه منطقی بسازیم:
1️⃣ AND دروازه
دو تا نورون همسایه داریم.
وزن اتصالشون یک هست.
آستانه دو هست.
نورون آتش میکند فقط در صورتی که هردو همسایه آتش کنند و هر دو ورودی بهش برسند و ورودی کلی بشه دو--- مساوی آستانه.
میشه این حالت:
۱ × ۱ + ۱ × ۱ = ۲
2️⃣ OR دروازه
دوباره دوتا نورون همسایه داریم.
دوباره وزن اتصال یک هست.
این بار آستانه یک هست.
ورودی کلی اگر بزرگتر مساوی یک (آستانه) باشه نورون آتش میکند.
میشه این سه حالت:
۱ × ۰ + ۱ × ۱ = ۱
۱ × ۱ + ۱ × ۰ = ۱
۱ × ۱ + ۱ × ۱ = ۲
در بیان دیگر، اگر این یا آن نورون همسایه آتش کند نورون ما آتش میکند.
🟢 قاعده کلی: با تغییرات وزن و آستانه میشه با یک نورون (که از همسایههاش سیگنال می گیره) دروازههای منطقی بسیاری
ساخت.
🔴 اما سوال. آیا میشه با یک نورون دروازه منطقی XOR رو ساخت؟
دقت کنید، این دروازه منطقی باید اینجوری کار کنه: نورون ما روشن میشه اگر فقط و فقط یکی از همسایههاش روشن بشن. (اگر هردو روشن یا هردو خاموش باشند نورون باید خاموش بمونه)
@Physics_Daily | از نورون تا هوش
میتونید هر روز برای چند دقیقه به این حقیقت فکر کنید که شما فقط شمای این لحظه نیستید. بلکه انسان علاوه بر یک حجم فضایی، یک گستره زمانی رو هم اشغال میکنه.
شمای فردا، هفته دیگه، ماه دیگه، سال دیگه و دهههای بعد درگستره زمانی موجوده و زندگیش متاثر از تصمیمات این لحظهست. احتمالا ترجیح میده خواست اون هم لحاظ بشه. 😉
@Physics_Daily | از نورون تا هوش
شمای فردا، هفته دیگه، ماه دیگه، سال دیگه و دهههای بعد درگستره زمانی موجوده و زندگیش متاثر از تصمیمات این لحظهست. احتمالا ترجیح میده خواست اون هم لحاظ بشه. 😉
@Physics_Daily | از نورون تا هوش
👍24 14🤩4🤔2🔥1
⚡️ چطور با جیپیتی موضوع پژوهش یا پایاننامه انتخاب کنم؟
از سختترین جاهای پژوهش انتخاب موضوع و سواله. جیپیتی نمیتونه جایگزین کنجکاوی و تخصص شما بشه. اما میتونه دستیار خیلی خوبی باشه.
پنج نکته که به ذهنم رسید رو نوشتم. امیدوارم در مسیرتون به کار بیاد.
1️⃣ فضا رو بهتر ببینید.
ازش بخواید پنج سوال اصلی، یا محل بحث و اختلاف نظر، در زمینه تحقیقتون رو بهتون بگه. اگر کلی حرف زد بهش بگید نقش یک پژوهشگر خبره در زمینه مورد نظرتون رو بگیره و سوال رو تکرار کنید. باهاش کلنجار برید تا بالاخره چندتا زمینه فعال که هنوز جای کار داره بهتون معرفی کنه. معرفی که کرد ازش مقالات مهم هر بحث رو بخواید.
2️⃣ پیدا کردن اختلاف نظرها
اگر اختلاف نظری هست، شاید بشه به یک سمت بحث کمک کرد! یک فرصته! جای امنی برای شروع کاره. و میتونید مطمئن باشید به کارتون توجه میشه. پس از جیپیتی بخواید «دو نگاه مخالف درباره موضوع فلان (که قبلا با کمک خودش پیدا کردید) رو بهتون بگه.» باز شاید مجبور بشید باهاش کلنجار برید. اما اگر پیدا کنید خیلی براتون خوبه.
3️⃣ پیدا کردن محدودیتهای زمینه
نواقص یا محدودیتهای فعلی یک زمینه تحقیقاتی محل خیلی خوبی برای شروع کار هستند. شاید بتونید محدودیت رو کم کنید! معمولا از مورد قبلی سختتره اما بازم میشه مطمئن بود سابیدن کشک نیست و احتمالا راه به جایی میبره. از جیپیتی بخواید بزرگترین محدودیتهای تحقیقات در موضوع مورد نظر رو بهتون بگه.
4️⃣ پیشفرضها
میتونید از جیپیتی بخواید پیشفرضهای زمینه تحقیقاتی مورد نظر رو براتون بگه. بعد براتون آزمایشهایی طراحی کنه که پیشفرضهای زمینه مورد نظر رو محک بزنه.
5️⃣ در آخر ازش بخواید پروپوزال یا حتی همون سوال نهایی که بهش رسیدید رو داوری کنه و بهبود بده.
یادمون نره، جیپیتی علامه دهر نیست، جای ما رو هم (هنوز) نگرفته، اما از اونطرف از بهترین دستیارهاییه که میتونستید داشته باشید. تعارف نکنید و در جای درست ازش کمک بگیرید.
@Physics_Daily | از نورون تا هوش
از سختترین جاهای پژوهش انتخاب موضوع و سواله. جیپیتی نمیتونه جایگزین کنجکاوی و تخصص شما بشه. اما میتونه دستیار خیلی خوبی باشه.
پنج نکته که به ذهنم رسید رو نوشتم. امیدوارم در مسیرتون به کار بیاد.
1️⃣ فضا رو بهتر ببینید.
ازش بخواید پنج سوال اصلی، یا محل بحث و اختلاف نظر، در زمینه تحقیقتون رو بهتون بگه. اگر کلی حرف زد بهش بگید نقش یک پژوهشگر خبره در زمینه مورد نظرتون رو بگیره و سوال رو تکرار کنید. باهاش کلنجار برید تا بالاخره چندتا زمینه فعال که هنوز جای کار داره بهتون معرفی کنه. معرفی که کرد ازش مقالات مهم هر بحث رو بخواید.
2️⃣ پیدا کردن اختلاف نظرها
اگر اختلاف نظری هست، شاید بشه به یک سمت بحث کمک کرد! یک فرصته! جای امنی برای شروع کاره. و میتونید مطمئن باشید به کارتون توجه میشه. پس از جیپیتی بخواید «دو نگاه مخالف درباره موضوع فلان (که قبلا با کمک خودش پیدا کردید) رو بهتون بگه.» باز شاید مجبور بشید باهاش کلنجار برید. اما اگر پیدا کنید خیلی براتون خوبه.
3️⃣ پیدا کردن محدودیتهای زمینه
نواقص یا محدودیتهای فعلی یک زمینه تحقیقاتی محل خیلی خوبی برای شروع کار هستند. شاید بتونید محدودیت رو کم کنید! معمولا از مورد قبلی سختتره اما بازم میشه مطمئن بود سابیدن کشک نیست و احتمالا راه به جایی میبره. از جیپیتی بخواید بزرگترین محدودیتهای تحقیقات در موضوع مورد نظر رو بهتون بگه.
4️⃣ پیشفرضها
میتونید از جیپیتی بخواید پیشفرضهای زمینه تحقیقاتی مورد نظر رو براتون بگه. بعد براتون آزمایشهایی طراحی کنه که پیشفرضهای زمینه مورد نظر رو محک بزنه.
5️⃣ در آخر ازش بخواید پروپوزال یا حتی همون سوال نهایی که بهش رسیدید رو داوری کنه و بهبود بده.
یادمون نره، جیپیتی علامه دهر نیست، جای ما رو هم (هنوز) نگرفته، اما از اونطرف از بهترین دستیارهاییه که میتونستید داشته باشید. تعارف نکنید و در جای درست ازش کمک بگیرید.
@Physics_Daily | از نورون تا هوش
👍22🔥9 5💔1
⚡️ هجرت هینتون
عکس هینتون ۳۱ ساله رو نشون میده--- سمت راستیه. هینتون روی شبکههای عصبی پافشاری کرد، وقتی شبکههای عصبی داشت به فحش تبدیل میشد. نه فقط در بریتانیا، جایی که زندگی میکرد. بلکه در تمام دنیا. اما رفتن به آمریکا تفاوتهای مثبتی ایجاد کرد.
🔴 گفتیم زمستان هوش مصنوعی شروع شده بود. بودجههای تحقیقاتی به شدت کم بود. مخصوصا شبکههای عصبی به دید تحقیر نگاه میشدن. «اگه شبکه عصبی میخواست کار کنه تا حالا کرده بود!» و «شبکههای عصبی که رد شدهاند،» ذهنیت غالب بود.
🟢 با این حال و در کمال تعجب هینتون تونست موقعیت پسادکتری پیدا کنه. در گروه کوچکی در جنوب کالیفرنیا.
✅️ گروه کار خودش رو «پی دی پی» معرفی میکرد که کوتاه شده پردازش موازی توزیعی بود. در اصل کارشون شبکههای عصبی بود. اسمش رو اینجوری میگفتن که کسی بهشون گیر نده.
✅️ اعضای گروه هم کامپیوتر ساینتیست نبودند--- که فکر کنم توی این کانال همه به بین رشتهای بودن دانش عادت دارند. به هرحال، یه تعداد روانشناس عضو گروه بودند و یک نوروساینتیست. حالا اون نوروساینتیست کی بود؟ فرانسیس کریک! کاشف دیانای. 🧬
✅️ هینتون دچار شوک فرهنگی میشه. در بریتانیا یک جور تکفرهنگی فکری برقرار بود. مثلا همه موافق بودند که شبکه عصبی مزخرفه. در آمریکا اینطور نبود. امکان همزیستی نظرهای مختلف وجود داشت.
بله، اینجا اجماع غلطی در آکادمیا رو میبینیم. و امثال هینتون واقعا اقلیتی بودند که درست میگفتند. اما جهت جلوگیری از سواستفاده سواستفادهگران دو نکته بگم:
1️⃣ این اجماع غلط مدت کوتاهی برقرار بود. علم خودش رو تصحیح میکنه. این بار به دست امثال هینتون انجامش داد.
2️⃣ هینتون توی فضای مجازی برحق بودنش رو اثبات نکرد. پشت قلمبه سلمبه گویی قایم نشد. الکی خودش رو به آدمهای مشهور نچسبوند و نگفت هگل یا انیشتین گفته من درست میگم. قاضیِ برحق بودن هینتون مردم غیر متخصص نبودند. هینتون مشکلش رو مستقیم با خود مینسکی و امثالهم حل کرد--- که خیلی هالیوودی هم بود و براتون مینویسم.
مخلص
@Physics_Daily | از نورون تا هوش
عکس هینتون ۳۱ ساله رو نشون میده--- سمت راستیه. هینتون روی شبکههای عصبی پافشاری کرد، وقتی شبکههای عصبی داشت به فحش تبدیل میشد. نه فقط در بریتانیا، جایی که زندگی میکرد. بلکه در تمام دنیا. اما رفتن به آمریکا تفاوتهای مثبتی ایجاد کرد.
🔴 گفتیم زمستان هوش مصنوعی شروع شده بود. بودجههای تحقیقاتی به شدت کم بود. مخصوصا شبکههای عصبی به دید تحقیر نگاه میشدن. «اگه شبکه عصبی میخواست کار کنه تا حالا کرده بود!» و «شبکههای عصبی که رد شدهاند،» ذهنیت غالب بود.
🟢 با این حال و در کمال تعجب هینتون تونست موقعیت پسادکتری پیدا کنه. در گروه کوچکی در جنوب کالیفرنیا.
✅️ گروه کار خودش رو «پی دی پی» معرفی میکرد که کوتاه شده پردازش موازی توزیعی بود. در اصل کارشون شبکههای عصبی بود. اسمش رو اینجوری میگفتن که کسی بهشون گیر نده.
✅️ اعضای گروه هم کامپیوتر ساینتیست نبودند--- که فکر کنم توی این کانال همه به بین رشتهای بودن دانش عادت دارند. به هرحال، یه تعداد روانشناس عضو گروه بودند و یک نوروساینتیست. حالا اون نوروساینتیست کی بود؟ فرانسیس کریک! کاشف دیانای. 🧬
✅️ هینتون دچار شوک فرهنگی میشه. در بریتانیا یک جور تکفرهنگی فکری برقرار بود. مثلا همه موافق بودند که شبکه عصبی مزخرفه. در آمریکا اینطور نبود. امکان همزیستی نظرهای مختلف وجود داشت.
بله، اینجا اجماع غلطی در آکادمیا رو میبینیم. و امثال هینتون واقعا اقلیتی بودند که درست میگفتند. اما جهت جلوگیری از سواستفاده سواستفادهگران دو نکته بگم:
1️⃣ این اجماع غلط مدت کوتاهی برقرار بود. علم خودش رو تصحیح میکنه. این بار به دست امثال هینتون انجامش داد.
2️⃣ هینتون توی فضای مجازی برحق بودنش رو اثبات نکرد. پشت قلمبه سلمبه گویی قایم نشد. الکی خودش رو به آدمهای مشهور نچسبوند و نگفت هگل یا انیشتین گفته من درست میگم. قاضیِ برحق بودن هینتون مردم غیر متخصص نبودند. هینتون مشکلش رو مستقیم با خود مینسکی و امثالهم حل کرد--- که خیلی هالیوودی هم بود و براتون مینویسم.
مخلص
@Physics_Daily | از نورون تا هوش
👍12 8🔥2🤯1
⚡️ نیک باسترام از سه نوع اَبَرهوش صحبت میکنه. هر کدوم رو مفصل بحث خواهم کرد. اما قبلش حدس بزنید. کدوم قویتره؟ ابرهوشِ ...
Anonymous Poll
9%
سرعتی: میتواند هرکاری انسان میکند را انجام بدهد اما بارها سریعتر
59%
تجمعی: متشکل از تعداد بسیار بسیار زیادی سیستم هوشمند که به موازات عمل میکنند
32%
کیفی: میتواند همسرعت انسان عمل کند اما از لحاظ کیفی بارها باهوشتر است
فعلا این درس زندگی رو داشته باشید. هرچند زیاد نورونی نیست. 😉
👍26 8 6😁2😐2💯1
🧠 اَبَرهوش سرعتی: نوع اول ابرهوش در کتاب نیک باسترام
این کتاب یه کلاسیک محسوب میشه. البته که عمومیه، اما اطلاعات زیادی داخلش هست. سال ۲۰۱۴ نوشته شده، بنابرین میشه گزارههای کتاب رو با رویدادهای این ده سال مقایسه کرد.
ابرهوش چیه؟ نیک باسترام میگه ابرهوش یه هوشیه که به طرز چشمگیری بهترین توانمندی ذهن انسان رو مغلوب کنه، در بسیاری زمینههای شناختی.
در این کتاب سه نوع ابرهوش رو از هم تفکیک میکنه:
۱. سرعتی
۲. تجمعی
۳. کیفی
اینجا براتون درباره سرعتی میگم.
🟢 نکات کتاب درباره ابرهوش سرعتی:
✅️ ابرهوش سرعتی قادر است هر کاری انسان انجام میدهد را انجام بدهد، اما بسیار بسیار سریعتر.
✅️ برای تفهیم، به یک شبیهسازی کامپیوتری مغز انسان فکر کنید. این شبیهسازی به قدر نیاز کامل است و تمام عملکردهای مغز را پیاده سازی میکند. اما سختافزار آن بارها و بارها سریعتر از بستر زیستیست.
✅️ چنین سیستمی، اگر مثلا دههزار برابر مغز انسان سریع باشد میتواند یک کتاب را در چند ثانیه بخواند و یک تز دکتری را در یک بعد از ظهر بنویسد.
✅️ اگر یک میلیون برابر سریع باشد، میتواند دههها کار را در یک روز انجام بدهد.
✅️ برای چنین ذهن سریعی، رویدادها در حالت slow motion یا کند تجربه میشوند. اگر ذهن شما ده هزار برابر سریع بود، رویدادی مثل افتادن فنجان چای بر قالی را در مدت زمان چندین ساعت تجربه میکردید.
✅️ کتاب استدلال میکند، حوصله ابرهوشی با چنین ادراک زمانی در دنیای ما سر خواهد رفت. محال است آنها ساعتها بنشینند و نگاهمان کنند تا یک جمله بهشان بگوییم. بنابرین احتمالا منزوی شده و جامعه خودشان را شکل میدهند.
🔴 یادداشت من بر این تعریف:
✅️ به طور کلی موافقم که هوشی با توان ذهنی مساوی انسان اما سرعت بسیار بسیار زیادتر میتواند ابرهوش نامیده بشود.
اما دو نقد به نوشته باسترام دارم.
1️⃣ ما پردازش ناخوداگاه هم داریم. منظورم روانکاوی نیست! همین الان شما بخش بزرگی از پردازش مغزتان را تجربه نمیکنید--- در ظرف آگاهی شما نمیآید. شما معنی جملات مرا میفهمید (و آگاهانه تجربه میکنید)، بدون آنکه از پردازش لایه لایه نورون های مغزتان که از پرتوهای نور روی مانیتور به کلمات رسیده و بعد آنها را سر هم بسته و جملات با معنی در سرتان ساختهاند خبر داشته باشید. به همین منوال، نیازی نیست تصور کنیم که ابرهوش تمام پردازشها را تجربه کرده و بنابرین حوصله اش سر برود. تمام این پردازشها می تواند در ناخوداگاه او صورت بگیرد و تنها بخشی از اینها وارد ظرف آگاهی بشود که حوصلهاش را سر نمیبرد.
2️⃣ محاسبات مجانی نیست. دستکاری بیتهای اطلاعات هزینه انرژی دارد. همینطور اعمال عملیات منطقی. بنابرین باید قیود فیزیکی را در نظر گرفت. دنیای فیزیکی اجازه هر ابرهوشی با هر سرعت محاسبهای را نمیدهد.
@Physics_Daily | از نورون تا هوش
این کتاب یه کلاسیک محسوب میشه. البته که عمومیه، اما اطلاعات زیادی داخلش هست. سال ۲۰۱۴ نوشته شده، بنابرین میشه گزارههای کتاب رو با رویدادهای این ده سال مقایسه کرد.
ابرهوش چیه؟ نیک باسترام میگه ابرهوش یه هوشیه که به طرز چشمگیری بهترین توانمندی ذهن انسان رو مغلوب کنه، در بسیاری زمینههای شناختی.
در این کتاب سه نوع ابرهوش رو از هم تفکیک میکنه:
۱. سرعتی
۲. تجمعی
۳. کیفی
اینجا براتون درباره سرعتی میگم.
🟢 نکات کتاب درباره ابرهوش سرعتی:
✅️ ابرهوش سرعتی قادر است هر کاری انسان انجام میدهد را انجام بدهد، اما بسیار بسیار سریعتر.
✅️ برای تفهیم، به یک شبیهسازی کامپیوتری مغز انسان فکر کنید. این شبیهسازی به قدر نیاز کامل است و تمام عملکردهای مغز را پیاده سازی میکند. اما سختافزار آن بارها و بارها سریعتر از بستر زیستیست.
✅️ چنین سیستمی، اگر مثلا دههزار برابر مغز انسان سریع باشد میتواند یک کتاب را در چند ثانیه بخواند و یک تز دکتری را در یک بعد از ظهر بنویسد.
✅️ اگر یک میلیون برابر سریع باشد، میتواند دههها کار را در یک روز انجام بدهد.
✅️ برای چنین ذهن سریعی، رویدادها در حالت slow motion یا کند تجربه میشوند. اگر ذهن شما ده هزار برابر سریع بود، رویدادی مثل افتادن فنجان چای بر قالی را در مدت زمان چندین ساعت تجربه میکردید.
✅️ کتاب استدلال میکند، حوصله ابرهوشی با چنین ادراک زمانی در دنیای ما سر خواهد رفت. محال است آنها ساعتها بنشینند و نگاهمان کنند تا یک جمله بهشان بگوییم. بنابرین احتمالا منزوی شده و جامعه خودشان را شکل میدهند.
🔴 یادداشت من بر این تعریف:
✅️ به طور کلی موافقم که هوشی با توان ذهنی مساوی انسان اما سرعت بسیار بسیار زیادتر میتواند ابرهوش نامیده بشود.
اما دو نقد به نوشته باسترام دارم.
1️⃣ ما پردازش ناخوداگاه هم داریم. منظورم روانکاوی نیست! همین الان شما بخش بزرگی از پردازش مغزتان را تجربه نمیکنید--- در ظرف آگاهی شما نمیآید. شما معنی جملات مرا میفهمید (و آگاهانه تجربه میکنید)، بدون آنکه از پردازش لایه لایه نورون های مغزتان که از پرتوهای نور روی مانیتور به کلمات رسیده و بعد آنها را سر هم بسته و جملات با معنی در سرتان ساختهاند خبر داشته باشید. به همین منوال، نیازی نیست تصور کنیم که ابرهوش تمام پردازشها را تجربه کرده و بنابرین حوصله اش سر برود. تمام این پردازشها می تواند در ناخوداگاه او صورت بگیرد و تنها بخشی از اینها وارد ظرف آگاهی بشود که حوصلهاش را سر نمیبرد.
2️⃣ محاسبات مجانی نیست. دستکاری بیتهای اطلاعات هزینه انرژی دارد. همینطور اعمال عملیات منطقی. بنابرین باید قیود فیزیکی را در نظر گرفت. دنیای فیزیکی اجازه هر ابرهوشی با هر سرعت محاسبهای را نمیدهد.
@Physics_Daily | از نورون تا هوش
👍13 12🙏3🔥1 1