از نورون تا هوش ◇---< – Telegram
از نورون تا هوش ◇---<
4.22K subscribers
106 photos
9 videos
3 files
80 links
هوش مصنوعی + هوش طبیعی
کاربردها و تاریخ و مفاهیم

جواب سوال‌‌های شما در ناشناس رو اینجا می‌دم:
@physics_daily_QandA

من:
آرشام غواصیه، پژوهشگر پسادکتری ایندیانا

آرشیو مطالب کانال قبلی:
@physics_daily_archive
Download Telegram
یادگیری با چت جی‌پی‌تی--- ۱۰ باید و نباید

🤷🏻‍♂️ خواهی نخواهی هوش مصنوعی بخشی از یادگیری همه ما شده. فرار کردن ازش به نفعتون نیست. اما باید حواستون باشه. خیلی‌ها زیادی روی جی‌پی‌تی حساب می‌کنند و خیلی‌ها دست کمش می‌گیرند.

اینجا ده موردی که به ذهنم رسید لیست کردم. امیدوارم کمکتون کنه.


✅️ بایدها (یا بهتر است‌ها):

1️⃣ پیش‌زمینه بدید. هرچقدر بیشتر روشن کنید در چه زمینه‌ای می‌خواید یاد بگیرید، کمتر جواب‌های کلی همه‌پسند می‌گیرید.

2️⃣ قدم به قدم بپرسید. مثلا به جای "هینتون کی بود؟" ازش بخواید مفصل توضیح بده: هینتون در چه جوی به دنیا اومد؟ --> خونواده‌ش چجوری بود؟ --> چی خوند؟ --> چه شخصیتی داشت؟ --> دستاورد اولش چی بود؟ و...

3️⃣ حتما چک کنید! هوش مصنوعی می‌تونه چرند بگه. هذیان بگه. بسیار اشتباه می‌کنه. حتما ازش رفرنس بخواید. و بررسی کنید.

4️⃣ فعالانه یاد بگیرید. می‌دونستید جی‌پی‌تی این امکان رو بهتون می‌ده که خودتون رو بسنجید؟ بهش بگید ازتون کوییز بگیره.

5️⃣ برگردید و سوالاتتون رو دقیق‌تر بپرسید. حالا که اطلاعات کسب کردید می‌تونید از اول شروع کنید و همون سوالات رو دقیق‌تر بپرسید که ابهامات برطرف بشه.


❌️ نبایدها (یا کارهایی که بهتره نکنید):

6️⃣ همینطوری کپی نکنید. پاسخ‌های جی‌پی‌تی و کلا هوش مصنوعی می‌تونند کاملا غلط باشند. کم هم‌ پیش نمیاد.

7️⃣ از پرسیدن چرا غافل نشید. بدترین استفاده اینه که عقلتون رو بسپارید بهش. پس نخواید که جی‌پی‌تی صرفا جواب نهایی رو بهتون بده. ازش بپرسید چرا این جواب! باید قانع‌تون کنه.

8️⃣ گول ظاهرش رو نخورید. می‌تونه کلمات درشت استفاده کنه. می‌تونه با لفاظی خیلی فهیم به نظر برسه. ما ایرانی‌ها زیاد از این سوراخ گزیده شدیم. دنبال جان کلامش باشید نه شکلش.

9️⃣ دنبال آسون شدن بیش از حد نباشید. یادگیری هنوز قراره سختی داشته باشه. یادگیری همچنان یک نوع تحول درونیه. بگذارید کمک‌تون کنه اما قرار نیست مغزتون رو بازنشسته کنه.

0️⃣1️⃣ ارزش محتوای انسانی فراموش نشه. فکر نکنید می‌تونید از زیر مطالعه کتاب و مقاله در برید. قابل قیاس نیستند. فرض کنید دستیار یا معلم خصوصی دارید. داشتنش نیازتون به مطالعه رو برطرف نمی‌کنه.

این محتوا رو برای دوستانتون هم بفرستید.
@physics_daily | از نورون تا هوش
👍4722💯5🔥3🤔2
🧠 خیلی‌ها نمی‌دونند.

مدل‌های امروزی هوش مصنوعی مثل جی‌پی‌تی با خودِ کلمات کار نمی‌کنند. اون‌ها با اعداد سر و کار دارند.

هر کلمه بر اساس قواعدی تبدیل به برداری در فضایی بسیار بزرگ می‌شه. به این عمل «اِمبِدینگ»، «کاشتن» یا «جاسازی» گفته می‌شه.

کلمات با معنای شبیه به هم در این فضا نزدیک به هم قرار می‌گیرند.

حتی بیشتر! روابطی مثل:
ملکه = زن + مرد - پادشاه

به صورت تقریبی برقرار می‌شه.

درواقع شگفتی و جذابیتش اینجاست: معنا در روابط هندسی (مثل همین تفریق و جمع بالا) ظهور پیدا می‌کنه.

یه مقاله که شاید بخواید بخونید.

@physics_daily | از نورون تا هوش
18👍8💯6🤯4🔥3🙏22
یه اشتباه "احمقانه" من هفته‌ها تحقیق رو خراب کرد.

🦧 مربوط می‌شه به اون اوایل راه که بودم.

من داشتم با اکسپوننشال یک ماتریس مثل ماتریس اکسپوننشال‌ها برخورد می‌کردم. بچه‌های ریاضی می‌دونند چقدر آفسایده. هفته‌ها کارم رو خراب کرد. آخرش استاد راهنمام غلطم رو گرفت و شدیدا شرمنده شدم. 🥲

به عقب که نگاه می‌کنم، جور دیگه‌ای می‌بینم. هر ساینتیستی با گاف دادن شروع می‌کنه. طبیعیه، و دقت و محافظه‌کاریت رو بالا می‌بره. 🔍

پس اگه درباره خطایی دچار شرم هستید، یا بدتر، ترس از خطا کردن متوقف‌تون کرده، بدونید این چیزا فقط بخشی از یک فرآیند زیباست. 🌱

تنها نیستید. آخر دنیا هم نیست.

تازه من اون اوایل یه گاف خیلی خیلی بدتر دادم که شاید بهتون بگم. 😁

@physics_daily | از نورون تا هوش
27👍195😁4😎1
18🤔1
⚡️ راز موفقیت جی‌پی‌تی: توجه کردن

براتون سواله جی‌پی‌تی چطور موفق شد؟ جواب جادو نیست. بلکه جواب در یک مقاله سال ۲۰۱۷ آمده به اسم: تمام آنچه نیاز دارید توجه است.

به زبان ساده براتون نوشتم.

🔴 پیش از توجه، مدل‌های قدیمی‌تر مثل RNN ها و LSTM ها با مشکل فراموشی طرف بودند. این جمله را تصور کنید: "مقاله‌ای که دانشجویی که استاد او را دوست داشت نوشته بود به چاپ رسید."
زمانی که هوش مصنوعی به کلمه "چاپ" می‌رسید فراموش کرده بود "چه کسی" چاپ کرده!

✅️ توجه داستان را عوض کرد. به جای دنبال کردن جمله مثل یک توالی از کلمات، مکانیسم توجه به کل جمله نگاه می‌کند و می‌پرسد: "هر کلمه به کدام کلمات دیگر مربوط است؟"

مثلا در جمله: "من صبحانه خوردم، دعوای گنجشک‌ها را تماشا کردم و رفتم سر کار."
مکانیسم توجه ارتباط قوی بین من و صبحانه خوردن و سر کار رفتن برقرار می‌کند و دعوا کردن را به جای من به گنجشک‌ها وصل می‌کند.

✅️ نمایی از دستور کار که نیازی نیست کامل درک کنید اما برای ایجاد تصویر ذهنی می‌نویسم:

1️⃣ کلمه‌ها کاشته یا، در بیان دیگر، تبدیل به اعداد می‌شوند (اینجا توضیح دادم).

2️⃣ مکانیسم توجه ارتباط بین کلمات کاشته شده را حدس می‌زند.

3️⃣ شبکه‌ای ساخته می‌شود. اعضای آن کلمات هستند. اتصالات مربوط بودن آن‌ها به یکدیگر را نشان می‌دهد.

4️⃣ هر کلمه اطلاعاتی از همسایه‌هایش دریافت می‌کند و کمی در فضای اعداد جابجا می‌شود (اصطلاحا غنی می‌شود).


✅️ به جمله مشهور "گربه روی زیرانداز نشست چون خسته بود" فکر کنید. مکانیسم توجه به هوش مصنوعی کمک می‌کند تا خسته بودن را به گربه نسبت بدهد و نه زیرانداز! حتی اگر جمله ده‌ها کلمه دیگر هم بین گربه و خستگی می‌گذاشت، مکانیسم توجه ارتباط گربه و خستگی را حفظ می‌کرد.

مکانیسم توجه مرز تکنولوژی رو جابجا کرد. اگر دقت کنید به لحاظ فنی (مثلا ریاضیاتی) چیز عجیب غریبی نبود. بیشتر یک نگاه تازه بود:

به جای به خاطر سپردن همه چیز در توالی که دارند، بگذاریم هر کلمه به کلماتی توجه کند که برایش مهم هستند.


اینم راز جی‌پی‌تی. خیلی‌ها نمی‌دونند. براشون بفرستید.

@Physics_Daily | از نورون تا هوش
18👍11🙏4🔥2🤯1
هینتون، جوان گیج شکست‌خورده، یا پدرخوانده یادگیری عمیق؟

در ادامه تاریخ هوش مصنوعی، به جفری هینتون می‌رسیم. مردی که امروزه ازش اسطوره ساخته می‌شه. اما داستانش رو کمتر کسی می‌دونه. هینتون از کجا شروع کرد؟ براتون می‌گم.

1️⃣ خونواده‌ش پر از آدم تحصیل‌کرده بود. طبیعتا خودش هم رفت سراغ دانشگاه. می‌خواست مغز رو مطالعه کنه. 🧠

2️⃣ فهمید دانشمندان سر از بخش‌هایی از مغز در می‌آورند. اما نه به قدر کافی. نه آنقدر که توضیح بدهد کنار هم گذاشتن این بخش‌ها چطور دیدن، شنیدن، به یاد آوردن، یادگیری و تفکر را می‌سازد‌. 🦧

3️⃣ هینتون سعی کرد فیزیولوژی، فلسفه، شیمی، فیزیک و روانشناسی بخونه. فیزیک رو جدی شروع کرد ولی دید مهارت ریاضیاتی لازم رو نداره. انصراف داد و رفت روانشناسی آزمایشگاهی، و بعدش از ادامه تحصیل انصراف داد. 🥲

4️⃣ بعد رفت مدیتیشن ثروت کرد و با قانون جذب موفق شد. مسلما نه! هینتون رفت نجار شد که مخارج زندگی رو تامین کنه. 🪚

5️⃣ همون سال کتاب "سازمان رفتار" از دانلد هِب رو خوند. این کتاب رو براتون گذاشتم و درباره‌ش گفتم.

6️⃣ با بهتر فهمیدن کار هِب و رزنبلات سر ذوق اومد. شنبه‌ها که تعطیل بود می‌رفت کتابخونه و دفتر و خودکار می‌برد. برای خودش می‌نوشت! نظریه می‌ساخت که مغز چطوری کار می‌کنه! 🔥

7️⃣ هینتون هم مثل رزنبلات بود. هوش مصنوعی در نگاهش وسیله‌ای برای آزمون کردن نظریه‌هایی درباره مغز بود. ولی طرفدارهای امروزی هینتون توی کامنت‌های اینستاگرام ناراحت می‌شن بشنون. 🤭

8️⃣ یکباره پروگرامی در دانشگاه ادینبرگ پیدا کرد. عنوان پروگرام هوش مصنوعی بود! این بار دیگه باید انجامش می‌داد. پس با هر زحمتی بود پذیرش گرفت.

9️⃣ استاد راهنماش یه روز قبل از اونکه هینتون بره دانشگاه نظرش عوض شد. اون کتاب مینسکی رو خونده بود (لینک کتاب و لینک توضیحاتم در موردش). و از شبکه‌های عصبی ناامید شده بود. اینطور شد که هینتون بدجوری تنها موند.

0️⃣1️⃣ "شبکه‌های عصبی که رد شده‌اند!" کسانی که کتاب مینسکی رو خونده بودند عین طوطی تکرار می‌کردند. عین همین اتفاق رو در اینستای خودمون می‌بینید. اسمش رو می‌گذارم "نقد سیاه" و توضیح خواهم داد چیه.

هینتون می‌دونست که مینسکی، علی‌رغم نکات درستی که گفته، کاریکاتوری از کار رزنبلات رو نقد کرده. اما فایده‌ای نداشت. چون این جمعیت نفهمیده پذیرفته بود. هفته‌ای یک بار استاد راهنماش رو می‌دید و هر از گاهی هم داد و بیداد می‌کردند. اما حداقل داشت روی علاقه‌ش کار می‌کرد. بالاخره.


ادامه داستان هینتون و برخورد مستقیمش با مینسکی رو خواهم نوشت. امیدوارم دیدن فراز و فرود و شکست و پیروزی این چهره‌ها به شما انگیزه انجام بزرگترین کارها رو بده. 😉

@Physics_Daily | از نورون تا هوش
👍2416😎3🔥2🤩1
ترق تروق، از صدای سوختن چوب تا محاسبات نورون‌ها

زاپری کتاب خودش به نام «نویز ترق تروقی» یا crackling noise که سال ۲۰۲۲ چاپ شده رو اینطور شروع می‌کنه:

گستره عظیمی از پدیده‌های معمولی فیزیکی سر و صدایی ایجاد می‌کنند که در دسته «ترق تروق» قرار می‌گیرد، به معنای سر و صداهای بزرگ ناگهانی در میان بازه‌های ساکت‌تر. برای مثال به صدای سوختن چوب فکر کنید، یا صدای باز شدن زرورق یک آبنبات، یا صدای پاره شدن کاغذ. مشابه این ترق تروق‌ها را از ترکیدن حباب‌ها می شنوید، اگر با دقت به لیوان شامپاین گوش کنید، یا به غلات (برشتوک) وقتی رویش شیر می‌ریزید.

...

یک نکته مهم این است که ترق تروق‌ها از فرایند فیزیکی ناشی می‌شوند که به آن «بهمن» می‌گوییم. همانطور که از اسمش پیداست، بهمن یک فعالیت ناگهانی جمعی است که در فضا و زمان به طور علی به هم مربوط است. یک مثال رایج آن بهمن برفی است: در اثر رانه‌های آهسته، مثل تغییرات دما، یا محرک‌های مکانیکی، یک تکه برف می‌تواند از جایش کنده شود، در دامنه کوه بلغزد و سقوط کند. [...]

فهم مکانیسم فیزیکی پخش بهمن‌ها تنها برای زمین‌شناسان جالب نیست، چراکه این رفتار در بسیاری سیستم‌های فیزیکی دیگر هم رخ می‌دهد. حقیقتا در این کتاب خیلی جزیی به پدیده‌های زمین‌شناسانه مثل بهمن‌های برفی، حرکت صفحات زمین، زمین‌لرزه‌ها و ... خواهیم پرداخت و بیشتر بر مثال‌های ماده چگال متمرکز خواهیم بود.
به مرور به شما نشان می‌دهم، این ترق تروق‌ها چقدر برای مغز شما و عملکرد آن اهمیت دارد.

@Physics_Daily | از نورون تا هوش
15👍9🔥3🤯2
ایرادات املایی و نگارشی من رو ببخشید. هیچکدام از نوشته‌های این کانال رو هوش مصنوعی نمی‌نویسه. ویراستاری هم ندارم. خودم هم آدم چندان دقیقی در قواعد نوشتن نیستم. 🙏
39👍14🙏75💯3
داریم یه کار بزرگ می‌کنیم.

یه پادکست در نظر بگیرید که می‌تونید توی اوقات فراغت گوش کنید.

دو تا پژوهشگر پسادکتری میزبانش هستند. به زبان ساده جذاب‌ترین مقالات کلاسیک هوش مصنوعی و طبیعی رو براتون توضیح می‌دن.

زحمت زیاد داره. اما مطمئنم اثر خودش رو خواهد گذاشت.
🔥5920👍15🙏73💔1
🧠 نورون‌ها منطق را پیاده‌سازی می‌کنند


مگه می‌شه؟ مغز فقط با چهار تا نورون این همه شگفتی خلق کنه؟ قبلا درباره کار مهم مک‌کالک و پیتز باهاتون حرف زدم (توضیحات و مقاله مهم‌شون).

اینجا چندتا دروازه منطقی نورونی بهتون نشون می‌دم. بعد یه تمرین بهتون می‌دم که فکر کنید ببینید می‌تونید ایراد اصلی که مینسکی به پرسپترون وارد کرد رو متوجه بشید؟

☑️ گفتیم چیزی به اسم «دروازه‌های منطقی» داریم. این دروازه‌های منطقی رو می‌شه مثل لگو (آجر اسباب‌بازی) کنار هم چید. اگر تمام دروازه‌های منطقی رو داشته باشید، با کنار هم چیدنشون می‌تونید تمام محاسبات رو انجام بدید.

☑️ در یک نگاه می شه نورون‌ها رو واحدهای محاسباتی کوچک دانست. با سیم‌کشی درست و تنظیم آستانه آتش کردن، نورون‌ها می‌توانند تمام دروازه‌های منطقی را بسازند.

☑️ بیایید نورون رو اینجوری ببینیم:

۱. هر نورون ورودی‌هایی دریافت می‌کنه. مثلا یه ورودی. دوتا ورودی. یا ده‌تا. یا اصلا هیچی. این ورودی‌ها معمولا از نورون‌های همسایه‌ای میاد که همین اخیرا آتش کرده‌اند و سیگنال فرستاده‌اند.

۲. هر ورودی در وزن خودش ضرب می‌شه. چرا؟ چون اتصال بعضی نورون‌های همسایه قوی‌تره. بنابرین سیگنالشون در عدد بزرگتری ضرب می‌شه. همینطور اتصالات کوچکتر باعث کوچک شدن سیگنال ورودی می‌شن.

۳. همه سیگنال‌های ورودی بعد از ضرب شدن در وزن اتصال جمع می‌شن و ورودی کلی نورون رو می سازند.

۴. یک آستانه وجود داره. این آستانه یه عدده. می‌تونه برای هر نورون متفاوت باشه. اگر ورودی کلی از آستانه بزرگتر باشه، نورون ما روشن می‌شه و آتش می‌کنه--- و به همسایه‌هاش سیگنال می‌ده.

🟢 پس: ورودی -> جمع وزنی -> آستانه -> خروجی


حالا بریم دوتا دروازه منطقی بسازیم:

1️⃣ AND دروازه
دو تا نورون همسایه داریم.
وزن اتصالشون یک هست.
آستانه دو هست.
نورون آتش می‌کند فقط در صورتی که هردو همسایه آتش کنند و هر دو ورودی بهش برسند و ورودی کلی بشه دو--- مساوی آستانه.
میشه این حالت:
۱ × ۱ + ۱ × ۱ = ۲

2️⃣ OR دروازه
دوباره دوتا نورون همسایه داریم.
دوباره وزن اتصال یک هست.
این بار آستانه یک هست.
ورودی کلی اگر بزرگتر مساوی یک (آستانه) باشه نورون آتش می‌کند.
میشه این سه حالت:
۱ × ۰ + ۱ × ۱ = ۱
۱ × ۱ + ۱ × ۰ = ۱
۱ × ۱ + ۱ × ۱ = ۲
در بیان دیگر، اگر این یا آن نورون همسایه آتش کند نورون ما آتش می‌کند.

🟢 قاعده کلی: با تغییرات وزن و آستانه می‌شه با یک نورون (که از همسایه‌هاش سیگنال می گیره) دروازه‌های منطقی بسیاری
ساخت.

🔴 اما سوال. آیا می‌شه با یک نورون دروازه منطقی XOR رو ساخت؟
دقت کنید، این دروازه منطقی باید اینجوری کار کنه: نورون ما روشن میشه اگر فقط و فقط یکی از همسایه‌هاش روشن بشن. (اگر هردو روشن یا هردو خاموش باشند نورون باید خاموش بمونه)

@Physics_Daily | از نورون تا هوش
10👍4🔥3🙏1
می‌تونید هر روز برای چند دقیقه به این حقیقت فکر کنید که شما فقط شمای این لحظه نیستید. بلکه انسان علاوه بر یک حجم فضایی، یک گستره زمانی رو هم اشغال می‌کنه.

شمای فردا، هفته دیگه، ماه دیگه، سال دیگه و دهه‌های بعد درگستره زمانی موجوده و زندگیش متاثر از تصمیمات این لحظه‌ست. احتمالا ترجیح می‌ده خواست اون هم لحاظ بشه. 😉

@Physics_Daily | از نورون تا هوش
👍2414🤩4🤔2🔥1
⚡️ چطور با جی‌پی‌تی موضوع پژوهش یا پایان‌نامه انتخاب کنم؟

از سخت‌ترین جاهای پژوهش انتخاب موضوع و سواله. جی‌پی‌تی نمی‌تونه جایگزین کنجکاوی و تخصص شما بشه. اما می‌تونه دستیار خیلی خوبی باشه.

پنج نکته که به ذهنم رسید رو نوشتم. امیدوارم در مسیرتون به کار بیاد.

1️⃣ فضا رو بهتر ببینید.
ازش بخواید پنج سوال اصلی، یا محل بحث و اختلاف نظر، در زمینه تحقیقتون رو بهتون بگه. اگر کلی حرف زد بهش بگید نقش یک پژوهشگر خبره در زمینه مورد نظرتون رو بگیره و سوال رو تکرار کنید. باهاش کلنجار برید تا بالاخره چندتا زمینه فعال که هنوز جای کار داره بهتون معرفی کنه. معرفی که کرد ازش مقالات مهم هر بحث رو بخواید.

2️⃣ پیدا کردن اختلاف نظرها
اگر اختلاف نظری هست، شاید بشه به یک سمت بحث کمک کرد! یک فرصته! جای امنی برای شروع کاره. و می‌تونید مطمئن باشید به کارتون توجه می‌شه. پس از جی‌پی‌تی بخواید «دو نگاه مخالف درباره موضوع فلان (که قبلا با کمک خودش پیدا کردید) رو بهتون بگه.» باز شاید مجبور بشید باهاش کلنجار برید. اما اگر پیدا کنید خیلی براتون خوبه.

3️⃣ پیدا کردن محدودیت‌های زمینه
نواقص یا محدودیت‌های فعلی یک زمینه تحقیقاتی محل خیلی خوبی برای شروع کار هستند. شاید بتونید محدودیت رو کم کنید! معمولا از مورد قبلی سخت‌تره اما بازم می‌شه مطمئن بود سابیدن کشک نیست و احتمالا راه به جایی می‌بره. از جی‌پی‌تی بخواید بزرگترین محدودیت‌های تحقیقات در موضوع مورد نظر رو بهتون بگه.

4️⃣ پیش‌فرض‌ها
می‌تونید از جی‌پی‌تی بخواید پیش‌فرض‌های زمینه تحقیقاتی مورد نظر رو براتون بگه. بعد براتون آزمایش‌هایی طراحی کنه که پیش‌فرض‌های زمینه مورد نظر رو محک بزنه.

5️⃣ در آخر ازش بخواید پروپوزال یا حتی همون سوال نهایی که بهش رسیدید رو داوری کنه و بهبود بده.


یادمون نره، جی‌پی‌تی علامه دهر نیست، جای ما رو هم (هنوز) نگرفته، اما از اونطرف از بهترین دستیارهاییه که می‌تونستید داشته باشید. تعارف نکنید و در جای درست ازش کمک بگیرید.

@Physics_Daily | از نورون تا هوش
👍22🔥95💔1
سفارش‌هام رسید 😎
41🔥118👍5🤩2💋1
⚡️ هجرت هینتون

عکس هینتون ۳۱ ساله رو نشون می‌ده--- سمت راستیه. هینتون روی شبکه‌های عصبی پافشاری کرد، وقتی شبکه‌های عصبی داشت به فحش تبدیل می‌شد. نه فقط در بریتانیا، جایی که زندگی می‌کرد. بلکه در تمام دنیا. اما رفتن به آمریکا تفاوت‌های مثبتی ایجاد کرد.

🔴 گفتیم زمستان هوش مصنوعی شروع شده بود. بودجه‌های تحقیقاتی به شدت کم بود. مخصوصا شبکه‌های عصبی به دید تحقیر نگاه می‌شدن. «اگه شبکه عصبی می‌خواست کار کنه تا حالا کرده بود!» و «شبکه‌های عصبی که رد شده‌اند،» ذهنیت غالب بود.

🟢 با این‌ حال و در کمال تعجب هینتون تونست موقعیت پسادکتری پیدا کنه. در گروه کوچکی در جنوب کالیفرنیا.

✅️ گروه کار خودش رو «پی دی پی» معرفی می‌کرد که کوتاه شده پردازش موازی توزیعی بود. در اصل کارشون شبکه‌های عصبی بود. اسمش رو اینجوری می‌گفتن که کسی بهشون گیر نده.

✅️ اعضای گروه هم کامپیوتر ساینتیست نبودند--- که فکر کنم توی این کانال همه به بین رشته‌ای بودن دانش عادت دارند. به هرحال، یه تعداد روانشناس عضو گروه بودند و یک نوروساینتیست. حالا اون نوروساینتیست کی بود؟ فرانسیس کریک! کاشف دی‌ان‌ای. 🧬

✅️ هینتون دچار شوک فرهنگی می‌شه. در بریتانیا یک جور تک‌فرهنگی فکری برقرار بود. مثلا همه موافق بودند که شبکه عصبی مزخرفه. در آمریکا اینطور نبود. امکان هم‌زیستی نظرهای مختلف وجود داشت.

بله، اینجا اجماع غلطی در آکادمیا رو می‌بینیم. و امثال هینتون واقعا اقلیتی بودند که درست می‌گفتند. اما جهت جلوگیری از سواستفاده سواستفاده‌گران دو نکته بگم:

1️⃣ این اجماع غلط مدت کوتاهی برقرار بود. علم خودش رو تصحیح می‌کنه. این بار به دست امثال هینتون انجامش داد.

2️⃣ هینتون توی فضای مجازی برحق بودنش رو اثبات نکرد. پشت قلمبه سلمبه گویی قایم نشد. الکی خودش رو به آدم‌های مشهور نچسبوند و نگفت هگل یا انیشتین گفته من درست می‌گم. قاضیِ برحق بودن هینتون مردم غیر متخصص نبودند. هینتون مشکلش رو مستقیم با خود مینسکی و امثالهم حل کرد--- که خیلی هالیوودی هم بود و براتون می‌نویسم.

مخلص

@Physics_Daily | از نورون تا هوش
👍128🔥2🤯1
فعلا این درس زندگی رو داشته باشید. هرچند زیاد نورونی نیست. 😉
👍2686😁2😐2💯1
🧠 اَبَرهوش سرعتی: نوع اول ابرهوش در کتاب نیک باسترام

این کتاب یه کلاسیک محسوب می‌شه. البته که عمومیه، اما اطلاعات زیادی داخلش هست. سال ۲۰۱۴ نوشته شده، بنابرین می‌شه گزاره‌های کتاب رو با رویدادهای این ده سال مقایسه کرد.

ابرهوش چیه؟ نیک باسترام می‌گه ابرهوش یه هوشیه که به طرز چشم‌گیری بهترین توانمندی ذهن انسان رو مغلوب کنه، در بسیاری زمینه‌های شناختی.

در این کتاب سه نوع ابرهوش رو از هم تفکیک می‌کنه:
۱. سرعتی
۲. تجمعی
۳. کیفی


اینجا براتون درباره سرعتی می‌گم.

🟢 نکات کتاب درباره ابرهوش سرعتی:

✅️ ابرهوش سرعتی قادر است هر کاری انسان انجام می‌دهد را انجام بدهد، اما بسیار بسیار سریع‌تر.

✅️ برای تفهیم، به یک شبیه‌سازی کامپیوتری مغز انسان فکر کنید. این شبیه‌سازی به قدر نیاز کامل است و تمام عملکردهای مغز را پیاده سازی می‌کند. اما سخت‌افزار آن بارها و بارها سریع‌تر از بستر زیستی‌ست.

✅️ چنین سیستمی، اگر مثلا ده‌هزار برابر مغز انسان سریع باشد می‌تواند یک کتاب را در چند ثانیه بخواند و یک تز دکتری را در یک بعد از ظهر بنویسد.

✅️ اگر یک میلیون برابر سریع باشد، می‌تواند دهه‌ها کار را در یک روز انجام بدهد.

✅️ برای چنین ذهن سریعی، رویدادها در حالت slow motion یا کند تجربه می‌شوند. اگر ذهن شما ده هزار برابر سریع بود، رویدادی مثل افتادن فنجان چای بر قالی را در مدت زمان چندین ساعت تجربه می‌کردید.

✅️ کتاب استدلال می‌کند، حوصله ابرهوشی با چنین ادراک زمانی در دنیای ما سر خواهد رفت. محال است آن‌ها ساعت‌ها بنشینند و نگاهمان کنند تا یک جمله بهشان بگوییم. بنابرین احتمالا منزوی شده و جامعه خودشان را شکل می‌دهند.


🔴 یادداشت من بر این تعریف:

✅️ به طور کلی موافقم که هوشی با توان ذهنی مساوی انسان اما سرعت بسیار بسیار زیادتر می‌تواند ابرهوش نامیده بشود.

اما دو نقد به نوشته باسترام دارم.

1️⃣ ما پردازش ناخوداگاه هم داریم. منظورم روانکاوی نیست! همین الان شما بخش بزرگی از پردازش مغزتان را تجربه نمی‌کنید--- در ظرف آگاهی شما نمی‌آید. شما معنی جملات مرا می‌فهمید (و آگاهانه تجربه می‌کنید)، بدون آنکه از پردازش لایه‌ لایه نورون های مغزتان که از پرتوهای نور روی مانیتور به کلمات رسیده و بعد آن‌ها را سر هم بسته و جملات با معنی در سرتان ساخته‌اند خبر داشته باشید. به همین منوال، نیازی نیست تصور کنیم که ابرهوش تمام پردازش‌ها را تجربه کرده و بنابرین حوصله اش سر برود. تمام این پرداز‌ش‌ها می تواند در ناخوداگاه او صورت بگیرد و تنها بخشی از این‌ها وارد ظرف آگاهی بشود که حوصله‌اش را سر نمی‌برد.

2️⃣ محاسبات مجانی نیست. دستکاری بیت‌های اطلاعات هزینه انرژی دارد. همینطور اعمال عملیات منطقی. بنابرین باید قیود فیزیکی را در نظر گرفت. دنیای فیزیکی اجازه هر ابرهوشی با هر سرعت محاسبه‌ای را نمی‌دهد.

@Physics_Daily | از نورون تا هوش
👍1312🙏3🔥11