از نورون تا هوش ◇---< – Telegram
از نورون تا هوش ◇---<
4.21K subscribers
106 photos
9 videos
3 files
80 links
هوش مصنوعی + هوش طبیعی
کاربردها و تاریخ و مفاهیم

جواب سوال‌‌های شما در ناشناس رو اینجا می‌دم:
@physics_daily_QandA

من:
آرشام غواصیه، پژوهشگر پسادکتری ایندیانا

آرشیو مطالب کانال قبلی:
@physics_daily_archive
Download Telegram
هوش مصنوعی رو تا چه اندازه خطری برای بشریت می‌دونید؟ از ۱ (بی‌خطر) تا ۵ (بیشینه خطر).
Anonymous Poll
13%
۱
19%
۲
38%
۳
18%
۴
13%
۵
⚡️ علمی-تخیلی یا آینده ترسناک هوش مصنوعی؟

می‌خوام با مساله هم‌سویی آشناتون کنم.

فرض کنید به یک اَبَر هوش مصنوعی می‌گید: بشریت رو خوشحال کن.

اون هوش مصنوعی باهوشه اما غیر هم‌سو. پس ممکنه فکر کنه بهترین راه خوشحال کردنمون مختل کردن نواحی درد و غم و غصه در مغز ما، غرق کردن ما در دراگ یا گیر انداختنمون در واقعیت‌ مجازیه.

🤷🏻‍♂️ اون سعی می‌کنه هدفی که ما بهش دادیم انجام بده. شرارت یا انگیزه پنهانی نداره. اما تهش چیزی که ما می‌خوایم در نمیاد.

🤖 چون درکش از خوشحالی با درک ما از خوشحالی متفاوته.

⚡️ حالا اگه بخواید جلوش رو بگیرید چی؟ ممکنه نابودتون کنه! به خاطر هدفش! نمی‌تونه بگذاره مخل رسوندن بشریت به "خوشحالی" بشید!

این یه مثال جهت تفهیم بود. بازم براتون مثال می‌زنم. کی عکس رو شناخت؟

@physics_daily | از نورون تا هوش
22👍16🤯3😐1
از نورون تا هوش ◇---<
هوش مصنوعی رو تا چه اندازه خطری برای بشریت می‌دونید؟ از ۱ (بی‌خطر) تا ۵ (بیشینه خطر).
🔍 رای‌های دیروزمون تعادل رو نشون می‌ده: ۳/۵

✅️ بیشتر ما نه خیلی زیاد بدبین هستیم، نه خیلی زیاد خوشبین.

نمی‌گم الزاما خوبه‌ها. می‌تونه خوب یا بد باشه‌. بستگی داره چقدر به واقعیت نزدیک باشه.

⚠️ البته اگه دقت کنید نتایج دقیقا متقارن نیست. یه تمایل (انحراف) کوچکی به سمت خطرناک بودن (اعداد بزرگتر) داره.
👍753😢1😐1
یادگیری با چت جی‌پی‌تی--- ۱۰ باید و نباید

🤷🏻‍♂️ خواهی نخواهی هوش مصنوعی بخشی از یادگیری همه ما شده. فرار کردن ازش به نفعتون نیست. اما باید حواستون باشه. خیلی‌ها زیادی روی جی‌پی‌تی حساب می‌کنند و خیلی‌ها دست کمش می‌گیرند.

اینجا ده موردی که به ذهنم رسید لیست کردم. امیدوارم کمکتون کنه.


✅️ بایدها (یا بهتر است‌ها):

1️⃣ پیش‌زمینه بدید. هرچقدر بیشتر روشن کنید در چه زمینه‌ای می‌خواید یاد بگیرید، کمتر جواب‌های کلی همه‌پسند می‌گیرید.

2️⃣ قدم به قدم بپرسید. مثلا به جای "هینتون کی بود؟" ازش بخواید مفصل توضیح بده: هینتون در چه جوی به دنیا اومد؟ --> خونواده‌ش چجوری بود؟ --> چی خوند؟ --> چه شخصیتی داشت؟ --> دستاورد اولش چی بود؟ و...

3️⃣ حتما چک کنید! هوش مصنوعی می‌تونه چرند بگه. هذیان بگه. بسیار اشتباه می‌کنه. حتما ازش رفرنس بخواید. و بررسی کنید.

4️⃣ فعالانه یاد بگیرید. می‌دونستید جی‌پی‌تی این امکان رو بهتون می‌ده که خودتون رو بسنجید؟ بهش بگید ازتون کوییز بگیره.

5️⃣ برگردید و سوالاتتون رو دقیق‌تر بپرسید. حالا که اطلاعات کسب کردید می‌تونید از اول شروع کنید و همون سوالات رو دقیق‌تر بپرسید که ابهامات برطرف بشه.


❌️ نبایدها (یا کارهایی که بهتره نکنید):

6️⃣ همینطوری کپی نکنید. پاسخ‌های جی‌پی‌تی و کلا هوش مصنوعی می‌تونند کاملا غلط باشند. کم هم‌ پیش نمیاد.

7️⃣ از پرسیدن چرا غافل نشید. بدترین استفاده اینه که عقلتون رو بسپارید بهش. پس نخواید که جی‌پی‌تی صرفا جواب نهایی رو بهتون بده. ازش بپرسید چرا این جواب! باید قانع‌تون کنه.

8️⃣ گول ظاهرش رو نخورید. می‌تونه کلمات درشت استفاده کنه. می‌تونه با لفاظی خیلی فهیم به نظر برسه. ما ایرانی‌ها زیاد از این سوراخ گزیده شدیم. دنبال جان کلامش باشید نه شکلش.

9️⃣ دنبال آسون شدن بیش از حد نباشید. یادگیری هنوز قراره سختی داشته باشه. یادگیری همچنان یک نوع تحول درونیه. بگذارید کمک‌تون کنه اما قرار نیست مغزتون رو بازنشسته کنه.

0️⃣1️⃣ ارزش محتوای انسانی فراموش نشه. فکر نکنید می‌تونید از زیر مطالعه کتاب و مقاله در برید. قابل قیاس نیستند. فرض کنید دستیار یا معلم خصوصی دارید. داشتنش نیازتون به مطالعه رو برطرف نمی‌کنه.

این محتوا رو برای دوستانتون هم بفرستید.
@physics_daily | از نورون تا هوش
👍4722💯5🔥3🤔2
🧠 خیلی‌ها نمی‌دونند.

مدل‌های امروزی هوش مصنوعی مثل جی‌پی‌تی با خودِ کلمات کار نمی‌کنند. اون‌ها با اعداد سر و کار دارند.

هر کلمه بر اساس قواعدی تبدیل به برداری در فضایی بسیار بزرگ می‌شه. به این عمل «اِمبِدینگ»، «کاشتن» یا «جاسازی» گفته می‌شه.

کلمات با معنای شبیه به هم در این فضا نزدیک به هم قرار می‌گیرند.

حتی بیشتر! روابطی مثل:
ملکه = زن + مرد - پادشاه

به صورت تقریبی برقرار می‌شه.

درواقع شگفتی و جذابیتش اینجاست: معنا در روابط هندسی (مثل همین تفریق و جمع بالا) ظهور پیدا می‌کنه.

یه مقاله که شاید بخواید بخونید.

@physics_daily | از نورون تا هوش
18👍8💯6🤯4🔥3🙏22
یه اشتباه "احمقانه" من هفته‌ها تحقیق رو خراب کرد.

🦧 مربوط می‌شه به اون اوایل راه که بودم.

من داشتم با اکسپوننشال یک ماتریس مثل ماتریس اکسپوننشال‌ها برخورد می‌کردم. بچه‌های ریاضی می‌دونند چقدر آفسایده. هفته‌ها کارم رو خراب کرد. آخرش استاد راهنمام غلطم رو گرفت و شدیدا شرمنده شدم. 🥲

به عقب که نگاه می‌کنم، جور دیگه‌ای می‌بینم. هر ساینتیستی با گاف دادن شروع می‌کنه. طبیعیه، و دقت و محافظه‌کاریت رو بالا می‌بره. 🔍

پس اگه درباره خطایی دچار شرم هستید، یا بدتر، ترس از خطا کردن متوقف‌تون کرده، بدونید این چیزا فقط بخشی از یک فرآیند زیباست. 🌱

تنها نیستید. آخر دنیا هم نیست.

تازه من اون اوایل یه گاف خیلی خیلی بدتر دادم که شاید بهتون بگم. 😁

@physics_daily | از نورون تا هوش
27👍195😁4😎1
18🤔1
⚡️ راز موفقیت جی‌پی‌تی: توجه کردن

براتون سواله جی‌پی‌تی چطور موفق شد؟ جواب جادو نیست. بلکه جواب در یک مقاله سال ۲۰۱۷ آمده به اسم: تمام آنچه نیاز دارید توجه است.

به زبان ساده براتون نوشتم.

🔴 پیش از توجه، مدل‌های قدیمی‌تر مثل RNN ها و LSTM ها با مشکل فراموشی طرف بودند. این جمله را تصور کنید: "مقاله‌ای که دانشجویی که استاد او را دوست داشت نوشته بود به چاپ رسید."
زمانی که هوش مصنوعی به کلمه "چاپ" می‌رسید فراموش کرده بود "چه کسی" چاپ کرده!

✅️ توجه داستان را عوض کرد. به جای دنبال کردن جمله مثل یک توالی از کلمات، مکانیسم توجه به کل جمله نگاه می‌کند و می‌پرسد: "هر کلمه به کدام کلمات دیگر مربوط است؟"

مثلا در جمله: "من صبحانه خوردم، دعوای گنجشک‌ها را تماشا کردم و رفتم سر کار."
مکانیسم توجه ارتباط قوی بین من و صبحانه خوردن و سر کار رفتن برقرار می‌کند و دعوا کردن را به جای من به گنجشک‌ها وصل می‌کند.

✅️ نمایی از دستور کار که نیازی نیست کامل درک کنید اما برای ایجاد تصویر ذهنی می‌نویسم:

1️⃣ کلمه‌ها کاشته یا، در بیان دیگر، تبدیل به اعداد می‌شوند (اینجا توضیح دادم).

2️⃣ مکانیسم توجه ارتباط بین کلمات کاشته شده را حدس می‌زند.

3️⃣ شبکه‌ای ساخته می‌شود. اعضای آن کلمات هستند. اتصالات مربوط بودن آن‌ها به یکدیگر را نشان می‌دهد.

4️⃣ هر کلمه اطلاعاتی از همسایه‌هایش دریافت می‌کند و کمی در فضای اعداد جابجا می‌شود (اصطلاحا غنی می‌شود).


✅️ به جمله مشهور "گربه روی زیرانداز نشست چون خسته بود" فکر کنید. مکانیسم توجه به هوش مصنوعی کمک می‌کند تا خسته بودن را به گربه نسبت بدهد و نه زیرانداز! حتی اگر جمله ده‌ها کلمه دیگر هم بین گربه و خستگی می‌گذاشت، مکانیسم توجه ارتباط گربه و خستگی را حفظ می‌کرد.

مکانیسم توجه مرز تکنولوژی رو جابجا کرد. اگر دقت کنید به لحاظ فنی (مثلا ریاضیاتی) چیز عجیب غریبی نبود. بیشتر یک نگاه تازه بود:

به جای به خاطر سپردن همه چیز در توالی که دارند، بگذاریم هر کلمه به کلماتی توجه کند که برایش مهم هستند.


اینم راز جی‌پی‌تی. خیلی‌ها نمی‌دونند. براشون بفرستید.

@Physics_Daily | از نورون تا هوش
18👍11🙏4🔥2🤯1
هینتون، جوان گیج شکست‌خورده، یا پدرخوانده یادگیری عمیق؟

در ادامه تاریخ هوش مصنوعی، به جفری هینتون می‌رسیم. مردی که امروزه ازش اسطوره ساخته می‌شه. اما داستانش رو کمتر کسی می‌دونه. هینتون از کجا شروع کرد؟ براتون می‌گم.

1️⃣ خونواده‌ش پر از آدم تحصیل‌کرده بود. طبیعتا خودش هم رفت سراغ دانشگاه. می‌خواست مغز رو مطالعه کنه. 🧠

2️⃣ فهمید دانشمندان سر از بخش‌هایی از مغز در می‌آورند. اما نه به قدر کافی. نه آنقدر که توضیح بدهد کنار هم گذاشتن این بخش‌ها چطور دیدن، شنیدن، به یاد آوردن، یادگیری و تفکر را می‌سازد‌. 🦧

3️⃣ هینتون سعی کرد فیزیولوژی، فلسفه، شیمی، فیزیک و روانشناسی بخونه. فیزیک رو جدی شروع کرد ولی دید مهارت ریاضیاتی لازم رو نداره. انصراف داد و رفت روانشناسی آزمایشگاهی، و بعدش از ادامه تحصیل انصراف داد. 🥲

4️⃣ بعد رفت مدیتیشن ثروت کرد و با قانون جذب موفق شد. مسلما نه! هینتون رفت نجار شد که مخارج زندگی رو تامین کنه. 🪚

5️⃣ همون سال کتاب "سازمان رفتار" از دانلد هِب رو خوند. این کتاب رو براتون گذاشتم و درباره‌ش گفتم.

6️⃣ با بهتر فهمیدن کار هِب و رزنبلات سر ذوق اومد. شنبه‌ها که تعطیل بود می‌رفت کتابخونه و دفتر و خودکار می‌برد. برای خودش می‌نوشت! نظریه می‌ساخت که مغز چطوری کار می‌کنه! 🔥

7️⃣ هینتون هم مثل رزنبلات بود. هوش مصنوعی در نگاهش وسیله‌ای برای آزمون کردن نظریه‌هایی درباره مغز بود. ولی طرفدارهای امروزی هینتون توی کامنت‌های اینستاگرام ناراحت می‌شن بشنون. 🤭

8️⃣ یکباره پروگرامی در دانشگاه ادینبرگ پیدا کرد. عنوان پروگرام هوش مصنوعی بود! این بار دیگه باید انجامش می‌داد. پس با هر زحمتی بود پذیرش گرفت.

9️⃣ استاد راهنماش یه روز قبل از اونکه هینتون بره دانشگاه نظرش عوض شد. اون کتاب مینسکی رو خونده بود (لینک کتاب و لینک توضیحاتم در موردش). و از شبکه‌های عصبی ناامید شده بود. اینطور شد که هینتون بدجوری تنها موند.

0️⃣1️⃣ "شبکه‌های عصبی که رد شده‌اند!" کسانی که کتاب مینسکی رو خونده بودند عین طوطی تکرار می‌کردند. عین همین اتفاق رو در اینستای خودمون می‌بینید. اسمش رو می‌گذارم "نقد سیاه" و توضیح خواهم داد چیه.

هینتون می‌دونست که مینسکی، علی‌رغم نکات درستی که گفته، کاریکاتوری از کار رزنبلات رو نقد کرده. اما فایده‌ای نداشت. چون این جمعیت نفهمیده پذیرفته بود. هفته‌ای یک بار استاد راهنماش رو می‌دید و هر از گاهی هم داد و بیداد می‌کردند. اما حداقل داشت روی علاقه‌ش کار می‌کرد. بالاخره.


ادامه داستان هینتون و برخورد مستقیمش با مینسکی رو خواهم نوشت. امیدوارم دیدن فراز و فرود و شکست و پیروزی این چهره‌ها به شما انگیزه انجام بزرگترین کارها رو بده. 😉

@Physics_Daily | از نورون تا هوش
👍2416😎3🔥2🤩1
ترق تروق، از صدای سوختن چوب تا محاسبات نورون‌ها

زاپری کتاب خودش به نام «نویز ترق تروقی» یا crackling noise که سال ۲۰۲۲ چاپ شده رو اینطور شروع می‌کنه:

گستره عظیمی از پدیده‌های معمولی فیزیکی سر و صدایی ایجاد می‌کنند که در دسته «ترق تروق» قرار می‌گیرد، به معنای سر و صداهای بزرگ ناگهانی در میان بازه‌های ساکت‌تر. برای مثال به صدای سوختن چوب فکر کنید، یا صدای باز شدن زرورق یک آبنبات، یا صدای پاره شدن کاغذ. مشابه این ترق تروق‌ها را از ترکیدن حباب‌ها می شنوید، اگر با دقت به لیوان شامپاین گوش کنید، یا به غلات (برشتوک) وقتی رویش شیر می‌ریزید.

...

یک نکته مهم این است که ترق تروق‌ها از فرایند فیزیکی ناشی می‌شوند که به آن «بهمن» می‌گوییم. همانطور که از اسمش پیداست، بهمن یک فعالیت ناگهانی جمعی است که در فضا و زمان به طور علی به هم مربوط است. یک مثال رایج آن بهمن برفی است: در اثر رانه‌های آهسته، مثل تغییرات دما، یا محرک‌های مکانیکی، یک تکه برف می‌تواند از جایش کنده شود، در دامنه کوه بلغزد و سقوط کند. [...]

فهم مکانیسم فیزیکی پخش بهمن‌ها تنها برای زمین‌شناسان جالب نیست، چراکه این رفتار در بسیاری سیستم‌های فیزیکی دیگر هم رخ می‌دهد. حقیقتا در این کتاب خیلی جزیی به پدیده‌های زمین‌شناسانه مثل بهمن‌های برفی، حرکت صفحات زمین، زمین‌لرزه‌ها و ... خواهیم پرداخت و بیشتر بر مثال‌های ماده چگال متمرکز خواهیم بود.
به مرور به شما نشان می‌دهم، این ترق تروق‌ها چقدر برای مغز شما و عملکرد آن اهمیت دارد.

@Physics_Daily | از نورون تا هوش
15👍9🔥3🤯2
ایرادات املایی و نگارشی من رو ببخشید. هیچکدام از نوشته‌های این کانال رو هوش مصنوعی نمی‌نویسه. ویراستاری هم ندارم. خودم هم آدم چندان دقیقی در قواعد نوشتن نیستم. 🙏
39👍14🙏75💯3
داریم یه کار بزرگ می‌کنیم.

یه پادکست در نظر بگیرید که می‌تونید توی اوقات فراغت گوش کنید.

دو تا پژوهشگر پسادکتری میزبانش هستند. به زبان ساده جذاب‌ترین مقالات کلاسیک هوش مصنوعی و طبیعی رو براتون توضیح می‌دن.

زحمت زیاد داره. اما مطمئنم اثر خودش رو خواهد گذاشت.
🔥5920👍15🙏73💔1
🧠 نورون‌ها منطق را پیاده‌سازی می‌کنند


مگه می‌شه؟ مغز فقط با چهار تا نورون این همه شگفتی خلق کنه؟ قبلا درباره کار مهم مک‌کالک و پیتز باهاتون حرف زدم (توضیحات و مقاله مهم‌شون).

اینجا چندتا دروازه منطقی نورونی بهتون نشون می‌دم. بعد یه تمرین بهتون می‌دم که فکر کنید ببینید می‌تونید ایراد اصلی که مینسکی به پرسپترون وارد کرد رو متوجه بشید؟

☑️ گفتیم چیزی به اسم «دروازه‌های منطقی» داریم. این دروازه‌های منطقی رو می‌شه مثل لگو (آجر اسباب‌بازی) کنار هم چید. اگر تمام دروازه‌های منطقی رو داشته باشید، با کنار هم چیدنشون می‌تونید تمام محاسبات رو انجام بدید.

☑️ در یک نگاه می شه نورون‌ها رو واحدهای محاسباتی کوچک دانست. با سیم‌کشی درست و تنظیم آستانه آتش کردن، نورون‌ها می‌توانند تمام دروازه‌های منطقی را بسازند.

☑️ بیایید نورون رو اینجوری ببینیم:

۱. هر نورون ورودی‌هایی دریافت می‌کنه. مثلا یه ورودی. دوتا ورودی. یا ده‌تا. یا اصلا هیچی. این ورودی‌ها معمولا از نورون‌های همسایه‌ای میاد که همین اخیرا آتش کرده‌اند و سیگنال فرستاده‌اند.

۲. هر ورودی در وزن خودش ضرب می‌شه. چرا؟ چون اتصال بعضی نورون‌های همسایه قوی‌تره. بنابرین سیگنالشون در عدد بزرگتری ضرب می‌شه. همینطور اتصالات کوچکتر باعث کوچک شدن سیگنال ورودی می‌شن.

۳. همه سیگنال‌های ورودی بعد از ضرب شدن در وزن اتصال جمع می‌شن و ورودی کلی نورون رو می سازند.

۴. یک آستانه وجود داره. این آستانه یه عدده. می‌تونه برای هر نورون متفاوت باشه. اگر ورودی کلی از آستانه بزرگتر باشه، نورون ما روشن می‌شه و آتش می‌کنه--- و به همسایه‌هاش سیگنال می‌ده.

🟢 پس: ورودی -> جمع وزنی -> آستانه -> خروجی


حالا بریم دوتا دروازه منطقی بسازیم:

1️⃣ AND دروازه
دو تا نورون همسایه داریم.
وزن اتصالشون یک هست.
آستانه دو هست.
نورون آتش می‌کند فقط در صورتی که هردو همسایه آتش کنند و هر دو ورودی بهش برسند و ورودی کلی بشه دو--- مساوی آستانه.
میشه این حالت:
۱ × ۱ + ۱ × ۱ = ۲

2️⃣ OR دروازه
دوباره دوتا نورون همسایه داریم.
دوباره وزن اتصال یک هست.
این بار آستانه یک هست.
ورودی کلی اگر بزرگتر مساوی یک (آستانه) باشه نورون آتش می‌کند.
میشه این سه حالت:
۱ × ۰ + ۱ × ۱ = ۱
۱ × ۱ + ۱ × ۰ = ۱
۱ × ۱ + ۱ × ۱ = ۲
در بیان دیگر، اگر این یا آن نورون همسایه آتش کند نورون ما آتش می‌کند.

🟢 قاعده کلی: با تغییرات وزن و آستانه می‌شه با یک نورون (که از همسایه‌هاش سیگنال می گیره) دروازه‌های منطقی بسیاری
ساخت.

🔴 اما سوال. آیا می‌شه با یک نورون دروازه منطقی XOR رو ساخت؟
دقت کنید، این دروازه منطقی باید اینجوری کار کنه: نورون ما روشن میشه اگر فقط و فقط یکی از همسایه‌هاش روشن بشن. (اگر هردو روشن یا هردو خاموش باشند نورون باید خاموش بمونه)

@Physics_Daily | از نورون تا هوش
10👍4🔥3🙏1
می‌تونید هر روز برای چند دقیقه به این حقیقت فکر کنید که شما فقط شمای این لحظه نیستید. بلکه انسان علاوه بر یک حجم فضایی، یک گستره زمانی رو هم اشغال می‌کنه.

شمای فردا، هفته دیگه، ماه دیگه، سال دیگه و دهه‌های بعد درگستره زمانی موجوده و زندگیش متاثر از تصمیمات این لحظه‌ست. احتمالا ترجیح می‌ده خواست اون هم لحاظ بشه. 😉

@Physics_Daily | از نورون تا هوش
👍2414🤩4🤔2🔥1
⚡️ چطور با جی‌پی‌تی موضوع پژوهش یا پایان‌نامه انتخاب کنم؟

از سخت‌ترین جاهای پژوهش انتخاب موضوع و سواله. جی‌پی‌تی نمی‌تونه جایگزین کنجکاوی و تخصص شما بشه. اما می‌تونه دستیار خیلی خوبی باشه.

پنج نکته که به ذهنم رسید رو نوشتم. امیدوارم در مسیرتون به کار بیاد.

1️⃣ فضا رو بهتر ببینید.
ازش بخواید پنج سوال اصلی، یا محل بحث و اختلاف نظر، در زمینه تحقیقتون رو بهتون بگه. اگر کلی حرف زد بهش بگید نقش یک پژوهشگر خبره در زمینه مورد نظرتون رو بگیره و سوال رو تکرار کنید. باهاش کلنجار برید تا بالاخره چندتا زمینه فعال که هنوز جای کار داره بهتون معرفی کنه. معرفی که کرد ازش مقالات مهم هر بحث رو بخواید.

2️⃣ پیدا کردن اختلاف نظرها
اگر اختلاف نظری هست، شاید بشه به یک سمت بحث کمک کرد! یک فرصته! جای امنی برای شروع کاره. و می‌تونید مطمئن باشید به کارتون توجه می‌شه. پس از جی‌پی‌تی بخواید «دو نگاه مخالف درباره موضوع فلان (که قبلا با کمک خودش پیدا کردید) رو بهتون بگه.» باز شاید مجبور بشید باهاش کلنجار برید. اما اگر پیدا کنید خیلی براتون خوبه.

3️⃣ پیدا کردن محدودیت‌های زمینه
نواقص یا محدودیت‌های فعلی یک زمینه تحقیقاتی محل خیلی خوبی برای شروع کار هستند. شاید بتونید محدودیت رو کم کنید! معمولا از مورد قبلی سخت‌تره اما بازم می‌شه مطمئن بود سابیدن کشک نیست و احتمالا راه به جایی می‌بره. از جی‌پی‌تی بخواید بزرگترین محدودیت‌های تحقیقات در موضوع مورد نظر رو بهتون بگه.

4️⃣ پیش‌فرض‌ها
می‌تونید از جی‌پی‌تی بخواید پیش‌فرض‌های زمینه تحقیقاتی مورد نظر رو براتون بگه. بعد براتون آزمایش‌هایی طراحی کنه که پیش‌فرض‌های زمینه مورد نظر رو محک بزنه.

5️⃣ در آخر ازش بخواید پروپوزال یا حتی همون سوال نهایی که بهش رسیدید رو داوری کنه و بهبود بده.


یادمون نره، جی‌پی‌تی علامه دهر نیست، جای ما رو هم (هنوز) نگرفته، اما از اونطرف از بهترین دستیارهاییه که می‌تونستید داشته باشید. تعارف نکنید و در جای درست ازش کمک بگیرید.

@Physics_Daily | از نورون تا هوش
👍22🔥95💔1
سفارش‌هام رسید 😎
41🔥118👍5🤩2💋1
⚡️ هجرت هینتون

عکس هینتون ۳۱ ساله رو نشون می‌ده--- سمت راستیه. هینتون روی شبکه‌های عصبی پافشاری کرد، وقتی شبکه‌های عصبی داشت به فحش تبدیل می‌شد. نه فقط در بریتانیا، جایی که زندگی می‌کرد. بلکه در تمام دنیا. اما رفتن به آمریکا تفاوت‌های مثبتی ایجاد کرد.

🔴 گفتیم زمستان هوش مصنوعی شروع شده بود. بودجه‌های تحقیقاتی به شدت کم بود. مخصوصا شبکه‌های عصبی به دید تحقیر نگاه می‌شدن. «اگه شبکه عصبی می‌خواست کار کنه تا حالا کرده بود!» و «شبکه‌های عصبی که رد شده‌اند،» ذهنیت غالب بود.

🟢 با این‌ حال و در کمال تعجب هینتون تونست موقعیت پسادکتری پیدا کنه. در گروه کوچکی در جنوب کالیفرنیا.

✅️ گروه کار خودش رو «پی دی پی» معرفی می‌کرد که کوتاه شده پردازش موازی توزیعی بود. در اصل کارشون شبکه‌های عصبی بود. اسمش رو اینجوری می‌گفتن که کسی بهشون گیر نده.

✅️ اعضای گروه هم کامپیوتر ساینتیست نبودند--- که فکر کنم توی این کانال همه به بین رشته‌ای بودن دانش عادت دارند. به هرحال، یه تعداد روانشناس عضو گروه بودند و یک نوروساینتیست. حالا اون نوروساینتیست کی بود؟ فرانسیس کریک! کاشف دی‌ان‌ای. 🧬

✅️ هینتون دچار شوک فرهنگی می‌شه. در بریتانیا یک جور تک‌فرهنگی فکری برقرار بود. مثلا همه موافق بودند که شبکه عصبی مزخرفه. در آمریکا اینطور نبود. امکان هم‌زیستی نظرهای مختلف وجود داشت.

بله، اینجا اجماع غلطی در آکادمیا رو می‌بینیم. و امثال هینتون واقعا اقلیتی بودند که درست می‌گفتند. اما جهت جلوگیری از سواستفاده سواستفاده‌گران دو نکته بگم:

1️⃣ این اجماع غلط مدت کوتاهی برقرار بود. علم خودش رو تصحیح می‌کنه. این بار به دست امثال هینتون انجامش داد.

2️⃣ هینتون توی فضای مجازی برحق بودنش رو اثبات نکرد. پشت قلمبه سلمبه گویی قایم نشد. الکی خودش رو به آدم‌های مشهور نچسبوند و نگفت هگل یا انیشتین گفته من درست می‌گم. قاضیِ برحق بودن هینتون مردم غیر متخصص نبودند. هینتون مشکلش رو مستقیم با خود مینسکی و امثالهم حل کرد--- که خیلی هالیوودی هم بود و براتون می‌نویسم.

مخلص

@Physics_Daily | از نورون تا هوش
👍128🔥2🤯1