⚡️ این چهره مهربان قا.تل شبکههای عصبی بود
ماروین مینسکی رو کمتر کسی میشناسه. اما زمان خودش بیاندازه مشهور بود. از بنیانگذاران زمینه هوش مصنوعی بود. حتی توی فیلم اودیسه فضایی استنلی کوبریک نقش مشاور کارگردان رو ایفا کرد.
@physics_daily
✅️ از بنیانگذاران هوش مصنوعی بود.
✅️ ابتدا روی شبکههای عصبی کار کرد، اما نظرش عوض شد و رفت سراغ هوش مصنوعی سمبولیک (نشانگانی؟)
✅️ اگه یادتون باشه شبکههای عصبی با سیمکشی تصادفی شروع میکردند و با تبعیت از اصولی مثل قانون هِب، به طور خودکار، تنظیم میشدند. هوش مصنوعی سمبولیک اینطور نبود. با قوانین منطقی مشخص که تا حد زیادی توسط طراح و از پیش تعریف شده بودند پیش میرفت.
✅️ مینسکی به شدت با پرسپترون (و کلا شبکههای عصبی) مشکلدار شد. تا حدی که توی یه کنفرانس به پستداکی که روی شبکه عصبی کار میکرد گفت: تو که انقدر باهوشی حیف نیست عمرت رو گذاشتی پای این؟!
✅️ مینسکی معتقد بود شبکههای عصبی به جایی نمیرسند. یعنی به کاربردهایی که ازشون انتظار میره نخواهند رسید.
⚡️ کتاب مینسکی به نام پرسپترونها در سال ۱۹۶۹ چاپ شد. این کتاب درواقع علیه پرسپترون نوشته شده بود.
🔴 مرکزیت بالای مینسکی و البته استدلالهای خوبی که داشت باعث شد خیلیها شبکه عصبی رو ببوسند بگذارند کنار.
پرسپترون؟ شبکه عصبی؟ قشنگه ولی چه فایده؟ کاربردی نداره. مخصوصا که نمیتونه مساله XOR رو حل کنه.
این کتاب مینسکی شروع زمستان هوش مصنوعی بود. حداقل درش موثر بود. دههها متوقف شدن پیشرفت هوش مصنوعی، قطع بودجهها و دلسردی ساینتیستها...
@physics_daily
اگر کنجکاوید تا پاسخ رزنبلات رو براتون بگم؟ و مساله XOR هم توضیح بدم؟
ماروین مینسکی رو کمتر کسی میشناسه. اما زمان خودش بیاندازه مشهور بود. از بنیانگذاران زمینه هوش مصنوعی بود. حتی توی فیلم اودیسه فضایی استنلی کوبریک نقش مشاور کارگردان رو ایفا کرد.
@physics_daily
✅️ از بنیانگذاران هوش مصنوعی بود.
✅️ ابتدا روی شبکههای عصبی کار کرد، اما نظرش عوض شد و رفت سراغ هوش مصنوعی سمبولیک (نشانگانی؟)
✅️ اگه یادتون باشه شبکههای عصبی با سیمکشی تصادفی شروع میکردند و با تبعیت از اصولی مثل قانون هِب، به طور خودکار، تنظیم میشدند. هوش مصنوعی سمبولیک اینطور نبود. با قوانین منطقی مشخص که تا حد زیادی توسط طراح و از پیش تعریف شده بودند پیش میرفت.
✅️ مینسکی به شدت با پرسپترون (و کلا شبکههای عصبی) مشکلدار شد. تا حدی که توی یه کنفرانس به پستداکی که روی شبکه عصبی کار میکرد گفت: تو که انقدر باهوشی حیف نیست عمرت رو گذاشتی پای این؟!
✅️ مینسکی معتقد بود شبکههای عصبی به جایی نمیرسند. یعنی به کاربردهایی که ازشون انتظار میره نخواهند رسید.
⚡️ کتاب مینسکی به نام پرسپترونها در سال ۱۹۶۹ چاپ شد. این کتاب درواقع علیه پرسپترون نوشته شده بود.
🔴 مرکزیت بالای مینسکی و البته استدلالهای خوبی که داشت باعث شد خیلیها شبکه عصبی رو ببوسند بگذارند کنار.
پرسپترون؟ شبکه عصبی؟ قشنگه ولی چه فایده؟ کاربردی نداره. مخصوصا که نمیتونه مساله XOR رو حل کنه.
این کتاب مینسکی شروع زمستان هوش مصنوعی بود. حداقل درش موثر بود. دههها متوقف شدن پیشرفت هوش مصنوعی، قطع بودجهها و دلسردی ساینتیستها...
@physics_daily
اگر کنجکاوید تا پاسخ رزنبلات رو براتون بگم؟ و مساله XOR هم توضیح بدم؟
⚡️ شکست شبکههای عصبی
✅️ گفتیم رزنبلات اولین شبکه عصبی کارامد دنیا رو ساخت. و نشون داد این شبکه عصبی میتونه یاد بگیره. لینک اطلاعات بیشتر.
✅️ چیزی که شبکه عصبی یاد گرفته بود ساده بود. یاد گرفته کاغذهایی با سوراخی در سمت راست رو از کاغذهایی با سوراخی در سمت چپ تمیز بده. لینک اطلاعات بیشتر.
✅️ دیدیم رزنبلات اینجا جوگیر شد و افقهای آینده رو با رسانه در میون گذاشت. وعده داد شبکه عصبی کارهای بسیار بزرگتری خواهد کرد. این اشتباه رزنبلات بود.
✅️ دیدیم رسانه چطور رفتار احمقانه همیشگی رو پیش گرفت و همین بزرگنماییها باعث سوظن همکاران رزنبلات شد. لینک اطلاعات بیشتر.
🔴 وقتی مینسکی با شبکه عصبی درافتاد، همه چیز خیلی بدتر شد. مینسکی با ریاضیات نشون داد ماشین رزنبلات نمیتونه مسائل پایهای رو حل کنه (XOR). لینک اطلاعات بیشتر.
🔴 شبکه عصبی فقط ادعاست. واقعا کاری نمیتونه بکنه. چهارتا نورون چی ازشون برمیاد؟ این دیدگاهی بود که کم کم غالب شد.
پاسخ رزنبلات خیلی قشنگه. خیلی الهامبخشه. براتون ترجمهش میکنم.
داره میگه آقا! کاربردها درجه دوم اهمیت هستند! من میخوام مغز رو بفهمم!
🧠 رزنبلات انسان خارقالعادهای بود. جسور، خوشفکر، مصمم... بسیار الهام بخش. اون میدونست راه حل مسائلی که مطرح میشه چیه! میدونست کافیه پرسپترون رو چند لایه کنه! اما گیرش توی یه چیز بود: یادگیری شبکه چند لایه.
⚫️ با این حال رزنبلات در سن ۴۳ سالگی، صحنه رو ترک میکنه. رزنبلات با دو دانشجو میره قایقسواری. سانحهای پیش میاد. و غرق میشه.
چند سال بعد، یه چهره جوان، با گنگ خیلی بالا 😎، راه رزنبلات رو به خط پایان میرسونه، کارایی شبکههای عصبی رو به مینسکی نشون میده و مینسکی رو حسابی عصبانی میکنه.
حدسی دارید اون جوان کی بوده؟ برام بنویسید: لینک ناشناس
✅️ گفتیم رزنبلات اولین شبکه عصبی کارامد دنیا رو ساخت. و نشون داد این شبکه عصبی میتونه یاد بگیره. لینک اطلاعات بیشتر.
✅️ چیزی که شبکه عصبی یاد گرفته بود ساده بود. یاد گرفته کاغذهایی با سوراخی در سمت راست رو از کاغذهایی با سوراخی در سمت چپ تمیز بده. لینک اطلاعات بیشتر.
✅️ دیدیم رزنبلات اینجا جوگیر شد و افقهای آینده رو با رسانه در میون گذاشت. وعده داد شبکه عصبی کارهای بسیار بزرگتری خواهد کرد. این اشتباه رزنبلات بود.
✅️ دیدیم رسانه چطور رفتار احمقانه همیشگی رو پیش گرفت و همین بزرگنماییها باعث سوظن همکاران رزنبلات شد. لینک اطلاعات بیشتر.
🔴 وقتی مینسکی با شبکه عصبی درافتاد، همه چیز خیلی بدتر شد. مینسکی با ریاضیات نشون داد ماشین رزنبلات نمیتونه مسائل پایهای رو حل کنه (XOR). لینک اطلاعات بیشتر.
🔴 شبکه عصبی فقط ادعاست. واقعا کاری نمیتونه بکنه. چهارتا نورون چی ازشون برمیاد؟ این دیدگاهی بود که کم کم غالب شد.
پاسخ رزنبلات خیلی قشنگه. خیلی الهامبخشه. براتون ترجمهش میکنم.
هدف اصلی برنامه تحقیقاتی پرسپترون (شبکه عصبی) پیدا کردن دستگاههایی برای هوش مصنوعی نیست. بلکه هدف اصلی بررسی ساختارهای فیزیکی و دینامیک نورونی است که هوش طبیعی را میسازد.دوباره بخونیدش.
داره میگه آقا! کاربردها درجه دوم اهمیت هستند! من میخوام مغز رو بفهمم!
🧠 رزنبلات انسان خارقالعادهای بود. جسور، خوشفکر، مصمم... بسیار الهام بخش. اون میدونست راه حل مسائلی که مطرح میشه چیه! میدونست کافیه پرسپترون رو چند لایه کنه! اما گیرش توی یه چیز بود: یادگیری شبکه چند لایه.
⚫️ با این حال رزنبلات در سن ۴۳ سالگی، صحنه رو ترک میکنه. رزنبلات با دو دانشجو میره قایقسواری. سانحهای پیش میاد. و غرق میشه.
چند سال بعد، یه چهره جوان، با گنگ خیلی بالا 😎، راه رزنبلات رو به خط پایان میرسونه، کارایی شبکههای عصبی رو به مینسکی نشون میده و مینسکی رو حسابی عصبانی میکنه.
حدسی دارید اون جوان کی بوده؟ برام بنویسید: لینک ناشناس
🧠 دو نوع شبکه عصبی که باید بشناسید
(a) recurrent --- بازگشتی
فرض کنید یه مقدار آب از سمت چپ وارد شبکه میشه. بعد میره به لایه میانی (سبز). و بعد از سمت راست خارج میشه. اما یه مقدار آب توی لایه میانی میمونه.
بار بعدی که آب بیاد توی شبکه و از چپ به راست جاری بشه، یه مقدار آب از قبل توی لایه میانی هست که بخشی از اونم باهاش جاری میشه. باز یه مقدار آب توی لایه میانی میمونه.
(b) feed forward --- رو به جلو
اینجا آب از سمت چپ وارد میشه و، از سمت راست، کاملا خارج میشه.
✅️ آب اینجا استعاره از سیگنال هست. ورود آب یعنی دریافت ورودی توسط شبکه عصبی.
✅️ شبکههای ریکارنت برای سیگنالهایی که تحول زمانی دارند بهتره. مثلا ارقام بازار بورس رو بگیره و آیندهش رو پیشبینی کنه.
✅️ شبکههای فیدفوروارد بیشتر برای سیگنالهای ساکن استفاده میشن. مثلا پیدا کردن یک چهره خاص توی یک عکس.
🧠 مغز بیشتر شبیه ریکارنته.
@physics_daily | از نورون تا هوش
(a) recurrent --- بازگشتی
فرض کنید یه مقدار آب از سمت چپ وارد شبکه میشه. بعد میره به لایه میانی (سبز). و بعد از سمت راست خارج میشه. اما یه مقدار آب توی لایه میانی میمونه.
بار بعدی که آب بیاد توی شبکه و از چپ به راست جاری بشه، یه مقدار آب از قبل توی لایه میانی هست که بخشی از اونم باهاش جاری میشه. باز یه مقدار آب توی لایه میانی میمونه.
(b) feed forward --- رو به جلو
اینجا آب از سمت چپ وارد میشه و، از سمت راست، کاملا خارج میشه.
✅️ آب اینجا استعاره از سیگنال هست. ورود آب یعنی دریافت ورودی توسط شبکه عصبی.
✅️ شبکههای ریکارنت برای سیگنالهایی که تحول زمانی دارند بهتره. مثلا ارقام بازار بورس رو بگیره و آیندهش رو پیشبینی کنه.
✅️ شبکههای فیدفوروارد بیشتر برای سیگنالهای ساکن استفاده میشن. مثلا پیدا کردن یک چهره خاص توی یک عکس.
🧠 مغز بیشتر شبیه ریکارنته.
@physics_daily | از نورون تا هوش
👍22 9🔥3
Minsky-and-Papert-Perceptrons (1).pdf
22.5 MB
📖 پرسپترونها، مقدمهای بر هندسه رایانش
🖋 از مینسکی و پاپرت
📅 سال ۱۹۶۹
اونهایی که دنبال میکنند میدونند این کتاب زمان خودش چه زلزلهای بود. 🥲
@physics_daily | از نورون تا هوش
🖋 از مینسکی و پاپرت
📅 سال ۱۹۶۹
اونهایی که دنبال میکنند میدونند این کتاب زمان خودش چه زلزلهای بود. 🥲
@physics_daily | از نورون تا هوش
⚡️ آیا هوش مصنوعی بشریت را تهدید میکند؟
🤖 غیر همسویی از نگرانکنندهترین خطرهای هوش مصنوعیه. به حالتی گفته میشه که هوش مصنوعی در راستای آنچه ما واقعا میخواهیم، یا ارزش و اخلاقی میدانیم، کار نکنه.
🔴 نمودار نشون میده عواقب غیر همسویی هوش مصنوعی میتونه جهانی باشه، اما در حال حاضر شواهد زیادی براش نداریم که قبلا زیاد پیش اومده باشه.
🤷🏻♂️ مشکل اینجاست که برای مدیریت خطرهای خیلی بزرگ نباید صبر کرد تا شواهد جمع شه!
نظر شما؟
@physics_daily | از نورون تا هوش
🤖 غیر همسویی از نگرانکنندهترین خطرهای هوش مصنوعیه. به حالتی گفته میشه که هوش مصنوعی در راستای آنچه ما واقعا میخواهیم، یا ارزش و اخلاقی میدانیم، کار نکنه.
🔴 نمودار نشون میده عواقب غیر همسویی هوش مصنوعی میتونه جهانی باشه، اما در حال حاضر شواهد زیادی براش نداریم که قبلا زیاد پیش اومده باشه.
🤷🏻♂️ مشکل اینجاست که برای مدیریت خطرهای خیلی بزرگ نباید صبر کرد تا شواهد جمع شه!
نظر شما؟
@physics_daily | از نورون تا هوش
👍10 5🤔2🤯2😱2🔥1
هوش مصنوعی رو تا چه اندازه خطری برای بشریت میدونید؟ از ۱ (بیخطر) تا ۵ (بیشینه خطر).
Anonymous Poll
13%
۱
19%
۲
38%
۳
18%
۴
13%
۵
⚡️ علمی-تخیلی یا آینده ترسناک هوش مصنوعی؟
میخوام با مساله همسویی آشناتون کنم.
فرض کنید به یک اَبَر هوش مصنوعی میگید: بشریت رو خوشحال کن.
اون هوش مصنوعی باهوشه اما غیر همسو. پس ممکنه فکر کنه بهترین راه خوشحال کردنمون مختل کردن نواحی درد و غم و غصه در مغز ما، غرق کردن ما در دراگ یا گیر انداختنمون در واقعیت مجازیه.
🤷🏻♂️ اون سعی میکنه هدفی که ما بهش دادیم انجام بده. شرارت یا انگیزه پنهانی نداره. اما تهش چیزی که ما میخوایم در نمیاد.
🤖 چون درکش از خوشحالی با درک ما از خوشحالی متفاوته.
⚡️ حالا اگه بخواید جلوش رو بگیرید چی؟ ممکنه نابودتون کنه! به خاطر هدفش! نمیتونه بگذاره مخل رسوندن بشریت به "خوشحالی" بشید!
این یه مثال جهت تفهیم بود. بازم براتون مثال میزنم. کی عکس رو شناخت؟
@physics_daily | از نورون تا هوش
میخوام با مساله همسویی آشناتون کنم.
فرض کنید به یک اَبَر هوش مصنوعی میگید: بشریت رو خوشحال کن.
اون هوش مصنوعی باهوشه اما غیر همسو. پس ممکنه فکر کنه بهترین راه خوشحال کردنمون مختل کردن نواحی درد و غم و غصه در مغز ما، غرق کردن ما در دراگ یا گیر انداختنمون در واقعیت مجازیه.
🤷🏻♂️ اون سعی میکنه هدفی که ما بهش دادیم انجام بده. شرارت یا انگیزه پنهانی نداره. اما تهش چیزی که ما میخوایم در نمیاد.
🤖 چون درکش از خوشحالی با درک ما از خوشحالی متفاوته.
⚡️ حالا اگه بخواید جلوش رو بگیرید چی؟ ممکنه نابودتون کنه! به خاطر هدفش! نمیتونه بگذاره مخل رسوندن بشریت به "خوشحالی" بشید!
این یه مثال جهت تفهیم بود. بازم براتون مثال میزنم. کی عکس رو شناخت؟
@physics_daily | از نورون تا هوش
از نورون تا هوش ◇---<
هوش مصنوعی رو تا چه اندازه خطری برای بشریت میدونید؟ از ۱ (بیخطر) تا ۵ (بیشینه خطر).
🔍 رایهای دیروزمون تعادل رو نشون میده: ۳/۵
✅️ بیشتر ما نه خیلی زیاد بدبین هستیم، نه خیلی زیاد خوشبین.
نمیگم الزاما خوبهها. میتونه خوب یا بد باشه. بستگی داره چقدر به واقعیت نزدیک باشه.
⚠️ البته اگه دقت کنید نتایج دقیقا متقارن نیست. یه تمایل (انحراف) کوچکی به سمت خطرناک بودن (اعداد بزرگتر) داره.
✅️ بیشتر ما نه خیلی زیاد بدبین هستیم، نه خیلی زیاد خوشبین.
نمیگم الزاما خوبهها. میتونه خوب یا بد باشه. بستگی داره چقدر به واقعیت نزدیک باشه.
⚠️ البته اگه دقت کنید نتایج دقیقا متقارن نیست. یه تمایل (انحراف) کوچکی به سمت خطرناک بودن (اعداد بزرگتر) داره.
👍7 5 3😢1😐1
یادگیری با چت جیپیتی--- ۱۰ باید و نباید
🤷🏻♂️ خواهی نخواهی هوش مصنوعی بخشی از یادگیری همه ما شده. فرار کردن ازش به نفعتون نیست. اما باید حواستون باشه. خیلیها زیادی روی جیپیتی حساب میکنند و خیلیها دست کمش میگیرند.
اینجا ده موردی که به ذهنم رسید لیست کردم. امیدوارم کمکتون کنه.
✅️ بایدها (یا بهتر استها):
1️⃣ پیشزمینه بدید. هرچقدر بیشتر روشن کنید در چه زمینهای میخواید یاد بگیرید، کمتر جوابهای کلی همهپسند میگیرید.
2️⃣ قدم به قدم بپرسید. مثلا به جای "هینتون کی بود؟" ازش بخواید مفصل توضیح بده: هینتون در چه جوی به دنیا اومد؟ --> خونوادهش چجوری بود؟ --> چی خوند؟ --> چه شخصیتی داشت؟ --> دستاورد اولش چی بود؟ و...
3️⃣ حتما چک کنید! هوش مصنوعی میتونه چرند بگه. هذیان بگه. بسیار اشتباه میکنه. حتما ازش رفرنس بخواید. و بررسی کنید.
4️⃣ فعالانه یاد بگیرید. میدونستید جیپیتی این امکان رو بهتون میده که خودتون رو بسنجید؟ بهش بگید ازتون کوییز بگیره.
5️⃣ برگردید و سوالاتتون رو دقیقتر بپرسید. حالا که اطلاعات کسب کردید میتونید از اول شروع کنید و همون سوالات رو دقیقتر بپرسید که ابهامات برطرف بشه.
❌️ نبایدها (یا کارهایی که بهتره نکنید):
6️⃣ همینطوری کپی نکنید. پاسخهای جیپیتی و کلا هوش مصنوعی میتونند کاملا غلط باشند. کم هم پیش نمیاد.
7️⃣ از پرسیدن چرا غافل نشید. بدترین استفاده اینه که عقلتون رو بسپارید بهش. پس نخواید که جیپیتی صرفا جواب نهایی رو بهتون بده. ازش بپرسید چرا این جواب! باید قانعتون کنه.
8️⃣ گول ظاهرش رو نخورید. میتونه کلمات درشت استفاده کنه. میتونه با لفاظی خیلی فهیم به نظر برسه. ما ایرانیها زیاد از این سوراخ گزیده شدیم. دنبال جان کلامش باشید نه شکلش.
9️⃣ دنبال آسون شدن بیش از حد نباشید. یادگیری هنوز قراره سختی داشته باشه. یادگیری همچنان یک نوع تحول درونیه. بگذارید کمکتون کنه اما قرار نیست مغزتون رو بازنشسته کنه.
0️⃣1️⃣ ارزش محتوای انسانی فراموش نشه. فکر نکنید میتونید از زیر مطالعه کتاب و مقاله در برید. قابل قیاس نیستند. فرض کنید دستیار یا معلم خصوصی دارید. داشتنش نیازتون به مطالعه رو برطرف نمیکنه.
این محتوا رو برای دوستانتون هم بفرستید.
@physics_daily | از نورون تا هوش
🤷🏻♂️ خواهی نخواهی هوش مصنوعی بخشی از یادگیری همه ما شده. فرار کردن ازش به نفعتون نیست. اما باید حواستون باشه. خیلیها زیادی روی جیپیتی حساب میکنند و خیلیها دست کمش میگیرند.
اینجا ده موردی که به ذهنم رسید لیست کردم. امیدوارم کمکتون کنه.
✅️ بایدها (یا بهتر استها):
1️⃣ پیشزمینه بدید. هرچقدر بیشتر روشن کنید در چه زمینهای میخواید یاد بگیرید، کمتر جوابهای کلی همهپسند میگیرید.
2️⃣ قدم به قدم بپرسید. مثلا به جای "هینتون کی بود؟" ازش بخواید مفصل توضیح بده: هینتون در چه جوی به دنیا اومد؟ --> خونوادهش چجوری بود؟ --> چی خوند؟ --> چه شخصیتی داشت؟ --> دستاورد اولش چی بود؟ و...
3️⃣ حتما چک کنید! هوش مصنوعی میتونه چرند بگه. هذیان بگه. بسیار اشتباه میکنه. حتما ازش رفرنس بخواید. و بررسی کنید.
4️⃣ فعالانه یاد بگیرید. میدونستید جیپیتی این امکان رو بهتون میده که خودتون رو بسنجید؟ بهش بگید ازتون کوییز بگیره.
5️⃣ برگردید و سوالاتتون رو دقیقتر بپرسید. حالا که اطلاعات کسب کردید میتونید از اول شروع کنید و همون سوالات رو دقیقتر بپرسید که ابهامات برطرف بشه.
❌️ نبایدها (یا کارهایی که بهتره نکنید):
6️⃣ همینطوری کپی نکنید. پاسخهای جیپیتی و کلا هوش مصنوعی میتونند کاملا غلط باشند. کم هم پیش نمیاد.
7️⃣ از پرسیدن چرا غافل نشید. بدترین استفاده اینه که عقلتون رو بسپارید بهش. پس نخواید که جیپیتی صرفا جواب نهایی رو بهتون بده. ازش بپرسید چرا این جواب! باید قانعتون کنه.
8️⃣ گول ظاهرش رو نخورید. میتونه کلمات درشت استفاده کنه. میتونه با لفاظی خیلی فهیم به نظر برسه. ما ایرانیها زیاد از این سوراخ گزیده شدیم. دنبال جان کلامش باشید نه شکلش.
9️⃣ دنبال آسون شدن بیش از حد نباشید. یادگیری هنوز قراره سختی داشته باشه. یادگیری همچنان یک نوع تحول درونیه. بگذارید کمکتون کنه اما قرار نیست مغزتون رو بازنشسته کنه.
0️⃣1️⃣ ارزش محتوای انسانی فراموش نشه. فکر نکنید میتونید از زیر مطالعه کتاب و مقاله در برید. قابل قیاس نیستند. فرض کنید دستیار یا معلم خصوصی دارید. داشتنش نیازتون به مطالعه رو برطرف نمیکنه.
این محتوا رو برای دوستانتون هم بفرستید.
@physics_daily | از نورون تا هوش
👍47 22💯5🔥3🤔2
🧠 خیلیها نمیدونند.
مدلهای امروزی هوش مصنوعی مثل جیپیتی با خودِ کلمات کار نمیکنند. اونها با اعداد سر و کار دارند.
هر کلمه بر اساس قواعدی تبدیل به برداری در فضایی بسیار بزرگ میشه. به این عمل «اِمبِدینگ»، «کاشتن» یا «جاسازی» گفته میشه.
کلمات با معنای شبیه به هم در این فضا نزدیک به هم قرار میگیرند.
حتی بیشتر! روابطی مثل:
به صورت تقریبی برقرار میشه.
درواقع شگفتی و جذابیتش اینجاست: معنا در روابط هندسی (مثل همین تفریق و جمع بالا) ظهور پیدا میکنه.
یه مقاله که شاید بخواید بخونید.
@physics_daily | از نورون تا هوش
مدلهای امروزی هوش مصنوعی مثل جیپیتی با خودِ کلمات کار نمیکنند. اونها با اعداد سر و کار دارند.
هر کلمه بر اساس قواعدی تبدیل به برداری در فضایی بسیار بزرگ میشه. به این عمل «اِمبِدینگ»، «کاشتن» یا «جاسازی» گفته میشه.
کلمات با معنای شبیه به هم در این فضا نزدیک به هم قرار میگیرند.
حتی بیشتر! روابطی مثل:
ملکه = زن + مرد - پادشاه
به صورت تقریبی برقرار میشه.
درواقع شگفتی و جذابیتش اینجاست: معنا در روابط هندسی (مثل همین تفریق و جمع بالا) ظهور پیدا میکنه.
یه مقاله که شاید بخواید بخونید.
@physics_daily | از نورون تا هوش
یه اشتباه "احمقانه" من هفتهها تحقیق رو خراب کرد.
🦧 مربوط میشه به اون اوایل راه که بودم.
من داشتم با اکسپوننشال یک ماتریس مثل ماتریس اکسپوننشالها برخورد میکردم. بچههای ریاضی میدونند چقدر آفسایده. هفتهها کارم رو خراب کرد. آخرش استاد راهنمام غلطم رو گرفت و شدیدا شرمنده شدم. 🥲
به عقب که نگاه میکنم، جور دیگهای میبینم. هر ساینتیستی با گاف دادن شروع میکنه. طبیعیه، و دقت و محافظهکاریت رو بالا میبره. 🔍
پس اگه درباره خطایی دچار شرم هستید، یا بدتر، ترس از خطا کردن متوقفتون کرده، بدونید این چیزا فقط بخشی از یک فرآیند زیباست. 🌱
تنها نیستید. آخر دنیا هم نیست.
تازه من اون اوایل یه گاف خیلی خیلی بدتر دادم که شاید بهتون بگم. 😁
@physics_daily | از نورون تا هوش
🦧 مربوط میشه به اون اوایل راه که بودم.
من داشتم با اکسپوننشال یک ماتریس مثل ماتریس اکسپوننشالها برخورد میکردم. بچههای ریاضی میدونند چقدر آفسایده. هفتهها کارم رو خراب کرد. آخرش استاد راهنمام غلطم رو گرفت و شدیدا شرمنده شدم. 🥲
به عقب که نگاه میکنم، جور دیگهای میبینم. هر ساینتیستی با گاف دادن شروع میکنه. طبیعیه، و دقت و محافظهکاریت رو بالا میبره. 🔍
پس اگه درباره خطایی دچار شرم هستید، یا بدتر، ترس از خطا کردن متوقفتون کرده، بدونید این چیزا فقط بخشی از یک فرآیند زیباست. 🌱
تنها نیستید. آخر دنیا هم نیست.
تازه من اون اوایل یه گاف خیلی خیلی بدتر دادم که شاید بهتون بگم. 😁
@physics_daily | از نورون تا هوش
Telegram
از نورون تا هوش ◇---<
هوش مصنوعی + هوش طبیعی
کاربردها و تاریخ و مفاهیم
جواب سوالهای شما در ناشناس رو اینجا میدم:
@physics_daily_QandA
من:
آرشام غواصیه، پژوهشگر پسادکتری ایندیانا
آرشیو مطالب کانال قبلی:
@physics_daily_archive
کاربردها و تاریخ و مفاهیم
جواب سوالهای شما در ناشناس رو اینجا میدم:
@physics_daily_QandA
من:
آرشام غواصیه، پژوهشگر پسادکتری ایندیانا
آرشیو مطالب کانال قبلی:
@physics_daily_archive
زمینه تخصصی شما بیشتر به کدوم نزدیکه؟ ممنون از مشارکت شما.
Anonymous Poll
49%
ریاضیات، فیزیک، مهندسی و...
20%
زیستشناسی، پزشکی، دارو و...
31%
انسانی، اقتصاد، روانشناسی، فلسفه و...
⚡️ راز موفقیت جیپیتی: توجه کردن
براتون سواله جیپیتی چطور موفق شد؟ جواب جادو نیست. بلکه جواب در یک مقاله سال ۲۰۱۷ آمده به اسم: تمام آنچه نیاز دارید توجه است.
به زبان ساده براتون نوشتم.
🔴 پیش از توجه، مدلهای قدیمیتر مثل RNN ها و LSTM ها با مشکل فراموشی طرف بودند. این جمله را تصور کنید: "مقالهای که دانشجویی که استاد او را دوست داشت نوشته بود به چاپ رسید."
زمانی که هوش مصنوعی به کلمه "چاپ" میرسید فراموش کرده بود "چه کسی" چاپ کرده!
✅️ توجه داستان را عوض کرد. به جای دنبال کردن جمله مثل یک توالی از کلمات، مکانیسم توجه به کل جمله نگاه میکند و میپرسد: "هر کلمه به کدام کلمات دیگر مربوط است؟"
مثلا در جمله: "من صبحانه خوردم، دعوای گنجشکها را تماشا کردم و رفتم سر کار."
مکانیسم توجه ارتباط قوی بین من و صبحانه خوردن و سر کار رفتن برقرار میکند و دعوا کردن را به جای من به گنجشکها وصل میکند.
✅️ نمایی از دستور کار که نیازی نیست کامل درک کنید اما برای ایجاد تصویر ذهنی مینویسم:
1️⃣ کلمهها کاشته یا، در بیان دیگر، تبدیل به اعداد میشوند (اینجا توضیح دادم).
2️⃣ مکانیسم توجه ارتباط بین کلمات کاشته شده را حدس میزند.
3️⃣ شبکهای ساخته میشود. اعضای آن کلمات هستند. اتصالات مربوط بودن آنها به یکدیگر را نشان میدهد.
4️⃣ هر کلمه اطلاعاتی از همسایههایش دریافت میکند و کمی در فضای اعداد جابجا میشود (اصطلاحا غنی میشود).
✅️ به جمله مشهور "گربه روی زیرانداز نشست چون خسته بود" فکر کنید. مکانیسم توجه به هوش مصنوعی کمک میکند تا خسته بودن را به گربه نسبت بدهد و نه زیرانداز! حتی اگر جمله دهها کلمه دیگر هم بین گربه و خستگی میگذاشت، مکانیسم توجه ارتباط گربه و خستگی را حفظ میکرد.
مکانیسم توجه مرز تکنولوژی رو جابجا کرد. اگر دقت کنید به لحاظ فنی (مثلا ریاضیاتی) چیز عجیب غریبی نبود. بیشتر یک نگاه تازه بود:
اینم راز جیپیتی. خیلیها نمیدونند. براشون بفرستید.
@Physics_Daily | از نورون تا هوش
براتون سواله جیپیتی چطور موفق شد؟ جواب جادو نیست. بلکه جواب در یک مقاله سال ۲۰۱۷ آمده به اسم: تمام آنچه نیاز دارید توجه است.
به زبان ساده براتون نوشتم.
🔴 پیش از توجه، مدلهای قدیمیتر مثل RNN ها و LSTM ها با مشکل فراموشی طرف بودند. این جمله را تصور کنید: "مقالهای که دانشجویی که استاد او را دوست داشت نوشته بود به چاپ رسید."
زمانی که هوش مصنوعی به کلمه "چاپ" میرسید فراموش کرده بود "چه کسی" چاپ کرده!
✅️ توجه داستان را عوض کرد. به جای دنبال کردن جمله مثل یک توالی از کلمات، مکانیسم توجه به کل جمله نگاه میکند و میپرسد: "هر کلمه به کدام کلمات دیگر مربوط است؟"
مثلا در جمله: "من صبحانه خوردم، دعوای گنجشکها را تماشا کردم و رفتم سر کار."
مکانیسم توجه ارتباط قوی بین من و صبحانه خوردن و سر کار رفتن برقرار میکند و دعوا کردن را به جای من به گنجشکها وصل میکند.
✅️ نمایی از دستور کار که نیازی نیست کامل درک کنید اما برای ایجاد تصویر ذهنی مینویسم:
1️⃣ کلمهها کاشته یا، در بیان دیگر، تبدیل به اعداد میشوند (اینجا توضیح دادم).
2️⃣ مکانیسم توجه ارتباط بین کلمات کاشته شده را حدس میزند.
3️⃣ شبکهای ساخته میشود. اعضای آن کلمات هستند. اتصالات مربوط بودن آنها به یکدیگر را نشان میدهد.
4️⃣ هر کلمه اطلاعاتی از همسایههایش دریافت میکند و کمی در فضای اعداد جابجا میشود (اصطلاحا غنی میشود).
✅️ به جمله مشهور "گربه روی زیرانداز نشست چون خسته بود" فکر کنید. مکانیسم توجه به هوش مصنوعی کمک میکند تا خسته بودن را به گربه نسبت بدهد و نه زیرانداز! حتی اگر جمله دهها کلمه دیگر هم بین گربه و خستگی میگذاشت، مکانیسم توجه ارتباط گربه و خستگی را حفظ میکرد.
مکانیسم توجه مرز تکنولوژی رو جابجا کرد. اگر دقت کنید به لحاظ فنی (مثلا ریاضیاتی) چیز عجیب غریبی نبود. بیشتر یک نگاه تازه بود:
به جای به خاطر سپردن همه چیز در توالی که دارند، بگذاریم هر کلمه به کلماتی توجه کند که برایش مهم هستند.
اینم راز جیپیتی. خیلیها نمیدونند. براشون بفرستید.
@Physics_Daily | از نورون تا هوش
هینتون، جوان گیج شکستخورده، یا پدرخوانده یادگیری عمیق؟
در ادامه تاریخ هوش مصنوعی، به جفری هینتون میرسیم. مردی که امروزه ازش اسطوره ساخته میشه. اما داستانش رو کمتر کسی میدونه. هینتون از کجا شروع کرد؟ براتون میگم.
1️⃣ خونوادهش پر از آدم تحصیلکرده بود. طبیعتا خودش هم رفت سراغ دانشگاه. میخواست مغز رو مطالعه کنه. 🧠
2️⃣ فهمید دانشمندان سر از بخشهایی از مغز در میآورند. اما نه به قدر کافی. نه آنقدر که توضیح بدهد کنار هم گذاشتن این بخشها چطور دیدن، شنیدن، به یاد آوردن، یادگیری و تفکر را میسازد. 🦧
3️⃣ هینتون سعی کرد فیزیولوژی، فلسفه، شیمی، فیزیک و روانشناسی بخونه. فیزیک رو جدی شروع کرد ولی دید مهارت ریاضیاتی لازم رو نداره. انصراف داد و رفت روانشناسی آزمایشگاهی، و بعدش از ادامه تحصیل انصراف داد. 🥲
4️⃣ بعد رفت مدیتیشن ثروت کرد و با قانون جذب موفق شد. مسلما نه! هینتون رفت نجار شد که مخارج زندگی رو تامین کنه. 🪚
5️⃣ همون سال کتاب "سازمان رفتار" از دانلد هِب رو خوند. این کتاب رو براتون گذاشتم و دربارهش گفتم.
6️⃣ با بهتر فهمیدن کار هِب و رزنبلات سر ذوق اومد. شنبهها که تعطیل بود میرفت کتابخونه و دفتر و خودکار میبرد. برای خودش مینوشت! نظریه میساخت که مغز چطوری کار میکنه! 🔥
7️⃣ هینتون هم مثل رزنبلات بود. هوش مصنوعی در نگاهش وسیلهای برای آزمون کردن نظریههایی درباره مغز بود. ولی طرفدارهای امروزی هینتون توی کامنتهای اینستاگرام ناراحت میشن بشنون. 🤭
8️⃣ یکباره پروگرامی در دانشگاه ادینبرگ پیدا کرد. عنوان پروگرام هوش مصنوعی بود! این بار دیگه باید انجامش میداد. پس با هر زحمتی بود پذیرش گرفت.
9️⃣ استاد راهنماش یه روز قبل از اونکه هینتون بره دانشگاه نظرش عوض شد. اون کتاب مینسکی رو خونده بود (لینک کتاب و لینک توضیحاتم در موردش). و از شبکههای عصبی ناامید شده بود. اینطور شد که هینتون بدجوری تنها موند.
0️⃣1️⃣ "شبکههای عصبی که رد شدهاند!" کسانی که کتاب مینسکی رو خونده بودند عین طوطی تکرار میکردند. عین همین اتفاق رو در اینستای خودمون میبینید. اسمش رو میگذارم "نقد سیاه" و توضیح خواهم داد چیه.
هینتون میدونست که مینسکی، علیرغم نکات درستی که گفته، کاریکاتوری از کار رزنبلات رو نقد کرده. اما فایدهای نداشت. چون این جمعیت نفهمیده پذیرفته بود. هفتهای یک بار استاد راهنماش رو میدید و هر از گاهی هم داد و بیداد میکردند. اما حداقل داشت روی علاقهش کار میکرد. بالاخره.
ادامه داستان هینتون و برخورد مستقیمش با مینسکی رو خواهم نوشت. امیدوارم دیدن فراز و فرود و شکست و پیروزی این چهرهها به شما انگیزه انجام بزرگترین کارها رو بده. 😉
@Physics_Daily | از نورون تا هوش
در ادامه تاریخ هوش مصنوعی، به جفری هینتون میرسیم. مردی که امروزه ازش اسطوره ساخته میشه. اما داستانش رو کمتر کسی میدونه. هینتون از کجا شروع کرد؟ براتون میگم.
1️⃣ خونوادهش پر از آدم تحصیلکرده بود. طبیعتا خودش هم رفت سراغ دانشگاه. میخواست مغز رو مطالعه کنه. 🧠
2️⃣ فهمید دانشمندان سر از بخشهایی از مغز در میآورند. اما نه به قدر کافی. نه آنقدر که توضیح بدهد کنار هم گذاشتن این بخشها چطور دیدن، شنیدن، به یاد آوردن، یادگیری و تفکر را میسازد. 🦧
3️⃣ هینتون سعی کرد فیزیولوژی، فلسفه، شیمی، فیزیک و روانشناسی بخونه. فیزیک رو جدی شروع کرد ولی دید مهارت ریاضیاتی لازم رو نداره. انصراف داد و رفت روانشناسی آزمایشگاهی، و بعدش از ادامه تحصیل انصراف داد. 🥲
4️⃣ بعد رفت مدیتیشن ثروت کرد و با قانون جذب موفق شد. مسلما نه! هینتون رفت نجار شد که مخارج زندگی رو تامین کنه. 🪚
5️⃣ همون سال کتاب "سازمان رفتار" از دانلد هِب رو خوند. این کتاب رو براتون گذاشتم و دربارهش گفتم.
6️⃣ با بهتر فهمیدن کار هِب و رزنبلات سر ذوق اومد. شنبهها که تعطیل بود میرفت کتابخونه و دفتر و خودکار میبرد. برای خودش مینوشت! نظریه میساخت که مغز چطوری کار میکنه! 🔥
7️⃣ هینتون هم مثل رزنبلات بود. هوش مصنوعی در نگاهش وسیلهای برای آزمون کردن نظریههایی درباره مغز بود. ولی طرفدارهای امروزی هینتون توی کامنتهای اینستاگرام ناراحت میشن بشنون. 🤭
8️⃣ یکباره پروگرامی در دانشگاه ادینبرگ پیدا کرد. عنوان پروگرام هوش مصنوعی بود! این بار دیگه باید انجامش میداد. پس با هر زحمتی بود پذیرش گرفت.
9️⃣ استاد راهنماش یه روز قبل از اونکه هینتون بره دانشگاه نظرش عوض شد. اون کتاب مینسکی رو خونده بود (لینک کتاب و لینک توضیحاتم در موردش). و از شبکههای عصبی ناامید شده بود. اینطور شد که هینتون بدجوری تنها موند.
0️⃣1️⃣ "شبکههای عصبی که رد شدهاند!" کسانی که کتاب مینسکی رو خونده بودند عین طوطی تکرار میکردند. عین همین اتفاق رو در اینستای خودمون میبینید. اسمش رو میگذارم "نقد سیاه" و توضیح خواهم داد چیه.
هینتون میدونست که مینسکی، علیرغم نکات درستی که گفته، کاریکاتوری از کار رزنبلات رو نقد کرده. اما فایدهای نداشت. چون این جمعیت نفهمیده پذیرفته بود. هفتهای یک بار استاد راهنماش رو میدید و هر از گاهی هم داد و بیداد میکردند. اما حداقل داشت روی علاقهش کار میکرد. بالاخره.
ادامه داستان هینتون و برخورد مستقیمش با مینسکی رو خواهم نوشت. امیدوارم دیدن فراز و فرود و شکست و پیروزی این چهرهها به شما انگیزه انجام بزرگترین کارها رو بده. 😉
@Physics_Daily | از نورون تا هوش
👍24 16😎3🔥2🤩1
ترق تروق، از صدای سوختن چوب تا محاسبات نورونها
زاپری کتاب خودش به نام «نویز ترق تروقی» یا crackling noise که سال ۲۰۲۲ چاپ شده رو اینطور شروع میکنه:
@Physics_Daily | از نورون تا هوش
زاپری کتاب خودش به نام «نویز ترق تروقی» یا crackling noise که سال ۲۰۲۲ چاپ شده رو اینطور شروع میکنه:
گستره عظیمی از پدیدههای معمولی فیزیکی سر و صدایی ایجاد میکنند که در دسته «ترق تروق» قرار میگیرد، به معنای سر و صداهای بزرگ ناگهانی در میان بازههای ساکتتر. برای مثال به صدای سوختن چوب فکر کنید، یا صدای باز شدن زرورق یک آبنبات، یا صدای پاره شدن کاغذ. مشابه این ترق تروقها را از ترکیدن حبابها می شنوید، اگر با دقت به لیوان شامپاین گوش کنید، یا به غلات (برشتوک) وقتی رویش شیر میریزید.به مرور به شما نشان میدهم، این ترق تروقها چقدر برای مغز شما و عملکرد آن اهمیت دارد.
...
یک نکته مهم این است که ترق تروقها از فرایند فیزیکی ناشی میشوند که به آن «بهمن» میگوییم. همانطور که از اسمش پیداست، بهمن یک فعالیت ناگهانی جمعی است که در فضا و زمان به طور علی به هم مربوط است. یک مثال رایج آن بهمن برفی است: در اثر رانههای آهسته، مثل تغییرات دما، یا محرکهای مکانیکی، یک تکه برف میتواند از جایش کنده شود، در دامنه کوه بلغزد و سقوط کند. [...]
فهم مکانیسم فیزیکی پخش بهمنها تنها برای زمینشناسان جالب نیست، چراکه این رفتار در بسیاری سیستمهای فیزیکی دیگر هم رخ میدهد. حقیقتا در این کتاب خیلی جزیی به پدیدههای زمینشناسانه مثل بهمنهای برفی، حرکت صفحات زمین، زمینلرزهها و ... خواهیم پرداخت و بیشتر بر مثالهای ماده چگال متمرکز خواهیم بود.
@Physics_Daily | از نورون تا هوش
ایرادات املایی و نگارشی من رو ببخشید. هیچکدام از نوشتههای این کانال رو هوش مصنوعی نمینویسه. ویراستاری هم ندارم. خودم هم آدم چندان دقیقی در قواعد نوشتن نیستم. 🙏
داریم یه کار بزرگ میکنیم.
یه پادکست در نظر بگیرید که میتونید توی اوقات فراغت گوش کنید.
دو تا پژوهشگر پسادکتری میزبانش هستند. به زبان ساده جذابترین مقالات کلاسیک هوش مصنوعی و طبیعی رو براتون توضیح میدن.
زحمت زیاد داره. اما مطمئنم اثر خودش رو خواهد گذاشت.
یه پادکست در نظر بگیرید که میتونید توی اوقات فراغت گوش کنید.
دو تا پژوهشگر پسادکتری میزبانش هستند. به زبان ساده جذابترین مقالات کلاسیک هوش مصنوعی و طبیعی رو براتون توضیح میدن.
زحمت زیاد داره. اما مطمئنم اثر خودش رو خواهد گذاشت.
🔥59 20👍15🙏7 3💔1
از نورون تا هوش ◇---<
ترق تروق، از صدای سوختن چوب تا محاسبات نورونها زاپری کتاب خودش به نام «نویز ترق تروقی» یا crackling noise که سال ۲۰۲۲ چاپ شده رو اینطور شروع میکنه: گستره عظیمی از پدیدههای معمولی فیزیکی سر و صدایی ایجاد میکنند که در دسته «ترق تروق» قرار میگیرد، به معنای…
Audio
🔥 صدای ترق تروق آتش
همین الان نورونها در کورتکس شما ترق تروق میکنند. 😉
@Physics_Daily | از نورون تا هوش
همین الان نورونها در کورتکس شما ترق تروق میکنند. 😉
@Physics_Daily | از نورون تا هوش
🔥11 7👍2🤩2😁1 1