از نورون تا هوش ◇---< – Telegram
از نورون تا هوش ◇---<
4.21K subscribers
106 photos
9 videos
3 files
80 links
هوش مصنوعی + هوش طبیعی
کاربردها و تاریخ و مفاهیم

جواب سوال‌‌های شما در ناشناس رو اینجا می‌دم:
@physics_daily_QandA

من:
آرشام غواصیه، پژوهشگر پسادکتری ایندیانا

آرشیو مطالب کانال قبلی:
@physics_daily_archive
Download Telegram
⚡️ این چهره مهربان قا.تل شبکه‌های عصبی بود

ماروین مینسکی رو کمتر کسی می‌شناسه. اما زمان خودش بی‌اندازه مشهور بود. از بنیان‌گذاران زمینه هوش مصنوعی بود. حتی توی فیلم اودیسه فضایی استنلی کوبریک نقش مشاور کارگردان رو ایفا کرد.

@physics_daily

✅️ از بنیان‌گذاران هوش مصنوعی بود.

✅️ ابتدا روی شبکه‌های عصبی کار کرد، اما نظرش عوض شد و رفت سراغ هوش مصنوعی سمبولیک (نشانگانی؟)

✅️ اگه یادتون باشه شبکه‌های عصبی با سیم‌کشی تصادفی شروع می‌کردند و با تبعیت از اصولی مثل قانون هِب، به طور خودکار، تنظیم می‌شدند. هوش مصنوعی سمبولیک اینطور نبود. با قوانین منطقی مشخص که تا حد زیادی توسط طراح و از پیش تعریف شده بودند پیش می‌رفت.

✅️ مینسکی به شدت با پرسپترون (و کلا شبکه‌های عصبی) مشکل‌دار شد. تا حدی که توی یه کنفرانس به پست‌داکی که روی شبکه عصبی کار می‌کرد گفت: تو که انقدر باهوشی حیف نیست عمرت رو گذاشتی پای این؟!

✅️ مینسکی معتقد بود شبکه‌های عصبی به جایی نمی‌رسند. یعنی به کاربردهایی که ازشون انتظار می‌ره نخواهند رسید.

⚡️ کتاب مینسکی به نام پرسپترون‌ها در سال ۱۹۶۹ چاپ شد. این کتاب درواقع علیه پرسپترون نوشته شده بود.

🔴 مرکزیت بالای مینسکی و البته استدلال‌های خوبی که داشت باعث شد خیلی‌ها شبکه عصبی رو ببوسند بگذارند کنار.

پرسپترون؟ شبکه عصبی؟ قشنگه ولی چه فایده؟ کاربردی نداره. مخصوصا که نمی‌تونه مساله XOR رو حل کنه.

این کتاب مینسکی شروع زمستان هوش مصنوعی بود. حداقل درش موثر بود. دهه‌ها متوقف شدن پیشرفت هوش مصنوعی، قطع بودجه‌ها و دلسردی ساینتیست‌ها...

@physics_daily

اگر کنجکاوید تا پاسخ رزنبلات رو براتون بگم؟ و مساله XOR هم توضیح بدم؟
26👍16🔥3🤯3💔3
⚡️ شکست شبکه‌های عصبی

✅️ گفتیم رزنبلات اولین شبکه عصبی کارامد دنیا رو ساخت. و نشون داد این شبکه عصبی می‌تونه یاد بگیره. لینک اطلاعات بیشتر.

✅️ چیزی که شبکه عصبی یاد گرفته بود ساده بود. یاد گرفته کاغذهایی با سوراخی در سمت راست رو از کاغذهایی با سوراخی در سمت چپ تمیز بده. لینک اطلاعات بیشتر.

✅️ دیدیم رزنبلات اینجا جوگیر شد و افق‌های آینده رو با رسانه در میون گذاشت. وعده داد شبکه عصبی کارهای بسیار بزرگتری خواهد کرد. این اشتباه رزنبلات بود.

✅️ دیدیم رسانه چطور رفتار احمقانه همیشگی رو پیش گرفت و همین بزرگنمایی‌ها باعث سوظن همکاران رزنبلات شد. لینک اطلاعات بیشتر.

🔴 وقتی مینسکی با شبکه عصبی درافتاد، همه چیز خیلی بدتر شد. مینسکی با ریاضیات نشون داد ماشین رزنبلات نمی‌تونه مسائل پایه‌ای رو حل کنه (XOR). لینک اطلاعات بیشتر.

🔴 شبکه عصبی فقط ادعاست. واقعا کاری نمی‌تونه بکنه. چهارتا نورون چی ازشون برمیاد؟ این دیدگاهی بود که کم کم غالب شد.

پاسخ رزنبلات خیلی قشنگه. خیلی الهام‌بخشه. براتون ترجمه‌ش می‌کنم.

هدف اصلی برنامه تحقیقاتی پرسپترون (شبکه عصبی) پیدا کردن دستگاه‌هایی برای هوش مصنوعی نیست. بلکه هدف اصلی بررسی ساختارهای فیزیکی و دینامیک نورونی است که هوش طبیعی را می‌سازد.
دوباره بخونیدش.
داره می‌گه آقا! کاربردها درجه دوم اهمیت هستند! من می‌خوام مغز رو بفهمم!

🧠 رزنبلات انسان خارق‌العاده‌ای بود. جسور، خوش‌فکر، مصمم... بسیار الهام بخش. اون می‌دونست راه حل مسائلی که مطرح می‌شه چیه! می‌دونست کافیه پرسپترون رو چند لایه کنه! اما گیرش توی یه چیز بود: یادگیری شبکه چند لایه.

⚫️ با این حال رزنبلات در سن ۴۳ سالگی، صحنه رو ترک می‌کنه. رزنبلات با دو دانشجو می‌ره قایق‌سواری. سانحه‌ای پیش میاد. و غرق می‌شه.

چند سال بعد، یه چهره جوان، با گنگ خیلی بالا 😎، راه رزنبلات رو به خط پایان می‌رسونه، کارایی شبکه‌های عصبی رو به مینسکی نشون می‌ده و مینسکی رو حسابی عصبانی می‌کنه.

حدسی دارید اون جوان کی بوده؟ برام بنویسید: لینک ناشناس
15👍4🔥3🤔1
قدم کوچیک --> تکرار --> تثبیت سیم‌کشی مغزی --> حالت اتومات

@physics_daily | از نورون تا هوش
👍3112💯3🔥1
🧠 دو نوع شبکه عصبی که باید بشناسید

(a) recurrent --- بازگشتی

فرض کنید یه مقدار آب از سمت چپ وارد شبکه می‌شه. بعد می‌ره به لایه میانی (سبز). و بعد از سمت راست خارج می‌شه. اما یه مقدار آب توی لایه میانی می‌مونه.

بار بعدی که آب بیاد توی شبکه و از چپ به راست جاری بشه، یه مقدار آب از قبل توی لایه میانی هست که بخشی از اونم باهاش جاری می‌شه. باز یه مقدار آب توی لایه میانی می‌مونه.

(b) feed forward --- رو به جلو

اینجا آب از سمت چپ وارد می‌شه و، از سمت راست، کاملا خارج می‌شه.

✅️ آب اینجا استعاره از سیگنال هست. ورود آب یعنی دریافت ورودی توسط شبکه عصبی.

✅️ شبکه‌های ریکارنت برای سیگنال‌هایی که تحول زمانی دارند بهتره. مثلا ارقام بازار بورس رو بگیره و آینده‌ش رو پیش‌بینی کنه.

✅️ شبکه‌های فیدفوروارد بیشتر برای سیگنال‌های ساکن استفاده می‌شن. مثلا پیدا کردن یک چهره خاص توی یک عکس.

🧠 مغز بیشتر شبیه ریکارنته.

@physics_daily | از نورون تا هوش
👍229🔥3
Minsky-and-Papert-Perceptrons (1).pdf
22.5 MB
📖 پرسپترون‌ها، مقدمه‌ای بر هندسه رایانش
🖋 از مینسکی و پاپرت
📅 سال ۱۹۶۹

اون‌هایی که دنبال می‌کنند می‌دونند این کتاب زمان خودش چه زلزله‌ای بود‌. 🥲

@physics_daily | از نورون تا هوش
11👍5🙏5💯1
⚡️ آیا هوش مصنوعی بشریت را تهدید می‌کند؟

🤖 غیر هم‌سویی از نگران‌کننده‌ترین‌ خطرهای هوش مصنوعیه. به حالتی گفته می‌شه که هوش مصنوعی در راستای آنچه ما واقعا می‌خواهیم، یا ارزش و اخلاقی می‌دانیم، کار نکنه.

🔴 نمودار نشون می‌ده عواقب غیر هم‌سویی هوش مصنوعی می‌تونه جهانی باشه، اما در حال حاضر شواهد زیادی براش نداریم که قبلا زیاد پیش اومده باشه.

🤷🏻‍♂️ مشکل اینجاست که برای مدیریت خطرهای خیلی بزرگ نباید صبر کرد تا شواهد جمع شه!

نظر شما؟

@physics_daily | از نورون تا هوش
👍105🤔2🤯2😱2🔥1
هوش مصنوعی رو تا چه اندازه خطری برای بشریت می‌دونید؟ از ۱ (بی‌خطر) تا ۵ (بیشینه خطر).
Anonymous Poll
13%
۱
19%
۲
38%
۳
18%
۴
13%
۵
⚡️ علمی-تخیلی یا آینده ترسناک هوش مصنوعی؟

می‌خوام با مساله هم‌سویی آشناتون کنم.

فرض کنید به یک اَبَر هوش مصنوعی می‌گید: بشریت رو خوشحال کن.

اون هوش مصنوعی باهوشه اما غیر هم‌سو. پس ممکنه فکر کنه بهترین راه خوشحال کردنمون مختل کردن نواحی درد و غم و غصه در مغز ما، غرق کردن ما در دراگ یا گیر انداختنمون در واقعیت‌ مجازیه.

🤷🏻‍♂️ اون سعی می‌کنه هدفی که ما بهش دادیم انجام بده. شرارت یا انگیزه پنهانی نداره. اما تهش چیزی که ما می‌خوایم در نمیاد.

🤖 چون درکش از خوشحالی با درک ما از خوشحالی متفاوته.

⚡️ حالا اگه بخواید جلوش رو بگیرید چی؟ ممکنه نابودتون کنه! به خاطر هدفش! نمی‌تونه بگذاره مخل رسوندن بشریت به "خوشحالی" بشید!

این یه مثال جهت تفهیم بود. بازم براتون مثال می‌زنم. کی عکس رو شناخت؟

@physics_daily | از نورون تا هوش
22👍16🤯3😐1
از نورون تا هوش ◇---<
هوش مصنوعی رو تا چه اندازه خطری برای بشریت می‌دونید؟ از ۱ (بی‌خطر) تا ۵ (بیشینه خطر).
🔍 رای‌های دیروزمون تعادل رو نشون می‌ده: ۳/۵

✅️ بیشتر ما نه خیلی زیاد بدبین هستیم، نه خیلی زیاد خوشبین.

نمی‌گم الزاما خوبه‌ها. می‌تونه خوب یا بد باشه‌. بستگی داره چقدر به واقعیت نزدیک باشه.

⚠️ البته اگه دقت کنید نتایج دقیقا متقارن نیست. یه تمایل (انحراف) کوچکی به سمت خطرناک بودن (اعداد بزرگتر) داره.
👍753😢1😐1
یادگیری با چت جی‌پی‌تی--- ۱۰ باید و نباید

🤷🏻‍♂️ خواهی نخواهی هوش مصنوعی بخشی از یادگیری همه ما شده. فرار کردن ازش به نفعتون نیست. اما باید حواستون باشه. خیلی‌ها زیادی روی جی‌پی‌تی حساب می‌کنند و خیلی‌ها دست کمش می‌گیرند.

اینجا ده موردی که به ذهنم رسید لیست کردم. امیدوارم کمکتون کنه.


✅️ بایدها (یا بهتر است‌ها):

1️⃣ پیش‌زمینه بدید. هرچقدر بیشتر روشن کنید در چه زمینه‌ای می‌خواید یاد بگیرید، کمتر جواب‌های کلی همه‌پسند می‌گیرید.

2️⃣ قدم به قدم بپرسید. مثلا به جای "هینتون کی بود؟" ازش بخواید مفصل توضیح بده: هینتون در چه جوی به دنیا اومد؟ --> خونواده‌ش چجوری بود؟ --> چی خوند؟ --> چه شخصیتی داشت؟ --> دستاورد اولش چی بود؟ و...

3️⃣ حتما چک کنید! هوش مصنوعی می‌تونه چرند بگه. هذیان بگه. بسیار اشتباه می‌کنه. حتما ازش رفرنس بخواید. و بررسی کنید.

4️⃣ فعالانه یاد بگیرید. می‌دونستید جی‌پی‌تی این امکان رو بهتون می‌ده که خودتون رو بسنجید؟ بهش بگید ازتون کوییز بگیره.

5️⃣ برگردید و سوالاتتون رو دقیق‌تر بپرسید. حالا که اطلاعات کسب کردید می‌تونید از اول شروع کنید و همون سوالات رو دقیق‌تر بپرسید که ابهامات برطرف بشه.


❌️ نبایدها (یا کارهایی که بهتره نکنید):

6️⃣ همینطوری کپی نکنید. پاسخ‌های جی‌پی‌تی و کلا هوش مصنوعی می‌تونند کاملا غلط باشند. کم هم‌ پیش نمیاد.

7️⃣ از پرسیدن چرا غافل نشید. بدترین استفاده اینه که عقلتون رو بسپارید بهش. پس نخواید که جی‌پی‌تی صرفا جواب نهایی رو بهتون بده. ازش بپرسید چرا این جواب! باید قانع‌تون کنه.

8️⃣ گول ظاهرش رو نخورید. می‌تونه کلمات درشت استفاده کنه. می‌تونه با لفاظی خیلی فهیم به نظر برسه. ما ایرانی‌ها زیاد از این سوراخ گزیده شدیم. دنبال جان کلامش باشید نه شکلش.

9️⃣ دنبال آسون شدن بیش از حد نباشید. یادگیری هنوز قراره سختی داشته باشه. یادگیری همچنان یک نوع تحول درونیه. بگذارید کمک‌تون کنه اما قرار نیست مغزتون رو بازنشسته کنه.

0️⃣1️⃣ ارزش محتوای انسانی فراموش نشه. فکر نکنید می‌تونید از زیر مطالعه کتاب و مقاله در برید. قابل قیاس نیستند. فرض کنید دستیار یا معلم خصوصی دارید. داشتنش نیازتون به مطالعه رو برطرف نمی‌کنه.

این محتوا رو برای دوستانتون هم بفرستید.
@physics_daily | از نورون تا هوش
👍4722💯5🔥3🤔2
🧠 خیلی‌ها نمی‌دونند.

مدل‌های امروزی هوش مصنوعی مثل جی‌پی‌تی با خودِ کلمات کار نمی‌کنند. اون‌ها با اعداد سر و کار دارند.

هر کلمه بر اساس قواعدی تبدیل به برداری در فضایی بسیار بزرگ می‌شه. به این عمل «اِمبِدینگ»، «کاشتن» یا «جاسازی» گفته می‌شه.

کلمات با معنای شبیه به هم در این فضا نزدیک به هم قرار می‌گیرند.

حتی بیشتر! روابطی مثل:
ملکه = زن + مرد - پادشاه

به صورت تقریبی برقرار می‌شه.

درواقع شگفتی و جذابیتش اینجاست: معنا در روابط هندسی (مثل همین تفریق و جمع بالا) ظهور پیدا می‌کنه.

یه مقاله که شاید بخواید بخونید.

@physics_daily | از نورون تا هوش
18👍8💯6🤯4🔥3🙏22
یه اشتباه "احمقانه" من هفته‌ها تحقیق رو خراب کرد.

🦧 مربوط می‌شه به اون اوایل راه که بودم.

من داشتم با اکسپوننشال یک ماتریس مثل ماتریس اکسپوننشال‌ها برخورد می‌کردم. بچه‌های ریاضی می‌دونند چقدر آفسایده. هفته‌ها کارم رو خراب کرد. آخرش استاد راهنمام غلطم رو گرفت و شدیدا شرمنده شدم. 🥲

به عقب که نگاه می‌کنم، جور دیگه‌ای می‌بینم. هر ساینتیستی با گاف دادن شروع می‌کنه. طبیعیه، و دقت و محافظه‌کاریت رو بالا می‌بره. 🔍

پس اگه درباره خطایی دچار شرم هستید، یا بدتر، ترس از خطا کردن متوقف‌تون کرده، بدونید این چیزا فقط بخشی از یک فرآیند زیباست. 🌱

تنها نیستید. آخر دنیا هم نیست.

تازه من اون اوایل یه گاف خیلی خیلی بدتر دادم که شاید بهتون بگم. 😁

@physics_daily | از نورون تا هوش
27👍195😁4😎1
18🤔1
⚡️ راز موفقیت جی‌پی‌تی: توجه کردن

براتون سواله جی‌پی‌تی چطور موفق شد؟ جواب جادو نیست. بلکه جواب در یک مقاله سال ۲۰۱۷ آمده به اسم: تمام آنچه نیاز دارید توجه است.

به زبان ساده براتون نوشتم.

🔴 پیش از توجه، مدل‌های قدیمی‌تر مثل RNN ها و LSTM ها با مشکل فراموشی طرف بودند. این جمله را تصور کنید: "مقاله‌ای که دانشجویی که استاد او را دوست داشت نوشته بود به چاپ رسید."
زمانی که هوش مصنوعی به کلمه "چاپ" می‌رسید فراموش کرده بود "چه کسی" چاپ کرده!

✅️ توجه داستان را عوض کرد. به جای دنبال کردن جمله مثل یک توالی از کلمات، مکانیسم توجه به کل جمله نگاه می‌کند و می‌پرسد: "هر کلمه به کدام کلمات دیگر مربوط است؟"

مثلا در جمله: "من صبحانه خوردم، دعوای گنجشک‌ها را تماشا کردم و رفتم سر کار."
مکانیسم توجه ارتباط قوی بین من و صبحانه خوردن و سر کار رفتن برقرار می‌کند و دعوا کردن را به جای من به گنجشک‌ها وصل می‌کند.

✅️ نمایی از دستور کار که نیازی نیست کامل درک کنید اما برای ایجاد تصویر ذهنی می‌نویسم:

1️⃣ کلمه‌ها کاشته یا، در بیان دیگر، تبدیل به اعداد می‌شوند (اینجا توضیح دادم).

2️⃣ مکانیسم توجه ارتباط بین کلمات کاشته شده را حدس می‌زند.

3️⃣ شبکه‌ای ساخته می‌شود. اعضای آن کلمات هستند. اتصالات مربوط بودن آن‌ها به یکدیگر را نشان می‌دهد.

4️⃣ هر کلمه اطلاعاتی از همسایه‌هایش دریافت می‌کند و کمی در فضای اعداد جابجا می‌شود (اصطلاحا غنی می‌شود).


✅️ به جمله مشهور "گربه روی زیرانداز نشست چون خسته بود" فکر کنید. مکانیسم توجه به هوش مصنوعی کمک می‌کند تا خسته بودن را به گربه نسبت بدهد و نه زیرانداز! حتی اگر جمله ده‌ها کلمه دیگر هم بین گربه و خستگی می‌گذاشت، مکانیسم توجه ارتباط گربه و خستگی را حفظ می‌کرد.

مکانیسم توجه مرز تکنولوژی رو جابجا کرد. اگر دقت کنید به لحاظ فنی (مثلا ریاضیاتی) چیز عجیب غریبی نبود. بیشتر یک نگاه تازه بود:

به جای به خاطر سپردن همه چیز در توالی که دارند، بگذاریم هر کلمه به کلماتی توجه کند که برایش مهم هستند.


اینم راز جی‌پی‌تی. خیلی‌ها نمی‌دونند. براشون بفرستید.

@Physics_Daily | از نورون تا هوش
18👍11🙏4🔥2🤯1
هینتون، جوان گیج شکست‌خورده، یا پدرخوانده یادگیری عمیق؟

در ادامه تاریخ هوش مصنوعی، به جفری هینتون می‌رسیم. مردی که امروزه ازش اسطوره ساخته می‌شه. اما داستانش رو کمتر کسی می‌دونه. هینتون از کجا شروع کرد؟ براتون می‌گم.

1️⃣ خونواده‌ش پر از آدم تحصیل‌کرده بود. طبیعتا خودش هم رفت سراغ دانشگاه. می‌خواست مغز رو مطالعه کنه. 🧠

2️⃣ فهمید دانشمندان سر از بخش‌هایی از مغز در می‌آورند. اما نه به قدر کافی. نه آنقدر که توضیح بدهد کنار هم گذاشتن این بخش‌ها چطور دیدن، شنیدن، به یاد آوردن، یادگیری و تفکر را می‌سازد‌. 🦧

3️⃣ هینتون سعی کرد فیزیولوژی، فلسفه، شیمی، فیزیک و روانشناسی بخونه. فیزیک رو جدی شروع کرد ولی دید مهارت ریاضیاتی لازم رو نداره. انصراف داد و رفت روانشناسی آزمایشگاهی، و بعدش از ادامه تحصیل انصراف داد. 🥲

4️⃣ بعد رفت مدیتیشن ثروت کرد و با قانون جذب موفق شد. مسلما نه! هینتون رفت نجار شد که مخارج زندگی رو تامین کنه. 🪚

5️⃣ همون سال کتاب "سازمان رفتار" از دانلد هِب رو خوند. این کتاب رو براتون گذاشتم و درباره‌ش گفتم.

6️⃣ با بهتر فهمیدن کار هِب و رزنبلات سر ذوق اومد. شنبه‌ها که تعطیل بود می‌رفت کتابخونه و دفتر و خودکار می‌برد. برای خودش می‌نوشت! نظریه می‌ساخت که مغز چطوری کار می‌کنه! 🔥

7️⃣ هینتون هم مثل رزنبلات بود. هوش مصنوعی در نگاهش وسیله‌ای برای آزمون کردن نظریه‌هایی درباره مغز بود. ولی طرفدارهای امروزی هینتون توی کامنت‌های اینستاگرام ناراحت می‌شن بشنون. 🤭

8️⃣ یکباره پروگرامی در دانشگاه ادینبرگ پیدا کرد. عنوان پروگرام هوش مصنوعی بود! این بار دیگه باید انجامش می‌داد. پس با هر زحمتی بود پذیرش گرفت.

9️⃣ استاد راهنماش یه روز قبل از اونکه هینتون بره دانشگاه نظرش عوض شد. اون کتاب مینسکی رو خونده بود (لینک کتاب و لینک توضیحاتم در موردش). و از شبکه‌های عصبی ناامید شده بود. اینطور شد که هینتون بدجوری تنها موند.

0️⃣1️⃣ "شبکه‌های عصبی که رد شده‌اند!" کسانی که کتاب مینسکی رو خونده بودند عین طوطی تکرار می‌کردند. عین همین اتفاق رو در اینستای خودمون می‌بینید. اسمش رو می‌گذارم "نقد سیاه" و توضیح خواهم داد چیه.

هینتون می‌دونست که مینسکی، علی‌رغم نکات درستی که گفته، کاریکاتوری از کار رزنبلات رو نقد کرده. اما فایده‌ای نداشت. چون این جمعیت نفهمیده پذیرفته بود. هفته‌ای یک بار استاد راهنماش رو می‌دید و هر از گاهی هم داد و بیداد می‌کردند. اما حداقل داشت روی علاقه‌ش کار می‌کرد. بالاخره.


ادامه داستان هینتون و برخورد مستقیمش با مینسکی رو خواهم نوشت. امیدوارم دیدن فراز و فرود و شکست و پیروزی این چهره‌ها به شما انگیزه انجام بزرگترین کارها رو بده. 😉

@Physics_Daily | از نورون تا هوش
👍2416😎3🔥2🤩1
ترق تروق، از صدای سوختن چوب تا محاسبات نورون‌ها

زاپری کتاب خودش به نام «نویز ترق تروقی» یا crackling noise که سال ۲۰۲۲ چاپ شده رو اینطور شروع می‌کنه:

گستره عظیمی از پدیده‌های معمولی فیزیکی سر و صدایی ایجاد می‌کنند که در دسته «ترق تروق» قرار می‌گیرد، به معنای سر و صداهای بزرگ ناگهانی در میان بازه‌های ساکت‌تر. برای مثال به صدای سوختن چوب فکر کنید، یا صدای باز شدن زرورق یک آبنبات، یا صدای پاره شدن کاغذ. مشابه این ترق تروق‌ها را از ترکیدن حباب‌ها می شنوید، اگر با دقت به لیوان شامپاین گوش کنید، یا به غلات (برشتوک) وقتی رویش شیر می‌ریزید.

...

یک نکته مهم این است که ترق تروق‌ها از فرایند فیزیکی ناشی می‌شوند که به آن «بهمن» می‌گوییم. همانطور که از اسمش پیداست، بهمن یک فعالیت ناگهانی جمعی است که در فضا و زمان به طور علی به هم مربوط است. یک مثال رایج آن بهمن برفی است: در اثر رانه‌های آهسته، مثل تغییرات دما، یا محرک‌های مکانیکی، یک تکه برف می‌تواند از جایش کنده شود، در دامنه کوه بلغزد و سقوط کند. [...]

فهم مکانیسم فیزیکی پخش بهمن‌ها تنها برای زمین‌شناسان جالب نیست، چراکه این رفتار در بسیاری سیستم‌های فیزیکی دیگر هم رخ می‌دهد. حقیقتا در این کتاب خیلی جزیی به پدیده‌های زمین‌شناسانه مثل بهمن‌های برفی، حرکت صفحات زمین، زمین‌لرزه‌ها و ... خواهیم پرداخت و بیشتر بر مثال‌های ماده چگال متمرکز خواهیم بود.
به مرور به شما نشان می‌دهم، این ترق تروق‌ها چقدر برای مغز شما و عملکرد آن اهمیت دارد.

@Physics_Daily | از نورون تا هوش
15👍9🔥3🤯2
ایرادات املایی و نگارشی من رو ببخشید. هیچکدام از نوشته‌های این کانال رو هوش مصنوعی نمی‌نویسه. ویراستاری هم ندارم. خودم هم آدم چندان دقیقی در قواعد نوشتن نیستم. 🙏
39👍14🙏75💯3
داریم یه کار بزرگ می‌کنیم.

یه پادکست در نظر بگیرید که می‌تونید توی اوقات فراغت گوش کنید.

دو تا پژوهشگر پسادکتری میزبانش هستند. به زبان ساده جذاب‌ترین مقالات کلاسیک هوش مصنوعی و طبیعی رو براتون توضیح می‌دن.

زحمت زیاد داره. اما مطمئنم اثر خودش رو خواهد گذاشت.
🔥5920👍15🙏73💔1