روانشناسی محاسباتی – Telegram
روانشناسی محاسباتی
86 subscribers
51 photos
1 video
5 links
@er1asadi
اندیشه های یک دانشجو کامپیوتر
Download Telegram
Forwarded from Geek Alerts
دیروز، ۲۳ ژوئن، سال‌روز تولد آلن تورینگ، ریاضی‌دان و دانشمند کامپیوتر انگلیسی بود.

آلن ماتیسون تورینگ «Alan Mathison Turing»، ریاضی‌دان، دانشمند کامپیوتر، منطق‌دان، فیلسوف، زیست-ریاضی‌دان و رمزنگار انگلیسی بود. او را پدر علم کامپیوتر و هوش مصنوعی می‌دانند‌. بزرگ‌ترین جایزه در حوزه علوم کامپیوتر به افتخار این مرد، جایزه تورینگ نام گرفته است. تورینگ همچنین نقش بزرگی در شکستن رمزنگاری ماشین Enigma در جنگ جهانی دوم داشت و این کار سبب شد که مدت‌زمان جنگ به سود متفقین کاهش پیدا کند. او بنیان‌گذار مفاهیم مهمی چون، آزمون تورینگ، ماشین تورینگ، مسئله توقف بود. امروزه ما از آزمون تورینگ برای آزمایش هوش مصنوعی‌ها استفاده می‌کنیم.
آلن تورینگ در ۷م ژوئن ۱۹۵۴ در ۴۱سالگی با سیانور بخاطر اجبار به هورمون‌درمانی به دلیل هم‌جنس‌گرا بودن، خودکشی کرد.

https://en.wikipedia.org/wiki/Alan_Turing
hadi @geekalerts
2😁1🤣1💔1
اینجا باید برایتان سوال شده باشد که اگر تمام مغز ما از نورون تشکلیل شده و نورون ها هم صرفا ورودی میگیرند و در اعداد خودشان ضرب میکنند و خروجی میدهند پس حافظه چیه؟چگونه ما چیزی را به یاد می آوریم و چگونه چیزی که به یادآورده ایم را به تصویر ذهنی یا کلمات در می آوریم؟ خب باید بگم که شما الان وارد یکی از مهم ترین بحث های روز دنیا شدید که اصلا حافظه انسان چیست؟ چگونه‌ست ؟ میتوان گفت اینکه حافظه ما مثل حافظه گوشی یا لپ تاب باشد کاملا رد شده است و مغز انسان هیچ گونه حافظه ظرف مانندی ندارد، بلکه حافظه انسان همین سیم کشی های زنده هست .
@computationalpsychology
2
مغز انسان اندام پیچیده ای است که قادر به ذخیره حجم وسیعی از اطلاعات است. یکی از راه‌های اصلی انجام این کار از طریق فرآیندی به نام مدل Declarative memory است. Declarative memory به خاطراتی اطلاق می شود که می توان آنها را آگاهانه به خاطر آورد، مانند حقایق و رویدادها. این نوع حافظه به حافظه آشکار نیز معروف است و به دو دسته حافظه معنایی و اپیزودیک تقسیم می شود.
@computationalpsychology
1
Semantic Memory(حافظه معنایی):
حافظه معنایی یک جزء حیاتی از سیستم Declarative memory است که مسئول ذخیره و مدیریت دانش عمومی در مورد جهان است. برخلاف حافظه اپیزودیک که به تجربیات شخصی خاص گره خورده است، حافظه معنایی شامل حقایق، مفاهیم و معانی است که به زمان یا مکان خاصی مرتبط نیستند. این شکل از حافظه به ما امکان می دهد زبان را درک کنیم، اشیاء را بشناسیم و دانشی در مورد جهان کسب کنیم
@computationalpsychology
1
Episodic Memory:
حافظه اپیزودیک مربوط به یادآوری تجربیات شخصی و رویدادهای خاص است که در زمان و مکان خاصی رخ داده است. یادآوری آخرین جشن تولد یا اولین روز تحصیل در دانشگاه نمونه هایی از خاطرات اپیزودیک هستند. این خاطرات برای هر فردی منحصر به فرد است و اغلب واضح و مفصل است.
@computationalpsychology
1
خب چون یکم وقفه افتاد بین پیام ها بیایید یک مرور بر روی مطالب تا به اینجای کار داشته باشیم:
در ابتدای کار میخواستیم اینگونه تعریف کنیم که هوش توانایی شناسایی، تجزیه و تحلیل و یافتن راه حل برای مشکلات است و بعد درخت تصمیم رو ساختیم و دو تا راه های پیمایش و جستجو در این درخت برای پیدا کردن بهترین پاسخ به جواب مسئله را گفتیم اما دیدیم که این راه در واقعیت در ذهن ما بکار نمیرود بلکه ما از دانش قبلی خود استفاده میکنیم و این درخت رو کوچیک میکنیم و صرفا یک درخت کوچک را میگردیم تا جواب را پیدا کنیم پس اومدیم مفهوم هوش رو دوباره بررسی کردیم و به چهار حالت هوش رسیدیم. بعد برای درک بهتر هوشمندی، عامل های هوشمند رو شناختیم و دیدیم که هوشمندی برای عامل های مختلف متفاوت است. برای مثال وقتی یک شئ به طرف چشم ما می‌اید هوشمندانه است که چشممان را ببندیم اما این کار نیاز به حافظه ندارد صرفا با وجود یک شرط(شی به سمت چشم)چشم بسته میشود و حالت های بعدی هوشمندی را هم بررسی کردیم تا رسیدیم به عامل های یادگیر و نمونه هایی از یادگیری را با هم دیدیم و در ادامه میخواستیم درک کنیم که اصلا یادگیری یعنی چی؟ ما اومدیم تصمیم بگیریم به اینجا رسیدیم که باید یادبگیریم؟و اینجوری شد که به این نتیجه رسیدیم که ما میخوایم تصمیم بگیریم پس از تو حافظه یه‌چیزایی پیدا میکنیم که بعدش بتونیم تصمیم درست رو بگیریم و برای اینکار باید بفهمیم حافظه چیه چجوری کار میکنه؟و به این نتیجه رسیدیم که حافظه انسان اصلا اون چیزی که ما توی گوشی یا لپ تاب هامون داریم نیست حالا میخوایم مغز رو به عنوان یک عامل بازیابی اطلاعات برای یافتن پاسخ ها (شرط های درخت تصمیم) بشناسیم
@computationalpsychology
میخواهیم فرق حافظه گوشی ها با حافظه خودمان را کمی بهتر بفهمیم شما در حافظه موبایل وقتی دنبال عکس مبل میگردید قاعدتا در حافظه گوشی دو سه تا عکس از مبل هست که هرکدوم یک عکس هستن و در حافظه یک جای خاص را اشغال کرده اند اما اگر در مغز دنبال کلمه مبل بگردیم دیگر به یک جای خاص مغز که مبل ذخیره شده است نمیرسیم، در مغز معنای مبل ذخیره شده است معنای مبل چیه؟ مبل از میلیارد ها ویژگی تشکیل شده که ما نهایتا بتوانیم 10-20 تا از آن هارا به زبان بیاوریم برای مثال چهار تا پایه داره ،روش میشینن ، معمولا سطح روش صاف و نرمه، و هزاران ویژگی دیگه که ما تجمع این ویژگی هارو بهش میگیم مبل
@computationalpsychology
https://m.youtube.com/watch?v=k61nJkx5aDQ
دراین ویدئو که توسط دانشمندان دانشگاه برکلی ساخته شده میتونید ببینید که تحقیقاتشون نشون داده که فهمیدن معنی هر کلمه در مغز با توجه به فعال شدن قسمت هایی از مغز فعال میشه این به این معنی نیست که یک کلمه در یکجا ذخیره شده بلکه به این معنیه که اون مفهوم یا کلمه با توجه به جایگاهش در کلمات اطرافش شناخته میشه برای مثال در ویدئو میبینید که کلمه top یک بار در کنار ساختمان ها به معنای بالای ساختمان قرار گرفته یکبار هم کنار کلمات اعداد و رتبه بندی قرار گرفته پس شما وقتی کلمه top رو میشنوید یک قسمت مغز صرفافعال نمیشه بلکه همه جا فعال میشه و با توجه(به این توجه خیلی دقت کنید)به فرضیات قبلی از جمله شما میتونید جایگاه اصلیشو حدس بزنید
@computationalpsychology
اما همه چیز به معنی کلمات ختم نمیشود چه بسا بعضی از کلمات حاوی مفاهیم باشند برای مثال زیبایی و اینجور مفاهیم رو نمیشود در قالب یک سری ویژگی نشان داد و برای هر کلمه متفاوت است جلوتر بیشتر با روانشناسی در مغز آشنا میشویم
شما هم میتونید برید داخل سایتشون و مرحله به مرحله next بزنید و در دنیای مغز یکمی سفر کنید
https://gallantlab.org/brain-viewers/
@computationalpsychology
روانشناسی محاسباتی
در یک منطقه معمولا قیمت خونه ها بر حسب متراژ بالا میروند و برای ساده سازی از بقیه ویژگی ها صرف نظر میکنیم نمودار بالا نشان میدهد که در داده های دیوار خانه ها برحسب متراژ چه قیمتی دارند برای مثال یک خانه 40 متری ده میلیارد یک خانه 60 متری 15 میلیارد و همینطور…
خب سوالی که پیش میاد اینه که ما خیلی از خاطراتمون رو دقیق و با جزئیات میتونیم توصیف کنیم و تو ذهنمون ببینیم پس اونا قضیشون چیه؟ برای مثال پاسخ به سوالات زیر یک جواب دقیق و درست دارند
در سفر اخیر شما به دیزنی لند چه اتفاقی افتاد؟
وقتی فهمیدی عزیزی فوت کرده کجا بودی؟
شماره تلفن همراه قدیمیت چی بوده؟
اولین روز کاری شما چجوری بود؟
اولین قرار ملاقات شما با همسرتان کجا و چگونه بود؟
و از این دست سوالات ، برای جواب دادن به این سوال باید مسئله تخمین قیمت خانه را به خاطر بیاورید فرض کنید در دیتا های شما در شهر زیدآباد فقط یک خانه وجود دارد و قیمت آن هم 300 میلیون تومان است خب شما به هنگام تخمین قیمت در اون منطقه فقط همون دیتا را دارید پس تخمین شما به اصطلاح روی اون نقطه overfit میشود یعنی هر تخمینی که بزنید قیمت 300 میلیون به شما داده خواهد شد حالا این چه ربطی به حافظه ما داره؟ ویژگی های این نوع سوالات به جاهای خاص از ذهن میرود که تا دور دست ها هیچ دیتای مشابهی وجود ندارد و شبکه ای که به این سوالات پاسخ میدهد فقط و فقط دیتاهای همان نقطه را برمیگرداند و با ویژگی دیگر دیتاها قاطی نمیکند
@computationalpsychology
راستش این چند روزی که پست نذاشتم چون خودم خیلی گیج شدم و نتونستم مطلبم رو به صورت کامل بفهمم که برسونم ،
سوالی که پیش اومد این بود که پس ما چجوری کارهایی که نیاز به انجام مرحله به مرحله دارند رو به‌خاطر میسپاریم برای مثال برای حفظ کردن یک مسئله میتوانید اثبات آن را حفظ کنید و اثبات یک مسئله ریاضی معمولا مرحله به مرحله است و هر بار بین مراحل شما باید مرحله بعد را به یاد بیاورید اما این کار چگونه انجام میشود ؟یا برای مثال از شما پرسیده میشود که فرمول فیثاغورس چیست بلافاصله C^2=A^2+B^2 به ذهنتان می آید اما چگونه؟برای همین تصمیم گرفتم یکم شما همراه با من انواع شبکه های عصبی رو بشناسیم و دریابیم که کدوما حافظه دارن کدوما ندارن کدوما حافظشون تغییر نمیکنه کدوما به مرور زمان تغییر میکنه و ... ممکنه یکم مطالب پراکنده بشن که از همینجا عذرخواهی میکنم
@computationalpsychology
❤‍🔥1
اولین شبکه های که اختراع و استفاده شد شبکه عصبی feedforward neural network (FFNN)و یکی از ساده ترین انواع شبکه های عصبی مصنوعی ابداع شده است. در این شبکه، اطلاعات تنها در یک جهت - به جلو - از گره های ورودی، از طریق گره های پنهان (در صورت وجود) و به گره های خروجی حرکت می کند. هیچ چرخه یا حلقه ای در شبکه وجود ندارد.
ساختار:
لایه ورودی: این لایه داده های اولیه را دریافت می کند. هر نورون در این لایه نشان دهنده یک ویژگی یا ویژگی از داده های ورودی است.
لایه های پنهان: لایه های میانی هستند که محاسبات در آنها انجام می شود. ممکن است یک یا چند لایه پنهان وجود داشته باشد که هر کدام حاوی نورون هایی هستند که وزن ها و بایاس ها را به ورودی ها اعمال می کنند و آنها را از طریق یک تابع فعال سازی عبور می دهند.
لایه خروجی: لایه نهایی خروجی شبکه را تولید می کند. تعداد نورون های این لایه با تعداد خروجی ها مطابقت دارد.
@computationalpsychology
1
نحوره عملکرد FFNN:
انتشار رو به جلو: داده ها از طریق شبکه در یک جهت جریان می یابد - از لایه ورودی، از طریق لایه های پنهان، به لایه خروجی. هیچ حلقه بازخوردی درگیر نیست.
تنظیم وزن: هر اتصال بین نورون ها دارای یک وزن مرتبط است که قدرت و جهت تأثیر بین نورون ها را تعیین می کند.
تابع فعال سازی: هر نورون ورودی خود را با استفاده از یک تابع فعال سازی (به عنوان مثال، ReLU، sigmoid، tanh) پردازش می کند تا غیرخطی بودن را معرفی کند و به شبکه اجازه می دهد تا مسائل پیچیده را حل کند.(این رو بعدا توضیح میدم)
محاسبه خروجی: خروجی نهایی توسط نورون های لایه خروجی بر اساس محاسبات انجام شده در لایه های پنهان محاسبه می شود
@computationalpsychology
🌭731
مثال: تبدیل تصویر به کلمه
لایه ورودی
قشر بینایی: قشر بینایی اولیه (V1) ورودی بصری خام از چشم ها را پردازش می کند و ویژگی های اساسی مانند لبه ها و رنگ ها را شناسایی می کند.
لایه های پنهان
ویژگی های سطح پایین: نورون ها در ناحیه V1 اطلاعات پردازش شده را به مناطق بصری بالاتر مانند V2 و V4 منتقل می کنند که ویژگی های پیچیده تری مانند اشکال و الگوها را تشخیص می دهند.
ویژگی های سطح متوسط: پردازش بیشتر در مناطقی مانند کمپلکس اکسیپیتال جانبی رخ می دهد، جایی که نورون ها اشکال و اشیاء اطرافشان را تشخیص می دهند.
ویژگی های سطح بالا: در نهایت، ناحیه صورت دوکی شکل (FFA) همه این ویژگی ها را برای تشخیص چهره به عنوان یک کل و شناسایی آن به عنوان آشنا یکپارچه می کند.
لایه خروجی
شناسایی و شناسایی: خروجی نهایی زمانی تولید می شود که اطلاعات پردازش شده به لوب گیجگاهی برسد، جایی که چهره شناسایی می شود و خاطرات مرتبط برای شناسایی فرد یادآوری می شود.
😭15🌭2
دیروز سالگرد وفات مرد بزرگ دنیای کامپیوتر جناب آقای Alan Mathison Turing بود از همین کانال خواستم بگم به بزرگی ایشون پی بردم و باید بگم که حق دانش و نبوغ هیچگاه پایمال نمیشود.
source:TheCollector
😭16👍3
معماری ایرانی چند روزیه که من رو به وجد آورده،طراحی هوشمندانه این نوع بناها به من یادآوری میکنه که پیچیده ترین الگوریتم ها هم نمیتوانند مانند انسان هوشمند درک درستی از محیط زندگی ما به ما بدهند
عکس ها مربوط به یخدان های دوقلو سیرجان
بادگیر های ایرانی
برکه های باران بندرعباس هست
که هوشمندی مردم آن زمان هارا نشان میداده که چگونه در efficient ترین حالت ممکن آب هارا نگهداری و استفاده میکردند و محیط خوبی برای خودشان فراهم میکردند
😭10👍31💔1
در معماری سنتی یخدان‌های ایران، دیوارهای بلند (معمولاً ۸ تا ۱۵ متر) نقش تعیین‌کننده‌ای در فرآیند تولید و نگهداری یخ داشتند. این دیوارها با طراحی هوشمندانه، از فناوری غیرفعال (Passive Cooling) استفاده می‌کردند. در ادامه عملکرد دقیق آنها را توضیح می‌دهم:

❄️ ۴ وظیفه اصلی دیوارهای بلند کنار یخدان‌ها:
سایه‌اندازی گسترده (Shading):

ارتفاع بلند دیوار (۱۲ متر) باعث می‌شد سایه کامل بر روی حوضچه‌های یخ‌سازی بیفتد.

از تابش مستقیم خورشید به‌ویژه در ظهر تابستان جلوگیری می‌کرد → کاهش دمای حوضچه‌ها.

تله باد سرد (Wind Catcher):

دیوار به عنوان مانعی در مسیر بادهای گرم عمل می‌کرد.

هوای خنک شب را در پشت خود جمع می‌کرد → ایجاد جریان هوای خنک به سمت حوضچه‌ها.

تشعشع حرارتی معکوس (Radiative Cooling):

سطح دیوار با رنگ تیره (معمولاً قیر یا گل سیاه) پوشانده می‌شد.

در طول روز گرما جذب می‌کرد → شب‌ها این گرما را به صورت امواج مادون‌قرمز به آسمان سرد تابش می‌داد → کاهش دمای محیط اطراف.

محافظت در برابر شن‌های روان:

در مناطق کویری، از ورود شن به حوضچه‌ها جلوگیری می‌کرد.

📐 چرا ارتفاع دقیقاً ۱۲ متر؟ محاسبات فنی:
زاویه خورشید در زمستان:
در عرض‌های جغرافیایی ایران (مثلاً یزد: °۳۲ شمالی)، ارتفاع خورشید در ظهر زمستانی ≈ °۳۴ است.
محاسبه سایه‌اندازی:

text
طول سایه = ارتفاع دیوار / tan(زاویه خورشید)
طول سایه = ۱۲ / tan(۳۴°) ≈ ۱۲ / ۰.۶۷ = ۱۷.۹ متر
→ دیوار ۱۲ متری، حوضچه‌های یخ‌سازی را کاملاً می‌پوشاند.

بهینه‌سازی برای تابستان:
در تابستان (ارتفاع خورشید ≈ °۸۰)، سایه کوتاه‌تر می‌شد → حوضچه‌ها فقط صبح/عصر در سایه بودند.

🔬 اثر دیوار بر تولید یخ (مطالعه میدانی در یخدان مویدی کرمان):
پارامتر با دیوار بلند بدون دیوار
دمای شبانه حوضچه -۴°C +۲°C
ضخامت یخ تولیدی ۳۵–۴۰ سانتیمتر ۵–۱۰ سانتیمتر
مدت نگهداری یخ ۴–۵ ماه ۱–۲ ماه
🏺 ساختار مهندسی دیوارها:
مصالح:

هسته: خشت خام (ضخامت ۱.۵ متر)

پوشش: کاهگل + خاکستر (برای افزایش جذب تشعشعی)

پایداری:

شیب ۸۵ درجه (متمایل به داخل) برای مقاومت در برابر باد.

پایه‌های سنگی به عمق ۲ متر.

☀️ نمونه‌های تاریخی باقی‌مانده:
۱. یخدان مویدی کرمان:

دیوار به طول ۶۰ متر و ارتفاع ۱۲ متر.

حفاظت از ۴ حوضچه یخ‌سازی.

https://upload.wikimedia.org/wikipedia/commons/thumb/d/d6/Yakhchal-e_Moayedi_01.jpg/800px-Yakhchal-e_Moayedi_01.jpg

۲. یخدان زریسف یزد:

دیوار دوقلو با کانال میانی برای هدایت باد.

۳. یخدان اکبرآباد تهران:

تنها نمونه باقی‌مانده در پایتخت با دیوار ۱۰ متری.

جمع‌بندی: چرا این دیوارها معجزه‌آسا بودند؟
تبدیل گرما به سرما: با جذب گرمای روز و تابش آن به آسمان در شب.

تولید یخ در دمای بالاتر از صفر: حتی اگر دمای هوا +۵°C بود، دیوار محیط حوضچه را به -۳°C می‌رساند.

صرفه‌جویی انرژی: بدون مصرف سوخت یا برق!

این دیوارها قدیمی‌ترین سیستم‌های سرمایش غیرفعال جهان هستند و امروزه الهام‌بخش معماران پایدار (Sustainable Architecture) می‌باشند. برای درک بهتر، بازدید از یخدان مویدی کرمان را توصیه می‌کنم!
😢32💔27😭8👍31😁1