روانشناسی محاسباتی
دسته دیگر از یادگیری نظارت شده به تقسیم بندی یا Classification معروف است در این روش لیبل داده ها ، داده هارا به دو دسته یا چند دسته تقسیم میکنند و هدف ما یادگرفتن مرز بین داده ها با توجه به ویژگی های داده است برای مثال تقسیم ایمیل ها به دو دسته اسپم(مزاحم…
مثالی از لیبل دادهها:
@computationalpsychology
@computationalpsychology
Forwarded from Geek Alerts
دیروز، ۲۳ ژوئن، سالروز تولد آلن تورینگ، ریاضیدان و دانشمند کامپیوتر انگلیسی بود.
آلن ماتیسون تورینگ «Alan Mathison Turing»، ریاضیدان، دانشمند کامپیوتر، منطقدان، فیلسوف، زیست-ریاضیدان و رمزنگار انگلیسی بود. او را پدر علم کامپیوتر و هوش مصنوعی میدانند. بزرگترین جایزه در حوزه علوم کامپیوتر به افتخار این مرد، جایزه تورینگ نام گرفته است. تورینگ همچنین نقش بزرگی در شکستن رمزنگاری ماشین Enigma در جنگ جهانی دوم داشت و این کار سبب شد که مدتزمان جنگ به سود متفقین کاهش پیدا کند. او بنیانگذار مفاهیم مهمی چون، آزمون تورینگ، ماشین تورینگ، مسئله توقف بود. امروزه ما از آزمون تورینگ برای آزمایش هوش مصنوعیها استفاده میکنیم.
آلن تورینگ در ۷م ژوئن ۱۹۵۴ در ۴۱سالگی با سیانور بخاطر اجبار به هورموندرمانی به دلیل همجنسگرا بودن، خودکشی کرد.
https://en.wikipedia.org/wiki/Alan_Turing
hadi @geekalerts
آلن ماتیسون تورینگ «Alan Mathison Turing»، ریاضیدان، دانشمند کامپیوتر، منطقدان، فیلسوف، زیست-ریاضیدان و رمزنگار انگلیسی بود. او را پدر علم کامپیوتر و هوش مصنوعی میدانند. بزرگترین جایزه در حوزه علوم کامپیوتر به افتخار این مرد، جایزه تورینگ نام گرفته است. تورینگ همچنین نقش بزرگی در شکستن رمزنگاری ماشین Enigma در جنگ جهانی دوم داشت و این کار سبب شد که مدتزمان جنگ به سود متفقین کاهش پیدا کند. او بنیانگذار مفاهیم مهمی چون، آزمون تورینگ، ماشین تورینگ، مسئله توقف بود. امروزه ما از آزمون تورینگ برای آزمایش هوش مصنوعیها استفاده میکنیم.
آلن تورینگ در ۷م ژوئن ۱۹۵۴ در ۴۱سالگی با سیانور بخاطر اجبار به هورموندرمانی به دلیل همجنسگرا بودن، خودکشی کرد.
https://en.wikipedia.org/wiki/Alan_Turing
hadi @geekalerts
❤2😁1🤣1💔1
اینجا باید برایتان سوال شده باشد که اگر تمام مغز ما از نورون تشکلیل شده و نورون ها هم صرفا ورودی میگیرند و در اعداد خودشان ضرب میکنند و خروجی میدهند پس حافظه چیه؟چگونه ما چیزی را به یاد می آوریم و چگونه چیزی که به یادآورده ایم را به تصویر ذهنی یا کلمات در می آوریم؟ خب باید بگم که شما الان وارد یکی از مهم ترین بحث های روز دنیا شدید که اصلا حافظه انسان چیست؟ چگونهست ؟ میتوان گفت اینکه حافظه ما مثل حافظه گوشی یا لپ تاب باشد کاملا رد شده است و مغز انسان هیچ گونه حافظه ظرف مانندی ندارد، بلکه حافظه انسان همین سیم کشی های زنده هست .
@computationalpsychology
@computationalpsychology
❤2
مغز انسان اندام پیچیده ای است که قادر به ذخیره حجم وسیعی از اطلاعات است. یکی از راههای اصلی انجام این کار از طریق فرآیندی به نام مدل Declarative memory است. Declarative memory به خاطراتی اطلاق می شود که می توان آنها را آگاهانه به خاطر آورد، مانند حقایق و رویدادها. این نوع حافظه به حافظه آشکار نیز معروف است و به دو دسته حافظه معنایی و اپیزودیک تقسیم می شود.
@computationalpsychology
@computationalpsychology
❤1
Semantic Memory(حافظه معنایی):
حافظه معنایی یک جزء حیاتی از سیستم Declarative memory است که مسئول ذخیره و مدیریت دانش عمومی در مورد جهان است. برخلاف حافظه اپیزودیک که به تجربیات شخصی خاص گره خورده است، حافظه معنایی شامل حقایق، مفاهیم و معانی است که به زمان یا مکان خاصی مرتبط نیستند. این شکل از حافظه به ما امکان می دهد زبان را درک کنیم، اشیاء را بشناسیم و دانشی در مورد جهان کسب کنیم
@computationalpsychology
حافظه معنایی یک جزء حیاتی از سیستم Declarative memory است که مسئول ذخیره و مدیریت دانش عمومی در مورد جهان است. برخلاف حافظه اپیزودیک که به تجربیات شخصی خاص گره خورده است، حافظه معنایی شامل حقایق، مفاهیم و معانی است که به زمان یا مکان خاصی مرتبط نیستند. این شکل از حافظه به ما امکان می دهد زبان را درک کنیم، اشیاء را بشناسیم و دانشی در مورد جهان کسب کنیم
@computationalpsychology
❤1
Episodic Memory:
حافظه اپیزودیک مربوط به یادآوری تجربیات شخصی و رویدادهای خاص است که در زمان و مکان خاصی رخ داده است. یادآوری آخرین جشن تولد یا اولین روز تحصیل در دانشگاه نمونه هایی از خاطرات اپیزودیک هستند. این خاطرات برای هر فردی منحصر به فرد است و اغلب واضح و مفصل است.
@computationalpsychology
حافظه اپیزودیک مربوط به یادآوری تجربیات شخصی و رویدادهای خاص است که در زمان و مکان خاصی رخ داده است. یادآوری آخرین جشن تولد یا اولین روز تحصیل در دانشگاه نمونه هایی از خاطرات اپیزودیک هستند. این خاطرات برای هر فردی منحصر به فرد است و اغلب واضح و مفصل است.
@computationalpsychology
❤1
خب چون یکم وقفه افتاد بین پیام ها بیایید یک مرور بر روی مطالب تا به اینجای کار داشته باشیم:
در ابتدای کار میخواستیم اینگونه تعریف کنیم که هوش توانایی شناسایی، تجزیه و تحلیل و یافتن راه حل برای مشکلات است و بعد درخت تصمیم رو ساختیم و دو تا راه های پیمایش و جستجو در این درخت برای پیدا کردن بهترین پاسخ به جواب مسئله را گفتیم اما دیدیم که این راه در واقعیت در ذهن ما بکار نمیرود بلکه ما از دانش قبلی خود استفاده میکنیم و این درخت رو کوچیک میکنیم و صرفا یک درخت کوچک را میگردیم تا جواب را پیدا کنیم پس اومدیم مفهوم هوش رو دوباره بررسی کردیم و به چهار حالت هوش رسیدیم. بعد برای درک بهتر هوشمندی، عامل های هوشمند رو شناختیم و دیدیم که هوشمندی برای عامل های مختلف متفاوت است. برای مثال وقتی یک شئ به طرف چشم ما میاید هوشمندانه است که چشممان را ببندیم اما این کار نیاز به حافظه ندارد صرفا با وجود یک شرط(شی به سمت چشم)چشم بسته میشود و حالت های بعدی هوشمندی را هم بررسی کردیم تا رسیدیم به عامل های یادگیر و نمونه هایی از یادگیری را با هم دیدیم و در ادامه میخواستیم درک کنیم که اصلا یادگیری یعنی چی؟ ما اومدیم تصمیم بگیریم به اینجا رسیدیم که باید یادبگیریم؟و اینجوری شد که به این نتیجه رسیدیم که ما میخوایم تصمیم بگیریم پس از تو حافظه یهچیزایی پیدا میکنیم که بعدش بتونیم تصمیم درست رو بگیریم و برای اینکار باید بفهمیم حافظه چیه چجوری کار میکنه؟و به این نتیجه رسیدیم که حافظه انسان اصلا اون چیزی که ما توی گوشی یا لپ تاب هامون داریم نیست حالا میخوایم مغز رو به عنوان یک عامل بازیابی اطلاعات برای یافتن پاسخ ها (شرط های درخت تصمیم) بشناسیم
@computationalpsychology
در ابتدای کار میخواستیم اینگونه تعریف کنیم که هوش توانایی شناسایی، تجزیه و تحلیل و یافتن راه حل برای مشکلات است و بعد درخت تصمیم رو ساختیم و دو تا راه های پیمایش و جستجو در این درخت برای پیدا کردن بهترین پاسخ به جواب مسئله را گفتیم اما دیدیم که این راه در واقعیت در ذهن ما بکار نمیرود بلکه ما از دانش قبلی خود استفاده میکنیم و این درخت رو کوچیک میکنیم و صرفا یک درخت کوچک را میگردیم تا جواب را پیدا کنیم پس اومدیم مفهوم هوش رو دوباره بررسی کردیم و به چهار حالت هوش رسیدیم. بعد برای درک بهتر هوشمندی، عامل های هوشمند رو شناختیم و دیدیم که هوشمندی برای عامل های مختلف متفاوت است. برای مثال وقتی یک شئ به طرف چشم ما میاید هوشمندانه است که چشممان را ببندیم اما این کار نیاز به حافظه ندارد صرفا با وجود یک شرط(شی به سمت چشم)چشم بسته میشود و حالت های بعدی هوشمندی را هم بررسی کردیم تا رسیدیم به عامل های یادگیر و نمونه هایی از یادگیری را با هم دیدیم و در ادامه میخواستیم درک کنیم که اصلا یادگیری یعنی چی؟ ما اومدیم تصمیم بگیریم به اینجا رسیدیم که باید یادبگیریم؟و اینجوری شد که به این نتیجه رسیدیم که ما میخوایم تصمیم بگیریم پس از تو حافظه یهچیزایی پیدا میکنیم که بعدش بتونیم تصمیم درست رو بگیریم و برای اینکار باید بفهمیم حافظه چیه چجوری کار میکنه؟و به این نتیجه رسیدیم که حافظه انسان اصلا اون چیزی که ما توی گوشی یا لپ تاب هامون داریم نیست حالا میخوایم مغز رو به عنوان یک عامل بازیابی اطلاعات برای یافتن پاسخ ها (شرط های درخت تصمیم) بشناسیم
@computationalpsychology
Telegram
روانشناسی محاسباتی
از دیدگاه یک مهندس کامپیوتر، تصمیم گیری یک فرآیند منطقی و تحلیلی است که بصورت ریاضی و تئوری قابل نمایش است و چیزی که ما از آن به عنوان تفکر و فکر کردن نام میبریم در دنیای مهندسان کامپیوتر به دسته های زیر تقسیم میشود :
1.استدلال منطقی(Logical):
منطق بولی(Boolean):…
1.استدلال منطقی(Logical):
منطق بولی(Boolean):…
میخواهیم فرق حافظه گوشی ها با حافظه خودمان را کمی بهتر بفهمیم شما در حافظه موبایل وقتی دنبال عکس مبل میگردید قاعدتا در حافظه گوشی دو سه تا عکس از مبل هست که هرکدوم یک عکس هستن و در حافظه یک جای خاص را اشغال کرده اند اما اگر در مغز دنبال کلمه مبل بگردیم دیگر به یک جای خاص مغز که مبل ذخیره شده است نمیرسیم، در مغز معنای مبل ذخیره شده است معنای مبل چیه؟ مبل از میلیارد ها ویژگی تشکیل شده که ما نهایتا بتوانیم 10-20 تا از آن هارا به زبان بیاوریم برای مثال چهار تا پایه داره ،روش میشینن ، معمولا سطح روش صاف و نرمه، و هزاران ویژگی دیگه که ما تجمع این ویژگی هارو بهش میگیم مبل
@computationalpsychology
@computationalpsychology
https://m.youtube.com/watch?v=k61nJkx5aDQ
دراین ویدئو که توسط دانشمندان دانشگاه برکلی ساخته شده میتونید ببینید که تحقیقاتشون نشون داده که فهمیدن معنی هر کلمه در مغز با توجه به فعال شدن قسمت هایی از مغز فعال میشه این به این معنی نیست که یک کلمه در یکجا ذخیره شده بلکه به این معنیه که اون مفهوم یا کلمه با توجه به جایگاهش در کلمات اطرافش شناخته میشه برای مثال در ویدئو میبینید که کلمه top یک بار در کنار ساختمان ها به معنای بالای ساختمان قرار گرفته یکبار هم کنار کلمات اعداد و رتبه بندی قرار گرفته پس شما وقتی کلمه top رو میشنوید یک قسمت مغز صرفافعال نمیشه بلکه همه جا فعال میشه و با توجه(به این توجه خیلی دقت کنید)به فرضیات قبلی از جمله شما میتونید جایگاه اصلیشو حدس بزنید
@computationalpsychology
دراین ویدئو که توسط دانشمندان دانشگاه برکلی ساخته شده میتونید ببینید که تحقیقاتشون نشون داده که فهمیدن معنی هر کلمه در مغز با توجه به فعال شدن قسمت هایی از مغز فعال میشه این به این معنی نیست که یک کلمه در یکجا ذخیره شده بلکه به این معنیه که اون مفهوم یا کلمه با توجه به جایگاهش در کلمات اطرافش شناخته میشه برای مثال در ویدئو میبینید که کلمه top یک بار در کنار ساختمان ها به معنای بالای ساختمان قرار گرفته یکبار هم کنار کلمات اعداد و رتبه بندی قرار گرفته پس شما وقتی کلمه top رو میشنوید یک قسمت مغز صرفافعال نمیشه بلکه همه جا فعال میشه و با توجه(به این توجه خیلی دقت کنید)به فرضیات قبلی از جمله شما میتونید جایگاه اصلیشو حدس بزنید
@computationalpsychology
YouTube
The brain dictionary
Where exactly are the words in your head? Scientists have created an interactive map showing which brain areas respond to hearing different words. The map reveals how language is spread throughout the cortex and across both hemispheres, showing groups of…
اما همه چیز به معنی کلمات ختم نمیشود چه بسا بعضی از کلمات حاوی مفاهیم باشند برای مثال زیبایی و اینجور مفاهیم رو نمیشود در قالب یک سری ویژگی نشان داد و برای هر کلمه متفاوت است جلوتر بیشتر با روانشناسی در مغز آشنا میشویم
شما هم میتونید برید داخل سایتشون و مرحله به مرحله next بزنید و در دنیای مغز یکمی سفر کنید
https://gallantlab.org/brain-viewers/
@computationalpsychology
شما هم میتونید برید داخل سایتشون و مرحله به مرحله next بزنید و در دنیای مغز یکمی سفر کنید
https://gallantlab.org/brain-viewers/
@computationalpsychology
Gallant Lab
Brain Viewers
Interactive brain viewers from Gallant Lab publications
روانشناسی محاسباتی
در یک منطقه معمولا قیمت خونه ها بر حسب متراژ بالا میروند و برای ساده سازی از بقیه ویژگی ها صرف نظر میکنیم نمودار بالا نشان میدهد که در داده های دیوار خانه ها برحسب متراژ چه قیمتی دارند برای مثال یک خانه 40 متری ده میلیارد یک خانه 60 متری 15 میلیارد و همینطور…
خب سوالی که پیش میاد اینه که ما خیلی از خاطراتمون رو دقیق و با جزئیات میتونیم توصیف کنیم و تو ذهنمون ببینیم پس اونا قضیشون چیه؟ برای مثال پاسخ به سوالات زیر یک جواب دقیق و درست دارند
در سفر اخیر شما به دیزنی لند چه اتفاقی افتاد؟
وقتی فهمیدی عزیزی فوت کرده کجا بودی؟
شماره تلفن همراه قدیمیت چی بوده؟
اولین روز کاری شما چجوری بود؟
اولین قرار ملاقات شما با همسرتان کجا و چگونه بود؟
و از این دست سوالات ، برای جواب دادن به این سوال باید مسئله تخمین قیمت خانه را به خاطر بیاورید فرض کنید در دیتا های شما در شهر زیدآباد فقط یک خانه وجود دارد و قیمت آن هم 300 میلیون تومان است خب شما به هنگام تخمین قیمت در اون منطقه فقط همون دیتا را دارید پس تخمین شما به اصطلاح روی اون نقطه overfit میشود یعنی هر تخمینی که بزنید قیمت 300 میلیون به شما داده خواهد شد حالا این چه ربطی به حافظه ما داره؟ ویژگی های این نوع سوالات به جاهای خاص از ذهن میرود که تا دور دست ها هیچ دیتای مشابهی وجود ندارد و شبکه ای که به این سوالات پاسخ میدهد فقط و فقط دیتاهای همان نقطه را برمیگرداند و با ویژگی دیگر دیتاها قاطی نمیکند
@computationalpsychology
در سفر اخیر شما به دیزنی لند چه اتفاقی افتاد؟
وقتی فهمیدی عزیزی فوت کرده کجا بودی؟
شماره تلفن همراه قدیمیت چی بوده؟
اولین روز کاری شما چجوری بود؟
اولین قرار ملاقات شما با همسرتان کجا و چگونه بود؟
و از این دست سوالات ، برای جواب دادن به این سوال باید مسئله تخمین قیمت خانه را به خاطر بیاورید فرض کنید در دیتا های شما در شهر زیدآباد فقط یک خانه وجود دارد و قیمت آن هم 300 میلیون تومان است خب شما به هنگام تخمین قیمت در اون منطقه فقط همون دیتا را دارید پس تخمین شما به اصطلاح روی اون نقطه overfit میشود یعنی هر تخمینی که بزنید قیمت 300 میلیون به شما داده خواهد شد حالا این چه ربطی به حافظه ما داره؟ ویژگی های این نوع سوالات به جاهای خاص از ذهن میرود که تا دور دست ها هیچ دیتای مشابهی وجود ندارد و شبکه ای که به این سوالات پاسخ میدهد فقط و فقط دیتاهای همان نقطه را برمیگرداند و با ویژگی دیگر دیتاها قاطی نمیکند
@computationalpsychology
راستش این چند روزی که پست نذاشتم چون خودم خیلی گیج شدم و نتونستم مطلبم رو به صورت کامل بفهمم که برسونم ،
سوالی که پیش اومد این بود که پس ما چجوری کارهایی که نیاز به انجام مرحله به مرحله دارند رو بهخاطر میسپاریم برای مثال برای حفظ کردن یک مسئله میتوانید اثبات آن را حفظ کنید و اثبات یک مسئله ریاضی معمولا مرحله به مرحله است و هر بار بین مراحل شما باید مرحله بعد را به یاد بیاورید اما این کار چگونه انجام میشود ؟یا برای مثال از شما پرسیده میشود که فرمول فیثاغورس چیست بلافاصله C^2=A^2+B^2 به ذهنتان می آید اما چگونه؟برای همین تصمیم گرفتم یکم شما همراه با من انواع شبکه های عصبی رو بشناسیم و دریابیم که کدوما حافظه دارن کدوما ندارن کدوما حافظشون تغییر نمیکنه کدوما به مرور زمان تغییر میکنه و ... ممکنه یکم مطالب پراکنده بشن که از همینجا عذرخواهی میکنم
@computationalpsychology
سوالی که پیش اومد این بود که پس ما چجوری کارهایی که نیاز به انجام مرحله به مرحله دارند رو بهخاطر میسپاریم برای مثال برای حفظ کردن یک مسئله میتوانید اثبات آن را حفظ کنید و اثبات یک مسئله ریاضی معمولا مرحله به مرحله است و هر بار بین مراحل شما باید مرحله بعد را به یاد بیاورید اما این کار چگونه انجام میشود ؟یا برای مثال از شما پرسیده میشود که فرمول فیثاغورس چیست بلافاصله C^2=A^2+B^2 به ذهنتان می آید اما چگونه؟برای همین تصمیم گرفتم یکم شما همراه با من انواع شبکه های عصبی رو بشناسیم و دریابیم که کدوما حافظه دارن کدوما ندارن کدوما حافظشون تغییر نمیکنه کدوما به مرور زمان تغییر میکنه و ... ممکنه یکم مطالب پراکنده بشن که از همینجا عذرخواهی میکنم
@computationalpsychology
❤🔥1
اولین شبکه های که اختراع و استفاده شد شبکه عصبی feedforward neural network (FFNN)و یکی از ساده ترین انواع شبکه های عصبی مصنوعی ابداع شده است. در این شبکه، اطلاعات تنها در یک جهت - به جلو - از گره های ورودی، از طریق گره های پنهان (در صورت وجود) و به گره های خروجی حرکت می کند. هیچ چرخه یا حلقه ای در شبکه وجود ندارد.
ساختار:
لایه ورودی: این لایه داده های اولیه را دریافت می کند. هر نورون در این لایه نشان دهنده یک ویژگی یا ویژگی از داده های ورودی است.
لایه های پنهان: لایه های میانی هستند که محاسبات در آنها انجام می شود. ممکن است یک یا چند لایه پنهان وجود داشته باشد که هر کدام حاوی نورون هایی هستند که وزن ها و بایاس ها را به ورودی ها اعمال می کنند و آنها را از طریق یک تابع فعال سازی عبور می دهند.
لایه خروجی: لایه نهایی خروجی شبکه را تولید می کند. تعداد نورون های این لایه با تعداد خروجی ها مطابقت دارد.
@computationalpsychology
ساختار:
لایه ورودی: این لایه داده های اولیه را دریافت می کند. هر نورون در این لایه نشان دهنده یک ویژگی یا ویژگی از داده های ورودی است.
لایه های پنهان: لایه های میانی هستند که محاسبات در آنها انجام می شود. ممکن است یک یا چند لایه پنهان وجود داشته باشد که هر کدام حاوی نورون هایی هستند که وزن ها و بایاس ها را به ورودی ها اعمال می کنند و آنها را از طریق یک تابع فعال سازی عبور می دهند.
لایه خروجی: لایه نهایی خروجی شبکه را تولید می کند. تعداد نورون های این لایه با تعداد خروجی ها مطابقت دارد.
@computationalpsychology
❤1
نحوره عملکرد FFNN:
انتشار رو به جلو: داده ها از طریق شبکه در یک جهت جریان می یابد - از لایه ورودی، از طریق لایه های پنهان، به لایه خروجی. هیچ حلقه بازخوردی درگیر نیست.
تنظیم وزن: هر اتصال بین نورون ها دارای یک وزن مرتبط است که قدرت و جهت تأثیر بین نورون ها را تعیین می کند.
تابع فعال سازی: هر نورون ورودی خود را با استفاده از یک تابع فعال سازی (به عنوان مثال، ReLU، sigmoid، tanh) پردازش می کند تا غیرخطی بودن را معرفی کند و به شبکه اجازه می دهد تا مسائل پیچیده را حل کند.(این رو بعدا توضیح میدم)
محاسبه خروجی: خروجی نهایی توسط نورون های لایه خروجی بر اساس محاسبات انجام شده در لایه های پنهان محاسبه می شود
@computationalpsychology
انتشار رو به جلو: داده ها از طریق شبکه در یک جهت جریان می یابد - از لایه ورودی، از طریق لایه های پنهان، به لایه خروجی. هیچ حلقه بازخوردی درگیر نیست.
تنظیم وزن: هر اتصال بین نورون ها دارای یک وزن مرتبط است که قدرت و جهت تأثیر بین نورون ها را تعیین می کند.
تابع فعال سازی: هر نورون ورودی خود را با استفاده از یک تابع فعال سازی (به عنوان مثال، ReLU، sigmoid، tanh) پردازش می کند تا غیرخطی بودن را معرفی کند و به شبکه اجازه می دهد تا مسائل پیچیده را حل کند.(این رو بعدا توضیح میدم)
محاسبه خروجی: خروجی نهایی توسط نورون های لایه خروجی بر اساس محاسبات انجام شده در لایه های پنهان محاسبه می شود
@computationalpsychology
🌭73❤1
مثال: تبدیل تصویر به کلمه
لایه ورودی
قشر بینایی: قشر بینایی اولیه (V1) ورودی بصری خام از چشم ها را پردازش می کند و ویژگی های اساسی مانند لبه ها و رنگ ها را شناسایی می کند.
لایه های پنهان
ویژگی های سطح پایین: نورون ها در ناحیه V1 اطلاعات پردازش شده را به مناطق بصری بالاتر مانند V2 و V4 منتقل می کنند که ویژگی های پیچیده تری مانند اشکال و الگوها را تشخیص می دهند.
ویژگی های سطح متوسط: پردازش بیشتر در مناطقی مانند کمپلکس اکسیپیتال جانبی رخ می دهد، جایی که نورون ها اشکال و اشیاء اطرافشان را تشخیص می دهند.
ویژگی های سطح بالا: در نهایت، ناحیه صورت دوکی شکل (FFA) همه این ویژگی ها را برای تشخیص چهره به عنوان یک کل و شناسایی آن به عنوان آشنا یکپارچه می کند.
لایه خروجی
شناسایی و شناسایی: خروجی نهایی زمانی تولید می شود که اطلاعات پردازش شده به لوب گیجگاهی برسد، جایی که چهره شناسایی می شود و خاطرات مرتبط برای شناسایی فرد یادآوری می شود.
لایه ورودی
قشر بینایی: قشر بینایی اولیه (V1) ورودی بصری خام از چشم ها را پردازش می کند و ویژگی های اساسی مانند لبه ها و رنگ ها را شناسایی می کند.
لایه های پنهان
ویژگی های سطح پایین: نورون ها در ناحیه V1 اطلاعات پردازش شده را به مناطق بصری بالاتر مانند V2 و V4 منتقل می کنند که ویژگی های پیچیده تری مانند اشکال و الگوها را تشخیص می دهند.
ویژگی های سطح متوسط: پردازش بیشتر در مناطقی مانند کمپلکس اکسیپیتال جانبی رخ می دهد، جایی که نورون ها اشکال و اشیاء اطرافشان را تشخیص می دهند.
ویژگی های سطح بالا: در نهایت، ناحیه صورت دوکی شکل (FFA) همه این ویژگی ها را برای تشخیص چهره به عنوان یک کل و شناسایی آن به عنوان آشنا یکپارچه می کند.
لایه خروجی
شناسایی و شناسایی: خروجی نهایی زمانی تولید می شود که اطلاعات پردازش شده به لوب گیجگاهی برسد، جایی که چهره شناسایی می شود و خاطرات مرتبط برای شناسایی فرد یادآوری می شود.
😭15🌭2
معماری ایرانی چند روزیه که من رو به وجد آورده،طراحی هوشمندانه این نوع بناها به من یادآوری میکنه که پیچیده ترین الگوریتم ها هم نمیتوانند مانند انسان هوشمند درک درستی از محیط زندگی ما به ما بدهند
عکس ها مربوط به یخدان های دوقلو سیرجان
بادگیر های ایرانی
برکه های باران بندرعباس هست
که هوشمندی مردم آن زمان هارا نشان میداده که چگونه در efficient ترین حالت ممکن آب هارا نگهداری و استفاده میکردند و محیط خوبی برای خودشان فراهم میکردند
عکس ها مربوط به یخدان های دوقلو سیرجان
بادگیر های ایرانی
برکه های باران بندرعباس هست
که هوشمندی مردم آن زمان هارا نشان میداده که چگونه در efficient ترین حالت ممکن آب هارا نگهداری و استفاده میکردند و محیط خوبی برای خودشان فراهم میکردند
😭10👍3❤1💔1
در معماری سنتی یخدانهای ایران، دیوارهای بلند (معمولاً ۸ تا ۱۵ متر) نقش تعیینکنندهای در فرآیند تولید و نگهداری یخ داشتند. این دیوارها با طراحی هوشمندانه، از فناوری غیرفعال (Passive Cooling) استفاده میکردند. در ادامه عملکرد دقیق آنها را توضیح میدهم:
❄️ ۴ وظیفه اصلی دیوارهای بلند کنار یخدانها:
سایهاندازی گسترده (Shading):
ارتفاع بلند دیوار (۱۲ متر) باعث میشد سایه کامل بر روی حوضچههای یخسازی بیفتد.
از تابش مستقیم خورشید بهویژه در ظهر تابستان جلوگیری میکرد → کاهش دمای حوضچهها.
تله باد سرد (Wind Catcher):
دیوار به عنوان مانعی در مسیر بادهای گرم عمل میکرد.
هوای خنک شب را در پشت خود جمع میکرد → ایجاد جریان هوای خنک به سمت حوضچهها.
تشعشع حرارتی معکوس (Radiative Cooling):
سطح دیوار با رنگ تیره (معمولاً قیر یا گل سیاه) پوشانده میشد.
در طول روز گرما جذب میکرد → شبها این گرما را به صورت امواج مادونقرمز به آسمان سرد تابش میداد → کاهش دمای محیط اطراف.
محافظت در برابر شنهای روان:
در مناطق کویری، از ورود شن به حوضچهها جلوگیری میکرد.
📐 چرا ارتفاع دقیقاً ۱۲ متر؟ محاسبات فنی:
زاویه خورشید در زمستان:
در عرضهای جغرافیایی ایران (مثلاً یزد: °۳۲ شمالی)، ارتفاع خورشید در ظهر زمستانی ≈ °۳۴ است.
محاسبه سایهاندازی:
text
طول سایه = ارتفاع دیوار / tan(زاویه خورشید)
طول سایه = ۱۲ / tan(۳۴°) ≈ ۱۲ / ۰.۶۷ = ۱۷.۹ متر
→ دیوار ۱۲ متری، حوضچههای یخسازی را کاملاً میپوشاند.
بهینهسازی برای تابستان:
در تابستان (ارتفاع خورشید ≈ °۸۰)، سایه کوتاهتر میشد → حوضچهها فقط صبح/عصر در سایه بودند.
🔬 اثر دیوار بر تولید یخ (مطالعه میدانی در یخدان مویدی کرمان):
پارامتر با دیوار بلند بدون دیوار
دمای شبانه حوضچه -۴°C +۲°C
ضخامت یخ تولیدی ۳۵–۴۰ سانتیمتر ۵–۱۰ سانتیمتر
مدت نگهداری یخ ۴–۵ ماه ۱–۲ ماه
🏺 ساختار مهندسی دیوارها:
مصالح:
هسته: خشت خام (ضخامت ۱.۵ متر)
پوشش: کاهگل + خاکستر (برای افزایش جذب تشعشعی)
پایداری:
شیب ۸۵ درجه (متمایل به داخل) برای مقاومت در برابر باد.
پایههای سنگی به عمق ۲ متر.
☀️ نمونههای تاریخی باقیمانده:
۱. یخدان مویدی کرمان:
دیوار به طول ۶۰ متر و ارتفاع ۱۲ متر.
حفاظت از ۴ حوضچه یخسازی.
https://upload.wikimedia.org/wikipedia/commons/thumb/d/d6/Yakhchal-e_Moayedi_01.jpg/800px-Yakhchal-e_Moayedi_01.jpg
۲. یخدان زریسف یزد:
دیوار دوقلو با کانال میانی برای هدایت باد.
۳. یخدان اکبرآباد تهران:
تنها نمونه باقیمانده در پایتخت با دیوار ۱۰ متری.
✅ جمعبندی: چرا این دیوارها معجزهآسا بودند؟
تبدیل گرما به سرما: با جذب گرمای روز و تابش آن به آسمان در شب.
تولید یخ در دمای بالاتر از صفر: حتی اگر دمای هوا +۵°C بود، دیوار محیط حوضچه را به -۳°C میرساند.
صرفهجویی انرژی: بدون مصرف سوخت یا برق!
این دیوارها قدیمیترین سیستمهای سرمایش غیرفعال جهان هستند و امروزه الهامبخش معماران پایدار (Sustainable Architecture) میباشند. برای درک بهتر، بازدید از یخدان مویدی کرمان را توصیه میکنم!
❄️ ۴ وظیفه اصلی دیوارهای بلند کنار یخدانها:
سایهاندازی گسترده (Shading):
ارتفاع بلند دیوار (۱۲ متر) باعث میشد سایه کامل بر روی حوضچههای یخسازی بیفتد.
از تابش مستقیم خورشید بهویژه در ظهر تابستان جلوگیری میکرد → کاهش دمای حوضچهها.
تله باد سرد (Wind Catcher):
دیوار به عنوان مانعی در مسیر بادهای گرم عمل میکرد.
هوای خنک شب را در پشت خود جمع میکرد → ایجاد جریان هوای خنک به سمت حوضچهها.
تشعشع حرارتی معکوس (Radiative Cooling):
سطح دیوار با رنگ تیره (معمولاً قیر یا گل سیاه) پوشانده میشد.
در طول روز گرما جذب میکرد → شبها این گرما را به صورت امواج مادونقرمز به آسمان سرد تابش میداد → کاهش دمای محیط اطراف.
محافظت در برابر شنهای روان:
در مناطق کویری، از ورود شن به حوضچهها جلوگیری میکرد.
📐 چرا ارتفاع دقیقاً ۱۲ متر؟ محاسبات فنی:
زاویه خورشید در زمستان:
در عرضهای جغرافیایی ایران (مثلاً یزد: °۳۲ شمالی)، ارتفاع خورشید در ظهر زمستانی ≈ °۳۴ است.
محاسبه سایهاندازی:
text
طول سایه = ارتفاع دیوار / tan(زاویه خورشید)
طول سایه = ۱۲ / tan(۳۴°) ≈ ۱۲ / ۰.۶۷ = ۱۷.۹ متر
→ دیوار ۱۲ متری، حوضچههای یخسازی را کاملاً میپوشاند.
بهینهسازی برای تابستان:
در تابستان (ارتفاع خورشید ≈ °۸۰)، سایه کوتاهتر میشد → حوضچهها فقط صبح/عصر در سایه بودند.
🔬 اثر دیوار بر تولید یخ (مطالعه میدانی در یخدان مویدی کرمان):
پارامتر با دیوار بلند بدون دیوار
دمای شبانه حوضچه -۴°C +۲°C
ضخامت یخ تولیدی ۳۵–۴۰ سانتیمتر ۵–۱۰ سانتیمتر
مدت نگهداری یخ ۴–۵ ماه ۱–۲ ماه
🏺 ساختار مهندسی دیوارها:
مصالح:
هسته: خشت خام (ضخامت ۱.۵ متر)
پوشش: کاهگل + خاکستر (برای افزایش جذب تشعشعی)
پایداری:
شیب ۸۵ درجه (متمایل به داخل) برای مقاومت در برابر باد.
پایههای سنگی به عمق ۲ متر.
☀️ نمونههای تاریخی باقیمانده:
۱. یخدان مویدی کرمان:
دیوار به طول ۶۰ متر و ارتفاع ۱۲ متر.
حفاظت از ۴ حوضچه یخسازی.
https://upload.wikimedia.org/wikipedia/commons/thumb/d/d6/Yakhchal-e_Moayedi_01.jpg/800px-Yakhchal-e_Moayedi_01.jpg
۲. یخدان زریسف یزد:
دیوار دوقلو با کانال میانی برای هدایت باد.
۳. یخدان اکبرآباد تهران:
تنها نمونه باقیمانده در پایتخت با دیوار ۱۰ متری.
✅ جمعبندی: چرا این دیوارها معجزهآسا بودند؟
تبدیل گرما به سرما: با جذب گرمای روز و تابش آن به آسمان در شب.
تولید یخ در دمای بالاتر از صفر: حتی اگر دمای هوا +۵°C بود، دیوار محیط حوضچه را به -۳°C میرساند.
صرفهجویی انرژی: بدون مصرف سوخت یا برق!
این دیوارها قدیمیترین سیستمهای سرمایش غیرفعال جهان هستند و امروزه الهامبخش معماران پایدار (Sustainable Architecture) میباشند. برای درک بهتر، بازدید از یخدان مویدی کرمان را توصیه میکنم!
😢32💔27😭8👍3❤1😁1