تقاطع اخلاق و فناوری – Telegram
تقاطع اخلاق و فناوری
544 subscribers
371 photos
50 videos
13 files
167 links
مجله تلگرامی کارگروه اخلاق و فناوری اندیشکده مهاجر، دانشگاه صنعتی شریف
ارتباط با ادمین:

@behzadface
@Abootalebsaf
@Mahdi7khalili
Download Telegram
🔶نویسنده نهایتا یک سیستم اتوماسیون مناسبِ خدمات رفاهی در شیکاگو را به عنوان مثال خوب معرفی میکند که با گرفتن حداقل اطلاعات از افراد، تمام مشمولیتهای رفاهی آنها را بررسی کرده و با توضیحات فرد به فرد (حضوری یا با نامه نگاری)، مردم را برای برخورداری از تسهیلات راهنمایی میکند. او تاکید میکند اگر به بررسی و اصلاح سیستمها نپردازیم تا به سیستمهای عدالت محور تبدیل شوند، ممکن است به مشکلاتی دچار شویم که به یک نوع نوانخانه در فضای دیجیتال (digital poorhouse) منتهی شود. دیتا ساینتیسها، مدیران و توسعه دهندگان، اغلب بر وجوه فنی و تکنیکی سیستمها توجه میکنند و مسایل اخلاقی اینچنینی فقط در بررسیهای بعدی مورد دقت قرار میگیرند. ابعاد اجتماعی فناوری هم باید مورد توجه فناوران و سیاستگذاران قرار بگیرد تا به مدل ایده آل نزدیک شویم. ما معمولا انتظار داریم که با استفاده از فانوری به توزیع بهینه‌تری از منابع دست بیابیم، ولی گاهی این اتفاق نمی افتد. این کتاب مثالی از بررسیهای ثانوی (اخلاقی-اجتماعی) بر روی الگوریتمها و سیستمهای مبتنی بر فناوری است که منجر به بی‌عدالتی شده‌اند.
✏️ افسردگیِ اینستاگرامی

ابوطالب صفدری

🔸 انجمن سلطنتی بهداشت عمومی بریتانیا (Royal Society for Public Health)، در اوایل سال 2017 تحقیقاتی در مورد ارتباط استفاده از شبکه‌های اجتماعی (5 شبکۀ اجتماعی پر طرفدار: فیس‌بوک، اسنپ چت، اینستاگرام، توئیتر و یوتیوب) و سلامتِ روانیِ جوانان انجام داده و نتایج آن را منتشر کرده است. در این نوشتار کوتاه، مروری فشرده خواهم داشت بر نتایجِ بسیار جالب توجه این پژوهش.

🔸 بر اساس این تحقیق – که از طریق لینک پایان متن می‌توانید به گزارش کاملِ آن دست پیدا کنید - نتایج زیر حاصل شده است:

- استفادۀ 91 درصد از جوانان 16 الی 24 سال از اینترنت، به منظور دسترسی به شبکه‌های اجتماعی است؛
- شبکه‌های اجتماعی بیش از سیگار و الکل اعتیادآور هستند؛
- سطح اضطراب و استرس در جوانان، طی 25 سال گذشته، 70 درصد افزایش یافته است؛
- استفاده از شبکه‌های اجتماعی با کم‌خوابی، افزایش اضطراب و استرس و افسردگی ارتباط دارد؛

🔸لازم به یادآوری است که این آثار منفی غالباً در کاربرانی مشاهده می‌شود که روزانه بیش از 2 ساعت از شبکه‌های اجتماعی مختلف استفاده می‌کنند. بخشِ جالبِ این گزارش در مورد تصورِ کاربران از بدن‌های خودشان است. در این بخش چنین می‌خوانیم:

"اینستاگرام به راحتی منجر به آن می‌شود که زنان و دختران در مورد وضعیت بدنی‌شان احساس نارضایتی کنند چرا که تصاویری ویرایش‌شده و دستکاری شده از سایرین را می‌بینند که کاملاً بی‌نقص به نظر می‌رسند (ص 10 گزارش)".

و اینکه طبقِ آمار‌های منتشر شده 90 درصدِ دخترانِ جوانِ کاربرِ شبکه‌های اجتماعی از وضعیت بدنی خود ناراضی هستند.

🔸ارزیابیِ نهاییِ این گزارش نیز در نوع خود بسیار جالب توجه است. در این ارزیابی، اینستاگرام به عنوان بدترین شبکۀ اجتماعی با بیشترین تاثیراتِ منفی شناخته شده است. پیامدهای نامطلوبی از قبیل افزایش استرس و اضطراب، افسردگی، مشکلِ کم‌خوابی، احساس تنهایی و ... برخی از پیامدهای منفیِ استفاده از این شبکۀ اجتماعی بسیار پرطرفدار است.

🔸 وقتی که آمار و ارقام بالا را در کنار این واقعیت قرار می‌دهیم که ایران، با 24 میلیون کاربرِ فعال در اینستاگرام، ردۀ هفتم استفاده از این شبکۀ اجتماعی را به خود اختصاص داده است ، کمی احساس نگرانی می‌کنیم. با توجه به فیلترینگ تلگرام در ماه‌های اخیر، قطعاً این تعداد افزایش بیشتری خواهد داشت. اگر پیامدهای روحی روانیِ منفیِ اینستاگرام را در نظر بگیریم، احتمالاً باید انتظار افزایش معنادارِ افسردگی و سایر اختلالات روانی را در میان جوانان ایرانی داشته باشیم.

https://www.rsph.org.uk/our-work/campaigns/status-of-mind.html
پادکست تقاطع را می‌توانید از شنوتو بشنوید یا از همین‌ کانال دانلود کنید
https://shenoto.com/podcast/24470
انسان همواره عادت به دیوار کشیدن و مرزبندی بین خودش و دیگران داشته. در نگاه اول، دیوارها و مرزها نشون‌دهنده دارایی‌های شخصی، خانوادگی و یا حتی اموال یک کشور و مردمانشه. درواقع، مرزها شاید به طور ضمنی به این سوال پاسخ بدند که چه چیزهایی برای منه؟ و چه چیزهایی برای توست؟ اما اگر دقیق تر نگاه کنیم، حد و مرزها مشخص کننده‌ این واقعیتند که هویت من چیه؟ و هویت تو چیست؟ خلاصه اینکه، من و تو چه تمایزات و اختلافاتی نسبت به همدیگه داریم. در‌حقیقت، انسان با کشیدن این حد و مرزها به دور خودش و دیگران، و با ایجاد تضاد و تقابل، به هویت‌‌ خودش معنای شفاف‌تری می بخشه.

در این قسمت بیشتر قصد داریم تا به بررسی جنبه های مخفی‌تر و منفی‌تر وطن‌پرستی بپردازیم: وطن پرستی چیه؟ چگونه احساسیه؟ و اصلا چرا شکل گرفته؟ در آخر هم، راه حلی برای مواجهه با جنبه های منفی وطن پرستی ارائه می‌دیم که عمدتا مبتنی بر رشد علم و تکنولوژی و همه گیر شدن شون در جهانه.

پادکست تقاطع را می‌توانید از شنوتو بشنوید یا از همین‌ کانال دانلود کنید.

https://shenoto.com/podcast/24470
Audio
#پادکست، شماره۲، وطن‌پرستی و خودشیفتگی
✏️افسون‌زدایی از فوتبال
مهدی خلیلی


🔸کمک‌داور ویدئویی برای اولین بار در جام‌جهانی به‌کار گرفته شد تا تکنولوژی در تصاحب تمام ساحات زندگی بشر یک گام دیگر پیش برود. جیوانی اینفانتینو، رئیس فیفا، معتقد است با این تکنولوژی عدالت در فوتبال به اجرا در خواهد آمد و اشتباهات بزرگ دیگر تکرار نمی‌شوند. موافقان سیستم جدید داوری معتقد اند عدالت آرمان بزرگی‌ست و کمک‌داور ویدئویی به تحقق بهتر آن می‌انجامد. البته ممکن است فعلا در استفاده از این فناوری خلل‌هایی وجود داشته باشد، و داوران مختلف از این فناوری ناهم‌گون استفاده کنند، اما می‌توان امیدوار بود که با رفع نواقص، روز به روز به اجرای کامل عدالت در داوری فوتبال نزدیک‌تر شویم.

🔸اما چگونه نواقصِ سیستم فعلی رفع می‌شود و عدالت به‌طور کامل به‌اجرا در می‌آید؟ به نظر می‌رسد با استفاده بیش‌تر و بیش‌تر از سامانه‌های فناورانه و هوش‌مند می‌توان به چنان نقطه‌ای رسید. کمک‌داوران ویدئویی فعلا صرفا در گل‌ها، پنالتی‌ها، کارت‌های قرمز، و تشخیص‌ هویت‌های اشتباه وارد عمل می‌شوند، و ورود آن‌ها نیز هنوز امری انسانی است؛ یعنی هم‌چنان ممکن است داوران ویدئویی اشتباه کرده باشند و یا داور داخل زمین در نظر اشتباهش لجاجت کند و مواردی از این قبیل. اما اگر همه‌ی این موارد "انسانی" حذف شوند می‌توان امیدوار بود که خطا هم حذف شود و شاهد تحقق عدالت در قضاوت فوتبال باشیم. سیستم‌های آینده احتمالا کاملا فناورانه و هوش‌مند اند و خود بر اساس قوانین فوتبال داوری‌های عادلانه‌ای انجام ‌دهد تا هیچ امکانی برای تردید باقی نماند.

🔸مخالفان ممکن است استدلال کنند که چنین سیستم‌ آرمانی‌ای تحقق‌پذیر نیست چون داوری فوتبال کاری پیچیده است و هیچ سامانه‌ی هوشمندی نمی‌تواند جای انسان بنشیند و قوانین مختلف فوتبال را در یک آن سبک‌سنگین کند و به قضاوت نهایی برسد. این استدلال می‌تواند جالب و بحث‌برانگیز باشد اما من فعلا به خط دیگری از استدلال مخالفان علاقه‌مندم که در ادامه شرح می‌دهم.

🔸انتقاد جالب توجه مخالفان این است که سیستم جدید داوری شور و هیجان فوتبال را کاسته است و در یک کلام روح فوتبال را زندانی کرده‌است. مخالفان معتقد اند جذابیت فوتبال به طبیعی و انسانی بودن آن است که با سیستم‌های فناورانه در حال نابود شدن است. آن‌ها اشتباه‌های داوری را هم جزئی از ذات فوتبال می‌دانند. خیلی از کری‌خواندن‌ها و بگومگوهای طرف‌داران تیم‌های مختلف به همین اشتباه‌ها برمی‌گردد. اگر کمک‌داور ویدئویی وجود داشت آیا هم‌چنان گل دست‌خدای مارادونا در جام‌جهانی 1986 مکزیک سر زبان‌ها می‌افتاد؟ آیا گل دقیقه‌ی آخری که با هند تیری آنری در 2010 بدست آمد، و باعث صعود ‘نفرت‌انگیز’ فرانسه به جام جهانی و حذف ایرلند شد، هم‌چنان خاطره‌انگیر می‌شد؟

🔸فوتبال پیش از این کاملا انسانی بود، به این معنا که انسان با همه‌ی خطاها، نقص‌ها، غرض‌ورزی‌ها، خستگی‌ها، زرنگی‌ها، دغل‌بازی‌ها و کارهای غیرمنتظره‌اش در آن حضور داشت. بخشی از شور و احساس فوتبال به همین نفرت‌های ناشی از شیطنت‌های بازیکنان بازمی‌گشت. خیلی از اسطوره‌ها همین‌طور اسطوره می‌شدند. اما فوتبال پس از این کاملا محاسباتی و ریاضیاتی شده‌است. اگر پس از این مارادونایی ظهور کند و با بازیگوشیِ خاص خود بخواهد دست خدا را به مستطیل سبز بکشاند، صرفا با یک بازبینی در فیلم، احتمالا کارت زردی می‌گیرد و سرافکنده از این مسخره‌بازی‌ که درآورده به زمین خودی برمی‌گردد. پس از این دیگر پیرلوئیجی کولینایی در فوتبال ظهور نخواهد کرد تا با چشمان کاملا باز خود همه چیز را تحت مراقبت داشته باشد. اصلا از این به بعد فوتبال هیچ داور بزرگی به خود نخواهد دید چون داوران دیگر لازم نیست خیلی خودشان را به زحمت بیندازند، تنها کافی‌ست در موارد مشکوک به تکنولوژی مراجعه، و حقیقت ماجرا را دریابند.

🔸ماکس وبر باور داشت با ظهور مدرنیته، عقلانیت در همه‌ی عرصه‌های زندگی بشر گسترش می‌یابد و این به اسطوره‌زدایی یا افسون‌زدایی از جوامع بشری می‌انجامد. در عصر جدید، جوامع بروکراتیک، سکولار، علمی و تکنولوژیک اند و هیچ‌جایی برای ظهور و بروز افسون و شورمندی باقی نمی‌ماند. جهان در دنیای مدرن صرفا بر اساس ایدآل عقلانیت پیش می‌رود. با این حساب، ورودِ کمک‌داور ویدئویی را باید به معنای مدرن شدن فوتبال تفسیر کرد. پذیرش VAR، همان‌طور که اینفانتینو بیان کرد، ‘یک تصمیم تاریخی’ برای فوتبال بوده‌است. با این تصمیم، فوتبال به در بند کردن روح سرکش خود، و پذیرش افسون‌زدایی، تن داده‌است.
✏️دورنمای ماشین‌های اخلاقی
نویسنده: کولین الن، استاد فلسفه دانشگاه پیتسبورگ
ترجمه: روح الله صولت

🔸خطِ داستانیِ رویارویی ماشین‌های هوشمند با انسان‌ها از خود واژه روبات نیز قدیمی‌تر است. این رویارویی اولین بار در سال ۱۹۲۰ توسط کارل کپک نویسنده و نمایشنامه‌نویس اهل کشور چک مطرح شده است. نمایشی که کارکنان مصنوع کارخانه ای را به تصویر می کشد که علیه انسان-اربابان خویش شورش می‌کنند. ۲۲ سال بعد٬ آیزاک آسیموف٬ استادِ دانشگاه و نویسنده‌ی برجسته رمان‌های علمی-تخیلی٬ «سه قانون روباتیک» را بعنوان احکام اخلاقی ضروری در دنیای ربات‌ها طرح ریزی می کند. اول: هیچ‌گاه به یک انسان آسیب نرسان. دوم: از دستورات انسانی پیروی‌کن و درآخر: از خود حفاظت‌کن. اما از همان اولین داستانی که این قوانین در بستر آن ظاهر شدند٬ آسیموف به تناقضات ساختاری این احکام نسبت به یکدیگر پی برد. یک رمان تخیلی ممتاز همراه با یک چارچوب اخلاقی ناکارآمد.

🔸امروزه شاید چشم‌اندازِ توانمند‌سازی ماشین‌ها برای پیروی از اصول اخلاقی، و یا حتی درک تئوریک چنین هدفی، به اندازه‌ي قدمت تاریخی واژه‌ی روبات دور به‌نظر بیاید. برخی از متخصصان حوزه‌ي تکنولوژی٬ از روی مشاهداتی که ناظر بر دوبرابر‌شدن توان محاسباتی کامپیوتر‌ها در هر هجده‌ماه است٬ یک جهش ناگهان در دنیای تکنولوژی را پیش‌بینی می‌کنند. طبق این دورنما٬ ماشین‌ها به زودی آستانه‌يِ هوش انسانی را پشت سر خواهند‌گذاشت. بسیاری از این افراد فرض می‌کنند که هوش انسانی تنها نتیجه‌‌ای مستقیم از فرآیندهای پیچیده‌ی محاسباتی است که با پیشرفت‌های سخت‌ افزاری قابل دست یابی و حتّی عبور خواهد بود. در میان این گروه، افراد خوشبین به تکنولوژی عقیده‌دارند که رویارویی ماشین‌های هوشمند با انسان‌ها اساسا دوستانه خواهد بود. بسیاری اما به ظهور زودهنگام چنین پیشرفتی مشکوک هستند. بر این اساس٬ حتی اگر مفهوم «هوش مصنوعی» از لحاظ محتوا ضدونقیض‌گویی نباشد، «هوش مصنوعی بشر‌دوستانه» نیازمند پیشرفت های اساسی در زمینه‌های گوناگون است.

🔸درحال حاضر٬ دانش‌های مرتبط با علوم عصبی و علوم شناختی به سرعت در حال توسعه و پیشرفت می باشند. برپایه اهداف و دست‌آورد‌های آن‌ها، گزینه‌های متعددی توانایی جایگزینی مدل قدیمیِ ذهن-همچون-کامپیوتر را دارا می باشند. در واقع٬ تئوریِ سیستم‌هایِ پویا، علومِ شبکه، تئوریِ یادگیریِ آماری، روان-زیست‌شناسیِ تحولی٬ علوم‌اعصاب مولکولی و ۵۰ سال اخیر از رشد و نمو علوم شناختی شاخه‌هایی هستند که مسئولیت تولید و پیشبرد فرضیات اساسی مرتبط با هوش مصنوعی را در اختیار داشته‌اند. این رویکردهای نوین٬ ساختار پیچیده‌ي عِلّیِ سیستم های فیزیکی که در محیطی خارجی جایدهی شده‌اند را در تمامی سطوح مولکولی تا اجتماعی مورد تحلیل و اکتشاف قرار‌می‌دهند. آنها همچنین ناکارآمدی الگوریتم‌های سنتی و بسیار انتزاعی را که در ساختارهای ثابت و غیر‌منعطف به دنبال کشفِ هوشمندی بوده‌اند را، آشکارا نشان می‌دهند. علیرغم نقایص تئوری ذهن-همچون-کامپیوتر،‌این رویکردِ قدیمی توانایی ما در استفاده از کامپیوترها برای شبیه‌سازی‌های کارآمدتز از یک عامل هوشمند را به شدت ارتقاء داده‌اند. شبیه‌سازی‌هایی که با روندی روبه‌ رشد ماشین‌هایی را طراحی کرده اند که به قلمرو شناختی ما وارد شده و آن را تحت کنترل خود قرار می دهند. اگر این حرف در نظرتان قابل پذیرش نیست بهتر است با سیری٬ دستیار هوشمند سیستم عامل اپل٬ گفتگو کنید.

🔸به‌همین دلیل٬ باید نسبت به موضوع اخلاقِ ماشین‌های هوشمند جدی تر پرداخته شود. بسیاری اما ایده‌یِ ماشین‌های اخلاقمند را نوعی طنز می‌دانند چراکه معتقدند ماشین‌ها صرفا کاری را که به آن ها دستور داده شده‌است انجام‌می‌دهند. مثلا روباتی که قرار‌است ازمغازه‌ای دزدی‌کند باید برای این منظور خاص برنامه‌ریزی شده باشد و آموزش‌ ببیند. در چنین دیدگاهی، امر اخلاقی تنها مخصوص مخلوقاتی همچون انسان است که می‌توانند آزادانه گزینه‌ي غیر اخلاقی را نیز انتخاب‌کنند. یک انسان تنها در صورتی خوب محسوب می‌شود که بر انگیزه انجام کار نادرست غلبه‌کند. بر این اساس٬ آزاد بودن پیش نیاز اساسی اخلاقمند بودن است.

🔸اگر نخواهیم مستقیما به خود طبیعت و ذات امر اخلاقی بپردازیم حدالقل باید به مفاهیم مهم مرتبط با آن همچون اراده‌ي آزاد و خلاقیت و عقلانیت انسانی که منجر به انتخاب‌های خوب یا اخلاقی وی می شوند نگاه کنیم. برای آنکه انسانیت٬ اخلاقمندی و مسئولیت‌هایی که در پرتوی‌ آنها بر دوش انسان سوار می شوند در حوزه ي‌ماشین های هوشمند نیز پیاده سازی شوند٬ هوش و حیات مصنوعی نیازمند توسعه و پیشبردهای بزرگتری است. پشرفت‌هایی که اکنون تنها در حوزه علمی-تخیلی قابل بررسی می باشند.
🔸روز‌به‌روز به کارکرد ماشین‌ها در فضای فیزیکی مشترک با انسان افزوده شده و از نظارت انسانی بر آنها کاسته می‌شود. کمپانی‌های مختلف در حال توسعه روبات‌ها برای محافظت و نگه داری از سالمندان در منزل هستند. روبات‌های جاروبرقی و چمن‌زنی هم‌اکنون در بازارهای جهانی در دسترس همگان می باشند. اتومبیل‌های خودران هم از قافله عقب نمانده‌اند.کمپانی مرسدس بنز مدل های جدید خود را به سیستمی مجهز‌کرده که در ترافیک‌های شهری می‌توانند تا سقف مشخصی از سرعت را به‌ صورت خودکار هدایت و راهبری شوند. اتوموبیل های خودران گوگل بدون حتی یک تصادف و در شرایط‌ گوناگون محیطی٬ کیلومترها در ایالات و آزادراه های مختلف آمریکا به حرکت درآمده اند. گوگل تخمینی ارائه‌کرده‌ که طبق آن این اتوموبیل ها با نرخ یکبار در هر هزار مایل نیازمند مداخله و کمک انسانی بوده‌اند. هدف بلند مدت‌تر امّا٬ کوچک و کوچک تر کردن نرخ مداخله‌ي انسانی در ساز‌وکارِ این ماشین‌های‌ هوشمند است. آیا امکان دارد که روزی سارق یک بانک با استفاده از یک اتومبیل خودران از محل حادثه فرارکند؟

🔸البته چنین برداشتی از مفهوم استقلال و آزادیِ ماشین‌ها از منظر مهندسی مطرح شده است؛ نه از دیدگاهی فلسفی. اینگونه اتومبیل‌ها٬ احساسی گنگ و یا حتی توهمی کوچک از یک اراده‌یِ آزاد را نخواهند‌داشت. آنها اکنون در انتخابِ مسیر تردد شهری‌شان توانا هستند، اما در یک آینده‌‌‌ای نزدیک٬ هرگز آنقدر توانا نخواهند بود تا مسیر طولانی زندگی‌شان از نمایندگی فروش تا گورستان ماشین‌ها را به صورت خودکار انتخاب و طی‌کنند. هرگز نباید روزی فرا‌رسد که اتومبیل‌ها انسان را رهاکرده و به موسسات صلح‌طلب و حامی حقوق شهروندی محلق‌شده و در آن‌ها فعالیت کنند. اما با اضافه شدن لایه‌های نرم‌افزاری بیشتر و پبیشرفته‌تر بین انسان و ماشین‌ها، استقلال آن ها از انسان بیشتر شده و از کنترل و مداخله‌ي مستقیم انسانی خارج می‌شوند. در محافل نظامی اصطلاح «انسانِ برفرازِ ماشین» جایگزین اصطلاح «انسانِ درونِ ماشین» شده است. این امر نشان‌دهنده‌يِ نقش کاسته‌شده‌ي نظارت انسانی در کنترل روباتها و جنگ افزار‌هایی است که هزاران مایل دورتر از پایگاه خود اقدام به عملیات می‌کنند. ضرورتا این ماشینها با سرعتی بیش از سرعت ارسال و پردازش سیگنال توسط اپراتورهای انسانی٬ خود را با شرایط متغیر محلی وفق‌ می دهند. ودرحالیکه هنوز هیچ‌کس توصیه‌نمیکند که اتخاذ چنین تصمیمات مهلک جنگی به نرم‌افزارها سپرده‌شود، وزارت‌دفاع آمریکا خود را متعهد به استفاده‌ و حمایت از سیستم‌های هوشمند و اتوماتیک کرده است. در این راستا از مهندسین و فیلسوفان خواسته شده تا طرح کلی استفاده‌يِ اخلاقی از اینگونه جنگ افزارهای مهلک را فراهم‌کنند.
🔸چه خوشمان بیاید چه نه٬ موضوع ماشین‌های اخلاقی موضوعیست که طفره رفتن از آن ممکن نیست. حتی خود-گردانی در سطوح نازل نیز ضرورتِ در نظر گرفته‌شدن اهدافی مشخص برای طراحیِ اخلاقی اینگونه مصنوعات را ایجاب می‌کند. فعلا صحبت از سطوح نازل است چراکه سیستم‌های تمام هوشمند همچون آنچه که در فیلم نابودگر به نمایش گذاشته شد٬ هنوز وجود خارجی ندارند. اما این امر امروزه ضروریست چراکه نقش و محیط های استفاده از ماشین‌های خودگردان نسبت به گذشته گسترش چشم‌گیری داشته است. پس طراحی این گونه ماشین ها باید نسبت به ویژگی‌ها و ارزشهای اخلاقیِ محیطی که در آن به کار گرفته می‌شوند حساس باشد. در واقع در قدم های اولیه و با توجه به سطح پایین خود-گردانی این ماشینها٬‌ صرفا باید به تنظیم هرچه بهتر اعمال آن‌ها نسبت به ارزشهای محیط‌های انسانی پرداخت. چنین اهدافی با توجه به چشم‌انداز رشد تکنولوژی در آینده‌های نزدیک قابل‌ حصول خواهد بود.

🔸پروژه طراحی و ساخت مصنوعاتِ اخلاقی هوشمند٬ واکنش‌های منفی فراوانی را به همراه داشته است. مثلا اینکه چنین هدفی ذاتا مضحک‌، وحشتناک‌ و حتی آشکارا دست‌نیافتنی‌است. برخی از این اتهامات مبنی بر چرایی انسان-محور بودن اخلاقِ روباتیک٬ خوشبینی بیش‌از اندازه نسبت‌به تکنولوژي و راه‌حل‌های پیشنهادی‌ِآن٬ و در‌‌آخر تمرکز افراطی بر مهندسی اینگونه ماشین‌ها به جای توجه به تمامی ابعاد درگیر در چنین پروژه‌یِ عظیمی است.

🔸اما باید توجه داشت که مشارکت جدی در پروژه طراحی چنین ماشین‌آلاتی از حوزه علمی-تخیلی فاصله قابل توجه‌ای گرفته و پتانسیل آغاز انقلابی بزرگ در حوزه‌ي فلسفه اخلاق را داراست. شاید بتوان از چگونگیِ معماریِ روبات‌ها در استفاده از اصولِ اخلاقیِ توصیه‌شده در نظریه‌هایِ اخلاقی٬ بینش‌های جدید و ژرفی را به‌دست‌آورد. شاید رابطه‌ي اخلاق با یک مصنوع اخلاقمند همانند درک دانش فیزیک برای یک بازیکن بیسبال باشد: برای خوب بیسبال بازی‌کردن نباید فیزیک‌دان خوبی بود؛ اما دانشِ نظری می‌تواند در تحلیل٬ تنظیم و معماری چارچوب های آینده٬ راه گشا باشد.
حتی اگر موفقیت در ساخت مصنوعات هوشمند اخلاقی به کندی پیش‌رود٬ این تلاش می‌تواند از رشد همه‌جانبه و بی‌رویه‌یِ تکنولوژی‌های کور از منظر اخلاقی ممانعت‌کند. اتومبیل‌ها اکنون آنقدری هوشمند هستند که درطول ترافیک شهری بهینه ترین راه را پیداکنند. قطعا به‌زودی با‌استفاده از اینترنت و جی‌پی‌اس مدت زمانی را که در‌مقابل یک مشروب‌فروشی پارک‌ بوده‌اند را نیز محاسبه‌میکنند؛ از راننده‌ قبل از روشن کردن ماشین خواهند پرسید که آیا شرایط رانندگی را دارا هست یا خیر؟ همچنان به نظر می‌رسد که حدالقل تا آینده‌ای نزدیک٬ به نظارت انسانی بر این اتومبیل‌های هوشمند نیاز باشد. پس بهتر است که هنگام استفاده از آنها در هوشمندی کامل قرار داشته باشید.
🔸اما آیا چنین هدفی واقعا نیازمند توسعه‌‌يِ اخلاقیِ مصنوعاتِ هوشمند است؟ آیا در عوض نمی‌توان بین سوییچ و سیستم احتراق خودرو یک ورقه تست بازدم قرار داد؟ باید توجه کرد که چنین سیستمی از یک کد اخلاقی ساده و غیرمنعطف استفاده می‌کند. بنابر آن مهندسِ طراح تصمیم‌گرفته که اتومبیل توسط راننده‌ ای که الکل خونش به میزان مشخصی رسیده‌ است٬ هدایت نشود. اما این سازوکار از نظر اخلاقی کاملا کور و ناتوان است. در این روش٬ تفاوت راننده‌ای که می‌خواهد تا خانه خودش رانندگی‌کند و فردی که کمی نوشیدنی مصرف کرده٬ اما در حال رساندن یک کودک با وضعیت حاد پزشکی به بیمارستان است مشخص نمی‌شود.

🔸ظرفیت‌ها و توانایی‌هایِ کنونی ما اجازه‌میدهد تا اتوموبیل‌هایی بسازیم که قادرند برپایه‌ی اطلاعات لحظه‌ای از موقعیت‌ ترافیکی و جداول آماری٬ احتمال وقوع تصادف را پیش‌بینی کنند. امّا این پاسخگویی به چالشِ اخلاقیِ ناشی از ارزیابی و محاسبه‌يِ پتانسیل آسیب‌رسانی در هریک از گزینه‌های پیش رو را صرفا به تعویق می‌اندازد. در عوض٬‌ یک سیستم خو‌ش‌طرح از تعامل دوگانه‌ي انسان و ماشین٬ همچون جعبه‌ی سیاه هواپیماها٬ می تواند جزییات مسئولیت‌پذیری انسان و ماشین را ثبت و برای تحلیل های ثانویه در اختیار کارشنان قرار دهد. درمورد یک تصادف٬ مثل فردی با سطحِ الکلِ بالا در خون٬ این سیستم شواهدی مبنی بر مسئولیت پذیری عامل انسانی فراهم می کند. بنابراین٬ همانطور که می‌توان انتظار ماشین هایی مستقل تر از نظارت انسانی را داشت٬‌ می‌توانی ماشین‌هایی را تصور کرد که کنترل و راهبری آنها شامل حساسیت هایِ متعدد و بالا نسبت به مواردِ با اهمیت بالایِ اخلاقی باشند. هر چند چنین ماشین‌هایی ایده‌آل نیستند٬ اما مطمئنا از کیفیت بالاتری برخوردار خواهند بود.

🔸آیا گسترش قابلیتها و تاثیراتِ روز‌افزونِ ماشین‌ها٬ منجر به از دست رفتن شان و صفات انسانی از جمله استقلال و آزادی فردی٬ نخواهد شد؟ آیا با از میان برداشتن بسیاری از موانع٬‌ امکان بروز جنگ و نزاع‌های گسترده در سرتاسر کره‌ي زمین افزایش نخواهد یافت؟ اگر پاسخ به سوال فوق مثبت است٬ آیا مسیر به‌سوی آینده‌ای دهشتناک از جامعه انسانی هموارتر نخواهدشد؟ نگرانی نسبت به این احتمالات منطقی است، اما شاید دوره‌ي اینگونه بدبینی‌ها نسبت به تکنولوژی به سرآمده باشد. اکنون چالش پیش روی مهندسین و فیلسوفان٬ فهمیدن جایگاه و کارایی مناسب ماشین‌های خودـگردان و حساس به ارزش‌هایِ اخلاقیست. برخی‌ها چنین اکتشافی را خطرناک و غیر قابل قبول می دانند. طرفداران ممنوعیت و محدودیت این پروژه‌ها قطعا در برخی از حوزه‌ها موفق‌ خواهند شود٬ اما مطمئنا نمی توان از گسترش و نفوذ روبه‌افزایش روبات‌های خود-گردان به‌ خانه‌ها، فضاهای عمومی و آسایشگاه‌ها جلوگیری کرد. تازه به این لیست باید فضای مجازی که در آن بسیاری از نرم‌افزارها بدون مداخله‌ي انسانی فعالیت می‌کنن را نیز اضافه‌کرد. انسان نیازمند ماشین‌هایی است که کارهای روزمره‌ي داخل و خارج خانه‌ي وی را بدون نیاز به نظارتِ پیوسته٬ به خوبی انجام‌دهند. بسیاری از خرده فروشی‌ها و فرایندهایِ نظام‌ بانکی٬ وابسته به نرم‌افزارهایی هستند که فعالیت‌هایی همچون تراکنش‌های مالی حساب‌ها و کارت‌های اعتباری را پیوسته رصد و عملیاتی می کنند. از این طریق٬ انسان‌ برای انجام دادن کارهایی که هنوز ماشین ها و روبات ها قادر به انجام آن ها نیستند٬‌ وقت آزاد پیدا می‌کند.

🔸ممکن است که یک مهندس نرم‌افزار سوال کند که چالش مورد نظر دقیقا کجاست؟‌ آیا برنامه‌ریزی و طراحیِ ماشین‌های اخلاقی صرفا حل‌مساله در چارچوب قیود فراوان و پیجیده نیست؟ اگر ابهاماتی در زمینه‌ی طبیعت این قیود وجود دارد٬‌ آیا این مساله به‌جای یک چالش مهندسی بیشتر چالشی فلسفی نیست؟ علاوه بر این٬ چرا برای ایجاد یک استانداردِ اخلاقی برای ماشین‌ها٬ باید به ارزش‌ها و قوانین انسانی رجوع کنیم؟ شاید اگر مهندسین٬ پروژه را به‌عهده فیلسوفان بگذارند٬ مدت زمان زیادی منتظر بمانند. همچنین اگر فیلسوفان مساله را بر عهده‌ی مهندسین بگذارند٬ احتمالا از منظر فلسفی از خروجی کار رضایت نخواهند داشت. بنابراین چالش اصلی٬ آشتی‌دادن و هماهنگ‌کردن این دو گروه به‌منظور دستیابی به فهمی عمیق تر از چگونگی تعامل بین انسان‌ها و محیط پیرامون آنهاست. چنین درکی ما را به سازشی معقول‌تر بین تقاضاهای مختلف و بعضا متناقض اخلاقیِ انسان رهنمود می‌کند. در مجموع باید اذعان داشت که ساختِ ماشین‌هایِ هوشمندِ اخلاقی٬ به دقت نظر توامان فلاسفه و مهندسین نیاز خواهد داشت. ماشین‌هایی که اگر درون سیستم‌های خوش‌ساخت از تعامل دوگانه بین انسان و ماشین قرار گرفته و برنامه ریزی شوند، حتی در موقعیت هایی که قوانین آیزاک آسیموف به تناقض منجر می شوند٬ تصمیم‌هایی اخلاقی خواهند گرفت.
📻طراحی و ارزش‌های اخلاقی

🔸آیا مصنوعات فناورانه (فناوری‌ها)‌ از نظر ارزشی بی‌طرف اند؟‌ یا ذاتی غیرقابل تغییر دارند؟
🔸مصنوعات چگونه ارزش‌ها را تغییر می‌دهند و چگونه تحت تاثیر آنها قرار می‌گیرند؟
🔸آیا می‌توان ارزش‌های اخلاقی را در طی فرآيند طراحی در مصنوعات تکنیکی نهادینه کرد؟‌
🔸اگر آری، ‌چه الگوها و چارچوبهایی برای چنین کاری پیشنهاد شده است؟‌ کدام قابل دفاع تر است؟
🔸با توسعه فناوری‌ها چه ارزش‌های اخلاقی‌ با مشکل مواجه شده اند و بالعکس، در توسعه فناوری‌ها وظیفه داریم چه ارزش‌هایی را وارد کنیم؟
🔸وضعیت ایران از این چهت چگونه است؟‌ آیا ایده پیوست فرهنگی قابل دفاع است؟‌
Audio
رادیو گفتگو : طراحی و ارزش‌های اخلاقی
با حضور علی دیزانی، یاسر خوشنویس، و ابوطالب صفدری
مجری مهدی خلیلی
✏️گام به گام تا فوتبال دستی
ابوطالب صفدری

🔸در جام جهانی امسال شاهد یک اتفاق تازه بودیم: ورودِ تعیین‌کنندۀ تکنولوژی به عرصۀ فوتبال. VAR (Video assistant referee= کمک‌ داورِ ویدئویی) بخشی از هیجان فوتبال را از میان برده است. هیجانی که ناشی از خطاهای داوریِ این مسابقات بوده است و سالها همۀ علاقه‌مندانِ به این بازی آنها را "جزئی" از فوتبال می‌دانند. اما البته هیجان تازه‌ای هم بدان افزوده است. ثانیه‌های پرالتهابی که همه چشم‌انتظارِ صدورِ حکم داور براساس ویدئو چک هستند، و همۀ ما این ثانیه‌های ملتهب را در بازی ایران – پرتقال به یاد داریم. از نظر نگارنده اما مسئلۀ اصلی این نیست، مسئلۀ اصلی ادامۀ روندِ دخالت فناوری در مسابقات فوتبال است. برای روشن تر شدن موضوع، سناریوی احتمالیِ زیر را در نظر بگیرید:

🔸جام جهانی 2070 (نیم قرن پس از جام جهانی 2018) در حال برگزاری است. کمپانی نایک با تیم ملی ایران به توافق نرسیده و کفش‌های تولیدیِ خود را در اختیار این تیم قرار نمی‌دهد، و این احتمالِ باختِ ایران در تمام بازی‌ها را 99 درصد افزایش می‌دهد. چرا که تمام تیم‌های دیگر از این کفش‌ها استفاده خواهند کرد و استفاده از کفش‌های نسل جدید نایک باعث افزایش سرعتِ بازیکنان، کاهشِ تعریق و خستگیِ آنها و نیز افزایش چشمگیرِ دقتِ ضرباتِ فوتبالیست‌ها می‌شود.

🔸شاید پیش خود بگویید که این سناریو اصلاً محتمل نیست و امکانِ چنین پیشامدی وجود ندارد. اما اگر به لابیِ بسیار پرنفوذ و بی‌نهایت ثروتمندی که کمپانی‌های بزرگ فناوری در حوزه‌های مختلف در اختیار دارند توجه کنید، سناریوهایی از این دست چندان هم نامحتمل نیستند. اما این روند نفوذِ فناوری در فوتبال، آن را عملاً تبدیل به فوتبال دستی می‌کند! همه چیز پیش‌بینی‌پذیر شده و وابستگیِ شدید به فناوری پیدا می‌کند. نقش خلاقیت‌های فردی بازیکنان که یکی از اصلی‌ترین منابع جذابیت فوتبال است از بین رفته و جای آن را خلاقیت دانشمندان در تولید کفش‌ها و لباس‌های ورزشیِ پیشرفته‌ای می‌گیرد که قادر‌ند هر کسی را با کم‌ترین استعداد تبدیل به یک فوتبالیست کنند. این سناریو را باز هم می‌توان ادامه داد. می‌توان تصور کرد که کشورهای پیشرفته و ثروتمند، با سرمایه‌گذاریِ کلان در حوزۀ مهندسی ژنتیک، اقدام به تولید نسلی از فوتبالیست‌های فوق‌ستاره کنند که فوتبال در ذات‌اشان است!
پادکست تقاطع را می‌توانید از شنوتو بشنوید یا از همین‌ کانال دانلود کنید
https://shenoto.com/podcast/25244
بسیاری برای روش‌های علمی چارچوبی محدود‌ در نظر میگیرند و معتقدند که علم نمی تونه و نباید درباره بسیاری از جنبه های زندگی انسان صحبت کنه. مثلا بعضیا معتقدن علم نمیتونه در مورد خدا، اخلاق، عشق، دین، روح، خلاقیت آدم و یا قدرت تفکر انسان اظهار نظر کنه، چرا که بررسی این حوزه ها خارج از توانایی تئوری‌ها و ابزارآلات کاوش علمیه. در این قسمت سعی داریم تا به این سوال پاسخ بدیم که جهان ذهنی و روحی انسان واقعا چیه؟ و این جهان چطور کار میکنه؟ آیا ممکنه بشر روزی چیزی شبیه به ذهن انسان بسازه؟ رابطه طبیعت و دنیای فیزیکی با ذهن انسان چیه؟ آیا دنیای ذهنی انسان کاملا مادیه؟ یا اینکه ویژگی هایی غیرطبیعی ای داره که علم تجربی از درک صحیح و توصیف کاملش عاجزه؟

پادکست تقاطع را می‌توانید از شنوتو بشنوید یا از همین‌ کانال دانلود کنید.
https://shenoto.com/podcast/25244
Mind and Machine
Mohaajer
#پادکست، شماره۳، روحانیت و روباتیت