تقاطع اخلاق و فناوری – Telegram
تقاطع اخلاق و فناوری
544 subscribers
371 photos
50 videos
13 files
167 links
مجله تلگرامی کارگروه اخلاق و فناوری اندیشکده مهاجر، دانشگاه صنعتی شریف
ارتباط با ادمین:

@behzadface
@Abootalebsaf
@Mahdi7khalili
Download Telegram
📝 یادداشت

عنوان: «گل یا پوچ؟»

نویسنده: ابوطالب صفدری

پوچی یا نهیلیسمْ[۱] برخلاف نامش که شاید کمی مرموز و پیچیده به نظر بیاید اصلاً پدیدۀ عجیب‌وغریبی نیست. دست‌کم در روزگارِ ما. روزگاری که به نحو غیرقابل تشخیصی با پوچی به‌هم‌پیچیده است. اصلاً لازم نیست تا دست به دامنِ استدلال‌های پیچیدۀ فلسفی شویم تا بتوانیم این پوچیِ دامن‌گیر را نشان دهیم.

متن کامل در لینک زیر:👇👇👇

https://goo.gl/kPjGRD
🎬 معرفی ویدیو: ☝️☝️☝️

🗂#هوش_مصنوعی

سم هریس، نویسنده، فیسلوف و نوروساینتیست مشهور در این ویدیو درباره خطر توسعه هوش مصنوعی بدون توجه به پیامدهای آن هشدار می‌دهد. هریس این نظر که ابر هوش مصنوعی یک امکان بعید و شاید نا ممکن است را رد می کند. او به سه پیش فرض اشاره می‌نماید که هم اکنون محقق اند و لذا ما به نقطه‌ای خواهیم رسید که منجر به ساخته شدن ابر هوش مصنوعی خواهد شد. اولاً فرضی که هوشمندی را با میزان توانایی در پردازش اطلاعاتی مرتبط می سازد، دوم این که ما به بهبود ماشین های هوشمند فعلی خود ادامه خواهیم داد زیرا برای حل مشکلاتمان به آن ها نیازمندیم، و سوم این که ما در نقطه نهایی هوشمندی نایستاده ایم و هوشمندی می تواند بسیار فراتر از هوش انسانی برود.
از نظر هریس ابر هوش مصنوعی نوع رفتاری را با ما خواهد داشت که ما با مورچه ها داریم . ما در خیلی از موقعیت ها برای حفظ امنیت مورچه ها خود را به زحمت می‌اندازیم ولی در جایی که اهدافمان در تضاد قرار می گیرد به سرعت آن‌ها را قلع و قمع می‌کنیم. حتی اگر بهترین سناریو در مورد هوش مصنوعی را در نظر بگیریم که هیچ تهدید امنیتی برای جان انسان ها نداشته باشد تبعات اقتصادی به علت بیکاری گسترده و تبعات سیاسی که مربوط به جنگ سرد دیگر برای دست یابی به این فناوری است، مجدداً ما را تهدید می‌کنند.
محققان هوش مصنوعی تلاش می کنند بگویند ما با ابر هوش مصنوعی بیش از 50 سال فاصله داریم و لذا در حال حاضر نباید نگران چنین اموری باشیم. اما از نظر هریس اشاره به افق زمانی کاملا بی معناست چرا که ما به طور مداوم در حال بهبود ماشین های هوشمند هستیم و هیچ ایده ای نداریم که چگونه این فناوری را به صورت ایمن در آوریم. از نظر هریس ما به چیزی بزرگتر از پروژه منهتن برای هوش مصنوعی نیاز خواهیم داشت برای این که بفهمیم چگونه از یک مسابقه تسلیحاتی عظیم جلوگیری کنیم و این که چگونه آن را با منافعمان همسان سازیم.
معرفی تصویر 🌈

🗂#شبکه_اجتماعی #فناوری_ارتباطات_و_اطلاعات

بخش چهارم از آثار آنخل بولیگان کاریکاتوریست مشهور در زمینه تبعات شبکه های اجتماعی و فناوری های ارتباطی نوین👇👇👇
📗 معرفی کتاب☝️☝️☝️

🗂#نگاه_آرمانشهرانه #نگاه_ویرانشهرانه

فناوری یک بهشت آرمان شهرانه را برای ما به ارمغان می‌آورد یا جهنمی ویرانه شهرانه؟. اگر گفته‌های بسیاری از دانشمندان که در حوزه‌های نوظهور فناوریِ قرن بیستم فعالیت می‌کنند را باور کنیم، آینده به شکل خیره کننده‌ای روشن خواهد بود. بدن انسان از طریق اصلاحات ژنتیکی و ترکیب با ماشین‌ها، بدون نقص خواهد گردید و در افقی دورتر، انسان از بند و زنجیرِ درد، بیماری و حتی مرگ خلاص خواهد شد. او قادر خواهد بود تا ذهن خود را بر بدن یک ربات فنا ناپذیر بارگذاری کند و به این طریق برای همیشه در یک زندگی پسا انسانی زیست کند. در این آرمان شهر تکنیکی، آینده انسانیت با قدرت شبه خدایی فناوری حفظ خواهد شد. اما اگر شما ایده‌های نویسندگان کتاب های علمی- تخیلی را باور کنید، این تکامل پسا انسانی در واقع نشانه‌ای اولیه از پایان آزادی، ارزش و هویت انسان است. آینده تاریک ما با حکمرانی دانشمندان دیوانه‌، ربات‌های لجام گسیخته، موجودات دستکاری ژنتیکی شده‌یِ قاتل و ویروس‌های غیر قابل مهار گره خورده است.
در این کتاب ارزشمند و بصیرت بخش، دنیل دینلو به بررسی تمایز چالش برانگیز میان وعده‌های آرمان شهرانه دانشمندانِ جهان واقعی و ادعای های ویران شهرانه که توسط نویسندگان علمی- تخیلی پیش بینی شده می‌پردازد. این کتاب دارای بخش های گوناگونی است که به فناوری‌های همچون رباتیک، بایونیک، هوش مصنوعی، واقعیت مجازی، زیست فناوری، نانو فناوری و دیگر پیشرفت‌های مهم می‌پردازد. این کتاب خلاصه‌ای از وضعیت کنونی هر یک از فناوری‌ها ارائه می کند و سپس به جستجوی واکنش مرتبط با آن را در فضای علمی –تخیلی مشغول می‌شود. دینلو از طیف گسترده ای از محتوا شامل فیلم، تلویزیون، کتاب و بازی های کامپیوتری سود می جوید تا استدلال کند ایده‌های علمی- تخیلی می‌تواند به عنوان یک تصحیح گر ارزشمند فناوری عمل کنند و با غلو کردن درباره فناوری، نظامی سازی علم و محرک‌های صرفاً اقتصادی برای توسعه فناوری مقابله کند. در واقع ادبیات علمی-تخیلی، با تصویر کردن تسلط تکنیکی در آینده‌ی پسا انسانی، ما را تشویق می کنند تا راه‌های را بسازیم که منجر به فناوری‌های جدید شوند و از مخاطبان خود مهمترین پرسش قرن بیست یکم را می‌پرسند: آیا فناوری از کنترل ما خارج شده است؟
🎬معرفی ویدیو:☝️☝️☝️

🗂#فضای_ابری #محیط_زیست

ما کم و بیش با فضای ابری آشنا هستیم. فضای ذخیره سازی آنلاینی که خیلی از نگرانی‌های ما برای حفظ و دسترسی به اطلاعات از طریق دیوایس‌های گوناگون را برطرف کرده است. استفاده ازین فضا روز به روز در جهان افزایش می‌یابد تا حدی که در حال حاضر سالانه بیشتر از یک زتا بایت اطلاعات (معادل دو تریلیارد عکس) در آن بار گذاری می‌شود. اما نگهداری این حجم از اطلاعات نگرانی‌های زیست محیطی جدی را به همراه خود دارد، زیرا که سرور‌های نگه دارنده این اطلاعات به حجم عظیمی از انرژی نیاز دارند که معمولاً از منابع غیر پاک تامین می‌شوند. انیمیشن فوق نگاهی به نگرانی‌های زیست محیطی فضای ابری ارائه می‌کند.
🗣 خبر 👇👇👇

🗂فضای مجازی

عنوان: «سندی کوچک با ادعاهای بزرگ: گفتگو با دکتر آیت اللهی درباره مرام نامه اخلاقی برای فضای مجازی»

مدتی پیش مرکز ملی فضای مجازی متنی را با عنوان «مرام‌نامه‌های اخلاقی برای فضای مجازی» منتشر کرد تا منتقدان آن را ارزیابی کنند. اگرچه اغلب مرام‌نامه‌ها متنی درون گروهی است اما این متن به سفارش شورای عالی فضای مجازی نوشته شده است و به نظر می‌رسد برای همه‌ی گروه‌ها از کاربران فضای مجازی گرفته تا دولت‌ها، سیاستگذاران و آنچه «مالکان یک فضای مجازی» نامیده است، دربرگیری دارد.

متن کامل خیر در لینک زیر: 👇👇👇

https://goo.gl/NDRMS3
📣📣اخبار و تولیدات اندیشکده مهاجر را در صفحه اینستاگرام نیز دنبال کنید:
https://www.instagram.com/mohajer_thinktank/
_______
اندیشکده مهاجر :

@mohajer_ThinkTank
mohaajer.ir
📝 یادداشت

عنوان: « فرصت در انسخده»، روایتی از یک فرصت مطالعاتی

نویسنده: محمد نمازی

جناب آقای محمد نمازی، دانشجوی دکتری فلسفه علم دانشگاه شریف، در برنامه‌ای که اخیراً به همت کارگروه اخلاق و فناوری اندیشکده مهاجر در سالن سمینار گروه فلسفه علم برگزار شد به ارائه تجربیات خود از فرصت مطالعاتی‌شان در دانشگاه توئنته کشور هلند پرداختند.

متن زیر یادداشتی است که ایشان برای سایت اندیشکده مهاجر نگاشته‌اند، و در آن با لحن و بیانی دیگر مطالب ارائه‌شده در آن جلسه را به قلم آورده‌اند.

متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/DoXA1j
🎬معرفی ویدیو:☝️☝️☝️

🗂#هوش_مصنوعی

زینپ توفیکچی (Zeynep Tufekci) جامعه شناس تکنولوژی و عضو هیئت علمی دانشگاه کارولینای شمالی است. او در این ویدیو به مبحثی با عنوان اخلاق الگوریتم (Algorithm Ethics) می‌پردازد . ما سال هاست از الگوریتم ها و هوش ماشینی در کارهای محاسباتی خود مانند ساخت پل ها یا تولید هواپیماها استفاده می‌کنیم. در همه این امور معیارهای پذیرفته شده و قوانین طبیعت راهنمای ما هستند. اما با پیچیده تر شدن این الگوریتم‌ها و به خصوص با ظهور یادگیری ماشینی( Machine learning) جا برای استفاده از این الگوریتم‌ها در امور آشوبناک مربوط به حوزه انسانی نیز باز شده است. توفیکچی با بیان ایرادات و مثال‌هایی از الگوریتم‌های استخدامی، الگوریتم‌های مربوط به تشخیص خلافکاران و هوش مصنوعی خبر خوان فیس بوک نشان می‌دهد که چرا نمی‌توانیم مسئولیت قضاوت‌های انسانی را بر دوش آن ها بگذاریم. نخست این که ما نمی‌دانیم آن‌ها دقیقا بر اساس کدام یک از اطلاعات در حال دسته بندی کردن افراد هستند در واقع آن‌ها تبدیل به جعبه سیاه‌هایی می‌شوند که ما از از درون آن‌ها بی اطلاعیم، دوم این که بر خلاف تصور ما، الگوریتم‌ها به صورتی ابجکتیو و خنثی فرآیند انتخاب را انجام نمی‌دهند بلکه آن‌ها صرفاً بازتاب‌دهنده‌ها تمایلات و سوگیری‌های ما هستند، و دست آخر این که هوش مصنوعی گاهاً دچار اشتباهاتی می‌شود که هیچ گاه توسط یک انسان انجام نخواهد شد. در چنین وضعیتی توفیکچی بیان می‌کند که ما اجازه نداریم مسئولیت‌های اخلاقی خود در امور انسانی را به هوش ماشینی محول کنیم و تنها مجازیم برای بهبود تصمیم گیری ها از آن ها سود ببریم. از نظر او در جهانی که هوش مصنوعی هر روز در حال رشد است ما بیش از پیش نیازمند توجه به ارزش ها و اخلاق انسانی هستیم.