تقاطع اخلاق و فناوری – Telegram
تقاطع اخلاق و فناوری
541 subscribers
371 photos
50 videos
13 files
167 links
مجله تلگرامی کارگروه اخلاق و فناوری اندیشکده مهاجر، دانشگاه صنعتی شریف
ارتباط با ادمین:

@behzadface
@Abootalebsaf
@Mahdi7khalili
Download Telegram
📝 یادداشت

عنوان: رابطه دانش و تکنولوژی نزد میشل فوکو

نویسنده: عطا حشمتی

یکی از مهم‌ترین مسائلی که متفکران و پژوهشگران حوزۀ تکنولوژی به شکلی جدی و عمیق با آن دست‌وپنجه نرم می‌کنند، فاصلۀ میان عمل و نظر در عرصه‌های مختلف انسانی است. این مسئله را شاید بتوان در قالب مسئلۀ رابطۀ تکنولوژی و علم نیز صورت‌بندی کرد. این‌که چرا ما باوجود پرداخت عمیق به علوم پایه و مهندسی در دانشگاه‌ها، هنوز در عرصه‌های عملی و تکنیکی به پختگی کامل نرسیده‌ایم؟ یا چرا دانش نظری ما هیچ ربطی به تجربه‌های عملی و چالشیِ بنگاه‌های صنعتی و تجاری ما ندارد؟ پاسخ به این سؤال‌ها در گروی این است که بدانیم آیا علم بر تکنولوژی مقدم است یا تکنولوژی بر علم. برای برخی تکنولوژی محصول علم و تأملات آزمایشگاهی دانشمندان است و برای برخی دیگر علم تنها در محیطی عملی و درگیر با واقعیت ساخته می‌شود. این مقاله می‌خواهد پاسخ فوکو به این چالش را تا حدی روشن کند و نشان دهد چگونه فوکو ابتدا تصور می‌کرد دانش و نظریه بسیار فرا‌تر از عمل و کنش واقعی اهمیت دارد و بعد‌ها با تجدیدنظر در این موضع به این نتیجه رسید علم و دانش نظری خود محصول تکنولوژی و کردارهای عملی ما در بافتی تاریخی است. در این راستا پس از مقدمه‌ای کوتاه به بررسی نگاه فوکو به تکنولوژی و رابطۀ آن با دانش در دو دورۀ فکری‌اش می‌پردازیم.

متن کامل یادداشت در لینک زیر:👇👇👇

https://goo.gl/R3WDH8
🎬 معرفی ویدیو ☝️☝️☝️

#فلسفه_فناوری #اخلاقی_سازی_فناوری


پیتر پائول فربیک از پیشگامان رویکرد پساپدیدارشناسی در فلسفه تکنولوژی است. او هم اکنون ریاست دپارتمان فلسفه دانشگاه توئنته، ریاست انجمن فلسفه و تکنولوژی و عضو شورای هلندی علوم انسانی است. در این سخنرانی او به موضوع اخلاقی سازی فناوری (Moralizing Technology) می پردازد که نخستین بار توسط هانس آخترهایس مطرح شده است. بنا براین ایده ما می‌توانیم با درون نگاری برخی ارزش‌ها در فناوری از بار فشار تصمیمات اخلاقی در زندگی خود بکاهیم. به تعبیر دیگر برای اخلاقی شدن جامعه تنها نباید افراد آن را اخلاقی کرد بلکه فناوری‌ها هم که نقش عمده‌ای در زندگی انسان‌ها دارند باید اخلاقی گردند. این ایده آخترهایس با مخالفت‌ها متعددی روبرو شد. منتقدان عمدتا نگران بودند که این کار منجر به شکل گیری تکنوکراسی و همچنین از بین رفتن خودمختاری انسان گردد.

فربیک از پروژه‌هایی همچون فناوری‌های متقاعد کننده (Persuasive Technology) به عنوان نمونه‌هایی یاد می کند که هم ایده اخلاقی سازی را در دل خود نهفته‌اند و هم ارزش خودمختاری انسان‌ها را حفظ می‌کنند. با این وجود او فکر می‌کند فهمی که ما از خودمختاری انسان داریم بسیار آرمان گرایانه است و باید کمی متواضعانه تر به خود بیاندیشیم. اگر دریابیم که خودمختاری تا چه حد تحت تاثیر فناوری است آن‌گاه دیگر اخلاق را صرفا به حیطه ‌امور انسانی محدود نخواهیم کرد و اشیا و ابزارها را هم حائز اهمیت اخلاقی خواهیم دانست. قفل‌های سکه خور، وسایل اصلاح و قرص‌های ضد بارداری همه نمونه‌هایی است که از نظر فربیک به اخلاق اشیا (Morality of things) اشاره دارند.

بدین ترتیب ما نیازمند توسعه مدل متفاوتی از رابطه میان انسان و فناوری هستیم که در آن انسان و فناوری نه به عنوان سوژه‌های خودمختار و ابژه‌هایی منفعل و مستقل از هم در نظر گرفته شوند بلکه باید به صورت دو امر در همتنیده لحاظ شود. این نگاه به رابطه انسان و فناوری نگاهی است که در کار‌های دن آیدی و همچنین نظریه واسطه گری فربیک وجود دارد. بر اساس چنین منظری جایگاه اخلاق سنتی تکنولوژی که در آن دو فرض‌اساسی وجود دارد متزلزل می‌گردد. نخست این که اخلاق باید از انسان در برابر تاثیرات فناوری دفاع کند و دوم می توان تبعات اخلاقی تکنولوژی را از یک نقطه بیرونی ارزیابی کرد. بنا بر نظریه واسطه گری اولاً هیچ راه فراری از تاثیرات فناوری وجود ندارد و ثانیاً خود چهارچوب‌های ارزیابی نیز می‌تواند تحت تاثیر واسطه گری قرار گیرند لذا نقطه بیرونی برای ارزیابی وجود ندارد.

در این بین تاملات اخلاقی فوکو از نظر فربیک می‌تواند منبع الهام خوبی برای توسعه‌ی یک اخلاق تکنولوژی جدید باشد. از نظر فوکو اخلاق به معنای برقراری یک رابطه آزاد با قدرت است که در طی آن فرد در حال برسازی خویشتن است. از نظر فربیک نیز ما باید به جای نفی تکنولوژی به دنبال برقراری یک رابطه سازنده با آن باشیم. این رابطه می‌تواند در دوسطح استفاده و طراحی برقرار گردد. در سطح استفاده باید درک کنیم که چگونه هر فناوری با تاثیراتش در حال شکل دهی به زندگی ماست. اما در سطح طراحی است که ایده اخلاقی سازی تکنولوژی اهمیت می یابد. بر اساس این ایده باید تلاش کنیم به کمک طراحی نوعی از فناوری را توسعه دهیم که در نهایت بتواند تا میزان بالایی منجر به تحقق زندگی خوب از منظر ما گردد.

💡نکته: برای دیدن زیرنویس ویدیو در سایت آپارات گزینه CC را فعال کنید.
📗معرفی کتاب ☝️☝️☝️

🗂#حریم_خصوصی #کلان_داده

📌 امنیت سایبری دیگر محدود به ماموران اطلاعاتی نیست که در اتاق‌‌های مخفی با دقت به کد ها نگاه می‌کردند تا از حمله مهاجمان بین المللی پیش گیری کنند . امروز روزنامه و خبرگزاری‌ها پر است از خبرهایی درباره‌ی استراق سمع و اپلیکیشن هایی برای هک ابزار‌های هوشمند که ممکن است بدون این که بدانید از اطلاعات شخصی شما جاسوس می کنند. این مشکل واقعا تا چه حد جدی است ؟ کویلیو ریاست کمپانی‌های امنیتی RSA می گوید: « هم اکنون یک پتابایت داده در فضای ابری وجود دارد که معادل با 5 بیلیارد (10 به توان 15) کتاب است. با این وجود تنها 20 درصد آن محافظت شده است»

📌 کتاب حریم خصوصی در عصر کلان داده‌ها (privacy in the Age of Big Data) تلاش می کند تا نگرانی‌ها در این باره را برای مخاطبانش روشن سازد. رضایت در مسئله حریم خصوصی یک واژه‌ای کلیدی است. نویسندگان این کتاب ترسا پیتون کارمند اطلاعاتی پیشین کاخ سفید و تئودر کلیپوله متخصص مدیریت داده‌ها توضیح می‌دهند که تا چه حد مردم در این باره دچار بدفهمی اند. وقتی مردم می‌گویند مهم نیست که اطلاعاتشان در دست کس دیگری قرار گیرد تا وقتی که چیزی برای پنهان کردن نداشته باشند آن‌ها کاملاً به خطا رفته‌اند. حریم خصوصی داده‌ها، موضوعی مربوط به انتخاب کردن است: آیا شما به شرکت‌ها اجازه می‌دهید که اطلاعات شما را جمع آوری و دسته بندی کنند؟ آیا شما این اجازه را به آن‌ها می‌دهید که اطلاعات شما را بفروش برسانند یا رفت آمدها و محل سکونتتان را رهگیری کنند؟

📌 بدفهمی دیگر این است که دولت‌ها و دیگر جمع کنندگان داده تنها زمانی شما را رهگیری می‌کنند که کار مشکوکی انجام دهید. این یک پیش فرض غلط و حتی خطرناک است. فعالیت‌های مدیریت داده ی کنونی تلاش می‌کنند همه گونه اطلاعات را با دقت و صحت جمع آوری کنند و بعد داده کاوان انتخاب می کنند به چه اطلاعاتی نیاز دارند. نویسندگان این کتاب به حرف‌های یکی از ژنرال‌های آمریکایی استناد می‌کنند که گفته بود مرکز ملی ضد تروریسم ممکن است داده‌هایی درباره شهروندان بی گناه آمریکایی را هم برای تحلیل‌های آینده جمع آوری نماید.

📌 نویسندگان کتاب معتقدند « زمانی که حریم خصوصی شما محافظت شود، شما آزاد هستید که انتخاب کنید تا چه میزان از اطلاعات حساس شما در معرض دید قرار گیرد، چه کسانی بتوانند به آن دسترسی داشته باشند و در برخی موارد چگونه از آن اطلاعات استفاده کنند» . وقتی این محافظت از بین برود چه توسط هکر‌ها، فشار‌های قانونی یا حتی شرکت‌های بزرگ، شما حق امن سازی حریم خصوصیتان در مقابل افراد با نیت‌های نادرست را از دست می‌دهید.

📌 اطلاعات خصوصی نوعی از مالکیت است و شما باید این حق را داشته باشید که تصمیم بگیرد با آن چه کنید. هرچند خط میان انتخاب و آزادی شروع به مبهم شدن می‌کند وقتی مصرف کنندگان رضایت مندانه اطلاعاتشان را در اختیار اپلیکیشن‌هایی با پیشنهاد بازی های جذاب یا فروشگاه‌هایی با وعده تخفیف قرار می دهند. این دو راهی است که استفاده کنندگان باید به خوبی آن را سبک و سنگین کنند. در واقع امنیت سایبری نیازمند این است که از عینک سود/مخاطره نگریسته شود.

📌 کتاب حریم خصوصی در عصر کلان داده‌ها به چهار بخش تقسم می‌شود که هر کدام خطر‌های امنیتی در حیطه‌ای خاص را مورد بررسی قرار می دهند:

بخش 1: نقطه آغاز: کامپیوتر شما و اینترنت- ابزار‌های دیجیتالی که شما به صورت روزانه استفاده می‌کنید ( لپ تاپ ها، گوشی‌های هوشمند، ایمیل و ....) شما را در برابر حملات و دزدی داده ها آسیب پذیر می‌کنند.

بخش 2: خطر در جاده- ترک کردن خانه به معنای پایان پایش و رهگیری شما نیست. دوربین‌های چراغ قرمز، ماشین‌های هوشمند یا گجت‌های سلامتی خودتان گنجی از داده‌های شخصی برای فروشندگان داده‌ها هستند.

بخش 3: خانه جایی است که قلب (پایش) آنجاست- از دوربین ها امنیتی تا شبکه‌های وای فای و گوشی‌های همراه ، جمع آوری داده در خانه شما هم فعال است.

بخش 4: از این جا باید به کجا رفت؟ - صنایع و اشخاص باید محدودیت‌های برای خود مشخص کنند، از کد‌های اخلاقی گرفته تا قوانین و سامانه‌های کد گذاری شده.

.
اطلاعات کتابشناختی

Title: Privacy in the Age of Big Data: Recognizing Threats, Defending Your Rights, and Protecting Your Family
Authors: Theresa Payton, Ted Claypoole
Publisher: Rowman & Littlefield, 2014
ISBN: 1442225459, 9781442225459
Length: 259 pages
🎬 معرفی ویدیو:☝️☝️☝️

🗂 #هوش_مصنوعی

ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗣خبر☝️☝️☝️

🗂#مهندسی_ژنتیک

عنوان: استفاده از تکنیک کریسپر باعث بروز صدها جهش ژنتیکی ناخواسته می‌شود

منبع: ScienceAlert ( ترجمه وبسایت زومیت)

📌 کریسپر (CRISPR-Cas9) به‌عنوان یکی از مهم‌ترین اختراعات پزشکی مدرن شناخته می‌شود؛ به‌گونه‌ای که اکنون رؤیای انجام اصلاح ژنتیکی در جنین انسان بیش از پیش به واقعیت نزدیک شده است. اما این تکنولوژی شاید بیشتر از آنی که قبلا تصور می‌شد، خطرناک باشد. معرفی تکنولوژی کریسپر، انقلابی در زمینه‌ی علم ویرایش ژن‌ها ایجاد کرد؛ اما اکنون دانشمندان دریافته‌اند که همین تکنولوژی باعث وقوع صدها جهش ژنتیکی ناخواسته در ژنوم یک ارگانیسم می‌شود. با توجه به این‌که هم‌اکنون آزمایش‌های بالینی در مورد کریسپر روی انسان‌ها در جریان است، یافته‌ی اخیر باعث ایجاد نگرانی‌های جدی در بین محققان شده است.
استفان تسانگ از مرکز تحقیقات پزشکی دانشگاه کلمبیا، در این مورد می‌گوید:

ما معتقدیم که ضرورت دارد جامعه‌ی علمی خطرات استفاده از کریسپر را در نظر بگیرد. کریسپر باعث ایجاد جهش‌های غیر هدفمند می‌شود. این جهش‌ها شامل جهش‌های تک نوکلئوتیدی و جهش‌ در مناطق غیر کد در ژنوم می‌شود.

تسانگ به همراه تیم تحقیقاتی‌اش برای اولین بار به مطالعه و مانیتورینگ کل ژنوم یک ارگانیسم زنده پرداختند؛ ارگانیسمی که پیش از این در آن از روش ویرایش ژنی کریسپر استفاده شده بود. آن‌ها به دنبال کشف جهش‌های ژنی ناخواسته در بخش‌هایی از ارگانیسم بودند که به‌کلی با ناحیه‌ی هدف کریسپر غیر مرتبط بودند.در مطالعات در مورد اثرات استفاده از کریسپر در ارگانیسم‌ها، هیچ اثری از جهش‌های ناخواسته یافت نشده بود. دلیل این امر شاید به نوع ابزار استفاده‌شده در این مطالعات برگردد. در مطالعات پیشین از الگوریتم‌های رایانه‌ای برای اسکن بخش‌هایی از ارگانیسم استفاده شده بود که مرتبط با منطقه‌ی هدف بودند و احتمال بروز جهش در آن‌ها، بسته به نوع ویرایش ژنی انجام‌شده، بیشتر بود.

الکساندر بوساک از دانشگاه آیوا و یکی از اعضای تیم تسانگ، در این مورد این‌گونه توضیح می‌دهد:

زمانی که شما از تکنیک کریسپر در سلول‌ها یا بافت‌ها در ابعاد محدود استفاده می‌کنید، این الگوریتم‌های پیش‌بینی کننده کار خود را به‌خوبی انجام می‌دهند. اما تاکنون تعیین توالی ژنی جامع در حیوانات زنده با هدف کشف جهش‌های ناخواسته در نواحی غیر مرتبط انجام نشده بود.

اگر در جریان اخبار مربوط به کریسپر قرار ندارید، بدانید که صحبت‌ها در مورد توسعه‌ی یک تکنولوژی شگفت‌انگیز در زمینه‌ی ویرایش ژن از چند سال پیش شروع شد. از آن زمان تاکنون، از کریسپر به‌عنوان انقلابی در پزشکی مدرن یاد می‌شود. دانشمندان با استفاده از تکنولوژی کریسپر قادرند تغییرات خاصی در دی‌ان‌ای انسان‌ها، حیوانات و گیاهان اعمال کنند.

در واقع کریسپر همانند یک ابزار برش و چسباندن (کات و پِیست) است. محققان با استفاده از آن می‌توانند ژن‌های مشخصی از یک ژنوم را بردارند و آن را با یک دی‌ان‌ای دلخواه جایگزین کنند. به این ترتیب برای مثال می‌توان ژن‌های معیوب را با انواع سالم جایگزین کرد. بر خلاف دیگر ابداعات دنیای پزشکی، کریسپر با گذشت چندین سال توانسته است انتظارات را برآورده کند و اکنون پزشکان از پتانسیل آن در زمینه‌ها مختلف بهره می‌برند. در سال‌های اخیر از ابزار کریسپر برای دخالت و اعمال تغییر در مرکز کنترل سرطان در بدن، بهبود جهش‌های ژنتیکی عامل کوری، درمان بیماری‌های ژنتیکی در حیوانات زنده و حتی در مطالعات مربوط به ویرایش جنین انسان با هدف یافتن علل نازایی و سقط جنین غیر عمدی استفاده شده است.

با این‌که در برخی از مطالعات گذشته نشانه‌هایی از جهش‌های غیر هدفمند در اثر استفاده از کریسپر یافت شده بود؛ اما این یافته‌ها نتوانسته بودند باعث توقف آزمایش‌های انسانی کریسپر شوند.اولین مطالعه‌ی بالینی در مورد استفاده از کریسپر در انسان، در کشور چین در حال اجرا است. البته ایالات متحده و بریتانیا از غافله عقب نمانده‌اند و هر یک در حال پیشبرد مطالعات خود هستند.

در حقیقت بعضی از کارشناسان معتقدند که چین و ایالات متحده وارد یک رقابت جدی در استفاده از تکنولوژی کریسپر شده‌اند. کریسپر تبدیل به نسخه‌ی بیولوژیک رقابت فضایی بین قدرت‌های جهانی شده است.کارل جوئن، متخصص ایمنی‌شناسی از دانشگاه پنسیلوانیا و از محققان مشاور تحقیق ملی ایالات متحده، در مورد کریسپر معتقد است:
من فکر می‌کنم این موضوع در واقع به‌نوعی اسپوتنیک ۲ است، کریسپر باعث شروع یک دوئل بیولوژیکی بین چین و ایالات متحده شده است.
اما اکنون محققان دریافته‌اند که استفاده از کریسپر بسیار گسترده‌تر از آن چیزی که قبلا گمانه‌زنی می‌شد و باعث بروز جهش‌های ژنتیکی ناخواسته در حیوانات می‌شود. تیم تحقیقاتی تسانگ برای کشف این موضوع تمام ژنوم دو موش آزمایشگاهی را تعیین توالی کردند. این دو موش قبلا در معرض ویرایش ژنتیکی با کریسپر قرار گرفته بودند. آن‌ها به دنبال کوچک‌ترین جهش ناشی از استفاده از این تکنولوژی بودند؛ حتی جهش در یک تک نوکلئوتید، یا همان بلوک اصلی سازنده‌ی دی‌ان‌ای و آر‌ان‌ای.

تسانگ و همکارانش دریافتند که تکنولوژی کریسپر با موفقیت توانسته است ژن‌های عامل کوری در موش‌ها را تصحیح کند. اما در اثر استفاده از کریسپر بیش از ۱۵۰۰ جهش ژنتیکی ناخواسته در نوکلئوتید موش‌ها اتفاق افتاده است. تعداد جهش‌های بزرگ نیز بیش از ۱۰۰ مورد بوده است. این تیم تحقیقاتی در گزارش خود آورده است:
هیچ کدام از این جهش‌های ژنتیکی توسط الگوریتم‌های رایانه‌ای که به‌طور گسترده توسط محققان استفاده می‌شود، پیش‌بینی نشده بود.

البته یافته‌ی جدید در مورد عوارض جدی استفاده از کریسپر برای ویرایش ژن‌ها باعث نخواهد شد استفاده از این تکنولوژی به‌طور کلی کنار گذاشته شود. هم‌اکنون به مطالعات بیشتری برای اثبات این یافته‌ها نیاز است. نتایج تحقیق اخیر باید در نمونه‌های بیشتر و انسان‌ها نیز تکرار شود.اما باید اقرار کرد که به نظر می‌رسد این دستاورد بزرگ پزشکی دارای عوارض بزرگ و جدی طولانی‌مدت است؛ عوارضی که تاکنون مطالعات محققان موفق به شناسایی آن‌ها نشده بود. اما اکنون آن‌ها باید هشدارهای مربوط به بروز جهش‌های ناخواسته در اثر استفاده از کریسپر را جدی بگیرند
📝یادداشت

عنوان: مسابقه ربط

نویسنده: اندرو لوئیس

مترجم: ابوطالب صفدری

بهارِ ۱۹۹۴ بود که نیکلاس نگروپونته[۱] شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب[۲] -که محصول اندیشه‌های او بود- و هم تعدادی از طراحانِ جوان تراشه و صنعت‌گرانِ حوزۀ واقعیتِ مجازی، به شکل دیوانه‌واری سرگرم خلقِ ابزارها و وسایلِ آینده بودند. اما نگروپونته عمیقاً درگیرِ یک مسئلۀ دیگر بود، مسئله‌ای ساده‌تر که میلیون‌ها انسان هر روز به آن فکر می‌کردند: اینکه چه برنامه‌ای را در تلویزیون تماشا کنند.

متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/Soh8Y7
🎬 معرفی ویدیو ☝️☝️☝️

🗂#اخلاق_زیستی #سقط_جنین

دکتر مگی لیتل (Maggie Little) ریاست انستیتو اخلاق کندی (Kennedy Institute of Ethics) در دانشگاه جرج تاون است . ایشان در این ویدیو به مسائل اخلاقی مربوط به دخالت در مراحل جنینی زندگی انسان می‌پردازد. با ظهور فناوری‌های تولید مثل اشتراکی (collaborative reproduction) امکان دخالت چندین فرد ( اهدا کننده اسپرم، اهدا کننده تخمک، مادرجایگزین، والدین اجتماعی ) در تولد یک نوزاد فراهم شده است. ازین رو این فناوری درک ما از مفهوم والدین بودن و حقوق و وظایفی که در نسبت با آن تعریف می‌شوند را تغییر داده است. از سوی دیگر این فناوری‌های به شدت مستعد تجاری شدن‌ هستند و این فرصت را برای افراد تاجر مسلک فراهم کرده‌اند که به خرید فروش رویان‌های فریز شده انسان بپردازند. قوانین نیز در این زمینه هنوز دارای نواقصی هستند و به خصوص در مسائل مربوط به مادر جایگزین (surrogate) به تناقضات بین قوانین اساسی هر فرد و قوانین قراردادی منجر می شوند. درنهایت موضوع سقط جنین برای پایان دادن به زندگی نوزاد های متولد نشده هم به بحث‌ها و گفتگو‌های دراز دامنی مابین طرفدارن حق حیات و طرفداران حق انتخاب منجر شده است. از نظر دکتر لیتل این بحث متکثرترین و دشوار ترین مسئله در اخلاق زیستی است. از نظر ایشان آنچه در این بین اهمیت دارد فروتنی هر دو طرف برای شنیدن حرف های طرف مقابل و افزودن بر بصیرت خود جهت مواجه با این سوال دشوار است.
📗معرفی کتاب ☝️☝️☝️


🗂#نانو_فناوری #تبعات_اجتماعی #تبعات_اخلاقی

📌 پیشرفت‌ها در علوم و فناوری‌های نانو وعده تاثیرات شگرفی را بر سلامت، ثروت و صلح جهانی در دهه‌های آینده می‌دهد. در میان این پیشرفت‌ها می‌توان به افزایش خیره کننده بهره وری کامپیوترها، بازیابی ارگان‌های انسانی با استفاده از بافت‌های مهندسی شده، موادی که به صورت مستقیم اتم به اتم و مولکول به مولکول طراحی شده‌اند، و ظهور پدیده‌های کاملا نوین در شیمی و فیزیک اشاره کرد. این کتاب شامل مجموعه ای از مقالات است که توسط دانشمندان پیشرو، مهندسان و اساتید علوم اجتماعی به رشته تحریر درآمده و در آن به مروری بر کاربرد‌های ممکن توسعه قریب الوقوع این فناوری در بسیاری از حوزه‌های کاربردهای صنعتی، پزشکی و امنیت ملی و همچنین مسائل مرتبط اخلاقی، حقوقی، آموزشی و اقتصادی آن پرداخته می شود. این مقالات به زمینه‌های بالقوه‌ی تحقیق درباره تبعات اجتماعی نانو فناوری اشاره دارند و درکنار آن نیز برخی پیشنهادات اولیه برای این که اثرات مثبت احتمالی نانو فناوری حداکثر گردد و اثرات منفی آن به حداقل برسد ارائه می‌کنند . این کتاب البته می‌تواند به عنوان الگویی برای چگونگی مواجه با تبعات اجتماعی مثبت یا منفی دیگر فناوری‌‌های نوین لحاظ شود. این کتاب با حمایت برنامه پیشگامی نانو فناوری ایالات متحده (NNI) به چاپ رسیده است اما مسائلی که در آن به آن‌ها پرداخته شده است هم دارای مقیاس جهانی‌اند و هم به مسائل فوری و آینده نگرانه نانو فناوری را در بر می‌گیرند. پرسش اصلی محققان این کتاب این است که چگونه تاریخ و شرایط انسانی تحت تاثیر توسعه فناوری قرار می‌گیرد و چگونه افراد و نهاد ها می توانند توسعه فناوری را به نحوی هدایت کنند که در طولانی مدت به نفع انسان باشد.

📌درباره نویسندگان:

1- میخاییل روکو (Mihail C. Roco) مشاور ارشد نانوفناوری بنیاد ملی علوم (NSF) و برنامه پیشگامی نانو فناوری (NNI) در ایالات متحده است. از او مقالات و کتب فراوانی در زمینه تاثیرات اجتماعی فناوری‌‌های نوین به خصوص نانو فناوری و روش‌های سیاست گذاری برای مواجهه صحیح با آن ها به چاپ رسیده است.

2- ویلیام بین بریج (William Sims Bainbridge) جامعه شناس آمریکایی و مدیر بخش سیستم های انسان-سایبر در بیناد ملی علوم ایالات متحده است. او یکی از همکاران ارشد در انستیتو اخلاق و تکنولوژی های در حال ظهور است. بین بریج همچنین به دارای تالیفات شناخته شده‌ای در جامعه شناسی دین است.


📌مشخصات کتاب شناختی:

Title: Nanotechnology: Societal Implications: I: Maximising Benefits for Humanity; II: Individual Perspectives

Editor: Mihail C Roco , William Sims Bainbridge

Publisher: Springer 2007

ISBN: 1402054327, 9781402054327

Length: 357 pages
🗣خبر☝️☝️☝️

🗂#هوش_مصنوعی

عنوان: هوش مصنوعی ماکروسافت، خواندن متن و درک محتوا را به همنوعانشان می آموزد

منبع:MSPU (ترجمه از وب سایت دیجیاتو)

هوش مصنوعی مرکز تحقیقاتی مایکروسافت که یکی از پیشگامان حوزه یادگیری ماشین به شمار می رود، توانایی بی نظیری در مطالعه متون مختلف و ارائه پاسخ های مختصر و مفید بر اساس محتوای آن دارد.

با استفاده از این قابلیت، موتورهای جستجو می توانند به جای معرفی صفحه حاوی مطلب مرتبط با جستجوی کاربر، مستقیماً به سؤالات آنها پاسخ دهند. با این حال، تاکنون باید هوش مصنوعی مورد بحث توسط انسان و با استفاده از مجموعه سؤال و جواب های مشخص و تخصصی آموزش داده می شد.

حال مایکروسافت گامی بزرگ به جلو برداشته و نوعی هوش مصنوعی را توسعه داده که ابتدا با استفاده از تنها یک مجموعه متن مشخص در رابطه با داده های مهم، آموزش می بیند و سپس قادر است به صورت خودکار، سؤال و جواب هایی را از متون دیگر بیرون بکشد

پس از این گام، هوش مصنوعی قادر است مهارتش در درک مطلب و تولید سؤال و جواب های مشخص از هر محتوای جدید را به هوش مصنوعی بعدی نیز انتقال دهد، یا به عبارتی، AI دیگر را به شاگردی قبول کند. مایکروسافت با بهره گیری از این سیستم که به نام SynNet معروف است، توانسته نتایج بسیار دقیق تری را در حوزه هایی کسب نماید که در حالت عادی، اطلاعات کافی برای آموزش هوش مصنوعی در آنها وجود ندارد.

در نمودار زیر می بینید سیستم SynNet که فقط با استفاده از مقاله های ویکی پیدیا آموزش دیده، در حوزه خبری هم عملکردی نزدیک به هوش مصنوعی ویژه این بخش یعنی NewsQA ارائه می دهد.

اگر شما هم با هشدارهای ایلان ماسک در مورد آینده هراس انگیز هوش مصنوعی آشنا باشید، قطعاً به این نتیجه رسیده اید که AI با دستیابی به دو توانایی اساسی مورد بحث، یعنی درک محتوای متنی و آموزش به همنوعش، به سرعت و با سهولت هرچه بیشتری به کسب دانش از میان اطلاعات پراکنده موجود در سرتاسر فضای اینترنت خواهد پرداخت، و اینجاست که باید کمی نگران شد.
🎬 معرفی ویدیو☝️☝️☝️

🗂#سایبورگ #تازه_های_فناوری

ویدیو فوق به مصاحبه ی با نیل هاربیسون (Neil Harbisson) یکی از معدود سایبورگ های حال حاضر جهان اختصاص دارد. او که از پایه گذاران بنیاد سایبورگ است ترکیب شدن انسان ها با تکنولوژی را امری اجتناب ناپذیر می داند و معتقد است این امر منجر به افزایش توانایی ها ی انسان می گردد. از نظر هاربیسون سایبورگی شدن درنهایت برای جامعه به امری عادی تبدیل خواهد شد و به طور خاص گسترش تکنولوژی های پوشیدنی کنونی زمینه لازم را برای مرحله بعدی یعنی کاشت تکنولوژی ها در بدن انسان فراهم خواهد آورد.