تقاطع اخلاق و فناوری – Telegram
تقاطع اخلاق و فناوری
541 subscribers
371 photos
50 videos
13 files
167 links
مجله تلگرامی کارگروه اخلاق و فناوری اندیشکده مهاجر، دانشگاه صنعتی شریف
ارتباط با ادمین:

@behzadface
@Abootalebsaf
@Mahdi7khalili
Download Telegram
📗 معرفی کتاب ☝️☝️☝️

🗂#فلسفه_فناوری

کتاب بدن ها در فناوری (bodies in technology) دربرگیرنده آخرین تلاش‌ دن آیدی (Don Ihde)، فیسلوف فناوری برجسته، برای درک فناوری از منظری پدیدارشناختی است. آیدی در همه کار‌هایش از موریس مرلوپونتی و مفهوم «بدن-سوژه» او استفاده کرده است. مفهومی که بیان می‌کند ما به عنوان سوژه‌ها، بدن مند هستیم. به همین دلیل و به شکلی ناگشودنی وجود ما «در جهان » است که معنا می‌یابد. این رابطه غیرقابل تقلیل میان بدن و جهان یگانه سرچشمه معنا است. آیدی کتاب خود را با این فهم آغاز می‌نماید اما او به سرعت دو طریق دیگر را برای تولید معنا خارج از این مسیر اولیه شناسایی می‌کند. بُعد دوم از معنا برساخته‌ای فرهنگی / اجتماعی است که برآمده از مواجه ما با دیگر بدن-سوژه‌ها در جهان است. و بُعد سوم از معنای بدنمندانه جایی است که بدن‌های پدیداری و اجتماعی، با فناوری تلاقی می‌یابند و این دقیقا محدوده‌ای است که آیدی در این کتاب به کند و کاو درباره آن می‌پردازد.

از نظر آیدی ما در حال تجربه نمودن جهان به وسیله فناوری هستیم، اما زمانی که به سیر تاریخ تحول فناوری بنگریم همواره با یک سائق آرمانشهرانه مواجه می شویم. سائقی که بیان می‌کند فناوری در حال کمک به ما برای غلبه بر محدودیت‌های انسانی ماست، چیزی که باعث می‌گردد فناوری به بت ما تبدیل گردد. این سائق آرمانشهرانه «فانتزی‌های تکنیکی» ای را تولید می‌کند که مدعی‌اند فناوری به بدن ما «دسترسی» فراخ تر در جهان خواهند داد. از نظر آیدی این فانتزی‌های تکنیکی پیش از دوره‌ مدرن نیز وجود داشته است، اما در دروه پسا مدرن بسیار پیش رفته است به نحوی که مبنایی برای واقعیت مجازی گشته است، چیزی که حتی به خود واقعیت فی نفسه ترجیح داده می‌شود. به طور خلاصه، آیدی علاقه مند است تا دریابد چگونه درک ما از بدنمندیمان از طریق فناوری‌های نوین تغییر می یابد

این کتاب شامل چهار بخش است. در بخش اول تصویری از طرق گوناگونی که فناوری بر بدنمندی ما تاثیر دارد و همچنین چگونگی تغییر تجربه ما از جهان به وسیله آن ترسیم می‌گردد. در این جا آیدی از دوگانه واقعی/مجازی استفاده می‌کند و به توسعه رویکرد خود از پدیدارشناسی بدنمندانه (جایی که فناوری توانایی‌های ادراکی بدن ما را تصحیح و تقویت می‌کنند) و پدیدارشناسی غیربدنمندانه( جایی که فناوری بدن را تصویر یا عینی سازی می‌کند) می‌پردازد . آیدی به طور خاص به مفهوم غیربدنمندی علاقه مند است زیرا که مبنایی برای مفهوم بدن مجازی است. بدن مجازی امری است که امروزه توسط بسیاری از فناوری‌ها ایجاد می‌گردد. در بخش 2 آیدی به طرقی می ‌پردازد که ابزار‌های علمی به شکل سنتی منجر به ایجاد یک حالت تصویرگرانه می‌شوند. آیدی تصدیق می‌کند که چنین حالت تصویری این امکان را برای علم فراهم کرده که هرمنوتیک غنی از پدیده‌های فیزیکی بدست دهد اما او استدلال می‌کند که در نهایت آن برساخته جامعه است. لذا شواهد علمی عموماً به طریقی که در آن‌ها بدن‌های مجازی از اهمیت بیشتری داشته باشند صورت بندی می‌شوند تا بدن‌‌های موقعیت مندِ درون جهان.

بخش 3 کتاب به اولویت بدن‌های موقعیت مند در برابر بدن مجازی اختصاص دارد. این بخش به دیالوگ با محققان رشته مطالعات علم اختصاص دارد که شامل افرادی همچون اندرو پیکرینگ (Andrew Pickering ) دانا هاراوی (Donna Haraway ) و برونو لاتور (Bruno Latour) می‌گردد. در بخش چهارم آیدی نسبت ایده بدن‌های موقعیت مند را با فلسفه تکنولوژی عام تر خود نشان می‌دهد. آیدی در نهایت استدلال می‌کند اگرچه تلاش برای کنترل عقلانی حجم عظیم توسعه تکنولوژی کجروی است، می‌توان با در نظر گرفتن اهمیت موقعیت مندی انسان که مبنای فعالیت تکنیکی در هر دو سطح تحقیقات و کاربرد‌ها است به فرآیند توسعه فناوری ورود کرد و تغییرات هنجاری لازم را به وجود آورد .

📌درباره نویسنده:

دن آیدی فیلسوف علم و فناوری و یک پساپدیدارشناس است. در 1979 او کتاب تکنیک و پرکسیس را نوشت که معمولاً به عنوان اولین کار فلسفه تکنولوژی در آمریکای شمالی شناخته می‌شود. آیدی استاد فلسفه دانشگاه نیویورک در استانی بروک است. آیدی نویسنده 13 کتاب و ویراستار تعداد زیادی دیگر کتاب است.‌ تعقیب تکنو-علم(2003)، بدن ها در فناوری (2002) گسترش هرمنوتیک: تصویرگرایی در علم(1998) و پسا پدیدارشناسی (1993) نمونه‌هایی از آثار او هستند.

📌مشخصات کتابشناختی:

Title: Bodies in Technology /Volume 5 of Electronic mediations
Author: Don Ihde
Publisher: U of Minnesota Press, 2002
ISBN: 0816638462, 9780816638468
Length: 155 pages
🎬 معرفی ویدیو ☝️☝️☝️

🗂#تازه_های_فناوری #اینترنت_اشیا

اصطلاح «اینترنت اشیاء» اولین بار توسط کوین اشتون در سال 1999 بکار برده شد و برای نخستین بار توسط انتشارات مؤسسه MIT به دنیامعرفی گردید و جهانی را توصیف کرد که در آن هر چیزی، از جمله اشیا بی جان، برای خود هویت دیجیتال داشته باشند و به کامپیوترها اجازه دهند آن‏ها را سازماندهی و مدیریت کنند.

مفهوم اینترنت اشیاء بوسیله یکی از افراد کمیته توسعه RFID در سال 2000 رقم خورد. او به امکان کشف اطلاعات در مورد یک شیء برچسب خورده بوسیله جست و جو در یک آدرس اینترنت خاص و یا محتوای یک بانک اطلاعاتی اشاره نمود. از آن زمان واژه اینترنت اشیاء به مفهوم اشیاء روزمره‌ای که قابل تشخیص، مکان‌یابی، آدرس دهی و کنترل از طریق اینترنت باشند (چه از طریق RFID، شبکه بی‌سیم، شبکه WAN و یا سایر ابزارها) گره خورد. اشیاء روزمره تنها شامل وسایل الکتریکی نیست بلکه اشیایی که به هیچ وجه به آن‌ها به دید یک وسیله الکتریکی نمی‌نگریم را هم شامل می شود. مانند غذا، پوشاک، مواد، قطعات و ...

تعاریف زیادی از اینترنت اشیاء توسط انجمن‌های مختلف تحقیقاتی بر اساس نوع نگرش آن‌ها به نقاط قوت این ایده بیان‌شده است. دلیل چندوجهی بودن این مفهوم به نام‌گذاری این ایده یعنی «اینترنت اشیاء» برمی‌گردد. این نام از دو کلمه تشکیل‌شده است، کلمه اول به دیدگاه شبکه گرایی این مفهوم تأکید دارد درحالی‌که کلمه دوم به حرکت به سمت اشیاء عمومی که در یک بسته مشترک قرارگرفته‌اند تأکید می‌کند. اینکه به اینترنت اشیاء با دید اینترنت گرا و یا موجودیت گرا نگاه کنیم باعث به وجود آمدن تغییر در ذینفعان، قراردادهای تجاری، تحقیق‌ها و استانداردهای موجود خواهد شد. درواقع اینترنت اشیاء به معنی یک شبکه جهانی از اشیاء مرتبط که هر یک دارای آدرس مختص به خود بوده، می¬ باشد که بر اساس قراردادهای استانداردشده‌ای با یکدیگر در ارتباط هستند. آدرس‌دهی منحصر به فرد، نمایش و ذخیره‌سازی اطلاعات تبادل شده در اشیاء، موضوعات چالش‌برانگیزی است که سومین دیدگاه از «اینترنت اشیاء» یعنی معناگرایی را در برمی‌گیرد.

ویدیو فوق تصویری از زندگی در عصر اینترنت اشیا را به تصویر می کشد.
🗣خبر☝️☝️☝️

🗂#فناوری_رباتیک

عنوان: دانشمندان آداب معاشرت اجتماعی را به ربات ها یاد می دهند

منبع: واشنگتن پست (ترجمه وبسایت دیجیاتو)

انسان ها می دانند که در کتابخانه عمومی باید موبایلشان را روی حالت بیصدا قرار دهند و در صورت دریافت کمک از دیگران، تشکر کنند. حال محققین قصد دارند ربات ها را نیز با چنین آداب معاشرت اجتماعی آشنا سازند. پژوهشگران معتقدند ماشین ها با یادگیری هنجارهای اجتماعی، ارتباط بهتری را با انسان برقرار می سازند. مراحل اولیه این پروژه به تازگی توس تیم تحقیقاتی دانشگاهی با حمایت مالی آژانس پروژه های تحقیقاتی پیشرفته دفاعی آمریکا (DARPA) به پایان رسیده است.

محققین برای اجرای این ایده، نحوه تشخیص هنجارهای اجتماعی توسط انسان و واکنش به آنها را مطالعه کرده و نوعی الگوریتم یادگیری ماشین را توسعه دادند که امکان آموختن این آداب را با استنتاج از داده های انسانی برای ربات فراهم می سازد. به گفته این تیم، سیستم مورد بحث در نهایت به توسعه سامانه ای مبتنی بر هوش مصنوعی می پردازد که بر اساس آن، ربات ها به صورت شهودی نحوه رفتار در شرایط مختلف را بر می گزینند، یعنی همان کاری که انسان ها انجام می دهند.

دکتر رضا قنادان، یکی از مدیران DARPA می گوید: اگر بخواهیم همزیستی مسالمت آمیزی با ربات ها، ماشین های خودران و دستیارهای هوشمند دیجیتالی در آینده داشته باشیم، که هدفمان نیز همین است، باید آنها را به گونه ای طراحی کنیم که هنجارها و اصول اجتماعی ما را رعایت کنند.

انسان ها از کودکی با آداب اجتماعی آشنا می شوند و از آنجا که شبکه ای پیچیده از این هنجارها در جامعه وجود دارد، یادگیری موارد جدید نیز به راحتی برای بشر میسر است. قنادان می گوید: ما کاملاً با این موارد آشنا هستیم، چون افراد نرمال به سرعت تخطی از نُرم ها را تشخیص می دهند. عدم قطعیت ذاتی در این نوع داده ها باعث می شود تا آموزش ماشین بر اساس آنها با دشواری بسیار زیادی همراه باشد.

گفتنیست تیم مورد بحث تا به امروز توانسته با موفقیت چارچوب سامانه یادگیری ماشین را توسعه دهد، اما هنوز راه درازی در پیش دارد و یکی از حیاتی ترین گام ها در این مسیر، توسعه رباتی است که ظرفیت یادگیری، بازنمایی، فعالسازی و به اجرا درآوردن مجموعه وسیعی از هنجارها را داشته باشد
Forwarded from علم و دين
🔬آیا علم وجود #خدا راتایید کرده ویا آن را نفی کرده است؟🔭
⭕️تبیین وبررسی مناقشات میان علم ودین📚
👨🏻‍🎓جمعی از محققان فلسفه علم،ذهن ،فیزیک وزیست شناسی دانشگاه شریف🏛
👇بپیوندید
🆔 Telegram.me/scirel
📝 یادداشت

عنوان: رابطه دانش و تکنولوژی نزد میشل فوکو

نویسنده: عطا حشمتی

یکی از مهم‌ترین مسائلی که متفکران و پژوهشگران حوزۀ تکنولوژی به شکلی جدی و عمیق با آن دست‌وپنجه نرم می‌کنند، فاصلۀ میان عمل و نظر در عرصه‌های مختلف انسانی است. این مسئله را شاید بتوان در قالب مسئلۀ رابطۀ تکنولوژی و علم نیز صورت‌بندی کرد. این‌که چرا ما باوجود پرداخت عمیق به علوم پایه و مهندسی در دانشگاه‌ها، هنوز در عرصه‌های عملی و تکنیکی به پختگی کامل نرسیده‌ایم؟ یا چرا دانش نظری ما هیچ ربطی به تجربه‌های عملی و چالشیِ بنگاه‌های صنعتی و تجاری ما ندارد؟ پاسخ به این سؤال‌ها در گروی این است که بدانیم آیا علم بر تکنولوژی مقدم است یا تکنولوژی بر علم. برای برخی تکنولوژی محصول علم و تأملات آزمایشگاهی دانشمندان است و برای برخی دیگر علم تنها در محیطی عملی و درگیر با واقعیت ساخته می‌شود. این مقاله می‌خواهد پاسخ فوکو به این چالش را تا حدی روشن کند و نشان دهد چگونه فوکو ابتدا تصور می‌کرد دانش و نظریه بسیار فرا‌تر از عمل و کنش واقعی اهمیت دارد و بعد‌ها با تجدیدنظر در این موضع به این نتیجه رسید علم و دانش نظری خود محصول تکنولوژی و کردارهای عملی ما در بافتی تاریخی است. در این راستا پس از مقدمه‌ای کوتاه به بررسی نگاه فوکو به تکنولوژی و رابطۀ آن با دانش در دو دورۀ فکری‌اش می‌پردازیم.

متن کامل یادداشت در لینک زیر:👇👇👇

https://goo.gl/R3WDH8
🎬 معرفی ویدیو ☝️☝️☝️

#فلسفه_فناوری #اخلاقی_سازی_فناوری


پیتر پائول فربیک از پیشگامان رویکرد پساپدیدارشناسی در فلسفه تکنولوژی است. او هم اکنون ریاست دپارتمان فلسفه دانشگاه توئنته، ریاست انجمن فلسفه و تکنولوژی و عضو شورای هلندی علوم انسانی است. در این سخنرانی او به موضوع اخلاقی سازی فناوری (Moralizing Technology) می پردازد که نخستین بار توسط هانس آخترهایس مطرح شده است. بنا براین ایده ما می‌توانیم با درون نگاری برخی ارزش‌ها در فناوری از بار فشار تصمیمات اخلاقی در زندگی خود بکاهیم. به تعبیر دیگر برای اخلاقی شدن جامعه تنها نباید افراد آن را اخلاقی کرد بلکه فناوری‌ها هم که نقش عمده‌ای در زندگی انسان‌ها دارند باید اخلاقی گردند. این ایده آخترهایس با مخالفت‌ها متعددی روبرو شد. منتقدان عمدتا نگران بودند که این کار منجر به شکل گیری تکنوکراسی و همچنین از بین رفتن خودمختاری انسان گردد.

فربیک از پروژه‌هایی همچون فناوری‌های متقاعد کننده (Persuasive Technology) به عنوان نمونه‌هایی یاد می کند که هم ایده اخلاقی سازی را در دل خود نهفته‌اند و هم ارزش خودمختاری انسان‌ها را حفظ می‌کنند. با این وجود او فکر می‌کند فهمی که ما از خودمختاری انسان داریم بسیار آرمان گرایانه است و باید کمی متواضعانه تر به خود بیاندیشیم. اگر دریابیم که خودمختاری تا چه حد تحت تاثیر فناوری است آن‌گاه دیگر اخلاق را صرفا به حیطه ‌امور انسانی محدود نخواهیم کرد و اشیا و ابزارها را هم حائز اهمیت اخلاقی خواهیم دانست. قفل‌های سکه خور، وسایل اصلاح و قرص‌های ضد بارداری همه نمونه‌هایی است که از نظر فربیک به اخلاق اشیا (Morality of things) اشاره دارند.

بدین ترتیب ما نیازمند توسعه مدل متفاوتی از رابطه میان انسان و فناوری هستیم که در آن انسان و فناوری نه به عنوان سوژه‌های خودمختار و ابژه‌هایی منفعل و مستقل از هم در نظر گرفته شوند بلکه باید به صورت دو امر در همتنیده لحاظ شود. این نگاه به رابطه انسان و فناوری نگاهی است که در کار‌های دن آیدی و همچنین نظریه واسطه گری فربیک وجود دارد. بر اساس چنین منظری جایگاه اخلاق سنتی تکنولوژی که در آن دو فرض‌اساسی وجود دارد متزلزل می‌گردد. نخست این که اخلاق باید از انسان در برابر تاثیرات فناوری دفاع کند و دوم می توان تبعات اخلاقی تکنولوژی را از یک نقطه بیرونی ارزیابی کرد. بنا بر نظریه واسطه گری اولاً هیچ راه فراری از تاثیرات فناوری وجود ندارد و ثانیاً خود چهارچوب‌های ارزیابی نیز می‌تواند تحت تاثیر واسطه گری قرار گیرند لذا نقطه بیرونی برای ارزیابی وجود ندارد.

در این بین تاملات اخلاقی فوکو از نظر فربیک می‌تواند منبع الهام خوبی برای توسعه‌ی یک اخلاق تکنولوژی جدید باشد. از نظر فوکو اخلاق به معنای برقراری یک رابطه آزاد با قدرت است که در طی آن فرد در حال برسازی خویشتن است. از نظر فربیک نیز ما باید به جای نفی تکنولوژی به دنبال برقراری یک رابطه سازنده با آن باشیم. این رابطه می‌تواند در دوسطح استفاده و طراحی برقرار گردد. در سطح استفاده باید درک کنیم که چگونه هر فناوری با تاثیراتش در حال شکل دهی به زندگی ماست. اما در سطح طراحی است که ایده اخلاقی سازی تکنولوژی اهمیت می یابد. بر اساس این ایده باید تلاش کنیم به کمک طراحی نوعی از فناوری را توسعه دهیم که در نهایت بتواند تا میزان بالایی منجر به تحقق زندگی خوب از منظر ما گردد.

💡نکته: برای دیدن زیرنویس ویدیو در سایت آپارات گزینه CC را فعال کنید.
📗معرفی کتاب ☝️☝️☝️

🗂#حریم_خصوصی #کلان_داده

📌 امنیت سایبری دیگر محدود به ماموران اطلاعاتی نیست که در اتاق‌‌های مخفی با دقت به کد ها نگاه می‌کردند تا از حمله مهاجمان بین المللی پیش گیری کنند . امروز روزنامه و خبرگزاری‌ها پر است از خبرهایی درباره‌ی استراق سمع و اپلیکیشن هایی برای هک ابزار‌های هوشمند که ممکن است بدون این که بدانید از اطلاعات شخصی شما جاسوس می کنند. این مشکل واقعا تا چه حد جدی است ؟ کویلیو ریاست کمپانی‌های امنیتی RSA می گوید: « هم اکنون یک پتابایت داده در فضای ابری وجود دارد که معادل با 5 بیلیارد (10 به توان 15) کتاب است. با این وجود تنها 20 درصد آن محافظت شده است»

📌 کتاب حریم خصوصی در عصر کلان داده‌ها (privacy in the Age of Big Data) تلاش می کند تا نگرانی‌ها در این باره را برای مخاطبانش روشن سازد. رضایت در مسئله حریم خصوصی یک واژه‌ای کلیدی است. نویسندگان این کتاب ترسا پیتون کارمند اطلاعاتی پیشین کاخ سفید و تئودر کلیپوله متخصص مدیریت داده‌ها توضیح می‌دهند که تا چه حد مردم در این باره دچار بدفهمی اند. وقتی مردم می‌گویند مهم نیست که اطلاعاتشان در دست کس دیگری قرار گیرد تا وقتی که چیزی برای پنهان کردن نداشته باشند آن‌ها کاملاً به خطا رفته‌اند. حریم خصوصی داده‌ها، موضوعی مربوط به انتخاب کردن است: آیا شما به شرکت‌ها اجازه می‌دهید که اطلاعات شما را جمع آوری و دسته بندی کنند؟ آیا شما این اجازه را به آن‌ها می‌دهید که اطلاعات شما را بفروش برسانند یا رفت آمدها و محل سکونتتان را رهگیری کنند؟

📌 بدفهمی دیگر این است که دولت‌ها و دیگر جمع کنندگان داده تنها زمانی شما را رهگیری می‌کنند که کار مشکوکی انجام دهید. این یک پیش فرض غلط و حتی خطرناک است. فعالیت‌های مدیریت داده ی کنونی تلاش می‌کنند همه گونه اطلاعات را با دقت و صحت جمع آوری کنند و بعد داده کاوان انتخاب می کنند به چه اطلاعاتی نیاز دارند. نویسندگان این کتاب به حرف‌های یکی از ژنرال‌های آمریکایی استناد می‌کنند که گفته بود مرکز ملی ضد تروریسم ممکن است داده‌هایی درباره شهروندان بی گناه آمریکایی را هم برای تحلیل‌های آینده جمع آوری نماید.

📌 نویسندگان کتاب معتقدند « زمانی که حریم خصوصی شما محافظت شود، شما آزاد هستید که انتخاب کنید تا چه میزان از اطلاعات حساس شما در معرض دید قرار گیرد، چه کسانی بتوانند به آن دسترسی داشته باشند و در برخی موارد چگونه از آن اطلاعات استفاده کنند» . وقتی این محافظت از بین برود چه توسط هکر‌ها، فشار‌های قانونی یا حتی شرکت‌های بزرگ، شما حق امن سازی حریم خصوصیتان در مقابل افراد با نیت‌های نادرست را از دست می‌دهید.

📌 اطلاعات خصوصی نوعی از مالکیت است و شما باید این حق را داشته باشید که تصمیم بگیرد با آن چه کنید. هرچند خط میان انتخاب و آزادی شروع به مبهم شدن می‌کند وقتی مصرف کنندگان رضایت مندانه اطلاعاتشان را در اختیار اپلیکیشن‌هایی با پیشنهاد بازی های جذاب یا فروشگاه‌هایی با وعده تخفیف قرار می دهند. این دو راهی است که استفاده کنندگان باید به خوبی آن را سبک و سنگین کنند. در واقع امنیت سایبری نیازمند این است که از عینک سود/مخاطره نگریسته شود.

📌 کتاب حریم خصوصی در عصر کلان داده‌ها به چهار بخش تقسم می‌شود که هر کدام خطر‌های امنیتی در حیطه‌ای خاص را مورد بررسی قرار می دهند:

بخش 1: نقطه آغاز: کامپیوتر شما و اینترنت- ابزار‌های دیجیتالی که شما به صورت روزانه استفاده می‌کنید ( لپ تاپ ها، گوشی‌های هوشمند، ایمیل و ....) شما را در برابر حملات و دزدی داده ها آسیب پذیر می‌کنند.

بخش 2: خطر در جاده- ترک کردن خانه به معنای پایان پایش و رهگیری شما نیست. دوربین‌های چراغ قرمز، ماشین‌های هوشمند یا گجت‌های سلامتی خودتان گنجی از داده‌های شخصی برای فروشندگان داده‌ها هستند.

بخش 3: خانه جایی است که قلب (پایش) آنجاست- از دوربین ها امنیتی تا شبکه‌های وای فای و گوشی‌های همراه ، جمع آوری داده در خانه شما هم فعال است.

بخش 4: از این جا باید به کجا رفت؟ - صنایع و اشخاص باید محدودیت‌های برای خود مشخص کنند، از کد‌های اخلاقی گرفته تا قوانین و سامانه‌های کد گذاری شده.

.
اطلاعات کتابشناختی

Title: Privacy in the Age of Big Data: Recognizing Threats, Defending Your Rights, and Protecting Your Family
Authors: Theresa Payton, Ted Claypoole
Publisher: Rowman & Littlefield, 2014
ISBN: 1442225459, 9781442225459
Length: 259 pages
🎬 معرفی ویدیو:☝️☝️☝️

🗂 #هوش_مصنوعی

ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗣خبر☝️☝️☝️

🗂#مهندسی_ژنتیک

عنوان: استفاده از تکنیک کریسپر باعث بروز صدها جهش ژنتیکی ناخواسته می‌شود

منبع: ScienceAlert ( ترجمه وبسایت زومیت)

📌 کریسپر (CRISPR-Cas9) به‌عنوان یکی از مهم‌ترین اختراعات پزشکی مدرن شناخته می‌شود؛ به‌گونه‌ای که اکنون رؤیای انجام اصلاح ژنتیکی در جنین انسان بیش از پیش به واقعیت نزدیک شده است. اما این تکنولوژی شاید بیشتر از آنی که قبلا تصور می‌شد، خطرناک باشد. معرفی تکنولوژی کریسپر، انقلابی در زمینه‌ی علم ویرایش ژن‌ها ایجاد کرد؛ اما اکنون دانشمندان دریافته‌اند که همین تکنولوژی باعث وقوع صدها جهش ژنتیکی ناخواسته در ژنوم یک ارگانیسم می‌شود. با توجه به این‌که هم‌اکنون آزمایش‌های بالینی در مورد کریسپر روی انسان‌ها در جریان است، یافته‌ی اخیر باعث ایجاد نگرانی‌های جدی در بین محققان شده است.
استفان تسانگ از مرکز تحقیقات پزشکی دانشگاه کلمبیا، در این مورد می‌گوید:

ما معتقدیم که ضرورت دارد جامعه‌ی علمی خطرات استفاده از کریسپر را در نظر بگیرد. کریسپر باعث ایجاد جهش‌های غیر هدفمند می‌شود. این جهش‌ها شامل جهش‌های تک نوکلئوتیدی و جهش‌ در مناطق غیر کد در ژنوم می‌شود.

تسانگ به همراه تیم تحقیقاتی‌اش برای اولین بار به مطالعه و مانیتورینگ کل ژنوم یک ارگانیسم زنده پرداختند؛ ارگانیسمی که پیش از این در آن از روش ویرایش ژنی کریسپر استفاده شده بود. آن‌ها به دنبال کشف جهش‌های ژنی ناخواسته در بخش‌هایی از ارگانیسم بودند که به‌کلی با ناحیه‌ی هدف کریسپر غیر مرتبط بودند.در مطالعات در مورد اثرات استفاده از کریسپر در ارگانیسم‌ها، هیچ اثری از جهش‌های ناخواسته یافت نشده بود. دلیل این امر شاید به نوع ابزار استفاده‌شده در این مطالعات برگردد. در مطالعات پیشین از الگوریتم‌های رایانه‌ای برای اسکن بخش‌هایی از ارگانیسم استفاده شده بود که مرتبط با منطقه‌ی هدف بودند و احتمال بروز جهش در آن‌ها، بسته به نوع ویرایش ژنی انجام‌شده، بیشتر بود.

الکساندر بوساک از دانشگاه آیوا و یکی از اعضای تیم تسانگ، در این مورد این‌گونه توضیح می‌دهد:

زمانی که شما از تکنیک کریسپر در سلول‌ها یا بافت‌ها در ابعاد محدود استفاده می‌کنید، این الگوریتم‌های پیش‌بینی کننده کار خود را به‌خوبی انجام می‌دهند. اما تاکنون تعیین توالی ژنی جامع در حیوانات زنده با هدف کشف جهش‌های ناخواسته در نواحی غیر مرتبط انجام نشده بود.

اگر در جریان اخبار مربوط به کریسپر قرار ندارید، بدانید که صحبت‌ها در مورد توسعه‌ی یک تکنولوژی شگفت‌انگیز در زمینه‌ی ویرایش ژن از چند سال پیش شروع شد. از آن زمان تاکنون، از کریسپر به‌عنوان انقلابی در پزشکی مدرن یاد می‌شود. دانشمندان با استفاده از تکنولوژی کریسپر قادرند تغییرات خاصی در دی‌ان‌ای انسان‌ها، حیوانات و گیاهان اعمال کنند.

در واقع کریسپر همانند یک ابزار برش و چسباندن (کات و پِیست) است. محققان با استفاده از آن می‌توانند ژن‌های مشخصی از یک ژنوم را بردارند و آن را با یک دی‌ان‌ای دلخواه جایگزین کنند. به این ترتیب برای مثال می‌توان ژن‌های معیوب را با انواع سالم جایگزین کرد. بر خلاف دیگر ابداعات دنیای پزشکی، کریسپر با گذشت چندین سال توانسته است انتظارات را برآورده کند و اکنون پزشکان از پتانسیل آن در زمینه‌ها مختلف بهره می‌برند. در سال‌های اخیر از ابزار کریسپر برای دخالت و اعمال تغییر در مرکز کنترل سرطان در بدن، بهبود جهش‌های ژنتیکی عامل کوری، درمان بیماری‌های ژنتیکی در حیوانات زنده و حتی در مطالعات مربوط به ویرایش جنین انسان با هدف یافتن علل نازایی و سقط جنین غیر عمدی استفاده شده است.

با این‌که در برخی از مطالعات گذشته نشانه‌هایی از جهش‌های غیر هدفمند در اثر استفاده از کریسپر یافت شده بود؛ اما این یافته‌ها نتوانسته بودند باعث توقف آزمایش‌های انسانی کریسپر شوند.اولین مطالعه‌ی بالینی در مورد استفاده از کریسپر در انسان، در کشور چین در حال اجرا است. البته ایالات متحده و بریتانیا از غافله عقب نمانده‌اند و هر یک در حال پیشبرد مطالعات خود هستند.

در حقیقت بعضی از کارشناسان معتقدند که چین و ایالات متحده وارد یک رقابت جدی در استفاده از تکنولوژی کریسپر شده‌اند. کریسپر تبدیل به نسخه‌ی بیولوژیک رقابت فضایی بین قدرت‌های جهانی شده است.کارل جوئن، متخصص ایمنی‌شناسی از دانشگاه پنسیلوانیا و از محققان مشاور تحقیق ملی ایالات متحده، در مورد کریسپر معتقد است:
من فکر می‌کنم این موضوع در واقع به‌نوعی اسپوتنیک ۲ است، کریسپر باعث شروع یک دوئل بیولوژیکی بین چین و ایالات متحده شده است.
اما اکنون محققان دریافته‌اند که استفاده از کریسپر بسیار گسترده‌تر از آن چیزی که قبلا گمانه‌زنی می‌شد و باعث بروز جهش‌های ژنتیکی ناخواسته در حیوانات می‌شود. تیم تحقیقاتی تسانگ برای کشف این موضوع تمام ژنوم دو موش آزمایشگاهی را تعیین توالی کردند. این دو موش قبلا در معرض ویرایش ژنتیکی با کریسپر قرار گرفته بودند. آن‌ها به دنبال کوچک‌ترین جهش ناشی از استفاده از این تکنولوژی بودند؛ حتی جهش در یک تک نوکلئوتید، یا همان بلوک اصلی سازنده‌ی دی‌ان‌ای و آر‌ان‌ای.

تسانگ و همکارانش دریافتند که تکنولوژی کریسپر با موفقیت توانسته است ژن‌های عامل کوری در موش‌ها را تصحیح کند. اما در اثر استفاده از کریسپر بیش از ۱۵۰۰ جهش ژنتیکی ناخواسته در نوکلئوتید موش‌ها اتفاق افتاده است. تعداد جهش‌های بزرگ نیز بیش از ۱۰۰ مورد بوده است. این تیم تحقیقاتی در گزارش خود آورده است:
هیچ کدام از این جهش‌های ژنتیکی توسط الگوریتم‌های رایانه‌ای که به‌طور گسترده توسط محققان استفاده می‌شود، پیش‌بینی نشده بود.

البته یافته‌ی جدید در مورد عوارض جدی استفاده از کریسپر برای ویرایش ژن‌ها باعث نخواهد شد استفاده از این تکنولوژی به‌طور کلی کنار گذاشته شود. هم‌اکنون به مطالعات بیشتری برای اثبات این یافته‌ها نیاز است. نتایج تحقیق اخیر باید در نمونه‌های بیشتر و انسان‌ها نیز تکرار شود.اما باید اقرار کرد که به نظر می‌رسد این دستاورد بزرگ پزشکی دارای عوارض بزرگ و جدی طولانی‌مدت است؛ عوارضی که تاکنون مطالعات محققان موفق به شناسایی آن‌ها نشده بود. اما اکنون آن‌ها باید هشدارهای مربوط به بروز جهش‌های ناخواسته در اثر استفاده از کریسپر را جدی بگیرند
📝یادداشت

عنوان: مسابقه ربط

نویسنده: اندرو لوئیس

مترجم: ابوطالب صفدری

بهارِ ۱۹۹۴ بود که نیکلاس نگروپونته[۱] شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب[۲] -که محصول اندیشه‌های او بود- و هم تعدادی از طراحانِ جوان تراشه و صنعت‌گرانِ حوزۀ واقعیتِ مجازی، به شکل دیوانه‌واری سرگرم خلقِ ابزارها و وسایلِ آینده بودند. اما نگروپونته عمیقاً درگیرِ یک مسئلۀ دیگر بود، مسئله‌ای ساده‌تر که میلیون‌ها انسان هر روز به آن فکر می‌کردند: اینکه چه برنامه‌ای را در تلویزیون تماشا کنند.

متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/Soh8Y7
🎬 معرفی ویدیو ☝️☝️☝️

🗂#اخلاق_زیستی #سقط_جنین

دکتر مگی لیتل (Maggie Little) ریاست انستیتو اخلاق کندی (Kennedy Institute of Ethics) در دانشگاه جرج تاون است . ایشان در این ویدیو به مسائل اخلاقی مربوط به دخالت در مراحل جنینی زندگی انسان می‌پردازد. با ظهور فناوری‌های تولید مثل اشتراکی (collaborative reproduction) امکان دخالت چندین فرد ( اهدا کننده اسپرم، اهدا کننده تخمک، مادرجایگزین، والدین اجتماعی ) در تولد یک نوزاد فراهم شده است. ازین رو این فناوری درک ما از مفهوم والدین بودن و حقوق و وظایفی که در نسبت با آن تعریف می‌شوند را تغییر داده است. از سوی دیگر این فناوری‌های به شدت مستعد تجاری شدن‌ هستند و این فرصت را برای افراد تاجر مسلک فراهم کرده‌اند که به خرید فروش رویان‌های فریز شده انسان بپردازند. قوانین نیز در این زمینه هنوز دارای نواقصی هستند و به خصوص در مسائل مربوط به مادر جایگزین (surrogate) به تناقضات بین قوانین اساسی هر فرد و قوانین قراردادی منجر می شوند. درنهایت موضوع سقط جنین برای پایان دادن به زندگی نوزاد های متولد نشده هم به بحث‌ها و گفتگو‌های دراز دامنی مابین طرفدارن حق حیات و طرفداران حق انتخاب منجر شده است. از نظر دکتر لیتل این بحث متکثرترین و دشوار ترین مسئله در اخلاق زیستی است. از نظر ایشان آنچه در این بین اهمیت دارد فروتنی هر دو طرف برای شنیدن حرف های طرف مقابل و افزودن بر بصیرت خود جهت مواجه با این سوال دشوار است.