Forwarded from علم و دين
🔬آیا علم وجود #خدا راتایید کرده ویا آن را نفی کرده است؟🔭
⭕️تبیین وبررسی مناقشات میان علم ودین📚
👨🏻🎓جمعی از محققان فلسفه علم،ذهن ،فیزیک وزیست شناسی دانشگاه شریف🏛
👇بپیوندید
🆔 Telegram.me/scirel
⭕️تبیین وبررسی مناقشات میان علم ودین📚
👨🏻🎓جمعی از محققان فلسفه علم،ذهن ،فیزیک وزیست شناسی دانشگاه شریف🏛
👇بپیوندید
🆔 Telegram.me/scirel
📝 یادداشت
عنوان: رابطه دانش و تکنولوژی نزد میشل فوکو
نویسنده: عطا حشمتی
یکی از مهمترین مسائلی که متفکران و پژوهشگران حوزۀ تکنولوژی به شکلی جدی و عمیق با آن دستوپنجه نرم میکنند، فاصلۀ میان عمل و نظر در عرصههای مختلف انسانی است. این مسئله را شاید بتوان در قالب مسئلۀ رابطۀ تکنولوژی و علم نیز صورتبندی کرد. اینکه چرا ما باوجود پرداخت عمیق به علوم پایه و مهندسی در دانشگاهها، هنوز در عرصههای عملی و تکنیکی به پختگی کامل نرسیدهایم؟ یا چرا دانش نظری ما هیچ ربطی به تجربههای عملی و چالشیِ بنگاههای صنعتی و تجاری ما ندارد؟ پاسخ به این سؤالها در گروی این است که بدانیم آیا علم بر تکنولوژی مقدم است یا تکنولوژی بر علم. برای برخی تکنولوژی محصول علم و تأملات آزمایشگاهی دانشمندان است و برای برخی دیگر علم تنها در محیطی عملی و درگیر با واقعیت ساخته میشود. این مقاله میخواهد پاسخ فوکو به این چالش را تا حدی روشن کند و نشان دهد چگونه فوکو ابتدا تصور میکرد دانش و نظریه بسیار فراتر از عمل و کنش واقعی اهمیت دارد و بعدها با تجدیدنظر در این موضع به این نتیجه رسید علم و دانش نظری خود محصول تکنولوژی و کردارهای عملی ما در بافتی تاریخی است. در این راستا پس از مقدمهای کوتاه به بررسی نگاه فوکو به تکنولوژی و رابطۀ آن با دانش در دو دورۀ فکریاش میپردازیم.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/R3WDH8
عنوان: رابطه دانش و تکنولوژی نزد میشل فوکو
نویسنده: عطا حشمتی
یکی از مهمترین مسائلی که متفکران و پژوهشگران حوزۀ تکنولوژی به شکلی جدی و عمیق با آن دستوپنجه نرم میکنند، فاصلۀ میان عمل و نظر در عرصههای مختلف انسانی است. این مسئله را شاید بتوان در قالب مسئلۀ رابطۀ تکنولوژی و علم نیز صورتبندی کرد. اینکه چرا ما باوجود پرداخت عمیق به علوم پایه و مهندسی در دانشگاهها، هنوز در عرصههای عملی و تکنیکی به پختگی کامل نرسیدهایم؟ یا چرا دانش نظری ما هیچ ربطی به تجربههای عملی و چالشیِ بنگاههای صنعتی و تجاری ما ندارد؟ پاسخ به این سؤالها در گروی این است که بدانیم آیا علم بر تکنولوژی مقدم است یا تکنولوژی بر علم. برای برخی تکنولوژی محصول علم و تأملات آزمایشگاهی دانشمندان است و برای برخی دیگر علم تنها در محیطی عملی و درگیر با واقعیت ساخته میشود. این مقاله میخواهد پاسخ فوکو به این چالش را تا حدی روشن کند و نشان دهد چگونه فوکو ابتدا تصور میکرد دانش و نظریه بسیار فراتر از عمل و کنش واقعی اهمیت دارد و بعدها با تجدیدنظر در این موضع به این نتیجه رسید علم و دانش نظری خود محصول تکنولوژی و کردارهای عملی ما در بافتی تاریخی است. در این راستا پس از مقدمهای کوتاه به بررسی نگاه فوکو به تکنولوژی و رابطۀ آن با دانش در دو دورۀ فکریاش میپردازیم.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/R3WDH8
اندیشکده مهاجر
مهمترین مسائلی که متفکران و پژوهشگران حوزۀ تکنولوژی به شکلی جدی و عمیق با آن دستوپنجه نرم میکنند، فاصلۀ میان عمل و نظر در عرصههای اندیشکده مهاجر فوکو
🎬 معرفی ویدیو ☝️☝️☝️
#فلسفه_فناوری #اخلاقی_سازی_فناوری
پیتر پائول فربیک از پیشگامان رویکرد پساپدیدارشناسی در فلسفه تکنولوژی است. او هم اکنون ریاست دپارتمان فلسفه دانشگاه توئنته، ریاست انجمن فلسفه و تکنولوژی و عضو شورای هلندی علوم انسانی است. در این سخنرانی او به موضوع اخلاقی سازی فناوری (Moralizing Technology) می پردازد که نخستین بار توسط هانس آخترهایس مطرح شده است. بنا براین ایده ما میتوانیم با درون نگاری برخی ارزشها در فناوری از بار فشار تصمیمات اخلاقی در زندگی خود بکاهیم. به تعبیر دیگر برای اخلاقی شدن جامعه تنها نباید افراد آن را اخلاقی کرد بلکه فناوریها هم که نقش عمدهای در زندگی انسانها دارند باید اخلاقی گردند. این ایده آخترهایس با مخالفتها متعددی روبرو شد. منتقدان عمدتا نگران بودند که این کار منجر به شکل گیری تکنوکراسی و همچنین از بین رفتن خودمختاری انسان گردد.
فربیک از پروژههایی همچون فناوریهای متقاعد کننده (Persuasive Technology) به عنوان نمونههایی یاد می کند که هم ایده اخلاقی سازی را در دل خود نهفتهاند و هم ارزش خودمختاری انسانها را حفظ میکنند. با این وجود او فکر میکند فهمی که ما از خودمختاری انسان داریم بسیار آرمان گرایانه است و باید کمی متواضعانه تر به خود بیاندیشیم. اگر دریابیم که خودمختاری تا چه حد تحت تاثیر فناوری است آنگاه دیگر اخلاق را صرفا به حیطه امور انسانی محدود نخواهیم کرد و اشیا و ابزارها را هم حائز اهمیت اخلاقی خواهیم دانست. قفلهای سکه خور، وسایل اصلاح و قرصهای ضد بارداری همه نمونههایی است که از نظر فربیک به اخلاق اشیا (Morality of things) اشاره دارند.
بدین ترتیب ما نیازمند توسعه مدل متفاوتی از رابطه میان انسان و فناوری هستیم که در آن انسان و فناوری نه به عنوان سوژههای خودمختار و ابژههایی منفعل و مستقل از هم در نظر گرفته شوند بلکه باید به صورت دو امر در همتنیده لحاظ شود. این نگاه به رابطه انسان و فناوری نگاهی است که در کارهای دن آیدی و همچنین نظریه واسطه گری فربیک وجود دارد. بر اساس چنین منظری جایگاه اخلاق سنتی تکنولوژی که در آن دو فرضاساسی وجود دارد متزلزل میگردد. نخست این که اخلاق باید از انسان در برابر تاثیرات فناوری دفاع کند و دوم می توان تبعات اخلاقی تکنولوژی را از یک نقطه بیرونی ارزیابی کرد. بنا بر نظریه واسطه گری اولاً هیچ راه فراری از تاثیرات فناوری وجود ندارد و ثانیاً خود چهارچوبهای ارزیابی نیز میتواند تحت تاثیر واسطه گری قرار گیرند لذا نقطه بیرونی برای ارزیابی وجود ندارد.
در این بین تاملات اخلاقی فوکو از نظر فربیک میتواند منبع الهام خوبی برای توسعهی یک اخلاق تکنولوژی جدید باشد. از نظر فوکو اخلاق به معنای برقراری یک رابطه آزاد با قدرت است که در طی آن فرد در حال برسازی خویشتن است. از نظر فربیک نیز ما باید به جای نفی تکنولوژی به دنبال برقراری یک رابطه سازنده با آن باشیم. این رابطه میتواند در دوسطح استفاده و طراحی برقرار گردد. در سطح استفاده باید درک کنیم که چگونه هر فناوری با تاثیراتش در حال شکل دهی به زندگی ماست. اما در سطح طراحی است که ایده اخلاقی سازی تکنولوژی اهمیت می یابد. بر اساس این ایده باید تلاش کنیم به کمک طراحی نوعی از فناوری را توسعه دهیم که در نهایت بتواند تا میزان بالایی منجر به تحقق زندگی خوب از منظر ما گردد.
💡نکته: برای دیدن زیرنویس ویدیو در سایت آپارات گزینه CC را فعال کنید.
#فلسفه_فناوری #اخلاقی_سازی_فناوری
پیتر پائول فربیک از پیشگامان رویکرد پساپدیدارشناسی در فلسفه تکنولوژی است. او هم اکنون ریاست دپارتمان فلسفه دانشگاه توئنته، ریاست انجمن فلسفه و تکنولوژی و عضو شورای هلندی علوم انسانی است. در این سخنرانی او به موضوع اخلاقی سازی فناوری (Moralizing Technology) می پردازد که نخستین بار توسط هانس آخترهایس مطرح شده است. بنا براین ایده ما میتوانیم با درون نگاری برخی ارزشها در فناوری از بار فشار تصمیمات اخلاقی در زندگی خود بکاهیم. به تعبیر دیگر برای اخلاقی شدن جامعه تنها نباید افراد آن را اخلاقی کرد بلکه فناوریها هم که نقش عمدهای در زندگی انسانها دارند باید اخلاقی گردند. این ایده آخترهایس با مخالفتها متعددی روبرو شد. منتقدان عمدتا نگران بودند که این کار منجر به شکل گیری تکنوکراسی و همچنین از بین رفتن خودمختاری انسان گردد.
فربیک از پروژههایی همچون فناوریهای متقاعد کننده (Persuasive Technology) به عنوان نمونههایی یاد می کند که هم ایده اخلاقی سازی را در دل خود نهفتهاند و هم ارزش خودمختاری انسانها را حفظ میکنند. با این وجود او فکر میکند فهمی که ما از خودمختاری انسان داریم بسیار آرمان گرایانه است و باید کمی متواضعانه تر به خود بیاندیشیم. اگر دریابیم که خودمختاری تا چه حد تحت تاثیر فناوری است آنگاه دیگر اخلاق را صرفا به حیطه امور انسانی محدود نخواهیم کرد و اشیا و ابزارها را هم حائز اهمیت اخلاقی خواهیم دانست. قفلهای سکه خور، وسایل اصلاح و قرصهای ضد بارداری همه نمونههایی است که از نظر فربیک به اخلاق اشیا (Morality of things) اشاره دارند.
بدین ترتیب ما نیازمند توسعه مدل متفاوتی از رابطه میان انسان و فناوری هستیم که در آن انسان و فناوری نه به عنوان سوژههای خودمختار و ابژههایی منفعل و مستقل از هم در نظر گرفته شوند بلکه باید به صورت دو امر در همتنیده لحاظ شود. این نگاه به رابطه انسان و فناوری نگاهی است که در کارهای دن آیدی و همچنین نظریه واسطه گری فربیک وجود دارد. بر اساس چنین منظری جایگاه اخلاق سنتی تکنولوژی که در آن دو فرضاساسی وجود دارد متزلزل میگردد. نخست این که اخلاق باید از انسان در برابر تاثیرات فناوری دفاع کند و دوم می توان تبعات اخلاقی تکنولوژی را از یک نقطه بیرونی ارزیابی کرد. بنا بر نظریه واسطه گری اولاً هیچ راه فراری از تاثیرات فناوری وجود ندارد و ثانیاً خود چهارچوبهای ارزیابی نیز میتواند تحت تاثیر واسطه گری قرار گیرند لذا نقطه بیرونی برای ارزیابی وجود ندارد.
در این بین تاملات اخلاقی فوکو از نظر فربیک میتواند منبع الهام خوبی برای توسعهی یک اخلاق تکنولوژی جدید باشد. از نظر فوکو اخلاق به معنای برقراری یک رابطه آزاد با قدرت است که در طی آن فرد در حال برسازی خویشتن است. از نظر فربیک نیز ما باید به جای نفی تکنولوژی به دنبال برقراری یک رابطه سازنده با آن باشیم. این رابطه میتواند در دوسطح استفاده و طراحی برقرار گردد. در سطح استفاده باید درک کنیم که چگونه هر فناوری با تاثیراتش در حال شکل دهی به زندگی ماست. اما در سطح طراحی است که ایده اخلاقی سازی تکنولوژی اهمیت می یابد. بر اساس این ایده باید تلاش کنیم به کمک طراحی نوعی از فناوری را توسعه دهیم که در نهایت بتواند تا میزان بالایی منجر به تحقق زندگی خوب از منظر ما گردد.
💡نکته: برای دیدن زیرنویس ویدیو در سایت آپارات گزینه CC را فعال کنید.
📗معرفی کتاب ☝️☝️☝️
🗂#حریم_خصوصی #کلان_داده
📌 امنیت سایبری دیگر محدود به ماموران اطلاعاتی نیست که در اتاقهای مخفی با دقت به کد ها نگاه میکردند تا از حمله مهاجمان بین المللی پیش گیری کنند . امروز روزنامه و خبرگزاریها پر است از خبرهایی دربارهی استراق سمع و اپلیکیشن هایی برای هک ابزارهای هوشمند که ممکن است بدون این که بدانید از اطلاعات شخصی شما جاسوس می کنند. این مشکل واقعا تا چه حد جدی است ؟ کویلیو ریاست کمپانیهای امنیتی RSA می گوید: « هم اکنون یک پتابایت داده در فضای ابری وجود دارد که معادل با 5 بیلیارد (10 به توان 15) کتاب است. با این وجود تنها 20 درصد آن محافظت شده است»
📌 کتاب حریم خصوصی در عصر کلان دادهها (privacy in the Age of Big Data) تلاش می کند تا نگرانیها در این باره را برای مخاطبانش روشن سازد. رضایت در مسئله حریم خصوصی یک واژهای کلیدی است. نویسندگان این کتاب ترسا پیتون کارمند اطلاعاتی پیشین کاخ سفید و تئودر کلیپوله متخصص مدیریت دادهها توضیح میدهند که تا چه حد مردم در این باره دچار بدفهمی اند. وقتی مردم میگویند مهم نیست که اطلاعاتشان در دست کس دیگری قرار گیرد تا وقتی که چیزی برای پنهان کردن نداشته باشند آنها کاملاً به خطا رفتهاند. حریم خصوصی دادهها، موضوعی مربوط به انتخاب کردن است: آیا شما به شرکتها اجازه میدهید که اطلاعات شما را جمع آوری و دسته بندی کنند؟ آیا شما این اجازه را به آنها میدهید که اطلاعات شما را بفروش برسانند یا رفت آمدها و محل سکونتتان را رهگیری کنند؟
📌 بدفهمی دیگر این است که دولتها و دیگر جمع کنندگان داده تنها زمانی شما را رهگیری میکنند که کار مشکوکی انجام دهید. این یک پیش فرض غلط و حتی خطرناک است. فعالیتهای مدیریت داده ی کنونی تلاش میکنند همه گونه اطلاعات را با دقت و صحت جمع آوری کنند و بعد داده کاوان انتخاب می کنند به چه اطلاعاتی نیاز دارند. نویسندگان این کتاب به حرفهای یکی از ژنرالهای آمریکایی استناد میکنند که گفته بود مرکز ملی ضد تروریسم ممکن است دادههایی درباره شهروندان بی گناه آمریکایی را هم برای تحلیلهای آینده جمع آوری نماید.
📌 نویسندگان کتاب معتقدند « زمانی که حریم خصوصی شما محافظت شود، شما آزاد هستید که انتخاب کنید تا چه میزان از اطلاعات حساس شما در معرض دید قرار گیرد، چه کسانی بتوانند به آن دسترسی داشته باشند و در برخی موارد چگونه از آن اطلاعات استفاده کنند» . وقتی این محافظت از بین برود چه توسط هکرها، فشارهای قانونی یا حتی شرکتهای بزرگ، شما حق امن سازی حریم خصوصیتان در مقابل افراد با نیتهای نادرست را از دست میدهید.
📌 اطلاعات خصوصی نوعی از مالکیت است و شما باید این حق را داشته باشید که تصمیم بگیرد با آن چه کنید. هرچند خط میان انتخاب و آزادی شروع به مبهم شدن میکند وقتی مصرف کنندگان رضایت مندانه اطلاعاتشان را در اختیار اپلیکیشنهایی با پیشنهاد بازی های جذاب یا فروشگاههایی با وعده تخفیف قرار می دهند. این دو راهی است که استفاده کنندگان باید به خوبی آن را سبک و سنگین کنند. در واقع امنیت سایبری نیازمند این است که از عینک سود/مخاطره نگریسته شود.
📌 کتاب حریم خصوصی در عصر کلان دادهها به چهار بخش تقسم میشود که هر کدام خطرهای امنیتی در حیطهای خاص را مورد بررسی قرار می دهند:
بخش 1: نقطه آغاز: کامپیوتر شما و اینترنت- ابزارهای دیجیتالی که شما به صورت روزانه استفاده میکنید ( لپ تاپ ها، گوشیهای هوشمند، ایمیل و ....) شما را در برابر حملات و دزدی داده ها آسیب پذیر میکنند.
بخش 2: خطر در جاده- ترک کردن خانه به معنای پایان پایش و رهگیری شما نیست. دوربینهای چراغ قرمز، ماشینهای هوشمند یا گجتهای سلامتی خودتان گنجی از دادههای شخصی برای فروشندگان دادهها هستند.
بخش 3: خانه جایی است که قلب (پایش) آنجاست- از دوربین ها امنیتی تا شبکههای وای فای و گوشیهای همراه ، جمع آوری داده در خانه شما هم فعال است.
بخش 4: از این جا باید به کجا رفت؟ - صنایع و اشخاص باید محدودیتهای برای خود مشخص کنند، از کدهای اخلاقی گرفته تا قوانین و سامانههای کد گذاری شده.
.
اطلاعات کتابشناختی
Title: Privacy in the Age of Big Data: Recognizing Threats, Defending Your Rights, and Protecting Your Family
Authors: Theresa Payton, Ted Claypoole
Publisher: Rowman & Littlefield, 2014
ISBN: 1442225459, 9781442225459
Length: 259 pages
🗂#حریم_خصوصی #کلان_داده
📌 امنیت سایبری دیگر محدود به ماموران اطلاعاتی نیست که در اتاقهای مخفی با دقت به کد ها نگاه میکردند تا از حمله مهاجمان بین المللی پیش گیری کنند . امروز روزنامه و خبرگزاریها پر است از خبرهایی دربارهی استراق سمع و اپلیکیشن هایی برای هک ابزارهای هوشمند که ممکن است بدون این که بدانید از اطلاعات شخصی شما جاسوس می کنند. این مشکل واقعا تا چه حد جدی است ؟ کویلیو ریاست کمپانیهای امنیتی RSA می گوید: « هم اکنون یک پتابایت داده در فضای ابری وجود دارد که معادل با 5 بیلیارد (10 به توان 15) کتاب است. با این وجود تنها 20 درصد آن محافظت شده است»
📌 کتاب حریم خصوصی در عصر کلان دادهها (privacy in the Age of Big Data) تلاش می کند تا نگرانیها در این باره را برای مخاطبانش روشن سازد. رضایت در مسئله حریم خصوصی یک واژهای کلیدی است. نویسندگان این کتاب ترسا پیتون کارمند اطلاعاتی پیشین کاخ سفید و تئودر کلیپوله متخصص مدیریت دادهها توضیح میدهند که تا چه حد مردم در این باره دچار بدفهمی اند. وقتی مردم میگویند مهم نیست که اطلاعاتشان در دست کس دیگری قرار گیرد تا وقتی که چیزی برای پنهان کردن نداشته باشند آنها کاملاً به خطا رفتهاند. حریم خصوصی دادهها، موضوعی مربوط به انتخاب کردن است: آیا شما به شرکتها اجازه میدهید که اطلاعات شما را جمع آوری و دسته بندی کنند؟ آیا شما این اجازه را به آنها میدهید که اطلاعات شما را بفروش برسانند یا رفت آمدها و محل سکونتتان را رهگیری کنند؟
📌 بدفهمی دیگر این است که دولتها و دیگر جمع کنندگان داده تنها زمانی شما را رهگیری میکنند که کار مشکوکی انجام دهید. این یک پیش فرض غلط و حتی خطرناک است. فعالیتهای مدیریت داده ی کنونی تلاش میکنند همه گونه اطلاعات را با دقت و صحت جمع آوری کنند و بعد داده کاوان انتخاب می کنند به چه اطلاعاتی نیاز دارند. نویسندگان این کتاب به حرفهای یکی از ژنرالهای آمریکایی استناد میکنند که گفته بود مرکز ملی ضد تروریسم ممکن است دادههایی درباره شهروندان بی گناه آمریکایی را هم برای تحلیلهای آینده جمع آوری نماید.
📌 نویسندگان کتاب معتقدند « زمانی که حریم خصوصی شما محافظت شود، شما آزاد هستید که انتخاب کنید تا چه میزان از اطلاعات حساس شما در معرض دید قرار گیرد، چه کسانی بتوانند به آن دسترسی داشته باشند و در برخی موارد چگونه از آن اطلاعات استفاده کنند» . وقتی این محافظت از بین برود چه توسط هکرها، فشارهای قانونی یا حتی شرکتهای بزرگ، شما حق امن سازی حریم خصوصیتان در مقابل افراد با نیتهای نادرست را از دست میدهید.
📌 اطلاعات خصوصی نوعی از مالکیت است و شما باید این حق را داشته باشید که تصمیم بگیرد با آن چه کنید. هرچند خط میان انتخاب و آزادی شروع به مبهم شدن میکند وقتی مصرف کنندگان رضایت مندانه اطلاعاتشان را در اختیار اپلیکیشنهایی با پیشنهاد بازی های جذاب یا فروشگاههایی با وعده تخفیف قرار می دهند. این دو راهی است که استفاده کنندگان باید به خوبی آن را سبک و سنگین کنند. در واقع امنیت سایبری نیازمند این است که از عینک سود/مخاطره نگریسته شود.
📌 کتاب حریم خصوصی در عصر کلان دادهها به چهار بخش تقسم میشود که هر کدام خطرهای امنیتی در حیطهای خاص را مورد بررسی قرار می دهند:
بخش 1: نقطه آغاز: کامپیوتر شما و اینترنت- ابزارهای دیجیتالی که شما به صورت روزانه استفاده میکنید ( لپ تاپ ها، گوشیهای هوشمند، ایمیل و ....) شما را در برابر حملات و دزدی داده ها آسیب پذیر میکنند.
بخش 2: خطر در جاده- ترک کردن خانه به معنای پایان پایش و رهگیری شما نیست. دوربینهای چراغ قرمز، ماشینهای هوشمند یا گجتهای سلامتی خودتان گنجی از دادههای شخصی برای فروشندگان دادهها هستند.
بخش 3: خانه جایی است که قلب (پایش) آنجاست- از دوربین ها امنیتی تا شبکههای وای فای و گوشیهای همراه ، جمع آوری داده در خانه شما هم فعال است.
بخش 4: از این جا باید به کجا رفت؟ - صنایع و اشخاص باید محدودیتهای برای خود مشخص کنند، از کدهای اخلاقی گرفته تا قوانین و سامانههای کد گذاری شده.
.
اطلاعات کتابشناختی
Title: Privacy in the Age of Big Data: Recognizing Threats, Defending Your Rights, and Protecting Your Family
Authors: Theresa Payton, Ted Claypoole
Publisher: Rowman & Littlefield, 2014
ISBN: 1442225459, 9781442225459
Length: 259 pages
🎬 معرفی ویدیو:☝️☝️☝️
🗂 #هوش_مصنوعی
ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗂 #هوش_مصنوعی
ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗣خبر☝️☝️☝️
🗂#مهندسی_ژنتیک
عنوان: استفاده از تکنیک کریسپر باعث بروز صدها جهش ژنتیکی ناخواسته میشود
منبع: ScienceAlert ( ترجمه وبسایت زومیت)
📌 کریسپر (CRISPR-Cas9) بهعنوان یکی از مهمترین اختراعات پزشکی مدرن شناخته میشود؛ بهگونهای که اکنون رؤیای انجام اصلاح ژنتیکی در جنین انسان بیش از پیش به واقعیت نزدیک شده است. اما این تکنولوژی شاید بیشتر از آنی که قبلا تصور میشد، خطرناک باشد. معرفی تکنولوژی کریسپر، انقلابی در زمینهی علم ویرایش ژنها ایجاد کرد؛ اما اکنون دانشمندان دریافتهاند که همین تکنولوژی باعث وقوع صدها جهش ژنتیکی ناخواسته در ژنوم یک ارگانیسم میشود. با توجه به اینکه هماکنون آزمایشهای بالینی در مورد کریسپر روی انسانها در جریان است، یافتهی اخیر باعث ایجاد نگرانیهای جدی در بین محققان شده است.
استفان تسانگ از مرکز تحقیقات پزشکی دانشگاه کلمبیا، در این مورد میگوید:
ما معتقدیم که ضرورت دارد جامعهی علمی خطرات استفاده از کریسپر را در نظر بگیرد. کریسپر باعث ایجاد جهشهای غیر هدفمند میشود. این جهشها شامل جهشهای تک نوکلئوتیدی و جهش در مناطق غیر کد در ژنوم میشود.
تسانگ به همراه تیم تحقیقاتیاش برای اولین بار به مطالعه و مانیتورینگ کل ژنوم یک ارگانیسم زنده پرداختند؛ ارگانیسمی که پیش از این در آن از روش ویرایش ژنی کریسپر استفاده شده بود. آنها به دنبال کشف جهشهای ژنی ناخواسته در بخشهایی از ارگانیسم بودند که بهکلی با ناحیهی هدف کریسپر غیر مرتبط بودند.در مطالعات در مورد اثرات استفاده از کریسپر در ارگانیسمها، هیچ اثری از جهشهای ناخواسته یافت نشده بود. دلیل این امر شاید به نوع ابزار استفادهشده در این مطالعات برگردد. در مطالعات پیشین از الگوریتمهای رایانهای برای اسکن بخشهایی از ارگانیسم استفاده شده بود که مرتبط با منطقهی هدف بودند و احتمال بروز جهش در آنها، بسته به نوع ویرایش ژنی انجامشده، بیشتر بود.
الکساندر بوساک از دانشگاه آیوا و یکی از اعضای تیم تسانگ، در این مورد اینگونه توضیح میدهد:
زمانی که شما از تکنیک کریسپر در سلولها یا بافتها در ابعاد محدود استفاده میکنید، این الگوریتمهای پیشبینی کننده کار خود را بهخوبی انجام میدهند. اما تاکنون تعیین توالی ژنی جامع در حیوانات زنده با هدف کشف جهشهای ناخواسته در نواحی غیر مرتبط انجام نشده بود.
اگر در جریان اخبار مربوط به کریسپر قرار ندارید، بدانید که صحبتها در مورد توسعهی یک تکنولوژی شگفتانگیز در زمینهی ویرایش ژن از چند سال پیش شروع شد. از آن زمان تاکنون، از کریسپر بهعنوان انقلابی در پزشکی مدرن یاد میشود. دانشمندان با استفاده از تکنولوژی کریسپر قادرند تغییرات خاصی در دیانای انسانها، حیوانات و گیاهان اعمال کنند.
در واقع کریسپر همانند یک ابزار برش و چسباندن (کات و پِیست) است. محققان با استفاده از آن میتوانند ژنهای مشخصی از یک ژنوم را بردارند و آن را با یک دیانای دلخواه جایگزین کنند. به این ترتیب برای مثال میتوان ژنهای معیوب را با انواع سالم جایگزین کرد. بر خلاف دیگر ابداعات دنیای پزشکی، کریسپر با گذشت چندین سال توانسته است انتظارات را برآورده کند و اکنون پزشکان از پتانسیل آن در زمینهها مختلف بهره میبرند. در سالهای اخیر از ابزار کریسپر برای دخالت و اعمال تغییر در مرکز کنترل سرطان در بدن، بهبود جهشهای ژنتیکی عامل کوری، درمان بیماریهای ژنتیکی در حیوانات زنده و حتی در مطالعات مربوط به ویرایش جنین انسان با هدف یافتن علل نازایی و سقط جنین غیر عمدی استفاده شده است.
با اینکه در برخی از مطالعات گذشته نشانههایی از جهشهای غیر هدفمند در اثر استفاده از کریسپر یافت شده بود؛ اما این یافتهها نتوانسته بودند باعث توقف آزمایشهای انسانی کریسپر شوند.اولین مطالعهی بالینی در مورد استفاده از کریسپر در انسان، در کشور چین در حال اجرا است. البته ایالات متحده و بریتانیا از غافله عقب نماندهاند و هر یک در حال پیشبرد مطالعات خود هستند.
در حقیقت بعضی از کارشناسان معتقدند که چین و ایالات متحده وارد یک رقابت جدی در استفاده از تکنولوژی کریسپر شدهاند. کریسپر تبدیل به نسخهی بیولوژیک رقابت فضایی بین قدرتهای جهانی شده است.کارل جوئن، متخصص ایمنیشناسی از دانشگاه پنسیلوانیا و از محققان مشاور تحقیق ملی ایالات متحده، در مورد کریسپر معتقد است:
من فکر میکنم این موضوع در واقع بهنوعی اسپوتنیک ۲ است، کریسپر باعث شروع یک دوئل بیولوژیکی بین چین و ایالات متحده شده است.
🗂#مهندسی_ژنتیک
عنوان: استفاده از تکنیک کریسپر باعث بروز صدها جهش ژنتیکی ناخواسته میشود
منبع: ScienceAlert ( ترجمه وبسایت زومیت)
📌 کریسپر (CRISPR-Cas9) بهعنوان یکی از مهمترین اختراعات پزشکی مدرن شناخته میشود؛ بهگونهای که اکنون رؤیای انجام اصلاح ژنتیکی در جنین انسان بیش از پیش به واقعیت نزدیک شده است. اما این تکنولوژی شاید بیشتر از آنی که قبلا تصور میشد، خطرناک باشد. معرفی تکنولوژی کریسپر، انقلابی در زمینهی علم ویرایش ژنها ایجاد کرد؛ اما اکنون دانشمندان دریافتهاند که همین تکنولوژی باعث وقوع صدها جهش ژنتیکی ناخواسته در ژنوم یک ارگانیسم میشود. با توجه به اینکه هماکنون آزمایشهای بالینی در مورد کریسپر روی انسانها در جریان است، یافتهی اخیر باعث ایجاد نگرانیهای جدی در بین محققان شده است.
استفان تسانگ از مرکز تحقیقات پزشکی دانشگاه کلمبیا، در این مورد میگوید:
ما معتقدیم که ضرورت دارد جامعهی علمی خطرات استفاده از کریسپر را در نظر بگیرد. کریسپر باعث ایجاد جهشهای غیر هدفمند میشود. این جهشها شامل جهشهای تک نوکلئوتیدی و جهش در مناطق غیر کد در ژنوم میشود.
تسانگ به همراه تیم تحقیقاتیاش برای اولین بار به مطالعه و مانیتورینگ کل ژنوم یک ارگانیسم زنده پرداختند؛ ارگانیسمی که پیش از این در آن از روش ویرایش ژنی کریسپر استفاده شده بود. آنها به دنبال کشف جهشهای ژنی ناخواسته در بخشهایی از ارگانیسم بودند که بهکلی با ناحیهی هدف کریسپر غیر مرتبط بودند.در مطالعات در مورد اثرات استفاده از کریسپر در ارگانیسمها، هیچ اثری از جهشهای ناخواسته یافت نشده بود. دلیل این امر شاید به نوع ابزار استفادهشده در این مطالعات برگردد. در مطالعات پیشین از الگوریتمهای رایانهای برای اسکن بخشهایی از ارگانیسم استفاده شده بود که مرتبط با منطقهی هدف بودند و احتمال بروز جهش در آنها، بسته به نوع ویرایش ژنی انجامشده، بیشتر بود.
الکساندر بوساک از دانشگاه آیوا و یکی از اعضای تیم تسانگ، در این مورد اینگونه توضیح میدهد:
زمانی که شما از تکنیک کریسپر در سلولها یا بافتها در ابعاد محدود استفاده میکنید، این الگوریتمهای پیشبینی کننده کار خود را بهخوبی انجام میدهند. اما تاکنون تعیین توالی ژنی جامع در حیوانات زنده با هدف کشف جهشهای ناخواسته در نواحی غیر مرتبط انجام نشده بود.
اگر در جریان اخبار مربوط به کریسپر قرار ندارید، بدانید که صحبتها در مورد توسعهی یک تکنولوژی شگفتانگیز در زمینهی ویرایش ژن از چند سال پیش شروع شد. از آن زمان تاکنون، از کریسپر بهعنوان انقلابی در پزشکی مدرن یاد میشود. دانشمندان با استفاده از تکنولوژی کریسپر قادرند تغییرات خاصی در دیانای انسانها، حیوانات و گیاهان اعمال کنند.
در واقع کریسپر همانند یک ابزار برش و چسباندن (کات و پِیست) است. محققان با استفاده از آن میتوانند ژنهای مشخصی از یک ژنوم را بردارند و آن را با یک دیانای دلخواه جایگزین کنند. به این ترتیب برای مثال میتوان ژنهای معیوب را با انواع سالم جایگزین کرد. بر خلاف دیگر ابداعات دنیای پزشکی، کریسپر با گذشت چندین سال توانسته است انتظارات را برآورده کند و اکنون پزشکان از پتانسیل آن در زمینهها مختلف بهره میبرند. در سالهای اخیر از ابزار کریسپر برای دخالت و اعمال تغییر در مرکز کنترل سرطان در بدن، بهبود جهشهای ژنتیکی عامل کوری، درمان بیماریهای ژنتیکی در حیوانات زنده و حتی در مطالعات مربوط به ویرایش جنین انسان با هدف یافتن علل نازایی و سقط جنین غیر عمدی استفاده شده است.
با اینکه در برخی از مطالعات گذشته نشانههایی از جهشهای غیر هدفمند در اثر استفاده از کریسپر یافت شده بود؛ اما این یافتهها نتوانسته بودند باعث توقف آزمایشهای انسانی کریسپر شوند.اولین مطالعهی بالینی در مورد استفاده از کریسپر در انسان، در کشور چین در حال اجرا است. البته ایالات متحده و بریتانیا از غافله عقب نماندهاند و هر یک در حال پیشبرد مطالعات خود هستند.
در حقیقت بعضی از کارشناسان معتقدند که چین و ایالات متحده وارد یک رقابت جدی در استفاده از تکنولوژی کریسپر شدهاند. کریسپر تبدیل به نسخهی بیولوژیک رقابت فضایی بین قدرتهای جهانی شده است.کارل جوئن، متخصص ایمنیشناسی از دانشگاه پنسیلوانیا و از محققان مشاور تحقیق ملی ایالات متحده، در مورد کریسپر معتقد است:
من فکر میکنم این موضوع در واقع بهنوعی اسپوتنیک ۲ است، کریسپر باعث شروع یک دوئل بیولوژیکی بین چین و ایالات متحده شده است.
اما اکنون محققان دریافتهاند که استفاده از کریسپر بسیار گستردهتر از آن چیزی که قبلا گمانهزنی میشد و باعث بروز جهشهای ژنتیکی ناخواسته در حیوانات میشود. تیم تحقیقاتی تسانگ برای کشف این موضوع تمام ژنوم دو موش آزمایشگاهی را تعیین توالی کردند. این دو موش قبلا در معرض ویرایش ژنتیکی با کریسپر قرار گرفته بودند. آنها به دنبال کوچکترین جهش ناشی از استفاده از این تکنولوژی بودند؛ حتی جهش در یک تک نوکلئوتید، یا همان بلوک اصلی سازندهی دیانای و آرانای.
تسانگ و همکارانش دریافتند که تکنولوژی کریسپر با موفقیت توانسته است ژنهای عامل کوری در موشها را تصحیح کند. اما در اثر استفاده از کریسپر بیش از ۱۵۰۰ جهش ژنتیکی ناخواسته در نوکلئوتید موشها اتفاق افتاده است. تعداد جهشهای بزرگ نیز بیش از ۱۰۰ مورد بوده است. این تیم تحقیقاتی در گزارش خود آورده است:
هیچ کدام از این جهشهای ژنتیکی توسط الگوریتمهای رایانهای که بهطور گسترده توسط محققان استفاده میشود، پیشبینی نشده بود.
البته یافتهی جدید در مورد عوارض جدی استفاده از کریسپر برای ویرایش ژنها باعث نخواهد شد استفاده از این تکنولوژی بهطور کلی کنار گذاشته شود. هماکنون به مطالعات بیشتری برای اثبات این یافتهها نیاز است. نتایج تحقیق اخیر باید در نمونههای بیشتر و انسانها نیز تکرار شود.اما باید اقرار کرد که به نظر میرسد این دستاورد بزرگ پزشکی دارای عوارض بزرگ و جدی طولانیمدت است؛ عوارضی که تاکنون مطالعات محققان موفق به شناسایی آنها نشده بود. اما اکنون آنها باید هشدارهای مربوط به بروز جهشهای ناخواسته در اثر استفاده از کریسپر را جدی بگیرند
تسانگ و همکارانش دریافتند که تکنولوژی کریسپر با موفقیت توانسته است ژنهای عامل کوری در موشها را تصحیح کند. اما در اثر استفاده از کریسپر بیش از ۱۵۰۰ جهش ژنتیکی ناخواسته در نوکلئوتید موشها اتفاق افتاده است. تعداد جهشهای بزرگ نیز بیش از ۱۰۰ مورد بوده است. این تیم تحقیقاتی در گزارش خود آورده است:
هیچ کدام از این جهشهای ژنتیکی توسط الگوریتمهای رایانهای که بهطور گسترده توسط محققان استفاده میشود، پیشبینی نشده بود.
البته یافتهی جدید در مورد عوارض جدی استفاده از کریسپر برای ویرایش ژنها باعث نخواهد شد استفاده از این تکنولوژی بهطور کلی کنار گذاشته شود. هماکنون به مطالعات بیشتری برای اثبات این یافتهها نیاز است. نتایج تحقیق اخیر باید در نمونههای بیشتر و انسانها نیز تکرار شود.اما باید اقرار کرد که به نظر میرسد این دستاورد بزرگ پزشکی دارای عوارض بزرگ و جدی طولانیمدت است؛ عوارضی که تاکنون مطالعات محققان موفق به شناسایی آنها نشده بود. اما اکنون آنها باید هشدارهای مربوط به بروز جهشهای ناخواسته در اثر استفاده از کریسپر را جدی بگیرند
📝یادداشت
عنوان: مسابقه ربط
نویسنده: اندرو لوئیس
مترجم: ابوطالب صفدری
بهارِ ۱۹۹۴ بود که نیکلاس نگروپونته[۱] شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب[۲] -که محصول اندیشههای او بود- و هم تعدادی از طراحانِ جوان تراشه و صنعتگرانِ حوزۀ واقعیتِ مجازی، به شکل دیوانهواری سرگرم خلقِ ابزارها و وسایلِ آینده بودند. اما نگروپونته عمیقاً درگیرِ یک مسئلۀ دیگر بود، مسئلهای سادهتر که میلیونها انسان هر روز به آن فکر میکردند: اینکه چه برنامهای را در تلویزیون تماشا کنند.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/Soh8Y7
عنوان: مسابقه ربط
نویسنده: اندرو لوئیس
مترجم: ابوطالب صفدری
بهارِ ۱۹۹۴ بود که نیکلاس نگروپونته[۱] شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب[۲] -که محصول اندیشههای او بود- و هم تعدادی از طراحانِ جوان تراشه و صنعتگرانِ حوزۀ واقعیتِ مجازی، به شکل دیوانهواری سرگرم خلقِ ابزارها و وسایلِ آینده بودند. اما نگروپونته عمیقاً درگیرِ یک مسئلۀ دیگر بود، مسئلهای سادهتر که میلیونها انسان هر روز به آن فکر میکردند: اینکه چه برنامهای را در تلویزیون تماشا کنند.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/Soh8Y7
اندیشکده مهاجر
مسابقۀ ربط - اندیشکده مهاجر
بهارِ 1994 بود که نیکلاس نگروپونته شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب -که محصول اندیشههای او بو جوان تراشه و صنعتگرانِ
🎬 معرفی ویدیو ☝️☝️☝️
🗂#اخلاق_زیستی #سقط_جنین
دکتر مگی لیتل (Maggie Little) ریاست انستیتو اخلاق کندی (Kennedy Institute of Ethics) در دانشگاه جرج تاون است . ایشان در این ویدیو به مسائل اخلاقی مربوط به دخالت در مراحل جنینی زندگی انسان میپردازد. با ظهور فناوریهای تولید مثل اشتراکی (collaborative reproduction) امکان دخالت چندین فرد ( اهدا کننده اسپرم، اهدا کننده تخمک، مادرجایگزین، والدین اجتماعی ) در تولد یک نوزاد فراهم شده است. ازین رو این فناوری درک ما از مفهوم والدین بودن و حقوق و وظایفی که در نسبت با آن تعریف میشوند را تغییر داده است. از سوی دیگر این فناوریهای به شدت مستعد تجاری شدن هستند و این فرصت را برای افراد تاجر مسلک فراهم کردهاند که به خرید فروش رویانهای فریز شده انسان بپردازند. قوانین نیز در این زمینه هنوز دارای نواقصی هستند و به خصوص در مسائل مربوط به مادر جایگزین (surrogate) به تناقضات بین قوانین اساسی هر فرد و قوانین قراردادی منجر می شوند. درنهایت موضوع سقط جنین برای پایان دادن به زندگی نوزاد های متولد نشده هم به بحثها و گفتگوهای دراز دامنی مابین طرفدارن حق حیات و طرفداران حق انتخاب منجر شده است. از نظر دکتر لیتل این بحث متکثرترین و دشوار ترین مسئله در اخلاق زیستی است. از نظر ایشان آنچه در این بین اهمیت دارد فروتنی هر دو طرف برای شنیدن حرف های طرف مقابل و افزودن بر بصیرت خود جهت مواجه با این سوال دشوار است.
🗂#اخلاق_زیستی #سقط_جنین
دکتر مگی لیتل (Maggie Little) ریاست انستیتو اخلاق کندی (Kennedy Institute of Ethics) در دانشگاه جرج تاون است . ایشان در این ویدیو به مسائل اخلاقی مربوط به دخالت در مراحل جنینی زندگی انسان میپردازد. با ظهور فناوریهای تولید مثل اشتراکی (collaborative reproduction) امکان دخالت چندین فرد ( اهدا کننده اسپرم، اهدا کننده تخمک، مادرجایگزین، والدین اجتماعی ) در تولد یک نوزاد فراهم شده است. ازین رو این فناوری درک ما از مفهوم والدین بودن و حقوق و وظایفی که در نسبت با آن تعریف میشوند را تغییر داده است. از سوی دیگر این فناوریهای به شدت مستعد تجاری شدن هستند و این فرصت را برای افراد تاجر مسلک فراهم کردهاند که به خرید فروش رویانهای فریز شده انسان بپردازند. قوانین نیز در این زمینه هنوز دارای نواقصی هستند و به خصوص در مسائل مربوط به مادر جایگزین (surrogate) به تناقضات بین قوانین اساسی هر فرد و قوانین قراردادی منجر می شوند. درنهایت موضوع سقط جنین برای پایان دادن به زندگی نوزاد های متولد نشده هم به بحثها و گفتگوهای دراز دامنی مابین طرفدارن حق حیات و طرفداران حق انتخاب منجر شده است. از نظر دکتر لیتل این بحث متکثرترین و دشوار ترین مسئله در اخلاق زیستی است. از نظر ایشان آنچه در این بین اهمیت دارد فروتنی هر دو طرف برای شنیدن حرف های طرف مقابل و افزودن بر بصیرت خود جهت مواجه با این سوال دشوار است.
📗معرفی کتاب ☝️☝️☝️
🗂#نانو_فناوری #تبعات_اجتماعی #تبعات_اخلاقی
📌 پیشرفتها در علوم و فناوریهای نانو وعده تاثیرات شگرفی را بر سلامت، ثروت و صلح جهانی در دهههای آینده میدهد. در میان این پیشرفتها میتوان به افزایش خیره کننده بهره وری کامپیوترها، بازیابی ارگانهای انسانی با استفاده از بافتهای مهندسی شده، موادی که به صورت مستقیم اتم به اتم و مولکول به مولکول طراحی شدهاند، و ظهور پدیدههای کاملا نوین در شیمی و فیزیک اشاره کرد. این کتاب شامل مجموعه ای از مقالات است که توسط دانشمندان پیشرو، مهندسان و اساتید علوم اجتماعی به رشته تحریر درآمده و در آن به مروری بر کاربردهای ممکن توسعه قریب الوقوع این فناوری در بسیاری از حوزههای کاربردهای صنعتی، پزشکی و امنیت ملی و همچنین مسائل مرتبط اخلاقی، حقوقی، آموزشی و اقتصادی آن پرداخته می شود. این مقالات به زمینههای بالقوهی تحقیق درباره تبعات اجتماعی نانو فناوری اشاره دارند و درکنار آن نیز برخی پیشنهادات اولیه برای این که اثرات مثبت احتمالی نانو فناوری حداکثر گردد و اثرات منفی آن به حداقل برسد ارائه میکنند . این کتاب البته میتواند به عنوان الگویی برای چگونگی مواجه با تبعات اجتماعی مثبت یا منفی دیگر فناوریهای نوین لحاظ شود. این کتاب با حمایت برنامه پیشگامی نانو فناوری ایالات متحده (NNI) به چاپ رسیده است اما مسائلی که در آن به آنها پرداخته شده است هم دارای مقیاس جهانیاند و هم به مسائل فوری و آینده نگرانه نانو فناوری را در بر میگیرند. پرسش اصلی محققان این کتاب این است که چگونه تاریخ و شرایط انسانی تحت تاثیر توسعه فناوری قرار میگیرد و چگونه افراد و نهاد ها می توانند توسعه فناوری را به نحوی هدایت کنند که در طولانی مدت به نفع انسان باشد.
📌درباره نویسندگان:
1- میخاییل روکو (Mihail C. Roco) مشاور ارشد نانوفناوری بنیاد ملی علوم (NSF) و برنامه پیشگامی نانو فناوری (NNI) در ایالات متحده است. از او مقالات و کتب فراوانی در زمینه تاثیرات اجتماعی فناوریهای نوین به خصوص نانو فناوری و روشهای سیاست گذاری برای مواجهه صحیح با آن ها به چاپ رسیده است.
2- ویلیام بین بریج (William Sims Bainbridge) جامعه شناس آمریکایی و مدیر بخش سیستم های انسان-سایبر در بیناد ملی علوم ایالات متحده است. او یکی از همکاران ارشد در انستیتو اخلاق و تکنولوژی های در حال ظهور است. بین بریج همچنین به دارای تالیفات شناخته شدهای در جامعه شناسی دین است.
📌مشخصات کتاب شناختی:
Title: Nanotechnology: Societal Implications: I: Maximising Benefits for Humanity; II: Individual Perspectives
Editor: Mihail C Roco , William Sims Bainbridge
Publisher: Springer 2007
ISBN: 1402054327, 9781402054327
Length: 357 pages
🗂#نانو_فناوری #تبعات_اجتماعی #تبعات_اخلاقی
📌 پیشرفتها در علوم و فناوریهای نانو وعده تاثیرات شگرفی را بر سلامت، ثروت و صلح جهانی در دهههای آینده میدهد. در میان این پیشرفتها میتوان به افزایش خیره کننده بهره وری کامپیوترها، بازیابی ارگانهای انسانی با استفاده از بافتهای مهندسی شده، موادی که به صورت مستقیم اتم به اتم و مولکول به مولکول طراحی شدهاند، و ظهور پدیدههای کاملا نوین در شیمی و فیزیک اشاره کرد. این کتاب شامل مجموعه ای از مقالات است که توسط دانشمندان پیشرو، مهندسان و اساتید علوم اجتماعی به رشته تحریر درآمده و در آن به مروری بر کاربردهای ممکن توسعه قریب الوقوع این فناوری در بسیاری از حوزههای کاربردهای صنعتی، پزشکی و امنیت ملی و همچنین مسائل مرتبط اخلاقی، حقوقی، آموزشی و اقتصادی آن پرداخته می شود. این مقالات به زمینههای بالقوهی تحقیق درباره تبعات اجتماعی نانو فناوری اشاره دارند و درکنار آن نیز برخی پیشنهادات اولیه برای این که اثرات مثبت احتمالی نانو فناوری حداکثر گردد و اثرات منفی آن به حداقل برسد ارائه میکنند . این کتاب البته میتواند به عنوان الگویی برای چگونگی مواجه با تبعات اجتماعی مثبت یا منفی دیگر فناوریهای نوین لحاظ شود. این کتاب با حمایت برنامه پیشگامی نانو فناوری ایالات متحده (NNI) به چاپ رسیده است اما مسائلی که در آن به آنها پرداخته شده است هم دارای مقیاس جهانیاند و هم به مسائل فوری و آینده نگرانه نانو فناوری را در بر میگیرند. پرسش اصلی محققان این کتاب این است که چگونه تاریخ و شرایط انسانی تحت تاثیر توسعه فناوری قرار میگیرد و چگونه افراد و نهاد ها می توانند توسعه فناوری را به نحوی هدایت کنند که در طولانی مدت به نفع انسان باشد.
📌درباره نویسندگان:
1- میخاییل روکو (Mihail C. Roco) مشاور ارشد نانوفناوری بنیاد ملی علوم (NSF) و برنامه پیشگامی نانو فناوری (NNI) در ایالات متحده است. از او مقالات و کتب فراوانی در زمینه تاثیرات اجتماعی فناوریهای نوین به خصوص نانو فناوری و روشهای سیاست گذاری برای مواجهه صحیح با آن ها به چاپ رسیده است.
2- ویلیام بین بریج (William Sims Bainbridge) جامعه شناس آمریکایی و مدیر بخش سیستم های انسان-سایبر در بیناد ملی علوم ایالات متحده است. او یکی از همکاران ارشد در انستیتو اخلاق و تکنولوژی های در حال ظهور است. بین بریج همچنین به دارای تالیفات شناخته شدهای در جامعه شناسی دین است.
📌مشخصات کتاب شناختی:
Title: Nanotechnology: Societal Implications: I: Maximising Benefits for Humanity; II: Individual Perspectives
Editor: Mihail C Roco , William Sims Bainbridge
Publisher: Springer 2007
ISBN: 1402054327, 9781402054327
Length: 357 pages
🗣خبر☝️☝️☝️
🗂#هوش_مصنوعی
عنوان: هوش مصنوعی ماکروسافت، خواندن متن و درک محتوا را به همنوعانشان می آموزد
منبع:MSPU (ترجمه از وب سایت دیجیاتو)
هوش مصنوعی مرکز تحقیقاتی مایکروسافت که یکی از پیشگامان حوزه یادگیری ماشین به شمار می رود، توانایی بی نظیری در مطالعه متون مختلف و ارائه پاسخ های مختصر و مفید بر اساس محتوای آن دارد.
با استفاده از این قابلیت، موتورهای جستجو می توانند به جای معرفی صفحه حاوی مطلب مرتبط با جستجوی کاربر، مستقیماً به سؤالات آنها پاسخ دهند. با این حال، تاکنون باید هوش مصنوعی مورد بحث توسط انسان و با استفاده از مجموعه سؤال و جواب های مشخص و تخصصی آموزش داده می شد.
حال مایکروسافت گامی بزرگ به جلو برداشته و نوعی هوش مصنوعی را توسعه داده که ابتدا با استفاده از تنها یک مجموعه متن مشخص در رابطه با داده های مهم، آموزش می بیند و سپس قادر است به صورت خودکار، سؤال و جواب هایی را از متون دیگر بیرون بکشد
پس از این گام، هوش مصنوعی قادر است مهارتش در درک مطلب و تولید سؤال و جواب های مشخص از هر محتوای جدید را به هوش مصنوعی بعدی نیز انتقال دهد، یا به عبارتی، AI دیگر را به شاگردی قبول کند. مایکروسافت با بهره گیری از این سیستم که به نام SynNet معروف است، توانسته نتایج بسیار دقیق تری را در حوزه هایی کسب نماید که در حالت عادی، اطلاعات کافی برای آموزش هوش مصنوعی در آنها وجود ندارد.
در نمودار زیر می بینید سیستم SynNet که فقط با استفاده از مقاله های ویکی پیدیا آموزش دیده، در حوزه خبری هم عملکردی نزدیک به هوش مصنوعی ویژه این بخش یعنی NewsQA ارائه می دهد.
اگر شما هم با هشدارهای ایلان ماسک در مورد آینده هراس انگیز هوش مصنوعی آشنا باشید، قطعاً به این نتیجه رسیده اید که AI با دستیابی به دو توانایی اساسی مورد بحث، یعنی درک محتوای متنی و آموزش به همنوعش، به سرعت و با سهولت هرچه بیشتری به کسب دانش از میان اطلاعات پراکنده موجود در سرتاسر فضای اینترنت خواهد پرداخت، و اینجاست که باید کمی نگران شد.
🗂#هوش_مصنوعی
عنوان: هوش مصنوعی ماکروسافت، خواندن متن و درک محتوا را به همنوعانشان می آموزد
منبع:MSPU (ترجمه از وب سایت دیجیاتو)
هوش مصنوعی مرکز تحقیقاتی مایکروسافت که یکی از پیشگامان حوزه یادگیری ماشین به شمار می رود، توانایی بی نظیری در مطالعه متون مختلف و ارائه پاسخ های مختصر و مفید بر اساس محتوای آن دارد.
با استفاده از این قابلیت، موتورهای جستجو می توانند به جای معرفی صفحه حاوی مطلب مرتبط با جستجوی کاربر، مستقیماً به سؤالات آنها پاسخ دهند. با این حال، تاکنون باید هوش مصنوعی مورد بحث توسط انسان و با استفاده از مجموعه سؤال و جواب های مشخص و تخصصی آموزش داده می شد.
حال مایکروسافت گامی بزرگ به جلو برداشته و نوعی هوش مصنوعی را توسعه داده که ابتدا با استفاده از تنها یک مجموعه متن مشخص در رابطه با داده های مهم، آموزش می بیند و سپس قادر است به صورت خودکار، سؤال و جواب هایی را از متون دیگر بیرون بکشد
پس از این گام، هوش مصنوعی قادر است مهارتش در درک مطلب و تولید سؤال و جواب های مشخص از هر محتوای جدید را به هوش مصنوعی بعدی نیز انتقال دهد، یا به عبارتی، AI دیگر را به شاگردی قبول کند. مایکروسافت با بهره گیری از این سیستم که به نام SynNet معروف است، توانسته نتایج بسیار دقیق تری را در حوزه هایی کسب نماید که در حالت عادی، اطلاعات کافی برای آموزش هوش مصنوعی در آنها وجود ندارد.
در نمودار زیر می بینید سیستم SynNet که فقط با استفاده از مقاله های ویکی پیدیا آموزش دیده، در حوزه خبری هم عملکردی نزدیک به هوش مصنوعی ویژه این بخش یعنی NewsQA ارائه می دهد.
اگر شما هم با هشدارهای ایلان ماسک در مورد آینده هراس انگیز هوش مصنوعی آشنا باشید، قطعاً به این نتیجه رسیده اید که AI با دستیابی به دو توانایی اساسی مورد بحث، یعنی درک محتوای متنی و آموزش به همنوعش، به سرعت و با سهولت هرچه بیشتری به کسب دانش از میان اطلاعات پراکنده موجود در سرتاسر فضای اینترنت خواهد پرداخت، و اینجاست که باید کمی نگران شد.
🎬 معرفی ویدیو☝️☝️☝️
🗂#سایبورگ #تازه_های_فناوری
ویدیو فوق به مصاحبه ی با نیل هاربیسون (Neil Harbisson) یکی از معدود سایبورگ های حال حاضر جهان اختصاص دارد. او که از پایه گذاران بنیاد سایبورگ است ترکیب شدن انسان ها با تکنولوژی را امری اجتناب ناپذیر می داند و معتقد است این امر منجر به افزایش توانایی ها ی انسان می گردد. از نظر هاربیسون سایبورگی شدن درنهایت برای جامعه به امری عادی تبدیل خواهد شد و به طور خاص گسترش تکنولوژی های پوشیدنی کنونی زمینه لازم را برای مرحله بعدی یعنی کاشت تکنولوژی ها در بدن انسان فراهم خواهد آورد.
🗂#سایبورگ #تازه_های_فناوری
ویدیو فوق به مصاحبه ی با نیل هاربیسون (Neil Harbisson) یکی از معدود سایبورگ های حال حاضر جهان اختصاص دارد. او که از پایه گذاران بنیاد سایبورگ است ترکیب شدن انسان ها با تکنولوژی را امری اجتناب ناپذیر می داند و معتقد است این امر منجر به افزایش توانایی ها ی انسان می گردد. از نظر هاربیسون سایبورگی شدن درنهایت برای جامعه به امری عادی تبدیل خواهد شد و به طور خاص گسترش تکنولوژی های پوشیدنی کنونی زمینه لازم را برای مرحله بعدی یعنی کاشت تکنولوژی ها در بدن انسان فراهم خواهد آورد.