📗 معرفی کتاب ☝️☝️☝️
🗂#فلسفه_فناوری
کتاب بدن ها در فناوری (bodies in technology) دربرگیرنده آخرین تلاش دن آیدی (Don Ihde)، فیسلوف فناوری برجسته، برای درک فناوری از منظری پدیدارشناختی است. آیدی در همه کارهایش از موریس مرلوپونتی و مفهوم «بدن-سوژه» او استفاده کرده است. مفهومی که بیان میکند ما به عنوان سوژهها، بدن مند هستیم. به همین دلیل و به شکلی ناگشودنی وجود ما «در جهان » است که معنا مییابد. این رابطه غیرقابل تقلیل میان بدن و جهان یگانه سرچشمه معنا است. آیدی کتاب خود را با این فهم آغاز مینماید اما او به سرعت دو طریق دیگر را برای تولید معنا خارج از این مسیر اولیه شناسایی میکند. بُعد دوم از معنا برساختهای فرهنگی / اجتماعی است که برآمده از مواجه ما با دیگر بدن-سوژهها در جهان است. و بُعد سوم از معنای بدنمندانه جایی است که بدنهای پدیداری و اجتماعی، با فناوری تلاقی مییابند و این دقیقا محدودهای است که آیدی در این کتاب به کند و کاو درباره آن میپردازد.
از نظر آیدی ما در حال تجربه نمودن جهان به وسیله فناوری هستیم، اما زمانی که به سیر تاریخ تحول فناوری بنگریم همواره با یک سائق آرمانشهرانه مواجه می شویم. سائقی که بیان میکند فناوری در حال کمک به ما برای غلبه بر محدودیتهای انسانی ماست، چیزی که باعث میگردد فناوری به بت ما تبدیل گردد. این سائق آرمانشهرانه «فانتزیهای تکنیکی» ای را تولید میکند که مدعیاند فناوری به بدن ما «دسترسی» فراخ تر در جهان خواهند داد. از نظر آیدی این فانتزیهای تکنیکی پیش از دوره مدرن نیز وجود داشته است، اما در دروه پسا مدرن بسیار پیش رفته است به نحوی که مبنایی برای واقعیت مجازی گشته است، چیزی که حتی به خود واقعیت فی نفسه ترجیح داده میشود. به طور خلاصه، آیدی علاقه مند است تا دریابد چگونه درک ما از بدنمندیمان از طریق فناوریهای نوین تغییر می یابد
این کتاب شامل چهار بخش است. در بخش اول تصویری از طرق گوناگونی که فناوری بر بدنمندی ما تاثیر دارد و همچنین چگونگی تغییر تجربه ما از جهان به وسیله آن ترسیم میگردد. در این جا آیدی از دوگانه واقعی/مجازی استفاده میکند و به توسعه رویکرد خود از پدیدارشناسی بدنمندانه (جایی که فناوری تواناییهای ادراکی بدن ما را تصحیح و تقویت میکنند) و پدیدارشناسی غیربدنمندانه( جایی که فناوری بدن را تصویر یا عینی سازی میکند) میپردازد . آیدی به طور خاص به مفهوم غیربدنمندی علاقه مند است زیرا که مبنایی برای مفهوم بدن مجازی است. بدن مجازی امری است که امروزه توسط بسیاری از فناوریها ایجاد میگردد. در بخش 2 آیدی به طرقی می پردازد که ابزارهای علمی به شکل سنتی منجر به ایجاد یک حالت تصویرگرانه میشوند. آیدی تصدیق میکند که چنین حالت تصویری این امکان را برای علم فراهم کرده که هرمنوتیک غنی از پدیدههای فیزیکی بدست دهد اما او استدلال میکند که در نهایت آن برساخته جامعه است. لذا شواهد علمی عموماً به طریقی که در آنها بدنهای مجازی از اهمیت بیشتری داشته باشند صورت بندی میشوند تا بدنهای موقعیت مندِ درون جهان.
بخش 3 کتاب به اولویت بدنهای موقعیت مند در برابر بدن مجازی اختصاص دارد. این بخش به دیالوگ با محققان رشته مطالعات علم اختصاص دارد که شامل افرادی همچون اندرو پیکرینگ (Andrew Pickering ) دانا هاراوی (Donna Haraway ) و برونو لاتور (Bruno Latour) میگردد. در بخش چهارم آیدی نسبت ایده بدنهای موقعیت مند را با فلسفه تکنولوژی عام تر خود نشان میدهد. آیدی در نهایت استدلال میکند اگرچه تلاش برای کنترل عقلانی حجم عظیم توسعه تکنولوژی کجروی است، میتوان با در نظر گرفتن اهمیت موقعیت مندی انسان که مبنای فعالیت تکنیکی در هر دو سطح تحقیقات و کاربردها است به فرآیند توسعه فناوری ورود کرد و تغییرات هنجاری لازم را به وجود آورد .
📌درباره نویسنده:
دن آیدی فیلسوف علم و فناوری و یک پساپدیدارشناس است. در 1979 او کتاب تکنیک و پرکسیس را نوشت که معمولاً به عنوان اولین کار فلسفه تکنولوژی در آمریکای شمالی شناخته میشود. آیدی استاد فلسفه دانشگاه نیویورک در استانی بروک است. آیدی نویسنده 13 کتاب و ویراستار تعداد زیادی دیگر کتاب است. تعقیب تکنو-علم(2003)، بدن ها در فناوری (2002) گسترش هرمنوتیک: تصویرگرایی در علم(1998) و پسا پدیدارشناسی (1993) نمونههایی از آثار او هستند.
📌مشخصات کتابشناختی:
Title: Bodies in Technology /Volume 5 of Electronic mediations
Author: Don Ihde
Publisher: U of Minnesota Press, 2002
ISBN: 0816638462, 9780816638468
Length: 155 pages
🗂#فلسفه_فناوری
کتاب بدن ها در فناوری (bodies in technology) دربرگیرنده آخرین تلاش دن آیدی (Don Ihde)، فیسلوف فناوری برجسته، برای درک فناوری از منظری پدیدارشناختی است. آیدی در همه کارهایش از موریس مرلوپونتی و مفهوم «بدن-سوژه» او استفاده کرده است. مفهومی که بیان میکند ما به عنوان سوژهها، بدن مند هستیم. به همین دلیل و به شکلی ناگشودنی وجود ما «در جهان » است که معنا مییابد. این رابطه غیرقابل تقلیل میان بدن و جهان یگانه سرچشمه معنا است. آیدی کتاب خود را با این فهم آغاز مینماید اما او به سرعت دو طریق دیگر را برای تولید معنا خارج از این مسیر اولیه شناسایی میکند. بُعد دوم از معنا برساختهای فرهنگی / اجتماعی است که برآمده از مواجه ما با دیگر بدن-سوژهها در جهان است. و بُعد سوم از معنای بدنمندانه جایی است که بدنهای پدیداری و اجتماعی، با فناوری تلاقی مییابند و این دقیقا محدودهای است که آیدی در این کتاب به کند و کاو درباره آن میپردازد.
از نظر آیدی ما در حال تجربه نمودن جهان به وسیله فناوری هستیم، اما زمانی که به سیر تاریخ تحول فناوری بنگریم همواره با یک سائق آرمانشهرانه مواجه می شویم. سائقی که بیان میکند فناوری در حال کمک به ما برای غلبه بر محدودیتهای انسانی ماست، چیزی که باعث میگردد فناوری به بت ما تبدیل گردد. این سائق آرمانشهرانه «فانتزیهای تکنیکی» ای را تولید میکند که مدعیاند فناوری به بدن ما «دسترسی» فراخ تر در جهان خواهند داد. از نظر آیدی این فانتزیهای تکنیکی پیش از دوره مدرن نیز وجود داشته است، اما در دروه پسا مدرن بسیار پیش رفته است به نحوی که مبنایی برای واقعیت مجازی گشته است، چیزی که حتی به خود واقعیت فی نفسه ترجیح داده میشود. به طور خلاصه، آیدی علاقه مند است تا دریابد چگونه درک ما از بدنمندیمان از طریق فناوریهای نوین تغییر می یابد
این کتاب شامل چهار بخش است. در بخش اول تصویری از طرق گوناگونی که فناوری بر بدنمندی ما تاثیر دارد و همچنین چگونگی تغییر تجربه ما از جهان به وسیله آن ترسیم میگردد. در این جا آیدی از دوگانه واقعی/مجازی استفاده میکند و به توسعه رویکرد خود از پدیدارشناسی بدنمندانه (جایی که فناوری تواناییهای ادراکی بدن ما را تصحیح و تقویت میکنند) و پدیدارشناسی غیربدنمندانه( جایی که فناوری بدن را تصویر یا عینی سازی میکند) میپردازد . آیدی به طور خاص به مفهوم غیربدنمندی علاقه مند است زیرا که مبنایی برای مفهوم بدن مجازی است. بدن مجازی امری است که امروزه توسط بسیاری از فناوریها ایجاد میگردد. در بخش 2 آیدی به طرقی می پردازد که ابزارهای علمی به شکل سنتی منجر به ایجاد یک حالت تصویرگرانه میشوند. آیدی تصدیق میکند که چنین حالت تصویری این امکان را برای علم فراهم کرده که هرمنوتیک غنی از پدیدههای فیزیکی بدست دهد اما او استدلال میکند که در نهایت آن برساخته جامعه است. لذا شواهد علمی عموماً به طریقی که در آنها بدنهای مجازی از اهمیت بیشتری داشته باشند صورت بندی میشوند تا بدنهای موقعیت مندِ درون جهان.
بخش 3 کتاب به اولویت بدنهای موقعیت مند در برابر بدن مجازی اختصاص دارد. این بخش به دیالوگ با محققان رشته مطالعات علم اختصاص دارد که شامل افرادی همچون اندرو پیکرینگ (Andrew Pickering ) دانا هاراوی (Donna Haraway ) و برونو لاتور (Bruno Latour) میگردد. در بخش چهارم آیدی نسبت ایده بدنهای موقعیت مند را با فلسفه تکنولوژی عام تر خود نشان میدهد. آیدی در نهایت استدلال میکند اگرچه تلاش برای کنترل عقلانی حجم عظیم توسعه تکنولوژی کجروی است، میتوان با در نظر گرفتن اهمیت موقعیت مندی انسان که مبنای فعالیت تکنیکی در هر دو سطح تحقیقات و کاربردها است به فرآیند توسعه فناوری ورود کرد و تغییرات هنجاری لازم را به وجود آورد .
📌درباره نویسنده:
دن آیدی فیلسوف علم و فناوری و یک پساپدیدارشناس است. در 1979 او کتاب تکنیک و پرکسیس را نوشت که معمولاً به عنوان اولین کار فلسفه تکنولوژی در آمریکای شمالی شناخته میشود. آیدی استاد فلسفه دانشگاه نیویورک در استانی بروک است. آیدی نویسنده 13 کتاب و ویراستار تعداد زیادی دیگر کتاب است. تعقیب تکنو-علم(2003)، بدن ها در فناوری (2002) گسترش هرمنوتیک: تصویرگرایی در علم(1998) و پسا پدیدارشناسی (1993) نمونههایی از آثار او هستند.
📌مشخصات کتابشناختی:
Title: Bodies in Technology /Volume 5 of Electronic mediations
Author: Don Ihde
Publisher: U of Minnesota Press, 2002
ISBN: 0816638462, 9780816638468
Length: 155 pages
🎬 معرفی ویدیو ☝️☝️☝️
🗂#تازه_های_فناوری #اینترنت_اشیا
اصطلاح «اینترنت اشیاء» اولین بار توسط کوین اشتون در سال 1999 بکار برده شد و برای نخستین بار توسط انتشارات مؤسسه MIT به دنیامعرفی گردید و جهانی را توصیف کرد که در آن هر چیزی، از جمله اشیا بی جان، برای خود هویت دیجیتال داشته باشند و به کامپیوترها اجازه دهند آنها را سازماندهی و مدیریت کنند.
مفهوم اینترنت اشیاء بوسیله یکی از افراد کمیته توسعه RFID در سال 2000 رقم خورد. او به امکان کشف اطلاعات در مورد یک شیء برچسب خورده بوسیله جست و جو در یک آدرس اینترنت خاص و یا محتوای یک بانک اطلاعاتی اشاره نمود. از آن زمان واژه اینترنت اشیاء به مفهوم اشیاء روزمرهای که قابل تشخیص، مکانیابی، آدرس دهی و کنترل از طریق اینترنت باشند (چه از طریق RFID، شبکه بیسیم، شبکه WAN و یا سایر ابزارها) گره خورد. اشیاء روزمره تنها شامل وسایل الکتریکی نیست بلکه اشیایی که به هیچ وجه به آنها به دید یک وسیله الکتریکی نمینگریم را هم شامل می شود. مانند غذا، پوشاک، مواد، قطعات و ...
تعاریف زیادی از اینترنت اشیاء توسط انجمنهای مختلف تحقیقاتی بر اساس نوع نگرش آنها به نقاط قوت این ایده بیانشده است. دلیل چندوجهی بودن این مفهوم به نامگذاری این ایده یعنی «اینترنت اشیاء» برمیگردد. این نام از دو کلمه تشکیلشده است، کلمه اول به دیدگاه شبکه گرایی این مفهوم تأکید دارد درحالیکه کلمه دوم به حرکت به سمت اشیاء عمومی که در یک بسته مشترک قرارگرفتهاند تأکید میکند. اینکه به اینترنت اشیاء با دید اینترنت گرا و یا موجودیت گرا نگاه کنیم باعث به وجود آمدن تغییر در ذینفعان، قراردادهای تجاری، تحقیقها و استانداردهای موجود خواهد شد. درواقع اینترنت اشیاء به معنی یک شبکه جهانی از اشیاء مرتبط که هر یک دارای آدرس مختص به خود بوده، می¬ باشد که بر اساس قراردادهای استانداردشدهای با یکدیگر در ارتباط هستند. آدرسدهی منحصر به فرد، نمایش و ذخیرهسازی اطلاعات تبادل شده در اشیاء، موضوعات چالشبرانگیزی است که سومین دیدگاه از «اینترنت اشیاء» یعنی معناگرایی را در برمیگیرد.
ویدیو فوق تصویری از زندگی در عصر اینترنت اشیا را به تصویر می کشد.
🗂#تازه_های_فناوری #اینترنت_اشیا
اصطلاح «اینترنت اشیاء» اولین بار توسط کوین اشتون در سال 1999 بکار برده شد و برای نخستین بار توسط انتشارات مؤسسه MIT به دنیامعرفی گردید و جهانی را توصیف کرد که در آن هر چیزی، از جمله اشیا بی جان، برای خود هویت دیجیتال داشته باشند و به کامپیوترها اجازه دهند آنها را سازماندهی و مدیریت کنند.
مفهوم اینترنت اشیاء بوسیله یکی از افراد کمیته توسعه RFID در سال 2000 رقم خورد. او به امکان کشف اطلاعات در مورد یک شیء برچسب خورده بوسیله جست و جو در یک آدرس اینترنت خاص و یا محتوای یک بانک اطلاعاتی اشاره نمود. از آن زمان واژه اینترنت اشیاء به مفهوم اشیاء روزمرهای که قابل تشخیص، مکانیابی، آدرس دهی و کنترل از طریق اینترنت باشند (چه از طریق RFID، شبکه بیسیم، شبکه WAN و یا سایر ابزارها) گره خورد. اشیاء روزمره تنها شامل وسایل الکتریکی نیست بلکه اشیایی که به هیچ وجه به آنها به دید یک وسیله الکتریکی نمینگریم را هم شامل می شود. مانند غذا، پوشاک، مواد، قطعات و ...
تعاریف زیادی از اینترنت اشیاء توسط انجمنهای مختلف تحقیقاتی بر اساس نوع نگرش آنها به نقاط قوت این ایده بیانشده است. دلیل چندوجهی بودن این مفهوم به نامگذاری این ایده یعنی «اینترنت اشیاء» برمیگردد. این نام از دو کلمه تشکیلشده است، کلمه اول به دیدگاه شبکه گرایی این مفهوم تأکید دارد درحالیکه کلمه دوم به حرکت به سمت اشیاء عمومی که در یک بسته مشترک قرارگرفتهاند تأکید میکند. اینکه به اینترنت اشیاء با دید اینترنت گرا و یا موجودیت گرا نگاه کنیم باعث به وجود آمدن تغییر در ذینفعان، قراردادهای تجاری، تحقیقها و استانداردهای موجود خواهد شد. درواقع اینترنت اشیاء به معنی یک شبکه جهانی از اشیاء مرتبط که هر یک دارای آدرس مختص به خود بوده، می¬ باشد که بر اساس قراردادهای استانداردشدهای با یکدیگر در ارتباط هستند. آدرسدهی منحصر به فرد، نمایش و ذخیرهسازی اطلاعات تبادل شده در اشیاء، موضوعات چالشبرانگیزی است که سومین دیدگاه از «اینترنت اشیاء» یعنی معناگرایی را در برمیگیرد.
ویدیو فوق تصویری از زندگی در عصر اینترنت اشیا را به تصویر می کشد.
🗣خبر☝️☝️☝️
🗂#فناوری_رباتیک
عنوان: دانشمندان آداب معاشرت اجتماعی را به ربات ها یاد می دهند
منبع: واشنگتن پست (ترجمه وبسایت دیجیاتو)
انسان ها می دانند که در کتابخانه عمومی باید موبایلشان را روی حالت بیصدا قرار دهند و در صورت دریافت کمک از دیگران، تشکر کنند. حال محققین قصد دارند ربات ها را نیز با چنین آداب معاشرت اجتماعی آشنا سازند. پژوهشگران معتقدند ماشین ها با یادگیری هنجارهای اجتماعی، ارتباط بهتری را با انسان برقرار می سازند. مراحل اولیه این پروژه به تازگی توس تیم تحقیقاتی دانشگاهی با حمایت مالی آژانس پروژه های تحقیقاتی پیشرفته دفاعی آمریکا (DARPA) به پایان رسیده است.
محققین برای اجرای این ایده، نحوه تشخیص هنجارهای اجتماعی توسط انسان و واکنش به آنها را مطالعه کرده و نوعی الگوریتم یادگیری ماشین را توسعه دادند که امکان آموختن این آداب را با استنتاج از داده های انسانی برای ربات فراهم می سازد. به گفته این تیم، سیستم مورد بحث در نهایت به توسعه سامانه ای مبتنی بر هوش مصنوعی می پردازد که بر اساس آن، ربات ها به صورت شهودی نحوه رفتار در شرایط مختلف را بر می گزینند، یعنی همان کاری که انسان ها انجام می دهند.
دکتر رضا قنادان، یکی از مدیران DARPA می گوید: اگر بخواهیم همزیستی مسالمت آمیزی با ربات ها، ماشین های خودران و دستیارهای هوشمند دیجیتالی در آینده داشته باشیم، که هدفمان نیز همین است، باید آنها را به گونه ای طراحی کنیم که هنجارها و اصول اجتماعی ما را رعایت کنند.
انسان ها از کودکی با آداب اجتماعی آشنا می شوند و از آنجا که شبکه ای پیچیده از این هنجارها در جامعه وجود دارد، یادگیری موارد جدید نیز به راحتی برای بشر میسر است. قنادان می گوید: ما کاملاً با این موارد آشنا هستیم، چون افراد نرمال به سرعت تخطی از نُرم ها را تشخیص می دهند. عدم قطعیت ذاتی در این نوع داده ها باعث می شود تا آموزش ماشین بر اساس آنها با دشواری بسیار زیادی همراه باشد.
گفتنیست تیم مورد بحث تا به امروز توانسته با موفقیت چارچوب سامانه یادگیری ماشین را توسعه دهد، اما هنوز راه درازی در پیش دارد و یکی از حیاتی ترین گام ها در این مسیر، توسعه رباتی است که ظرفیت یادگیری، بازنمایی، فعالسازی و به اجرا درآوردن مجموعه وسیعی از هنجارها را داشته باشد
🗂#فناوری_رباتیک
عنوان: دانشمندان آداب معاشرت اجتماعی را به ربات ها یاد می دهند
منبع: واشنگتن پست (ترجمه وبسایت دیجیاتو)
انسان ها می دانند که در کتابخانه عمومی باید موبایلشان را روی حالت بیصدا قرار دهند و در صورت دریافت کمک از دیگران، تشکر کنند. حال محققین قصد دارند ربات ها را نیز با چنین آداب معاشرت اجتماعی آشنا سازند. پژوهشگران معتقدند ماشین ها با یادگیری هنجارهای اجتماعی، ارتباط بهتری را با انسان برقرار می سازند. مراحل اولیه این پروژه به تازگی توس تیم تحقیقاتی دانشگاهی با حمایت مالی آژانس پروژه های تحقیقاتی پیشرفته دفاعی آمریکا (DARPA) به پایان رسیده است.
محققین برای اجرای این ایده، نحوه تشخیص هنجارهای اجتماعی توسط انسان و واکنش به آنها را مطالعه کرده و نوعی الگوریتم یادگیری ماشین را توسعه دادند که امکان آموختن این آداب را با استنتاج از داده های انسانی برای ربات فراهم می سازد. به گفته این تیم، سیستم مورد بحث در نهایت به توسعه سامانه ای مبتنی بر هوش مصنوعی می پردازد که بر اساس آن، ربات ها به صورت شهودی نحوه رفتار در شرایط مختلف را بر می گزینند، یعنی همان کاری که انسان ها انجام می دهند.
دکتر رضا قنادان، یکی از مدیران DARPA می گوید: اگر بخواهیم همزیستی مسالمت آمیزی با ربات ها، ماشین های خودران و دستیارهای هوشمند دیجیتالی در آینده داشته باشیم، که هدفمان نیز همین است، باید آنها را به گونه ای طراحی کنیم که هنجارها و اصول اجتماعی ما را رعایت کنند.
انسان ها از کودکی با آداب اجتماعی آشنا می شوند و از آنجا که شبکه ای پیچیده از این هنجارها در جامعه وجود دارد، یادگیری موارد جدید نیز به راحتی برای بشر میسر است. قنادان می گوید: ما کاملاً با این موارد آشنا هستیم، چون افراد نرمال به سرعت تخطی از نُرم ها را تشخیص می دهند. عدم قطعیت ذاتی در این نوع داده ها باعث می شود تا آموزش ماشین بر اساس آنها با دشواری بسیار زیادی همراه باشد.
گفتنیست تیم مورد بحث تا به امروز توانسته با موفقیت چارچوب سامانه یادگیری ماشین را توسعه دهد، اما هنوز راه درازی در پیش دارد و یکی از حیاتی ترین گام ها در این مسیر، توسعه رباتی است که ظرفیت یادگیری، بازنمایی، فعالسازی و به اجرا درآوردن مجموعه وسیعی از هنجارها را داشته باشد
Forwarded from علم و دين
🔬آیا علم وجود #خدا راتایید کرده ویا آن را نفی کرده است؟🔭
⭕️تبیین وبررسی مناقشات میان علم ودین📚
👨🏻🎓جمعی از محققان فلسفه علم،ذهن ،فیزیک وزیست شناسی دانشگاه شریف🏛
👇بپیوندید
🆔 Telegram.me/scirel
⭕️تبیین وبررسی مناقشات میان علم ودین📚
👨🏻🎓جمعی از محققان فلسفه علم،ذهن ،فیزیک وزیست شناسی دانشگاه شریف🏛
👇بپیوندید
🆔 Telegram.me/scirel
📝 یادداشت
عنوان: رابطه دانش و تکنولوژی نزد میشل فوکو
نویسنده: عطا حشمتی
یکی از مهمترین مسائلی که متفکران و پژوهشگران حوزۀ تکنولوژی به شکلی جدی و عمیق با آن دستوپنجه نرم میکنند، فاصلۀ میان عمل و نظر در عرصههای مختلف انسانی است. این مسئله را شاید بتوان در قالب مسئلۀ رابطۀ تکنولوژی و علم نیز صورتبندی کرد. اینکه چرا ما باوجود پرداخت عمیق به علوم پایه و مهندسی در دانشگاهها، هنوز در عرصههای عملی و تکنیکی به پختگی کامل نرسیدهایم؟ یا چرا دانش نظری ما هیچ ربطی به تجربههای عملی و چالشیِ بنگاههای صنعتی و تجاری ما ندارد؟ پاسخ به این سؤالها در گروی این است که بدانیم آیا علم بر تکنولوژی مقدم است یا تکنولوژی بر علم. برای برخی تکنولوژی محصول علم و تأملات آزمایشگاهی دانشمندان است و برای برخی دیگر علم تنها در محیطی عملی و درگیر با واقعیت ساخته میشود. این مقاله میخواهد پاسخ فوکو به این چالش را تا حدی روشن کند و نشان دهد چگونه فوکو ابتدا تصور میکرد دانش و نظریه بسیار فراتر از عمل و کنش واقعی اهمیت دارد و بعدها با تجدیدنظر در این موضع به این نتیجه رسید علم و دانش نظری خود محصول تکنولوژی و کردارهای عملی ما در بافتی تاریخی است. در این راستا پس از مقدمهای کوتاه به بررسی نگاه فوکو به تکنولوژی و رابطۀ آن با دانش در دو دورۀ فکریاش میپردازیم.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/R3WDH8
عنوان: رابطه دانش و تکنولوژی نزد میشل فوکو
نویسنده: عطا حشمتی
یکی از مهمترین مسائلی که متفکران و پژوهشگران حوزۀ تکنولوژی به شکلی جدی و عمیق با آن دستوپنجه نرم میکنند، فاصلۀ میان عمل و نظر در عرصههای مختلف انسانی است. این مسئله را شاید بتوان در قالب مسئلۀ رابطۀ تکنولوژی و علم نیز صورتبندی کرد. اینکه چرا ما باوجود پرداخت عمیق به علوم پایه و مهندسی در دانشگاهها، هنوز در عرصههای عملی و تکنیکی به پختگی کامل نرسیدهایم؟ یا چرا دانش نظری ما هیچ ربطی به تجربههای عملی و چالشیِ بنگاههای صنعتی و تجاری ما ندارد؟ پاسخ به این سؤالها در گروی این است که بدانیم آیا علم بر تکنولوژی مقدم است یا تکنولوژی بر علم. برای برخی تکنولوژی محصول علم و تأملات آزمایشگاهی دانشمندان است و برای برخی دیگر علم تنها در محیطی عملی و درگیر با واقعیت ساخته میشود. این مقاله میخواهد پاسخ فوکو به این چالش را تا حدی روشن کند و نشان دهد چگونه فوکو ابتدا تصور میکرد دانش و نظریه بسیار فراتر از عمل و کنش واقعی اهمیت دارد و بعدها با تجدیدنظر در این موضع به این نتیجه رسید علم و دانش نظری خود محصول تکنولوژی و کردارهای عملی ما در بافتی تاریخی است. در این راستا پس از مقدمهای کوتاه به بررسی نگاه فوکو به تکنولوژی و رابطۀ آن با دانش در دو دورۀ فکریاش میپردازیم.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/R3WDH8
اندیشکده مهاجر
مهمترین مسائلی که متفکران و پژوهشگران حوزۀ تکنولوژی به شکلی جدی و عمیق با آن دستوپنجه نرم میکنند، فاصلۀ میان عمل و نظر در عرصههای اندیشکده مهاجر فوکو
🎬 معرفی ویدیو ☝️☝️☝️
#فلسفه_فناوری #اخلاقی_سازی_فناوری
پیتر پائول فربیک از پیشگامان رویکرد پساپدیدارشناسی در فلسفه تکنولوژی است. او هم اکنون ریاست دپارتمان فلسفه دانشگاه توئنته، ریاست انجمن فلسفه و تکنولوژی و عضو شورای هلندی علوم انسانی است. در این سخنرانی او به موضوع اخلاقی سازی فناوری (Moralizing Technology) می پردازد که نخستین بار توسط هانس آخترهایس مطرح شده است. بنا براین ایده ما میتوانیم با درون نگاری برخی ارزشها در فناوری از بار فشار تصمیمات اخلاقی در زندگی خود بکاهیم. به تعبیر دیگر برای اخلاقی شدن جامعه تنها نباید افراد آن را اخلاقی کرد بلکه فناوریها هم که نقش عمدهای در زندگی انسانها دارند باید اخلاقی گردند. این ایده آخترهایس با مخالفتها متعددی روبرو شد. منتقدان عمدتا نگران بودند که این کار منجر به شکل گیری تکنوکراسی و همچنین از بین رفتن خودمختاری انسان گردد.
فربیک از پروژههایی همچون فناوریهای متقاعد کننده (Persuasive Technology) به عنوان نمونههایی یاد می کند که هم ایده اخلاقی سازی را در دل خود نهفتهاند و هم ارزش خودمختاری انسانها را حفظ میکنند. با این وجود او فکر میکند فهمی که ما از خودمختاری انسان داریم بسیار آرمان گرایانه است و باید کمی متواضعانه تر به خود بیاندیشیم. اگر دریابیم که خودمختاری تا چه حد تحت تاثیر فناوری است آنگاه دیگر اخلاق را صرفا به حیطه امور انسانی محدود نخواهیم کرد و اشیا و ابزارها را هم حائز اهمیت اخلاقی خواهیم دانست. قفلهای سکه خور، وسایل اصلاح و قرصهای ضد بارداری همه نمونههایی است که از نظر فربیک به اخلاق اشیا (Morality of things) اشاره دارند.
بدین ترتیب ما نیازمند توسعه مدل متفاوتی از رابطه میان انسان و فناوری هستیم که در آن انسان و فناوری نه به عنوان سوژههای خودمختار و ابژههایی منفعل و مستقل از هم در نظر گرفته شوند بلکه باید به صورت دو امر در همتنیده لحاظ شود. این نگاه به رابطه انسان و فناوری نگاهی است که در کارهای دن آیدی و همچنین نظریه واسطه گری فربیک وجود دارد. بر اساس چنین منظری جایگاه اخلاق سنتی تکنولوژی که در آن دو فرضاساسی وجود دارد متزلزل میگردد. نخست این که اخلاق باید از انسان در برابر تاثیرات فناوری دفاع کند و دوم می توان تبعات اخلاقی تکنولوژی را از یک نقطه بیرونی ارزیابی کرد. بنا بر نظریه واسطه گری اولاً هیچ راه فراری از تاثیرات فناوری وجود ندارد و ثانیاً خود چهارچوبهای ارزیابی نیز میتواند تحت تاثیر واسطه گری قرار گیرند لذا نقطه بیرونی برای ارزیابی وجود ندارد.
در این بین تاملات اخلاقی فوکو از نظر فربیک میتواند منبع الهام خوبی برای توسعهی یک اخلاق تکنولوژی جدید باشد. از نظر فوکو اخلاق به معنای برقراری یک رابطه آزاد با قدرت است که در طی آن فرد در حال برسازی خویشتن است. از نظر فربیک نیز ما باید به جای نفی تکنولوژی به دنبال برقراری یک رابطه سازنده با آن باشیم. این رابطه میتواند در دوسطح استفاده و طراحی برقرار گردد. در سطح استفاده باید درک کنیم که چگونه هر فناوری با تاثیراتش در حال شکل دهی به زندگی ماست. اما در سطح طراحی است که ایده اخلاقی سازی تکنولوژی اهمیت می یابد. بر اساس این ایده باید تلاش کنیم به کمک طراحی نوعی از فناوری را توسعه دهیم که در نهایت بتواند تا میزان بالایی منجر به تحقق زندگی خوب از منظر ما گردد.
💡نکته: برای دیدن زیرنویس ویدیو در سایت آپارات گزینه CC را فعال کنید.
#فلسفه_فناوری #اخلاقی_سازی_فناوری
پیتر پائول فربیک از پیشگامان رویکرد پساپدیدارشناسی در فلسفه تکنولوژی است. او هم اکنون ریاست دپارتمان فلسفه دانشگاه توئنته، ریاست انجمن فلسفه و تکنولوژی و عضو شورای هلندی علوم انسانی است. در این سخنرانی او به موضوع اخلاقی سازی فناوری (Moralizing Technology) می پردازد که نخستین بار توسط هانس آخترهایس مطرح شده است. بنا براین ایده ما میتوانیم با درون نگاری برخی ارزشها در فناوری از بار فشار تصمیمات اخلاقی در زندگی خود بکاهیم. به تعبیر دیگر برای اخلاقی شدن جامعه تنها نباید افراد آن را اخلاقی کرد بلکه فناوریها هم که نقش عمدهای در زندگی انسانها دارند باید اخلاقی گردند. این ایده آخترهایس با مخالفتها متعددی روبرو شد. منتقدان عمدتا نگران بودند که این کار منجر به شکل گیری تکنوکراسی و همچنین از بین رفتن خودمختاری انسان گردد.
فربیک از پروژههایی همچون فناوریهای متقاعد کننده (Persuasive Technology) به عنوان نمونههایی یاد می کند که هم ایده اخلاقی سازی را در دل خود نهفتهاند و هم ارزش خودمختاری انسانها را حفظ میکنند. با این وجود او فکر میکند فهمی که ما از خودمختاری انسان داریم بسیار آرمان گرایانه است و باید کمی متواضعانه تر به خود بیاندیشیم. اگر دریابیم که خودمختاری تا چه حد تحت تاثیر فناوری است آنگاه دیگر اخلاق را صرفا به حیطه امور انسانی محدود نخواهیم کرد و اشیا و ابزارها را هم حائز اهمیت اخلاقی خواهیم دانست. قفلهای سکه خور، وسایل اصلاح و قرصهای ضد بارداری همه نمونههایی است که از نظر فربیک به اخلاق اشیا (Morality of things) اشاره دارند.
بدین ترتیب ما نیازمند توسعه مدل متفاوتی از رابطه میان انسان و فناوری هستیم که در آن انسان و فناوری نه به عنوان سوژههای خودمختار و ابژههایی منفعل و مستقل از هم در نظر گرفته شوند بلکه باید به صورت دو امر در همتنیده لحاظ شود. این نگاه به رابطه انسان و فناوری نگاهی است که در کارهای دن آیدی و همچنین نظریه واسطه گری فربیک وجود دارد. بر اساس چنین منظری جایگاه اخلاق سنتی تکنولوژی که در آن دو فرضاساسی وجود دارد متزلزل میگردد. نخست این که اخلاق باید از انسان در برابر تاثیرات فناوری دفاع کند و دوم می توان تبعات اخلاقی تکنولوژی را از یک نقطه بیرونی ارزیابی کرد. بنا بر نظریه واسطه گری اولاً هیچ راه فراری از تاثیرات فناوری وجود ندارد و ثانیاً خود چهارچوبهای ارزیابی نیز میتواند تحت تاثیر واسطه گری قرار گیرند لذا نقطه بیرونی برای ارزیابی وجود ندارد.
در این بین تاملات اخلاقی فوکو از نظر فربیک میتواند منبع الهام خوبی برای توسعهی یک اخلاق تکنولوژی جدید باشد. از نظر فوکو اخلاق به معنای برقراری یک رابطه آزاد با قدرت است که در طی آن فرد در حال برسازی خویشتن است. از نظر فربیک نیز ما باید به جای نفی تکنولوژی به دنبال برقراری یک رابطه سازنده با آن باشیم. این رابطه میتواند در دوسطح استفاده و طراحی برقرار گردد. در سطح استفاده باید درک کنیم که چگونه هر فناوری با تاثیراتش در حال شکل دهی به زندگی ماست. اما در سطح طراحی است که ایده اخلاقی سازی تکنولوژی اهمیت می یابد. بر اساس این ایده باید تلاش کنیم به کمک طراحی نوعی از فناوری را توسعه دهیم که در نهایت بتواند تا میزان بالایی منجر به تحقق زندگی خوب از منظر ما گردد.
💡نکته: برای دیدن زیرنویس ویدیو در سایت آپارات گزینه CC را فعال کنید.
📗معرفی کتاب ☝️☝️☝️
🗂#حریم_خصوصی #کلان_داده
📌 امنیت سایبری دیگر محدود به ماموران اطلاعاتی نیست که در اتاقهای مخفی با دقت به کد ها نگاه میکردند تا از حمله مهاجمان بین المللی پیش گیری کنند . امروز روزنامه و خبرگزاریها پر است از خبرهایی دربارهی استراق سمع و اپلیکیشن هایی برای هک ابزارهای هوشمند که ممکن است بدون این که بدانید از اطلاعات شخصی شما جاسوس می کنند. این مشکل واقعا تا چه حد جدی است ؟ کویلیو ریاست کمپانیهای امنیتی RSA می گوید: « هم اکنون یک پتابایت داده در فضای ابری وجود دارد که معادل با 5 بیلیارد (10 به توان 15) کتاب است. با این وجود تنها 20 درصد آن محافظت شده است»
📌 کتاب حریم خصوصی در عصر کلان دادهها (privacy in the Age of Big Data) تلاش می کند تا نگرانیها در این باره را برای مخاطبانش روشن سازد. رضایت در مسئله حریم خصوصی یک واژهای کلیدی است. نویسندگان این کتاب ترسا پیتون کارمند اطلاعاتی پیشین کاخ سفید و تئودر کلیپوله متخصص مدیریت دادهها توضیح میدهند که تا چه حد مردم در این باره دچار بدفهمی اند. وقتی مردم میگویند مهم نیست که اطلاعاتشان در دست کس دیگری قرار گیرد تا وقتی که چیزی برای پنهان کردن نداشته باشند آنها کاملاً به خطا رفتهاند. حریم خصوصی دادهها، موضوعی مربوط به انتخاب کردن است: آیا شما به شرکتها اجازه میدهید که اطلاعات شما را جمع آوری و دسته بندی کنند؟ آیا شما این اجازه را به آنها میدهید که اطلاعات شما را بفروش برسانند یا رفت آمدها و محل سکونتتان را رهگیری کنند؟
📌 بدفهمی دیگر این است که دولتها و دیگر جمع کنندگان داده تنها زمانی شما را رهگیری میکنند که کار مشکوکی انجام دهید. این یک پیش فرض غلط و حتی خطرناک است. فعالیتهای مدیریت داده ی کنونی تلاش میکنند همه گونه اطلاعات را با دقت و صحت جمع آوری کنند و بعد داده کاوان انتخاب می کنند به چه اطلاعاتی نیاز دارند. نویسندگان این کتاب به حرفهای یکی از ژنرالهای آمریکایی استناد میکنند که گفته بود مرکز ملی ضد تروریسم ممکن است دادههایی درباره شهروندان بی گناه آمریکایی را هم برای تحلیلهای آینده جمع آوری نماید.
📌 نویسندگان کتاب معتقدند « زمانی که حریم خصوصی شما محافظت شود، شما آزاد هستید که انتخاب کنید تا چه میزان از اطلاعات حساس شما در معرض دید قرار گیرد، چه کسانی بتوانند به آن دسترسی داشته باشند و در برخی موارد چگونه از آن اطلاعات استفاده کنند» . وقتی این محافظت از بین برود چه توسط هکرها، فشارهای قانونی یا حتی شرکتهای بزرگ، شما حق امن سازی حریم خصوصیتان در مقابل افراد با نیتهای نادرست را از دست میدهید.
📌 اطلاعات خصوصی نوعی از مالکیت است و شما باید این حق را داشته باشید که تصمیم بگیرد با آن چه کنید. هرچند خط میان انتخاب و آزادی شروع به مبهم شدن میکند وقتی مصرف کنندگان رضایت مندانه اطلاعاتشان را در اختیار اپلیکیشنهایی با پیشنهاد بازی های جذاب یا فروشگاههایی با وعده تخفیف قرار می دهند. این دو راهی است که استفاده کنندگان باید به خوبی آن را سبک و سنگین کنند. در واقع امنیت سایبری نیازمند این است که از عینک سود/مخاطره نگریسته شود.
📌 کتاب حریم خصوصی در عصر کلان دادهها به چهار بخش تقسم میشود که هر کدام خطرهای امنیتی در حیطهای خاص را مورد بررسی قرار می دهند:
بخش 1: نقطه آغاز: کامپیوتر شما و اینترنت- ابزارهای دیجیتالی که شما به صورت روزانه استفاده میکنید ( لپ تاپ ها، گوشیهای هوشمند، ایمیل و ....) شما را در برابر حملات و دزدی داده ها آسیب پذیر میکنند.
بخش 2: خطر در جاده- ترک کردن خانه به معنای پایان پایش و رهگیری شما نیست. دوربینهای چراغ قرمز، ماشینهای هوشمند یا گجتهای سلامتی خودتان گنجی از دادههای شخصی برای فروشندگان دادهها هستند.
بخش 3: خانه جایی است که قلب (پایش) آنجاست- از دوربین ها امنیتی تا شبکههای وای فای و گوشیهای همراه ، جمع آوری داده در خانه شما هم فعال است.
بخش 4: از این جا باید به کجا رفت؟ - صنایع و اشخاص باید محدودیتهای برای خود مشخص کنند، از کدهای اخلاقی گرفته تا قوانین و سامانههای کد گذاری شده.
.
اطلاعات کتابشناختی
Title: Privacy in the Age of Big Data: Recognizing Threats, Defending Your Rights, and Protecting Your Family
Authors: Theresa Payton, Ted Claypoole
Publisher: Rowman & Littlefield, 2014
ISBN: 1442225459, 9781442225459
Length: 259 pages
🗂#حریم_خصوصی #کلان_داده
📌 امنیت سایبری دیگر محدود به ماموران اطلاعاتی نیست که در اتاقهای مخفی با دقت به کد ها نگاه میکردند تا از حمله مهاجمان بین المللی پیش گیری کنند . امروز روزنامه و خبرگزاریها پر است از خبرهایی دربارهی استراق سمع و اپلیکیشن هایی برای هک ابزارهای هوشمند که ممکن است بدون این که بدانید از اطلاعات شخصی شما جاسوس می کنند. این مشکل واقعا تا چه حد جدی است ؟ کویلیو ریاست کمپانیهای امنیتی RSA می گوید: « هم اکنون یک پتابایت داده در فضای ابری وجود دارد که معادل با 5 بیلیارد (10 به توان 15) کتاب است. با این وجود تنها 20 درصد آن محافظت شده است»
📌 کتاب حریم خصوصی در عصر کلان دادهها (privacy in the Age of Big Data) تلاش می کند تا نگرانیها در این باره را برای مخاطبانش روشن سازد. رضایت در مسئله حریم خصوصی یک واژهای کلیدی است. نویسندگان این کتاب ترسا پیتون کارمند اطلاعاتی پیشین کاخ سفید و تئودر کلیپوله متخصص مدیریت دادهها توضیح میدهند که تا چه حد مردم در این باره دچار بدفهمی اند. وقتی مردم میگویند مهم نیست که اطلاعاتشان در دست کس دیگری قرار گیرد تا وقتی که چیزی برای پنهان کردن نداشته باشند آنها کاملاً به خطا رفتهاند. حریم خصوصی دادهها، موضوعی مربوط به انتخاب کردن است: آیا شما به شرکتها اجازه میدهید که اطلاعات شما را جمع آوری و دسته بندی کنند؟ آیا شما این اجازه را به آنها میدهید که اطلاعات شما را بفروش برسانند یا رفت آمدها و محل سکونتتان را رهگیری کنند؟
📌 بدفهمی دیگر این است که دولتها و دیگر جمع کنندگان داده تنها زمانی شما را رهگیری میکنند که کار مشکوکی انجام دهید. این یک پیش فرض غلط و حتی خطرناک است. فعالیتهای مدیریت داده ی کنونی تلاش میکنند همه گونه اطلاعات را با دقت و صحت جمع آوری کنند و بعد داده کاوان انتخاب می کنند به چه اطلاعاتی نیاز دارند. نویسندگان این کتاب به حرفهای یکی از ژنرالهای آمریکایی استناد میکنند که گفته بود مرکز ملی ضد تروریسم ممکن است دادههایی درباره شهروندان بی گناه آمریکایی را هم برای تحلیلهای آینده جمع آوری نماید.
📌 نویسندگان کتاب معتقدند « زمانی که حریم خصوصی شما محافظت شود، شما آزاد هستید که انتخاب کنید تا چه میزان از اطلاعات حساس شما در معرض دید قرار گیرد، چه کسانی بتوانند به آن دسترسی داشته باشند و در برخی موارد چگونه از آن اطلاعات استفاده کنند» . وقتی این محافظت از بین برود چه توسط هکرها، فشارهای قانونی یا حتی شرکتهای بزرگ، شما حق امن سازی حریم خصوصیتان در مقابل افراد با نیتهای نادرست را از دست میدهید.
📌 اطلاعات خصوصی نوعی از مالکیت است و شما باید این حق را داشته باشید که تصمیم بگیرد با آن چه کنید. هرچند خط میان انتخاب و آزادی شروع به مبهم شدن میکند وقتی مصرف کنندگان رضایت مندانه اطلاعاتشان را در اختیار اپلیکیشنهایی با پیشنهاد بازی های جذاب یا فروشگاههایی با وعده تخفیف قرار می دهند. این دو راهی است که استفاده کنندگان باید به خوبی آن را سبک و سنگین کنند. در واقع امنیت سایبری نیازمند این است که از عینک سود/مخاطره نگریسته شود.
📌 کتاب حریم خصوصی در عصر کلان دادهها به چهار بخش تقسم میشود که هر کدام خطرهای امنیتی در حیطهای خاص را مورد بررسی قرار می دهند:
بخش 1: نقطه آغاز: کامپیوتر شما و اینترنت- ابزارهای دیجیتالی که شما به صورت روزانه استفاده میکنید ( لپ تاپ ها، گوشیهای هوشمند، ایمیل و ....) شما را در برابر حملات و دزدی داده ها آسیب پذیر میکنند.
بخش 2: خطر در جاده- ترک کردن خانه به معنای پایان پایش و رهگیری شما نیست. دوربینهای چراغ قرمز، ماشینهای هوشمند یا گجتهای سلامتی خودتان گنجی از دادههای شخصی برای فروشندگان دادهها هستند.
بخش 3: خانه جایی است که قلب (پایش) آنجاست- از دوربین ها امنیتی تا شبکههای وای فای و گوشیهای همراه ، جمع آوری داده در خانه شما هم فعال است.
بخش 4: از این جا باید به کجا رفت؟ - صنایع و اشخاص باید محدودیتهای برای خود مشخص کنند، از کدهای اخلاقی گرفته تا قوانین و سامانههای کد گذاری شده.
.
اطلاعات کتابشناختی
Title: Privacy in the Age of Big Data: Recognizing Threats, Defending Your Rights, and Protecting Your Family
Authors: Theresa Payton, Ted Claypoole
Publisher: Rowman & Littlefield, 2014
ISBN: 1442225459, 9781442225459
Length: 259 pages
🎬 معرفی ویدیو:☝️☝️☝️
🗂 #هوش_مصنوعی
ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗂 #هوش_مصنوعی
ویدیو فوق مربوط به گفتگو دو تن از پیشگامان دنیای فناوری بیل گیتس و ایلان ماسک ، درباره آینده هوش مصنوعی است. از نظر هر دو آن ها هوش مصنوعی فناوری است که می تواند خطرات بالقوه فراوانی داشته باشد ، ازین رو تاکید بر مسئله ایمنی در توسعه این فناوری بسیار با اهمیت است.
🗣خبر☝️☝️☝️
🗂#مهندسی_ژنتیک
عنوان: استفاده از تکنیک کریسپر باعث بروز صدها جهش ژنتیکی ناخواسته میشود
منبع: ScienceAlert ( ترجمه وبسایت زومیت)
📌 کریسپر (CRISPR-Cas9) بهعنوان یکی از مهمترین اختراعات پزشکی مدرن شناخته میشود؛ بهگونهای که اکنون رؤیای انجام اصلاح ژنتیکی در جنین انسان بیش از پیش به واقعیت نزدیک شده است. اما این تکنولوژی شاید بیشتر از آنی که قبلا تصور میشد، خطرناک باشد. معرفی تکنولوژی کریسپر، انقلابی در زمینهی علم ویرایش ژنها ایجاد کرد؛ اما اکنون دانشمندان دریافتهاند که همین تکنولوژی باعث وقوع صدها جهش ژنتیکی ناخواسته در ژنوم یک ارگانیسم میشود. با توجه به اینکه هماکنون آزمایشهای بالینی در مورد کریسپر روی انسانها در جریان است، یافتهی اخیر باعث ایجاد نگرانیهای جدی در بین محققان شده است.
استفان تسانگ از مرکز تحقیقات پزشکی دانشگاه کلمبیا، در این مورد میگوید:
ما معتقدیم که ضرورت دارد جامعهی علمی خطرات استفاده از کریسپر را در نظر بگیرد. کریسپر باعث ایجاد جهشهای غیر هدفمند میشود. این جهشها شامل جهشهای تک نوکلئوتیدی و جهش در مناطق غیر کد در ژنوم میشود.
تسانگ به همراه تیم تحقیقاتیاش برای اولین بار به مطالعه و مانیتورینگ کل ژنوم یک ارگانیسم زنده پرداختند؛ ارگانیسمی که پیش از این در آن از روش ویرایش ژنی کریسپر استفاده شده بود. آنها به دنبال کشف جهشهای ژنی ناخواسته در بخشهایی از ارگانیسم بودند که بهکلی با ناحیهی هدف کریسپر غیر مرتبط بودند.در مطالعات در مورد اثرات استفاده از کریسپر در ارگانیسمها، هیچ اثری از جهشهای ناخواسته یافت نشده بود. دلیل این امر شاید به نوع ابزار استفادهشده در این مطالعات برگردد. در مطالعات پیشین از الگوریتمهای رایانهای برای اسکن بخشهایی از ارگانیسم استفاده شده بود که مرتبط با منطقهی هدف بودند و احتمال بروز جهش در آنها، بسته به نوع ویرایش ژنی انجامشده، بیشتر بود.
الکساندر بوساک از دانشگاه آیوا و یکی از اعضای تیم تسانگ، در این مورد اینگونه توضیح میدهد:
زمانی که شما از تکنیک کریسپر در سلولها یا بافتها در ابعاد محدود استفاده میکنید، این الگوریتمهای پیشبینی کننده کار خود را بهخوبی انجام میدهند. اما تاکنون تعیین توالی ژنی جامع در حیوانات زنده با هدف کشف جهشهای ناخواسته در نواحی غیر مرتبط انجام نشده بود.
اگر در جریان اخبار مربوط به کریسپر قرار ندارید، بدانید که صحبتها در مورد توسعهی یک تکنولوژی شگفتانگیز در زمینهی ویرایش ژن از چند سال پیش شروع شد. از آن زمان تاکنون، از کریسپر بهعنوان انقلابی در پزشکی مدرن یاد میشود. دانشمندان با استفاده از تکنولوژی کریسپر قادرند تغییرات خاصی در دیانای انسانها، حیوانات و گیاهان اعمال کنند.
در واقع کریسپر همانند یک ابزار برش و چسباندن (کات و پِیست) است. محققان با استفاده از آن میتوانند ژنهای مشخصی از یک ژنوم را بردارند و آن را با یک دیانای دلخواه جایگزین کنند. به این ترتیب برای مثال میتوان ژنهای معیوب را با انواع سالم جایگزین کرد. بر خلاف دیگر ابداعات دنیای پزشکی، کریسپر با گذشت چندین سال توانسته است انتظارات را برآورده کند و اکنون پزشکان از پتانسیل آن در زمینهها مختلف بهره میبرند. در سالهای اخیر از ابزار کریسپر برای دخالت و اعمال تغییر در مرکز کنترل سرطان در بدن، بهبود جهشهای ژنتیکی عامل کوری، درمان بیماریهای ژنتیکی در حیوانات زنده و حتی در مطالعات مربوط به ویرایش جنین انسان با هدف یافتن علل نازایی و سقط جنین غیر عمدی استفاده شده است.
با اینکه در برخی از مطالعات گذشته نشانههایی از جهشهای غیر هدفمند در اثر استفاده از کریسپر یافت شده بود؛ اما این یافتهها نتوانسته بودند باعث توقف آزمایشهای انسانی کریسپر شوند.اولین مطالعهی بالینی در مورد استفاده از کریسپر در انسان، در کشور چین در حال اجرا است. البته ایالات متحده و بریتانیا از غافله عقب نماندهاند و هر یک در حال پیشبرد مطالعات خود هستند.
در حقیقت بعضی از کارشناسان معتقدند که چین و ایالات متحده وارد یک رقابت جدی در استفاده از تکنولوژی کریسپر شدهاند. کریسپر تبدیل به نسخهی بیولوژیک رقابت فضایی بین قدرتهای جهانی شده است.کارل جوئن، متخصص ایمنیشناسی از دانشگاه پنسیلوانیا و از محققان مشاور تحقیق ملی ایالات متحده، در مورد کریسپر معتقد است:
من فکر میکنم این موضوع در واقع بهنوعی اسپوتنیک ۲ است، کریسپر باعث شروع یک دوئل بیولوژیکی بین چین و ایالات متحده شده است.
🗂#مهندسی_ژنتیک
عنوان: استفاده از تکنیک کریسپر باعث بروز صدها جهش ژنتیکی ناخواسته میشود
منبع: ScienceAlert ( ترجمه وبسایت زومیت)
📌 کریسپر (CRISPR-Cas9) بهعنوان یکی از مهمترین اختراعات پزشکی مدرن شناخته میشود؛ بهگونهای که اکنون رؤیای انجام اصلاح ژنتیکی در جنین انسان بیش از پیش به واقعیت نزدیک شده است. اما این تکنولوژی شاید بیشتر از آنی که قبلا تصور میشد، خطرناک باشد. معرفی تکنولوژی کریسپر، انقلابی در زمینهی علم ویرایش ژنها ایجاد کرد؛ اما اکنون دانشمندان دریافتهاند که همین تکنولوژی باعث وقوع صدها جهش ژنتیکی ناخواسته در ژنوم یک ارگانیسم میشود. با توجه به اینکه هماکنون آزمایشهای بالینی در مورد کریسپر روی انسانها در جریان است، یافتهی اخیر باعث ایجاد نگرانیهای جدی در بین محققان شده است.
استفان تسانگ از مرکز تحقیقات پزشکی دانشگاه کلمبیا، در این مورد میگوید:
ما معتقدیم که ضرورت دارد جامعهی علمی خطرات استفاده از کریسپر را در نظر بگیرد. کریسپر باعث ایجاد جهشهای غیر هدفمند میشود. این جهشها شامل جهشهای تک نوکلئوتیدی و جهش در مناطق غیر کد در ژنوم میشود.
تسانگ به همراه تیم تحقیقاتیاش برای اولین بار به مطالعه و مانیتورینگ کل ژنوم یک ارگانیسم زنده پرداختند؛ ارگانیسمی که پیش از این در آن از روش ویرایش ژنی کریسپر استفاده شده بود. آنها به دنبال کشف جهشهای ژنی ناخواسته در بخشهایی از ارگانیسم بودند که بهکلی با ناحیهی هدف کریسپر غیر مرتبط بودند.در مطالعات در مورد اثرات استفاده از کریسپر در ارگانیسمها، هیچ اثری از جهشهای ناخواسته یافت نشده بود. دلیل این امر شاید به نوع ابزار استفادهشده در این مطالعات برگردد. در مطالعات پیشین از الگوریتمهای رایانهای برای اسکن بخشهایی از ارگانیسم استفاده شده بود که مرتبط با منطقهی هدف بودند و احتمال بروز جهش در آنها، بسته به نوع ویرایش ژنی انجامشده، بیشتر بود.
الکساندر بوساک از دانشگاه آیوا و یکی از اعضای تیم تسانگ، در این مورد اینگونه توضیح میدهد:
زمانی که شما از تکنیک کریسپر در سلولها یا بافتها در ابعاد محدود استفاده میکنید، این الگوریتمهای پیشبینی کننده کار خود را بهخوبی انجام میدهند. اما تاکنون تعیین توالی ژنی جامع در حیوانات زنده با هدف کشف جهشهای ناخواسته در نواحی غیر مرتبط انجام نشده بود.
اگر در جریان اخبار مربوط به کریسپر قرار ندارید، بدانید که صحبتها در مورد توسعهی یک تکنولوژی شگفتانگیز در زمینهی ویرایش ژن از چند سال پیش شروع شد. از آن زمان تاکنون، از کریسپر بهعنوان انقلابی در پزشکی مدرن یاد میشود. دانشمندان با استفاده از تکنولوژی کریسپر قادرند تغییرات خاصی در دیانای انسانها، حیوانات و گیاهان اعمال کنند.
در واقع کریسپر همانند یک ابزار برش و چسباندن (کات و پِیست) است. محققان با استفاده از آن میتوانند ژنهای مشخصی از یک ژنوم را بردارند و آن را با یک دیانای دلخواه جایگزین کنند. به این ترتیب برای مثال میتوان ژنهای معیوب را با انواع سالم جایگزین کرد. بر خلاف دیگر ابداعات دنیای پزشکی، کریسپر با گذشت چندین سال توانسته است انتظارات را برآورده کند و اکنون پزشکان از پتانسیل آن در زمینهها مختلف بهره میبرند. در سالهای اخیر از ابزار کریسپر برای دخالت و اعمال تغییر در مرکز کنترل سرطان در بدن، بهبود جهشهای ژنتیکی عامل کوری، درمان بیماریهای ژنتیکی در حیوانات زنده و حتی در مطالعات مربوط به ویرایش جنین انسان با هدف یافتن علل نازایی و سقط جنین غیر عمدی استفاده شده است.
با اینکه در برخی از مطالعات گذشته نشانههایی از جهشهای غیر هدفمند در اثر استفاده از کریسپر یافت شده بود؛ اما این یافتهها نتوانسته بودند باعث توقف آزمایشهای انسانی کریسپر شوند.اولین مطالعهی بالینی در مورد استفاده از کریسپر در انسان، در کشور چین در حال اجرا است. البته ایالات متحده و بریتانیا از غافله عقب نماندهاند و هر یک در حال پیشبرد مطالعات خود هستند.
در حقیقت بعضی از کارشناسان معتقدند که چین و ایالات متحده وارد یک رقابت جدی در استفاده از تکنولوژی کریسپر شدهاند. کریسپر تبدیل به نسخهی بیولوژیک رقابت فضایی بین قدرتهای جهانی شده است.کارل جوئن، متخصص ایمنیشناسی از دانشگاه پنسیلوانیا و از محققان مشاور تحقیق ملی ایالات متحده، در مورد کریسپر معتقد است:
من فکر میکنم این موضوع در واقع بهنوعی اسپوتنیک ۲ است، کریسپر باعث شروع یک دوئل بیولوژیکی بین چین و ایالات متحده شده است.
اما اکنون محققان دریافتهاند که استفاده از کریسپر بسیار گستردهتر از آن چیزی که قبلا گمانهزنی میشد و باعث بروز جهشهای ژنتیکی ناخواسته در حیوانات میشود. تیم تحقیقاتی تسانگ برای کشف این موضوع تمام ژنوم دو موش آزمایشگاهی را تعیین توالی کردند. این دو موش قبلا در معرض ویرایش ژنتیکی با کریسپر قرار گرفته بودند. آنها به دنبال کوچکترین جهش ناشی از استفاده از این تکنولوژی بودند؛ حتی جهش در یک تک نوکلئوتید، یا همان بلوک اصلی سازندهی دیانای و آرانای.
تسانگ و همکارانش دریافتند که تکنولوژی کریسپر با موفقیت توانسته است ژنهای عامل کوری در موشها را تصحیح کند. اما در اثر استفاده از کریسپر بیش از ۱۵۰۰ جهش ژنتیکی ناخواسته در نوکلئوتید موشها اتفاق افتاده است. تعداد جهشهای بزرگ نیز بیش از ۱۰۰ مورد بوده است. این تیم تحقیقاتی در گزارش خود آورده است:
هیچ کدام از این جهشهای ژنتیکی توسط الگوریتمهای رایانهای که بهطور گسترده توسط محققان استفاده میشود، پیشبینی نشده بود.
البته یافتهی جدید در مورد عوارض جدی استفاده از کریسپر برای ویرایش ژنها باعث نخواهد شد استفاده از این تکنولوژی بهطور کلی کنار گذاشته شود. هماکنون به مطالعات بیشتری برای اثبات این یافتهها نیاز است. نتایج تحقیق اخیر باید در نمونههای بیشتر و انسانها نیز تکرار شود.اما باید اقرار کرد که به نظر میرسد این دستاورد بزرگ پزشکی دارای عوارض بزرگ و جدی طولانیمدت است؛ عوارضی که تاکنون مطالعات محققان موفق به شناسایی آنها نشده بود. اما اکنون آنها باید هشدارهای مربوط به بروز جهشهای ناخواسته در اثر استفاده از کریسپر را جدی بگیرند
تسانگ و همکارانش دریافتند که تکنولوژی کریسپر با موفقیت توانسته است ژنهای عامل کوری در موشها را تصحیح کند. اما در اثر استفاده از کریسپر بیش از ۱۵۰۰ جهش ژنتیکی ناخواسته در نوکلئوتید موشها اتفاق افتاده است. تعداد جهشهای بزرگ نیز بیش از ۱۰۰ مورد بوده است. این تیم تحقیقاتی در گزارش خود آورده است:
هیچ کدام از این جهشهای ژنتیکی توسط الگوریتمهای رایانهای که بهطور گسترده توسط محققان استفاده میشود، پیشبینی نشده بود.
البته یافتهی جدید در مورد عوارض جدی استفاده از کریسپر برای ویرایش ژنها باعث نخواهد شد استفاده از این تکنولوژی بهطور کلی کنار گذاشته شود. هماکنون به مطالعات بیشتری برای اثبات این یافتهها نیاز است. نتایج تحقیق اخیر باید در نمونههای بیشتر و انسانها نیز تکرار شود.اما باید اقرار کرد که به نظر میرسد این دستاورد بزرگ پزشکی دارای عوارض بزرگ و جدی طولانیمدت است؛ عوارضی که تاکنون مطالعات محققان موفق به شناسایی آنها نشده بود. اما اکنون آنها باید هشدارهای مربوط به بروز جهشهای ناخواسته در اثر استفاده از کریسپر را جدی بگیرند
📝یادداشت
عنوان: مسابقه ربط
نویسنده: اندرو لوئیس
مترجم: ابوطالب صفدری
بهارِ ۱۹۹۴ بود که نیکلاس نگروپونته[۱] شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب[۲] -که محصول اندیشههای او بود- و هم تعدادی از طراحانِ جوان تراشه و صنعتگرانِ حوزۀ واقعیتِ مجازی، به شکل دیوانهواری سرگرم خلقِ ابزارها و وسایلِ آینده بودند. اما نگروپونته عمیقاً درگیرِ یک مسئلۀ دیگر بود، مسئلهای سادهتر که میلیونها انسان هر روز به آن فکر میکردند: اینکه چه برنامهای را در تلویزیون تماشا کنند.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/Soh8Y7
عنوان: مسابقه ربط
نویسنده: اندرو لوئیس
مترجم: ابوطالب صفدری
بهارِ ۱۹۹۴ بود که نیکلاس نگروپونته[۱] شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب[۲] -که محصول اندیشههای او بود- و هم تعدادی از طراحانِ جوان تراشه و صنعتگرانِ حوزۀ واقعیتِ مجازی، به شکل دیوانهواری سرگرم خلقِ ابزارها و وسایلِ آینده بودند. اما نگروپونته عمیقاً درگیرِ یک مسئلۀ دیگر بود، مسئلهای سادهتر که میلیونها انسان هر روز به آن فکر میکردند: اینکه چه برنامهای را در تلویزیون تماشا کنند.
متن کامل یادداشت در لینک زیر:👇👇👇
https://goo.gl/Soh8Y7
اندیشکده مهاجر
مسابقۀ ربط - اندیشکده مهاجر
بهارِ 1994 بود که نیکلاس نگروپونته شروع کرد به فکر کردن و نوشتن. هم نگروپونته، هم مدیا لب -که محصول اندیشههای او بو جوان تراشه و صنعتگرانِ
🎬 معرفی ویدیو ☝️☝️☝️
🗂#اخلاق_زیستی #سقط_جنین
دکتر مگی لیتل (Maggie Little) ریاست انستیتو اخلاق کندی (Kennedy Institute of Ethics) در دانشگاه جرج تاون است . ایشان در این ویدیو به مسائل اخلاقی مربوط به دخالت در مراحل جنینی زندگی انسان میپردازد. با ظهور فناوریهای تولید مثل اشتراکی (collaborative reproduction) امکان دخالت چندین فرد ( اهدا کننده اسپرم، اهدا کننده تخمک، مادرجایگزین، والدین اجتماعی ) در تولد یک نوزاد فراهم شده است. ازین رو این فناوری درک ما از مفهوم والدین بودن و حقوق و وظایفی که در نسبت با آن تعریف میشوند را تغییر داده است. از سوی دیگر این فناوریهای به شدت مستعد تجاری شدن هستند و این فرصت را برای افراد تاجر مسلک فراهم کردهاند که به خرید فروش رویانهای فریز شده انسان بپردازند. قوانین نیز در این زمینه هنوز دارای نواقصی هستند و به خصوص در مسائل مربوط به مادر جایگزین (surrogate) به تناقضات بین قوانین اساسی هر فرد و قوانین قراردادی منجر می شوند. درنهایت موضوع سقط جنین برای پایان دادن به زندگی نوزاد های متولد نشده هم به بحثها و گفتگوهای دراز دامنی مابین طرفدارن حق حیات و طرفداران حق انتخاب منجر شده است. از نظر دکتر لیتل این بحث متکثرترین و دشوار ترین مسئله در اخلاق زیستی است. از نظر ایشان آنچه در این بین اهمیت دارد فروتنی هر دو طرف برای شنیدن حرف های طرف مقابل و افزودن بر بصیرت خود جهت مواجه با این سوال دشوار است.
🗂#اخلاق_زیستی #سقط_جنین
دکتر مگی لیتل (Maggie Little) ریاست انستیتو اخلاق کندی (Kennedy Institute of Ethics) در دانشگاه جرج تاون است . ایشان در این ویدیو به مسائل اخلاقی مربوط به دخالت در مراحل جنینی زندگی انسان میپردازد. با ظهور فناوریهای تولید مثل اشتراکی (collaborative reproduction) امکان دخالت چندین فرد ( اهدا کننده اسپرم، اهدا کننده تخمک، مادرجایگزین، والدین اجتماعی ) در تولد یک نوزاد فراهم شده است. ازین رو این فناوری درک ما از مفهوم والدین بودن و حقوق و وظایفی که در نسبت با آن تعریف میشوند را تغییر داده است. از سوی دیگر این فناوریهای به شدت مستعد تجاری شدن هستند و این فرصت را برای افراد تاجر مسلک فراهم کردهاند که به خرید فروش رویانهای فریز شده انسان بپردازند. قوانین نیز در این زمینه هنوز دارای نواقصی هستند و به خصوص در مسائل مربوط به مادر جایگزین (surrogate) به تناقضات بین قوانین اساسی هر فرد و قوانین قراردادی منجر می شوند. درنهایت موضوع سقط جنین برای پایان دادن به زندگی نوزاد های متولد نشده هم به بحثها و گفتگوهای دراز دامنی مابین طرفدارن حق حیات و طرفداران حق انتخاب منجر شده است. از نظر دکتر لیتل این بحث متکثرترین و دشوار ترین مسئله در اخلاق زیستی است. از نظر ایشان آنچه در این بین اهمیت دارد فروتنی هر دو طرف برای شنیدن حرف های طرف مقابل و افزودن بر بصیرت خود جهت مواجه با این سوال دشوار است.