کارگروه اخلاق و فناوری اندیشکدۀ مهاجر دانشگاه صنعتی شریف برگزار میکند:
سلسله نشست های هنر و تکنولوژی
نشست اول: از چرخدنده تا دریاچه
نگاهی به اثر ادبی "والدن" اثر هنری دیوید ثورو
@ethics_technology
سلسله نشست های هنر و تکنولوژی
نشست اول: از چرخدنده تا دریاچه
نگاهی به اثر ادبی "والدن" اثر هنری دیوید ثورو
@ethics_technology
Forwarded from Deleted Account
اندیشکده هاتف برگزار می کند:
سلسله نشست های «آغازنامه»
نشست نخست: اخلاق اطلاعات؛ امکان سنجی ارزیابی اخلاقی بیت کوین
زمان: یکشنبه 20 اسفند، ساعت 15
@hatef_tt
سلسله نشست های «آغازنامه»
نشست نخست: اخلاق اطلاعات؛ امکان سنجی ارزیابی اخلاقی بیت کوین
زمان: یکشنبه 20 اسفند، ساعت 15
@hatef_tt
☝️☝️☝️☝️☝️کتاب Hamlet’s BlackBerry: Building a Good Life in the Digital Age.، اثر ویلیام پاورز، سخنرانِ اسکایپی نشستِ هنر و تکنولوژیِ کارگروه اخلاق و فناوری اندیشکده مهاجر. این کتاب یکی از پرفروش ترین های نیویورک تایمز محسوب میشود.
Forwarded from تقاطع اخلاق و فناوری
کارگروه اخلاق و فناوری اندیشکدۀ مهاجر دانشگاه صنعتی شریف برگزار میکند:
سلسله نشست های هنر و تکنولوژی
نشست اول: از چرخدنده تا دریاچه
نگاهی به اثر ادبی "والدن" اثر هنری دیوید ثورو
@ethics_technology
سلسله نشست های هنر و تکنولوژی
نشست اول: از چرخدنده تا دریاچه
نگاهی به اثر ادبی "والدن" اثر هنری دیوید ثورو
@ethics_technology
👆🏻👆🏻👆🏻 چند عکس از نشست اول "هنر و تکنولوژی"، نگاهی به اثر ادبی "والدن" اثر هنری دیوید ثورو. گزارش تکمیلی و فایل صوتی ارائه ها متعاقبا در کانال "تقاطع اخلاق و فناوری" قرار داده می شوند.
@ethics_technology
@ethics_technology
📝 یادداشت
هاوکینگ و هوش مصنوعی
✏️ مهدی خلیلی
🔸 #استیون_هاوکینگ فیزیکدان انگلیسی چند روزی است که دیگر در قید حیات نیست. این روزها درباره افکار علمی و فلسفی این دانشمند بحث و گفتگوهایی شکل گرفته است ولی وجهی از نگرانی ها و دغدغه های او مورد توجه جدی مطبوعات ایرانی قرار نگرفته است. در این یادداشت کوتاه بر آنم که به این وجه، یعنی نگرانی های هاوکینگ نسبت به رشد فناوری های #هوش_مصنوعی و آینده بشریت، بپردازم.
🔸مقدمتا باید یادآور شد که هاوکینگ مشاورِ #موسسه_آینده_زندگی بوده است. این موسسه که در بوستن واقع شده است، در جهت کاهشِ #مخاطره_های_وجودی که بشریت را تهدید می کنند، خصوصا مخاطرات وجودی ناشی از هوش مصنوعی پیشرفته، کارِ پژوهشی و ترویجی انجام می دهد. این موسسه توسط کسانی چون مکس تگمارک (کیهانشناسی دانشگاه ام آی تی) و جان تالین (یکی از بنیانگذاران اسکایپ) در مارس 2014 پایه گذاری شده است، و دارای چهارده مشاور تراز اولی چون استیون هاوکینگ و ایلون ماسک (کارآفرین و طراحِ اسپیس ایکس و تسلا)، استوآرت راسل (دانشمند علوم کامپیوتر)، جورج چرچ (زیست شناس)، فرانک ویلزک (فیزکدان نظری)، و مورگان فریمن (بازیگر و فیلم ساز) است.
🔸از اقدامات این موسسه می توان به کنفرانس «آینده ی هوش مصنوعی: فرصت ها و چالش ها» اشاره کرد که از دوم تا پنجم ژانویه ی سال 2015 برگزار شد و نخبگان هوش مصنوعی جهان و فعالان اقتصادی، حقوقی، و اخلاقی را دور هم جمع کرد تا هدف های منفعت بخش هوش مصنوعی را تعیین کنند. در این کنفرانس متنی زیرعنوان «نامه سرگشوده درباره ایمنی هوش مصنوعی» مطرح شد و به امضای کسانی چون هاوکینگ و ماسک و کارشناسانی از هوش مصنوعی رسید. از دیگر اقدامات این موسسه می توان به فاند 10 میلیون دلاری آن (که توسط ماسک پشتیبانی می شد) اشاره کرد که از پژوهش های حوزه هوش مصنوعی که "امن تر" بوده و برای "جامعه" مفید فایده باشند حمایت می کرد.
🔸از اقدامات هاوکینگ در ارتباط با نگرانی او نسبت به آینده فناوری هوش مصنوعی می توان به مصاحبه ها و یادداشت ها او در رسانه ها نام برد که در آنها او به نگرانی خود در قبال پیشرفت هوش مصنوعی می پردازد. به عقیده ی هاوکینگ از آن جا که سرعت تکاملی رشد انسان بسیار کند، و از سوی دیگر سرعت پیشرفت تکنولوژی هوش مصنوعی می تواند بسیار سریع باشد، این نگرانی وجود دارد که عامل های هوشمند بر انسان مستولی شوند. در یادداشتی که به نام هاوکینگ، تگمارک، راسل، و ویلزک در «هافینگتن پست» نگاشته شده اند با اشاره به فیلم ترنسندنس (2014) بیان می شود که هیچ حدی برای پیشرفت هوش مصنوعی وجود ندارد و این می تواند به مساله ای بینجامد که ورنر وینگ منحصربفردی (Singularity)، و دکتر ویل کستر (شخصیت جانی دپ در فیلم) فراروی (Transcendence) می نامد.
🔸هاوکینگ معتقد است اگرچه محصولات اولیه هوش مصنوعی کاملا مفید بوده اند، آینده ی هوش مصنوعی مخاطره آمیز می نماید، و برای دوری از این مخاطرات باید آموخت که چگونه از آن ها پرهیز کرد تا بجای اینکه هوش مصنوعی در خدمت ساختِ سلاح های هوشمندِ نابودگر باشد در خدمت عموم جامعه قرار گیرد. به عقیده هاوکینگ تاثیر کوتاه مدت هوش مصنوعی به این که چه کسی آن را کنترل می کند وابسته است، و تاثیر طولانی مدت آن به این وابسته است که آیا اصلا می توان آن را کنترل کرد یا نه.
https://goo.gl/xBNaoP
چند منبع در این رابطه:
https://en.wikipedia.org/wiki/Future_of_Life_Institute
https://en.wikipedia.org/wiki/Open_Letter_on_Artificial_Intelligence
https://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html
https://www.youtube.com/watch?v=fFLVyWBDTfo
🔹پی نوشت: بجز #موسسه_آینده_زندگی (Future of Life Institute) که در این متن به آن اشاره شد موسسه های معتبر دیگری در جهان به مساله مخاطرات وجودی هوش مصنوعی و آینده ی بشریت می پردازند که در این رابطه می توان به موسساتی چون #مرکز_کمبریج_برای_مطالعه_مخاطره_وجودی (Cambridge Centre for the Study of Existential Risk)، #موسسه_آینده_بشریت (Future of Humanity Institute)، و #موسسه_پژوهش_هوش_ماشین (Machine Intelligence Research Institute) نیز اشاره کرد.
@ethics_technology
هاوکینگ و هوش مصنوعی
✏️ مهدی خلیلی
🔸 #استیون_هاوکینگ فیزیکدان انگلیسی چند روزی است که دیگر در قید حیات نیست. این روزها درباره افکار علمی و فلسفی این دانشمند بحث و گفتگوهایی شکل گرفته است ولی وجهی از نگرانی ها و دغدغه های او مورد توجه جدی مطبوعات ایرانی قرار نگرفته است. در این یادداشت کوتاه بر آنم که به این وجه، یعنی نگرانی های هاوکینگ نسبت به رشد فناوری های #هوش_مصنوعی و آینده بشریت، بپردازم.
🔸مقدمتا باید یادآور شد که هاوکینگ مشاورِ #موسسه_آینده_زندگی بوده است. این موسسه که در بوستن واقع شده است، در جهت کاهشِ #مخاطره_های_وجودی که بشریت را تهدید می کنند، خصوصا مخاطرات وجودی ناشی از هوش مصنوعی پیشرفته، کارِ پژوهشی و ترویجی انجام می دهد. این موسسه توسط کسانی چون مکس تگمارک (کیهانشناسی دانشگاه ام آی تی) و جان تالین (یکی از بنیانگذاران اسکایپ) در مارس 2014 پایه گذاری شده است، و دارای چهارده مشاور تراز اولی چون استیون هاوکینگ و ایلون ماسک (کارآفرین و طراحِ اسپیس ایکس و تسلا)، استوآرت راسل (دانشمند علوم کامپیوتر)، جورج چرچ (زیست شناس)، فرانک ویلزک (فیزکدان نظری)، و مورگان فریمن (بازیگر و فیلم ساز) است.
🔸از اقدامات این موسسه می توان به کنفرانس «آینده ی هوش مصنوعی: فرصت ها و چالش ها» اشاره کرد که از دوم تا پنجم ژانویه ی سال 2015 برگزار شد و نخبگان هوش مصنوعی جهان و فعالان اقتصادی، حقوقی، و اخلاقی را دور هم جمع کرد تا هدف های منفعت بخش هوش مصنوعی را تعیین کنند. در این کنفرانس متنی زیرعنوان «نامه سرگشوده درباره ایمنی هوش مصنوعی» مطرح شد و به امضای کسانی چون هاوکینگ و ماسک و کارشناسانی از هوش مصنوعی رسید. از دیگر اقدامات این موسسه می توان به فاند 10 میلیون دلاری آن (که توسط ماسک پشتیبانی می شد) اشاره کرد که از پژوهش های حوزه هوش مصنوعی که "امن تر" بوده و برای "جامعه" مفید فایده باشند حمایت می کرد.
🔸از اقدامات هاوکینگ در ارتباط با نگرانی او نسبت به آینده فناوری هوش مصنوعی می توان به مصاحبه ها و یادداشت ها او در رسانه ها نام برد که در آنها او به نگرانی خود در قبال پیشرفت هوش مصنوعی می پردازد. به عقیده ی هاوکینگ از آن جا که سرعت تکاملی رشد انسان بسیار کند، و از سوی دیگر سرعت پیشرفت تکنولوژی هوش مصنوعی می تواند بسیار سریع باشد، این نگرانی وجود دارد که عامل های هوشمند بر انسان مستولی شوند. در یادداشتی که به نام هاوکینگ، تگمارک، راسل، و ویلزک در «هافینگتن پست» نگاشته شده اند با اشاره به فیلم ترنسندنس (2014) بیان می شود که هیچ حدی برای پیشرفت هوش مصنوعی وجود ندارد و این می تواند به مساله ای بینجامد که ورنر وینگ منحصربفردی (Singularity)، و دکتر ویل کستر (شخصیت جانی دپ در فیلم) فراروی (Transcendence) می نامد.
🔸هاوکینگ معتقد است اگرچه محصولات اولیه هوش مصنوعی کاملا مفید بوده اند، آینده ی هوش مصنوعی مخاطره آمیز می نماید، و برای دوری از این مخاطرات باید آموخت که چگونه از آن ها پرهیز کرد تا بجای اینکه هوش مصنوعی در خدمت ساختِ سلاح های هوشمندِ نابودگر باشد در خدمت عموم جامعه قرار گیرد. به عقیده هاوکینگ تاثیر کوتاه مدت هوش مصنوعی به این که چه کسی آن را کنترل می کند وابسته است، و تاثیر طولانی مدت آن به این وابسته است که آیا اصلا می توان آن را کنترل کرد یا نه.
https://goo.gl/xBNaoP
چند منبع در این رابطه:
https://en.wikipedia.org/wiki/Future_of_Life_Institute
https://en.wikipedia.org/wiki/Open_Letter_on_Artificial_Intelligence
https://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html
https://www.youtube.com/watch?v=fFLVyWBDTfo
🔹پی نوشت: بجز #موسسه_آینده_زندگی (Future of Life Institute) که در این متن به آن اشاره شد موسسه های معتبر دیگری در جهان به مساله مخاطرات وجودی هوش مصنوعی و آینده ی بشریت می پردازند که در این رابطه می توان به موسساتی چون #مرکز_کمبریج_برای_مطالعه_مخاطره_وجودی (Cambridge Centre for the Study of Existential Risk)، #موسسه_آینده_بشریت (Future of Humanity Institute)، و #موسسه_پژوهش_هوش_ماشین (Machine Intelligence Research Institute) نیز اشاره کرد.
@ethics_technology
🎬#آیندۀ_تکنولوژی
🗂#مخاطرات_فناوری_برای_انسان_و_دیگر_گونهها
🔴 بیل جوی، تکنولوژیست و آینده پژوه مشهور آمریکایی، در این ویدئو دربارۀ نگرانی ها و امیدهای مربوط به آیندۀ انسان، حوزۀ سلامت، آموزش و پرورش و تکنولوژی سخن می گوید.
او پیشتر در سال 2000 با انتشار مقاله ای مشهور با نام "چرا آینده نیازی به ما ندارد" نیز نگرانی های خود از گسترش فناوری های قدرتمند در قرن بیست و یکم را بیان کرده است.
https://www.aparat.com/v/nyRtf
🔴 Why The Future Doesn't Need Us:
(https://goo.gl/Lsoxka)
(https://news.1rj.ru/str/ethics_technology/364)
#Bill_Joy
#Ted_Talk
🗂#مخاطرات_فناوری_برای_انسان_و_دیگر_گونهها
🔴 بیل جوی، تکنولوژیست و آینده پژوه مشهور آمریکایی، در این ویدئو دربارۀ نگرانی ها و امیدهای مربوط به آیندۀ انسان، حوزۀ سلامت، آموزش و پرورش و تکنولوژی سخن می گوید.
او پیشتر در سال 2000 با انتشار مقاله ای مشهور با نام "چرا آینده نیازی به ما ندارد" نیز نگرانی های خود از گسترش فناوری های قدرتمند در قرن بیست و یکم را بیان کرده است.
https://www.aparat.com/v/nyRtf
🔴 Why The Future Doesn't Need Us:
(https://goo.gl/Lsoxka)
(https://news.1rj.ru/str/ethics_technology/364)
#Bill_Joy
#Ted_Talk
آپارات - سرویس اشتراک ویدیو
سخنرانی بیل جوی Bill Joy
بیل جوی، تکنولوژیست و آینده پژوه مشهور، دربارۀ نگرانی ها و امیدهایی مربوط به آینده انسان، حوزۀ سلامت، آموزش و پرورش و تکنولوژی سخن می گوید.
در مورد فیلترینگ شبکه های اجتماعی و محتوای وب با کدام یک از گزینه های زیر موافقید؟
سیاستهای فعلی فیلترینگ روشن و مبتنی بر خواست عمومی نیست. اگر این سیاستها شفاف و مبتنی بر خواست عمومی گردد، با فیلترینگ موافقم. – 40
👍👍👍👍👍👍👍 59%
با هر نوع فیلترینگی مخالفم. مردم باید خود انتخاب کنند که به چه محتوایی دسترسی داشته یا نداشته باشند. – 18
👍👍👍 26%
با فیلترینگ به همین نحو که در کشور در حال اجراست موافقم. – 10
👍👍 15%
👥 68 people voted so far.
سیاستهای فعلی فیلترینگ روشن و مبتنی بر خواست عمومی نیست. اگر این سیاستها شفاف و مبتنی بر خواست عمومی گردد، با فیلترینگ موافقم. – 40
👍👍👍👍👍👍👍 59%
با هر نوع فیلترینگی مخالفم. مردم باید خود انتخاب کنند که به چه محتوایی دسترسی داشته یا نداشته باشند. – 18
👍👍👍 26%
با فیلترینگ به همین نحو که در کشور در حال اجراست موافقم. – 10
👍👍 15%
👥 68 people voted so far.