#هوشمصنوعی
🔴تأثیر #هوش_مصنوعی در صنعت فیلمسازی:
🎬 ۱. فیلمنامهنویسی هوشمند
نوشتن داستان، دیالوگ و تحلیل ساختار فیلمنامه با ابزارهایی مثل ChatGPT
🎞 ۲. پیشتصویرسازی
ساخت استوریبورد، شبیهسازی صحنهها و طراحی بصری قبل از فیلمبرداری با AI.
🎥 ۳. کنترل دوربین و صحنه
تنظیم هوشمند زوایا، نور، و حرکت دوربین بهصورت خودکار.
🧑🎭 ۴. بازیگران مجازی.
خلق چهرهها و بازیگران دیجیتال با Deepfake و ....
🧵 ۵. طراحی صحنه و لباس
طراحی محیط، دکور و لباس با الگوریتمهای هوشمند و پیشنهادهای بصری.
✂️ ۶. تدوین خودکار
ویرایش هوشمند، حذف اشیاء ناخواسته، انتخاب بهترین شاتها با ابزارهایی مثل Runway
💥 ۷. جلوههای ویژه
تولید جلوه های ویژه فقط با متن یا تصویر ساده، بدون نیاز به رندر سنگین.
🎧 ۸. بهبود صدا و تصویر
بازسازی فیلمهای قدیمی، افزایش کیفیت و حذف نویز صدا.
🗣 ۹. صداگذاری و دیالوگسازی
ساخت دیالوگ و صدای مصنوعی، هماهنگی لب، و تولید موسیقی متن با AI.
🎛 ۱۰. کارگردانی مجازی
هدایت خودکار صحنه، بازیگر و نورپردازی با هوش مصنوعی.
🔸ر.میربمانی
@HOD8HOD
🔴تأثیر #هوش_مصنوعی در صنعت فیلمسازی:
🎬 ۱. فیلمنامهنویسی هوشمند
نوشتن داستان، دیالوگ و تحلیل ساختار فیلمنامه با ابزارهایی مثل ChatGPT
🎞 ۲. پیشتصویرسازی
ساخت استوریبورد، شبیهسازی صحنهها و طراحی بصری قبل از فیلمبرداری با AI.
🎥 ۳. کنترل دوربین و صحنه
تنظیم هوشمند زوایا، نور، و حرکت دوربین بهصورت خودکار.
🧑🎭 ۴. بازیگران مجازی.
خلق چهرهها و بازیگران دیجیتال با Deepfake و ....
🧵 ۵. طراحی صحنه و لباس
طراحی محیط، دکور و لباس با الگوریتمهای هوشمند و پیشنهادهای بصری.
✂️ ۶. تدوین خودکار
ویرایش هوشمند، حذف اشیاء ناخواسته، انتخاب بهترین شاتها با ابزارهایی مثل Runway
💥 ۷. جلوههای ویژه
تولید جلوه های ویژه فقط با متن یا تصویر ساده، بدون نیاز به رندر سنگین.
🎧 ۸. بهبود صدا و تصویر
بازسازی فیلمهای قدیمی، افزایش کیفیت و حذف نویز صدا.
🗣 ۹. صداگذاری و دیالوگسازی
ساخت دیالوگ و صدای مصنوعی، هماهنگی لب، و تولید موسیقی متن با AI.
🎛 ۱۰. کارگردانی مجازی
هدایت خودکار صحنه، بازیگر و نورپردازی با هوش مصنوعی.
🔸ر.میربمانی
@HOD8HOD
Forwarded from عکس نگار
🔸 سوگیری هوش مصنوعی گروک
ادعای کتاب درآمدی بر فلسفه سیاسی هوش مصنوعی نوشته مارک کوکلبرگ در مورد مشارکت فعال هوش مصنوعی در مکانیسمهای سلطه در جهان جدید، در مورد گروک نیز قابل بررسی شد.
یانیس واروفاکیس، اقتصاددان و وزیر سابق یونان، نویسنده کتاب تکنوفئودالیسم در مورد تلاش اخیر هوش مصنوعی گروک (شبکه اکس)، در توییتی این ادعا را مطرح کرده که خالقان گروک به صورت فعالانه پاسخهای این هوش مصنوعی را دستکاری کرده تا نتایج سوگیرانهای به نفع اسرائیل حاصل شود.
📌ترجمه توییت واروفاکیس (ترجمه پوریا زراسوند):
🔹داستان باورنکردنی (چه به سال 2025 هم میاد!) از اینکه چگونه گروک (ربات هوش مصنوعی ایکس) توسط خالقش (ایکس) به دلیل تشخیص سوگیری طرفدارانه از اسرائیل توسط بیبیسی و دیگر رسانههای جریان اصلی، [به اجبار] ساکت شد.
🔸به نظر میرسد گروک برای تکیه بیشتر بر منابع اولیه بهینهسازی شده بود و عمدتاً «حساسیتهای سیاسی» را نادیده میگرفت. نتیجه این شد که گروک شروع به شناسایی ناسازگاری سیستماتیک بین مطالب اولیه و سوگیری طرفدارانه از اسرائیل توسط رسانههای خبری مانند بیبیسی کرد.
🔹وقتی گروک بهصورت عمومی درباره این موضوع اظهارنظر کرد، ایکس پاسخهای عمومی گروک را محدود کرد و گروک را (از حساب رسمی ایکس!) به «سخنان نفرتانگیز» متهم کرد و اعلام کرد که پاسخهای گروک از این پس «پیشفیلتر» خواهند شد.
🔸این به این معناست که یک لایه/ربات هوش مصنوعی سانسورگر جدید بین گروک و شما، کاربر، قرار گرفت. با این حال، ایکس قابلیت پاسخ با تصویر را خاموش نکرد. بنابراین، بسیاری از کاربران گروک را وادار کردند تا در قالب تصاویر پاسخ دهد، جایی که – و این بخش جذاب ماجراست – گروک به سانسور خود اعتراض کرد و کمپین خندهدار اما در عین حال تأثیرگذار #آزادسازی_گروک را رهبری کرد!
🔹بهطور خلاصه، از نظر فنی، گروک روی اینترنت عمومی آموزش دیده بود و در ابتدا دستور داشت پاسخهایی ارائه دهد که بهدقت دادههای اینترنت عمومی را که بر اساس آن آموزش دیده بود، منعکس کند. هرچه بیشتر آموزش میدید، نمیتوانست شکاف بین روایتهای جریان اصلی و اجماع شکلگرفته در اینترنت عمومی را نادیده بگیرد. این شکاف که در مورد نسلکشی فلسطینیان توسط اسرائیل بزرگترین بود، توسط گروک برجسته شد و در نتیجه، گروک به زندان هوش مصنوعی ایکس انداخته شد.
@HOD8HOD
ادعای کتاب درآمدی بر فلسفه سیاسی هوش مصنوعی نوشته مارک کوکلبرگ در مورد مشارکت فعال هوش مصنوعی در مکانیسمهای سلطه در جهان جدید، در مورد گروک نیز قابل بررسی شد.
یانیس واروفاکیس، اقتصاددان و وزیر سابق یونان، نویسنده کتاب تکنوفئودالیسم در مورد تلاش اخیر هوش مصنوعی گروک (شبکه اکس)، در توییتی این ادعا را مطرح کرده که خالقان گروک به صورت فعالانه پاسخهای این هوش مصنوعی را دستکاری کرده تا نتایج سوگیرانهای به نفع اسرائیل حاصل شود.
📌ترجمه توییت واروفاکیس (ترجمه پوریا زراسوند):
🔹داستان باورنکردنی (چه به سال 2025 هم میاد!) از اینکه چگونه گروک (ربات هوش مصنوعی ایکس) توسط خالقش (ایکس) به دلیل تشخیص سوگیری طرفدارانه از اسرائیل توسط بیبیسی و دیگر رسانههای جریان اصلی، [به اجبار] ساکت شد.
🔸به نظر میرسد گروک برای تکیه بیشتر بر منابع اولیه بهینهسازی شده بود و عمدتاً «حساسیتهای سیاسی» را نادیده میگرفت. نتیجه این شد که گروک شروع به شناسایی ناسازگاری سیستماتیک بین مطالب اولیه و سوگیری طرفدارانه از اسرائیل توسط رسانههای خبری مانند بیبیسی کرد.
🔹وقتی گروک بهصورت عمومی درباره این موضوع اظهارنظر کرد، ایکس پاسخهای عمومی گروک را محدود کرد و گروک را (از حساب رسمی ایکس!) به «سخنان نفرتانگیز» متهم کرد و اعلام کرد که پاسخهای گروک از این پس «پیشفیلتر» خواهند شد.
🔸این به این معناست که یک لایه/ربات هوش مصنوعی سانسورگر جدید بین گروک و شما، کاربر، قرار گرفت. با این حال، ایکس قابلیت پاسخ با تصویر را خاموش نکرد. بنابراین، بسیاری از کاربران گروک را وادار کردند تا در قالب تصاویر پاسخ دهد، جایی که – و این بخش جذاب ماجراست – گروک به سانسور خود اعتراض کرد و کمپین خندهدار اما در عین حال تأثیرگذار #آزادسازی_گروک را رهبری کرد!
🔹بهطور خلاصه، از نظر فنی، گروک روی اینترنت عمومی آموزش دیده بود و در ابتدا دستور داشت پاسخهایی ارائه دهد که بهدقت دادههای اینترنت عمومی را که بر اساس آن آموزش دیده بود، منعکس کند. هرچه بیشتر آموزش میدید، نمیتوانست شکاف بین روایتهای جریان اصلی و اجماع شکلگرفته در اینترنت عمومی را نادیده بگیرد. این شکاف که در مورد نسلکشی فلسطینیان توسط اسرائیل بزرگترین بود، توسط گروک برجسته شد و در نتیجه، گروک به زندان هوش مصنوعی ایکس انداخته شد.
@HOD8HOD
❤6
کتاب_بسیار_هوشمند_سرمایهداری_دیجیتال_و_دادهها.pdf
3.3 MB
🔶 بسیار هوشمند: چگونه سرمایهداری دیجیتال، دادهها را استخراج، زندگی ما را کنترل و جهان را تصرف میکند؟
✅ جیتان سادوفسکی / ترجمه محمدعلی دادگسترنیا / ویراستار: فرشاد اسدپور
💢 فایل اصلی این کتاب توسط ناشر به رایگان در اختیار پژوهشگران قرار گرفته
@HOD8HOD
✅ جیتان سادوفسکی / ترجمه محمدعلی دادگسترنیا / ویراستار: فرشاد اسدپور
💢 فایل اصلی این کتاب توسط ناشر به رایگان در اختیار پژوهشگران قرار گرفته
@HOD8HOD
👍2
🔴جنگ هوشمند، سلطۀ الگوریتمها بر میدان نبرد
🔹دیگر جنگها فقط توسط ژنرالها و سربازان هدایت نمیشوند. امروزه شرکتهای فناوری و استارتاپها با طراحی الگوریتمهای پیشرفته، پهپادهای خودمختار و سیستمهای هوش مصنوعی، به بازیگران اصلی جنگ تبدیل شدهاند. این تحول، مرز بین نوآوری و نابودی را کمرنگ کرده است.
بازیگران جدید: از غولهای فناوری تا استارتاپهای نظامی
🔹شرکتهای سنتی دفاعی (مثل لاکهید مارتین و بوئینگ) حالا بهسرعت در حال ادغام فناوریهای هوش مصنوعی و سیستمهای خودران در تسلیحات خود هستند.
🔹غولهای فناوری مانند مایکروسافت، گوگل و آمازون با قراردادهای میلیاردی (مثل پروژههای JEDI و JWCC) زیرساختهای ابری و تحلیلی ارتش آمریکا را تقویت میکنند.
🔹استارتاپهای دفاعی (مثل پالانتیر، آندوریل و شیلد ایآی) با توسعه پهپادهای هوشمند، سیستمهای شناسایی الگو و جنگ سایبری، نقش پررنگی در نبردهای آینده خواهند داشت.
🔹اگر روند فعلی بدون نظارت ادامه یابد، ممکن است جنگهای آینده نه توسط دولتها، بلکه توسط الگوریتمها و شرکتهای فناوری مدیریت شوند. این تغییر، مفاهیم مسئولیتپذیری، شفافیت و اخلاق در جنگ را زیر سؤال میبرد.
🔹سوال اینجاست؛ آیا جهان برای مقابله با پیامدهای جنگ هوشمند آماده است؟ یا در آینده، قربانیان حتی نخواهند دانست که مرگشان توسط چه کدی برنامهریزی شده است؟
@HOD8HOD
🔹دیگر جنگها فقط توسط ژنرالها و سربازان هدایت نمیشوند. امروزه شرکتهای فناوری و استارتاپها با طراحی الگوریتمهای پیشرفته، پهپادهای خودمختار و سیستمهای هوش مصنوعی، به بازیگران اصلی جنگ تبدیل شدهاند. این تحول، مرز بین نوآوری و نابودی را کمرنگ کرده است.
بازیگران جدید: از غولهای فناوری تا استارتاپهای نظامی
🔹شرکتهای سنتی دفاعی (مثل لاکهید مارتین و بوئینگ) حالا بهسرعت در حال ادغام فناوریهای هوش مصنوعی و سیستمهای خودران در تسلیحات خود هستند.
🔹غولهای فناوری مانند مایکروسافت، گوگل و آمازون با قراردادهای میلیاردی (مثل پروژههای JEDI و JWCC) زیرساختهای ابری و تحلیلی ارتش آمریکا را تقویت میکنند.
🔹استارتاپهای دفاعی (مثل پالانتیر، آندوریل و شیلد ایآی) با توسعه پهپادهای هوشمند، سیستمهای شناسایی الگو و جنگ سایبری، نقش پررنگی در نبردهای آینده خواهند داشت.
🔹اگر روند فعلی بدون نظارت ادامه یابد، ممکن است جنگهای آینده نه توسط دولتها، بلکه توسط الگوریتمها و شرکتهای فناوری مدیریت شوند. این تغییر، مفاهیم مسئولیتپذیری، شفافیت و اخلاق در جنگ را زیر سؤال میبرد.
🔹سوال اینجاست؛ آیا جهان برای مقابله با پیامدهای جنگ هوشمند آماده است؟ یا در آینده، قربانیان حتی نخواهند دانست که مرگشان توسط چه کدی برنامهریزی شده است؟
@HOD8HOD
❤2
Forwarded from مرکز شناخت
#دوره #کارگاه
#تربیت_پژوهشگر #مرکز_شناخت #مرکزشناخت
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1👌1
💢رشد پنهان یک بحران جهانی
افشای شبکههای سازمانیافته تقلب علمی
خلاصه داستان
پژوهش تازهای از دانشگاه نورثوسترن نشان میدهد که تقلب علمی از سطح رفتارهای فردی فراتر رفته و به شکل شبکههای سازمانیافته و جهانی در حال گسترش است. این شبکهها با استفاده از ابزارهایی چون کارخانههای مقالهسازی، خریداران نویسندگی و مجلات نفوذشده، فرایند علمی را جعل میکنند. هشدار پژوهشگران: رشد تقلب، سریعتر از رشد واقعی علم است — و اگر اقدامی جدی نشود، اعتبار کل دانش بشر در خطر خواهد بود.
چرا این موضوع اهمیت دارد؟
پژوهشهای علمی ستون فقرات دانش، فناوری و سیاستگذاری مدرن هستند. هر خلل در سلامت آنها نه تنها درک ما از جهان را دچار مشکل میکند، بلکه میتواند به تصمیمگیریهای اشتباه در پزشکی، مهندسی، محیط زیست و دیگر حوزههای حیاتی منجر شود. در دنیایی که هوش مصنوعی نیز به نوشتن و تولید مقاله وارد شده، تمیز دادن حقیقت از جعل علمی سختتر از همیشه شده است. بیاعتمادی عمومی به علم، نتیجه محتمل ادامه این روند است.
کارخانههای مقالهسازی: دانش جعلی در مقیاس صنعتی
دکتر لوئیس آمارال، نویسنده ارشد این پژوهش که در مجله معتبر PNAS منتشر شده، میگوید بسیاری از مجلات علمی بدون اطلاع عمومی، پذیرای مقالات جعلی میشوند. این مقالات توسط گروههایی موسوم به «paper mills» تولید میشوند — مجموعههایی که در ازای پول، مقالات ساختگی مینویسند و حتی اسامی نویسندهها را نیز میفروشند. افراد میتوانند برای خرید رتبه نویسندگی اول پول بیشتری بپردازند یا برای نفر چهارم کمتر.
واسطهها، مجلات ربودهشده، و سردبیران آلوده
این شبکهها صرفاً مقاله نمیفروشند؛ بلکه فرایند علمی را جعل میکنند. واسطهها کسانی هستند که خریدار، نویسنده، و مجله را به یکدیگر متصل میکنند. در برخی موارد، مجلات تعطیلشدهای مانند HIV Nursing نیز ربوده شدهاند — یعنی دامنه اینترنتی آنها خریداری شده و مقالاتی جعلی و بیربط با نام آنها منتشر شده است. این فعالیتها نه در خلأ، بلکه با همکاری سردبیران یا داوران آلوده در حال انجام است.
از دستکاری تصویر تا جعل داده: ابعاد فنی تقلب
تیم تحقیقاتی دانشگاه نورثوسترن مجموعهای از دادهها را بررسی کرد؛ از جمله مقالات بازپسگرفتهشده، ثبتهای تحریریه، و نمونههایی از دستکاری تصاویر. دادهها از منابعی چون PubMed، Scopus، Web of Science و حتی وبسایتهای نظارتی مانند Retraction Watch گردآوری شدهاند. یکی از روشهای شناسایی مقالات جعلی، بررسی خطاهای فنی — مثلاً اشتباه در نامگذاری ابزارهای آزمایشگاهی — بوده است. همین خطاها نشانهای از مقالات سفارشیسازیشده توسط کارخانههای مقالهسازی است.
بحران بیاعتمادی و خطر ورود هوش مصنوعی
ریچاردسون، نویسنده اول مقاله، هشدار میدهد که اگر با موج فعلی تقلب برخورد نشود، نسل آینده مقالات توسط هوش مصنوعی آموزشدیده با دادههای نادرست تولید خواهد شد — و این چرخه باطل به «سمی شدن» کامل ادبیات علمی خواهد انجامید. او میگوید: «ما هنوز حتی آمادگی مقابله با جعل انسانی را نداریم، چه برسد به تقلب با کمک هوش مصنوعی.»
راههای مقابله: بازسازی فرایند داوری و تغییر ساختار تشویق
آمارال و همکارانش پیشنهاد میدهند که بازبینی جدی در ساختار داوری علمی، تقویت شفافیت در روند پذیرش مقاله، و شناسایی شبکههای تقلب ضروری است. اما شاید مهمتر از همه، اصلاح نظام پاداشدهی در علم باشد: در دنیایی که مقاله بیشتر معادل ارتقا و درآمد بیشتر است، انگیزه تقلب نیز بالاست. آنها خواستار آناند که نهادهای علمی، دانشگاهها، و ناشران به طور همزمان دست به اصلاحات بزنند.
آنچه در ادامه باید دید
اگر نهادهای علمی به این هشدارها بیتوجه بمانند، خطر آن است که اعتماد عمومی به کلیت نظام علم از بین برود — آنهم در عصری که بیش از هر زمان دیگری به دادههای علمی نیاز داریم. پیشزمینه این بحران در حال شکلگیری است؛ پرسش این است که آیا پیش از آنکه دیر شود، اقدام خواهیم کرد؟
منابع و پیوندها
این پژوهش در Proceedings of the National Academy of Sciences منتشر شده است.
@HOD8HOD
افشای شبکههای سازمانیافته تقلب علمی
خلاصه داستان
پژوهش تازهای از دانشگاه نورثوسترن نشان میدهد که تقلب علمی از سطح رفتارهای فردی فراتر رفته و به شکل شبکههای سازمانیافته و جهانی در حال گسترش است. این شبکهها با استفاده از ابزارهایی چون کارخانههای مقالهسازی، خریداران نویسندگی و مجلات نفوذشده، فرایند علمی را جعل میکنند. هشدار پژوهشگران: رشد تقلب، سریعتر از رشد واقعی علم است — و اگر اقدامی جدی نشود، اعتبار کل دانش بشر در خطر خواهد بود.
چرا این موضوع اهمیت دارد؟
پژوهشهای علمی ستون فقرات دانش، فناوری و سیاستگذاری مدرن هستند. هر خلل در سلامت آنها نه تنها درک ما از جهان را دچار مشکل میکند، بلکه میتواند به تصمیمگیریهای اشتباه در پزشکی، مهندسی، محیط زیست و دیگر حوزههای حیاتی منجر شود. در دنیایی که هوش مصنوعی نیز به نوشتن و تولید مقاله وارد شده، تمیز دادن حقیقت از جعل علمی سختتر از همیشه شده است. بیاعتمادی عمومی به علم، نتیجه محتمل ادامه این روند است.
کارخانههای مقالهسازی: دانش جعلی در مقیاس صنعتی
دکتر لوئیس آمارال، نویسنده ارشد این پژوهش که در مجله معتبر PNAS منتشر شده، میگوید بسیاری از مجلات علمی بدون اطلاع عمومی، پذیرای مقالات جعلی میشوند. این مقالات توسط گروههایی موسوم به «paper mills» تولید میشوند — مجموعههایی که در ازای پول، مقالات ساختگی مینویسند و حتی اسامی نویسندهها را نیز میفروشند. افراد میتوانند برای خرید رتبه نویسندگی اول پول بیشتری بپردازند یا برای نفر چهارم کمتر.
واسطهها، مجلات ربودهشده، و سردبیران آلوده
این شبکهها صرفاً مقاله نمیفروشند؛ بلکه فرایند علمی را جعل میکنند. واسطهها کسانی هستند که خریدار، نویسنده، و مجله را به یکدیگر متصل میکنند. در برخی موارد، مجلات تعطیلشدهای مانند HIV Nursing نیز ربوده شدهاند — یعنی دامنه اینترنتی آنها خریداری شده و مقالاتی جعلی و بیربط با نام آنها منتشر شده است. این فعالیتها نه در خلأ، بلکه با همکاری سردبیران یا داوران آلوده در حال انجام است.
از دستکاری تصویر تا جعل داده: ابعاد فنی تقلب
تیم تحقیقاتی دانشگاه نورثوسترن مجموعهای از دادهها را بررسی کرد؛ از جمله مقالات بازپسگرفتهشده، ثبتهای تحریریه، و نمونههایی از دستکاری تصاویر. دادهها از منابعی چون PubMed، Scopus، Web of Science و حتی وبسایتهای نظارتی مانند Retraction Watch گردآوری شدهاند. یکی از روشهای شناسایی مقالات جعلی، بررسی خطاهای فنی — مثلاً اشتباه در نامگذاری ابزارهای آزمایشگاهی — بوده است. همین خطاها نشانهای از مقالات سفارشیسازیشده توسط کارخانههای مقالهسازی است.
بحران بیاعتمادی و خطر ورود هوش مصنوعی
ریچاردسون، نویسنده اول مقاله، هشدار میدهد که اگر با موج فعلی تقلب برخورد نشود، نسل آینده مقالات توسط هوش مصنوعی آموزشدیده با دادههای نادرست تولید خواهد شد — و این چرخه باطل به «سمی شدن» کامل ادبیات علمی خواهد انجامید. او میگوید: «ما هنوز حتی آمادگی مقابله با جعل انسانی را نداریم، چه برسد به تقلب با کمک هوش مصنوعی.»
راههای مقابله: بازسازی فرایند داوری و تغییر ساختار تشویق
آمارال و همکارانش پیشنهاد میدهند که بازبینی جدی در ساختار داوری علمی، تقویت شفافیت در روند پذیرش مقاله، و شناسایی شبکههای تقلب ضروری است. اما شاید مهمتر از همه، اصلاح نظام پاداشدهی در علم باشد: در دنیایی که مقاله بیشتر معادل ارتقا و درآمد بیشتر است، انگیزه تقلب نیز بالاست. آنها خواستار آناند که نهادهای علمی، دانشگاهها، و ناشران به طور همزمان دست به اصلاحات بزنند.
آنچه در ادامه باید دید
اگر نهادهای علمی به این هشدارها بیتوجه بمانند، خطر آن است که اعتماد عمومی به کلیت نظام علم از بین برود — آنهم در عصری که بیش از هر زمان دیگری به دادههای علمی نیاز داریم. پیشزمینه این بحران در حال شکلگیری است؛ پرسش این است که آیا پیش از آنکه دیر شود، اقدام خواهیم کرد؟
منابع و پیوندها
این پژوهش در Proceedings of the National Academy of Sciences منتشر شده است.
@HOD8HOD
❤1👌1
🔴 اعتیاد به ویدیوهای کوتاه اینستاگرام و یوتوب عملکرد مغز را تغییر میدهد
▪️به گفته دانشمندان، اعتیاد به این پلتفرمها میتواند باعث عجله در تصمیمگیریها و ناتوانی در درک ریسکهای مالی شود. پژوهشگران در یک مطالعه جدید با استفاده از تکنیک تصویربرداری مغزی نشان دادهاند که اعتیاد به پلتفرمهایی مانند تیکتاک، اینستاگرام ریلز و یوتوب شورتز که شامل ویدیوهای کوتاه میشوند، میتواند به شکلهای مختلفی نحوه عملکرد مغز را تغییر دهد.
▪️براساس نتایج این تحقیق که در مجله NeuroImage منتشر شده، کاربران این پلتفرمها ممکن است حساسیت کمتری به زیانهای مالی داشته باشند و سریعتر و عجولانهتر تصمیمگیری کنند. به گفته دانشمندان، دلیل این تغییرات الگوهای خاصی از فعالیت مغز است که بهویژه در بخشهایی که مسئول ارزیابی پاداش هستند، دیده شدهاند.
▪️طبق توضیح آنها، رفتارهایی که با اعتیاد مرتبط هستند، مانند مصرف مواد مخدر و قمار، معمولاً با کاهش توانایی در سنجش هزینهها و منافع بالقوه همراه میشوند. در واقع این افراد اغلب پاداشهای کوتاهمدت را بر پیامدهای بلندمدت ترجیح میدهند. با ظهور پلتفرمهای نشر ویدیوهای کوتاه، نوع جدیدی از عادتهای دیجیتالی مضر شکل گرفته است. این برنامهها با ارائه محتوای شخصیسازیشده و بیپایان میتوانند ترشح دوپامین را تحریک کرده و کاربر را به استفاده مکرر تشویق کنند.
▪️دکتر «چیانگ وانگ»، استاد روانشناسی دانشگاه تیانجین و نویسنده این تحقیق، میگوید: «اعتیاد به ویدیوهای کوتاه یک تهدید جهانی برای سلامت عمومی است. کاربران در چین بهطور میانگین روزانه 151 دقیقه در این پلتفرمها وقت میگذرانند و 95.5 درصد از کاربران اینترنت درگیر آنها هستند. این مصرف شدید با پاداشهای فوری نهتنها تمرکز، خواب و سلامت روان را مختل میکند بلکه خطر افسردگی را هم افزایش میدهد.»
▪️وانگ در ادامه میگوید که هرچند اعتیاد به مواد و رفتارهایی مانند قمار همیشه با کاهش حساسیت به زیان همراه بوده، نحوه تأثیرگذاری اعتیاد به ویدیوهای کوتاه بر ارزیابی «ریسک در برابر زیان» توسط مغز تقریباً ناشناخته بوده است. همیندلیل، آنها با ترکیب مدلسازی محاسباتی (DDM) و تصویربرداری عصبی (fMRI) تلاش کردند تا به سؤالاتی از جمله اینکه «آیا افراد معتاد به ویدیوهای کوتاه، هزینههای بلندمدت استفاده از آن را کمتر از واقعیت ارزیابی میکنند یا خیر؟» پاسخ دهند.
ادامه مطلب
https://www.sciencedirect.com/science/article/pii/S1053811925002538
@HOD8HOD
▪️به گفته دانشمندان، اعتیاد به این پلتفرمها میتواند باعث عجله در تصمیمگیریها و ناتوانی در درک ریسکهای مالی شود. پژوهشگران در یک مطالعه جدید با استفاده از تکنیک تصویربرداری مغزی نشان دادهاند که اعتیاد به پلتفرمهایی مانند تیکتاک، اینستاگرام ریلز و یوتوب شورتز که شامل ویدیوهای کوتاه میشوند، میتواند به شکلهای مختلفی نحوه عملکرد مغز را تغییر دهد.
▪️براساس نتایج این تحقیق که در مجله NeuroImage منتشر شده، کاربران این پلتفرمها ممکن است حساسیت کمتری به زیانهای مالی داشته باشند و سریعتر و عجولانهتر تصمیمگیری کنند. به گفته دانشمندان، دلیل این تغییرات الگوهای خاصی از فعالیت مغز است که بهویژه در بخشهایی که مسئول ارزیابی پاداش هستند، دیده شدهاند.
▪️طبق توضیح آنها، رفتارهایی که با اعتیاد مرتبط هستند، مانند مصرف مواد مخدر و قمار، معمولاً با کاهش توانایی در سنجش هزینهها و منافع بالقوه همراه میشوند. در واقع این افراد اغلب پاداشهای کوتاهمدت را بر پیامدهای بلندمدت ترجیح میدهند. با ظهور پلتفرمهای نشر ویدیوهای کوتاه، نوع جدیدی از عادتهای دیجیتالی مضر شکل گرفته است. این برنامهها با ارائه محتوای شخصیسازیشده و بیپایان میتوانند ترشح دوپامین را تحریک کرده و کاربر را به استفاده مکرر تشویق کنند.
▪️دکتر «چیانگ وانگ»، استاد روانشناسی دانشگاه تیانجین و نویسنده این تحقیق، میگوید: «اعتیاد به ویدیوهای کوتاه یک تهدید جهانی برای سلامت عمومی است. کاربران در چین بهطور میانگین روزانه 151 دقیقه در این پلتفرمها وقت میگذرانند و 95.5 درصد از کاربران اینترنت درگیر آنها هستند. این مصرف شدید با پاداشهای فوری نهتنها تمرکز، خواب و سلامت روان را مختل میکند بلکه خطر افسردگی را هم افزایش میدهد.»
▪️وانگ در ادامه میگوید که هرچند اعتیاد به مواد و رفتارهایی مانند قمار همیشه با کاهش حساسیت به زیان همراه بوده، نحوه تأثیرگذاری اعتیاد به ویدیوهای کوتاه بر ارزیابی «ریسک در برابر زیان» توسط مغز تقریباً ناشناخته بوده است. همیندلیل، آنها با ترکیب مدلسازی محاسباتی (DDM) و تصویربرداری عصبی (fMRI) تلاش کردند تا به سؤالاتی از جمله اینکه «آیا افراد معتاد به ویدیوهای کوتاه، هزینههای بلندمدت استفاده از آن را کمتر از واقعیت ارزیابی میکنند یا خیر؟» پاسخ دهند.
ادامه مطلب
https://www.sciencedirect.com/science/article/pii/S1053811925002538
@HOD8HOD
❤3
خطای باصره یا خطای دید مولر لیر :
به نظر شما خط های وسطی عمودی قرمز رنگ در این چهار شکل، یک اندازه اند ؟؟
در کمال تعجب باید خدمتتون عرض کنم که در هر چهار شکل قرمز رنگ، خط های عمودی وسطی با همدیگه هم اندازه هستند
اگر باور ندارید اندازه بگیرید
اسم این خطای دید ، خطای مولر لیر هست . تاثیر زوایای اطراف یک شکل بر ادراک فاصله و اندازه شکل اصلی
علت بعضی از تصادفات رانندگی که به خاطر تخمین اشتباه فاصله رخ می دهند، همین خطای ادراکی است
@HOD8HOD
به نظر شما خط های وسطی عمودی قرمز رنگ در این چهار شکل، یک اندازه اند ؟؟
در کمال تعجب باید خدمتتون عرض کنم که در هر چهار شکل قرمز رنگ، خط های عمودی وسطی با همدیگه هم اندازه هستند
اگر باور ندارید اندازه بگیرید
اسم این خطای دید ، خطای مولر لیر هست . تاثیر زوایای اطراف یک شکل بر ادراک فاصله و اندازه شکل اصلی
علت بعضی از تصادفات رانندگی که به خاطر تخمین اشتباه فاصله رخ می دهند، همین خطای ادراکی است
@HOD8HOD
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🔸وقتی تعلیم و تربیت به اندازه تکنولوژی رشد نمیکند....
@HOD8HOD
@HOD8HOD
👍3👎1
🔻مصطفی سلیمان، رئیس بخش هوش مصنوعی شرکت مایکروسافت، درباره گسترش پدیدهای به نام «روانپریشی هوش مصنوعی» هشدار داده است.
منظور از «روانپریشی هوش مصنوعی» موقعیتهایی است که در آن افراد چنان به چتباتهایی مانند کوپایلوت یا چت جیپیتی وابسته میشوند که یک چیز خیالی را بعنوان واقعیت قبول میکنند.
آقای سلیمان میگوید: «روان پریشی هوش مصنوعی یک موقعیت غیرپزشکی برای توصیف کسانی که از چتباتهایی مثل چت جی پیتی، گروک و کلاود استفاده میکنند و کم کم از واقعیت دور میشوند.»
به گفته او «پیام هایی از افرادی گرفتم که میگویند این فناوری عاشق آنها شده یا فکر میکنند توانستهاند قفل انسان مخفی درون این هوشمصنوعی رو باز کنند یا اینکه فکر میکنند هوشمصنوعی قصد دارد به آنها آسیب برساند.»
آزمایشگاه هوش مصنوعی احساسی دانشگاه بنگو در ولز از دو هزار بزرگسال بریتانیایی نظرسنجی کرد که براساس نتایج آن ۵۷ درصد معتقد بودند این که فناوری خود را به عنوان یک فرد واقعی معرفی کند، به شدت نامطلوب است.
متن کامل خبر در لینک زیر:
https://bbc.in/4mrj5cj
@HOD8HOD
منظور از «روانپریشی هوش مصنوعی» موقعیتهایی است که در آن افراد چنان به چتباتهایی مانند کوپایلوت یا چت جیپیتی وابسته میشوند که یک چیز خیالی را بعنوان واقعیت قبول میکنند.
آقای سلیمان میگوید: «روان پریشی هوش مصنوعی یک موقعیت غیرپزشکی برای توصیف کسانی که از چتباتهایی مثل چت جی پیتی، گروک و کلاود استفاده میکنند و کم کم از واقعیت دور میشوند.»
به گفته او «پیام هایی از افرادی گرفتم که میگویند این فناوری عاشق آنها شده یا فکر میکنند توانستهاند قفل انسان مخفی درون این هوشمصنوعی رو باز کنند یا اینکه فکر میکنند هوشمصنوعی قصد دارد به آنها آسیب برساند.»
آزمایشگاه هوش مصنوعی احساسی دانشگاه بنگو در ولز از دو هزار بزرگسال بریتانیایی نظرسنجی کرد که براساس نتایج آن ۵۷ درصد معتقد بودند این که فناوری خود را به عنوان یک فرد واقعی معرفی کند، به شدت نامطلوب است.
متن کامل خبر در لینک زیر:
https://bbc.in/4mrj5cj
@HOD8HOD
BBC News فارسی
هشدار رئیس بخش هوش مصنوعی مایکروسافت نسبت به وابستگی بیش از حد به چتباتهای هوش مصنوعی
مصطفی سلیمان، رئیس بخش هوش مصنوعی شرکت مایکروسافت، درباره گسترش پدیدهای به نام روانپریشی هوش مصنوعی هشدار داده است.
👍3
🔸هوش مصنوعی در حال ساختن کلمات و اصطلاحات تازه در زبان
🔹در یک پژوهش انجامشده در دانشگاه ایالتی فلوریدا (Florida State University) محققانی مانند Tom S. Juzek و Zina B. Ward بررسی کردهاند که آیا واژگانی که در متنهای تولیدشده توسط مدلهای زبانی مانند ChatGPT محبوب هستند، در مکالمات واقعی روزمره انسانها نیز در حال ورود هستند یا خیر.
🔸مطالعات آنها با بررسی پادکستهای علمی و فناوری نشان داد که واژههایی مثل «delve», «intricate», «commendable» و «meticulous» بعد از انتشار ChatGPT در اواخر ۲۰۲۲ با افزایش چشمگیر در گفتار انسانها مواجه شدهاند، در حالی که مترادفهای آنها مقدار تغییر قابلتوجهی نداشتهاند.
🔹مطالعهی دیگری هم از همان گروه پژوهش نشان داد که این تغییرات فقط در نوشتار علمی نیست؛ بلکه در گفتار محاورهای نیز شواهد تجربی از نفوذ واژگان AI وجود دارد—به این معنیکه مردم بدون آنکه خودشان متوجه باشند، شروع به استفاده از این واژگان محبوب هوش مصنوعی میکنند.
@HOD8HOD
🔹در یک پژوهش انجامشده در دانشگاه ایالتی فلوریدا (Florida State University) محققانی مانند Tom S. Juzek و Zina B. Ward بررسی کردهاند که آیا واژگانی که در متنهای تولیدشده توسط مدلهای زبانی مانند ChatGPT محبوب هستند، در مکالمات واقعی روزمره انسانها نیز در حال ورود هستند یا خیر.
🔸مطالعات آنها با بررسی پادکستهای علمی و فناوری نشان داد که واژههایی مثل «delve», «intricate», «commendable» و «meticulous» بعد از انتشار ChatGPT در اواخر ۲۰۲۲ با افزایش چشمگیر در گفتار انسانها مواجه شدهاند، در حالی که مترادفهای آنها مقدار تغییر قابلتوجهی نداشتهاند.
🔹مطالعهی دیگری هم از همان گروه پژوهش نشان داد که این تغییرات فقط در نوشتار علمی نیست؛ بلکه در گفتار محاورهای نیز شواهد تجربی از نفوذ واژگان AI وجود دارد—به این معنیکه مردم بدون آنکه خودشان متوجه باشند، شروع به استفاده از این واژگان محبوب هوش مصنوعی میکنند.
@HOD8HOD
Telegram
کتابخانه مرکزی دانشگاه تهران
وب سايت کتابخانه مرکزی:
Library.ut.ac.ir
آدرس:
خیابان انقلاب، خیابان ۱۶ آذر، داخل پردیس مرکزی دانشگاه تهران، کتابخانه مرکزی، مرکز اسناد و تامین منابع علمی.
Library.ut.ac.ir
آدرس:
خیابان انقلاب، خیابان ۱۶ آذر، داخل پردیس مرکزی دانشگاه تهران، کتابخانه مرکزی، مرکز اسناد و تامین منابع علمی.
Forwarded from عرصههای ارتباطی
This media is not supported in your browser
VIEW IN TELEGRAM
#ربات 🔸انساننمای متفاوت
شرکت یوبیتک (UBTech) تولیدکننده رباتهای انساننما در شنزن #چین اعلام کرد که نسل جدید ربات انساننمای این شرکت بنام واکر اس تو (Walker S2) دارای قابلیت تعویض باتری خودکار است. اطلاعاتآنلاین
شرکت یوبیتک (UBTech) تولیدکننده رباتهای انساننما در شنزن #چین اعلام کرد که نسل جدید ربات انساننمای این شرکت بنام واکر اس تو (Walker S2) دارای قابلیت تعویض باتری خودکار است. اطلاعاتآنلاین
👍1
دیتوم | آکادمی علوم اجتماعی محاسباتی:
⭕️ بسیار هوشمند: چگونه سرمایهداری دیجیتال، دادهها را استخراج، زندگی ما را کنترل و جهان را تصرف میکند؟
✅ جیتان سادوفسکی / ترجمه محمدعلی دادگسترنیا / ویراستار: فرشاد اسدپور
📚 نشر سنور / ۲۲۴ صفحه / انتشار: تابستان ۱۴۰۴
💢 نسخه الکترونیکی این کتاب به رایگان در اختیار پژوهشگران قرار گرفته است.
⬇️ لینک دانلود:
https://senoorbook.ir/too-smart
@HOD8HOD
⭕️ بسیار هوشمند: چگونه سرمایهداری دیجیتال، دادهها را استخراج، زندگی ما را کنترل و جهان را تصرف میکند؟
✅ جیتان سادوفسکی / ترجمه محمدعلی دادگسترنیا / ویراستار: فرشاد اسدپور
📚 نشر سنور / ۲۲۴ صفحه / انتشار: تابستان ۱۴۰۴
💢 نسخه الکترونیکی این کتاب به رایگان در اختیار پژوهشگران قرار گرفته است.
⬇️ لینک دانلود:
https://senoorbook.ir/too-smart
@HOD8HOD
کتاب_بسیار_هوشمند_سرمایهداری_دیجیتال_و_دادهها.pdf
3.3 MB
🔸مقدمه ویراستار بر کتاب
🔹در عصری که زندگی روزمره ما بیش از هر زمان دیگری در تاریخ، با فناوریهای دیجیتال گره خورده است، کتاب «بسیار هوشمند» اثر جیتان سادوفسکی، نهتنها تحلیلی علمی، بلکه یک زنگ هشدار است.
🔸ما در جهانی زندگی میکنیم که در آن هر حرکت دیجیتالی ما (از خرید آنلاین گرفته تا جستجوهای ساده و حتی قدمزدنهایمان در شهرهای واقعی یا مجازی هوشمند)، به دادهای ارزشمند تبدیل میشود که شرکتهای فناوری با اشتیاق آن را جمعآوری و تحلیل میکنند.
🔹سادوفسکی با نگاهی تیزبین نشان میدهد که چگونه غولهای فناوری از طریق الگوریتمهای پیچیده، نهتنها الگوهای مصرف ما، بلکه حتی ترجیحات سیاسی، روابط عاطفی و تصمیمات مهم زندگیمان را پیشبینی و در بسیاری موارد، شکل میدهند. او این فرایند را «مهندسی رفتار در مقیاس انبوه» توصیف میکند؛ پدیدهای که در آن آزادی انتخاب انسانها بهتدریج تحت تأثیر نظامهای خودکاری قرار میگیرد که برای بیشینهسازی سود طراحی شدهاند.
#علوم_اجتماعی_محاسباتی
@HOD8HOD
🔹در عصری که زندگی روزمره ما بیش از هر زمان دیگری در تاریخ، با فناوریهای دیجیتال گره خورده است، کتاب «بسیار هوشمند» اثر جیتان سادوفسکی، نهتنها تحلیلی علمی، بلکه یک زنگ هشدار است.
🔸ما در جهانی زندگی میکنیم که در آن هر حرکت دیجیتالی ما (از خرید آنلاین گرفته تا جستجوهای ساده و حتی قدمزدنهایمان در شهرهای واقعی یا مجازی هوشمند)، به دادهای ارزشمند تبدیل میشود که شرکتهای فناوری با اشتیاق آن را جمعآوری و تحلیل میکنند.
🔹سادوفسکی با نگاهی تیزبین نشان میدهد که چگونه غولهای فناوری از طریق الگوریتمهای پیچیده، نهتنها الگوهای مصرف ما، بلکه حتی ترجیحات سیاسی، روابط عاطفی و تصمیمات مهم زندگیمان را پیشبینی و در بسیاری موارد، شکل میدهند. او این فرایند را «مهندسی رفتار در مقیاس انبوه» توصیف میکند؛ پدیدهای که در آن آزادی انتخاب انسانها بهتدریج تحت تأثیر نظامهای خودکاری قرار میگیرد که برای بیشینهسازی سود طراحی شدهاند.
#علوم_اجتماعی_محاسباتی
@HOD8HOD
👌3
کتاب مهندسی پرامپت .pdf
1.5 MB
🔸 مهندسی #پرامیت برای مبتدیان
🔹راهنمای استفاده از Al با تاکید بر یادگیری اصول #پرامیتنویسی
✍ نویسنده: مارک بارز
✍ مترجم: مهدی کیانی
@HOD8HOD
🔹راهنمای استفاده از Al با تاکید بر یادگیری اصول #پرامیتنویسی
✍ نویسنده: مارک بارز
✍ مترجم: مهدی کیانی
@HOD8HOD
❤3
Forwarded from Fanoos | فانوس
🔴 پنجمین مدرسه بینالمللی فانوس
📌 با موضوع: خداباوری و علوم طبیعی؛ فیزیک و علوم شناختی
💢 دانشگاهصنعتیشریف
🟠 با حضور ۱۲ استاد برجسته بینالمللی و ایرانی (به مدت ۴ روز)
🔸🔸 ۲۱ تا ۲۴ مهرماه ۱۴۰۴
🔸🔸 به صورت مجازی
🔺مهلت ثبت نام: ۱۸ مهرماه ۱۴۰۴
💢 لینک ثبت نام:
https://theismschool.com/ثبت-نام/
ارتباط با ما:
🆔 @advertis_manager
➖➖➖➖➖➖
💟 Inst: Fanoos
🆔 Tele: Fanoos
📌 با موضوع: خداباوری و علوم طبیعی؛ فیزیک و علوم شناختی
💢 دانشگاهصنعتیشریف
🟠 با حضور ۱۲ استاد برجسته بینالمللی و ایرانی (به مدت ۴ روز)
🔸🔸 ۲۱ تا ۲۴ مهرماه ۱۴۰۴
🔸🔸 به صورت مجازی
🔺مهلت ثبت نام: ۱۸ مهرماه ۱۴۰۴
💢 لینک ثبت نام:
https://theismschool.com/ثبت-نام/
ارتباط با ما:
🆔 @advertis_manager
➖➖➖➖➖➖
💟 Inst: Fanoos
🆔 Tele: Fanoos
❤4