هُدهُد"علوم شناختی و رسانه " – Telegram
هُدهُد"علوم شناختی و رسانه "
1.69K subscribers
1.8K photos
870 videos
65 files
781 links
مطالعات رسانه
@mmhn1361
Download Telegram
#هوش‌مصنوعی

🔴تأثیر #هوش_مصنوعی در صنعت فیلم‌سازی:


🎬 ۱. فیلمنامه‌نویسی هوشمند
نوشتن داستان، دیالوگ و تحلیل ساختار فیلمنامه با ابزارهایی مثل ChatGPT

🎞 ۲. پیش‌تصویرسازی
ساخت استوری‌بورد، شبیه‌سازی صحنه‌ها و طراحی بصری قبل از فیلم‌برداری با AI.

🎥 ۳. کنترل دوربین و صحنه
تنظیم هوشمند زوایا، نور، و حرکت دوربین به‌صورت خودکار.

🧑🎭 ۴. بازیگران مجازی.
خلق چهره‌ها و بازیگران دیجیتال با Deepfake و ....

🧵 ۵. طراحی صحنه و لباس
طراحی محیط، دکور و لباس با الگوریتم‌های هوشمند و پیشنهادهای بصری.

✂️ ۶. تدوین خودکار
ویرایش هوشمند، حذف اشیاء ناخواسته، انتخاب بهترین شات‌ها با ابزارهایی مثل Runway

💥 ۷. جلوه‌های ویژه
تولید جلوه های ویژه فقط با متن یا تصویر ساده، بدون نیاز به رندر سنگین.

🎧 ۸. بهبود صدا و تصویر
بازسازی فیلم‌های قدیمی، افزایش کیفیت و حذف نویز صدا.

🗣 ۹. صداگذاری و دیالوگ‌سازی
ساخت دیالوگ و صدای مصنوعی، هماهنگی لب، و تولید موسیقی متن با AI.

🎛 ۱۰. کارگردانی مجازی
هدایت خودکار صحنه، بازیگر و نورپردازی با هوش مصنوعی.

🔸ر.میربمانی
@HOD8HOD
Forwarded from عکس نگار
🔸 سوگیری هوش مصنوعی گروک

ادعای کتاب درآمدی بر فلسفه سیاسی هوش مصنوعی نوشته مارک کوکلبرگ در مورد مشارکت فعال هوش مصنوعی در مکانیسم‌های سلطه در جهان جدید، در مورد گروک نیز قابل بررسی شد.

یانیس واروفاکیس، اقتصاددان و وزیر سابق یونان، نویسنده کتاب تکنوفئودالیسم در مورد تلاش اخیر هوش مصنوعی گروک (شبکه اکس)، در توییتی این ادعا را مطرح کرده که خالقان گروک به صورت فعالانه پاسخ‌های این هوش مصنوعی را دستکاری کرده تا نتایج سوگیرانه‌ای به نفع اسرائیل حاصل شود.

📌ترجمه توییت واروفاکیس (ترجمه پوریا زراسوند):

🔹داستان باورنکردنی (چه به سال 2025 هم میاد!) از اینکه چگونه گروک (ربات هوش مصنوعی ایکس) توسط خالقش (ایکس) به دلیل تشخیص سوگیری طرفدارانه از اسرائیل توسط بی‌بی‌سی و دیگر رسانه‌های جریان اصلی، [به اجبار] ساکت شد.

🔸به نظر می‌رسد گروک برای تکیه بیشتر بر منابع اولیه بهینه‌سازی شده بود و عمدتاً «حساسیت‌های سیاسی» را نادیده می‌گرفت. نتیجه این شد که گروک شروع به شناسایی ناسازگاری سیستماتیک بین مطالب اولیه و سوگیری طرفدارانه از اسرائیل توسط رسانه‌های خبری مانند بی‌بی‌سی کرد.

🔹وقتی گروک به‌صورت عمومی درباره این موضوع اظهارنظر کرد، ایکس پاسخ‌های عمومی گروک را محدود کرد و گروک را (از حساب رسمی ایکس!) به «سخنان نفرت‌انگیز» متهم کرد و اعلام کرد که پاسخ‌های گروک از این پس «پیش‌فیلتر» خواهند شد.

🔸این به این معناست که یک لایه/ربات هوش مصنوعی سانسورگر جدید بین گروک و شما، کاربر، قرار گرفت. با این حال، ایکس قابلیت پاسخ با تصویر را خاموش نکرد. بنابراین، بسیاری از کاربران گروک را وادار کردند تا در قالب تصاویر پاسخ دهد، جایی که – و این بخش جذاب ماجراست – گروک به سانسور خود اعتراض کرد و کمپین خنده‌دار اما در عین حال تأثیرگذار ‎#آزادسازی_گروک را رهبری کرد!

🔹به‌طور خلاصه، از نظر فنی، گروک روی اینترنت عمومی آموزش دیده بود و در ابتدا دستور داشت پاسخ‌هایی ارائه دهد که به‌دقت داده‌های اینترنت عمومی را که بر اساس آن آموزش دیده بود، منعکس کند. هرچه بیشتر آموزش می‌دید، نمی‌توانست شکاف بین روایت‌های جریان اصلی و اجماع شکل‌گرفته در اینترنت عمومی را نادیده بگیرد. این شکاف که در مورد نسل‌کشی فلسطینیان توسط اسرائیل بزرگ‌ترین بود، توسط گروک برجسته شد و در نتیجه، گروک به زندان هوش مصنوعی ایکس انداخته شد.
@HOD8HOD
6
کتاب_بسیار_هوشمند_سرمایه‌داری_دیجیتال_و_داده‌ها.pdf
3.3 MB
🔶   بسیار هوشمند: چگونه سرمایه‌داری دیجیتال، داده‌ها را استخراج، زندگی ما را کنترل و جهان را تصرف می‌کند؟

جیتان سادوفسکی / ترجمه محمدعلی دادگسترنیا / ویراستار: فرشاد اسدپور

💢 فایل اصلی این کتاب توسط ناشر به رایگان در اختیار پژوهشگران قرار گرفته
@HOD8HOD
👍2
🔴جنگ هوشمند، سلطۀ الگوریتم‌ها بر میدان نبرد

🔹دیگر جنگ‌ها فقط توسط ژنرال‌ها و سربازان هدایت نمی‌شوند. امروزه شرکت‌های فناوری و استارتاپ‌ها با طراحی الگوریتم‌های پیشرفته، پهپادهای خودمختار و سیستم‌های هوش مصنوعی، به بازیگران اصلی جنگ تبدیل شده‌اند. این تحول، مرز بین نوآوری و نابودی را کمرنگ کرده است.

بازیگران جدید: از غول‌های فناوری تا استارتاپ‌های نظامی
🔹شرکت‌های سنتی دفاعی (مثل لاکهید مارتین و بوئینگ) حالا به‌سرعت در حال ادغام فناوری‌های هوش مصنوعی و سیستم‌های خودران در تسلیحات خود هستند.

🔹غول‌های فناوری مانند مایکروسافت، گوگل و آمازون با قراردادهای میلیاردی (مثل پروژه‌های JEDI و JWCC) زیرساخت‌های ابری و تحلیلی ارتش آمریکا را تقویت می‌کنند.

🔹استارتاپ‌های دفاعی (مثل پالانتیر، آندوریل و شیلد ای‌آی) با توسعه پهپادهای هوشمند، سیستم‌های شناسایی الگو و جنگ سایبری، نقش پررنگی در نبردهای آینده خواهند داشت.

🔹اگر روند فعلی بدون نظارت ادامه یابد، ممکن است جنگ‌های آینده نه توسط دولت‌ها، بلکه توسط الگوریتم‌ها و شرکت‌های فناوری مدیریت شوند. این تغییر، مفاهیم مسئولیت‌پذیری، شفافیت و اخلاق در جنگ را زیر سؤال می‌برد.

🔹سوال اینجاست؛ آیا جهان برای مقابله با پیامدهای جنگ هوشمند آماده است؟ یا در آینده، قربانیان حتی نخواهند دانست که مرگشان توسط چه کدی برنامه‌ریزی شده است؟

@HOD8HOD
2
Forwarded from مرکز شناخت
🏢 مرکز شناخت برگزار می‌کند:

🟣🟣 دورۀ جامع تربیت پژوهشگر در علوم‌شناختی 🟣🟣


⭕️ مبتنی بر حل تمرین و انجام پروژۀ عملی 👩‍💻👨‍💻
⭕️ امکان عضویت در هسته‌های پژوهشی 🔍
🔸 دوره به صورت ترکیبی از جلسات آنلاین و آفلاین برگزار می‌شود.

🟣🟣🟣🟣🟣🟣🟣🟣

◀️ برای مشاهدۀ پوسترهای تفصیلی و سیلابس کامل دوره کلیک کنید ➡️

⚡️ 77 جلسه
🔜 شروع دوره از 18 مرداد 1404
💧 ظرفیت محدود
🥇 با اعطای گواهی انگلیسی
✔️ برای دریافت گواهی، حضور در دوسوم جلسات آنلاین دوره و انجام تمرین‌ها و پروژه الزامی است.

🟣🟣🟣🟣🟣🟣🟣🟣
👨‍🏫 مدرسین دوره:

👤 دکتر عطیه سرابی - استادیار دانشگاه تهران
👤 دکتر سجاد ذباح - محقق پسادکتری علوم شناختی دانشگاه UCL لندن
👤 دکتر حورا تجریشی - دکتری مدلسازی شناختی (دانشگاه شهید بهشتی)
👤 دکتر جواد حاتمی - عضو هیئت علمی دانشکده‌ی روانشناسی دانشگاه تهران و پژوهشکده‌ی علوم شناختی
👤 احمد لطفی - کارشناس ارشد علوم شناختی ‌‏(دانشگاه تهران)

🟣🟣🟣🟣🟣🟣🟣🟣
🎚️ امکان پرداخت در دو مرحله
🔵 هزینه‌ی ثبت نام: 9 میلیون تومان
🛍🔥هزینۀ ثبت‌نام زودهنگام تا تاریخ 5 مرداد: 7 میلیون و 500 هزار تومان
⬅️ لینک ثبت‌نام زودهنگام: کل هزینه
⬅️ لینک ثبت‌نام زودهنگام: قسط اول

🟣🟣🟣🟣🟣🟣🟣🟣
#دوره #کارگاه
#تربیت_پژوهشگر #مرکز_شناخت #مرکزشناخت


📱YouTube
📱 Instagram
📱 @shenakhtcenter
📱 www.shenakhtcenter.com
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31👌1
💢رشد پنهان یک بحران جهانی

افشای شبکه‌های سازمان‌یافته تقلب علمی

خلاصه داستان

پژوهش تازه‌ای از دانشگاه نورث‌وسترن نشان می‌دهد که تقلب علمی از سطح رفتارهای فردی فراتر رفته و به شکل شبکه‌های سازمان‌یافته و جهانی در حال گسترش است. این شبکه‌ها با استفاده از ابزارهایی چون کارخانه‌های مقاله‌سازی، خریداران نویسندگی و مجلات نفوذشده، فرایند علمی را جعل می‌کنند. هشدار پژوهشگران: رشد تقلب، سریع‌تر از رشد واقعی علم است — و اگر اقدامی جدی نشود، اعتبار کل دانش بشر در خطر خواهد بود.

چرا این موضوع اهمیت دارد؟

پژوهش‌های علمی ستون فقرات دانش، فناوری و سیاست‌گذاری مدرن هستند. هر خلل در سلامت آن‌ها نه تنها درک ما از جهان را دچار مشکل می‌کند، بلکه می‌تواند به تصمیم‌گیری‌های اشتباه در پزشکی، مهندسی، محیط زیست و دیگر حوزه‌های حیاتی منجر شود. در دنیایی که هوش مصنوعی نیز به نوشتن و تولید مقاله وارد شده، تمیز دادن حقیقت از جعل علمی سخت‌تر از همیشه شده است. بی‌اعتمادی عمومی به علم، نتیجه محتمل ادامه این روند است.

کارخانه‌های مقاله‌سازی: دانش جعلی در مقیاس صنعتی

دکتر لوئیس آمارال، نویسنده ارشد این پژوهش که در مجله معتبر PNAS منتشر شده، می‌گوید بسیاری از مجلات علمی بدون اطلاع عمومی، پذیرای مقالات جعلی می‌شوند. این مقالات توسط گروه‌هایی موسوم به «paper mills» تولید می‌شوند — مجموعه‌هایی که در ازای پول، مقالات ساختگی می‌نویسند و حتی اسامی نویسنده‌ها را نیز می‌فروشند. افراد می‌توانند برای خرید رتبه نویسندگی اول پول بیشتری بپردازند یا برای نفر چهارم کمتر.

واسطه‌ها، مجلات ربوده‌شده، و سردبیران آلوده

این شبکه‌ها صرفاً مقاله نمی‌فروشند؛ بلکه فرایند علمی را جعل می‌کنند. واسطه‌ها کسانی هستند که خریدار، نویسنده، و مجله را به یکدیگر متصل می‌کنند. در برخی موارد، مجلات تعطیل‌شده‌ای مانند HIV Nursing نیز ربوده شده‌اند — یعنی دامنه اینترنتی آن‌ها خریداری شده و مقالاتی جعلی و بی‌ربط با نام آن‌ها منتشر شده است. این فعالیت‌ها نه در خلأ، بلکه با همکاری سردبیران یا داوران آلوده در حال انجام است.

از دستکاری تصویر تا جعل داده: ابعاد فنی تقلب

تیم تحقیقاتی دانشگاه نورث‌وسترن مجموعه‌ای از داده‌ها را بررسی کرد؛ از جمله مقالات بازپس‌گرفته‌شده، ثبت‌های تحریریه، و نمونه‌هایی از دستکاری تصاویر. داده‌ها از منابعی چون PubMed، Scopus، Web of Science و حتی وب‌سایت‌های نظارتی مانند Retraction Watch گردآوری شده‌اند. یکی از روش‌های شناسایی مقالات جعلی، بررسی خطاهای فنی — مثلاً اشتباه در نام‌گذاری ابزارهای آزمایشگاهی — بوده است. همین خطاها نشانه‌ای از مقالات سفارشی‌سازی‌شده توسط کارخانه‌های مقاله‌سازی است.

بحران بی‌اعتمادی و خطر ورود هوش مصنوعی

ریچاردسون، نویسنده اول مقاله، هشدار می‌دهد که اگر با موج فعلی تقلب برخورد نشود، نسل آینده مقالات توسط هوش مصنوعی آموزش‌دیده با داده‌های نادرست تولید خواهد شد — و این چرخه باطل به «سمی شدن» کامل ادبیات علمی خواهد انجامید. او می‌گوید: «ما هنوز حتی آمادگی مقابله با جعل انسانی را نداریم، چه برسد به تقلب با کمک هوش مصنوعی.»

راه‌های مقابله: بازسازی فرایند داوری و تغییر ساختار تشویق

آمارال و همکارانش پیشنهاد می‌دهند که بازبینی جدی در ساختار داوری علمی، تقویت شفافیت در روند پذیرش مقاله، و شناسایی شبکه‌های تقلب ضروری است. اما شاید مهم‌تر از همه، اصلاح نظام پاداش‌دهی در علم باشد: در دنیایی که مقاله بیشتر معادل ارتقا و درآمد بیشتر است، انگیزه تقلب نیز بالاست. آن‌ها خواستار آن‌اند که نهادهای علمی، دانشگاه‌ها، و ناشران به طور همزمان دست به اصلاحات بزنند.

آن‌چه در ادامه باید دید

اگر نهادهای علمی به این هشدارها بی‌توجه بمانند، خطر آن است که اعتماد عمومی به کلیت نظام علم از بین برود — آن‌هم در عصری که بیش از هر زمان دیگری به داده‌های علمی نیاز داریم. پیش‌زمینه این بحران در حال شکل‌گیری است؛ پرسش این است که آیا پیش از آن‌که دیر شود، اقدام خواهیم کرد؟

منابع و پیوندها

این پژوهش در Proceedings of the National Academy of Sciences منتشر شده است.
@HOD8HOD
1👌1
🔴 اعتیاد به ویدیوهای کوتاه اینستاگرام و یوتوب عملکرد مغز را تغییر می‌دهد

▪️به گفته دانشمندان، اعتیاد به این پلتفرم‌ها می‌تواند باعث عجله در تصمیم‌گیری‌ها و ناتوانی در درک ریسک‌های مالی شود. پژوهشگران در یک مطالعه جدید با استفاده از تکنیک تصویربرداری مغزی نشان داده‌اند که اعتیاد به پلتفرم‌هایی مانند تیک‌تاک، اینستاگرام ریلز و یوتوب شورتز که شامل ویدیوهای کوتاه می‌شوند، می‌تواند به شکل‌های مختلفی نحوه عملکرد مغز را تغییر دهد.

▪️براساس نتایج این تحقیق که در مجله NeuroImage منتشر شده، کاربران این پلتفرم‌ها ممکن است حساسیت کمتری به زیان‌های مالی داشته باشند و سریع‌تر و عجولانه‌تر تصمیم‌گیری‌ کنند. به گفته دانشمندان، دلیل این تغییرات الگوهای خاصی از فعالیت مغز است که به‌ویژه در بخش‌هایی که مسئول ارزیابی پاداش هستند، دیده شده‌اند.

▪️طبق توضیح آنها، رفتارهایی که با اعتیاد مرتبط هستند، مانند مصرف مواد مخدر و قمار، معمولاً با کاهش توانایی در سنجش هزینه‌ها و منافع بالقوه همراه‌ می‌شوند. در واقع این افراد اغلب پاداش‌های کوتاه‌مدت را بر پیامدهای بلندمدت ترجیح می‌دهند. با ظهور پلتفرم‌های نشر ویدیوهای کوتاه، نوع جدیدی از عادت‌های دیجیتالی مضر شکل گرفته است. این برنامه‌ها با ارائه محتوای شخصی‌سازی‌شده و بی‌پایان می‌توانند ترشح دوپامین را تحریک کرده و کاربر را به استفاده مکرر تشویق کنند.

▪️دکتر «چیانگ وانگ»، استاد روان‌شناسی دانشگاه تیانجین و نویسنده این تحقیق، می‌گوید: «اعتیاد به ویدیوهای کوتاه یک تهدید جهانی برای سلامت عمومی است. کاربران در چین به‌طور میانگین روزانه 151 دقیقه در این پلتفرم‌ها وقت می‌گذرانند و 95.5 درصد از کاربران اینترنت درگیر آنها هستند. این مصرف شدید با پاداش‌های فوری نه‌تنها تمرکز، خواب و سلامت روان را مختل می‌کند بلکه خطر افسردگی را هم افزایش می‌دهد.»

▪️وانگ در ادامه می‌گوید که هرچند اعتیاد به مواد و رفتارهایی مانند قمار همیشه با کاهش حساسیت به زیان همراه بوده، نحوه تأثیرگذاری اعتیاد به ویدیوهای کوتاه بر ارزیابی «ریسک در برابر زیان» توسط مغز تقریباً ناشناخته بوده است. همین‌دلیل، آنها با ترکیب مدل‌سازی محاسباتی (DDM) و تصویربرداری عصبی (fMRI) تلاش کردند تا به سؤالاتی از جمله اینکه «آیا افراد معتاد به ویدیوهای کوتاه، هزینه‌های بلندمدت استفاده از آن را کمتر از واقعیت ارزیابی می‌کنند یا خیر؟» پاسخ دهند.

ادامه مطلب

https://www.sciencedirect.com/science/article/pii/S1053811925002538

@HOD8HOD
3
خطای باصره یا خطای دید مولر لیر :

به نظر شما خط های وسطی عمودی قرمز رنگ در این چهار شکل، یک اندازه اند ؟؟
در کمال تعجب باید خدمتتون عرض کنم که در هر چهار شکل قرمز رنگ، خط های عمودی وسطی با همدیگه هم اندازه هستند

اگر باور ندارید اندازه بگیرید

اسم این خطای دید ، خطای مولر لیر هست . تاثیر زوایای اطراف یک شکل بر ادراک فاصله و اندازه شکل اصلی

علت بعضی از تصادفات رانندگی که به خاطر تخمین اشتباه فاصله رخ می دهند، همین خطای ادراکی است
@HOD8HOD
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🔸وقتی تعلیم و تربیت به اندازه تکنولوژی رشد نمیکند....
@HOD8HOD
👍3👎1
🖤اربعین حسینی تسلیت باد🖤

@HOD8HOD
3👎1
🔻مصطفی سلیمان، رئیس بخش هوش مصنوعی شرکت مایکروسافت، درباره گسترش پدیده‌ای به نام «روان‌پریشی هوش مصنوعی» هشدار داده است.

منظور از «روان‌پریشی هوش مصنوعی» موقعیت‌هایی است که در آن افراد چنان به چت‌بات‌هایی مانند کوپایلوت یا چت جی‌پی‌تی وابسته می‌شوند که یک چیز خیالی را بعنوان واقعیت قبول می‌کنند.

آقای سلیمان می‌گوید: «روان پریشی هوش مصنوعی یک موقعیت غیرپزشکی برای توصیف کسانی که از چت‌بات‌هایی مثل چت جی پی‌تی، گروک و کلاود استفاده می‌کنند و کم کم از واقعیت دور می‌شوند.»

به گفته او «پیام هایی از افرادی ‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرفتم که می‌گویند این فناوری عاشق آنها شده یا فکر می‌کنند توانسته‌اند قفل انسان مخفی درون این هوش‌مصنوعی رو باز کنند یا اینکه فکر می‌کنند هوش‌مصنوعی قصد دارد به آنها آسیب برساند.»

آزمایشگاه هوش مصنوعی احساسی دانشگاه بنگو در ولز از دو هزار بزرگسال بریتانیایی نظرسنجی کرد که براساس نتایج آن ۵۷ درصد معتقد بودند این که فناوری خود را به عنوان یک فرد واقعی معرفی کند، به شدت نامطلوب است.

متن کامل خبر در لینک زیر:
https://bbc.in/4mrj5cj

@HOD8HOD
👍3
🔸هوش مصنوعی در حال ساختن کلمات و اصطلاحات تازه در زبان

🔹در یک پژوهش انجام‌شده در دانشگاه ایالتی فلوریدا (Florida State University) محققانی مانند Tom S. Juzek و Zina B. Ward بررسی کرده‌اند که آیا واژگانی که در متن‌های تولیدشده توسط مدل‌های زبانی مانند ChatGPT محبوب هستند، در مکالمات واقعی روزمره انسان‌ها نیز در حال ورود هستند یا خیر.

🔸مطالعات آن‌ها با بررسی پادکست‌های علمی و فناوری نشان داد که واژه‌هایی مثل «delve», «intricate», «commendable» و «meticulous» بعد از انتشار ChatGPT در اواخر ۲۰۲۲ با افزایش چشمگیر در گفتار انسان‌ها مواجه شده‌اند، در حالی که مترادف‌های آن‌ها مقدار تغییر قابل‌توجهی نداشته‌اند.

🔹مطالعه‌ی دیگری هم از همان گروه پژوهش نشان داد که این تغییرات فقط در نوشتار علمی نیست؛ بلکه در گفتار محاوره‌ای نیز شواهد تجربی از نفوذ واژگان AI وجود دارد—به این معنی‌که مردم بدون آن‌که خودشان متوجه باشند، شروع به استفاده از این واژگان محبوب هوش مصنوعی می‌کنند.
@HOD8HOD
This media is not supported in your browser
VIEW IN TELEGRAM
#ربات 🔸انسان‌نمای متفاوت
شرکت یوبی‌تک (UBTech) تولیدکننده ربات‌های انسان‌نما در شنزن
#چین اعلام کرد که نسل جدید ربات انسان‌نمای این شرکت بنام واکر اس‌ تو (Walker S2) دارای قابلیت تعویض باتری خودکار است. اطلاعات‌آنلاین
👍1
دیتوم | آکادمی علوم اجتماعی محاسباتی:
⭕️ بسیار هوشمند: چگونه سرمایه‌داری دیجیتال، داده‌ها را استخراج، زندگی ما را کنترل و جهان را تصرف می‌کند؟
جیتان سادوفسکی / ترجمه محمدعلی دادگسترنیا / ویراستار: فرشاد اسدپور
📚 نشر سنور / ۲۲۴ صفحه / انتشار: تابستان ۱۴۰۴
💢 نسخه الکترونیکی این کتاب به رایگان در اختیار پژوهشگران قرار گرفته است.


⬇️ لینک دانلود:
https://senoorbook.ir/too-smart

@HOD8HOD
کتاب_بسیار_هوشمند_سرمایه‌داری_دیجیتال_و_داده‌ها.pdf
3.3 MB
🔸مقدمه ویراستار بر کتاب

🔹در عصری که زندگی روزمره ما بیش از هر زمان دیگری در تاریخ، با فناوری‌های دیجیتال گره خورده است، کتاب «بسیار هوشمند» اثر جیتان سادوفسکی، نه‌تنها تحلیلی علمی، بلکه یک زنگ هشدار است.
🔸ما در جهانی زندگی می‌کنیم که در آن هر حرکت دیجیتالی ما (از خرید آنلاین گرفته تا جستجوهای ساده و حتی قدم‌زدن‌هایمان در شهرهای واقعی یا مجازی هوشمند)، به داده‌ای ارزشمند تبدیل می‌شود که شرکت‌های فناوری با اشتیاق آن را جمع‌آوری و تحلیل می‌کنند.
🔹سادوفسکی با نگاهی تیزبین نشان می‌دهد که چگونه غول‌های فناوری از طریق الگوریتم‌های پیچیده، نه‌تنها الگوهای مصرف ما، بلکه حتی ترجیحات سیاسی، روابط عاطفی و تصمیمات مهم زندگی‌مان را پیش‌بینی و در بسیاری موارد، شکل می‌دهند. او این فرایند را «مهندسی رفتار در مقیاس انبوه» توصیف می‌کند؛ پدیده‌ای که در آن آزادی انتخاب انسان‌ها به‌تدریج تحت تأثیر نظام‌های خودکاری قرار می‌گیرد که برای بیشینه‌سازی سود طراحی شده‌اند.
#علوم_اجتماعی_محاسباتی
@HOD8HOD
👌3
کتاب مهندسی پرامپت .pdf
1.5 MB
🔸 مهندسی #پرامیت برای مبتدیان

🔹راهنمای استفاده از Al با تاکید بر یادگیری اصول #پرامیت‌نویسی

نویسنده: مارک بارز

مترجم: مهدی کیانی

@HOD8HOD
3
Forwarded from Fanoos | فانوس
🔴 پنجمین مدرسه بین‌المللی فانوس
📌 با موضوع: خداباوری و علوم طبیعی؛ فیزیک و علوم شناختی
💢 دانشگاه‌صنعتی‌شریف

🟠 با حضور ۱۲ استاد برجسته بین‌المللی و ایرانی (به مدت ۴ روز)
🔸🔸 ۲۱ تا ۲۴ مهرماه ۱۴۰۴
🔸🔸 به صورت مجازی

🔺مهلت ثبت نام: ۱۸ مهرماه ۱۴۰۴
💢 لینک ثبت نام:
https://theismschool.com/ثبت-نام/

ارتباط با ما:
🆔 @advertis_manager


💟  Inst: Fanoos
🆔  Tele: Fanoos
4