شبکه داستانی عصبی – Telegram
شبکه داستانی عصبی
793 subscribers
746 photos
35 videos
96 files
1.9K links
اینجا راجع به چیزایی که دوست دارم صحبت می‌کنم: داستان، هوش مصنوعی، موسیقی، نرم‌افزار، هنر، روانشناسی و ... :)

اگه خواستید صحبت کنیم خیلی خوشحالم می‌کنید:
@alimirferdos
Download Telegram
این جدولی از معادل‌های مفاهیم لوکال و توزیع‌شده توی سیستم‌هاست.
چیز تر و تمیز و قشنگیه

منبع
سه روز پیش معرفی شده:
البته روی GPT-2 کار می‌کنه اساسا. نه مدل‌های بعدی (از جمله ChatGPT)

DetectGPT can determine with up to 95% accuracy whether a large language model wrote that essay or social media post.

https://hai.stanford.edu/news/human-writer-or-ai-scholars-build-detection-tool
هر چی اون OpenAI بدبخت سعی داره ChatGPT رو جوری نشون بده که بگه نه اوضاع تحت کنترله و فاجعه‌ی هوش مصنوعی قرار نیست مثل فیلما اتفاق بیوفته، از این ور مایکروسافت داره میرینه به همه چی 🚶🚶🚶🙄🙄

https://twitter.com/sethlazar/status/1626257535178280960
شبکه داستانی عصبی
هر چی اون OpenAI بدبخت سعی داره ChatGPT رو جوری نشون بده که بگه نه اوضاع تحت کنترله و فاجعه‌ی هوش مصنوعی قرار نیست مثل فیلما اتفاق بیوفته، از این ور مایکروسافت داره میرینه به همه چی 🚶🚶🚶🙄🙄 https://twitter.com/sethlazar/status/1626257535178280960
یکی از جالب‌ترین مواجهه‌هام رو یکی دو هفته پیش با یه دانشجوی مهندسی کارشناسی توی دانشگاهمون داشتم. می‌گفت که داشته فکر می‌کرده که بره کامپیوتر بخونه ولی بعد منصرف شده. وقتی پرسیدم چرا گفت که این اتفاقات هوش مصنوعی ترسناکن و نمی‌خواد جزو کسایی باشه که سازنده‌ی اینجور چیزا و تاثیرگذار روشونن باشه.
دیدگاه جالبی بود.
بالاخره پیشی دارمممممممم 😻😻😻
دقیقا عین همین طرح نقاشی عهههه
4👍4
چهره‌ی «آیا من برای تو یک لطیفه‌ام؟»
Forwarded from Chat GPT
AI we have a problem: Poisoning of AI Training Datasets is Practical

Researchers show they can poison the LAION-400M and COYO-700M AI training datasets far more cheaply than people assume: just $60 USD.

Prevoiusly confirmed that effective poisoning attacks often require poisoning just 0.01% of the data.

Suggest “automated integrity checking” as a solution — but how does one automatically check the truth and values-alignment of large training datasets?

Paper
Chat GPT
Photo
توضیح اینکه یکی از روش‌های حمله‌ی سایبری به شبکه‌های هوش مصنوعی بزرگ، خراب کردن ورودی‌ایه که روی اونا آموزش انجام میشه. به این کار میگن اصطلاحا مسموم کردن داده‌های ورودی.
یعنی کسی که می‌خواد خرابکاری کنه یه سری داده‌ای که در ظاهر خیلی اکی ان ولی کاملا غلطن رو به عنوان داده‌ی درست لای داده‌های دیگه ورودی میذاره. چجوری اون لا میذاره خودش یه بحثیه. ولی نتیجه این میشه که شبکه یه چیزی رو یاد میگیره که غلطه اساسا.
و این گفته که این کار هزینه‌ی کمی داره و این یعنی حملات عجیب و غریب جدیدی روی مدل‌ها امکان‌پذیر عه