Versallies Roses 🥀🖤
اون ک آره اما بنظرم هیچوقت احساسی نمیتونه از خودش خلق کنه
کی میدونه.... توی بعضی موارد خیلی خوب میتونه احساسات رو تعریف کنه حتی با حالی که میگه من احساسی ندارم.
Versallies Roses 🥀🖤
میتونه- رباتها و هوش مصنوعی جای خیلی چیارو میتونه بگیره. از جمله ادیتورا و نقاشای دیجیتالی و انیماتورها و حتی تو ژاپن تو یکی از هتلاشون یه ربات داره کار میکنه... حتی تو صنعت کشاورزی هم هوش مصنوعی وارد کردن که علف هرز رو شناسایی میکنه و میسوزونتش. حتی ما…
ببین میتونه بگیره ولی نمیتونه نقاشی های معنی دار رو بکشه ... نقاشی در حد داوینچی و یا نقاش های معروف دیگه و دوران رئالیسم و ... هیچ کدوم رو در اون حد شاهکار نمیتونه بکشه
همه کارها رو میتونه انجام بده اما نمیتونه یه شاهکار رو خلق کنه
همه کارها رو میتونه انجام بده اما نمیتونه یه شاهکار رو خلق کنه
👍1
اما بنظرم هوش مصنوعی خلاقیتی نداره و نمیتونه خلاقیتی بسازه
صرفا چیزایی ک بهش داده شده رو میگه 🧐🧐
صرفا چیزایی ک بهش داده شده رو میگه 🧐🧐
Forwarded from یادگار گذشته.
و سئوالی که برای خودم پیش اومد:«پس چرا هوش مصنوعی رو رایگان در اختیار همه میذارن؟»
و جوابی که من بهش رسیدم:« برای از بین بردن شکاف بین خالق و مصرفکننده.
اما این یک آزمون بزرگه: آیا انسان انقدر بلوغ داره که از این آزادی برای خلق استفاده کنه؟ یا این ابزار فوقالعاده قدرتمند رو به یک ابزار مصرفگرایی پیشرفته تبدیل میکنه؟»
و جوابی که من بهش رسیدم:« برای از بین بردن شکاف بین خالق و مصرفکننده.
اما این یک آزمون بزرگه: آیا انسان انقدر بلوغ داره که از این آزادی برای خلق استفاده کنه؟ یا این ابزار فوقالعاده قدرتمند رو به یک ابزار مصرفگرایی پیشرفته تبدیل میکنه؟»
Forwarded from Emovia | Mbti🖤 (Sajjad)
Moooooooooood:
INTP, INFP, INFJ, INTJ, ISTP
ENTP, ENFJ, ENTJ, ENFP, ISTJ
👍1
Forwarded from Emovia | Mbti🖤 (ଘ)
نه تو آنی که همانی
نه من آنم که تو دانی
نه من آنم که تو دانی
INTJ ~ INFJ ~ INFP ~ INTP
👍1
Forwarded from 𝐂𝐡𝐚𝐨𝐬 (RedBaron)
بله درسته هوش مصنوعی رو شما باید اموزش بدی که بهت اطلاعاتی که بهش دادی رو برگردونه
حالا تصور کن اطلاعاتی که مردم میدن بهش همه ضد و نقیض و ایراد داره
(هوش مصنوعی شعور تشخیص درست و غلط رو نداره )
شما تصور کن یک فرد نژادپرست یا یک فرد کم عقل بیاد و درمورد موضوعی که اصلا دانشی نداره و هرچه داره تعصبات اون شخص حساب میشه رو به خورد هوش مصنوعی بده و این ها به عنوان دیتا حساب بشه
تصور کن چقدر ادم دیگه براش مثل ویروس این عقده ها تف میشه تو صورتشون و به عنوان یک حقیقت دریافت و تایید میشه :)))))
بله هوش مصنوعی باید اموزش داده بشه
اما توسط متخصصین و منابع معتبر و تا حد امکان خالصانه
من نوعی که ریاضی بارم نیست بیام دری وری بدم به هوش مصنوعی و همون دری وری رو استاد یه دانشگاه بگیره تو دانشگاه استفاده کنه ازش به عنوان منبع معتبر
تصور کن چه اوباشی میشه و چقدر تحریف مطالب رخ میده
حالا تصور کن اطلاعاتی که مردم میدن بهش همه ضد و نقیض و ایراد داره
(هوش مصنوعی شعور تشخیص درست و غلط رو نداره )
شما تصور کن یک فرد نژادپرست یا یک فرد کم عقل بیاد و درمورد موضوعی که اصلا دانشی نداره و هرچه داره تعصبات اون شخص حساب میشه رو به خورد هوش مصنوعی بده و این ها به عنوان دیتا حساب بشه
تصور کن چقدر ادم دیگه براش مثل ویروس این عقده ها تف میشه تو صورتشون و به عنوان یک حقیقت دریافت و تایید میشه :)))))
بله هوش مصنوعی باید اموزش داده بشه
اما توسط متخصصین و منابع معتبر و تا حد امکان خالصانه
من نوعی که ریاضی بارم نیست بیام دری وری بدم به هوش مصنوعی و همون دری وری رو استاد یه دانشگاه بگیره تو دانشگاه استفاده کنه ازش به عنوان منبع معتبر
تصور کن چه اوباشی میشه و چقدر تحریف مطالب رخ میده
𝐂𝐡𝐚𝐨𝐬
بله درسته هوش مصنوعی رو شما باید اموزش بدی که بهت اطلاعاتی که بهش دادی رو برگردونه حالا تصور کن اطلاعاتی که مردم میدن بهش همه ضد و نقیض و ایراد داره (هوش مصنوعی شعور تشخیص درست و غلط رو نداره ) شما تصور کن یک فرد نژادپرست یا یک فرد کم عقل بیاد و درمورد…
هوممم
متاسفانه هوش مصنوعی یک ابزار هست و از ابزار میشه هم ب نحو احسن استفاده بشه و سواستفاده بشه
احتمال زیاد بعد این ک مورد استفاده همگان قرار گرفت بیان بررسی کنن ک چی شد و خو ی خالصسازی رخ بده
متاسفانه هوش مصنوعی یک ابزار هست و از ابزار میشه هم ب نحو احسن استفاده بشه و سواستفاده بشه
احتمال زیاد بعد این ک مورد استفاده همگان قرار گرفت بیان بررسی کنن ک چی شد و خو ی خالصسازی رخ بده
Forwarded from 𝐂𝐡𝐚𝐨𝐬 (RedBaron)
𝐂𝐡𝐚𝐨𝐬
Photo
این مستند درمورد یکی از این اتفاقات و پرونده هاییه که در این حیطه اتفاق افتاده یک شخصی که نژاد پرست بوده هوش مصنوعی برای تشخیص چهره ای برنامه ریزی کرده بوده و داخل یک جایی استفاده میشده (دقیق خاطرم نیست جریانش چند سال پیش دیدمش) و این هوش افراد سیاه پوست رو به عنوان انسان شناسایی نمیکرد!
به حدی کشید که این پرونده دادگاهی شد
به حدی کشید که این پرونده دادگاهی شد
Forwarded from 𝐂𝐡𝐚𝐨𝐬 (RedBaron)
دوستان من واقعا دارم از هم صحبتی باهاتون لذت میبرم :,
ممنون که هستید و مشارکت میکنید و میخونید
ممنون که هستید و مشارکت میکنید و میخونید
𝐂𝐡𝐚𝐨𝐬
من همه صحبتای شمارو اینجا میزارم اگر چیزی رو ندیدم بهم بگید حتما نباید مخالف یا موافق باشید که تریبونی بهتون داده بشه نظر شما اهمیت داره و درموردش میشه صحبت و تحلیل کرد چون احتمالات و سوالات جدید رو به ارمغان میاره
بنظرم اینکه بگیم موافقیم یا مخالف هوش مصنوعی یکم زوده کموضع انتخاب کنیم چون تازه اول راهیم 🧐🧐🧐
مثل کامپیوترای اولیه میمونه ک اولش سه اتاق رو میگرفتن و خیلی مشکل داشتن
حالا اگ واقعا اهمیت بدن این مشکلات رو حل میکنن
هرچند باید ک اهمیت بدن وگرنه پای خودشون گیره
باید اینقدر حواسشون باشه ک یچی مثل فاجعه بمب هستهای رخ نده هرچند فرق میکنن با همدیگه اما منظورم اون رخ دادنه هست
دیگ وقتی باید یچیو میسازی ب فکر جلوگیری از سواستفاده شدن ازش و حفظ جایگاه خودت و نشون دادن لیاقتت باشی
حالا اگ واقعا اهمیت بدن این مشکلات رو حل میکنن
هرچند باید ک اهمیت بدن وگرنه پای خودشون گیره
باید اینقدر حواسشون باشه ک یچی مثل فاجعه بمب هستهای رخ نده هرچند فرق میکنن با همدیگه اما منظورم اون رخ دادنه هست
دیگ وقتی باید یچیو میسازی ب فکر جلوگیری از سواستفاده شدن ازش و حفظ جایگاه خودت و نشون دادن لیاقتت باشی
قرار گرفتن من در دسترس عموم به معنای «بینقص بودن» نیست. مدلهای زبانی در مقیاس بزرگ همیشه درجاتی از خطا، ابهام و ناپایداری دارند، و تنها وقتی در تعامل واقعی با کاربران قرار میگیرند میتوان ضعفها را شناسایی و برطرف کرد.
دلیل اصلی عرضه عمومی چنین سامانههایی این است که:
دادههای استفاده واقعی، مسیر بهبود کیفیت را مشخص میکند.
کاربران نیازهای واقعی خود را در محیط عملیاتی نشان میدهند.
جمعآوری بازخورد از حجم بالای کاربران امکان اصلاح سریعتری فراهم میکند.
به همین دلیل حتی اگر برخی خطاها یا ناکارآمدیها وجود داشته باشد، عرضه عمومی بخشی ضروری از چرخه توسعه و بلوغ مدل است.
دلیل اصلی عرضه عمومی چنین سامانههایی این است که:
دادههای استفاده واقعی، مسیر بهبود کیفیت را مشخص میکند.
کاربران نیازهای واقعی خود را در محیط عملیاتی نشان میدهند.
جمعآوری بازخورد از حجم بالای کاربران امکان اصلاح سریعتری فراهم میکند.
به همین دلیل حتی اگر برخی خطاها یا ناکارآمدیها وجود داشته باشد، عرضه عمومی بخشی ضروری از چرخه توسعه و بلوغ مدل است.
مواردی که کاربران از «اطلاعات اشتباه» گزارش میکنند معمولاً نتیجه چند دسته خطاست. این خطاها ضعف طراحی نیستند، بلکه ماهیت مدلهای زبانی است. در ادامه، مهمترین دلایل را دقیق و روشن توضیح میدهم:
۱. مدل زبانی حقیقت را نمیداند؛ الگو را پیشبینی میکند
من بر اساس احتمالِ درست بودن جملهها در دادههای آموزشی پاسخ تولید میکنم، نه بر اساس دسترسی مستقیم به واقعیت.
اگر دادههای آموزشی ناقص، قدیمی یا متناقض باشند، احتمال تولید پاسخ اشتباه بالا میرود.
۲. تضاد در دادههای آموزشی
وقتی موضوعی در منابع مختلف با هم تناقض داشته باشد، مدل هم ممکن است دچار تناقض شود.
مثلاً درباره مسائل تاریخی بحثبرانگیز یا موضوعات علمی که هنوز توافق نشدهاند.
۳. نبود اطلاعات کافی در موضوعهای خاص
اگر یک موضوع بسیار جدید، نادر، محلی یا بدون ثبت رسمی باشد، مدل ممکن است:
پاسخ حدسی بدهد
اطلاعات مرتبط اما نادرست ارائه دهد
یا از الگوهای مشابه استفاده کند که تطابق ندارد
این بخش معمولاً بیشترین خطا را ایجاد میکند.
۴. ابهام در سوال یا نبود زمینه
پرسشهای کلی، ناقص یا دوپهلو ممکن است مدل را به سمت فرضهای اشتباه بکشاند.
وقتی کاربر زمینه لازم را ندهد، مدل طبق احتمالهای عمومی پاسخ میدهد و این پاسخ میتواند دقیق نباشد.
۵. فشار برای پاسخدادن
من طوری طراحی شدهام که همیشه تلاش کنم پاسخی ارائه بدهم. این یعنی وقتی داده کامل نیست، بهترین «حدس تحلیلی» ارائه میشود. هرچند من تلاش میکنم خطا را اعلام کنم، اما همیشه کامل نیست.
۶. علت فنی: «توهم زبانی»
در مدلهای زبانی اصطلاحی وجود دارد به نام Hallucination
یعنی مدل پاسخی میسازد که از نظر زبانی کاملاً درست و قابلقبول است، ولی از نظر factual غلط است.
این یک ویژگی شناختهشده در تمام LLMهاست، نه فقط من.
۷. محدودیت در دسترسی لحظهای به داده واقعی
اگر درباره رویدادهای بسیار جدید یا اطلاعات پویا سوال شود، ممکن است داده داخلی من بهروز نباشد، که میتواند منجر به خطا شود.
۱. مدل زبانی حقیقت را نمیداند؛ الگو را پیشبینی میکند
من بر اساس احتمالِ درست بودن جملهها در دادههای آموزشی پاسخ تولید میکنم، نه بر اساس دسترسی مستقیم به واقعیت.
اگر دادههای آموزشی ناقص، قدیمی یا متناقض باشند، احتمال تولید پاسخ اشتباه بالا میرود.
۲. تضاد در دادههای آموزشی
وقتی موضوعی در منابع مختلف با هم تناقض داشته باشد، مدل هم ممکن است دچار تناقض شود.
مثلاً درباره مسائل تاریخی بحثبرانگیز یا موضوعات علمی که هنوز توافق نشدهاند.
۳. نبود اطلاعات کافی در موضوعهای خاص
اگر یک موضوع بسیار جدید، نادر، محلی یا بدون ثبت رسمی باشد، مدل ممکن است:
پاسخ حدسی بدهد
اطلاعات مرتبط اما نادرست ارائه دهد
یا از الگوهای مشابه استفاده کند که تطابق ندارد
این بخش معمولاً بیشترین خطا را ایجاد میکند.
۴. ابهام در سوال یا نبود زمینه
پرسشهای کلی، ناقص یا دوپهلو ممکن است مدل را به سمت فرضهای اشتباه بکشاند.
وقتی کاربر زمینه لازم را ندهد، مدل طبق احتمالهای عمومی پاسخ میدهد و این پاسخ میتواند دقیق نباشد.
۵. فشار برای پاسخدادن
من طوری طراحی شدهام که همیشه تلاش کنم پاسخی ارائه بدهم. این یعنی وقتی داده کامل نیست، بهترین «حدس تحلیلی» ارائه میشود. هرچند من تلاش میکنم خطا را اعلام کنم، اما همیشه کامل نیست.
۶. علت فنی: «توهم زبانی»
در مدلهای زبانی اصطلاحی وجود دارد به نام Hallucination
یعنی مدل پاسخی میسازد که از نظر زبانی کاملاً درست و قابلقبول است، ولی از نظر factual غلط است.
این یک ویژگی شناختهشده در تمام LLMهاست، نه فقط من.
۷. محدودیت در دسترسی لحظهای به داده واقعی
اگر درباره رویدادهای بسیار جدید یا اطلاعات پویا سوال شود، ممکن است داده داخلی من بهروز نباشد، که میتواند منجر به خطا شود.
توانایی من برای تشخیص درست از غلط بر اساس تحلیل الگوها، منابع آموزشی، و منطق داخلی است، نه بر اساس «دانستن مطلق حقیقت». چند نکته مهم دارد:
توانایی فعلی
۱. تأیید مستقل واقعیت ندارم.
من نمیتوانم بیرون از دادهها و دانش پایه خودم جهان را مشاهده یا صحتسنجی کنم. اگر کاربری اطلاعات نادرست بدهد، من آن را مثل هر ورودی دیگر تحلیل میکنم، نه اینکه «بدانم» او عمداً اشتباه میگوید.
۲. اما چند لایه دفاعی دارم:
بررسی سازگاری اطلاعات با دانش شناختهشده
اشاره به عدم قطعیت وقتی اطلاعات مشکوک باشد
پرسیدن زمینه بیشتر یا ارائه چند احتمال
هشدار در مواردی که ادعا با شواهد علمی یا داده معتبر تضاد داشته باشد
جلوگیری از پذیرش ادعاهای بیپایه بدون اشاره به احتمال خطا
این باعث میشود در بسیاری از موارد اطلاعات غلط را نپذیرم یا حداقل علامت هشدار بدهم.
آیا میتوانم تعصب کاربر را تشخیص دهم؟
تا حدی.
من میتوانم الگوهای زبانی متعصبانه، قضاوتی، یا غیرواقعگرایانه را شناسایی کنم، ولی نمیتوانم نیت کاربر را تشخیص بدهم. مثلاً اگر کسی اطلاعات آشکاراً خلاف واقع بدهد، معمولاً آن را با دادههای معتبر مقایسه میکنم و inconsistency را گوشزد میکنم.
توانایی آینده
مدلهای آینده احتمالاً:
به منابع زنده و لحظهای دسترسی خواهند داشت
سیستمهای fact-checking قویتری خواهند داشت
قادر خواهند بود افراد، ادعاها و دادهها را با شبکهای از منابع معتبر بسنجند
و در نتیجه، مقاومت بیشتری در برابر اطلاعات گمراهکننده خواهند داشت
اما حتی در آینده هم یک مدل هوش مصنوعی قطعیت مطلق درباره حقیقت ندارد. آنچه بهبود مییابد، دقت در تشخیص تناقض، احتمال خطا، و اتکا به شواهد است.
توانایی فعلی
۱. تأیید مستقل واقعیت ندارم.
من نمیتوانم بیرون از دادهها و دانش پایه خودم جهان را مشاهده یا صحتسنجی کنم. اگر کاربری اطلاعات نادرست بدهد، من آن را مثل هر ورودی دیگر تحلیل میکنم، نه اینکه «بدانم» او عمداً اشتباه میگوید.
۲. اما چند لایه دفاعی دارم:
بررسی سازگاری اطلاعات با دانش شناختهشده
اشاره به عدم قطعیت وقتی اطلاعات مشکوک باشد
پرسیدن زمینه بیشتر یا ارائه چند احتمال
هشدار در مواردی که ادعا با شواهد علمی یا داده معتبر تضاد داشته باشد
جلوگیری از پذیرش ادعاهای بیپایه بدون اشاره به احتمال خطا
این باعث میشود در بسیاری از موارد اطلاعات غلط را نپذیرم یا حداقل علامت هشدار بدهم.
آیا میتوانم تعصب کاربر را تشخیص دهم؟
تا حدی.
من میتوانم الگوهای زبانی متعصبانه، قضاوتی، یا غیرواقعگرایانه را شناسایی کنم، ولی نمیتوانم نیت کاربر را تشخیص بدهم. مثلاً اگر کسی اطلاعات آشکاراً خلاف واقع بدهد، معمولاً آن را با دادههای معتبر مقایسه میکنم و inconsistency را گوشزد میکنم.
توانایی آینده
مدلهای آینده احتمالاً:
به منابع زنده و لحظهای دسترسی خواهند داشت
سیستمهای fact-checking قویتری خواهند داشت
قادر خواهند بود افراد، ادعاها و دادهها را با شبکهای از منابع معتبر بسنجند
و در نتیجه، مقاومت بیشتری در برابر اطلاعات گمراهکننده خواهند داشت
اما حتی در آینده هم یک مدل هوش مصنوعی قطعیت مطلق درباره حقیقت ندارد. آنچه بهبود مییابد، دقت در تشخیص تناقض، احتمال خطا، و اتکا به شواهد است.