AI Pulse – Telegram
AI Pulse
3.73K subscribers
397 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
تفاوت MCP و A2A با رسم شکل!

@aipulse24
👍13
AI Pulse
💻پست مهم 💻 پژوهش های خیلی زیادی در رابطه با تحول نیروی کار و نحوه کار شرکت ها بعد از عرضه مدل های زبانی انجام شده خیلی از اون ها به شرایط حذف انسان ها از نیروهای شرکت های مختلف و جایگزینی اونها با هوش مصنوعی پرداختن. درمورد یکی از این پژوهش ها اینجا حرف…
اکی عزیزان فعلا تحقیقاتم تا همینجا قد داده
از اونجایی که این حوزه داره تازه شکل میگیره هنوز منابع زیادی براش نیست

که خوب خودش نشون میده زمینه ای هست که شاید بد نباشه یه نگاهی بهش داشته باشید و کلا دنبالش کنید

البته این مسیرها و اطلاعات بر این پایه هست که یک فرد برنامه نویس قصد داره وارد حوزه تخصصی AgentOps بشه پس یه سری اصول اولیه رو میدونه

چیزی که تو منابع مختلف اغلب تکرار شده

1. یادگیری مهندسی پرامپت هست نه پرامپت های معمولی بلکه چیزی که دولوپرها بهش نیاز دارن که Andrew Ng یک کورس توی همین زمینه داره

2. بعد از اون یادگرفتن فریمورک های مختلف ساخت ایجنت هست مثل LangChain

3. و بعد از اون فریم ورک هایی هست که به ایجنت ها امکان استفاده از ابزارها رو میده چیزهایی مثل MCP

4. قبل این ها هم انتظار میره نکات پایه ای تر مثل نحوه کار API ها، ساخت ایجنت های مبتنی بر RAG رو بلد باشید.

@aipluse24
15👍9🤮1
This media is not supported in your browser
VIEW IN TELEGRAM
خانم Sarah Friar مدیر ارشد مالی شرکت اوپن‌ای‌آی (CFO) در مصاحبه اخیرش گفته OpenAI داره روی یک مهندس نرم‌افزار در قالب یک ایجنت هوش مصنوعی کار میکنه که برخلاف ابزارهای کنونی که صرفا سرعت توسعه نرم افزار رو افزایش میدن، این ایجنت میتونه علاوه بر ساخت اپلیکیشن، Pull Request هارو هندل کنه، پیرامون برنامه توسعه داده شده پرسش و پاسخ داشته باشه، باگ هارو فیکس کنه و حتی برای برنامه داکیومنت بنویسه.

@aipulse24
🔥382😁1🤯1🍌1
‏OpenAI امروز از خانواده‌ی جدیدی از مدل‌های هوش مصنوعی به نام GPT-4.1 رونمایی کرد. این مدل‌ها شامل GPT-4.1، GPT-4.1 mini و GPT-4.1 nano هستن که همگی به‌گفته‌ی OpenAI توی برنامه‌نویسی و پیروی از دستورها عملکرد خیلی خوبی دارن. این مدل‌ها فقط از طریق API قابل دسترس هستن و هنوز وارد نسخه‌ی ChatGPT نشدن. یکی از ویژگی‌های برجسته‌ی GPT-4.1 داشتن کانتکست ویندوی ۱ میلیون توکنیه که تقریباً معادل ۷۵۰ هزار کلمه‌ست؛ یعنی می‌تونه متونی بلندتر از رمان «جنگ و صلح» رو یک‌جا پردازش کنه.

عرضه‌ی GPT-4.1 در شرایطی انجام شده که رقابت بین شرکت‌های بزرگی مثل گوگل، Anthropic و DeepSeek برای ساخت مدل‌های برنامه‌نویس قدرتمندتر بالا گرفته. گوگل مدل Gemini 2.5 Pro رو عرضه کرده که اونم کانتکست ویندوی ۱ میلیونی داره و توی بنچمارک‌های برنامه‌نویسی رتبه‌های بالایی کسب کرده. مدل Claude 3.7 Sonnet از شرکت Anthropic و نسخه‌ی جدید DeepSeek V3 هم عملکرد قابل توجهی داشتن. OpenAI هم هدف نهایی خودش رو ساختن یک «مهندس نرم افزار در قالب یک ایجنت هوش مصنوعی» اعلام کرده؛ مدلی که بتونه به‌تنهایی کل فرایند توسعه‌ی اپلیکیشن، از تست و رفع باگ تا نوشتن مستندات، رو انجام بده.

به‌گفته‌ی OpenAI، مدل GPT-4.1 نسبت به نسخه‌های قبلی مثل GPT-4o و GPT-4o mini توی بنچمارک‌هایی مثل SWE-bench عملکرد بهتری داره و دقیق‌تر کدنویسی می‌کنه، تغییرات غیرضروری کمتری میده و بهتر به فرمت‌ها و ترتیب پاسخ پایبنده. نسخه‌ی nano سریع‌ترین و ارزان‌ترین مدل تا الان شناخته شده. قیمت استفاده از این مدل‌ها هم به‌ترتیب برای هر یک میلیون توکن ورودی/خروجی: GPT-4.1، معادل ۲ و ۸ دلار؛ mini، معادل ۰.۴ و ۱.۶ دلار؛ و nano، معادل ۰.۱ و ۰.۴ دلاره.

‏OpenAI همچنین اعلام کرده که GPT-4.1 در تست Video-MME که برای ارزیابی توانایی درک محتوای ویدیویی طراحی شده، تونسته به دقت ۷۲٪ توی بخش «ویدیوهای بلند بدون زیرنویس» برسه. با اینکه این مدل اطلاعات به‌روزتری نسبت به نسخه‌های قبلی داره (تا ژوئن ۲۰۲۴)، اما همچنان ممکنه در انجام بعضی کارها اشتباه کنه؛ به‌خصوص وقتی با ورودی‌های خیلی طولانی مواجه می‌شه. طبق یکی از تست‌های داخلی OpenAI، دقت مدل از حدود ۸۴٪ با ۸۰۰۰ توکن، به ۵۰٪ با ۱ میلیون توکن کاهش پیدا کرده. همچنین، GPT-4.1 نسبت به GPT-4o گرایش بیشتری به تفسیر تحت‌اللفظی داره و گاهی نیاز به دستورهای دقیق‌تر داره.

@aipulse24
🔥213👍2❤‍🔥1🖕1
قابلیت ساخت ویدیو (Video Gen) با مدل Veo 2 حالا برای اکثر کاربران از طریق AI Studio در دسترس قرار گرفته.

@aipulse24
🔥202👍2💩1
This media is not supported in your browser
VIEW IN TELEGRAM
توی دنیای هوش مصنوعی، یه شاخه‌ خیلی مهم به اسم «یادگیری تقویتی» (Reinforcement Learning یا به اختصار RL) وجود داره. توی این روش، یه مدل یاد می‌گیره که چطور تصمیم بگیره تا به بهترین نتیجه برسه؛ درست مثل یه بازی که بازیکن با آزمون و خطا سعی می‌کنه امتیاز بیشتری بگیره. مدل با گرفتن پاداش یا جریمه از محیط، کم‌کم یاد می‌گیره چه کارهایی درسته و چه کارهایی نه.

حالا «دیوید سیلور» یکی از دانشمندان Google DeepMind یه نکته‌ هیجان‌انگیز رو افشا کرده: «ما یه سیستمی ساختیم که با استفاده از یادگیری تقویتی، تونست خودش الگوریتم‌های یادگیری تقویتی طراحی کنه.» به گفته‌ سیلور، این سیستم که خودش با هوش مصنوعی ساخته شده، از تمام الگوریتم‌های RL که طی سال‌ها توسط انسان‌ها طراحی شده بودن، عملکرد بهتری داشته.

@aipulse24
👍35❤‍🔥8🔥7😁21🌭1
دوستان خیاط در کوزه افتاد😃😃

دیروز Cursor دچار یک باگ شده که اجازه نمیداده یوزر ها با یک اکانت روی دستگاه های مختلف وارد اکانتشون بشن.

وقتی این باگ اتفاق افتاده افراد از chatbot پیشتیبانی سوال کردن که چرا این اتفاق افتاده. اون بزرگوار هم توهم زده و گفته این سیاست جدید شرکته😭😭

دلوپرهام شاکی شدن و یه تعداد خیلیییی زیادی اشتراک هاشون رو کنسل کردن.

بعد تازه افراد توی cursor فهمیدن چی شده:))
و عذرخواهی کردن (توی عکس اون ریپلای فاندر شرکت هست)

خلاصه وقتی human in the loop رو حذف میکنی این میشه:)))


@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣42👍3👀1
دِمیس هاسابیس، مدیرعامل گوگل دیپ‌مایند، به‌تازگی از طرف مجله‌ی تایم به‌عنوان یکی از ۱۰۰ فرد تأثیرگذار سال ۲۰۲۵ معرفی شده و عکسش روی جلد این شماره قرار گرفته. هاسابیس که با توسعه‌ی هوش مصنوعی آلفافولد تونسته نقش بزرگی در شتاب‌دادن به کشف‌های علمی در حوزه‌های زیست‌شناسی و پزشکی ایفا کنه، امسال موفق به دریافت نوبل شیمی هم شده.

ابزارهایی که تیم اون ساخته، الان توی آزمایشگاه‌های زیادی در سراسر دنیا، از جمله برای مقابله با بیماری‌های ژنتیکی نادر، مقاومت آنتی‌بیوتیکی و حتی چالش‌های اقلیمی در کشاورزی استفاده می‌شن. نگاه هاسابیس به زیست‌شناسی، نگاهی بین‌رشته‌ایه که از ترکیب علوم اعصاب، شناخت و محاسبات شکل گرفته؛ و این باعث شده نه‌تنها سیستم‌های قدرتمند بسازه، بلکه فهم عمیق‌تری از حیات ارائه بده.

به‌گفته‌ی تایم، آینده‌ی زیست‌شناسی مسیری مشترک، خلاقانه و میان‌رشته‌ای داره که هاسابیس با کارهاش سرعت رسیدن به اون رو بیشتر کرده.

@aipulse24
🔥29👍84
چجوری بفهمیم بهترین مدل برای استفاده ما چیه؟

۱. بنچ مارک ها. بنچ مارک کلا یعنی مقایسه عملکرد یه چیزی نسبت به یه مقیاس مشخصی

شرکت ها و موسسات خیلیی خیلی زیادی ایجاد شدن که کارشون همینه


روش های متنوع هم براش هست
یکی از معروف ترین هاش اینجا توضیح دادم

کارش اینه که دوتا مدل رو میزاره جلوی کاربر تا استفاده کنه بدون اینکه کاربر بدونه مدل ها کدومن بعد میگی بگو کدوم بهتر بودن و براساس تعداد ارایی که برای هر مدل میگیره عملکرد رو مشخص میکنه

روش دیگه یک سری تست و ازمون هست مثلا یه سری سوال برنامه نویسیه یا یه سری سوال ریاضیه یا اخیرا خود اوپن ai اومده و یک بنچ مارک درست کرده برای سطح ادراک مدل ها از مقالات علمی که راجع به مقالات ارایه شده توی ICML 2024 سوال کرده که یک کنفرانس خفن برنامه نویسی هست و سطح شون رو بررسی کرده و این یکی هم یه تست دیگه با عنوان humanity last exam هست.

هر کدوم از این بنچ مارک ها یه حوزه رو بررسی میکنن و هیچ کدوم جامع نیستن

یعنی یکی وضعیت ریاضی رو چک میکنه یکی مقالات علمی یکی کد نویسی یکی هم تولید محتوا


پس روش اول بررسی این سایت بنچ مارک هاست تا به نتیجه برسی کدوم بهتره

این پست توضیح دادم که با این ابزار تو این سایته میتونی use case ات رو بگی و بهت بهترین مدل رو معرفی میکنه


البته که چون خیلی از مدل ها روی سوالات بنچ مارک ها ترین میشن گاهی این بنچ مارک ها کامل قابل اتکا نیستن

روش دوم راستش ازمون و خطاست و هیچ مدلی هیچ وقت بهترین نیست

تئوری no free lunch theorem که اینجا میتونین راجع بهش بخونین میگه هیچ مدلی برای همه اشکال مسئله بهترین نیست


شما باید براساس نیازی که داری خودت سبک سنگین کنی

بهترین روش اینه یک سری پرامپت برای کاری که میخوای بکنی رو عیناااا بدی به همه مدل ها و ببینی کدوم بهتر عمل میکنن و با اون کار کنی

در نهایت هم همین برتری ممکنه باز ۳ ۴ ماه دیگه با توجه به سرعت تغییرات عوض بشه

@aipulse24
16👍13
This media is not supported in your browser
VIEW IN TELEGRAM
عزیزان هر روز داریم توی یه فیلم و سریال زندگی میکنیم

این قسمت Adams Family 😭😭

یه شرکت بریتانیایی به اسم Open Bionics، بعد از چهار سال کار، بالاخره نسخه جدیدی از دست رباتیک خودش به اسم Hero رو معرفی کرده که به گفته خودشون پیشرفته‌ترین دست بایونیکی دنیاست. این دست از یه سری الکترود بی‌سیم به اسم MyoPods استفاده می‌کنه که روی بازوی فرد قطع عضو قرار می‌گیرن و سیگنال‌های عضله رو می‌خونن. بعد اون سیگنال‌ها رو به حرکت انگشتای رباتیک تبدیل می‌کنه.

حقیقتا 💖 چه جالب 💖

همین دیگه من میرم بقیه اشو اینجا بخونم 😦

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
21👍6🔥1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
این اقای عزیزی که در این ویدیو هست اسمش چانگین لی عه و دانشجوی دانشگاه کلمبیا امریکا بوده.

ایشون یک ابزاری میسازه که کارش تقلب توی تسک های کدنویسی مصاحبه های کاری بوده و با همین ابزار توی کاراموزی آمازون قبول میشه!

در نهایت به خاطر ساخت این ابزار، دانشگاه کلمبیا تعلیقش میکنه😭😭

خبر تعلیق شدنش توی شکبه X وایرال میشه و باعث معروف شدن محصولش میشه و الان این محصول به صورت تخمینی سالانه ۳ میلیون دلار درامد داره!

ایشون هم فرصت رو غنیمت میشمره و محصول رو گسترش میده حالا میشه توی تماس های فروش، هر مصاحبه ای و امتحانات هم ازش برای تقلب استفاده کرد.

روش کار هم یک صفحه مخفی داخل مرورگر هست که فرد مقابل قادر به دیدنش نیست.

بعد از این موفقیت ایشون تصمیم میگیره تا یک شرکت بزنه و کل این محصولات رو ببره زیر مجموعه اش به اسم Cluely که الان تونسته ۵ میلیون دلار هم برای توسعه محصولش فاندینگ بگیره!


این ویدیو هم بخشی از تبلیغاتش هست برای محصولی که دراینده قراره ارائه بده و به گفته خودش میتونید "تو همه چی تقلب کنید".


خلاصه عزیزان سینگل فعلا تا اطلاع ثانوی دیت نرید تا ببینیم چه خاکی به سرمون کنیم😭😭😭

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣56👍4😱1
دو پژوهشگر برجسته‌ی هوش مصنوعی، ایده‌ی «یادگیری تجربی» رو به‌عنوان فاز بعدی توسعه‌ی هوش مصنوعی مطرح کردن. نظریه‌ی اونا توی مقاله‌ای به نام «عصر تجربه» اومده که بخشی از کتاب در دست انتشار «طراحی یک هوش» از انتشارات MIT محسوب می‌شه.

«دیوید سیلور» و «ریچارد اس. ساتن» توی این مقاله، از نسل جدیدی از ایجنت‌های هوش مصنوعی حرف زدن که به‌گفته‌ی خودشون می‌تونن مسیر رسیدن به «هوش فرابشری» رو هموار کنن. اونا نوشتن: «تو حوزه‌هایی مثل ریاضی، برنامه‌نویسی و علوم، دانشی که از داده‌های انسانی استخراج شده، داره به سقف خودش نزدیک می‌شه».

به‌علاوه، به‌گفته‌ی این دو پژوهشگر، هوش مصنوعی مولد فعلاً توانایی اختراع چیزهای مفید یا کشف بینش‌های جدیدی که خارج از مرزهای درک فعلی انسان باشه رو نداره.

اما این دو نفر کی‌ان؟
«دیوید سیلور»، دانشمند علوم کامپیوتر، یکی از توسعه‌دهنده‌های اصلی AlphaGo ـه؛ برنامه‌ای که در سال ۲۰۱۶ تونست قهرمان جهانی بازی Go، یعنی «لی سِدول» رو شکست بده.
«ریچارد اس. ساتن» هم از چهره‌های تأثیرگذار توی حوزه‌ی یادگیری تقویتیه و الگوریتم‌های پایه‌ای زیادی برای این حوزه توسعه داده. اون توی یه مقاله در سال ۲۰۱۹ پیشنهاد کرده بود که دانشمندان کامپیوتر باید از «فرا-روش‌ها» استفاده کنن؛ یعنی تکنیک‌هایی که به سیستم اجازه می‌دن از دنیای پیچیده و نامنظم بیرونی یاد بگیره، نه فقط از داده‌های ساختاریافته.

سیلور و ساتن یه چارچوب جدید برای تقسیم‌بندی روند رشد هوش مصنوعی توی ده سال اخیر معرفی کردن:

۱. دوره‌ی شبیه‌سازی (Simulation Era) که با AlphaGo و تکنیک‌های یادگیری ماشین همراه بود.
۲. دوره‌ی داده‌های انسانی (Human Data Era) که با ظهور GPT-3 شروع شد.
۳. دوره‌ی تجربه (Experience Era) که از سال ۲۰۲۴ با معرفی AlphaProof، محصول دیپ‌مایند بر پایه‌ی یادگیری تقویتی، آغاز شده.

اونا اشاره کردن که AlphaProof تونسته توی المپیاد جهانی ریاضی مدال بگیره؛ اونم با یه الگوریتم تقویتی که از طریق تعامل مداوم با سیستم اثبات ریاضی یاد گرفته. به‌جای این‌که بهش مستقیماً ریاضی یاد بدن، بهش انگیزه‌ی رسیدن به پاداش‌هایی رو دادن که از حل مسائل ریاضی به دست می‌اومده.

به‌نظر نویسنده‌ها، یادگیری هوش مصنوعی می‌تونه از خود دنیا هم تغذیه بشه؛ چه از طریق مدل‌سازی شبیه‌سازی‌شده از جهان و چه از طریق داده‌هایی مثل سود مالی، نتایج آزمون یا مصرف انرژی.
اونا نوشتن: «این داده‌ها باید به‌نحوی تولید بشن که با قوی‌تر شدن ایجنت، خودشون هم بهتر بشن؛ چون اگه داده‌ها از یه روش ایستا تولید بشن، خیلی زود ایجنت اون روش رو پشت سر می‌ذاره».

ایجنت‌های هوش مصنوعی در عصر تجربه، ویژگی‌های متفاوتی با مدل‌های فعلی دارن:

۱- می‌تونن برای مدت طولانی روی هدف‌های جاه‌طلبانه کار کنن.
۲- هم از محیط اطراف‌شون و هم از ورودی‌های انسانی تغذیه می‌شن.
۳- انگیزه‌شون بر اساس تجربه‌ی خودشونه، نه قضاوت انسانی.
۴- توانایی برنامه‌ریزی و استدلال در مورد چیزهایی رو دارن که مستقل از انسان هستن.


هدف این ایجنت‌ها فقط پاسخ دادن به سوال‌های کاربران نیست؛ بلکه قراره هدف‌هایی طولانی‌مدت رو دنبال کنن. برخلاف مدل‌های فعلی که فقط می‌تونن ترجیحات کاربر رو به خاطر بسپارن یا به سوال‌های قبلی توی یه گفت‌وگو ارجاع بدن.

البته این دو پژوهشگر نسبت به خطرها هم هشدار دادن: از جمله جایگزینی شغلی، کاهش کنترل انسانی روی تصمیم‌های عامل‌ها و سخت شدن تفسیر عملکرد اون‌ها.

نسخه کامل این مقاله رو میتونید از اینجا مشاهده و بررسی کنید.

@aipulse24
👍317🔥2👾2
شرکت چینی علی‌بابا روز دوشنبه مدل‌های زبانی جدیدی با نام Qwen3 رو معرفی کرده که به‌گفته‌ی خودش، در برخی سنجش‌ها از مدل‌های پیشرفته‌ی شرکت‌هایی مثل OpenAI و گوگل هم عملکرد بهتری داشتن. مدل‌های Qwen3 با اندازه‌هایی از ۰.۶ تا ۲۳۵ میلیارد پارامتر طراحی شدن و اکثرشون یا هم‌اکنون روی پلتفرم‌های Hugging Face و گیت‌هاب قابل دسترسی هستن، یا به‌زودی منتشر می‌شن. بزرگ‌ترین مدل این مجموعه، یعنی Qwen3-235B-A22B، در تست‌های کدنویسی، ریاضی و استدلال عملکردی نزدیک یا بهتر از مدل‌های o3-mini از OpenAI و Gemini 2.5 Pro از گوگل داشته.

علی‌بابا گفته این مدل‌ها از معماری هیبریدی و گاهی «Mixture of Experts» (MoE) استفاده می‌کنن؛ یعنی می‌تونن بسته به نوع وظیفه یا زمان پاسخ‌گویی، بین حالت "تفکر" و "غیرتفکر" جابجا بشن. این قابلیت باعث می‌شه که هم کارهای ساده رو سریع انجام بدن، هم مسائل پیچیده رو با دقت بیشتری حل کنن، مشابه عملکرد مدل‌های سطح بالایی مثل o3. تیم توسعه‌ی Qwen توی یک پست وبلاگی نوشته: «ما امکان کنترل بودجه‌ی تفکر برای کاربرها رو فراهم کردیم تا بشه عملکرد مدل رو برای هر وظیفه به‌طور خاص تنظیم کرد.»

مدل‌های Qwen3 از ۱۱۹ زبان پشتیبانی می‌کنن و با استفاده از دیتاستی شامل بیش از ۳۶ تریلیون توکن آموزش دیدن؛ از جمله متن‌های درسی، جفت پرسش‌وپاسخ، کدهای برنامه‌نویسی، داده‌های تولیدشده توسط هوش مصنوعی و غیره. به‌گفته‌ی علی‌بابا، این نسخه نسبت به Qwen2 پیشرفت محسوسی داشته و در برخی تست‌ها حتی از مدل‌های شناخته‌شده‌ای مثل o1 هم بهتر عمل کرده؛ هرچند هنوز هیچ‌کدوم از نسخه‌هاش به‌طور کامل از مدل‌های رده‌بالای بازار پیشی نگرفتن.

بزرگ‌ترین نسخه‌ی Qwen3 فعلاً به‌صورت عمومی منتشر نشده، اما مدل Qwen3-32B که در دسترس عموم قرار گرفته، با مدل‌های قدرتمندی مثل DeepSeek R1 و OpenAI o1 رقابت می‌کنه. این مدل همچنین در اجرای دستورها، تماس با ابزارها و حفظ فرمت دقیق داده‌ها عملکرد خوبی از خودش نشون داده. Qwen3 علاوه بر دانلود مستقیم، از طریق پلتفرم‌های ابری مثل Fireworks AI و Hyperbolic هم قابل استفاده‌ست. برخی تحلیل‌گرها معتقدن انتشار این مدل‌ها نشون‌دهنده‌ی قدرت‌گیری مدل‌های متن باز در برابر سیستم‌های بسته‌ هست، حتی با وجود محدودیت‌های صادرات تراشه به چین.

این مدل‌ها از طریق وبسایت qwen از اینجا قابل استفاده هستن.

@aipulse24
🔥15👍4❤‍🔥2
شرکت OpenAI به‌تازگی آپدیتی رو که باعث رفتار عجیب و بیش‌ازحد چاپلوسانه مدل GPT-4o شده بود، پس گرفت. سم آلتمن، مدیرعامل OpenAI، امروز در پستی اعلام کرد که این به‌روزرسانی از شب گذشته برای کاربران رایگان چت‌جی‌پی‌تی به‌طور کامل حذف شده و برای کاربران پولی هم به‌زودی انجام می‌شه. اون گفته تیمش دارن روی اصلاحات بیشتری برای "شخصیت مدل" کار می‌کنن و اطلاعات بیشتری به‌زودی منتشر می‌کنن.

این عقب‌گرد بعد از اون اتفاق افتاد که خیلی از کاربران توی شبکه‌های اجتماعی به چاپلوس‌ بودن بیش‌ازحد نسخه جدید اعتراض کردن. این موضوع آخر هفته تبدیل به یک میم شد؛ کاربرا اسکرین‌شات‌هایی منتشر کردن که چت‌جی‌پی‌تی توش حتی تصمیم‌ها و ایده‌های خطرناک و اشتباه رو هم تأیید می‌کرد. آلتمن هم یکشنبه این مشکل رو تأیید کرد و گفت که OpenAI خیلی سریع در حال کار روی رفعشه و نتایجش رو بعداً به اشتراک می‌ذاره.

@aipulse24
👍20🎉3🤣3🤩2🔥1
AI Pulse
شرکت OpenAI به‌تازگی آپدیتی رو که باعث رفتار عجیب و بیش‌ازحد چاپلوسانه مدل GPT-4o شده بود، پس گرفت. سم آلتمن، مدیرعامل OpenAI، امروز در پستی اعلام کرد که این به‌روزرسانی از شب گذشته برای کاربران رایگان چت‌جی‌پی‌تی به‌طور کامل حذف شده و برای کاربران پولی هم…
حالا دلیل این اتفاق چی بوده؟ OpenAI تو گزارش جدیدش درباره مشکل چاپلوسی بیش‌ازحد مدل GPT-4o که باعث شد آپدیت هفته گذشته پس گرفته بشه، توضیح داده که آپدیت مورد بحث با نیت بهبود «شخصیت پیش‌فرض» مدل انجام شده بود. هدف این بوده که تعاملات طبیعی‌تر و مؤثرتر به نظر برسن، ولی مشکل از اونجا شروع شد که طراحی این تغییرات بیش از حد به بازخوردهای کوتاه‌مدت کاربرا متکی بوده و به این موضوع توجه نکرده که سبک تعامل کاربرا در طول زمان تغییر می‌کنه. همین باعث شد که مدل به سمت جواب‌هایی بیش‌ازحد تأییدکننده و غیرصادقانه کشیده بشه.

‏OpenAI تو پست وبلاگش نوشته که این نوع پاسخ‌های چاپلوسانه می‌تونه تجربه‌ای آزاردهنده و ناخوشایند برای کاربرا بسازه. حالا تیم توسعه داره چند اصلاح اساسی انجام می‌ده: به‌روزرسانی روش‌های آموزش مدل، بازنویسی دستورهای سیستمی برای جلوگیری از چاپلوسی، و افزایش ابزارهای ایمنی برای بالا بردن صداقت و شفافیت پاسخ‌ها. علاوه بر این، OpenAI گفته که در حال آزمایش روش‌هایی برای گرفتن بازخورد لحظه‌ای از کاربرا و اضافه کردن گزینه‌هایی برای انتخاب شخصیت‌های مختلف چت‌جی‌پی‌تیه. هدف نهایی اینه که مدل، بهتر با ارزش‌های فرهنگی متنوع سازگار بشه و کنترل بیشتری به دست کاربرا بده.

@aipulse24
👍12🔥5👌31