OpenAI امروز از خانوادهی جدیدی از مدلهای هوش مصنوعی به نام GPT-4.1 رونمایی کرد. این مدلها شامل GPT-4.1، GPT-4.1 mini و GPT-4.1 nano هستن که همگی بهگفتهی OpenAI توی برنامهنویسی و پیروی از دستورها عملکرد خیلی خوبی دارن. این مدلها فقط از طریق API قابل دسترس هستن و هنوز وارد نسخهی ChatGPT نشدن. یکی از ویژگیهای برجستهی GPT-4.1 داشتن کانتکست ویندوی ۱ میلیون توکنیه که تقریباً معادل ۷۵۰ هزار کلمهست؛ یعنی میتونه متونی بلندتر از رمان «جنگ و صلح» رو یکجا پردازش کنه.
عرضهی GPT-4.1 در شرایطی انجام شده که رقابت بین شرکتهای بزرگی مثل گوگل، Anthropic و DeepSeek برای ساخت مدلهای برنامهنویس قدرتمندتر بالا گرفته. گوگل مدل Gemini 2.5 Pro رو عرضه کرده که اونم کانتکست ویندوی ۱ میلیونی داره و توی بنچمارکهای برنامهنویسی رتبههای بالایی کسب کرده. مدل Claude 3.7 Sonnet از شرکت Anthropic و نسخهی جدید DeepSeek V3 هم عملکرد قابل توجهی داشتن. OpenAI هم هدف نهایی خودش رو ساختن یک «مهندس نرم افزار در قالب یک ایجنت هوش مصنوعی» اعلام کرده؛ مدلی که بتونه بهتنهایی کل فرایند توسعهی اپلیکیشن، از تست و رفع باگ تا نوشتن مستندات، رو انجام بده.
بهگفتهی OpenAI، مدل GPT-4.1 نسبت به نسخههای قبلی مثل GPT-4o و GPT-4o mini توی بنچمارکهایی مثل SWE-bench عملکرد بهتری داره و دقیقتر کدنویسی میکنه، تغییرات غیرضروری کمتری میده و بهتر به فرمتها و ترتیب پاسخ پایبنده. نسخهی nano سریعترین و ارزانترین مدل تا الان شناخته شده. قیمت استفاده از این مدلها هم بهترتیب برای هر یک میلیون توکن ورودی/خروجی: GPT-4.1، معادل ۲ و ۸ دلار؛ mini، معادل ۰.۴ و ۱.۶ دلار؛ و nano، معادل ۰.۱ و ۰.۴ دلاره.
OpenAI همچنین اعلام کرده که GPT-4.1 در تست Video-MME که برای ارزیابی توانایی درک محتوای ویدیویی طراحی شده، تونسته به دقت ۷۲٪ توی بخش «ویدیوهای بلند بدون زیرنویس» برسه. با اینکه این مدل اطلاعات بهروزتری نسبت به نسخههای قبلی داره (تا ژوئن ۲۰۲۴)، اما همچنان ممکنه در انجام بعضی کارها اشتباه کنه؛ بهخصوص وقتی با ورودیهای خیلی طولانی مواجه میشه. طبق یکی از تستهای داخلی OpenAI، دقت مدل از حدود ۸۴٪ با ۸۰۰۰ توکن، به ۵۰٪ با ۱ میلیون توکن کاهش پیدا کرده. همچنین، GPT-4.1 نسبت به GPT-4o گرایش بیشتری به تفسیر تحتاللفظی داره و گاهی نیاز به دستورهای دقیقتر داره.
@aipulse24
عرضهی GPT-4.1 در شرایطی انجام شده که رقابت بین شرکتهای بزرگی مثل گوگل، Anthropic و DeepSeek برای ساخت مدلهای برنامهنویس قدرتمندتر بالا گرفته. گوگل مدل Gemini 2.5 Pro رو عرضه کرده که اونم کانتکست ویندوی ۱ میلیونی داره و توی بنچمارکهای برنامهنویسی رتبههای بالایی کسب کرده. مدل Claude 3.7 Sonnet از شرکت Anthropic و نسخهی جدید DeepSeek V3 هم عملکرد قابل توجهی داشتن. OpenAI هم هدف نهایی خودش رو ساختن یک «مهندس نرم افزار در قالب یک ایجنت هوش مصنوعی» اعلام کرده؛ مدلی که بتونه بهتنهایی کل فرایند توسعهی اپلیکیشن، از تست و رفع باگ تا نوشتن مستندات، رو انجام بده.
بهگفتهی OpenAI، مدل GPT-4.1 نسبت به نسخههای قبلی مثل GPT-4o و GPT-4o mini توی بنچمارکهایی مثل SWE-bench عملکرد بهتری داره و دقیقتر کدنویسی میکنه، تغییرات غیرضروری کمتری میده و بهتر به فرمتها و ترتیب پاسخ پایبنده. نسخهی nano سریعترین و ارزانترین مدل تا الان شناخته شده. قیمت استفاده از این مدلها هم بهترتیب برای هر یک میلیون توکن ورودی/خروجی: GPT-4.1، معادل ۲ و ۸ دلار؛ mini، معادل ۰.۴ و ۱.۶ دلار؛ و nano، معادل ۰.۱ و ۰.۴ دلاره.
OpenAI همچنین اعلام کرده که GPT-4.1 در تست Video-MME که برای ارزیابی توانایی درک محتوای ویدیویی طراحی شده، تونسته به دقت ۷۲٪ توی بخش «ویدیوهای بلند بدون زیرنویس» برسه. با اینکه این مدل اطلاعات بهروزتری نسبت به نسخههای قبلی داره (تا ژوئن ۲۰۲۴)، اما همچنان ممکنه در انجام بعضی کارها اشتباه کنه؛ بهخصوص وقتی با ورودیهای خیلی طولانی مواجه میشه. طبق یکی از تستهای داخلی OpenAI، دقت مدل از حدود ۸۴٪ با ۸۰۰۰ توکن، به ۵۰٪ با ۱ میلیون توکن کاهش پیدا کرده. همچنین، GPT-4.1 نسبت به GPT-4o گرایش بیشتری به تفسیر تحتاللفظی داره و گاهی نیاز به دستورهای دقیقتر داره.
@aipulse24
🔥21❤3👍2❤🔥1🖕1
قابلیت ساخت ویدیو (Video Gen) با مدل Veo 2 حالا برای اکثر کاربران از طریق AI Studio در دسترس قرار گرفته.
@aipulse24
@aipulse24
🔥20❤2👍2💩1
This media is not supported in your browser
VIEW IN TELEGRAM
توی دنیای هوش مصنوعی، یه شاخه خیلی مهم به اسم «یادگیری تقویتی» (Reinforcement Learning یا به اختصار RL) وجود داره. توی این روش، یه مدل یاد میگیره که چطور تصمیم بگیره تا به بهترین نتیجه برسه؛ درست مثل یه بازی که بازیکن با آزمون و خطا سعی میکنه امتیاز بیشتری بگیره. مدل با گرفتن پاداش یا جریمه از محیط، کمکم یاد میگیره چه کارهایی درسته و چه کارهایی نه.
حالا «دیوید سیلور» یکی از دانشمندان Google DeepMind یه نکته هیجانانگیز رو افشا کرده: «ما یه سیستمی ساختیم که با استفاده از یادگیری تقویتی، تونست خودش الگوریتمهای یادگیری تقویتی طراحی کنه.» به گفته سیلور، این سیستم که خودش با هوش مصنوعی ساخته شده، از تمام الگوریتمهای RL که طی سالها توسط انسانها طراحی شده بودن، عملکرد بهتری داشته.
@aipulse24
حالا «دیوید سیلور» یکی از دانشمندان Google DeepMind یه نکته هیجانانگیز رو افشا کرده: «ما یه سیستمی ساختیم که با استفاده از یادگیری تقویتی، تونست خودش الگوریتمهای یادگیری تقویتی طراحی کنه.» به گفته سیلور، این سیستم که خودش با هوش مصنوعی ساخته شده، از تمام الگوریتمهای RL که طی سالها توسط انسانها طراحی شده بودن، عملکرد بهتری داشته.
@aipulse24
👍35❤🔥8🔥7😁2❤1🌭1
دوستان خیاط در کوزه افتاد😃 😃
دیروز Cursor دچار یک باگ شده که اجازه نمیداده یوزر ها با یک اکانت روی دستگاه های مختلف وارد اکانتشون بشن.
وقتی این باگ اتفاق افتاده افراد از chatbot پیشتیبانی سوال کردن که چرا این اتفاق افتاده. اون بزرگوار هم توهم زده و گفته این سیاست جدید شرکته😭 😭
دلوپرهام شاکی شدن و یه تعداد خیلیییی زیادی اشتراک هاشون رو کنسل کردن.
بعد تازه افراد توی cursor فهمیدن چی شده:))
و عذرخواهی کردن (توی عکس اون ریپلای فاندر شرکت هست)
خلاصه وقتی human in the loop رو حذف میکنی این میشه:)))
@aipulse24
دیروز Cursor دچار یک باگ شده که اجازه نمیداده یوزر ها با یک اکانت روی دستگاه های مختلف وارد اکانتشون بشن.
وقتی این باگ اتفاق افتاده افراد از chatbot پیشتیبانی سوال کردن که چرا این اتفاق افتاده. اون بزرگوار هم توهم زده و گفته این سیاست جدید شرکته
دلوپرهام شاکی شدن و یه تعداد خیلیییی زیادی اشتراک هاشون رو کنسل کردن.
بعد تازه افراد توی cursor فهمیدن چی شده:))
و عذرخواهی کردن (توی عکس اون ریپلای فاندر شرکت هست)
خلاصه وقتی human in the loop رو حذف میکنی این میشه:)))
@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣42👍3👀1
دِمیس هاسابیس، مدیرعامل گوگل دیپمایند، بهتازگی از طرف مجلهی تایم بهعنوان یکی از ۱۰۰ فرد تأثیرگذار سال ۲۰۲۵ معرفی شده و عکسش روی جلد این شماره قرار گرفته. هاسابیس که با توسعهی هوش مصنوعی آلفافولد تونسته نقش بزرگی در شتابدادن به کشفهای علمی در حوزههای زیستشناسی و پزشکی ایفا کنه، امسال موفق به دریافت نوبل شیمی هم شده.
ابزارهایی که تیم اون ساخته، الان توی آزمایشگاههای زیادی در سراسر دنیا، از جمله برای مقابله با بیماریهای ژنتیکی نادر، مقاومت آنتیبیوتیکی و حتی چالشهای اقلیمی در کشاورزی استفاده میشن. نگاه هاسابیس به زیستشناسی، نگاهی بینرشتهایه که از ترکیب علوم اعصاب، شناخت و محاسبات شکل گرفته؛ و این باعث شده نهتنها سیستمهای قدرتمند بسازه، بلکه فهم عمیقتری از حیات ارائه بده.
بهگفتهی تایم، آیندهی زیستشناسی مسیری مشترک، خلاقانه و میانرشتهای داره که هاسابیس با کارهاش سرعت رسیدن به اون رو بیشتر کرده.
@aipulse24
ابزارهایی که تیم اون ساخته، الان توی آزمایشگاههای زیادی در سراسر دنیا، از جمله برای مقابله با بیماریهای ژنتیکی نادر، مقاومت آنتیبیوتیکی و حتی چالشهای اقلیمی در کشاورزی استفاده میشن. نگاه هاسابیس به زیستشناسی، نگاهی بینرشتهایه که از ترکیب علوم اعصاب، شناخت و محاسبات شکل گرفته؛ و این باعث شده نهتنها سیستمهای قدرتمند بسازه، بلکه فهم عمیقتری از حیات ارائه بده.
بهگفتهی تایم، آیندهی زیستشناسی مسیری مشترک، خلاقانه و میانرشتهای داره که هاسابیس با کارهاش سرعت رسیدن به اون رو بیشتر کرده.
@aipulse24
🔥29👍8❤4
چجوری بفهمیم بهترین مدل برای استفاده ما چیه؟
۱. بنچ مارک ها. بنچ مارک کلا یعنی مقایسه عملکرد یه چیزی نسبت به یه مقیاس مشخصی
شرکت ها و موسسات خیلیی خیلی زیادی ایجاد شدن که کارشون همینه
روش های متنوع هم براش هست
یکی از معروف ترین هاش اینجا توضیح دادم
کارش اینه که دوتا مدل رو میزاره جلوی کاربر تا استفاده کنه بدون اینکه کاربر بدونه مدل ها کدومن بعد میگی بگو کدوم بهتر بودن و براساس تعداد ارایی که برای هر مدل میگیره عملکرد رو مشخص میکنه
روش دیگه یک سری تست و ازمون هست مثلا یه سری سوال برنامه نویسیه یا یه سری سوال ریاضیه یا اخیرا خود اوپن ai اومده و یک بنچ مارک درست کرده برای سطح ادراک مدل ها از مقالات علمی که راجع به مقالات ارایه شده توی ICML 2024 سوال کرده که یک کنفرانس خفن برنامه نویسی هست و سطح شون رو بررسی کرده و این یکی هم یه تست دیگه با عنوان humanity last exam هست.
هر کدوم از این بنچ مارک ها یه حوزه رو بررسی میکنن و هیچ کدوم جامع نیستن
یعنی یکی وضعیت ریاضی رو چک میکنه یکی مقالات علمی یکی کد نویسی یکی هم تولید محتوا
✅ پس روش اول بررسی این سایت بنچ مارک هاست تا به نتیجه برسی کدوم بهتره
این پست توضیح دادم که با این ابزار تو این سایته میتونی use case ات رو بگی و بهت بهترین مدل رو معرفی میکنه
البته که چون خیلی از مدل ها روی سوالات بنچ مارک ها ترین میشن گاهی این بنچ مارک ها کامل قابل اتکا نیستن
روش دوم راستش ازمون و خطاست و هیچ مدلی هیچ وقت بهترین نیست
✅ تئوری no free lunch theorem که اینجا میتونین راجع بهش بخونین میگه هیچ مدلی برای همه اشکال مسئله بهترین نیست
شما باید براساس نیازی که داری خودت سبک سنگین کنی
بهترین روش اینه یک سری پرامپت برای کاری که میخوای بکنی رو عیناااا بدی به همه مدل ها و ببینی کدوم بهتر عمل میکنن و با اون کار کنی
در نهایت هم همین برتری ممکنه باز ۳ ۴ ماه دیگه با توجه به سرعت تغییرات عوض بشه
@aipulse24
۱. بنچ مارک ها. بنچ مارک کلا یعنی مقایسه عملکرد یه چیزی نسبت به یه مقیاس مشخصی
شرکت ها و موسسات خیلیی خیلی زیادی ایجاد شدن که کارشون همینه
روش های متنوع هم براش هست
یکی از معروف ترین هاش اینجا توضیح دادم
کارش اینه که دوتا مدل رو میزاره جلوی کاربر تا استفاده کنه بدون اینکه کاربر بدونه مدل ها کدومن بعد میگی بگو کدوم بهتر بودن و براساس تعداد ارایی که برای هر مدل میگیره عملکرد رو مشخص میکنه
روش دیگه یک سری تست و ازمون هست مثلا یه سری سوال برنامه نویسیه یا یه سری سوال ریاضیه یا اخیرا خود اوپن ai اومده و یک بنچ مارک درست کرده برای سطح ادراک مدل ها از مقالات علمی که راجع به مقالات ارایه شده توی ICML 2024 سوال کرده که یک کنفرانس خفن برنامه نویسی هست و سطح شون رو بررسی کرده و این یکی هم یه تست دیگه با عنوان humanity last exam هست.
هر کدوم از این بنچ مارک ها یه حوزه رو بررسی میکنن و هیچ کدوم جامع نیستن
یعنی یکی وضعیت ریاضی رو چک میکنه یکی مقالات علمی یکی کد نویسی یکی هم تولید محتوا
✅ پس روش اول بررسی این سایت بنچ مارک هاست تا به نتیجه برسی کدوم بهتره
این پست توضیح دادم که با این ابزار تو این سایته میتونی use case ات رو بگی و بهت بهترین مدل رو معرفی میکنه
البته که چون خیلی از مدل ها روی سوالات بنچ مارک ها ترین میشن گاهی این بنچ مارک ها کامل قابل اتکا نیستن
روش دوم راستش ازمون و خطاست و هیچ مدلی هیچ وقت بهترین نیست
✅ تئوری no free lunch theorem که اینجا میتونین راجع بهش بخونین میگه هیچ مدلی برای همه اشکال مسئله بهترین نیست
شما باید براساس نیازی که داری خودت سبک سنگین کنی
بهترین روش اینه یک سری پرامپت برای کاری که میخوای بکنی رو عیناااا بدی به همه مدل ها و ببینی کدوم بهتر عمل میکنن و با اون کار کنی
در نهایت هم همین برتری ممکنه باز ۳ ۴ ماه دیگه با توجه به سرعت تغییرات عوض بشه
@aipulse24
❤16👍13
This media is not supported in your browser
VIEW IN TELEGRAM
عزیزان هر روز داریم توی یه فیلم و سریال زندگی میکنیم
این قسمت Adams Family😭 😭
یه شرکت بریتانیایی به اسم Open Bionics، بعد از چهار سال کار، بالاخره نسخه جدیدی از دست رباتیک خودش به اسم Hero رو معرفی کرده که به گفته خودشون پیشرفتهترین دست بایونیکی دنیاست. این دست از یه سری الکترود بیسیم به اسم MyoPods استفاده میکنه که روی بازوی فرد قطع عضو قرار میگیرن و سیگنالهای عضله رو میخونن. بعد اون سیگنالها رو به حرکت انگشتای رباتیک تبدیل میکنه.
حقیقتا💖 چه جالب 💖
همین دیگه من میرم بقیه اشو اینجا بخونم😦
@aipulse24
این قسمت Adams Family
یه شرکت بریتانیایی به اسم Open Bionics، بعد از چهار سال کار، بالاخره نسخه جدیدی از دست رباتیک خودش به اسم Hero رو معرفی کرده که به گفته خودشون پیشرفتهترین دست بایونیکی دنیاست. این دست از یه سری الکترود بیسیم به اسم MyoPods استفاده میکنه که روی بازوی فرد قطع عضو قرار میگیرن و سیگنالهای عضله رو میخونن. بعد اون سیگنالها رو به حرکت انگشتای رباتیک تبدیل میکنه.
حقیقتا
همین دیگه من میرم بقیه اشو اینجا بخونم
@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
❤21👍6🔥1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
این اقای عزیزی که در این ویدیو هست اسمش چانگین لی عه و دانشجوی دانشگاه کلمبیا امریکا بوده.
ایشون یک ابزاری میسازه که کارش تقلب توی تسک های کدنویسی مصاحبه های کاری بوده و با همین ابزار توی کاراموزی آمازون قبول میشه!
در نهایت به خاطر ساخت این ابزار، دانشگاه کلمبیا تعلیقش میکنه😭 😭
خبر تعلیق شدنش توی شکبه X وایرال میشه و باعث معروف شدن محصولش میشه و الان این محصول به صورت تخمینی سالانه ۳ میلیون دلار درامد داره!
ایشون هم فرصت رو غنیمت میشمره و محصول رو گسترش میده حالا میشه توی تماس های فروش، هر مصاحبه ای و امتحانات هم ازش برای تقلب استفاده کرد.
روش کار هم یک صفحه مخفی داخل مرورگر هست که فرد مقابل قادر به دیدنش نیست.
بعد از این موفقیت ایشون تصمیم میگیره تا یک شرکت بزنه و کل این محصولات رو ببره زیر مجموعه اش به اسم Cluely که الان تونسته ۵ میلیون دلار هم برای توسعه محصولش فاندینگ بگیره!
این ویدیو هم بخشی از تبلیغاتش هست برای محصولی که دراینده قراره ارائه بده و به گفته خودش میتونید "تو همه چی تقلب کنید".
خلاصه عزیزان سینگل فعلا تا اطلاع ثانوی دیت نرید تا ببینیم چه خاکی به سرمون کنیم😭 😭 😭
@aipulse24
ایشون یک ابزاری میسازه که کارش تقلب توی تسک های کدنویسی مصاحبه های کاری بوده و با همین ابزار توی کاراموزی آمازون قبول میشه!
در نهایت به خاطر ساخت این ابزار، دانشگاه کلمبیا تعلیقش میکنه
خبر تعلیق شدنش توی شکبه X وایرال میشه و باعث معروف شدن محصولش میشه و الان این محصول به صورت تخمینی سالانه ۳ میلیون دلار درامد داره!
ایشون هم فرصت رو غنیمت میشمره و محصول رو گسترش میده حالا میشه توی تماس های فروش، هر مصاحبه ای و امتحانات هم ازش برای تقلب استفاده کرد.
روش کار هم یک صفحه مخفی داخل مرورگر هست که فرد مقابل قادر به دیدنش نیست.
بعد از این موفقیت ایشون تصمیم میگیره تا یک شرکت بزنه و کل این محصولات رو ببره زیر مجموعه اش به اسم Cluely که الان تونسته ۵ میلیون دلار هم برای توسعه محصولش فاندینگ بگیره!
این ویدیو هم بخشی از تبلیغاتش هست برای محصولی که دراینده قراره ارائه بده و به گفته خودش میتونید "تو همه چی تقلب کنید".
خلاصه عزیزان سینگل فعلا تا اطلاع ثانوی دیت نرید تا ببینیم چه خاکی به سرمون کنیم
@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣56👍4😱1
دو پژوهشگر برجستهی هوش مصنوعی، ایدهی «یادگیری تجربی» رو بهعنوان فاز بعدی توسعهی هوش مصنوعی مطرح کردن. نظریهی اونا توی مقالهای به نام «عصر تجربه» اومده که بخشی از کتاب در دست انتشار «طراحی یک هوش» از انتشارات MIT محسوب میشه.
«دیوید سیلور» و «ریچارد اس. ساتن» توی این مقاله، از نسل جدیدی از ایجنتهای هوش مصنوعی حرف زدن که بهگفتهی خودشون میتونن مسیر رسیدن به «هوش فرابشری» رو هموار کنن. اونا نوشتن: «تو حوزههایی مثل ریاضی، برنامهنویسی و علوم، دانشی که از دادههای انسانی استخراج شده، داره به سقف خودش نزدیک میشه».
بهعلاوه، بهگفتهی این دو پژوهشگر، هوش مصنوعی مولد فعلاً توانایی اختراع چیزهای مفید یا کشف بینشهای جدیدی که خارج از مرزهای درک فعلی انسان باشه رو نداره.
اما این دو نفر کیان؟
«دیوید سیلور»، دانشمند علوم کامپیوتر، یکی از توسعهدهندههای اصلی AlphaGo ـه؛ برنامهای که در سال ۲۰۱۶ تونست قهرمان جهانی بازی Go، یعنی «لی سِدول» رو شکست بده.
«ریچارد اس. ساتن» هم از چهرههای تأثیرگذار توی حوزهی یادگیری تقویتیه و الگوریتمهای پایهای زیادی برای این حوزه توسعه داده. اون توی یه مقاله در سال ۲۰۱۹ پیشنهاد کرده بود که دانشمندان کامپیوتر باید از «فرا-روشها» استفاده کنن؛ یعنی تکنیکهایی که به سیستم اجازه میدن از دنیای پیچیده و نامنظم بیرونی یاد بگیره، نه فقط از دادههای ساختاریافته.
سیلور و ساتن یه چارچوب جدید برای تقسیمبندی روند رشد هوش مصنوعی توی ده سال اخیر معرفی کردن:
۱. دورهی شبیهسازی (Simulation Era) که با AlphaGo و تکنیکهای یادگیری ماشین همراه بود.
۲. دورهی دادههای انسانی (Human Data Era) که با ظهور GPT-3 شروع شد.
۳. دورهی تجربه (Experience Era) که از سال ۲۰۲۴ با معرفی AlphaProof، محصول دیپمایند بر پایهی یادگیری تقویتی، آغاز شده.
اونا اشاره کردن که AlphaProof تونسته توی المپیاد جهانی ریاضی مدال بگیره؛ اونم با یه الگوریتم تقویتی که از طریق تعامل مداوم با سیستم اثبات ریاضی یاد گرفته. بهجای اینکه بهش مستقیماً ریاضی یاد بدن، بهش انگیزهی رسیدن به پاداشهایی رو دادن که از حل مسائل ریاضی به دست میاومده.
بهنظر نویسندهها، یادگیری هوش مصنوعی میتونه از خود دنیا هم تغذیه بشه؛ چه از طریق مدلسازی شبیهسازیشده از جهان و چه از طریق دادههایی مثل سود مالی، نتایج آزمون یا مصرف انرژی.
اونا نوشتن: «این دادهها باید بهنحوی تولید بشن که با قویتر شدن ایجنت، خودشون هم بهتر بشن؛ چون اگه دادهها از یه روش ایستا تولید بشن، خیلی زود ایجنت اون روش رو پشت سر میذاره».
ایجنتهای هوش مصنوعی در عصر تجربه، ویژگیهای متفاوتی با مدلهای فعلی دارن:
۱- میتونن برای مدت طولانی روی هدفهای جاهطلبانه کار کنن.
۲- هم از محیط اطرافشون و هم از ورودیهای انسانی تغذیه میشن.
۳- انگیزهشون بر اساس تجربهی خودشونه، نه قضاوت انسانی.
۴- توانایی برنامهریزی و استدلال در مورد چیزهایی رو دارن که مستقل از انسان هستن.
هدف این ایجنتها فقط پاسخ دادن به سوالهای کاربران نیست؛ بلکه قراره هدفهایی طولانیمدت رو دنبال کنن. برخلاف مدلهای فعلی که فقط میتونن ترجیحات کاربر رو به خاطر بسپارن یا به سوالهای قبلی توی یه گفتوگو ارجاع بدن.
البته این دو پژوهشگر نسبت به خطرها هم هشدار دادن: از جمله جایگزینی شغلی، کاهش کنترل انسانی روی تصمیمهای عاملها و سخت شدن تفسیر عملکرد اونها.
نسخه کامل این مقاله رو میتونید از اینجا مشاهده و بررسی کنید.
@aipulse24
«دیوید سیلور» و «ریچارد اس. ساتن» توی این مقاله، از نسل جدیدی از ایجنتهای هوش مصنوعی حرف زدن که بهگفتهی خودشون میتونن مسیر رسیدن به «هوش فرابشری» رو هموار کنن. اونا نوشتن: «تو حوزههایی مثل ریاضی، برنامهنویسی و علوم، دانشی که از دادههای انسانی استخراج شده، داره به سقف خودش نزدیک میشه».
بهعلاوه، بهگفتهی این دو پژوهشگر، هوش مصنوعی مولد فعلاً توانایی اختراع چیزهای مفید یا کشف بینشهای جدیدی که خارج از مرزهای درک فعلی انسان باشه رو نداره.
اما این دو نفر کیان؟
«دیوید سیلور»، دانشمند علوم کامپیوتر، یکی از توسعهدهندههای اصلی AlphaGo ـه؛ برنامهای که در سال ۲۰۱۶ تونست قهرمان جهانی بازی Go، یعنی «لی سِدول» رو شکست بده.
«ریچارد اس. ساتن» هم از چهرههای تأثیرگذار توی حوزهی یادگیری تقویتیه و الگوریتمهای پایهای زیادی برای این حوزه توسعه داده. اون توی یه مقاله در سال ۲۰۱۹ پیشنهاد کرده بود که دانشمندان کامپیوتر باید از «فرا-روشها» استفاده کنن؛ یعنی تکنیکهایی که به سیستم اجازه میدن از دنیای پیچیده و نامنظم بیرونی یاد بگیره، نه فقط از دادههای ساختاریافته.
سیلور و ساتن یه چارچوب جدید برای تقسیمبندی روند رشد هوش مصنوعی توی ده سال اخیر معرفی کردن:
۱. دورهی شبیهسازی (Simulation Era) که با AlphaGo و تکنیکهای یادگیری ماشین همراه بود.
۲. دورهی دادههای انسانی (Human Data Era) که با ظهور GPT-3 شروع شد.
۳. دورهی تجربه (Experience Era) که از سال ۲۰۲۴ با معرفی AlphaProof، محصول دیپمایند بر پایهی یادگیری تقویتی، آغاز شده.
اونا اشاره کردن که AlphaProof تونسته توی المپیاد جهانی ریاضی مدال بگیره؛ اونم با یه الگوریتم تقویتی که از طریق تعامل مداوم با سیستم اثبات ریاضی یاد گرفته. بهجای اینکه بهش مستقیماً ریاضی یاد بدن، بهش انگیزهی رسیدن به پاداشهایی رو دادن که از حل مسائل ریاضی به دست میاومده.
بهنظر نویسندهها، یادگیری هوش مصنوعی میتونه از خود دنیا هم تغذیه بشه؛ چه از طریق مدلسازی شبیهسازیشده از جهان و چه از طریق دادههایی مثل سود مالی، نتایج آزمون یا مصرف انرژی.
اونا نوشتن: «این دادهها باید بهنحوی تولید بشن که با قویتر شدن ایجنت، خودشون هم بهتر بشن؛ چون اگه دادهها از یه روش ایستا تولید بشن، خیلی زود ایجنت اون روش رو پشت سر میذاره».
ایجنتهای هوش مصنوعی در عصر تجربه، ویژگیهای متفاوتی با مدلهای فعلی دارن:
۱- میتونن برای مدت طولانی روی هدفهای جاهطلبانه کار کنن.
۲- هم از محیط اطرافشون و هم از ورودیهای انسانی تغذیه میشن.
۳- انگیزهشون بر اساس تجربهی خودشونه، نه قضاوت انسانی.
۴- توانایی برنامهریزی و استدلال در مورد چیزهایی رو دارن که مستقل از انسان هستن.
هدف این ایجنتها فقط پاسخ دادن به سوالهای کاربران نیست؛ بلکه قراره هدفهایی طولانیمدت رو دنبال کنن. برخلاف مدلهای فعلی که فقط میتونن ترجیحات کاربر رو به خاطر بسپارن یا به سوالهای قبلی توی یه گفتوگو ارجاع بدن.
البته این دو پژوهشگر نسبت به خطرها هم هشدار دادن: از جمله جایگزینی شغلی، کاهش کنترل انسانی روی تصمیمهای عاملها و سخت شدن تفسیر عملکرد اونها.
نسخه کامل این مقاله رو میتونید از اینجا مشاهده و بررسی کنید.
@aipulse24
👍31❤7🔥2👾2
شرکت چینی علیبابا روز دوشنبه مدلهای زبانی جدیدی با نام Qwen3 رو معرفی کرده که بهگفتهی خودش، در برخی سنجشها از مدلهای پیشرفتهی شرکتهایی مثل OpenAI و گوگل هم عملکرد بهتری داشتن. مدلهای Qwen3 با اندازههایی از ۰.۶ تا ۲۳۵ میلیارد پارامتر طراحی شدن و اکثرشون یا هماکنون روی پلتفرمهای Hugging Face و گیتهاب قابل دسترسی هستن، یا بهزودی منتشر میشن. بزرگترین مدل این مجموعه، یعنی Qwen3-235B-A22B، در تستهای کدنویسی، ریاضی و استدلال عملکردی نزدیک یا بهتر از مدلهای o3-mini از OpenAI و Gemini 2.5 Pro از گوگل داشته.
علیبابا گفته این مدلها از معماری هیبریدی و گاهی «Mixture of Experts» (MoE) استفاده میکنن؛ یعنی میتونن بسته به نوع وظیفه یا زمان پاسخگویی، بین حالت "تفکر" و "غیرتفکر" جابجا بشن. این قابلیت باعث میشه که هم کارهای ساده رو سریع انجام بدن، هم مسائل پیچیده رو با دقت بیشتری حل کنن، مشابه عملکرد مدلهای سطح بالایی مثل o3. تیم توسعهی Qwen توی یک پست وبلاگی نوشته: «ما امکان کنترل بودجهی تفکر برای کاربرها رو فراهم کردیم تا بشه عملکرد مدل رو برای هر وظیفه بهطور خاص تنظیم کرد.»
مدلهای Qwen3 از ۱۱۹ زبان پشتیبانی میکنن و با استفاده از دیتاستی شامل بیش از ۳۶ تریلیون توکن آموزش دیدن؛ از جمله متنهای درسی، جفت پرسشوپاسخ، کدهای برنامهنویسی، دادههای تولیدشده توسط هوش مصنوعی و غیره. بهگفتهی علیبابا، این نسخه نسبت به Qwen2 پیشرفت محسوسی داشته و در برخی تستها حتی از مدلهای شناختهشدهای مثل o1 هم بهتر عمل کرده؛ هرچند هنوز هیچکدوم از نسخههاش بهطور کامل از مدلهای ردهبالای بازار پیشی نگرفتن.
بزرگترین نسخهی Qwen3 فعلاً بهصورت عمومی منتشر نشده، اما مدل Qwen3-32B که در دسترس عموم قرار گرفته، با مدلهای قدرتمندی مثل DeepSeek R1 و OpenAI o1 رقابت میکنه. این مدل همچنین در اجرای دستورها، تماس با ابزارها و حفظ فرمت دقیق دادهها عملکرد خوبی از خودش نشون داده. Qwen3 علاوه بر دانلود مستقیم، از طریق پلتفرمهای ابری مثل Fireworks AI و Hyperbolic هم قابل استفادهست. برخی تحلیلگرها معتقدن انتشار این مدلها نشوندهندهی قدرتگیری مدلهای متن باز در برابر سیستمهای بسته هست، حتی با وجود محدودیتهای صادرات تراشه به چین.
این مدلها از طریق وبسایت qwen از اینجا قابل استفاده هستن.
@aipulse24
علیبابا گفته این مدلها از معماری هیبریدی و گاهی «Mixture of Experts» (MoE) استفاده میکنن؛ یعنی میتونن بسته به نوع وظیفه یا زمان پاسخگویی، بین حالت "تفکر" و "غیرتفکر" جابجا بشن. این قابلیت باعث میشه که هم کارهای ساده رو سریع انجام بدن، هم مسائل پیچیده رو با دقت بیشتری حل کنن، مشابه عملکرد مدلهای سطح بالایی مثل o3. تیم توسعهی Qwen توی یک پست وبلاگی نوشته: «ما امکان کنترل بودجهی تفکر برای کاربرها رو فراهم کردیم تا بشه عملکرد مدل رو برای هر وظیفه بهطور خاص تنظیم کرد.»
مدلهای Qwen3 از ۱۱۹ زبان پشتیبانی میکنن و با استفاده از دیتاستی شامل بیش از ۳۶ تریلیون توکن آموزش دیدن؛ از جمله متنهای درسی، جفت پرسشوپاسخ، کدهای برنامهنویسی، دادههای تولیدشده توسط هوش مصنوعی و غیره. بهگفتهی علیبابا، این نسخه نسبت به Qwen2 پیشرفت محسوسی داشته و در برخی تستها حتی از مدلهای شناختهشدهای مثل o1 هم بهتر عمل کرده؛ هرچند هنوز هیچکدوم از نسخههاش بهطور کامل از مدلهای ردهبالای بازار پیشی نگرفتن.
بزرگترین نسخهی Qwen3 فعلاً بهصورت عمومی منتشر نشده، اما مدل Qwen3-32B که در دسترس عموم قرار گرفته، با مدلهای قدرتمندی مثل DeepSeek R1 و OpenAI o1 رقابت میکنه. این مدل همچنین در اجرای دستورها، تماس با ابزارها و حفظ فرمت دقیق دادهها عملکرد خوبی از خودش نشون داده. Qwen3 علاوه بر دانلود مستقیم، از طریق پلتفرمهای ابری مثل Fireworks AI و Hyperbolic هم قابل استفادهست. برخی تحلیلگرها معتقدن انتشار این مدلها نشوندهندهی قدرتگیری مدلهای متن باز در برابر سیستمهای بسته هست، حتی با وجود محدودیتهای صادرات تراشه به چین.
این مدلها از طریق وبسایت qwen از اینجا قابل استفاده هستن.
@aipulse24
🔥15👍4❤🔥2
شرکت OpenAI بهتازگی آپدیتی رو که باعث رفتار عجیب و بیشازحد چاپلوسانه مدل GPT-4o شده بود، پس گرفت. سم آلتمن، مدیرعامل OpenAI، امروز در پستی اعلام کرد که این بهروزرسانی از شب گذشته برای کاربران رایگان چتجیپیتی بهطور کامل حذف شده و برای کاربران پولی هم بهزودی انجام میشه. اون گفته تیمش دارن روی اصلاحات بیشتری برای "شخصیت مدل" کار میکنن و اطلاعات بیشتری بهزودی منتشر میکنن.
این عقبگرد بعد از اون اتفاق افتاد که خیلی از کاربران توی شبکههای اجتماعی به چاپلوس بودن بیشازحد نسخه جدید اعتراض کردن. این موضوع آخر هفته تبدیل به یک میم شد؛ کاربرا اسکرینشاتهایی منتشر کردن که چتجیپیتی توش حتی تصمیمها و ایدههای خطرناک و اشتباه رو هم تأیید میکرد. آلتمن هم یکشنبه این مشکل رو تأیید کرد و گفت که OpenAI خیلی سریع در حال کار روی رفعشه و نتایجش رو بعداً به اشتراک میذاره.
@aipulse24
این عقبگرد بعد از اون اتفاق افتاد که خیلی از کاربران توی شبکههای اجتماعی به چاپلوس بودن بیشازحد نسخه جدید اعتراض کردن. این موضوع آخر هفته تبدیل به یک میم شد؛ کاربرا اسکرینشاتهایی منتشر کردن که چتجیپیتی توش حتی تصمیمها و ایدههای خطرناک و اشتباه رو هم تأیید میکرد. آلتمن هم یکشنبه این مشکل رو تأیید کرد و گفت که OpenAI خیلی سریع در حال کار روی رفعشه و نتایجش رو بعداً به اشتراک میذاره.
@aipulse24
👍20🎉3🤣3🤩2🔥1
AI Pulse
شرکت OpenAI بهتازگی آپدیتی رو که باعث رفتار عجیب و بیشازحد چاپلوسانه مدل GPT-4o شده بود، پس گرفت. سم آلتمن، مدیرعامل OpenAI، امروز در پستی اعلام کرد که این بهروزرسانی از شب گذشته برای کاربران رایگان چتجیپیتی بهطور کامل حذف شده و برای کاربران پولی هم…
حالا دلیل این اتفاق چی بوده؟ OpenAI تو گزارش جدیدش درباره مشکل چاپلوسی بیشازحد مدل GPT-4o که باعث شد آپدیت هفته گذشته پس گرفته بشه، توضیح داده که آپدیت مورد بحث با نیت بهبود «شخصیت پیشفرض» مدل انجام شده بود. هدف این بوده که تعاملات طبیعیتر و مؤثرتر به نظر برسن، ولی مشکل از اونجا شروع شد که طراحی این تغییرات بیش از حد به بازخوردهای کوتاهمدت کاربرا متکی بوده و به این موضوع توجه نکرده که سبک تعامل کاربرا در طول زمان تغییر میکنه. همین باعث شد که مدل به سمت جوابهایی بیشازحد تأییدکننده و غیرصادقانه کشیده بشه.
OpenAI تو پست وبلاگش نوشته که این نوع پاسخهای چاپلوسانه میتونه تجربهای آزاردهنده و ناخوشایند برای کاربرا بسازه. حالا تیم توسعه داره چند اصلاح اساسی انجام میده: بهروزرسانی روشهای آموزش مدل، بازنویسی دستورهای سیستمی برای جلوگیری از چاپلوسی، و افزایش ابزارهای ایمنی برای بالا بردن صداقت و شفافیت پاسخها. علاوه بر این، OpenAI گفته که در حال آزمایش روشهایی برای گرفتن بازخورد لحظهای از کاربرا و اضافه کردن گزینههایی برای انتخاب شخصیتهای مختلف چتجیپیتیه. هدف نهایی اینه که مدل، بهتر با ارزشهای فرهنگی متنوع سازگار بشه و کنترل بیشتری به دست کاربرا بده.
@aipulse24
OpenAI تو پست وبلاگش نوشته که این نوع پاسخهای چاپلوسانه میتونه تجربهای آزاردهنده و ناخوشایند برای کاربرا بسازه. حالا تیم توسعه داره چند اصلاح اساسی انجام میده: بهروزرسانی روشهای آموزش مدل، بازنویسی دستورهای سیستمی برای جلوگیری از چاپلوسی، و افزایش ابزارهای ایمنی برای بالا بردن صداقت و شفافیت پاسخها. علاوه بر این، OpenAI گفته که در حال آزمایش روشهایی برای گرفتن بازخورد لحظهای از کاربرا و اضافه کردن گزینههایی برای انتخاب شخصیتهای مختلف چتجیپیتیه. هدف نهایی اینه که مدل، بهتر با ارزشهای فرهنگی متنوع سازگار بشه و کنترل بیشتری به دست کاربرا بده.
@aipulse24
👍12🔥5👌3❤1
استارتاپ جنجالی Cluely که ابزار تقلب مبتنیبر هوش مصنوعی ارائه میده، هفتهی گذشته با ادعای ساخت یک پنجرهی پنهان در مرورگر که «غیرقابل شناساییه» و میشه باهاش تو همهچیز از مصاحبههای شغلی گرفته تا امتحانها تقلب کرد، حسابی سر زبونها افتاد. اما این وسط چندتا استارتاپ دیگه مدعیان که میتونن کاربران Cluely رو شناسایی کنن. خود Cluely هم میگه که آمادهست تا با ساخت ابزارهای سختافزاری مثل عینک هوشمند یا حتی چیپ مغزی، کل نرمافزارهای ضدتقلب رو دور بزنه.
استارتاپ سانفرانسیسکویی Validia هفتهی گذشته یه ابزار رایگان به اسم Truely منتشر کرده که بهطور مستقیم برای مقابله با Cluely ساخته شده. بهگفتهی Validia، این نرمافزار اگر متوجه استفادهی کاربر از Cluely بشه، هشدار میده. استارتاپ دیگهای بهاسم Proctaroo هم که دفترش در رود آیلنده، مدعیه که پلتفرمش توانایی شناسایی فعالیت Cluely رو داره. مدیرعامل Proctaroo، آدریان آمودت، تو مصاحبه با TechCrunch، مدل کسبوکار Cluely رو «غیراخلاقی» دونسته و گفته اونا همونطور که بقیهی برنامهها رو میبینن، Cluely رو هم میتونن شناسایی کنن.
با این حال، مدیرعامل Cluely، چونگین «روی» لی، این ابزارهای ضدتقلب رو بیاثر میدونه و با مثال زدن از سالها شکست صنعت بازیهای ویدیویی در مقابله با تقلب، به مقابله با خودش خندیده. اون حتی گفته ورود به حوزهی سختافزار براشون از نظر فنی «کاملاً پیشپا افتادهست» و ابزارهایی مثل عینک هوشمند، لایههای شیشهای شفاف، گردنبندهای ضبطکننده یا حتی چیپ مغزی میتونن آیندهی این تکنولوژی باشن. هرچند Cluely بعد از بالا گرفتن انتقادها، اشارهها به تقلب در امتحان و مصاحبهی شغلی رو از سایتش حذف کرده و حالا بیشتر روی جلسات کاری و تماسهای فروش تمرکز کرده، ولی بهگفتهی لی، این فقط یه تغییر در پیامرسانیه تا «بزرگترین بازارهای هدف» رو جذب کنن.
@aipulse24
استارتاپ سانفرانسیسکویی Validia هفتهی گذشته یه ابزار رایگان به اسم Truely منتشر کرده که بهطور مستقیم برای مقابله با Cluely ساخته شده. بهگفتهی Validia، این نرمافزار اگر متوجه استفادهی کاربر از Cluely بشه، هشدار میده. استارتاپ دیگهای بهاسم Proctaroo هم که دفترش در رود آیلنده، مدعیه که پلتفرمش توانایی شناسایی فعالیت Cluely رو داره. مدیرعامل Proctaroo، آدریان آمودت، تو مصاحبه با TechCrunch، مدل کسبوکار Cluely رو «غیراخلاقی» دونسته و گفته اونا همونطور که بقیهی برنامهها رو میبینن، Cluely رو هم میتونن شناسایی کنن.
با این حال، مدیرعامل Cluely، چونگین «روی» لی، این ابزارهای ضدتقلب رو بیاثر میدونه و با مثال زدن از سالها شکست صنعت بازیهای ویدیویی در مقابله با تقلب، به مقابله با خودش خندیده. اون حتی گفته ورود به حوزهی سختافزار براشون از نظر فنی «کاملاً پیشپا افتادهست» و ابزارهایی مثل عینک هوشمند، لایههای شیشهای شفاف، گردنبندهای ضبطکننده یا حتی چیپ مغزی میتونن آیندهی این تکنولوژی باشن. هرچند Cluely بعد از بالا گرفتن انتقادها، اشارهها به تقلب در امتحان و مصاحبهی شغلی رو از سایتش حذف کرده و حالا بیشتر روی جلسات کاری و تماسهای فروش تمرکز کرده، ولی بهگفتهی لی، این فقط یه تغییر در پیامرسانیه تا «بزرگترین بازارهای هدف» رو جذب کنن.
@aipulse24
👍18😁8
اپل و آنتروپیک دارن با هم همکاری میکنن تا یه پلتفرم جدید بسازن که با استفاده از هوش مصنوعی مولد، بتونه کد بنویسه، ویرایش کنه و حتی تست بگیره. طبق گزارشی که بلومبرگ منتشر کرده، این پلتفرم فعلاً بهصورت داخلی داخل خود اپل استفاده میشه و هنوز تصمیمی برای عرضهی عمومی اون گرفته نشده. این ابزار درواقع نسخهای پیشرفتهتر از نرمافزار برنامهنویسی Xcode اپله که با تکیه بر مدل Claude Sonnet، محصول آنتروپیک، توسعه پیدا کرده.
اپل برای سرعتدادن به پروژههای هوش مصنوعیش، داره از یه شبکهی گسترده از شرکای تکنولوژی استفاده میکنه. برای مثال، چتجیپیتی از شرکت OpenAI همین حالا هم نقش پررنگی توی قابلیتهای Apple Intelligence داره و به گفتهی خود اپل، احتمال داره در آینده مدل Gemini گوگل هم بهعنوان یه گزینهی جایگزین بهش اضافه بشه. حالا هم آنتروپیک به این جمع پیوسته تا به اپل تو توسعهی داخلی ابزارهای برنامهنویسی کمک کنه.
@aipulse24
اپل برای سرعتدادن به پروژههای هوش مصنوعیش، داره از یه شبکهی گسترده از شرکای تکنولوژی استفاده میکنه. برای مثال، چتجیپیتی از شرکت OpenAI همین حالا هم نقش پررنگی توی قابلیتهای Apple Intelligence داره و به گفتهی خود اپل، احتمال داره در آینده مدل Gemini گوگل هم بهعنوان یه گزینهی جایگزین بهش اضافه بشه. حالا هم آنتروپیک به این جمع پیوسته تا به اپل تو توسعهی داخلی ابزارهای برنامهنویسی کمک کنه.
@aipulse24
🔥15👍8❤3
گوگل قراره از هفتهی آینده به بچههای زیر ۱۳ سال اجازه بده از چتبات Gemini استفاده کنن؛ البته فقط در صورتی که حساب کاربریشون با نظارت والدین ساخته شده باشه. طبق گزارشی که نیویورک تایمز منتشر کرده، این امکان از طریق سرویس Family Link گوگل فعال میشه؛ سرویسی که به خانوادهها اجازه میده دسترسی فرزندشون به سرویسهای مختلف گوگل رو کنترل کنن. به گفتهی یکی از سخنگوهای گوگل، نسخهای که برای این گروه سنی در نظر گرفته شده، شامل محدودیتها و فیلترهای مخصوص بچههاست و اطلاعاتی که از این طریق جمعآوری میشه، برای آموزش مدلهای هوش مصنوعی گوگل استفاده نمیشن.
در حالی که شرکتهای مختلف دارن برای جذب مخاطبهای کمسنوسال توی رقابت هوش مصنوعی از هم پیشی میگیرن، خیلیها نسبت به این روند هشدار دادن. نیویورک تایمز یادآوری کرده که چتباتها در بهترین حالت هنوز کامل و بدون نقص نیستن، و در بدترین حالت ممکنه آسیبزا باشن. سال گذشته، سازمان آموزشی، علمی و فرهنگی سازمان ملل (یونسکو) از دولتها خواست استفاده از هوش مصنوعی مولد در آموزش رو قانونمند کنن؛ از جمله با تعیین محدودیت سنی برای کاربران و ایجاد چارچوبهایی برای حفاظت از دادهها و حریم خصوصی.
@aipulse24
در حالی که شرکتهای مختلف دارن برای جذب مخاطبهای کمسنوسال توی رقابت هوش مصنوعی از هم پیشی میگیرن، خیلیها نسبت به این روند هشدار دادن. نیویورک تایمز یادآوری کرده که چتباتها در بهترین حالت هنوز کامل و بدون نقص نیستن، و در بدترین حالت ممکنه آسیبزا باشن. سال گذشته، سازمان آموزشی، علمی و فرهنگی سازمان ملل (یونسکو) از دولتها خواست استفاده از هوش مصنوعی مولد در آموزش رو قانونمند کنن؛ از جمله با تعیین محدودیت سنی برای کاربران و ایجاد چارچوبهایی برای حفاظت از دادهها و حریم خصوصی.
@aipulse24
🔥12👍7❤1