AI Pulse – Telegram
AI Pulse
3.73K subscribers
397 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
‏OpenAI امروز از خانواده‌ی جدیدی از مدل‌های هوش مصنوعی به نام GPT-4.1 رونمایی کرد. این مدل‌ها شامل GPT-4.1، GPT-4.1 mini و GPT-4.1 nano هستن که همگی به‌گفته‌ی OpenAI توی برنامه‌نویسی و پیروی از دستورها عملکرد خیلی خوبی دارن. این مدل‌ها فقط از طریق API قابل دسترس هستن و هنوز وارد نسخه‌ی ChatGPT نشدن. یکی از ویژگی‌های برجسته‌ی GPT-4.1 داشتن کانتکست ویندوی ۱ میلیون توکنیه که تقریباً معادل ۷۵۰ هزار کلمه‌ست؛ یعنی می‌تونه متونی بلندتر از رمان «جنگ و صلح» رو یک‌جا پردازش کنه.

عرضه‌ی GPT-4.1 در شرایطی انجام شده که رقابت بین شرکت‌های بزرگی مثل گوگل، Anthropic و DeepSeek برای ساخت مدل‌های برنامه‌نویس قدرتمندتر بالا گرفته. گوگل مدل Gemini 2.5 Pro رو عرضه کرده که اونم کانتکست ویندوی ۱ میلیونی داره و توی بنچمارک‌های برنامه‌نویسی رتبه‌های بالایی کسب کرده. مدل Claude 3.7 Sonnet از شرکت Anthropic و نسخه‌ی جدید DeepSeek V3 هم عملکرد قابل توجهی داشتن. OpenAI هم هدف نهایی خودش رو ساختن یک «مهندس نرم افزار در قالب یک ایجنت هوش مصنوعی» اعلام کرده؛ مدلی که بتونه به‌تنهایی کل فرایند توسعه‌ی اپلیکیشن، از تست و رفع باگ تا نوشتن مستندات، رو انجام بده.

به‌گفته‌ی OpenAI، مدل GPT-4.1 نسبت به نسخه‌های قبلی مثل GPT-4o و GPT-4o mini توی بنچمارک‌هایی مثل SWE-bench عملکرد بهتری داره و دقیق‌تر کدنویسی می‌کنه، تغییرات غیرضروری کمتری میده و بهتر به فرمت‌ها و ترتیب پاسخ پایبنده. نسخه‌ی nano سریع‌ترین و ارزان‌ترین مدل تا الان شناخته شده. قیمت استفاده از این مدل‌ها هم به‌ترتیب برای هر یک میلیون توکن ورودی/خروجی: GPT-4.1، معادل ۲ و ۸ دلار؛ mini، معادل ۰.۴ و ۱.۶ دلار؛ و nano، معادل ۰.۱ و ۰.۴ دلاره.

‏OpenAI همچنین اعلام کرده که GPT-4.1 در تست Video-MME که برای ارزیابی توانایی درک محتوای ویدیویی طراحی شده، تونسته به دقت ۷۲٪ توی بخش «ویدیوهای بلند بدون زیرنویس» برسه. با اینکه این مدل اطلاعات به‌روزتری نسبت به نسخه‌های قبلی داره (تا ژوئن ۲۰۲۴)، اما همچنان ممکنه در انجام بعضی کارها اشتباه کنه؛ به‌خصوص وقتی با ورودی‌های خیلی طولانی مواجه می‌شه. طبق یکی از تست‌های داخلی OpenAI، دقت مدل از حدود ۸۴٪ با ۸۰۰۰ توکن، به ۵۰٪ با ۱ میلیون توکن کاهش پیدا کرده. همچنین، GPT-4.1 نسبت به GPT-4o گرایش بیشتری به تفسیر تحت‌اللفظی داره و گاهی نیاز به دستورهای دقیق‌تر داره.

@aipulse24
🔥213👍2❤‍🔥1🖕1
قابلیت ساخت ویدیو (Video Gen) با مدل Veo 2 حالا برای اکثر کاربران از طریق AI Studio در دسترس قرار گرفته.

@aipulse24
🔥202👍2💩1
This media is not supported in your browser
VIEW IN TELEGRAM
توی دنیای هوش مصنوعی، یه شاخه‌ خیلی مهم به اسم «یادگیری تقویتی» (Reinforcement Learning یا به اختصار RL) وجود داره. توی این روش، یه مدل یاد می‌گیره که چطور تصمیم بگیره تا به بهترین نتیجه برسه؛ درست مثل یه بازی که بازیکن با آزمون و خطا سعی می‌کنه امتیاز بیشتری بگیره. مدل با گرفتن پاداش یا جریمه از محیط، کم‌کم یاد می‌گیره چه کارهایی درسته و چه کارهایی نه.

حالا «دیوید سیلور» یکی از دانشمندان Google DeepMind یه نکته‌ هیجان‌انگیز رو افشا کرده: «ما یه سیستمی ساختیم که با استفاده از یادگیری تقویتی، تونست خودش الگوریتم‌های یادگیری تقویتی طراحی کنه.» به گفته‌ سیلور، این سیستم که خودش با هوش مصنوعی ساخته شده، از تمام الگوریتم‌های RL که طی سال‌ها توسط انسان‌ها طراحی شده بودن، عملکرد بهتری داشته.

@aipulse24
👍35❤‍🔥8🔥7😁21🌭1
دوستان خیاط در کوزه افتاد😃😃

دیروز Cursor دچار یک باگ شده که اجازه نمیداده یوزر ها با یک اکانت روی دستگاه های مختلف وارد اکانتشون بشن.

وقتی این باگ اتفاق افتاده افراد از chatbot پیشتیبانی سوال کردن که چرا این اتفاق افتاده. اون بزرگوار هم توهم زده و گفته این سیاست جدید شرکته😭😭

دلوپرهام شاکی شدن و یه تعداد خیلیییی زیادی اشتراک هاشون رو کنسل کردن.

بعد تازه افراد توی cursor فهمیدن چی شده:))
و عذرخواهی کردن (توی عکس اون ریپلای فاندر شرکت هست)

خلاصه وقتی human in the loop رو حذف میکنی این میشه:)))


@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣42👍3👀1
دِمیس هاسابیس، مدیرعامل گوگل دیپ‌مایند، به‌تازگی از طرف مجله‌ی تایم به‌عنوان یکی از ۱۰۰ فرد تأثیرگذار سال ۲۰۲۵ معرفی شده و عکسش روی جلد این شماره قرار گرفته. هاسابیس که با توسعه‌ی هوش مصنوعی آلفافولد تونسته نقش بزرگی در شتاب‌دادن به کشف‌های علمی در حوزه‌های زیست‌شناسی و پزشکی ایفا کنه، امسال موفق به دریافت نوبل شیمی هم شده.

ابزارهایی که تیم اون ساخته، الان توی آزمایشگاه‌های زیادی در سراسر دنیا، از جمله برای مقابله با بیماری‌های ژنتیکی نادر، مقاومت آنتی‌بیوتیکی و حتی چالش‌های اقلیمی در کشاورزی استفاده می‌شن. نگاه هاسابیس به زیست‌شناسی، نگاهی بین‌رشته‌ایه که از ترکیب علوم اعصاب، شناخت و محاسبات شکل گرفته؛ و این باعث شده نه‌تنها سیستم‌های قدرتمند بسازه، بلکه فهم عمیق‌تری از حیات ارائه بده.

به‌گفته‌ی تایم، آینده‌ی زیست‌شناسی مسیری مشترک، خلاقانه و میان‌رشته‌ای داره که هاسابیس با کارهاش سرعت رسیدن به اون رو بیشتر کرده.

@aipulse24
🔥29👍84
چجوری بفهمیم بهترین مدل برای استفاده ما چیه؟

۱. بنچ مارک ها. بنچ مارک کلا یعنی مقایسه عملکرد یه چیزی نسبت به یه مقیاس مشخصی

شرکت ها و موسسات خیلیی خیلی زیادی ایجاد شدن که کارشون همینه


روش های متنوع هم براش هست
یکی از معروف ترین هاش اینجا توضیح دادم

کارش اینه که دوتا مدل رو میزاره جلوی کاربر تا استفاده کنه بدون اینکه کاربر بدونه مدل ها کدومن بعد میگی بگو کدوم بهتر بودن و براساس تعداد ارایی که برای هر مدل میگیره عملکرد رو مشخص میکنه

روش دیگه یک سری تست و ازمون هست مثلا یه سری سوال برنامه نویسیه یا یه سری سوال ریاضیه یا اخیرا خود اوپن ai اومده و یک بنچ مارک درست کرده برای سطح ادراک مدل ها از مقالات علمی که راجع به مقالات ارایه شده توی ICML 2024 سوال کرده که یک کنفرانس خفن برنامه نویسی هست و سطح شون رو بررسی کرده و این یکی هم یه تست دیگه با عنوان humanity last exam هست.

هر کدوم از این بنچ مارک ها یه حوزه رو بررسی میکنن و هیچ کدوم جامع نیستن

یعنی یکی وضعیت ریاضی رو چک میکنه یکی مقالات علمی یکی کد نویسی یکی هم تولید محتوا


پس روش اول بررسی این سایت بنچ مارک هاست تا به نتیجه برسی کدوم بهتره

این پست توضیح دادم که با این ابزار تو این سایته میتونی use case ات رو بگی و بهت بهترین مدل رو معرفی میکنه


البته که چون خیلی از مدل ها روی سوالات بنچ مارک ها ترین میشن گاهی این بنچ مارک ها کامل قابل اتکا نیستن

روش دوم راستش ازمون و خطاست و هیچ مدلی هیچ وقت بهترین نیست

تئوری no free lunch theorem که اینجا میتونین راجع بهش بخونین میگه هیچ مدلی برای همه اشکال مسئله بهترین نیست


شما باید براساس نیازی که داری خودت سبک سنگین کنی

بهترین روش اینه یک سری پرامپت برای کاری که میخوای بکنی رو عیناااا بدی به همه مدل ها و ببینی کدوم بهتر عمل میکنن و با اون کار کنی

در نهایت هم همین برتری ممکنه باز ۳ ۴ ماه دیگه با توجه به سرعت تغییرات عوض بشه

@aipulse24
16👍13
This media is not supported in your browser
VIEW IN TELEGRAM
عزیزان هر روز داریم توی یه فیلم و سریال زندگی میکنیم

این قسمت Adams Family 😭😭

یه شرکت بریتانیایی به اسم Open Bionics، بعد از چهار سال کار، بالاخره نسخه جدیدی از دست رباتیک خودش به اسم Hero رو معرفی کرده که به گفته خودشون پیشرفته‌ترین دست بایونیکی دنیاست. این دست از یه سری الکترود بی‌سیم به اسم MyoPods استفاده می‌کنه که روی بازوی فرد قطع عضو قرار می‌گیرن و سیگنال‌های عضله رو می‌خونن. بعد اون سیگنال‌ها رو به حرکت انگشتای رباتیک تبدیل می‌کنه.

حقیقتا 💖 چه جالب 💖

همین دیگه من میرم بقیه اشو اینجا بخونم 😦

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
21👍6🔥1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
این اقای عزیزی که در این ویدیو هست اسمش چانگین لی عه و دانشجوی دانشگاه کلمبیا امریکا بوده.

ایشون یک ابزاری میسازه که کارش تقلب توی تسک های کدنویسی مصاحبه های کاری بوده و با همین ابزار توی کاراموزی آمازون قبول میشه!

در نهایت به خاطر ساخت این ابزار، دانشگاه کلمبیا تعلیقش میکنه😭😭

خبر تعلیق شدنش توی شکبه X وایرال میشه و باعث معروف شدن محصولش میشه و الان این محصول به صورت تخمینی سالانه ۳ میلیون دلار درامد داره!

ایشون هم فرصت رو غنیمت میشمره و محصول رو گسترش میده حالا میشه توی تماس های فروش، هر مصاحبه ای و امتحانات هم ازش برای تقلب استفاده کرد.

روش کار هم یک صفحه مخفی داخل مرورگر هست که فرد مقابل قادر به دیدنش نیست.

بعد از این موفقیت ایشون تصمیم میگیره تا یک شرکت بزنه و کل این محصولات رو ببره زیر مجموعه اش به اسم Cluely که الان تونسته ۵ میلیون دلار هم برای توسعه محصولش فاندینگ بگیره!


این ویدیو هم بخشی از تبلیغاتش هست برای محصولی که دراینده قراره ارائه بده و به گفته خودش میتونید "تو همه چی تقلب کنید".


خلاصه عزیزان سینگل فعلا تا اطلاع ثانوی دیت نرید تا ببینیم چه خاکی به سرمون کنیم😭😭😭

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣56👍4😱1
دو پژوهشگر برجسته‌ی هوش مصنوعی، ایده‌ی «یادگیری تجربی» رو به‌عنوان فاز بعدی توسعه‌ی هوش مصنوعی مطرح کردن. نظریه‌ی اونا توی مقاله‌ای به نام «عصر تجربه» اومده که بخشی از کتاب در دست انتشار «طراحی یک هوش» از انتشارات MIT محسوب می‌شه.

«دیوید سیلور» و «ریچارد اس. ساتن» توی این مقاله، از نسل جدیدی از ایجنت‌های هوش مصنوعی حرف زدن که به‌گفته‌ی خودشون می‌تونن مسیر رسیدن به «هوش فرابشری» رو هموار کنن. اونا نوشتن: «تو حوزه‌هایی مثل ریاضی، برنامه‌نویسی و علوم، دانشی که از داده‌های انسانی استخراج شده، داره به سقف خودش نزدیک می‌شه».

به‌علاوه، به‌گفته‌ی این دو پژوهشگر، هوش مصنوعی مولد فعلاً توانایی اختراع چیزهای مفید یا کشف بینش‌های جدیدی که خارج از مرزهای درک فعلی انسان باشه رو نداره.

اما این دو نفر کی‌ان؟
«دیوید سیلور»، دانشمند علوم کامپیوتر، یکی از توسعه‌دهنده‌های اصلی AlphaGo ـه؛ برنامه‌ای که در سال ۲۰۱۶ تونست قهرمان جهانی بازی Go، یعنی «لی سِدول» رو شکست بده.
«ریچارد اس. ساتن» هم از چهره‌های تأثیرگذار توی حوزه‌ی یادگیری تقویتیه و الگوریتم‌های پایه‌ای زیادی برای این حوزه توسعه داده. اون توی یه مقاله در سال ۲۰۱۹ پیشنهاد کرده بود که دانشمندان کامپیوتر باید از «فرا-روش‌ها» استفاده کنن؛ یعنی تکنیک‌هایی که به سیستم اجازه می‌دن از دنیای پیچیده و نامنظم بیرونی یاد بگیره، نه فقط از داده‌های ساختاریافته.

سیلور و ساتن یه چارچوب جدید برای تقسیم‌بندی روند رشد هوش مصنوعی توی ده سال اخیر معرفی کردن:

۱. دوره‌ی شبیه‌سازی (Simulation Era) که با AlphaGo و تکنیک‌های یادگیری ماشین همراه بود.
۲. دوره‌ی داده‌های انسانی (Human Data Era) که با ظهور GPT-3 شروع شد.
۳. دوره‌ی تجربه (Experience Era) که از سال ۲۰۲۴ با معرفی AlphaProof، محصول دیپ‌مایند بر پایه‌ی یادگیری تقویتی، آغاز شده.

اونا اشاره کردن که AlphaProof تونسته توی المپیاد جهانی ریاضی مدال بگیره؛ اونم با یه الگوریتم تقویتی که از طریق تعامل مداوم با سیستم اثبات ریاضی یاد گرفته. به‌جای این‌که بهش مستقیماً ریاضی یاد بدن، بهش انگیزه‌ی رسیدن به پاداش‌هایی رو دادن که از حل مسائل ریاضی به دست می‌اومده.

به‌نظر نویسنده‌ها، یادگیری هوش مصنوعی می‌تونه از خود دنیا هم تغذیه بشه؛ چه از طریق مدل‌سازی شبیه‌سازی‌شده از جهان و چه از طریق داده‌هایی مثل سود مالی، نتایج آزمون یا مصرف انرژی.
اونا نوشتن: «این داده‌ها باید به‌نحوی تولید بشن که با قوی‌تر شدن ایجنت، خودشون هم بهتر بشن؛ چون اگه داده‌ها از یه روش ایستا تولید بشن، خیلی زود ایجنت اون روش رو پشت سر می‌ذاره».

ایجنت‌های هوش مصنوعی در عصر تجربه، ویژگی‌های متفاوتی با مدل‌های فعلی دارن:

۱- می‌تونن برای مدت طولانی روی هدف‌های جاه‌طلبانه کار کنن.
۲- هم از محیط اطراف‌شون و هم از ورودی‌های انسانی تغذیه می‌شن.
۳- انگیزه‌شون بر اساس تجربه‌ی خودشونه، نه قضاوت انسانی.
۴- توانایی برنامه‌ریزی و استدلال در مورد چیزهایی رو دارن که مستقل از انسان هستن.


هدف این ایجنت‌ها فقط پاسخ دادن به سوال‌های کاربران نیست؛ بلکه قراره هدف‌هایی طولانی‌مدت رو دنبال کنن. برخلاف مدل‌های فعلی که فقط می‌تونن ترجیحات کاربر رو به خاطر بسپارن یا به سوال‌های قبلی توی یه گفت‌وگو ارجاع بدن.

البته این دو پژوهشگر نسبت به خطرها هم هشدار دادن: از جمله جایگزینی شغلی، کاهش کنترل انسانی روی تصمیم‌های عامل‌ها و سخت شدن تفسیر عملکرد اون‌ها.

نسخه کامل این مقاله رو میتونید از اینجا مشاهده و بررسی کنید.

@aipulse24
👍317🔥2👾2
شرکت چینی علی‌بابا روز دوشنبه مدل‌های زبانی جدیدی با نام Qwen3 رو معرفی کرده که به‌گفته‌ی خودش، در برخی سنجش‌ها از مدل‌های پیشرفته‌ی شرکت‌هایی مثل OpenAI و گوگل هم عملکرد بهتری داشتن. مدل‌های Qwen3 با اندازه‌هایی از ۰.۶ تا ۲۳۵ میلیارد پارامتر طراحی شدن و اکثرشون یا هم‌اکنون روی پلتفرم‌های Hugging Face و گیت‌هاب قابل دسترسی هستن، یا به‌زودی منتشر می‌شن. بزرگ‌ترین مدل این مجموعه، یعنی Qwen3-235B-A22B، در تست‌های کدنویسی، ریاضی و استدلال عملکردی نزدیک یا بهتر از مدل‌های o3-mini از OpenAI و Gemini 2.5 Pro از گوگل داشته.

علی‌بابا گفته این مدل‌ها از معماری هیبریدی و گاهی «Mixture of Experts» (MoE) استفاده می‌کنن؛ یعنی می‌تونن بسته به نوع وظیفه یا زمان پاسخ‌گویی، بین حالت "تفکر" و "غیرتفکر" جابجا بشن. این قابلیت باعث می‌شه که هم کارهای ساده رو سریع انجام بدن، هم مسائل پیچیده رو با دقت بیشتری حل کنن، مشابه عملکرد مدل‌های سطح بالایی مثل o3. تیم توسعه‌ی Qwen توی یک پست وبلاگی نوشته: «ما امکان کنترل بودجه‌ی تفکر برای کاربرها رو فراهم کردیم تا بشه عملکرد مدل رو برای هر وظیفه به‌طور خاص تنظیم کرد.»

مدل‌های Qwen3 از ۱۱۹ زبان پشتیبانی می‌کنن و با استفاده از دیتاستی شامل بیش از ۳۶ تریلیون توکن آموزش دیدن؛ از جمله متن‌های درسی، جفت پرسش‌وپاسخ، کدهای برنامه‌نویسی، داده‌های تولیدشده توسط هوش مصنوعی و غیره. به‌گفته‌ی علی‌بابا، این نسخه نسبت به Qwen2 پیشرفت محسوسی داشته و در برخی تست‌ها حتی از مدل‌های شناخته‌شده‌ای مثل o1 هم بهتر عمل کرده؛ هرچند هنوز هیچ‌کدوم از نسخه‌هاش به‌طور کامل از مدل‌های رده‌بالای بازار پیشی نگرفتن.

بزرگ‌ترین نسخه‌ی Qwen3 فعلاً به‌صورت عمومی منتشر نشده، اما مدل Qwen3-32B که در دسترس عموم قرار گرفته، با مدل‌های قدرتمندی مثل DeepSeek R1 و OpenAI o1 رقابت می‌کنه. این مدل همچنین در اجرای دستورها، تماس با ابزارها و حفظ فرمت دقیق داده‌ها عملکرد خوبی از خودش نشون داده. Qwen3 علاوه بر دانلود مستقیم، از طریق پلتفرم‌های ابری مثل Fireworks AI و Hyperbolic هم قابل استفاده‌ست. برخی تحلیل‌گرها معتقدن انتشار این مدل‌ها نشون‌دهنده‌ی قدرت‌گیری مدل‌های متن باز در برابر سیستم‌های بسته‌ هست، حتی با وجود محدودیت‌های صادرات تراشه به چین.

این مدل‌ها از طریق وبسایت qwen از اینجا قابل استفاده هستن.

@aipulse24
🔥15👍4❤‍🔥2
شرکت OpenAI به‌تازگی آپدیتی رو که باعث رفتار عجیب و بیش‌ازحد چاپلوسانه مدل GPT-4o شده بود، پس گرفت. سم آلتمن، مدیرعامل OpenAI، امروز در پستی اعلام کرد که این به‌روزرسانی از شب گذشته برای کاربران رایگان چت‌جی‌پی‌تی به‌طور کامل حذف شده و برای کاربران پولی هم به‌زودی انجام می‌شه. اون گفته تیمش دارن روی اصلاحات بیشتری برای "شخصیت مدل" کار می‌کنن و اطلاعات بیشتری به‌زودی منتشر می‌کنن.

این عقب‌گرد بعد از اون اتفاق افتاد که خیلی از کاربران توی شبکه‌های اجتماعی به چاپلوس‌ بودن بیش‌ازحد نسخه جدید اعتراض کردن. این موضوع آخر هفته تبدیل به یک میم شد؛ کاربرا اسکرین‌شات‌هایی منتشر کردن که چت‌جی‌پی‌تی توش حتی تصمیم‌ها و ایده‌های خطرناک و اشتباه رو هم تأیید می‌کرد. آلتمن هم یکشنبه این مشکل رو تأیید کرد و گفت که OpenAI خیلی سریع در حال کار روی رفعشه و نتایجش رو بعداً به اشتراک می‌ذاره.

@aipulse24
👍20🎉3🤣3🤩2🔥1
AI Pulse
شرکت OpenAI به‌تازگی آپدیتی رو که باعث رفتار عجیب و بیش‌ازحد چاپلوسانه مدل GPT-4o شده بود، پس گرفت. سم آلتمن، مدیرعامل OpenAI، امروز در پستی اعلام کرد که این به‌روزرسانی از شب گذشته برای کاربران رایگان چت‌جی‌پی‌تی به‌طور کامل حذف شده و برای کاربران پولی هم…
حالا دلیل این اتفاق چی بوده؟ OpenAI تو گزارش جدیدش درباره مشکل چاپلوسی بیش‌ازحد مدل GPT-4o که باعث شد آپدیت هفته گذشته پس گرفته بشه، توضیح داده که آپدیت مورد بحث با نیت بهبود «شخصیت پیش‌فرض» مدل انجام شده بود. هدف این بوده که تعاملات طبیعی‌تر و مؤثرتر به نظر برسن، ولی مشکل از اونجا شروع شد که طراحی این تغییرات بیش از حد به بازخوردهای کوتاه‌مدت کاربرا متکی بوده و به این موضوع توجه نکرده که سبک تعامل کاربرا در طول زمان تغییر می‌کنه. همین باعث شد که مدل به سمت جواب‌هایی بیش‌ازحد تأییدکننده و غیرصادقانه کشیده بشه.

‏OpenAI تو پست وبلاگش نوشته که این نوع پاسخ‌های چاپلوسانه می‌تونه تجربه‌ای آزاردهنده و ناخوشایند برای کاربرا بسازه. حالا تیم توسعه داره چند اصلاح اساسی انجام می‌ده: به‌روزرسانی روش‌های آموزش مدل، بازنویسی دستورهای سیستمی برای جلوگیری از چاپلوسی، و افزایش ابزارهای ایمنی برای بالا بردن صداقت و شفافیت پاسخ‌ها. علاوه بر این، OpenAI گفته که در حال آزمایش روش‌هایی برای گرفتن بازخورد لحظه‌ای از کاربرا و اضافه کردن گزینه‌هایی برای انتخاب شخصیت‌های مختلف چت‌جی‌پی‌تیه. هدف نهایی اینه که مدل، بهتر با ارزش‌های فرهنگی متنوع سازگار بشه و کنترل بیشتری به دست کاربرا بده.

@aipulse24
👍12🔥5👌31
استارتاپ جنجالی Cluely که ابزار تقلب مبتنی‌بر هوش مصنوعی ارائه می‌ده، هفته‌ی گذشته با ادعای ساخت یک پنجره‌ی پنهان در مرورگر که «غیرقابل شناساییه» و می‌شه باهاش تو همه‌چیز از مصاحبه‌های شغلی گرفته تا امتحان‌ها تقلب کرد، حسابی سر زبون‌ها افتاد. اما این وسط چندتا استارتاپ دیگه مدعی‌ان که می‌تونن کاربران Cluely رو شناسایی کنن. خود Cluely هم می‌گه که آماده‌ست تا با ساخت ابزارهای سخت‌افزاری مثل عینک هوشمند یا حتی چیپ مغزی، کل نرم‌افزارهای ضدتقلب رو دور بزنه.

استارتاپ سان‌فرانسیسکویی Validia هفته‌ی گذشته یه ابزار رایگان به اسم Truely منتشر کرده که به‌طور مستقیم برای مقابله با Cluely ساخته شده. به‌گفته‌ی Validia، این نرم‌افزار اگر متوجه استفاده‌ی کاربر از Cluely بشه، هشدار می‌ده. استارتاپ دیگه‌ای به‌اسم Proctaroo هم که دفترش در رود آیلنده، مدعیه که پلتفرمش توانایی شناسایی فعالیت Cluely رو داره. مدیرعامل Proctaroo، آدریان آمودت، تو مصاحبه با TechCrunch، مدل کسب‌وکار Cluely رو «غیراخلاقی» دونسته و گفته اونا همون‌طور که بقیه‌ی برنامه‌ها رو می‌بینن، Cluely رو هم می‌تونن شناسایی کنن.

با این حال، مدیرعامل Cluely، چونگین «روی» لی، این ابزارهای ضدتقلب رو بی‌اثر می‌دونه و با مثال زدن از سال‌ها شکست صنعت بازی‌های ویدیویی در مقابله با تقلب، به مقابله با خودش خندیده. اون حتی گفته ورود به حوزه‌ی سخت‌افزار براشون از نظر فنی «کاملاً پیش‌پا افتاده‌ست» و ابزارهایی مثل عینک هوشمند، لایه‌های شیشه‌ای شفاف، گردنبندهای ضبط‌کننده یا حتی چیپ مغزی می‌تونن آینده‌ی این تکنولوژی باشن. هرچند Cluely بعد از بالا گرفتن انتقادها، اشاره‌ها به تقلب در امتحان و مصاحبه‌ی شغلی رو از سایتش حذف کرده و حالا بیشتر روی جلسات کاری و تماس‌های فروش تمرکز کرده، ولی به‌گفته‌ی لی، این فقط یه تغییر در پیام‌رسانیه تا «بزرگ‌ترین بازارهای هدف» رو جذب کنن.

@aipulse24
👍18😁8
اپل و آنتروپیک دارن با هم همکاری می‌کنن تا یه پلتفرم جدید بسازن که با استفاده از هوش مصنوعی مولد، بتونه کد بنویسه، ویرایش کنه و حتی تست بگیره. طبق گزارشی که بلومبرگ منتشر کرده، این پلتفرم فعلاً به‌صورت داخلی داخل خود اپل استفاده می‌شه و هنوز تصمیمی برای عرضه‌ی عمومی اون گرفته نشده. این ابزار درواقع نسخه‌ای پیشرفته‌تر از نرم‌افزار برنامه‌نویسی Xcode اپله که با تکیه بر مدل Claude Sonnet، محصول آنتروپیک، توسعه پیدا کرده.

اپل برای سرعت‌دادن به پروژه‌های هوش مصنوعی‌ش، داره از یه شبکه‌ی گسترده از شرکای تکنولوژی استفاده می‌کنه. برای مثال، چت‌جی‌پی‌تی از شرکت OpenAI همین حالا هم نقش پررنگی توی قابلیت‌های Apple Intelligence داره و به گفته‌ی خود اپل، احتمال داره در آینده مدل Gemini گوگل هم به‌عنوان یه گزینه‌ی جایگزین بهش اضافه بشه. حالا هم آنتروپیک به این جمع پیوسته تا به اپل تو توسعه‌ی داخلی ابزارهای برنامه‌نویسی کمک کنه.

@aipulse24
🔥15👍83
گوگل قراره از هفته‌ی آینده به بچه‌های زیر ۱۳ سال اجازه بده از چت‌بات Gemini استفاده کنن؛ البته فقط در صورتی که حساب کاربری‌شون با نظارت والدین ساخته شده باشه. طبق گزارشی که نیویورک تایمز منتشر کرده، این امکان از طریق سرویس Family Link گوگل فعال می‌شه؛ سرویسی که به خانواده‌ها اجازه می‌ده دسترسی فرزندشون به سرویس‌های مختلف گوگل رو کنترل کنن. به گفته‌ی یکی از سخنگوهای گوگل، نسخه‌ای که برای این گروه سنی در نظر گرفته شده، شامل محدودیت‌ها و فیلترهای مخصوص بچه‌هاست و اطلاعاتی که از این طریق جمع‌آوری می‌شه، برای آموزش مدل‌های هوش مصنوعی گوگل استفاده نمی‌شن.

در حالی که شرکت‌های مختلف دارن برای جذب مخاطب‌های کم‌سن‌وسال توی رقابت هوش مصنوعی از هم پیشی می‌گیرن، خیلی‌ها نسبت به این روند هشدار دادن. نیویورک تایمز یادآوری کرده که چت‌بات‌ها در بهترین حالت هنوز کامل و بدون نقص نیستن، و در بدترین حالت ممکنه آسیب‌زا باشن. سال گذشته، سازمان آموزشی، علمی و فرهنگی سازمان ملل (یونسکو) از دولت‌ها خواست استفاده از هوش مصنوعی مولد در آموزش رو قانون‌مند کنن؛ از جمله با تعیین محدودیت سنی برای کاربران و ایجاد چارچوب‌هایی برای حفاظت از داده‌ها و حریم خصوصی.

@aipulse24
🔥12👍71