AI Pulse – Telegram
AI Pulse
3.76K subscribers
396 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
گوگل دیپ‌مایند از مدل جدید «Gemini 2.5 Computer Use» رونمایی کرده که به هوش مصنوعی اجازه می‌ده کارها رو درست مثل انسان‌ها در محیط‌های گرافیکی انجام بده، یعنی بتونه کلیک کنه، بنویسه و بین صفحات وب یا اپ‌ها جابه‌جا بشه. این مدل که بر پایه‌ی توانایی‌های دیداری و استدلالی Gemini 2.5 Pro ساخته شده، عملکرد خیلی بهتری نسبت به رقبا داره و با تأخیر کمتر اجرا می‌شه. توسعه‌دهنده‌ها می‌تونن از طریق Gemini API در Google AI Studio یا Vertex AI بهش دسترسی پیدا کنن.

مدل جدید برای کنترل مرورگرها بهینه شده و در تست‌های مختلف مثل Online-Mind2Web و WebVoyager نتایج خوبی گرفته. گوگل می‌گه این مدل می‌تونه فرم‌ها رو پر کنه، فیلترها و منوها رو مدیریت کنه و حتی با فرم های لاگین کار کنه. همچنین ابزارهای ایمنی درون مدل تعبیه شدن تا جلوی اقدام‌های پرخطر مثل دور زدن کپچا یا کنترل سیستم‌های حساس گرفته بشه.

گوگل از این مدل در پروژه‌هایی مثل تست خودکار رابط‌های کاربری، Firebase Testing Agent و قابلیت‌های عامل‌محور «AI Mode» در جست‌وجو استفاده کرده. حالا هم نسخه‌ی پیش‌نمایش عمومی در دسترسه و توسعه‌دهنده‌ها می‌تونن از طریق محیط تست Browserbase یا مستندات رسمی گوگل، کار باهاش رو شروع کنن.

@aipulse24
17👍10
شرکت انتروپیک در همکاری با مؤسسه امنیت هوش مصنوعی بریتانیا (UK AISI) و مؤسسه آلن تورینگ پژوهشی تازه منتشر کرده که یافته‌اش حسابی جلب توجه کرده: فقط با حدود ۲۵۰ سند مخرب میشه یک مدل زبانی بزرگ رو آلوده و دچار "backdoor" کرد، اونم فارغ از اینکه اون مدل چه‌قدر بزرگ یا با چه حجمی از داده آموزش دیده باشه.

این مطالعه با عنوان “A small number of samples can poison LLMs of any size” در تاریخ ۹ اکتبر ۲۰۲۵ منتشر شده و نشون میده برخلاف تصور قبلی، برای حملات data poisoning نیازی نیست مهاجم درصد زیادی از داده‌های آموزشی رو در اختیار داشته باشه؛ بلکه فقط یک تعداد ثابت، هرچند کم، می‌تونه کافی باشه.

پژوهشگران برای آزمایش، از نوعی حمله ساده و کم‌خطر استفاده کردن که باعث میشه مدل وقتی عبارت خاصی مثل <SUDO> رو ببینه، به‌جای پاسخ طبیعی، متنی نامفهوم و بی‌معنی تولید کنه.

در این پروژه، مدل‌هایی با اندازه‌های مختلف از ۶۰۰ میلیون تا ۱۳ میلیارد پارامتر آموزش داده شدن و نتایج نشون داد که میزان موفقیت حمله در همه‌ی این مدل‌ها تقریباً یکسانه. یعنی حتی وقتی مدل بزرگ‌تر روی داده‌های خیلی بیشتری آموزش دیده، باز هم همون تعداد محدود از اسناد آلوده برای فریبش کافیه.

طبق گزارش، ۱۰۰ سند سمی برای آلوده کردن مدل کافی نبود، ولی با ۲۵۰ سند یا بیشتر، تمام مدل‌ها در مقیاس‌های مختلف به طور پایدار دچار رفتار مخرب شدن. نکته جالب اینجاست که موفقیت حمله به تعداد مطلق این اسناد بستگی داره، نه نسبت اون‌ها به حجم کلی داده‌ی آموزشی. به زبان ساده، مهم نیست کل دیتاست چقدر بزرگ باشه؛ وقتی مدل چند صد سند آلوده رو ببینه، یاد می‌گیره که به اون الگوی خاص واکنش اشتباه نشون بده.

این تحقیق که بزرگ‌ترین مطالعه‌ی منتشرشده در زمینه‌ی آلودگی داده در مدل‌های زبانی به‌شمار میره، نگرانی‌هایی رو درباره‌ی امنیت مدل‌های هوش مصنوعی مطرح کرده. تیم انتروپیک در پایان تأکید کرده که هدف از انتشار این نتایج، هشدار به جامعه‌ی پژوهشی و تشویق به توسعه‌ی روش‌های دفاعی بهتره، نه فراهم کردن ابزار برای مهاجمان.

به گفته‌ی اون‌ها، آگاهی از این آسیب‌پذیری‌ها کمک می‌کنه تا از تکرارش در مدل‌های بزرگ‌تر و حساس‌تر جلوگیری بشه و مسیر ایمن‌تری برای گسترش هوش مصنوعی ترسیم بشه.

@aipulse24
125👍5💯3
گوگل در همکاری با دانشگاه ییل از مدل جدیدی به نام Cell2Sentence-Scale 27B (C2S-Scale) رونمایی کرده؛ مدلی با ۲۷ میلیارد پارامتر که برای درک «زبان سلول‌ها» طراحی شده. این مدل بر پایه‌ی خانواده مدل‌های باز Gemma ساخته شده و مرز جدیدی در تحلیل سلول‌های منفرد به شمار می‌ره. اهمیت این دستاورد زمانی دوچندان می‌شه که C2S-Scale تونسته یک فرضیه‌ی جدید درباره رفتار سلول‌های سرطانی مطرح کنه که بعدتر با آزمایش روی سلول‌های زنده هم تأیید شده؛ نتیجه‌ای که مسیر تازه‌ای برای درمان‌های احتمالی سرطان باز می‌کنه.

این مدل برای حل یکی از چالش‌های مهم ایمنی‌درمانی سرطان یعنی نامرئی بودن تومورها برای سیستم ایمنی (تومورهای «سرد») به کار گرفته شده. C2S-Scale با شبیه‌سازی اثر بیش از ۴۰۰۰ دارو، دارویی به نام سیلمیتاسرتیب (Silmitasertib) رو شناسایی کرده که در حضور مقدار کم پروتئین سیگنال‌دهنده‌ی اینترفرون، باعث افزایش چشمگیر نمایش آنتی‌ژن روی سطح سلول‌ها می‌شه؛ اتفاقی که تومور رو برای سیستم ایمنی «قابل دیدن‌تر» می‌کنه. آزمایش‌های بعدی در سلول‌های انسانی هم این پیش‌بینی رو تأیید کرده و نشون داده ترکیب سیلمیتاسرتیب با اینترفرون می‌تونه تا حدود ۵۰٪ میزان نمایش آنتی‌ژن رو افزایش بده.

این موفقیت نه‌تنها یک کشف علمی مهم به حساب میاد، بلکه الگویی تازه برای نحوه‌ی استفاده از مدل‌های بزرگ در زیست‌شناسی ارائه می‌ده. گوگل و ییل معتقدن این رویکرد می‌تونه روند کشف داروهای جدید و طراحی درمان‌های ترکیبی رو سرعت بده. مدل و ابزارهای مرتبط با C2S-Scale 27B از امروز برای جامعه پژوهشی در دسترس قرار گرفته و روی پلتفرم‌هایی مثل Hugging Face و GitHub قابل استفاده‌ست.
همچنین نسخه کامل این مقاله رو میتونید از اینجا مشاهده کنید.

@aipulse24
👍18🔥7❤‍🔥21👏1💯1
انتروپیک از نسخه جدید مدل هوش مصنوعی کوچک خودش با نام Claude Haiku 4.5 رونمایی کرده. این مدل طبق گفته‌ی شرکت، عملکردی مشابه با Sonnet 4 ارائه می‌ده اما با یک‌سوم هزینه و بیش از دو برابر سرعت. به گفته‌ی انتروپیک، Haiku 4.5 در تست‌های مختلف از جمله SWE-Bench و Terminal-Bench نتایج قابل توجهی گرفته و عملکردش در سطح مدل‌هایی مثل Sonnet 4، GPT-5 و Gemini 2.5 بوده. همچنین در زمینه‌ی استفاده از ابزارها، تعامل با رایانه و استدلال بصری هم نتایج مشابهی ثبت کرده.

این مدل جدید بلافاصله در تمام پلن‌های رایگان انتروپیک در دسترس قرار گرفته و به گفته‌ی شرکت، به‌ویژه برای نسخه‌های رایگان محصولات مبتنی بر هوش مصنوعی جذاب خواهد بود، چون می‌تونه با حداقل فشار بر سرورها، توانایی بالایی ارائه بده. ماهیت سبک بودن Haiku 4.5 باعث می‌شه بشه چندین عامل (agent) رو به‌صورت هم‌زمان اجرا کرد یا اون‌ها رو در ترکیب با مدل‌های قوی‌تر مثل Sonnet به کار گرفت.

‏Haiku 4.5 تنها دو هفته بعد از عرضه‌ی Sonnet 4.5 و دو ماه پس از Opus 4.1 منتشر شده و ادامه‌دهنده‌ی روند سریع پیشرفت مدل‌های انتروپیکه.

@aipulse24
1👍20🔥111
گوگل مدل هوش مصنوعی Gemma رو از پلتفرم AI Studio حذف کرده، درست بعد از اینکه سناتور جمهوری‌خواه «مارشا بلکبرن» اعلام کرده این مدل درباره‌اش اتهام‌های ساختگی منتشر کرده. گوگل گفته Gemma از ابتدا برای توسعه‌دهنده‌ها طراحی شده بود و نباید برای پاسخ به پرسش‌های واقعی یا استفاده عمومی به کار می‌رفته. با این حال به گفته‌ی شرکت، برای جلوگیری از این سوء‌برداشت، دسترسی به Gemma در AI Studio قطع شده، اما همچنان از طریق API در اختیار توسعه‌دهنده‌ها قرار داره.

بلکبرن در نامه‌ای به ساندار پیچای، مدیرعامل گوگل، این شرکت رو به افترا و سوگیری ضد‌محافظه‌کارانه متهم کرده. او گفته Gemma در پاسخ به پرسشی درباره خودش، داستانی دروغین از رابطه غیراخلاقی و اتهام تجاوز ساخته و حتی لینک‌های جعلی به خبرهایی که اصلاً وجود نداشتن داده. بلکبرن تأکید کرده هیچ‌کدوم از این ادعاها واقعیت ندارن و این کار، افترا از سوی یک مدل هوش مصنوعی متعلق به گوگل محسوب می‌شه.

گوگل اعلام کرده همچنان برای کاهش خطاها و «توهمات هوش مصنوعی» تلاش می‌کنه. این اتفاق بار دیگه نشون داده مدل‌های هوش مصنوعی هنوز با مشکل دقت و تولید اطلاعات نادرست روبه‌رو هستن. بلکبرن هم در واکنشش گفته: «تا وقتی نمی‌تونید کنترلش کنید، خاموشش کنید.»

@aipulse24
😁15🤡82👍2
انتروپیک گفته در پروژه‌ای به ارزش ۵۰ میلیارد دلار و با همکاری شرکت Fluidstack قراره دیتاسنترهای هوش مصنوعی اختصاصی خودش رو در نیویورک و تگزاس احداث کنه.

این دیتاسنترها که قراره تا سال ۲۰۲۶ عملیاتی بشن به طور مستقیم ۸۰۰ و به طور غیر مستقیم ۲۴۰۰ شغل ایجاد میکنن.

به گفته این شرکت انتروپیک حالا بیشتر از ۳۰۰ هزار مشتری سازمانی داره و تعداد سازمان‌های بزرگی که از محصولات این شرکت استفاده میکنن نسبت به سال قبل ۷ برابر شده.

انتروپیک دلیل انتخاب Fluidstack به عنوان پیمانکار این پروژه رو توانایی بی‌نظیر اونها در گسترش سریع زیرساخت‌ها برای رسیدن به مقیاس گیگاواتی در پردازش اعلام کرده.

@aipulse24
15👍4
مدل کارد منتسب به Gemini 3 Pro چند ساعت قبل از رونمایی رسمی.

@aipulse24
🤯30🔥15👍21
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل از Nano Banana Pro رونمایی کرده که بر مبنای جمنای ۳ پرو هست، تو این نسخه تکست رندرینگ به طرز چشمگیری بهبود پیدا کرده، موقع جنریت تصویر میتونه سرچ کنه و بر اساس اطلاعات معتبر موجود در اینترنت عکس رو جنریت کنه و ضمنا الان میتونه تصویر با خروجی 4K ارائه بده.

رندرینگ تکست فارسی هم نسبت به نسل قبل بهبود چشمگیری پیدا کرده.

@aipulse24
👍156