AI Pulse – Telegram
AI Pulse
3.76K subscribers
396 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
شرکت انتروپیک در همکاری با مؤسسه امنیت هوش مصنوعی بریتانیا (UK AISI) و مؤسسه آلن تورینگ پژوهشی تازه منتشر کرده که یافته‌اش حسابی جلب توجه کرده: فقط با حدود ۲۵۰ سند مخرب میشه یک مدل زبانی بزرگ رو آلوده و دچار "backdoor" کرد، اونم فارغ از اینکه اون مدل چه‌قدر بزرگ یا با چه حجمی از داده آموزش دیده باشه.

این مطالعه با عنوان “A small number of samples can poison LLMs of any size” در تاریخ ۹ اکتبر ۲۰۲۵ منتشر شده و نشون میده برخلاف تصور قبلی، برای حملات data poisoning نیازی نیست مهاجم درصد زیادی از داده‌های آموزشی رو در اختیار داشته باشه؛ بلکه فقط یک تعداد ثابت، هرچند کم، می‌تونه کافی باشه.

پژوهشگران برای آزمایش، از نوعی حمله ساده و کم‌خطر استفاده کردن که باعث میشه مدل وقتی عبارت خاصی مثل <SUDO> رو ببینه، به‌جای پاسخ طبیعی، متنی نامفهوم و بی‌معنی تولید کنه.

در این پروژه، مدل‌هایی با اندازه‌های مختلف از ۶۰۰ میلیون تا ۱۳ میلیارد پارامتر آموزش داده شدن و نتایج نشون داد که میزان موفقیت حمله در همه‌ی این مدل‌ها تقریباً یکسانه. یعنی حتی وقتی مدل بزرگ‌تر روی داده‌های خیلی بیشتری آموزش دیده، باز هم همون تعداد محدود از اسناد آلوده برای فریبش کافیه.

طبق گزارش، ۱۰۰ سند سمی برای آلوده کردن مدل کافی نبود، ولی با ۲۵۰ سند یا بیشتر، تمام مدل‌ها در مقیاس‌های مختلف به طور پایدار دچار رفتار مخرب شدن. نکته جالب اینجاست که موفقیت حمله به تعداد مطلق این اسناد بستگی داره، نه نسبت اون‌ها به حجم کلی داده‌ی آموزشی. به زبان ساده، مهم نیست کل دیتاست چقدر بزرگ باشه؛ وقتی مدل چند صد سند آلوده رو ببینه، یاد می‌گیره که به اون الگوی خاص واکنش اشتباه نشون بده.

این تحقیق که بزرگ‌ترین مطالعه‌ی منتشرشده در زمینه‌ی آلودگی داده در مدل‌های زبانی به‌شمار میره، نگرانی‌هایی رو درباره‌ی امنیت مدل‌های هوش مصنوعی مطرح کرده. تیم انتروپیک در پایان تأکید کرده که هدف از انتشار این نتایج، هشدار به جامعه‌ی پژوهشی و تشویق به توسعه‌ی روش‌های دفاعی بهتره، نه فراهم کردن ابزار برای مهاجمان.

به گفته‌ی اون‌ها، آگاهی از این آسیب‌پذیری‌ها کمک می‌کنه تا از تکرارش در مدل‌های بزرگ‌تر و حساس‌تر جلوگیری بشه و مسیر ایمن‌تری برای گسترش هوش مصنوعی ترسیم بشه.

@aipulse24
125👍5💯3
گوگل در همکاری با دانشگاه ییل از مدل جدیدی به نام Cell2Sentence-Scale 27B (C2S-Scale) رونمایی کرده؛ مدلی با ۲۷ میلیارد پارامتر که برای درک «زبان سلول‌ها» طراحی شده. این مدل بر پایه‌ی خانواده مدل‌های باز Gemma ساخته شده و مرز جدیدی در تحلیل سلول‌های منفرد به شمار می‌ره. اهمیت این دستاورد زمانی دوچندان می‌شه که C2S-Scale تونسته یک فرضیه‌ی جدید درباره رفتار سلول‌های سرطانی مطرح کنه که بعدتر با آزمایش روی سلول‌های زنده هم تأیید شده؛ نتیجه‌ای که مسیر تازه‌ای برای درمان‌های احتمالی سرطان باز می‌کنه.

این مدل برای حل یکی از چالش‌های مهم ایمنی‌درمانی سرطان یعنی نامرئی بودن تومورها برای سیستم ایمنی (تومورهای «سرد») به کار گرفته شده. C2S-Scale با شبیه‌سازی اثر بیش از ۴۰۰۰ دارو، دارویی به نام سیلمیتاسرتیب (Silmitasertib) رو شناسایی کرده که در حضور مقدار کم پروتئین سیگنال‌دهنده‌ی اینترفرون، باعث افزایش چشمگیر نمایش آنتی‌ژن روی سطح سلول‌ها می‌شه؛ اتفاقی که تومور رو برای سیستم ایمنی «قابل دیدن‌تر» می‌کنه. آزمایش‌های بعدی در سلول‌های انسانی هم این پیش‌بینی رو تأیید کرده و نشون داده ترکیب سیلمیتاسرتیب با اینترفرون می‌تونه تا حدود ۵۰٪ میزان نمایش آنتی‌ژن رو افزایش بده.

این موفقیت نه‌تنها یک کشف علمی مهم به حساب میاد، بلکه الگویی تازه برای نحوه‌ی استفاده از مدل‌های بزرگ در زیست‌شناسی ارائه می‌ده. گوگل و ییل معتقدن این رویکرد می‌تونه روند کشف داروهای جدید و طراحی درمان‌های ترکیبی رو سرعت بده. مدل و ابزارهای مرتبط با C2S-Scale 27B از امروز برای جامعه پژوهشی در دسترس قرار گرفته و روی پلتفرم‌هایی مثل Hugging Face و GitHub قابل استفاده‌ست.
همچنین نسخه کامل این مقاله رو میتونید از اینجا مشاهده کنید.

@aipulse24
👍18🔥7❤‍🔥21👏1💯1
انتروپیک از نسخه جدید مدل هوش مصنوعی کوچک خودش با نام Claude Haiku 4.5 رونمایی کرده. این مدل طبق گفته‌ی شرکت، عملکردی مشابه با Sonnet 4 ارائه می‌ده اما با یک‌سوم هزینه و بیش از دو برابر سرعت. به گفته‌ی انتروپیک، Haiku 4.5 در تست‌های مختلف از جمله SWE-Bench و Terminal-Bench نتایج قابل توجهی گرفته و عملکردش در سطح مدل‌هایی مثل Sonnet 4، GPT-5 و Gemini 2.5 بوده. همچنین در زمینه‌ی استفاده از ابزارها، تعامل با رایانه و استدلال بصری هم نتایج مشابهی ثبت کرده.

این مدل جدید بلافاصله در تمام پلن‌های رایگان انتروپیک در دسترس قرار گرفته و به گفته‌ی شرکت، به‌ویژه برای نسخه‌های رایگان محصولات مبتنی بر هوش مصنوعی جذاب خواهد بود، چون می‌تونه با حداقل فشار بر سرورها، توانایی بالایی ارائه بده. ماهیت سبک بودن Haiku 4.5 باعث می‌شه بشه چندین عامل (agent) رو به‌صورت هم‌زمان اجرا کرد یا اون‌ها رو در ترکیب با مدل‌های قوی‌تر مثل Sonnet به کار گرفت.

‏Haiku 4.5 تنها دو هفته بعد از عرضه‌ی Sonnet 4.5 و دو ماه پس از Opus 4.1 منتشر شده و ادامه‌دهنده‌ی روند سریع پیشرفت مدل‌های انتروپیکه.

@aipulse24
1👍20🔥111
گوگل مدل هوش مصنوعی Gemma رو از پلتفرم AI Studio حذف کرده، درست بعد از اینکه سناتور جمهوری‌خواه «مارشا بلکبرن» اعلام کرده این مدل درباره‌اش اتهام‌های ساختگی منتشر کرده. گوگل گفته Gemma از ابتدا برای توسعه‌دهنده‌ها طراحی شده بود و نباید برای پاسخ به پرسش‌های واقعی یا استفاده عمومی به کار می‌رفته. با این حال به گفته‌ی شرکت، برای جلوگیری از این سوء‌برداشت، دسترسی به Gemma در AI Studio قطع شده، اما همچنان از طریق API در اختیار توسعه‌دهنده‌ها قرار داره.

بلکبرن در نامه‌ای به ساندار پیچای، مدیرعامل گوگل، این شرکت رو به افترا و سوگیری ضد‌محافظه‌کارانه متهم کرده. او گفته Gemma در پاسخ به پرسشی درباره خودش، داستانی دروغین از رابطه غیراخلاقی و اتهام تجاوز ساخته و حتی لینک‌های جعلی به خبرهایی که اصلاً وجود نداشتن داده. بلکبرن تأکید کرده هیچ‌کدوم از این ادعاها واقعیت ندارن و این کار، افترا از سوی یک مدل هوش مصنوعی متعلق به گوگل محسوب می‌شه.

گوگل اعلام کرده همچنان برای کاهش خطاها و «توهمات هوش مصنوعی» تلاش می‌کنه. این اتفاق بار دیگه نشون داده مدل‌های هوش مصنوعی هنوز با مشکل دقت و تولید اطلاعات نادرست روبه‌رو هستن. بلکبرن هم در واکنشش گفته: «تا وقتی نمی‌تونید کنترلش کنید، خاموشش کنید.»

@aipulse24
😁15🤡82👍2
انتروپیک گفته در پروژه‌ای به ارزش ۵۰ میلیارد دلار و با همکاری شرکت Fluidstack قراره دیتاسنترهای هوش مصنوعی اختصاصی خودش رو در نیویورک و تگزاس احداث کنه.

این دیتاسنترها که قراره تا سال ۲۰۲۶ عملیاتی بشن به طور مستقیم ۸۰۰ و به طور غیر مستقیم ۲۴۰۰ شغل ایجاد میکنن.

به گفته این شرکت انتروپیک حالا بیشتر از ۳۰۰ هزار مشتری سازمانی داره و تعداد سازمان‌های بزرگی که از محصولات این شرکت استفاده میکنن نسبت به سال قبل ۷ برابر شده.

انتروپیک دلیل انتخاب Fluidstack به عنوان پیمانکار این پروژه رو توانایی بی‌نظیر اونها در گسترش سریع زیرساخت‌ها برای رسیدن به مقیاس گیگاواتی در پردازش اعلام کرده.

@aipulse24
15👍4
مدل کارد منتسب به Gemini 3 Pro چند ساعت قبل از رونمایی رسمی.

@aipulse24
🤯30🔥15👍21
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل از Nano Banana Pro رونمایی کرده که بر مبنای جمنای ۳ پرو هست، تو این نسخه تکست رندرینگ به طرز چشمگیری بهبود پیدا کرده، موقع جنریت تصویر میتونه سرچ کنه و بر اساس اطلاعات معتبر موجود در اینترنت عکس رو جنریت کنه و ضمنا الان میتونه تصویر با خروجی 4K ارائه بده.

رندرینگ تکست فارسی هم نسبت به نسل قبل بهبود چشمگیری پیدا کرده.

@aipulse24
👍156
This media is not supported in your browser
VIEW IN TELEGRAM
همونطور که میدونید تصاویری که با جمنای تولید میشن دارای یک واترمارک نامرئی به نام SynthID هستن که تقریبا غیر قابل حذفه.

از امروز میتونید وقتی شک داشتید که عکسی واقعیه یا با هوش مصنوعی تولید شده، اون رو برای جمنای بفرستید و ازش بپرسید که آیا این عکس تولید شده توسط هوش مصنوعی هست یا خیر، جمنای این واترمارک رو تشخیص میده و نتیجه رو به شما اعلام میکنه.

@aipulse24
👍302
This media is not supported in your browser
VIEW IN TELEGRAM
مدل Nano Banana Pro به ابراز NotebookLM هم اضافه شده و حالا میتونه اینفوگرافیک مرتبط با منابعی که آپلود کردید براتون تولید کنه.

@aipulse24
16👍3🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
مدل جدید Nano Banana Pro به گوگل اسلایدز هم رسیده و الان میتونید ازش بخواید تا اسلاید هاتون رو زیباتر کنه و حتی براتون اسلاید های جدید بسازه.

@aipulse24
12👍4🔥1
AI Pulse
Photo
تصویر ساخته شده توسط یکی از اعضای کانال.
تکست رندرینگ و consistency مدل شگفت انگیزه.

@aipulse24
24🔥13🤯8👍3
بلک فارست لبز به تازگی از خانواده جدید مدل‌های تصویرساز خودش یعنی Flux 2 رونمایی کرده که پیشرفت‌های چشمگیری نسبت به نسل قبل داشته.

این مدل‌های جدید می‌تونن تصاویری با رزولوشن بالا تا ۴ مگاپیکسل تولید کنن، اما مهم‌ترین ویژگی‌شون سیستم Multi-reference هست؛ یعنی کاربر می‌تونه تا ۱۰ تصویر رو همزمان به مدل بده تا کاراکترها، محصولات یا استایل بصری توی تمام خروجی‌ها کاملاً یکدست و ثابت بمونه.

علاوه بر این، موتور رندر متن هم بازسازی شده تا تایپوگرافی، اینفوگرافیک‌ها و طراحی‌های رابط کاربری (UI) رو خیلی دقیق‌تر و تمیزتر از قبل دربیاره.

از نظر معماری فنی، فلاکس ۲ از یک ساختار هیبریدی استفاده می‌کنه که شامل مدل بینایی-زبانی "Mistral-3 24B" برای فهم دقیق متن و تصویر و یک ماژول "Rectified Flow Transformer" برای مدیریت منطق و چیدمان تصویره. این ترکیب باعث میشه جزئیات و متریال‌ها خیلی دقیق‌تر ظاهر بشن.

این خانواده شامل چهار نسخه مختلفه: نسخه Flux 2 [pro] که قوی‌ترین مدل برای رقابت با سیستم‌های بسته است و فقط از طریق API در دسترسه، و نسخه Flux 2 [flex] که برای توسعه‌دهنده‌ها طراحی شده تا بتونن سرعت و کیفیت رو خودشون تنظیم کنن.

نسخه محبوب‌تر برای جامعه متن‌باز، Flux 2 [dev] هست؛ یک مدل ۳۲ میلیارد پارامتری که وزن‌های اون (Weights) روی Hugging Face منتشر شده. این مدل تولید تصویر و ویرایش رو یکجا انجام میده و نسخه بهینه‌شده‌ش (fp8) حتی روی کارت‌های گرافیک مصرفی مثل سری RTX انویدیا هم به خوبی اجرا میشه (البته استفاده تجاری ازش نیاز به لایسنس داره).

در نهایت نسخه Flux 2 [klein] هم معرفی شده که یک مدل فشرده و کوچک‌تره و قراره به زودی تحت لایسنس کاملاً متن‌باز Apache 2.0 منتشر بشه تا با مدل‌های هم‌رده خودش رقابت کنه.

@aipulse24
21🔥7👍2😁1