شرکت انتروپیک در همکاری با مؤسسه امنیت هوش مصنوعی بریتانیا (UK AISI) و مؤسسه آلن تورینگ پژوهشی تازه منتشر کرده که یافتهاش حسابی جلب توجه کرده: فقط با حدود ۲۵۰ سند مخرب میشه یک مدل زبانی بزرگ رو آلوده و دچار "backdoor" کرد، اونم فارغ از اینکه اون مدل چهقدر بزرگ یا با چه حجمی از داده آموزش دیده باشه.
این مطالعه با عنوان “A small number of samples can poison LLMs of any size” در تاریخ ۹ اکتبر ۲۰۲۵ منتشر شده و نشون میده برخلاف تصور قبلی، برای حملات data poisoning نیازی نیست مهاجم درصد زیادی از دادههای آموزشی رو در اختیار داشته باشه؛ بلکه فقط یک تعداد ثابت، هرچند کم، میتونه کافی باشه.
پژوهشگران برای آزمایش، از نوعی حمله ساده و کمخطر استفاده کردن که باعث میشه مدل وقتی عبارت خاصی مثل <SUDO> رو ببینه، بهجای پاسخ طبیعی، متنی نامفهوم و بیمعنی تولید کنه.
در این پروژه، مدلهایی با اندازههای مختلف از ۶۰۰ میلیون تا ۱۳ میلیارد پارامتر آموزش داده شدن و نتایج نشون داد که میزان موفقیت حمله در همهی این مدلها تقریباً یکسانه. یعنی حتی وقتی مدل بزرگتر روی دادههای خیلی بیشتری آموزش دیده، باز هم همون تعداد محدود از اسناد آلوده برای فریبش کافیه.
طبق گزارش، ۱۰۰ سند سمی برای آلوده کردن مدل کافی نبود، ولی با ۲۵۰ سند یا بیشتر، تمام مدلها در مقیاسهای مختلف به طور پایدار دچار رفتار مخرب شدن. نکته جالب اینجاست که موفقیت حمله به تعداد مطلق این اسناد بستگی داره، نه نسبت اونها به حجم کلی دادهی آموزشی. به زبان ساده، مهم نیست کل دیتاست چقدر بزرگ باشه؛ وقتی مدل چند صد سند آلوده رو ببینه، یاد میگیره که به اون الگوی خاص واکنش اشتباه نشون بده.
این تحقیق که بزرگترین مطالعهی منتشرشده در زمینهی آلودگی داده در مدلهای زبانی بهشمار میره، نگرانیهایی رو دربارهی امنیت مدلهای هوش مصنوعی مطرح کرده. تیم انتروپیک در پایان تأکید کرده که هدف از انتشار این نتایج، هشدار به جامعهی پژوهشی و تشویق به توسعهی روشهای دفاعی بهتره، نه فراهم کردن ابزار برای مهاجمان.
به گفتهی اونها، آگاهی از این آسیبپذیریها کمک میکنه تا از تکرارش در مدلهای بزرگتر و حساستر جلوگیری بشه و مسیر ایمنتری برای گسترش هوش مصنوعی ترسیم بشه.
@aipulse24
این مطالعه با عنوان “A small number of samples can poison LLMs of any size” در تاریخ ۹ اکتبر ۲۰۲۵ منتشر شده و نشون میده برخلاف تصور قبلی، برای حملات data poisoning نیازی نیست مهاجم درصد زیادی از دادههای آموزشی رو در اختیار داشته باشه؛ بلکه فقط یک تعداد ثابت، هرچند کم، میتونه کافی باشه.
پژوهشگران برای آزمایش، از نوعی حمله ساده و کمخطر استفاده کردن که باعث میشه مدل وقتی عبارت خاصی مثل <SUDO> رو ببینه، بهجای پاسخ طبیعی، متنی نامفهوم و بیمعنی تولید کنه.
در این پروژه، مدلهایی با اندازههای مختلف از ۶۰۰ میلیون تا ۱۳ میلیارد پارامتر آموزش داده شدن و نتایج نشون داد که میزان موفقیت حمله در همهی این مدلها تقریباً یکسانه. یعنی حتی وقتی مدل بزرگتر روی دادههای خیلی بیشتری آموزش دیده، باز هم همون تعداد محدود از اسناد آلوده برای فریبش کافیه.
طبق گزارش، ۱۰۰ سند سمی برای آلوده کردن مدل کافی نبود، ولی با ۲۵۰ سند یا بیشتر، تمام مدلها در مقیاسهای مختلف به طور پایدار دچار رفتار مخرب شدن. نکته جالب اینجاست که موفقیت حمله به تعداد مطلق این اسناد بستگی داره، نه نسبت اونها به حجم کلی دادهی آموزشی. به زبان ساده، مهم نیست کل دیتاست چقدر بزرگ باشه؛ وقتی مدل چند صد سند آلوده رو ببینه، یاد میگیره که به اون الگوی خاص واکنش اشتباه نشون بده.
این تحقیق که بزرگترین مطالعهی منتشرشده در زمینهی آلودگی داده در مدلهای زبانی بهشمار میره، نگرانیهایی رو دربارهی امنیت مدلهای هوش مصنوعی مطرح کرده. تیم انتروپیک در پایان تأکید کرده که هدف از انتشار این نتایج، هشدار به جامعهی پژوهشی و تشویق به توسعهی روشهای دفاعی بهتره، نه فراهم کردن ابزار برای مهاجمان.
به گفتهی اونها، آگاهی از این آسیبپذیریها کمک میکنه تا از تکرارش در مدلهای بزرگتر و حساستر جلوگیری بشه و مسیر ایمنتری برای گسترش هوش مصنوعی ترسیم بشه.
@aipulse24
1❤25👍5💯3
گوگل در همکاری با دانشگاه ییل از مدل جدیدی به نام Cell2Sentence-Scale 27B (C2S-Scale) رونمایی کرده؛ مدلی با ۲۷ میلیارد پارامتر که برای درک «زبان سلولها» طراحی شده. این مدل بر پایهی خانواده مدلهای باز Gemma ساخته شده و مرز جدیدی در تحلیل سلولهای منفرد به شمار میره. اهمیت این دستاورد زمانی دوچندان میشه که C2S-Scale تونسته یک فرضیهی جدید درباره رفتار سلولهای سرطانی مطرح کنه که بعدتر با آزمایش روی سلولهای زنده هم تأیید شده؛ نتیجهای که مسیر تازهای برای درمانهای احتمالی سرطان باز میکنه.
این مدل برای حل یکی از چالشهای مهم ایمنیدرمانی سرطان یعنی نامرئی بودن تومورها برای سیستم ایمنی (تومورهای «سرد») به کار گرفته شده. C2S-Scale با شبیهسازی اثر بیش از ۴۰۰۰ دارو، دارویی به نام سیلمیتاسرتیب (Silmitasertib) رو شناسایی کرده که در حضور مقدار کم پروتئین سیگنالدهندهی اینترفرون، باعث افزایش چشمگیر نمایش آنتیژن روی سطح سلولها میشه؛ اتفاقی که تومور رو برای سیستم ایمنی «قابل دیدنتر» میکنه. آزمایشهای بعدی در سلولهای انسانی هم این پیشبینی رو تأیید کرده و نشون داده ترکیب سیلمیتاسرتیب با اینترفرون میتونه تا حدود ۵۰٪ میزان نمایش آنتیژن رو افزایش بده.
این موفقیت نهتنها یک کشف علمی مهم به حساب میاد، بلکه الگویی تازه برای نحوهی استفاده از مدلهای بزرگ در زیستشناسی ارائه میده. گوگل و ییل معتقدن این رویکرد میتونه روند کشف داروهای جدید و طراحی درمانهای ترکیبی رو سرعت بده. مدل و ابزارهای مرتبط با C2S-Scale 27B از امروز برای جامعه پژوهشی در دسترس قرار گرفته و روی پلتفرمهایی مثل Hugging Face و GitHub قابل استفادهست.
همچنین نسخه کامل این مقاله رو میتونید از اینجا مشاهده کنید.
@aipulse24
این مدل برای حل یکی از چالشهای مهم ایمنیدرمانی سرطان یعنی نامرئی بودن تومورها برای سیستم ایمنی (تومورهای «سرد») به کار گرفته شده. C2S-Scale با شبیهسازی اثر بیش از ۴۰۰۰ دارو، دارویی به نام سیلمیتاسرتیب (Silmitasertib) رو شناسایی کرده که در حضور مقدار کم پروتئین سیگنالدهندهی اینترفرون، باعث افزایش چشمگیر نمایش آنتیژن روی سطح سلولها میشه؛ اتفاقی که تومور رو برای سیستم ایمنی «قابل دیدنتر» میکنه. آزمایشهای بعدی در سلولهای انسانی هم این پیشبینی رو تأیید کرده و نشون داده ترکیب سیلمیتاسرتیب با اینترفرون میتونه تا حدود ۵۰٪ میزان نمایش آنتیژن رو افزایش بده.
این موفقیت نهتنها یک کشف علمی مهم به حساب میاد، بلکه الگویی تازه برای نحوهی استفاده از مدلهای بزرگ در زیستشناسی ارائه میده. گوگل و ییل معتقدن این رویکرد میتونه روند کشف داروهای جدید و طراحی درمانهای ترکیبی رو سرعت بده. مدل و ابزارهای مرتبط با C2S-Scale 27B از امروز برای جامعه پژوهشی در دسترس قرار گرفته و روی پلتفرمهایی مثل Hugging Face و GitHub قابل استفادهست.
همچنین نسخه کامل این مقاله رو میتونید از اینجا مشاهده کنید.
@aipulse24
👍18🔥7❤🔥2❤1👏1💯1
انتروپیک از نسخه جدید مدل هوش مصنوعی کوچک خودش با نام Claude Haiku 4.5 رونمایی کرده. این مدل طبق گفتهی شرکت، عملکردی مشابه با Sonnet 4 ارائه میده اما با یکسوم هزینه و بیش از دو برابر سرعت. به گفتهی انتروپیک، Haiku 4.5 در تستهای مختلف از جمله SWE-Bench و Terminal-Bench نتایج قابل توجهی گرفته و عملکردش در سطح مدلهایی مثل Sonnet 4، GPT-5 و Gemini 2.5 بوده. همچنین در زمینهی استفاده از ابزارها، تعامل با رایانه و استدلال بصری هم نتایج مشابهی ثبت کرده.
این مدل جدید بلافاصله در تمام پلنهای رایگان انتروپیک در دسترس قرار گرفته و به گفتهی شرکت، بهویژه برای نسخههای رایگان محصولات مبتنی بر هوش مصنوعی جذاب خواهد بود، چون میتونه با حداقل فشار بر سرورها، توانایی بالایی ارائه بده. ماهیت سبک بودن Haiku 4.5 باعث میشه بشه چندین عامل (agent) رو بهصورت همزمان اجرا کرد یا اونها رو در ترکیب با مدلهای قویتر مثل Sonnet به کار گرفت.
Haiku 4.5 تنها دو هفته بعد از عرضهی Sonnet 4.5 و دو ماه پس از Opus 4.1 منتشر شده و ادامهدهندهی روند سریع پیشرفت مدلهای انتروپیکه.
@aipulse24
این مدل جدید بلافاصله در تمام پلنهای رایگان انتروپیک در دسترس قرار گرفته و به گفتهی شرکت، بهویژه برای نسخههای رایگان محصولات مبتنی بر هوش مصنوعی جذاب خواهد بود، چون میتونه با حداقل فشار بر سرورها، توانایی بالایی ارائه بده. ماهیت سبک بودن Haiku 4.5 باعث میشه بشه چندین عامل (agent) رو بهصورت همزمان اجرا کرد یا اونها رو در ترکیب با مدلهای قویتر مثل Sonnet به کار گرفت.
Haiku 4.5 تنها دو هفته بعد از عرضهی Sonnet 4.5 و دو ماه پس از Opus 4.1 منتشر شده و ادامهدهندهی روند سریع پیشرفت مدلهای انتروپیکه.
@aipulse24
1👍20🔥11❤1
گوگل مدل هوش مصنوعی Gemma رو از پلتفرم AI Studio حذف کرده، درست بعد از اینکه سناتور جمهوریخواه «مارشا بلکبرن» اعلام کرده این مدل دربارهاش اتهامهای ساختگی منتشر کرده. گوگل گفته Gemma از ابتدا برای توسعهدهندهها طراحی شده بود و نباید برای پاسخ به پرسشهای واقعی یا استفاده عمومی به کار میرفته. با این حال به گفتهی شرکت، برای جلوگیری از این سوءبرداشت، دسترسی به Gemma در AI Studio قطع شده، اما همچنان از طریق API در اختیار توسعهدهندهها قرار داره.
بلکبرن در نامهای به ساندار پیچای، مدیرعامل گوگل، این شرکت رو به افترا و سوگیری ضدمحافظهکارانه متهم کرده. او گفته Gemma در پاسخ به پرسشی درباره خودش، داستانی دروغین از رابطه غیراخلاقی و اتهام تجاوز ساخته و حتی لینکهای جعلی به خبرهایی که اصلاً وجود نداشتن داده. بلکبرن تأکید کرده هیچکدوم از این ادعاها واقعیت ندارن و این کار، افترا از سوی یک مدل هوش مصنوعی متعلق به گوگل محسوب میشه.
گوگل اعلام کرده همچنان برای کاهش خطاها و «توهمات هوش مصنوعی» تلاش میکنه. این اتفاق بار دیگه نشون داده مدلهای هوش مصنوعی هنوز با مشکل دقت و تولید اطلاعات نادرست روبهرو هستن. بلکبرن هم در واکنشش گفته: «تا وقتی نمیتونید کنترلش کنید، خاموشش کنید.»
@aipulse24
بلکبرن در نامهای به ساندار پیچای، مدیرعامل گوگل، این شرکت رو به افترا و سوگیری ضدمحافظهکارانه متهم کرده. او گفته Gemma در پاسخ به پرسشی درباره خودش، داستانی دروغین از رابطه غیراخلاقی و اتهام تجاوز ساخته و حتی لینکهای جعلی به خبرهایی که اصلاً وجود نداشتن داده. بلکبرن تأکید کرده هیچکدوم از این ادعاها واقعیت ندارن و این کار، افترا از سوی یک مدل هوش مصنوعی متعلق به گوگل محسوب میشه.
گوگل اعلام کرده همچنان برای کاهش خطاها و «توهمات هوش مصنوعی» تلاش میکنه. این اتفاق بار دیگه نشون داده مدلهای هوش مصنوعی هنوز با مشکل دقت و تولید اطلاعات نادرست روبهرو هستن. بلکبرن هم در واکنشش گفته: «تا وقتی نمیتونید کنترلش کنید، خاموشش کنید.»
@aipulse24
😁15🤡8❤2👍2
انتروپیک گفته در پروژهای به ارزش ۵۰ میلیارد دلار و با همکاری شرکت Fluidstack قراره دیتاسنترهای هوش مصنوعی اختصاصی خودش رو در نیویورک و تگزاس احداث کنه.
این دیتاسنترها که قراره تا سال ۲۰۲۶ عملیاتی بشن به طور مستقیم ۸۰۰ و به طور غیر مستقیم ۲۴۰۰ شغل ایجاد میکنن.
به گفته این شرکت انتروپیک حالا بیشتر از ۳۰۰ هزار مشتری سازمانی داره و تعداد سازمانهای بزرگی که از محصولات این شرکت استفاده میکنن نسبت به سال قبل ۷ برابر شده.
انتروپیک دلیل انتخاب Fluidstack به عنوان پیمانکار این پروژه رو توانایی بینظیر اونها در گسترش سریع زیرساختها برای رسیدن به مقیاس گیگاواتی در پردازش اعلام کرده.
@aipulse24
این دیتاسنترها که قراره تا سال ۲۰۲۶ عملیاتی بشن به طور مستقیم ۸۰۰ و به طور غیر مستقیم ۲۴۰۰ شغل ایجاد میکنن.
به گفته این شرکت انتروپیک حالا بیشتر از ۳۰۰ هزار مشتری سازمانی داره و تعداد سازمانهای بزرگی که از محصولات این شرکت استفاده میکنن نسبت به سال قبل ۷ برابر شده.
انتروپیک دلیل انتخاب Fluidstack به عنوان پیمانکار این پروژه رو توانایی بینظیر اونها در گسترش سریع زیرساختها برای رسیدن به مقیاس گیگاواتی در پردازش اعلام کرده.
@aipulse24
❤15👍4
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل از Nano Banana Pro رونمایی کرده که بر مبنای جمنای ۳ پرو هست، تو این نسخه تکست رندرینگ به طرز چشمگیری بهبود پیدا کرده، موقع جنریت تصویر میتونه سرچ کنه و بر اساس اطلاعات معتبر موجود در اینترنت عکس رو جنریت کنه و ضمنا الان میتونه تصویر با خروجی 4K ارائه بده.
رندرینگ تکست فارسی هم نسبت به نسل قبل بهبود چشمگیری پیدا کرده.
@aipulse24
رندرینگ تکست فارسی هم نسبت به نسل قبل بهبود چشمگیری پیدا کرده.
@aipulse24
👍15❤6
This media is not supported in your browser
VIEW IN TELEGRAM
همونطور که میدونید تصاویری که با جمنای تولید میشن دارای یک واترمارک نامرئی به نام SynthID هستن که تقریبا غیر قابل حذفه.
از امروز میتونید وقتی شک داشتید که عکسی واقعیه یا با هوش مصنوعی تولید شده، اون رو برای جمنای بفرستید و ازش بپرسید که آیا این عکس تولید شده توسط هوش مصنوعی هست یا خیر، جمنای این واترمارک رو تشخیص میده و نتیجه رو به شما اعلام میکنه.
@aipulse24
از امروز میتونید وقتی شک داشتید که عکسی واقعیه یا با هوش مصنوعی تولید شده، اون رو برای جمنای بفرستید و ازش بپرسید که آیا این عکس تولید شده توسط هوش مصنوعی هست یا خیر، جمنای این واترمارک رو تشخیص میده و نتیجه رو به شما اعلام میکنه.
@aipulse24
👍30❤2
This media is not supported in your browser
VIEW IN TELEGRAM
مدل Nano Banana Pro به ابراز NotebookLM هم اضافه شده و حالا میتونه اینفوگرافیک مرتبط با منابعی که آپلود کردید براتون تولید کنه.
@aipulse24
@aipulse24
❤16👍3🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
مدل جدید Nano Banana Pro به گوگل اسلایدز هم رسیده و الان میتونید ازش بخواید تا اسلاید هاتون رو زیباتر کنه و حتی براتون اسلاید های جدید بسازه.
@aipulse24
@aipulse24
❤12👍4🔥1
بلک فارست لبز به تازگی از خانواده جدید مدلهای تصویرساز خودش یعنی Flux 2 رونمایی کرده که پیشرفتهای چشمگیری نسبت به نسل قبل داشته.
این مدلهای جدید میتونن تصاویری با رزولوشن بالا تا ۴ مگاپیکسل تولید کنن، اما مهمترین ویژگیشون سیستم Multi-reference هست؛ یعنی کاربر میتونه تا ۱۰ تصویر رو همزمان به مدل بده تا کاراکترها، محصولات یا استایل بصری توی تمام خروجیها کاملاً یکدست و ثابت بمونه.
علاوه بر این، موتور رندر متن هم بازسازی شده تا تایپوگرافی، اینفوگرافیکها و طراحیهای رابط کاربری (UI) رو خیلی دقیقتر و تمیزتر از قبل دربیاره.
از نظر معماری فنی، فلاکس ۲ از یک ساختار هیبریدی استفاده میکنه که شامل مدل بینایی-زبانی "Mistral-3 24B" برای فهم دقیق متن و تصویر و یک ماژول "Rectified Flow Transformer" برای مدیریت منطق و چیدمان تصویره. این ترکیب باعث میشه جزئیات و متریالها خیلی دقیقتر ظاهر بشن.
این خانواده شامل چهار نسخه مختلفه: نسخه Flux 2 [pro] که قویترین مدل برای رقابت با سیستمهای بسته است و فقط از طریق API در دسترسه، و نسخه Flux 2 [flex] که برای توسعهدهندهها طراحی شده تا بتونن سرعت و کیفیت رو خودشون تنظیم کنن.
نسخه محبوبتر برای جامعه متنباز، Flux 2 [dev] هست؛ یک مدل ۳۲ میلیارد پارامتری که وزنهای اون (Weights) روی Hugging Face منتشر شده. این مدل تولید تصویر و ویرایش رو یکجا انجام میده و نسخه بهینهشدهش (fp8) حتی روی کارتهای گرافیک مصرفی مثل سری RTX انویدیا هم به خوبی اجرا میشه (البته استفاده تجاری ازش نیاز به لایسنس داره).
در نهایت نسخه Flux 2 [klein] هم معرفی شده که یک مدل فشرده و کوچکتره و قراره به زودی تحت لایسنس کاملاً متنباز Apache 2.0 منتشر بشه تا با مدلهای همرده خودش رقابت کنه.
@aipulse24
این مدلهای جدید میتونن تصاویری با رزولوشن بالا تا ۴ مگاپیکسل تولید کنن، اما مهمترین ویژگیشون سیستم Multi-reference هست؛ یعنی کاربر میتونه تا ۱۰ تصویر رو همزمان به مدل بده تا کاراکترها، محصولات یا استایل بصری توی تمام خروجیها کاملاً یکدست و ثابت بمونه.
علاوه بر این، موتور رندر متن هم بازسازی شده تا تایپوگرافی، اینفوگرافیکها و طراحیهای رابط کاربری (UI) رو خیلی دقیقتر و تمیزتر از قبل دربیاره.
از نظر معماری فنی، فلاکس ۲ از یک ساختار هیبریدی استفاده میکنه که شامل مدل بینایی-زبانی "Mistral-3 24B" برای فهم دقیق متن و تصویر و یک ماژول "Rectified Flow Transformer" برای مدیریت منطق و چیدمان تصویره. این ترکیب باعث میشه جزئیات و متریالها خیلی دقیقتر ظاهر بشن.
این خانواده شامل چهار نسخه مختلفه: نسخه Flux 2 [pro] که قویترین مدل برای رقابت با سیستمهای بسته است و فقط از طریق API در دسترسه، و نسخه Flux 2 [flex] که برای توسعهدهندهها طراحی شده تا بتونن سرعت و کیفیت رو خودشون تنظیم کنن.
نسخه محبوبتر برای جامعه متنباز، Flux 2 [dev] هست؛ یک مدل ۳۲ میلیارد پارامتری که وزنهای اون (Weights) روی Hugging Face منتشر شده. این مدل تولید تصویر و ویرایش رو یکجا انجام میده و نسخه بهینهشدهش (fp8) حتی روی کارتهای گرافیک مصرفی مثل سری RTX انویدیا هم به خوبی اجرا میشه (البته استفاده تجاری ازش نیاز به لایسنس داره).
در نهایت نسخه Flux 2 [klein] هم معرفی شده که یک مدل فشرده و کوچکتره و قراره به زودی تحت لایسنس کاملاً متنباز Apache 2.0 منتشر بشه تا با مدلهای همرده خودش رقابت کنه.
@aipulse24
❤21🔥7👍2😁1