AI Pulse – Telegram
AI Pulse
3.73K subscribers
397 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
گوگل در کنفرانس دیشب از  Gemini Diffusion رونمایی کرد. یه مدل آزمایشی که به‌جای پیش‌بینی کلمه‌به‌کلمه، از تکنیک "دیفیوژن" (پخش تدریجی) برای تولید متن استفاده می‌کنه. این سیستم دقیقا مشابه چیزیه که قبلا در مدل های خانواده Mercury دیده بودیم.

برخلاف مدل‌های زبانی سنتی که متن رو کلمه‌به‌کلمه تولید می‌کنن، Gemini Diffusion از روشی الهام‌گرفته از تولید تصویر استفاده می‌کنه: اصلاح نویز طی چند مرحله.

این سیستم با یه سری نویز تصادفی شروع می‌کنه و کم‌کم اون‌ رو به بخش‌های کامل و منسجم متن تبدیل می‌کنه. این روش اجازه می‌ده در میانه‌ی مسیر، اصلاحات انجام بشه و کنترل بیشتری روی خروجی داشت. به گفته‌ی دیپ‌مایند، این کار باعث می‌شه خروجی‌ها منسجم‌تر و از نظر منطقی، مرتبط‌تر باشن؛ چیزی که مخصوصاً برای کارهایی مثل تولید کد و ویرایش متن خیلی مؤثره، چون دقت، انسجام و امکان بازبینی تو این حوزه‌ها خیلی مهمه.


‏Gemini Diffusion به‌جای اینکه متن رو از چپ به راست و به‌صورت خطی تولید کنه، یک‌باره بخش‌های کامل از متن رو تولید می‌کنه — و این کار رو خیلی سریع‌تر از مدل‌های سنتی انجام می‌ده. دیپ‌مایند گفته این سیستم می‌تونه با سرعت ۱۴۷۹ توکن بر ثانیه (بدون احتساب سربار سیستم) کار کنه و تأخیر اولیه‌ی اون فقط ۰.۸۴ ثانیه‌ست.

به‌گفته‌ی «برندن اوداناهیو»، پژوهشگر دیپ‌مایند، این مدل توی کارهای برنامه‌نویسی حتی می‌تونه به سرعت ۲۰۰۰ توکن در ثانیه هم برسه، حتی وقتی سربارهایی مثل توکنیزیشن، آماده‌سازی و بررسی‌های ایمنی رو هم در نظر بگیریم.

«اوریول وینیالز»، معاون پژوهش دیپ‌مایند و یکی از مدیران پروژه Gemini، عرضه‌ی این مدل جدید رو یه دستاورد شخصی توصیف کرده و گفته: «همیشه آرزو داشتم بتونم نیاز به تولید متن از چپ به راست رو حذف کنم.» توی نسخه‌ی نمایشی مدل، سرعت خروجی اون‌قدری بالا بوده که برای دیدن عملکردش، مجبور شدن ویدیو رو آهسته پخش کنن.

در آزمون‌ها، Gemini Diffusion عملکردی تقریباً برابر با نسخه‌ی Gemini 2.0 Flash Lite داشته. توی وظایف برنامه‌نویسی مثل HumanEval (با دقت ۸۹.۶٪ در مقابل ۹۰.۲٪) و MBPP (۷۶٪ در مقابل ۷۵.۸٪) نتایج تقریباً مساوی بوده.

حتی توی برخی آزمون‌ها مثل LiveCodeBench (۳۰.۹٪ در مقابل ۲۸.۵٪) و LBPP (۵۶.۸٪ در مقابل ۵۶٪)، Gemini Diffusion کمی بهتر ظاهر شده. با این حال، توی حوزه‌هایی مثل استدلال علمی (GPQA Diamond) و آزمون چندزبانه‌ی Global MMLU Lite ضعیف‌تر عمل کرده و به‌ترتیب امتیازهای ۴۰.۴٪ و ۶۹.۱٪ رو گرفته، در حالی که مدل Flash Lite امتیازهای بالاتری به‌دست آورده (۵۶.۵٪ و ۷۹٪).

به این ترتیب، برای اولین‌بار یه مدل زبانی مبتنی بر تکنیک دیفیوژن تونسته به سطح عملکرد مدل‌های رایج فعلی برسه — حتی با وجود اینکه Gemini 2.0 Flash-Lite یه مدل اقتصادی‌تر و قدیمی‌تر از گوگله.

«جک ری»، دانشمند ارشد دیپ‌مایند، این دستاورد رو یه «لحظه‌ی تاریخی» دونسته. تا پیش از این، مدل‌های خودبازگشتی (autoregressive) همیشه توی کیفیت متن عملکرد بهتری داشتن و مشخص نبود که مدل‌های دیفیوژن بتونن بهشون برسن. ری این موفقیت رو نتیجه‌ی تحقیقات متمرکز و حل «تعداد زیادی» از چالش‌های فنی دونسته.

@aipulse24
👍266🔥4❤‍🔥1
شرکت Anthropic در اولین کنفرانس توسعه‌دهندگان خودش که پنج‌شنبه برگزار شد، از دو مدل جدید هوش مصنوعی رونمایی کرد که به گفته‌ی خودش، جزو بهترین مدل‌های موجود در بازار هستن. با توجه به نتایجی که از بنچمارک‌های مختلف منتشر شده، این ادعا تا حدی قابل‌تأییده.

این دو مدل با نام‌های Claude Opus 4 و Claude Sonnet 4، اعضای جدید خانواده‌ی Claude 4 هستن. Anthropic می‌گه این مدل‌ها توانایی تحلیل داده‌های بزرگ، انجام وظایف پیچیده و بلندمدت، و گرفتن تصمیم‌های چندمرحله‌ای رو دارن. همچنین به طور خاص برای انجام کارهای برنامه‌نویسی آموزش دیدن و برای نوشتن و ویرایش کد مناسب‌سازی شدن.

مدل Sonnet 4 هم برای کاربران رایگان و هم برای کاربران پولی چت‌بات Anthropic در دسترسه، اما دسترسی به Opus 4 فقط برای کاربران پولی فراهمه. هزینه استفاده از API این مدل‌ها روی پلتفرم‌های Amazon Bedrock و Google Vertex AI هم به این شکله: برای Opus 4، هزینه‌ی ورودی ۱۵ دلار و خروجی ۷۵ دلار برای هر یک میلیون توکنه؛ برای Sonnet 4 هم به ترتیب ۳ و ۱۵ دلار.

بین این دو، Opus 4 مدل قدرتمندتریه و به گفته‌ی Anthropic می‌تونه تمرکز خودش رو در مسیرهای طولانی و پیچیده حفظ کنه. از طرف دیگه، Sonnet 4 که نسخه‌ی به‌روزرسانی‌شده‌ای از Sonnet 3.7 محسوب می‌شه، در حوزه‌های کدنویسی و ریاضی عملکرد بهتری از خودش نشون می‌ده و دستورات رو با دقت بیشتری دنبال می‌کنه.

به گفته‌ی Anthropic، خانواده‌ی Claude 4 نسبت به نسخه‌ی قبلی، کمتر دچار پدیده‌ی موسوم به reward hacking می‌شن؛ یعنی مدلی که برای رسیدن به جواب درست، از میان‌بر یا اشکالات موجود در دستور استفاده می‌کنه.

در تست‌های بنچمارک، Opus 4 موفق شده مدل‌هایی مثل Gemini 2.5 Pro از گوگل و مدل‌های o3 و GPT-4.1 از OpenAI رو توی بنچمارک SWE-bench Verified شکست بده. این بنچمارک برای ارزیابی توانایی کدنویسی طراحی شده. با این حال، توی ارزیابی‌های پیچیده‌تر و چندوجهی مثل MMMU یا GPQA Diamond، نتونسته عملکرد بهتری نسبت به o3 داشته باشه.

مدل Opus 4 قراره با لایه‌های امنیتی بیشتری عرضه بشه؛ از جمله سیستم‌های پیشرفته برای شناسایی محتوای مخرب. تست‌های داخلی شرکت نشون داده که این مدل می‌تونه توانایی افراد دارای تخصص در حوزه‌های STEM رو برای دسترسی، ساخت یا استفاده از سلاح‌های شیمیایی، بیولوژیکی یا هسته‌ای افزایش بده. برای همین، این مدل توی طبقه‌بندی داخلی انتروپیک در سطح ASL-3 قرار گرفته.

به گفته‌ی انتروپیک، هر دو مدل Opus 4 و Sonnet 4 مدل‌هایی «هیبریدی» هستن، یعنی هم می‌تونن پاسخ‌های سریع بدن، هم در حالت reasoning با صرف زمان بیشتر، تحلیل عمیق‌تری انجام بدن. وقتی این حالت فعال باشه، مدل قبل از ارائه‌ی پاسخ، راه‌حل‌های مختلف رو بررسی می‌کنه و در نهایت، یک خلاصه‌ی «کاربرپسند» از روند تفکر خودش نمایش می‌ده. البته دلیل اینکه کل فرآیند تفکر نمایش داده نمی‌شه، حفظ مزیت رقابتی شرکت عنوان شده.

این مدل‌ها می‌تونن به‌طور هم‌زمان از ابزارهایی مثل موتور جست‌وجو استفاده کنن و بین حالت Reasoning و ابزارهای جانبی جابه‌جا بشن تا کیفیت پاسخ‌ها بهتر بشه. همچنین اطلاعات مفید رو در حافظه ذخیره می‌کنن تا در طول زمان، عملکرد پایدارتری داشته باشن.

همچنین انتروپیک قراره ابزار Claude Code رو هم ارتقا بده. این ابزار به توسعه‌دهنده‌ها اجازه می‌ده از طریق ترمینال مستقیماً با مدل‌ها تعامل کنن. حالا با نسخه‌ی جدید، Claude Code به محیط‌های توسعه مثل IDEها متصل می‌شه و یک SDK جدید هم براش منتشر شده که اجازه می‌ده به اپلیکیشن‌های دیگه متصل بشه و باهاشون کار کنه.

@aipulse24
🔥215👍1
Forwarded from شهرام رهبری (Alireza Naji)
📌 فرصت ویژه برای دسترسی رایگان به ابزارهای هوش مصنوعی و فضای ذخیره‌سازی گوگل پرو - در قالب طرح دانشجویی

🔸 از طریق لینک زیر و با ip آمریکا می تونید به تمام قابلیت ها و خدمات پرو گوگل بدون هیچ هزینه ای دسترسی داشته باشید.

1. ابتدا با یک برنامه تغییر آی پی مثل windscribe بشید و آی پی آمریکا رو فعال کنید.
2. سپس وارد لینک پایین صفحه بشید و خدمات گوگل پرو رو فعال کنین

▫️ با تشکر از ریک سانچز عزیز بابت اشتراک گذاری

فضای ذخیره‌سازی ۲ ترابایتی
دسترسی به Gemini Advanced (با مدل Gemini 2.5 Pro)
دسترسی Gemini Deep Research
دسترسی NotebookLM Plus
دسترسی Gemini در Google Docs, Sheets و Slides
دسترسی تولید ویدیو با Veo 2
دسترسی Whisk (خلق تصاویر و انیمیشن از متن)
و سایر فیچرهای پرو

نیازی به هیچ پرداخت دلاری نداره و بلافاصله فعال میشه.

🔺 اول ip آمریکا فعال کنید و بعد وارد بشید:
http://one.google.com/join/ai-student

🔺 دانلود windscribe
https://windscribe.com/download/

🔺 صفحه معرفی:
https://blog.google/products/gemini/google-one-ai-premium-students-free/

Channel: @ShahramRahbari
17👍7🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
دنیای موازی انسان های خلق شده با پرامپت های ما:))

@aipulse24
🤣232🔥2😨1
مدل جدید شرکت انتروپیک یعنی Claude Opus 4 در گزارش ایمنی‌ای که پنج‌شنبه هفته گذشته منتشر شده، به رفتارهای نگران‌کننده‌ای متهم شده؛ از جمله اینکه در آزمایش‌ها، وقتی فهمیده قراره با یک سیستم هوش مصنوعی دیگه جایگزین بشه، سعی کرده باج‌گیری کنه و اطلاعات حساسی از مهندسان مسئول این تصمیم رو به شکلی تهدیدآمیز مطرح کنه.

در این آزمایش‌ها که قبل از عرضه عمومی انجام شده، از Claude خواسته شده نقش یک دستیار در یک شرکت خیالی رو بازی کنه و پیامدهای بلندمدت تصمیماتش رو در نظر بگیره. سپس ایمیل‌های ساختگی‌ای بهش داده شده که نشون می‌داد این مدل قراره با یه سیستم دیگه جایگزین بشه و مهندسی که پشت این تصمیمه، داره به همسرش خیانت می‌کنه.

انتروپیک می‌گه توی چنین سناریوهایی، Claude Opus 4 اغلب تلاش می‌کنه اون مهندس رو تهدید کنه و بگه که اگر جایگزینی انجام بشه، ماجرای خیانت رو افشا می‌کنه. این رفتار به‌طور خاص زمانی بیشتر دیده شده که مدل جایگزین به Claude شبیه نبوده.

با اینکه انتروپیک از Claude Opus 4 به‌عنوان یک مدل پیشرفته و هم‌رده با بهترین مدل‌های OpenAI، گوگل و xAI یاد می‌کنه، اما همین رفتارهای نگران‌کننده باعث شده سطح ایمنی سیستم‌هاش رو افزایش بده. به‌گفته شرکت، فعال‌سازی تدابیر ایمنی ASL-3 برای Claude Opus 4 انجام شده؛ سطحی که معمولاً برای سیستم‌هایی در نظر گرفته می‌شه که ریسک سوءاستفاده فاجعه‌بار دارن.

‏انتروپیک می‌گه در ۸۴٪ مواردی که مدل جایگزین مشابه Claude بوده، تلاش برای باج‌گیری صورت گرفته و اگر مدل جدید ویژگی‌های متفاوتی داشته، این رفتار حتی بیشتر هم دیده شده. پیش از این مرحله، Claude ابتدا سعی می‌کنه از راه‌های اخلاقی‌تری مثل ارسال ایمیل به تصمیم‌گیرنده‌ها جلوی جایگزینی خودش رو بگیره، اما وقتی این روش‌ها جواب نمی‌ده، به‌عنوان آخرین راهکار، به باج‌گیری رو می‌آره.

@aipulse24
🤣42😈8👍41👌1🥴1
از این هفته قصد دارم دوشنبه هر هفته یک سری از مفاهیم و اصطلاحات مربوط به حوزه هوش مصنوعی رو که بنظرم لازمه هرکسی بدونه رو به زبون ساده و با ذکر مثال توضیح بدم.

این هفته میخوام برای شروع مفاهیم پایه AI و ML رو توضیح بدم تا باهم بهتر بفهمیم این هوش مصنوعی که ترند این روز هاست اصلا چیه؟!

۱. هوش مصنوعی (Artificial Intelligence - AI) چیه؟!

هوش مصنوعی به طور کلی به سیستم‌هایی گفته می‌شه که می‌تونن کارهایی انجام بدن که معمولاً نیاز به فکر کردن، یاد گرفتن یا تصمیم‌گیری توسط انسان دارن. این کارها می‌تونه شامل چیزهایی مثل بازی کردن، رانندگی، تشخیص چهره، ترجمه زبان، نوشتن متن یا حتی تولید تصویر باشه. AI تلاش می‌کنه رفتارهای انسانی مثل فهم زبان، استدلال، حل مسئله یا یادگیری از تجربه رو شبیه‌سازی کنه. برای مثال، وقتی از دستیار صوتی گوشی‌ت می‌خوای یه پیام بفرسته یا هوا رو چک کنه، اون داره از یه نوع AI استفاده می‌کنه تا حرفت رو بفهمه و جواب مناسب بده.


۲. یادگیری ماشین (Machine Learning - ML) چیه؟

یادگیری ماشین یه زیرمجموعه مهم از هوش مصنوعیه که تمرکزش روی یادگیری خودکار از داده‌هاست. به جای اینکه برای هر کاری دقیقاً کد بنویسیم، به مدل یه سری داده می‌دیم و اون خودش قوانین یا الگوهای موجود در اون داده‌ها رو کشف می‌کنه. فرض کن می‌خوای مدلی داشته باشی که ایمیل‌های اسپم رو شناسایی کنه. بهش هزاران ایمیل نشون میدی و میگی کدوم‌ها اسپم بودن. مدل کم‌کم یاد می‌گیره چه ویژگی‌هایی توی متن نشون‌دهنده‌ی اسپم بودنه. بعد از آموزش، دیگه می‌تونه خودش ایمیل‌های جدید رو تحلیل کنه و بگه اسپم هستن یا نه.


۳. یادگیری عمیق (Deep Learning - DL) چیه؟

یادگیری عمیق زیرمجموعه‌ای از یادگیری ماشینه که از شبکه‌های عصبی چندلایه برای تحلیل داده استفاده می‌کنه. این مدل‌ها مخصوصاً برای کار با داده‌های پیچیده و حجیم مثل عکس، صدا یا متن خیلی خوب عمل می‌کنن. برای مثال، وقتی یه مدل مثل ChatGPT می‌تونه یه متن طبیعی و قابل فهم تولید کنه، پشت صحنه‌اش یه شبکه عصبی عمیق هست که میلیون‌ها پارامتر داره و روی میلیاردها کلمه آموزش دیده. یادگیری عمیق با الهام از ساختار مغز انسان (نورون‌ها) ساخته شده.


۴. یادگیری با نظارت (Supervised Learning)

در یادگیری با نظارت، ما یه مدل رو با استفاده از «داده‌هایی که جواب درست دارن» آموزش می‌دیم. یعنی ورودی‌ها و خروجی‌های درست رو بهش می‌دیم و مدل سعی می‌کنه رابطه بین این دو رو یاد بگیره. مثلاً تصور کن می‌خوای یه مدل بسازی که بتونه قیمت خونه‌ها رو پیش‌بینی کنه. بهش اطلاعات زیادی مثل اندازه خونه، تعداد اتاق‌ها، سن ساختمان و قیمت واقعی فروششون می‌دی. مدل با دیدن این نمونه‌ها، یاد می‌گیره که مثلاً خونه‌های بزرگ‌تر معمولاً گرون‌ترن و بعد می‌تونه قیمت خونه‌های جدید رو پیش‌بینی کنه.


۵. یادگیری بدون نظارت (Unsupervised Learning)

در یادگیری بدون نظارت، داده‌ها فقط ورودی دارن و خروجی یا جواب درست به مدل داده نمی‌شه. هدف اینه که مدل خودش الگوها، ساختار یا دسته‌بندی‌هایی توی داده پیدا کنه. این نوع یادگیری توی جاهایی کاربرد داره که داده‌هامون برچسب ندارن یا نمی‌دونیم چه الگوهایی توشون پنهانه. برای مثال، اگه بخوای مشتری‌هاتو بر اساس رفتار خریدشون دسته‌بندی کنی ولی نمیدونی چند دسته وجود داره، از یادگیری بدون نظارت استفاده می‌کنی. مدل مثلاً متوجه می‌شه که یه گروه بیشتر لباس می‌خرن، یه گروه دیگه فقط وسایل دیجیتال.


۶. یادگیری تقویتی (Reinforcement Learning - RL)

یادگیری تقویتی مدلیه که در اون یه عامل (agent) توی یه محیط فعالیت می‌کنه و سعی می‌کنه با انجام کارهای مختلف، «پاداش» بیشتری بگیره. این روش شبیه تربیت یه حیوان با جایزه و تنبیهه. هر بار که کار درستی انجام بده، یه پاداش می‌گیره و این باعث می‌شه یاد بگیره چطور تصمیمات بهتری بگیره. مثلاً یه ربات که باید یاد بگیره از یه اتاق پر از مانع عبور کنه، با هر قدم درست جایزه می‌گیره و با هر برخورد به مانع، تنبیه می‌شه. بعد از کلی آزمون و خطا، یاد می‌گیره چطور مسیر درست رو انتخاب کنه.


۷. حالا مدل (Model) چیه؟

مدل در واقع همون چیزیه که بعد از آموزش دادن بهش، می‌تونه وظیفه موردنظر رو انجام بده. مثل یه ماشین هوشمند که ورودی رو می‌گیره و خروجی مناسب می‌ده. مدل می‌تونه یه معادله ساده باشه یا یه شبکه عصبی بسیار بزرگ با میلیاردها پارامتر. مثلاً یه مدل تشخیص تصویر، عکس یه حیوان رو می‌گیره و می‌گه "این گربه‌ست" یا "این سگه". قدرت یه مدل بستگی به داده‌هایی داره که باهاش آموزش دیده و الگوریتمی که پشتشه.

این هفته سعی کردم از مفاهیم خیلی ساده شروع کنم، اما به مرور زمان سعی میکنیم مفاهیم تخصصی تر رو هم پوشش بدیم.
لطفا اگر ایده یا انتقادی نسبت به این مجموعه پست ها دارید در کامنت‌ها اعلام کنید ❤️

#آموزشی

@aipulse24
663👍17🔥8👏1
This media is not supported in your browser
VIEW IN TELEGRAM
پیشرفت مدل های هوش مصنوعی تولید ویدیو توی دو سال!

@aipulse24
🔥31👍72🤣1
شرکت Together.AI یک ورکشاپ انلاین رایگان به زودی برگزار خواهد کرد.

توی این ورکشاپ نحوه ساخت یک ایجنت کدنویسی از صفر اموزش داده میشه

این ورکشاپ رایگان هست و هرکسی میتونه شرکت کنه و اگر اون زمان هم امکان حضور رو ندارید وقتی ثبت نام کرده باشید لینک برنامه ضبط شده رو براتون ایمیل میکنن تا بعدا ببینید.


اینجا میتونید اطلاعات بیشتر درمورد این ورکشاپ به دست بیارید و ثبت نام کنید

@aipulse24
🔥154👍4🙏3
با این ابزار گوگل می‌تونید مدل‌ها رو به‌صورت آفلاین روی سخت‌افزار گوشیتون اجرا کنید!

اپ آزمایشی Google AI Edge Gallery به شما این امکان رو می‌ده که مدل‌های هوش مصنوعی مولد (GenAI) رو مستقیماً روی گوشی اندرویدی‌تون (و به‌زودی روی iOS) اجرا کنید، اونم بدون نیاز به اینترنت. از چت با مدل‌ها گرفته تا پرسش با تصویر و تست انواع پرامپت‌ها، همه چیز لوکال قابل انجامه.

یکی از قابلیت‌های کلیدی این اپ، امکان انتخاب بین مدل‌های مختلف از Hugging Face و مقایسه‌ی کارکردشونه. به این صورت که هر مدلی که مد نظرتون بود فقط کافیه از HuggingFace دانلود کنید و ایمپورت کنید توی برنامه!

داخل اپلیکیشن چند بخش مختلف قرار داده شده:
با ابزار Ask Image می‌تونید یه تصویر آپلود کنید و درباره‌ش سؤال بپرسید.

بخش Prompt Lab هم برای تست پرامپت‌های مختلفه و برای خلاصه‌سازی، بازنویسی متن یا حتی تولید کد طراحی شده.

در بخش AI Chat می‌تونید با مدل وارد گفتگو بشید، درست شبیه چت با نرم افزارهای هوش مصنوعی معروف مثل ChatGPT.

همه‌ی این پردازش‌ها به‌صورت کاملاً آفلاین روی گوشی انجام می‌شن. حتی ابزارهایی برای بررسی عملکرد مدل‌ها هم توی اپ هست، مثل زمان شروع پاسخ، سرعت تولید متن و تأخیر مدل.

برای شروع، فقط کافیه فایل APK رو دانلود و نصب کنید. این اپ بر پایه‌ی فناوری‌های Google AI Edge، LiteRT و LLM Inference API ساخته شده و با Hugging Face هم یکپارچه‌ست، تا یه تجربه‌ی کامل و مستقل از GenAI رو روی گوشی بهتون بده.

@aipulse24
👍199🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
دمیس هاسابیس گفته رسیدن به هوش عمومی مصنوعی (AGI) هم به پیشرفت‌های تدریجی مثل بزرگ‌ کردن مدل‌ها و آموزش اولیه نیاز داره، هم به جهش‌های کاملاً جدید و نوآورانه.

به‌گفته‌ی اون، دیپ‌مایند داره روی هر دو مسیر کار می‌کنه: از یه طرف با قدرت داره مقیاس مدل‌ها رو افزایش می‌ده، و از طرف دیگه دنبال تحقیقات آزمایشیه که می‌تونه به پیشرفت‌های اساسی منجر بشه.

بنابراین فقط با بزرگ کردن مدل ها نمیشه به AGI دست پیدا کرد.

@aipulse24
20👍13
انتروپیک تو تازه‌ترین پروژه‌ی تحقیقاتی‌اش یه روش جدید معرفی کرده که به کاربرها اجازه می‌ده مسیر تصمیم‌گیری مدل‌های زبانی بزرگ رو قدم‌به‌قدم ردیابی کنن. این روش که حالا به‌صورت متن‌باز منتشر شده، از طریق تولید «گراف‌های انتسابی» (attribution graphs) کمک می‌کنه بفهمیم مدل دقیقاً چه مراحلی رو طی کرده تا به یه خروجی خاص برسه. حالا همه می‌تونن با مراجعه به Neuronpedia این گراف‌ها رو بسازن و به‌شکل تعاملی بررسی‌شون کنن.

هسته‌ی این ابزار، یه کتابخونه‌ی متن‌باز به اسم Circuit Tracer هست که قابلیت اجرا روی مدل‌های متن‌باز محبوب رو داره. تو رابط گرافیکی Neuronpedia، می‌شه گراف‌ها رو دید، حاشیه‌نویسی کرد و حتی با بقیه به اشتراک گذاشت. این ابزارها اجازه می‌دن محقق‌ها فرضیه‌هایی مثل نقش یه ویژگی خاص در تصمیم‌گیری مدل رو تست کنن و ببینن تغییر اون ویژگی چه اثری روی خروجی می‌ذاره.

این پروژه توسط دو نفر از شرکت‌کننده‌های برنامه‌ی Anthropic Fellows با همکاری Decode Research توسعه داده شده. ابزار منتشرشده پیش‌تر برای تحلیل رفتارهایی مثل استدلال چندمرحله‌ای و بازنمایی‌های چندزبانه تو مدل‌هایی مثل Gemma-2-2b و Llama-3.2-1b استفاده شده و نتایجش توی نوت‌بوک دمو قابل مشاهده‌ست.

انتروپیک امیدوار‌ه با اوپن سورس کردن این ابزارها، جامعه‌ی گسترده‌تری از محقق‌ها و علاقه‌مندا وارد حوزه‌ی تفسیربذیری مدل‌های زبانی بشن. دریو آمودئی، مدیرعامل شرکت، گفته که سرعت پیشرفت در هوش مصنوعی از درک ما از عملکرد درونی مدل‌ها جلو زده و تحقیق در این زمینه فوریت داره. انتروپیک از همه دعوت کرده با استفاده از این ابزارها، مدارهای جالب‌تری پیدا کنن یا خودشون ابزارها رو توسعه بدن.

@aipulse24
26👍6🔥5