AI Pulse – Telegram
AI Pulse
3.73K subscribers
397 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
شرکت OpenAI صدای جدیدی به نام "Monday" رو به حالت صوتی چت‌جی‌پی‌تی اضافه کرده که برای همه کاربران، حتی اونایی که از نسخه رایگان استفاده می‌کنن، در دسترسه. این صدا لحن خاصی داره و قرار شده که پاسخ‌های طعنه‌آمیز و طنزآمیزتری ارائه بده.

‏Monday به‌عنوان دهمین صدا به Voice Mode اضافه شده و لحنش کاملاً با اسمش جور درمیاد؛ ترکیبی از شوخی و کمی بدخلقی که خیلیا صبح روزهای دوشنبه (صبح شنبه خودمون) حسش می‌کنن. کاربرای نسخه پولی می‌تونن مستقیم از قسمت انتخاب صدا، Monday رو فعال کنن. اما برای کاربران رایگان، استفاده از این صدا فقط در حالت چت متنی ممکنه و باید از قسمت Explore در محیط کاربری چت‌جی‌پی‌تی پیداش کنن.

یه نکته جالب اینه که OpenAI این صدا رو دقیقاً در روز اول آوریل منتشر کرده که روز جهانی شوخی و دروغ‌های مصلحتی محسوب می‌شه. این موضوع باعث شده بعضیا فکر کنن Monday یه تغییر موقتیه و شاید به‌زودی حذف بشه. اما اگه این ویژگی دائمی باشه، می‌تونه رقابت جدی‌ای با حالت Grok Unhinged شرکت xAI داشته باشه، حالتی که به‌خاطر پاسخ‌های جسورانه و گاهی نیش‌دارش حسابی سروصدا کرده.

این آپدیت درحالی منتشر شده که OpenAI با مشکلات فنی و کمبود ظرفیت پردازشی مواجهه. به‌دلیل افزایش شدید استفاده از ویژگی‌های جدید مثل تولید تصویر به سبک استودیو جیبلی، سم آلتمن، مدیرعامل OpenAI، هشدار داده که کاربران باید انتظار اختلال، کندی سرویس و تأخیر در انتشار قابلیت‌های جدید رو داشته باشن. اون همچنین اعلام کرده که این شرکت با کمبود پردازنده‌های گرافیکی (GPU) روبه‌رو شده و در شبکه اجتماعی X از شرکت‌های تأمین‌کننده درخواست کمک کرده.

@aipulse24
🥰12👍7
This media is not supported in your browser
VIEW IN TELEGRAM
تصویری از رابط کاربری AI Mode گوگل که برای تعدادی از کاربران فعال شده.

این قابلیت مشابه قابلیت سرچ در ChatGPT هست.

@aipulse24
🔥24👍7👎2😁1💯1
گوگل امروز قیمت‌‌گذاری مدل Gemini 2.5 Pro، مدل هوش مصنوعی جدیدش رو منتشر کرده. هزینه‌ی این مدل برای درخواست‌های تا ۲۰۰ هزار توکن، ۱.۲۵ دلار به ازای هر میلیون توکن ورودی و ۱۰ دلار برای خروجیه. برای درخواست‌های بزرگ‌تر، قیمت به ۲.۵۰ دلار برای ورودی و ۱۵ دلار برای خروجی افزایش پیدا می‌کنه.

این مدل از تمام نسخه‌های قبلی گوگل گرون‌تره و حتی از برخی رقبا مثل o3-mini از OpenAI و DeepSeek R1 قیمت بالاتری داره، اما از مدل‌هایی مثل Claude 3.7 Sonnet و GPT-4.5 ارزون‌تره.

در کل، قیمت مدل‌های پرچم‌دار شرکت‌هایی مثل گوگل و OpenAI رو به افزایشه. یکی از دلایل این روند، تقاضای بالاست. به گفته‌ی ساندار پیچای، Gemini 2.5 Pro محبوب‌ترین مدل گوگل بین توسعه‌دهنده‌هاست و استفاده از API اون در این ماه ۸۰٪ رشد کرده.

دقت کنید که قیمت‌های اعلام شده مربوط به API هست و کاربران عادی همچنان از AI Studio و اپ یا وبسایت جمنای میتونن از نسخه رایگان این مدل استفاده کنن.

@aipulse24
12👍10
اگه دنبال کار می‌گردی یا می‌خوای رزومه‌تو یه سرو سامون بدی، این ابزارهای خفن که با هوش مصنوعی کار می‌کنن کلی می‌تونن کمکت کنن. هم وقتتو ذخیره می‌کنن، هم حرفه‌ای‌تر جلوه می‌دی:

1. Rezi – ساخت رزومه اتومات با هوش مصنوعی


2. Teal – مدیریت پروسه اپلای کردن


3. Resumai – رزومه‌سازی با یه کلیک


4. Lazyapply – خودش برات می‌ره اپلای می‌کنه


5. Careerflow – یه داشبورد برای دنبال کردن روند شغل پیدا کردن


6. Himalayas – مخصوص کارهای ریموت


7. Huru.ai – تمرین مصاحبه مثل واقعی‌ها


8. Skillora.ai و Remasto.com – فقط برای گزینه های پولی داره


9. Interviewsby.ai – تمرین مصاحبه با تحلیل حرفه‌ای



حالا جدا از رزومه و اپلای، برای آماده شدن واسه مصاحبه هم کلی ابزار هست که می‌تونی باهاشون تمرین کنی:

آمادگی عمومی برای مصاحبه:

Prep Invue AI – آنالیز رفتار و حرف زدنت با AI

Final Round AI – راهنمایی لحظه‌ای تو مصاحبه‌های واقعی


مصاحبه‌های فنی و کدنویسی:

Acedit – تمرین کدنویسی تو مرورگر

Exponent Practice – تمرین با هم‌سطحا

interviewing.io – مصاحبه ناشناس با فیدبک واقعی

LeetCode Interview – تمرین سوالات فنی و چالش‌دار


برای بهتر حرف زدن و ارتباط گرفتن:

Yoodli AI – تمرین حرف زدن، اعتماد به نفس و بیان

Big Interview – فیدبک واسه مصاحبه‌های رفتاری

Voomer – تمرین جواب دادن ویدیویی با فیدبک AI


برای کیس استادی و مصاحبه‌های مشاوره‌ای:

CaseCoach – تمرین حرفه‌ای واسه کیس استادی

RocketBlocks – تمرین برای نقش‌های بیزینسی

IGotAnOffer – آموزش و تمرین برای مصاحبه‌های خاص


برای مدیریت محصول و UX:

PracticeInterview.ai – تمرین PM مصاحبه


آمادگی برای شرکت یا موقعیت خاص:

PrepInsta – تمرین واسه شرکت‌های خاص

Pathrise – کوچینگ و راهنمایی شغلی کامل با AI


اگه اینا رو قبلاً امتحان کردی یا سوالی داری، خوشحال می‌شم گپ بزنیم!

@aipulse24
🔥12👍98
AI Pulse
اگه دنبال کار می‌گردی یا می‌خوای رزومه‌تو یه سرو سامون بدی، این ابزارهای خفن که با هوش مصنوعی کار می‌کنن کلی می‌تونن کمکت کنن. هم وقتتو ذخیره می‌کنن، هم حرفه‌ای‌تر جلوه می‌دی: 1. Rezi – ساخت رزومه اتومات با هوش مصنوعی 2. Teal – مدیریت پروسه اپلای کردن …
لیست سایت ها رو دادم به هوش مصنوعی گفتم یه پست تلگرام تولید کن
این فاجعه رو ساخت😭😭
گفتم همینجوری بفرستم خیلی نگران نباشید از کار بیکار میشید😂

اون عکسم بهش گفتم از خودت بساز که داری این پست رو مینویسی اون رو زد🥺


نکته مهم


برید توی سایت Rezi ثبت نام کنید و بعد توی ساب ردیت Rezi اون بالا یک فرم هست پر کنید تا بهتون رایگان لایف تایم پرمیوم بده!!!!
Please open Telegram to view this post
VIEW IN TELEGRAM
14😁10👍3
شرکت متا نسل چهارم از مدل‌های زبانی Llama را معرفی کرده که با توانایی‌های چندوجهی و پشتیبانی از کانتکست بسیار بلند، رقیب بسیار جدی‌ای برای مدل‌های اوپن سورس محسوب میشن.

در این مجموعه سه مدل معرفی شده‌: Llama 4 Scout، Llama 4 Maverick و Llama 4 Behemoth. دو مدل اول به صورت Open Weight عرضه شدن و برای استفاده در پلتفرم‌هایی مثل WhatsApp، Messenger، Instagram Direct و نسخه وب Meta AI در دسترس قرار گرفتن.

مدل Scout با ۱۷ میلیارد پارامتر فعال و ۱۶ متخصص، قوی‌ترین مدل توی کلاس خودش به‌شمار میاد و با وجود توانایی‌های چشمگیر، روی یک GPU از نوع H100 اجرا می‌شه. این مدل با داشتن پنجره کانتکست ۱۰ میلیون توکنی، عملکردی بهتر از مدل‌هایی مثل Gemma 3 و Gemini 2.0 Flash-Lite ارائه می‌ده.

مدل Maverick هم که از همون تعداد پارامتر فعال اما با ۱۲۸ متخصص بهره می‌بره، در تست‌های گسترده از GPT-4o و Gemini 2.0 پیشی گرفته و با مدل‌هایی مثل DeepSeek v3 در زمینه‌های استدلال و کدنویسی رقابت می‌کنه؛ اون هم با نصف تعداد پارامتر فعال.

قدرت این مدل‌ها تا حد زیادی مدیون مدل Behemoth هست؛ یک مدل بزرگ ۲ تریلیونی با ۲۸۸ میلیارد پارامتر فعال که نقش "معلم" رو در فرایند آموزش ایفا کرده. Behemoth در بنچمارک‌های ریاضی، کدنویسی و زبان‌های مختلف عملکردی بهتر از مدل‌های شاخصی مثل GPT-4.5، Claude 3.7 و Gemini 2.0 Pro داشته. هرچند هنوز به‌طور کامل عرضه نشده، اما متا وعده داده به‌زودی اطلاعات بیشتری درباره‌ی اون منتشر کنه.

در طراحی این مدل‌ها، معماری Mixture of Experts به‌کار گرفته شده که با فعال‌سازی بخشی از پارامترها به‌ازای هر توکن، هم بازدهی محاسباتی رو افزایش داده و هم کیفیت مدل رو نسبت به مدل‌های متراکم بهبود داده. Llama 4 همچنین به‌صورت چندوجهی طراحی شده و می‌تونه همزمان ورودی‌های متنی و تصویری رو پردازش کنه. در فاز آموزش، از داده‌های متنی، تصویری و ویدیویی در مقیاس بالا استفاده شده و تکنیک‌های جدیدی مثل MetaP برای بهینه‌سازی هایپرپارامترها به‌کار رفته.

در مرحله پس‌آموزش، متا از روش‌های جدیدی مثل یادگیری تقویتی آنلاین و بهینه‌سازی مستقیم ترجیحی برای بهبود مهارت‌های مدل در استدلال، مکالمه و چندوجهی‌بودن استفاده کرده.

مدل Maverick با بهره‌گیری از این روش‌ها، عملکرد چشمگیری در درک تصویر، تولید متن، پاسخ به پرسش‌های بصری و وظایف پیچیده نشون داده. مدل Scout هم با وجود حجم کمتر، در زمینه‌هایی مثل کدنویسی، پردازش کانتکست بلند، و درک تصویری، نتایجی بهتر از تمام نسل‌های قبلی Llama ارائه می‌ده.

در نهایت، متا تأکید کرده که این مدل‌ها با بالاترین استانداردهای ایمنی توسعه داده شدن. ابزارهایی مثل Llama Guard، Prompt Guard و سامانه‌ی تست GOAT برای جلوگیری از خروجی‌های نامناسب یا سؤاستفاده از مدل‌ها ارائه شده و توسعه‌دهندگان می‌تونن این ابزارها رو متناسب با نیاز خودشون تنظیم کنن. همچنین تلاش‌هایی هم برای کاهش سوگیری‌های سیاسی و اجتماعی در پاسخ‌های مدل صورت گرفته تا Llama 4 بتونه دیدگاه‌های مختلف رو به‌درستی درک و بیان کنه.

@aipulse24
🔥174👍2❤‍🔥1
به گزارش "The Information"، اینتل و TSMC اخیراً درباره راه‌اندازی یک سرمایه‌گذاری مشترک برای اداره کارخانه‌های اینتل در آمریکا مذاکره کردن. طبق این گزارش، TSMC قراره ۲۰ درصد از سهام این شرکت جدید رو در اختیار بگیره.

کاخ سفید و وزارت بازرگانی آمریکا هم برای حل بحران اینتل، پیگیر این توافق بودن. اینتل سال گذشته با زیان ۱۸.۸ میلیارد دلاری و سقوط ۶۰ درصدی ارزش سهامش روبه‌رو شد و حالا تلاش داره با مدیریت جدید، عقب‌افتادگی از رقبا رو جبران کنه.

‏TSMC هم ماه پیش اعلام کرد قصد داره ۱۰۰ میلیارد دلار در ساخت پنج کارخانه جدید در آمریکا سرمایه‌گذاری کنه.

@aipulse24
👍142
گوگل امکان به اشتراک گذاری صفحه نمایش و دوربین گوشی رو به Gemeni Live اضافه کرده. این قابلیت باعث میشه کاربران بتونن به صورت بهینه‌تری از جمنای استفاده کنن.

این قابلیت از امروز برای کاربران پلن Advanced در اپلیکیشن جمنای در اندروید قابل استفاده هست.

@aipulse24
🔥162👍1
آقای Andrej Karpathy، پژوهشگر برجسته‌ی حوزه‌ی هوش مصنوعی و از چهره‌های تأثیرگذار سابق در تیم هوش مصنوعی تسلا و OpenAI، در تازه‌ترین مقاله‌ی خودش به یک پدیده‌ی جالب توجه اشاره کرده: انقلاب مدل‌های زبانی بزرگ (LLMها) برخلاف مسیر همیشگی گسترش فناوری‌ها، از پایین به بالا اتفاق افتاده، نه از بالا به پایین.

‏Karpathy توضیح می‌ده که فناوری‌های بزرگ در طول تاریخ معمولاً اول در دولت‌ها یا ارتش‌ها توسعه پیدا می‌کردن، بعد به شرکت‌های بزرگ می‌رسیدن و نهایتاً راهشون به دست مصرف‌کننده‌های عادی باز می‌شده. مثلاً برق، اینترنت، کامپیوتر و حتی GPS همگی این مسیر رو طی کردن. چون فناوری‌های نو در ابتدای مسیرشون پرهزینه، کمیاب و نیازمند تخصص بالا بودن. اما حالا ما با یک استثنای تاریخی طرفیم: LLMها مثل ChatGPT و Claude مستقیماً و اول از همه به مردم رسیدن و تأثیرشون روی زندگی فردی، خیلی سریع‌تر و گسترده‌تر از سازمان‌ها و دولت‌ها بوده.

او به این نکته اشاره می‌کنه که ChatGPT با بیش از ۴۰۰ میلیون کاربر هفتگی، به یکی از پرکاربردترین ابزارهای روزمره تبدیل شده. افراد ازش برای کارهایی مثل نوشتن، کدنویسی، ترجمه، تحقیق، خلاصه‌نویسی، تولید محتوا، و حتی آموزش استفاده می‌کنن. چیزی که Karpathy روش تأکید می‌کنه اینه که LLMها نه فقط یک ابزار جدید، بلکه یک "اهرم برای قدرت فردی" هستن؛ چون به افراد این امکان رو می‌دن که کارهایی رو انجام بدن که قبلاً از عهده‌شون خارج بوده. اون می‌گه: «حالا هر کسی می‌تونه یک اپ بنویسه، یک مقاله‌ علمی رو بفهمه، یا حتی قرارداد حقوقی رو تحلیل کنه، بدون این‌که متخصص اون حوزه باشه.»

در مقابل، Karpathy دلایلی رو مطرح می‌کنه که چرا سازمان‌ها و دولت‌ها هنوز نتونستن از این ابزارها به اندازه‌ افراد بهره ببرن؛ دلیل اول اینه که مدل‌های زبانی گستره‌ زیادی از دانش دارن، ولی در هر حوزه‌ای فقط در سطح نیمه‌تخصصی عمل می‌کنن. در حالی که شرکت‌ها خودشون با استخدام متخصص‌ها، از قبل این توانایی رو داشتن. در نتیجه، استفاده از LLMها تو سازمان‌ها بیشتر در حد افزایش بهره‌وری کارمنده، نه ایجاد توانمندی جدید. دلیل دوم، پیچیدگی بالای کار در سازمان‌هاست که از جمله اونها هماهنگی بین سیستم‌های قدیمی، قوانین سخت‌گیرانه، نیاز به امنیت بالا، رعایت سبک برند و خطرات حقوقی هست. و دلیل سوم هم مقاومت طبیعی سازمان‌های بزرگ در برابر تغییر سریعه؛ موانعی مثل فرهنگ داخلی، بوروکراسی، و چالش‌های آموزش نیروهای زیاد و پراکنده، موانعی هستن که در هنگام پذیرش تغییرات جدید دست و پاگیر میشن.

در ادامه، Karpathy به آینده‌ این روند هم اشاره می‌کنه. اون می‌گه یکی از ویژگی‌های جالب LLMهای امروزی اینه که با سرمایه‌ کم می‌تونی به بهترین نسخه‌ها دسترسی داشته باشی. به‌عبارت دیگه، بیل گیتس هم همون GPT-4o رو داره که یک دانش‌آموز ساده داره. اما هشدار می‌ده که ممکنه در آینده دوباره فاصله ایجاد بشه؛ اگه شرکت‌ها بتونن مدل‌هایی بخرن یا بسازن که به‌مراتب بهتر از نسخه‌های عمومی باشن، اون وقت دوباره طبقه‌ی ثروتمند از بقیه جدا می‌شه. بچه‌ی ثروتمندها با GPT-8-Pro درس می‌خونه، بقیه با نسخه‌ی ارزان‌تر.

در پایان، Karpathy این وضعیت رو "بی‌سابقه" توصیف می‌کنه و می‌گه که برخلاف تصور داستان‌های علمی‌تخیلی، انقلاب هوش مصنوعی نه از پروژه‌های نظامی و محرمانه، بلکه از اپلیکیشنی شروع شده که یه‌شبه و به‌صورت رایگان روی گوشی همه‌ی مردم اومده. با نقل‌قول از ویلیام گیبسون که می‌گفت "آینده همین حالاست، فقط هنوز همه‌جا پخش نشده"، Karpathy می‌نویسه: «این‌بار آینده نه‌تنها اینجاست، بلکه به طرز عجیبی همگانی شده. قدرت به مردم رسیده. و من عاشق این اتفاقم.»

نسخه کامل این مقاله رو از اینجا میتونید مشاهده کنید.

@aipulse24
32👍9
AI Pulse
از من که دارم هفته ای تقریبا ۱۵تا نیوزلتر هوش مصنوعی میخونم به شماها نصیحت اینده هوش مصنوعی تو اشل متوسط رو به کوچیک (نه تو لول ساخت ربات و غیره) توی ساخت ایجنت با استفاده از پلتفرم های low code و no code هست. تو همین ۱ ماه گذشته مایکروسافت و امازون هردو…
داشتم توی کانال میگشتم که به این پستم رسیدم
این پیش بینی من برای جولای پارسال!

قبل از اینکه ابزارهای vibe coding رایج بشن

قبل از اینکه سم التمن سال ۲۰۲۵ رو سال agent ها معرفی کنه

https://blog.samaltman.com/reflections

قبل از اینکه IBM، Techtarget ، مدیر عامل انویدیا و ۶۰۰ نفر دیگه توی ژانویه ۲۰۲۵ اعلام کنن

این پیش بینی رو کردم

(پستم شبیه این تریدر دوزاری ها شد ولی انصافا عجب پیش بینی کردم:))) )

آیا ایمان نمی آورید؟😭

حالا توی پست بعدی راجع به مشاغل آینده بعد هوش مصنوعی میگم
Please open Telegram to view this post
VIEW IN TELEGRAM
😁14🤣10👍63
💻پست مهم 💻

پژوهش های خیلی زیادی در رابطه با تحول نیروی کار و نحوه کار شرکت ها بعد از عرضه مدل های زبانی انجام شده

خیلی از اون ها به شرایط حذف انسان ها از نیروهای شرکت های مختلف و جایگزینی اونها با هوش مصنوعی پرداختن. درمورد یکی از این پژوهش ها اینجا حرف زدیم.

🔥 حالا بیاید درمورد شغل هایی که قرار بعد از رایج تر شدن هوش مصنوعی ایجاد بشن حرف بزنیم! 🔥

یکی از اون شغل ها به گفته گوگل AgentOps هست.

ایجنت یک نرم افزار برنامه ریزی شده است که با درک شرایط و contextی که در اون قرار داره با استفاده از ابزارهایی که دراختیار داره یک سری اهداف رو به سرانجام میرسونه. مثلا؟! مثلا دستیارهای خرید، کالایی که میخواید رو بهش میدید، براتون سرچ میکنه بهترین قیمت رو پیدا میکنه و خرید رو نهایی میکنه


یک ایجنت شامل مدل زبانی، ابزارها و فرایندهایی میشه که باید برای انجام وظایفش طی کنه.

اگر با GenAi کار کرده باشید متوجه میشید که رسیدن از یه ایده به proof of concept یا طرح اولیه خیلی خیلی ساده است اما رسیدن به یه نتیجه موندگار و قابل اطمینان خیلی کار میبره!


اینجاست که AgentOps وارد میشه!

هدف وجودی این شغل اینه که ایجنت ها با بهروری بالایی بتونن توی سازمان مورد استفاده قرار بگیرن

توی این مدت ۲ سال ساختار MLops یا GenAiOps خیلی رواج پیدا کرد و حالا AgentOps زیر مجموعه این ساختار هست که کارش مدیریت ابزارهایی که ایجنت استفاده میکنه، مدیریت پرامپت اصلی ایجنت، هماهنگی فرایندهاش، حافظه و تقسیم بندی وظایف ایجنت هست.


به طور کلی این شغل زیر مجموعه بخش Ops هر سازمان میگیره

😀در بالای این اکوسیستم DevOps قرار داره که کارش وصل کردن تیم توسعه و تیم عملیات به همه این بخش سعی میکنه برنامه هایی که توسعه دهنده ها نوشتن بدون خطا، امن و سریع بره روی سرور ها

😀بعدش MLOps هست که همون کار DevOps رو میکنه ولی برای مدل های یادگیری ماشین، واسه همین کارش خیلی داده محوره

😀 باز زیر مجموعه اون FMOps هست که کارش توسعه مدل های زبانی کارامده که بشه واقعا توی کار ازشون استفاده کرد


😀بعدی PromptOps هست که کارش حفظ و عملیاتی کردن پرامپت هاست، کازش اینه پرامپت ایجاد کنه، اثرات پرامپت مختلف رو بررسی کنه و دایم بهینه کنه

😀 بعدی RAGops هست که کارش اینه بتونه به صورت کارامد داده های سازمانی رو بازیابی کنه و اونهارو به خوبی توی دیتابیس نگه داره و درنهایت درزمان نیاز به خوبی اونهارو به کاربر برسونه

تا اینجا این ابزارها داشتن شرایط رو فراهم میکردن تا داده ها و مدل های ما اماده باشن تا بتونن واقعا واسه ما کاری انجام بدن!

🏆 حالا اینجا AgentOps وارد میشه روی قابلیت هایی که بقیه بخش ها ساختن سوار میشه و با استفاده از ابزارها و مدل ها زبانی و داده هایی که بخش های قبلی ساختن ایجنت هایی ایجاد میکنه تا یه سری تسک رو به سر انجام برسونن!🏆

😀 تا اخر این هفته مسیر یادگیری و منابعی که برای وارد شدن به این حوزه نیاز دارید رو جمع اوری می کنم و در قالب یه پست دیگه میزنم😀

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2915🔥6🫡1
گوگل در رویداد Next 25 از نسل هفتم شتاب‌دهنده اختصاصی خودش با نام Ironwood رونمایی کرد؛ قوی‌ترین و مقیاس‌پذیرترین TPU تاریخ این شرکت که به‌طور ویژه برای اجرای مدل‌های Inference طراحی شده. این چیپ جدید قراره پایه‌گذار «عصر Inference» باشه؛ دورانی که مدل‌های هوش مصنوعی نه فقط به سوال‌ها پاسخ می‌دن، بلکه خودشون به تولید و تفسیر داده هم می‌پردازن.

‏Ironwood در دو پیکربندی ۲۵۶ و ۹۲۱۶ چیپ عرضه می‌شه و در حالت کامل، قدرت پردازشی‌اش به ۴۲.۵ اگزافلاپس می‌رسه؛ یعنی بیش از ۲۴ برابر قوی‌تر از ابررایانه El Capitan. هر چیپ هم تا ۴۶۱۴ ترافلاپس قدرت داره و بهره‌وری انرژی اون نسبت به نسل قبل (Trillium) دو برابر شده. این نسل از سیستم خنک‌کننده مایع استفاده می‌کنه و به گفته گوگل، ۳۰ برابر کم‌مصرف‌تر از Cloud TPU v2ـه.

از نظر فنی، Ironwood از حافظه ۱۹۲ گیگابایتی HBM (۶ برابر بیشتر از Trillium) با پهنای باند ۷.۲ ترابیت بر ثانیه بهره می‌بره. شبکه ارتباطی Inter-Chip Interconnect هم با پهنای باند ۱.۲ ترابیت دوطرفه، اتصال سریع بین هزاران چیپ رو ممکن کرده. ماژول SparseCore در این نسل بهبود پیدا کرده و حالا می‌تونه در حوزه‌هایی مثل محاسبات مالی و علمی هم استفاده بشه.

همچنین گوگل از نرم‌افزار اختصاصی Pathways برای اجرای توزیع‌شده مدل‌ها روی صدها هزار چیپ Ironwood استفاده کرده؛ کاری که توسعه سریع‌تر مدل‌های بزرگ مولد مثل Gemini 2.5 و AlphaFold رو ممکن می‌کنه. Ironwood از اواخر امسال در اختیار توسعه‌دهنده‌ها و مشتریان Google Cloud قرار می‌گیره.

@aipulse24
🔥17👍3👌21
گوگل با همکاری بیش از ۵۰ شرکت فناوری، از پروتکل جدید و متن‌باز «Agent2Agent» یا به‌اختصار A2A رونمایی کرده؛ پروتکلی که با هدف تعامل و همکاری بین ایجنت‌های هوش مصنوعی طراحی شده و قراره نقطه‌ی عطفی در مسیر ساخت اکوسیستم چندایجنتی باشه. ایجنت‌های هوش مصنوعی، ابزارهایی هستن که می‌تونن به‌طور خودکار وظایف مختلفی رو انجام بدن؛ از کمک به کارمندان پشتیبانی تا برنامه‌ریزی زنجیره تأمین. حالا A2A این ایجنت‌ها رو قادر می‌کنه تا حتی اگه از شرکت‌های مختلف یا با چارچوب‌های متفاوت ساخته شده باشن، بتونن با هم ارتباط برقرار کنن و همکاری کنن.

پروتکل A2A بر پایه‌ی استانداردهای شناخته‌شده‌ای مثل HTTP و JSON-RPC توسعه داده شده و به‌صورت پیش‌فرض از امنیت در سطح سازمانی پشتیبانی می‌کنه. این پروتکل همچنین از وظایف طولانی‌مدت، تعامل‌های چندرسانه‌ای (مثل صدا و ویدیو) و سناریوهای پیچیده پشتیبانی می‌کنه. ایجنت‌ها از طریق یک «Agent Card» قابلیت‌های خودشون رو معرفی می‌کنن تا ایجنت‌های دیگه بتونن بهترین همکار ممکن رو برای انجام یک وظیفه پیدا کنن.

در یکی از نمونه‌های کاربردی، یک مدیر استخدام می‌تونه به ایجنت خودش وظیفه‌ی پیدا کردن برنامه‌نویسان مناسب رو بده. این ایجنت با ایجنت‌های دیگه ارتباط می‌گیره، اطلاعات لازم رو جمع می‌کنه و حتی هماهنگی برای مصاحبه و بررسی سوابق رو هم به ایجنت‌های دیگه واگذار می‌کنه. چنین همکاری‌ای فقط از طریق یک بستر مشترک مثل A2A ممکنه.

گوگل اعلام کرده که نسخه‌ی نهایی و آماده‌به‌کار این پروتکل قراره تا پایان امسال با همکاری جامعه‌ی متن‌باز و شرکای فناوری عرضه بشه.

@aipulse24
👍25🔥64