AI Pulse – Telegram
AI Pulse
3.73K subscribers
397 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
💻پست مهم 💻

پژوهش های خیلی زیادی در رابطه با تحول نیروی کار و نحوه کار شرکت ها بعد از عرضه مدل های زبانی انجام شده

خیلی از اون ها به شرایط حذف انسان ها از نیروهای شرکت های مختلف و جایگزینی اونها با هوش مصنوعی پرداختن. درمورد یکی از این پژوهش ها اینجا حرف زدیم.

🔥 حالا بیاید درمورد شغل هایی که قرار بعد از رایج تر شدن هوش مصنوعی ایجاد بشن حرف بزنیم! 🔥

یکی از اون شغل ها به گفته گوگل AgentOps هست.

ایجنت یک نرم افزار برنامه ریزی شده است که با درک شرایط و contextی که در اون قرار داره با استفاده از ابزارهایی که دراختیار داره یک سری اهداف رو به سرانجام میرسونه. مثلا؟! مثلا دستیارهای خرید، کالایی که میخواید رو بهش میدید، براتون سرچ میکنه بهترین قیمت رو پیدا میکنه و خرید رو نهایی میکنه


یک ایجنت شامل مدل زبانی، ابزارها و فرایندهایی میشه که باید برای انجام وظایفش طی کنه.

اگر با GenAi کار کرده باشید متوجه میشید که رسیدن از یه ایده به proof of concept یا طرح اولیه خیلی خیلی ساده است اما رسیدن به یه نتیجه موندگار و قابل اطمینان خیلی کار میبره!


اینجاست که AgentOps وارد میشه!

هدف وجودی این شغل اینه که ایجنت ها با بهروری بالایی بتونن توی سازمان مورد استفاده قرار بگیرن

توی این مدت ۲ سال ساختار MLops یا GenAiOps خیلی رواج پیدا کرد و حالا AgentOps زیر مجموعه این ساختار هست که کارش مدیریت ابزارهایی که ایجنت استفاده میکنه، مدیریت پرامپت اصلی ایجنت، هماهنگی فرایندهاش، حافظه و تقسیم بندی وظایف ایجنت هست.


به طور کلی این شغل زیر مجموعه بخش Ops هر سازمان میگیره

😀در بالای این اکوسیستم DevOps قرار داره که کارش وصل کردن تیم توسعه و تیم عملیات به همه این بخش سعی میکنه برنامه هایی که توسعه دهنده ها نوشتن بدون خطا، امن و سریع بره روی سرور ها

😀بعدش MLOps هست که همون کار DevOps رو میکنه ولی برای مدل های یادگیری ماشین، واسه همین کارش خیلی داده محوره

😀 باز زیر مجموعه اون FMOps هست که کارش توسعه مدل های زبانی کارامده که بشه واقعا توی کار ازشون استفاده کرد


😀بعدی PromptOps هست که کارش حفظ و عملیاتی کردن پرامپت هاست، کازش اینه پرامپت ایجاد کنه، اثرات پرامپت مختلف رو بررسی کنه و دایم بهینه کنه

😀 بعدی RAGops هست که کارش اینه بتونه به صورت کارامد داده های سازمانی رو بازیابی کنه و اونهارو به خوبی توی دیتابیس نگه داره و درنهایت درزمان نیاز به خوبی اونهارو به کاربر برسونه

تا اینجا این ابزارها داشتن شرایط رو فراهم میکردن تا داده ها و مدل های ما اماده باشن تا بتونن واقعا واسه ما کاری انجام بدن!

🏆 حالا اینجا AgentOps وارد میشه روی قابلیت هایی که بقیه بخش ها ساختن سوار میشه و با استفاده از ابزارها و مدل ها زبانی و داده هایی که بخش های قبلی ساختن ایجنت هایی ایجاد میکنه تا یه سری تسک رو به سر انجام برسونن!🏆

😀 تا اخر این هفته مسیر یادگیری و منابعی که برای وارد شدن به این حوزه نیاز دارید رو جمع اوری می کنم و در قالب یه پست دیگه میزنم😀

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2915🔥6🫡1
گوگل در رویداد Next 25 از نسل هفتم شتاب‌دهنده اختصاصی خودش با نام Ironwood رونمایی کرد؛ قوی‌ترین و مقیاس‌پذیرترین TPU تاریخ این شرکت که به‌طور ویژه برای اجرای مدل‌های Inference طراحی شده. این چیپ جدید قراره پایه‌گذار «عصر Inference» باشه؛ دورانی که مدل‌های هوش مصنوعی نه فقط به سوال‌ها پاسخ می‌دن، بلکه خودشون به تولید و تفسیر داده هم می‌پردازن.

‏Ironwood در دو پیکربندی ۲۵۶ و ۹۲۱۶ چیپ عرضه می‌شه و در حالت کامل، قدرت پردازشی‌اش به ۴۲.۵ اگزافلاپس می‌رسه؛ یعنی بیش از ۲۴ برابر قوی‌تر از ابررایانه El Capitan. هر چیپ هم تا ۴۶۱۴ ترافلاپس قدرت داره و بهره‌وری انرژی اون نسبت به نسل قبل (Trillium) دو برابر شده. این نسل از سیستم خنک‌کننده مایع استفاده می‌کنه و به گفته گوگل، ۳۰ برابر کم‌مصرف‌تر از Cloud TPU v2ـه.

از نظر فنی، Ironwood از حافظه ۱۹۲ گیگابایتی HBM (۶ برابر بیشتر از Trillium) با پهنای باند ۷.۲ ترابیت بر ثانیه بهره می‌بره. شبکه ارتباطی Inter-Chip Interconnect هم با پهنای باند ۱.۲ ترابیت دوطرفه، اتصال سریع بین هزاران چیپ رو ممکن کرده. ماژول SparseCore در این نسل بهبود پیدا کرده و حالا می‌تونه در حوزه‌هایی مثل محاسبات مالی و علمی هم استفاده بشه.

همچنین گوگل از نرم‌افزار اختصاصی Pathways برای اجرای توزیع‌شده مدل‌ها روی صدها هزار چیپ Ironwood استفاده کرده؛ کاری که توسعه سریع‌تر مدل‌های بزرگ مولد مثل Gemini 2.5 و AlphaFold رو ممکن می‌کنه. Ironwood از اواخر امسال در اختیار توسعه‌دهنده‌ها و مشتریان Google Cloud قرار می‌گیره.

@aipulse24
🔥17👍3👌21
گوگل با همکاری بیش از ۵۰ شرکت فناوری، از پروتکل جدید و متن‌باز «Agent2Agent» یا به‌اختصار A2A رونمایی کرده؛ پروتکلی که با هدف تعامل و همکاری بین ایجنت‌های هوش مصنوعی طراحی شده و قراره نقطه‌ی عطفی در مسیر ساخت اکوسیستم چندایجنتی باشه. ایجنت‌های هوش مصنوعی، ابزارهایی هستن که می‌تونن به‌طور خودکار وظایف مختلفی رو انجام بدن؛ از کمک به کارمندان پشتیبانی تا برنامه‌ریزی زنجیره تأمین. حالا A2A این ایجنت‌ها رو قادر می‌کنه تا حتی اگه از شرکت‌های مختلف یا با چارچوب‌های متفاوت ساخته شده باشن، بتونن با هم ارتباط برقرار کنن و همکاری کنن.

پروتکل A2A بر پایه‌ی استانداردهای شناخته‌شده‌ای مثل HTTP و JSON-RPC توسعه داده شده و به‌صورت پیش‌فرض از امنیت در سطح سازمانی پشتیبانی می‌کنه. این پروتکل همچنین از وظایف طولانی‌مدت، تعامل‌های چندرسانه‌ای (مثل صدا و ویدیو) و سناریوهای پیچیده پشتیبانی می‌کنه. ایجنت‌ها از طریق یک «Agent Card» قابلیت‌های خودشون رو معرفی می‌کنن تا ایجنت‌های دیگه بتونن بهترین همکار ممکن رو برای انجام یک وظیفه پیدا کنن.

در یکی از نمونه‌های کاربردی، یک مدیر استخدام می‌تونه به ایجنت خودش وظیفه‌ی پیدا کردن برنامه‌نویسان مناسب رو بده. این ایجنت با ایجنت‌های دیگه ارتباط می‌گیره، اطلاعات لازم رو جمع می‌کنه و حتی هماهنگی برای مصاحبه و بررسی سوابق رو هم به ایجنت‌های دیگه واگذار می‌کنه. چنین همکاری‌ای فقط از طریق یک بستر مشترک مثل A2A ممکنه.

گوگل اعلام کرده که نسخه‌ی نهایی و آماده‌به‌کار این پروتکل قراره تا پایان امسال با همکاری جامعه‌ی متن‌باز و شرکای فناوری عرضه بشه.

@aipulse24
👍25🔥64
در ادامه، این شرکت از ابزار متن‌باز جدیدی با نام Agent Development Kit (ADK) رونمایی کرده. ADK یه چارچوب توسعه‌ی متن‌بازه که برای ساخت اپلیکیشن‌های ایجنت‌محور طراحی شده و به توسعه‌دهنده‌ها این امکان رو می‌ده که سیستم‌های چندایجنتی رو راحت‌تر و با کنترل دقیق‌تری بسازن، تست کنن و به مرحله‌ی اجرا برسونن.

گوگل اعلام کرده که همین ADK در محصولات داخلی خودش مثل Agentspace و Customer Engagement Suite (CES) هم استفاده شده. حالا با متن‌باز کردن اون، هدفش اینه که دست توسعه‌دهنده‌ها رو برای ساخت ایجنت‌های هوشمند و مستقل بازتر کنه.

چارچوب ADK روی چهار اصل کلیدی بنا شده: ساخت، تعامل، ارزیابی و استقرار. از طراحی چندایجنتی و اتصال به مدل‌های متنوع گرفته تا ابزارهای آماده مثل سرچ گوگل، قابلیت پخش زنده‌ی صوت و تصویر، تجربه‌ی توسعه‌ی یکپارچه و حتی ارزیابی خودکار عملکرد ایجنت‌ها — همه در این بسته‌ی جامع در نظر گرفته شدن.

برای مثال، توسعه‌دهنده‌ها می‌تونن با چند خط کد ساده یه ایجنت بسازن که با استفاده از سرچ گوگل به سوال‌ها جواب بده. یا می‌تونن یه سیستم چندایجنتی طراحی کنن که ایجنت اصلی درخواست‌های مربوط به آب‌وهوا رو پاسخ بده، ولی در صورت سلام یا خداحافظی، کار رو به ایجنت‌های تخصصی دیگه بسپره. این ساختار سلسله‌مراتبی با توصیف شفاف وظایف، به LLM کمک می‌کنه تا خودش تشخیص بده کدوم ایجنت باید مسئولیت پاسخ رو بر عهده بگیره.

گوگل همچنین یه سیستم ارزیابی داخلی هم توی ADK گذاشته که اجازه می‌ده قبل از استقرار نهایی، عملکرد ایجنت‌ها با تست‌های از پیش تعیین‌شده سنجیده بشه. در نهایت، ADK امکان استقرار راحت توی محیط‌های کانتینری و همچنین اجرای مستقیم روی موتور ایجنت Vertex AI رو فراهم می‌کنه که برای پروژه‌های مقیاس‌پذیر سازمانی طراحی شده.

در کنار ADK، گوگل ابزار دیگه‌ای به نام Genkit هم داره که برای پروژه‌های جنرال‌تر GenAI استفاده می‌شه. ولی برای پروژه‌هایی که نیاز به ساخت سیستم‌های چندایجنتی پیچیده دارن، ADK انتخاب بهتریه چون سطح انتزاع بالاتری ارائه می‌ده و با مدل‌های متنوع‌تری از جمله Gemini، Anthropic، Meta، و غیره سازگاری داره.

@aipulse24
👍21🔥31🥰1
گوگل همچنین از رابط کاربری جدید AI Studio رونمایی کرده که مورد استقبال گسترده کاربران قرار گرفته و نسبت به قبل سهولت بیشتری در استفاده رو برای کاربران فراهم میکنه.

@aipulse24
🔥26👍21❤‍🔥1🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
و در ادامه! گوگل از نسخه پیش‌نمایش «Firebase Studio» رونمایی کرده؛ یک محیط توسعه ابری و هوشمند که طراحی شده تا ساخت، تست، استقرار و اجرای اپ‌های ساخته شده با هوش مصنوعی رو سریع‌تر و ساده‌تر کنه. این ابزار جدید در راستای هدف فایربیس برای ساده‌سازی توسعه فول‌استک طراحی شده و به‌گونه‌ای ساخته شده که هم برای تازه‌کارها و هم برای توسعه‌دهنده‌های حرفه‌ای کاربردی باشه. از پروتوتایپ‌سازی با زبان طبیعی گرفته تا استفاده از ماشین مجازی قابل تنظیم، همه چیز توی یه پلتفرم یکپارچه جمع شده.

این ابزار که مشابه v0، bolt و cursor هست ترکیبیه از ابزارهایی مثل Project IDX، Genkit و Gemini in Firebase؛ و به توسعه‌دهنده‌ها این امکان رو می‌ده که در همون محیط، سریع نمونه اولیه بسازن، کد بزنن، پیش‌نمایش بگیرن، و در نهایت پروژه رو منتشر کنن. مثلاً با کمک «App Prototyping agent» می‌تونین با یه پرامپت ساده یا حتی یه عکس، خیلی سریع یه اپ Next.js تولید کنین.

یکی از قابلیت‌های جذاب دیگه، تعامل مستقیم با Gemini داخل خود Firebase Studio هست. کاربر می‌تونه با نوشتن یه دستور ساده مثل «احراز هویت کاربر رو اضافه کن» یا «رنگ دکمه‌ها رو تغییر بده»، تغییرات لازم رو توی اپش اعمال کنه، بدون این‌که خودش به کد دست بزنه. البته اگه کسی بخواد، می‌تونه مستقیماً وارد محیط کدنویسی بشه و مثل یه IDE کامل، از قابلیت‌هایی مثل تکمیل کد، دیباگ، ترمینال و... استفاده کنه.

برای تست پروژه هم نیازی به دانش فنی بالایی نیست. می‌تونین یه لینک عمومی یا QR code بسازین و روی هر دستگاهی پیش‌نمایش بگیرین. بعد از اطمینان از نتیجه، فقط کافیه روی «Publish» کلیک کنین تا پروژه‌تون با استفاده از Firebase App Hosting به‌صورت کامل روی وب منتشر بشه.

در نهایت، Firebase Studio امکاناتی مثل همکاری هم‌زمان روی پروژه، اشتراک‌گذاری محیط توسعه با لینک، دسترسی به ماشین مجازی ابری قابل تنظیم، و حتی استفاده از قالب‌های آماده یا ایمپورت پروژه‌های قدیمی رو هم فراهم کرده.
برای شروع، فقط کافیه وارد این لینک بشین.

@aipulse24
🔥22👍7🕊1
شرکت xAI بالاخره API مخصوص مدل پرچم‌دار خودش یعنی Grok 3 رو راه‌اندازی کرده. این مدل شامل چند نسخه مختلفه از جمله Grok 3 Mini، Grok 3 Reasoning و نسخه Mini اون با قابلیت «استدلال». کاربران می‌تونن به دو نسخه اصلی یعنی Grok 3 و Grok 3 Mini از طریق API دسترسی داشته باشن، و قیمت‌گذاری بسته به میزان توکن‌های ورودی یا خروجی محاسبه می‌شه.

نسخه استاندارد Grok 3 با قیمت ۳ دلار برای هر میلیون توکن ورودی و ۱۵ دلار برای هر میلیون توکن خروجی عرضه شده، در حالی‌ که Grok 3 Mini با نرخ پایین‌تر ۰.۳۰ دلار برای ورودی و ۰.۵۰ دلار برای خروجی در دسترسه. نسخه‌های سریع‌تر این مدل‌ها هم با هزینه بیشتر ارائه می‌شن، به‌طوری که استفاده از Grok 3 در حالت پرسرعت، ۵ دلار برای ورودی و ۲۵ دلار برای خروجی هزینه داره.

@aipulse24
13👍9
This media is not supported in your browser
VIEW IN TELEGRAM
پرپلکسیتی هم از ربات رسمی تلگرام خودش رونمایی کرده. از این پس میتونید داخل تلگرام باهاش چت کنید یا حتی به گروه‌هاتون اضافه‌ش کنید و ازش استفاده کنید.

این ربات از طریق آیدی @askplexbot در دسترسه.

@aipulse24
👍208
یک مدل مرموز چند روزه به Openrouter اضافه شده با عنوان Quasar Alpha که احتمال میره برای openai باشه و درحال تست قابلیت هاش هست.

مدل context window یک میلیونی داره، ۴برابر سریع تر از sonnet 3.7 هست و قابلیت های کدینگش نزدیک به بهترین مدل هاست

علت اینکه احساس میشه برای OpenAi باشه اینه که هم استایل و هم متا دیتا مدل مشابه مدل های OpenAi هست و سم التمن هم توی جواب یک تویئت که توی عکس میینید این رو تایید کرده که مدل برای OpenAi هست.

اینم جهت سیگنچر کار: 🍽

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
😁15🔥8👍2
AI Pulse
Video
This media is not supported in your browser
VIEW IN TELEGRAM
مدل OmniHuman ریلیز شد با اسم جدید Dreamina

به صورت فری تقریبا روزی یه دونه ویدیو میده که اونم من خرج شما عزیزان کردم😂😂

هعی:)) همه اش فداکاری😭

ولی محدودیتش زیاده توی وویس اول هم کلمه احمق داشتم و هم نارنجک مجبور شدم هردو رو حذف کنم تا جنریت کنه

ولی کیفیتش خیلی خوبه

با اکانت capcut میتونین ازش استفاده کنید.

Dreamina.capcut.com

@aipulse
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👍81❤‍🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
تفاوت MCP و A2A با رسم شکل!

@aipulse24
👍13
AI Pulse
💻پست مهم 💻 پژوهش های خیلی زیادی در رابطه با تحول نیروی کار و نحوه کار شرکت ها بعد از عرضه مدل های زبانی انجام شده خیلی از اون ها به شرایط حذف انسان ها از نیروهای شرکت های مختلف و جایگزینی اونها با هوش مصنوعی پرداختن. درمورد یکی از این پژوهش ها اینجا حرف…
اکی عزیزان فعلا تحقیقاتم تا همینجا قد داده
از اونجایی که این حوزه داره تازه شکل میگیره هنوز منابع زیادی براش نیست

که خوب خودش نشون میده زمینه ای هست که شاید بد نباشه یه نگاهی بهش داشته باشید و کلا دنبالش کنید

البته این مسیرها و اطلاعات بر این پایه هست که یک فرد برنامه نویس قصد داره وارد حوزه تخصصی AgentOps بشه پس یه سری اصول اولیه رو میدونه

چیزی که تو منابع مختلف اغلب تکرار شده

1. یادگیری مهندسی پرامپت هست نه پرامپت های معمولی بلکه چیزی که دولوپرها بهش نیاز دارن که Andrew Ng یک کورس توی همین زمینه داره

2. بعد از اون یادگرفتن فریمورک های مختلف ساخت ایجنت هست مثل LangChain

3. و بعد از اون فریم ورک هایی هست که به ایجنت ها امکان استفاده از ابزارها رو میده چیزهایی مثل MCP

4. قبل این ها هم انتظار میره نکات پایه ای تر مثل نحوه کار API ها، ساخت ایجنت های مبتنی بر RAG رو بلد باشید.

@aipluse24
15👍9🤮1
This media is not supported in your browser
VIEW IN TELEGRAM
خانم Sarah Friar مدیر ارشد مالی شرکت اوپن‌ای‌آی (CFO) در مصاحبه اخیرش گفته OpenAI داره روی یک مهندس نرم‌افزار در قالب یک ایجنت هوش مصنوعی کار میکنه که برخلاف ابزارهای کنونی که صرفا سرعت توسعه نرم افزار رو افزایش میدن، این ایجنت میتونه علاوه بر ساخت اپلیکیشن، Pull Request هارو هندل کنه، پیرامون برنامه توسعه داده شده پرسش و پاسخ داشته باشه، باگ هارو فیکس کنه و حتی برای برنامه داکیومنت بنویسه.

@aipulse24
🔥382😁1🤯1🍌1
‏OpenAI امروز از خانواده‌ی جدیدی از مدل‌های هوش مصنوعی به نام GPT-4.1 رونمایی کرد. این مدل‌ها شامل GPT-4.1، GPT-4.1 mini و GPT-4.1 nano هستن که همگی به‌گفته‌ی OpenAI توی برنامه‌نویسی و پیروی از دستورها عملکرد خیلی خوبی دارن. این مدل‌ها فقط از طریق API قابل دسترس هستن و هنوز وارد نسخه‌ی ChatGPT نشدن. یکی از ویژگی‌های برجسته‌ی GPT-4.1 داشتن کانتکست ویندوی ۱ میلیون توکنیه که تقریباً معادل ۷۵۰ هزار کلمه‌ست؛ یعنی می‌تونه متونی بلندتر از رمان «جنگ و صلح» رو یک‌جا پردازش کنه.

عرضه‌ی GPT-4.1 در شرایطی انجام شده که رقابت بین شرکت‌های بزرگی مثل گوگل، Anthropic و DeepSeek برای ساخت مدل‌های برنامه‌نویس قدرتمندتر بالا گرفته. گوگل مدل Gemini 2.5 Pro رو عرضه کرده که اونم کانتکست ویندوی ۱ میلیونی داره و توی بنچمارک‌های برنامه‌نویسی رتبه‌های بالایی کسب کرده. مدل Claude 3.7 Sonnet از شرکت Anthropic و نسخه‌ی جدید DeepSeek V3 هم عملکرد قابل توجهی داشتن. OpenAI هم هدف نهایی خودش رو ساختن یک «مهندس نرم افزار در قالب یک ایجنت هوش مصنوعی» اعلام کرده؛ مدلی که بتونه به‌تنهایی کل فرایند توسعه‌ی اپلیکیشن، از تست و رفع باگ تا نوشتن مستندات، رو انجام بده.

به‌گفته‌ی OpenAI، مدل GPT-4.1 نسبت به نسخه‌های قبلی مثل GPT-4o و GPT-4o mini توی بنچمارک‌هایی مثل SWE-bench عملکرد بهتری داره و دقیق‌تر کدنویسی می‌کنه، تغییرات غیرضروری کمتری میده و بهتر به فرمت‌ها و ترتیب پاسخ پایبنده. نسخه‌ی nano سریع‌ترین و ارزان‌ترین مدل تا الان شناخته شده. قیمت استفاده از این مدل‌ها هم به‌ترتیب برای هر یک میلیون توکن ورودی/خروجی: GPT-4.1، معادل ۲ و ۸ دلار؛ mini، معادل ۰.۴ و ۱.۶ دلار؛ و nano، معادل ۰.۱ و ۰.۴ دلاره.

‏OpenAI همچنین اعلام کرده که GPT-4.1 در تست Video-MME که برای ارزیابی توانایی درک محتوای ویدیویی طراحی شده، تونسته به دقت ۷۲٪ توی بخش «ویدیوهای بلند بدون زیرنویس» برسه. با اینکه این مدل اطلاعات به‌روزتری نسبت به نسخه‌های قبلی داره (تا ژوئن ۲۰۲۴)، اما همچنان ممکنه در انجام بعضی کارها اشتباه کنه؛ به‌خصوص وقتی با ورودی‌های خیلی طولانی مواجه می‌شه. طبق یکی از تست‌های داخلی OpenAI، دقت مدل از حدود ۸۴٪ با ۸۰۰۰ توکن، به ۵۰٪ با ۱ میلیون توکن کاهش پیدا کرده. همچنین، GPT-4.1 نسبت به GPT-4o گرایش بیشتری به تفسیر تحت‌اللفظی داره و گاهی نیاز به دستورهای دقیق‌تر داره.

@aipulse24
🔥213👍2❤‍🔥1🖕1