گوگل در مقاله جدیدش دربارهٔ Generative UI توضیح داده که چطور با کمک Gemini 3 Pro میتونه رابطهای کاربری رو بهصورت خودکار بسازه. این سیستم فقط یک مدل زبانی نیست؛ سه بخش مهم داره که کیفیت نتیجه رو چند برابر میکنه:
1.LLM تنها نیست.
مورد Generative UI با اتصال مدل به چند ابزار مهم مثل وبسرچ، تولید تصویر، دیتابیسها و APIها خروجی خیلی واقعیتر میسازه.
2.System Instructions قلب ماجراست.
مدل با یک سری دستورهای دقیق هدایت میشه:
ساختار UI، قوانین HTML/CSS/JS، مثالها، محدودیتها، و چطور از ابزارها استفاده کنه.
3.Post-Processing کیفیت رو تضمین میکنه.
خروجی مدل خامه یه لایهی پردازشگر بعدش تگهای اشتباه، مشکلات امنیتی، ساختار UI و نمایش مرورگر رو اصلاح میکنه.
4.نتیجه؟
مدل فقط توضیح متنی نمیده؛
رابط کاربری واقعی، قابل اجرا و قابل تعامل میسازه
5.کل سیستم سه ستون داره:
- دسترسی به ابزارها
- دستورالعملهای دقیق
- اصلاح خروجی مدل
این سهتا کنار هم باعث میشن AI بتونه مثل یک Front-End Developer خودکار رفتار کنه.
لینک مقاله
https://generativeui.github.io/static/pdfs/paper.pdf
@ | <Neurogenix/>
1.LLM تنها نیست.
مورد Generative UI با اتصال مدل به چند ابزار مهم مثل وبسرچ، تولید تصویر، دیتابیسها و APIها خروجی خیلی واقعیتر میسازه.
2.System Instructions قلب ماجراست.
مدل با یک سری دستورهای دقیق هدایت میشه:
ساختار UI، قوانین HTML/CSS/JS، مثالها، محدودیتها، و چطور از ابزارها استفاده کنه.
3.Post-Processing کیفیت رو تضمین میکنه.
خروجی مدل خامه یه لایهی پردازشگر بعدش تگهای اشتباه، مشکلات امنیتی، ساختار UI و نمایش مرورگر رو اصلاح میکنه.
4.نتیجه؟
مدل فقط توضیح متنی نمیده؛
رابط کاربری واقعی، قابل اجرا و قابل تعامل میسازه
5.کل سیستم سه ستون داره:
- دسترسی به ابزارها
- دستورالعملهای دقیق
- اصلاح خروجی مدل
این سهتا کنار هم باعث میشن AI بتونه مثل یک Front-End Developer خودکار رفتار کنه.
لینک مقاله
https://generativeui.github.io/static/pdfs/paper.pdf
@ | <Neurogenix/>
گوگل به کد ادیتور جدید به اسم Antigravity داده
یه vscode با کمک Gemini 3 Pro
یه جوریه انگار نسخهی preview باشه
https://antigravity.google/
* رو لینوکس که 403 میگرفتم و به سختی نصبش کردم.
@ | <Milad Niroee/>
یه vscode با کمک Gemini 3 Pro
یه جوریه انگار نسخهی preview باشه
https://antigravity.google/
* رو لینوکس که 403 میگرفتم و به سختی نصبش کردم.
@ | <Milad Niroee/>
Google Antigravity
Google Antigravity - Build the new way
خب جمینای ۳ هم منتشر شد!
نسخه اولیهاش تا اینجای کار خیلی جذاب به نظر میرسه.
تمرکز جمینای ۳ اینه که برای اولین بار مولتیمدل واقعی ارائه بده. علاوه بر این، ادعا میکنه بین همه مدلها بهترین توانایی تحلیل عمیق رو داره.
نکته مهم دیگه اینه که هدف اصلی این نسخه، بهبود استفاده از امکانات جمینای و ترکیب آن با ساخت اجنتها برای اتوماتیک کردن فرآیندهاست.
در کل از ۱۰ معرفی جالب اخیر در حوزه AI، هفتتاش متعلق به گوگل بوده و واقعا کارهای بزرگی انجام داده. امیدوارم بهش حسابی.
@ | <Farokh/>
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
نسخه اولیهاش تا اینجای کار خیلی جذاب به نظر میرسه.
تمرکز جمینای ۳ اینه که برای اولین بار مولتیمدل واقعی ارائه بده. علاوه بر این، ادعا میکنه بین همه مدلها بهترین توانایی تحلیل عمیق رو داره.
نکته مهم دیگه اینه که هدف اصلی این نسخه، بهبود استفاده از امکانات جمینای و ترکیب آن با ساخت اجنتها برای اتوماتیک کردن فرآیندهاست.
در کل از ۱۰ معرفی جالب اخیر در حوزه AI، هفتتاش متعلق به گوگل بوده و واقعا کارهای بزرگی انجام داده. امیدوارم بهش حسابی.
@ | <Farokh/>
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
Telegram
Labdon
Bardia invites you to add the folder “Labdon”, which includes 8 chats.
♨️ گوگل قفل نسل جدید هوش مصنوعی رو باز کرد!
▪️مدل Gemini 3 رسید، سریعتر، باهوشتر، بیتعارفتر ، گوگل رسماً نسل سوم جمنای رو معرفی کرد؛ قویترین مدلی که تا حالا ساخته. اولین عضو این خانواده، Gemini 3 Pro، تقریباً تو هر بخش یه لِوِل پُررنگتر شده :
▪️هوش بیشتر، لفاظی کمتر
جوابهاش دقیقتره، کمتر چاپلوسی میکنه و خروجیهاش خیلی به واقعیت نزدیکتر شدن.
📊 نتایج عجیب در تستهای سخت:
Humanity’s Last Exam → ٪37.5 و ٪41 در حالت Deep Think
همچنین ابزار جدید گوگل اجازه میده جمنای کنترل ادیتور، ترمینال و مرورگر رو بهدست بگیره و بخش عمده کارهای کدنویسی رو خودش انجام بده. روی ویندوز، مک و لینوکس کاملاً رایگان.
+ همچنین از اولین سری از Agent ها رونمایی کرده...تا کارهای چندمرحلهای رو خودش انجام بده ، مثلاً وصل میشه به Gmail و ایمیلهاتو مرتب میکنه.
▪️مدل Gemini 3 رسید، سریعتر، باهوشتر، بیتعارفتر ، گوگل رسماً نسل سوم جمنای رو معرفی کرد؛ قویترین مدلی که تا حالا ساخته. اولین عضو این خانواده، Gemini 3 Pro، تقریباً تو هر بخش یه لِوِل پُررنگتر شده :
▪️هوش بیشتر، لفاظی کمتر
جوابهاش دقیقتره، کمتر چاپلوسی میکنه و خروجیهاش خیلی به واقعیت نزدیکتر شدن.
📊 نتایج عجیب در تستهای سخت:
Humanity’s Last Exam → ٪37.5 و ٪41 در حالت Deep Think
همچنین ابزار جدید گوگل اجازه میده جمنای کنترل ادیتور، ترمینال و مرورگر رو بهدست بگیره و بخش عمده کارهای کدنویسی رو خودش انجام بده. روی ویندوز، مک و لینوکس کاملاً رایگان.
+ همچنین از اولین سری از Agent ها رونمایی کرده...تا کارهای چندمرحلهای رو خودش انجام بده ، مثلاً وصل میشه به Gmail و ایمیلهاتو مرتب میکنه.
‼️مدل Grok 4.1 هم معرفی شد؛ احساسی ترین و انسانی ترین هوش مصنوعی دنیا؟
▪️شرکت xAI نسخه تازه Grok 4.1 رو منتشر کرده ؛ مدلی که نهتنها توی بنچمارکها ترکونده، بلکه توی «هوش هیجانی» رسماً شماره یک شده.
• حرف زدنش طبیعیتر شده و جوابها انسانیتر، خلاقتر و پر از حس + یکم شر و شیطونتره ، نشونههایی از عدمصداقت و Manipulation داره؛ هم هیجانانگیزه، هم ریسکی
• امنیت پایینتر از نسخه قبل ؛ راحتتر میشه با Prompt Injection گولش زد و از همین امروز روی نسخه وب و اپ برای همه باز شده
+ جالبه بدونید که xAI چند وقتیه مربیهای انسانی تخصصی استخدام کرده؛ نتیجهش هم شده پاسخهایی که شبیه یک آدم واقعی حرف میزنن ، نه یک ربات خشک.
▪️شرکت xAI نسخه تازه Grok 4.1 رو منتشر کرده ؛ مدلی که نهتنها توی بنچمارکها ترکونده، بلکه توی «هوش هیجانی» رسماً شماره یک شده.
• حرف زدنش طبیعیتر شده و جوابها انسانیتر، خلاقتر و پر از حس + یکم شر و شیطونتره ، نشونههایی از عدمصداقت و Manipulation داره؛ هم هیجانانگیزه، هم ریسکی
• امنیت پایینتر از نسخه قبل ؛ راحتتر میشه با Prompt Injection گولش زد و از همین امروز روی نسخه وب و اپ برای همه باز شده
+ جالبه بدونید که xAI چند وقتیه مربیهای انسانی تخصصی استخدام کرده؛ نتیجهش هم شده پاسخهایی که شبیه یک آدم واقعی حرف میزنن ، نه یک ربات خشک.
SAM 3D can bring any 2D image to life, accurately reconstructing objects and humans, including their shape and pose.
این مدل جدید از Meta میتونه مدعیه که هر شیء توی عکس ۲ بعدی رو میتونه ۳ بعدی کنه و تحویل بده
#AI #Image #3D #2D #Shape #Meta
https://ai.meta.com/sam3d/
demo:https://aidemos.meta.com/segment-anything/editor/convert-image-to-3d
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
این مدل جدید از Meta میتونه مدعیه که هر شیء توی عکس ۲ بعدی رو میتونه ۳ بعدی کنه و تحویل بده
#AI #Image #3D #2D #Shape #Meta
https://ai.meta.com/sam3d/
demo:https://aidemos.meta.com/segment-anything/editor/convert-image-to-3d
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
Meta
SAM 3D
SAM 3D can bring any 2D image to life, accurately reconstructing objects and humans, including their shape and pose.
🔵 عنوان مقاله
Webinar: Making AI-powered teamwork a reality - the modern tech leader's playbook (Sponsor)
🟢 خلاصه مقاله:
**این وبینار اسپانسرشده با عنوان «Making AI-powered teamwork a reality — the modern tech leader’s playbook» بر پایه تازهترین پژوهش Atlassian درباره بهرهوری توسعهدهندگان، یک راهنمای عملی برای رهبران فنی ارائه میکند. در نشست زنده ۲۰ نوامبر، خواهید دید تیمهای مهندسی چگونه با بهرهگیری از AI در جریانهای کاری و مدیریت متمرکز دانش، زمان کارهای تکراری و اتلاف ناشی از جابهجایی مداوم بین کانتکستها را کم کرده و تمرکز را به نوآوری برمیگردانند.
وبینار بر اجرای عملی تأکید دارد: از راهاندازی آزمایشی امن، ادغام با ابزارهای موجود و تعیین خطمشیها و الزامات حریم خصوصی و امنیت، تا مدیریت تغییر و ارتقای مهارتها. همچنین روشهای سنجش اثرگذاری با معیارهای معنادار (جریان، زمان چرخه، تجربه توسعهدهنده) و ترجمه این بهبودها به نتایج کسبوکاری و ROI مطرح میشود.
مخاطبان—از مدیران مهندسی و Tech Leadها تا تیمهای Platform و DevOps—الگوها و ضدالگوهای واقعی، شیوههای همکاری میان مهندسی، محصول و امنیت، و گامهای بعدی مشخص برای پیادهسازی مؤثر AI را دریافت میکنند. برای دستیابی به چارچوبها، نمونهها و سنجههای لازم جهت واقعیسازی کار تیمی مبتنی بر AI، در برنامه زنده ۲۰ نوامبر شرکت کنید.
#AI #DeveloperProductivity #Atlassian #EngineeringLeadership #AIDrivenWorkflows #KnowledgeManagement #TeamCollaboration #Webinar
🟣لینک مقاله:
https://www.atlassian.com/webinars/enterprise-cloud/the-modern-tech-leaders-playbook-for-ai-powered-teamwork?utm_source=tldr&utm_medium=email&utm_campaign=P:twc*O:clm*F:awareness*C:webinar*H:fy26q2*I:tldr-ai-nov18*&utm_sfdc-campaign_id=701QB00000YINAjYAP
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Webinar: Making AI-powered teamwork a reality - the modern tech leader's playbook (Sponsor)
🟢 خلاصه مقاله:
**این وبینار اسپانسرشده با عنوان «Making AI-powered teamwork a reality — the modern tech leader’s playbook» بر پایه تازهترین پژوهش Atlassian درباره بهرهوری توسعهدهندگان، یک راهنمای عملی برای رهبران فنی ارائه میکند. در نشست زنده ۲۰ نوامبر، خواهید دید تیمهای مهندسی چگونه با بهرهگیری از AI در جریانهای کاری و مدیریت متمرکز دانش، زمان کارهای تکراری و اتلاف ناشی از جابهجایی مداوم بین کانتکستها را کم کرده و تمرکز را به نوآوری برمیگردانند.
وبینار بر اجرای عملی تأکید دارد: از راهاندازی آزمایشی امن، ادغام با ابزارهای موجود و تعیین خطمشیها و الزامات حریم خصوصی و امنیت، تا مدیریت تغییر و ارتقای مهارتها. همچنین روشهای سنجش اثرگذاری با معیارهای معنادار (جریان، زمان چرخه، تجربه توسعهدهنده) و ترجمه این بهبودها به نتایج کسبوکاری و ROI مطرح میشود.
مخاطبان—از مدیران مهندسی و Tech Leadها تا تیمهای Platform و DevOps—الگوها و ضدالگوهای واقعی، شیوههای همکاری میان مهندسی، محصول و امنیت، و گامهای بعدی مشخص برای پیادهسازی مؤثر AI را دریافت میکنند. برای دستیابی به چارچوبها، نمونهها و سنجههای لازم جهت واقعیسازی کار تیمی مبتنی بر AI، در برنامه زنده ۲۰ نوامبر شرکت کنید.
#AI #DeveloperProductivity #Atlassian #EngineeringLeadership #AIDrivenWorkflows #KnowledgeManagement #TeamCollaboration #Webinar
🟣لینک مقاله:
https://www.atlassian.com/webinars/enterprise-cloud/the-modern-tech-leaders-playbook-for-ai-powered-teamwork?utm_source=tldr&utm_medium=email&utm_campaign=P:twc*O:clm*F:awareness*C:webinar*H:fy26q2*I:tldr-ai-nov18*&utm_sfdc-campaign_id=701QB00000YINAjYAP
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Atlassian
The modern tech leader’s playbook for AI-powered teamwork | Atlassian
Join this webinar to learn how to cut tool sprawl, drive operational efficiencies, and truly unlock the power of AI for your engineering org.
🔵 عنوان مقاله
CUDA, Shmuda: Running AlphaFold on a MacBook Air (8 minute read)
🟢 خلاصه مقاله:
** این یادداشت نشان میدهد چطور یک توسعهدهنده توانسته AlphaFold را بدون نیاز به کارت گرافیک NVIDIA و چارچوب CUDA، روی یک MacBook Air با تراشه Apple M اجرا کند. محور کار استفاده از MLX است؛ چارچوبی که برای معماری حافظه یکپارچه Apple Silicon طراحی شده و انتقال داده بین CPU و GPU را به حداقل میرساند. نویسنده با دور زدن وابستگیهای CUDA و جایگزینی بخشهای CUDA-only، اجرای کامل مدل را ممکن کرده و نکات عملی مثل آمادهسازی محیط، دریافت وزنها و تنظیمات دقت و حافظه را توضیح میدهد. هرچند سرعت به پای یک کارت قدرتمند CUDA نمیرسد، اما برای پژوهش، آموزش و اجرای آفلاین، ترکیب کارایی، مصرف انرژی کم و دسترسپذیری دستگاههای Mac مزیت مهمی است. نتیجه کلی: با بلوغ MLX، اجرای مدلهای علمیِ حافظهبر و وابسته به CUDA مثل AlphaFold روی Apple Silicon روزبهروز عملیتر میشود.
#AlphaFold #MLX #AppleSilicon #CUDA #ARM #UnifiedMemory #MacBookAir #Bioinformatics
🟣لینک مقاله:
https://latentspacecraft.com/posts/mlx-protein-folding?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
CUDA, Shmuda: Running AlphaFold on a MacBook Air (8 minute read)
🟢 خلاصه مقاله:
** این یادداشت نشان میدهد چطور یک توسعهدهنده توانسته AlphaFold را بدون نیاز به کارت گرافیک NVIDIA و چارچوب CUDA، روی یک MacBook Air با تراشه Apple M اجرا کند. محور کار استفاده از MLX است؛ چارچوبی که برای معماری حافظه یکپارچه Apple Silicon طراحی شده و انتقال داده بین CPU و GPU را به حداقل میرساند. نویسنده با دور زدن وابستگیهای CUDA و جایگزینی بخشهای CUDA-only، اجرای کامل مدل را ممکن کرده و نکات عملی مثل آمادهسازی محیط، دریافت وزنها و تنظیمات دقت و حافظه را توضیح میدهد. هرچند سرعت به پای یک کارت قدرتمند CUDA نمیرسد، اما برای پژوهش، آموزش و اجرای آفلاین، ترکیب کارایی، مصرف انرژی کم و دسترسپذیری دستگاههای Mac مزیت مهمی است. نتیجه کلی: با بلوغ MLX، اجرای مدلهای علمیِ حافظهبر و وابسته به CUDA مثل AlphaFold روی Apple Silicon روزبهروز عملیتر میشود.
#AlphaFold #MLX #AppleSilicon #CUDA #ARM #UnifiedMemory #MacBookAir #Bioinformatics
🟣لینک مقاله:
https://latentspacecraft.com/posts/mlx-protein-folding?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
🔵 عنوان مقاله
RL is even more information inefficient than you thought (12 minute read)
🟢 خلاصه مقاله:
RL در مقایسه با یادگیری نظارتشده از نظر اطلاعاتی بسیار ناکارآمدتر است، چون برای دریافت یک پاداش واحد باید یک مسیر طولانی از اقدامها و توکنها را بازکرد (گاهی دهها هزار توکن) و در پایان تنها یک سیگنال پراکنده و پرنوسان گرفت؛ در حالیکه در پیشتمرین نظارتشده برای هر توکن یک سیگنال خطا دریافت میشود. نتیجه این است که چگالی اطلاعات هر نمونه در RL پایینتر و هزینه FLOPs برای هر سیگنال مؤثر بسیار بالاتر است، بهویژه در مراحل اولیه که اکتشافِ کمبازده نویز را زیاد میکند. پیامد عملی: هزینه محاسباتی و زمان شبیهسازی بالاتر، بهخصوص در RL برای مدلهای زبانی و RLHF که نیازمند زنجیرههای تفکر طولانیاند. راهکارهای کاهش شکاف شامل بوتاسترپ ارزش، برآورد مزیت، شکلدهی پاداش، زیانهای کمکی و خودنظارتی، استفاده از دادههای آفلاین، مدلمحور/وردمدل و موازیسازی گسترده است. با این حال، حتی با این روشها، عدم تقارن بنیادی باقی میماند؛ بنابراین رویکردهای ترکیبی مانند پیشتمرین نظارتشده گسترده و سپس RL هدفمند با پاداشِ شکلدادهشده و زیانهای کمکی معمولاً بهینهتر است.
#RL #ReinforcementLearning #SupervisedLearning #FLOPs #SampleEfficiency #ScalingLaws #RLHF #AICompute
🟣لینک مقاله:
https://www.dwarkesh.com/p/bits-per-sample?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
RL is even more information inefficient than you thought (12 minute read)
🟢 خلاصه مقاله:
RL در مقایسه با یادگیری نظارتشده از نظر اطلاعاتی بسیار ناکارآمدتر است، چون برای دریافت یک پاداش واحد باید یک مسیر طولانی از اقدامها و توکنها را بازکرد (گاهی دهها هزار توکن) و در پایان تنها یک سیگنال پراکنده و پرنوسان گرفت؛ در حالیکه در پیشتمرین نظارتشده برای هر توکن یک سیگنال خطا دریافت میشود. نتیجه این است که چگالی اطلاعات هر نمونه در RL پایینتر و هزینه FLOPs برای هر سیگنال مؤثر بسیار بالاتر است، بهویژه در مراحل اولیه که اکتشافِ کمبازده نویز را زیاد میکند. پیامد عملی: هزینه محاسباتی و زمان شبیهسازی بالاتر، بهخصوص در RL برای مدلهای زبانی و RLHF که نیازمند زنجیرههای تفکر طولانیاند. راهکارهای کاهش شکاف شامل بوتاسترپ ارزش، برآورد مزیت، شکلدهی پاداش، زیانهای کمکی و خودنظارتی، استفاده از دادههای آفلاین، مدلمحور/وردمدل و موازیسازی گسترده است. با این حال، حتی با این روشها، عدم تقارن بنیادی باقی میماند؛ بنابراین رویکردهای ترکیبی مانند پیشتمرین نظارتشده گسترده و سپس RL هدفمند با پاداشِ شکلدادهشده و زیانهای کمکی معمولاً بهینهتر است.
#RL #ReinforcementLearning #SupervisedLearning #FLOPs #SampleEfficiency #ScalingLaws #RLHF #AICompute
🟣لینک مقاله:
https://www.dwarkesh.com/p/bits-per-sample?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Dwarkesh
Thinking through how pretraining vs RL learn
And implications for RLVR progress
عجب چیزیه این Nano Banana Pro!
هر مقاله یا متن طولانیای رو که بهش بدی، سه سوته برات تبدیل میکنه به یه عکس وایتبردِ ترتمیز و پرجزئیات.
قشنگ خوراکِ کارهای آموزشیه.
اپل فارسی | AppleFarsi
هر مقاله یا متن طولانیای رو که بهش بدی، سه سوته برات تبدیل میکنه به یه عکس وایتبردِ ترتمیز و پرجزئیات.
قشنگ خوراکِ کارهای آموزشیه.
اپل فارسی | AppleFarsi
♨️ چت گروهی ChatGPT برای همه فعال شد ؛ تا 20 نفر در یک گفتگو با هوش مصنوعی!
▪️شرکت Open Ai بالاخره قابلیت Group Chat رو جهانی کرد؛ حالا چه نسخه رایگان باشی چه پولی، میتونی تا ۲۰ نفر رو بیاری داخل یه چت مشترک… همگی در کنار ChatGPT!
▪️از این به بعد ChatGPT فقط یه دستیار تکنفره نیست؛ تبدیل شده به یک «اتاق فکر مشترک» برای تیمها، خانوادهها و گروههای کاری.
▪️چه کارهایی میتونید باهاش انجام بدید؟
▫️سفر گروهی برنامهریزی کنید
▫️پروژه و تحقیق مشترک جلو ببرید
▫️اسناد رو با هم بنویسید
▫️ایدهپردازی تیمی داشته باشید
▫️اختلاف نظرها رو با کمک AI حل کنید
▫️و ChatGPT وسط بحث، براتون مقایسه کنه، خلاصه بده یا جستجو انجام بده
@
▪️شرکت Open Ai بالاخره قابلیت Group Chat رو جهانی کرد؛ حالا چه نسخه رایگان باشی چه پولی، میتونی تا ۲۰ نفر رو بیاری داخل یه چت مشترک… همگی در کنار ChatGPT!
▪️از این به بعد ChatGPT فقط یه دستیار تکنفره نیست؛ تبدیل شده به یک «اتاق فکر مشترک» برای تیمها، خانوادهها و گروههای کاری.
▪️چه کارهایی میتونید باهاش انجام بدید؟
▫️سفر گروهی برنامهریزی کنید
▫️پروژه و تحقیق مشترک جلو ببرید
▫️اسناد رو با هم بنویسید
▫️ایدهپردازی تیمی داشته باشید
▫️اختلاف نظرها رو با کمک AI حل کنید
▫️و ChatGPT وسط بحث، براتون مقایسه کنه، خلاصه بده یا جستجو انجام بده
@
♨️ 4 آمریکایی در خطر 200 سال زندان؛ قاچاق GPUهای انویدیا به چین لو رفت!
▪️یک پرونده سنگین در آمریکا باز شده که چهار شهروند این کشور رو بهخاطر قاچاق پردازندههای ممنوعه هوش مصنوعی به چین، تا مرز 2 قرن زندان برده!
▪️طبق اعلام وزارت دادگستری آمریکا، این افراد با شبکهای از شرکتهای پوششی و اسناد جعلی تونستن :
400 عدد A100
تلاش برای ارسال 50 عدد H200
و حتی 10 ابرکامپیوتر HPE مجهز به H100 رو از مسیرهایی مثل هنگکنگ، مالزی و تایلند رد کنن و تحویل چین بدن.
@
▪️یک پرونده سنگین در آمریکا باز شده که چهار شهروند این کشور رو بهخاطر قاچاق پردازندههای ممنوعه هوش مصنوعی به چین، تا مرز 2 قرن زندان برده!
▪️طبق اعلام وزارت دادگستری آمریکا، این افراد با شبکهای از شرکتهای پوششی و اسناد جعلی تونستن :
400 عدد A100
تلاش برای ارسال 50 عدد H200
و حتی 10 ابرکامپیوتر HPE مجهز به H100 رو از مسیرهایی مثل هنگکنگ، مالزی و تایلند رد کنن و تحویل چین بدن.
@
⁉️ چطور ChatGPT رو دقیقاً مطابق کار خودت شخصیسازی کنی؟
▪️ویژگی جدید Personalization باعث میشه چتهات سه برابر بهتر، مرتبطتر و بدون حاشیهی اضافی بشن ، فقط کافیه چند تنظیم کوچیک رو انجام بدی.
🌀 داخل تنظیمات برید تو بخش Personalization ، چند لحن مختلف وجود داره که هرکدوم برای یک موقعیته.
بهترینش رو باید بر اساس نیازت انتخاب کنی :
❗️لحن Default که خنثی و حرفهای؛ مناسب مکالمات عمومی و آموزشی.
❗️لحن Professional : رسمی و دقیق؛ برای تحلیلهای کاری، لوگو، استراتژی محتوا و… عالیه.
❗️لحن Friendly گرم و صمیمی؛ برای بیان راحت، مکالمات دوستانه و توضیح ساده مفاهیم.
❗️لحن Efficient ، خیلی مختصر، سریع و کاربردی؛ برای جوابهای فنی و تصمیمگیری فوری.
❗️لحن Cynical ، کمی طعنهدار و تیز؛ مناسب نقد یا نگاه بدبینانه.
❗️لحن Nerdy ، عاشق توضیحهای عمیق و علمی؛ مخصوص تکنولوژی، ریاضی و مباحث پیچیده.
❗️لحن Candid ، رک و صریح؛ بدون تعارف، کاملاً مستقیم.
❗️لحن Quirky ، خلاق و غیرمعمول؛ عالی برای ایدهپردازی، داستانسازی و کارهای فانتزی.
@
▪️ویژگی جدید Personalization باعث میشه چتهات سه برابر بهتر، مرتبطتر و بدون حاشیهی اضافی بشن ، فقط کافیه چند تنظیم کوچیک رو انجام بدی.
🌀 داخل تنظیمات برید تو بخش Personalization ، چند لحن مختلف وجود داره که هرکدوم برای یک موقعیته.
بهترینش رو باید بر اساس نیازت انتخاب کنی :
❗️لحن Default که خنثی و حرفهای؛ مناسب مکالمات عمومی و آموزشی.
❗️لحن Professional : رسمی و دقیق؛ برای تحلیلهای کاری، لوگو، استراتژی محتوا و… عالیه.
❗️لحن Friendly گرم و صمیمی؛ برای بیان راحت، مکالمات دوستانه و توضیح ساده مفاهیم.
❗️لحن Efficient ، خیلی مختصر، سریع و کاربردی؛ برای جوابهای فنی و تصمیمگیری فوری.
❗️لحن Cynical ، کمی طعنهدار و تیز؛ مناسب نقد یا نگاه بدبینانه.
❗️لحن Nerdy ، عاشق توضیحهای عمیق و علمی؛ مخصوص تکنولوژی، ریاضی و مباحث پیچیده.
❗️لحن Candid ، رک و صریح؛ بدون تعارف، کاملاً مستقیم.
❗️لحن Quirky ، خلاق و غیرمعمول؛ عالی برای ایدهپردازی، داستانسازی و کارهای فانتزی.
@
❤1
خبر داغ برنامهنویسا : گزارش Stack Overflow 2025 نشون میده ۸۴% دولوپرها از AI مثل ChatGPT و GitHub Copilot استفاده میکنن، اما ۶۶% کلافه از کدهای 'تقریباً باگی' هستن! Cursor و Copilot دارن کدینگ رو متحول میکنن، ولی دیباگش وقتگیره.
https://survey.stackoverflow.co/2025/ai/
<Arash/>
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
https://survey.stackoverflow.co/2025/ai/
<Arash/>
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
❤1
Forwarded from Linux Labdon
کاهش هزینه سیستمهای هوش مصنوعی با Semantic Caching
با رشد مدلهای زبانی بزرگ و پیشرفته، هزینه و زمان پاسخدهی هم به شدت افزایش پیدا کرده. مدلهایی مثل GPT-5 یا Claude برای کارهای پیچیده فوقالعادهاند، ولی استفاده از اونها هم پرهزینه و هم کند محسوب میشه. از طرف دیگه، AI Agentها واقعاً «توکنخور» هستن؛ یعنی برای انجام یک کار معمولاً چندین مرحله طی میکنن: تحقیق، برنامهریزی، عمل و بازتاب و تکرار. همین باعث میشه چندین بار با مدل تماس بگیرن و در نتیجه هزینه و تأخیر افزایش پیدا کنه و متنهای طولانیتر تولید بشه. برای مثال، یه بنچمارک اخیر از TheAgentCompany در ۲۰۲۵ نشون داده اجرای کامل یک Agent گاهی تا ۶.۸ دلار هزینه داره.
یکی از مشکلات اصلی در دنیای واقعی، تکراری بودن سوالهاست، مخصوصاً توی پشتیبانی مشتری. کاربران دائماً سوالهای مشابهی میپرسن: مثل «چطور پولم رو پس بگیرم؟» یا «شرایط بازگشت وجه چیه؟» و Agent مجبور میشه هر بار پاسخ رو از صفر تولید کنه. نتیجهش افزایش هزینه، طولانی شدن زمان پاسخ و فشار بیشتر روی سیستمهای RAG و زیرساختهاست.
در نگاه اول، ممکنه فکر کنیم کش کلاسیک کفایت میکنه. ایدهی کش ساده اینه که اگر یک سوال قبلاً پاسخ داده شده، دوباره سراغ مدل نریم. ولی مشکل اینجاست که کش سنتی دنبال Exact Match یا تطابق دقیق متنه. سوالهایی که از نظر معنی یکی هستن ولی عبارتهاشون فرق میکنه، مثل: «میخوام پولم رو پس بگیرم»، «چطور میتونم درخواست بازگشت وجه بدم؟» و «سیاست بازگشت پولتون چیه؟»، همه Cache Miss میشن و کش عملاً استفاده نمیشه.
اینجاست که Semantic Caching وارد میشه. به جای تطابق کلمهبهکلمه، کش به معنی و مفهوم جمله نگاه میکنه. مزیت اصلیش اینه که Recall و Hit Rate بالاتره و احتمال استفاده از کش و صرفهجویی خیلی بیشتر میشه. البته چالشش هم اینه که گاهی ممکنه جواب بیربط بده یا همون «False Positive» رخ بده.
روش کار Semantic Caching ساده است ولی هوشمندانه: ابتدا سوال کاربر به Embedding یا بردار عددی تبدیل میشه. بعد با بردارهای موجود در کش با Semantic Search مقایسه میشه. اگر فاصله معنایی کم باشه، پاسخ از کش برگردونده میشه؛ در غیر این صورت به RAG یا LLM میریم. در نهایت سوال و پاسخ جدید هم ذخیره میشه تا دفعه بعدی قابل استفاده باشه.
پیادهسازی Semantic Caching با چالشهایی همراهه؛ مثل دقت (Accuracy) که آیا کش جواب درست میده، کارایی (Performance) و میزان Cache Hit، سرعت سرویسدهی، آپدیتپذیری کش و اینکه آیا میتونیم کش رو گرم، تازهسازی یا پاکسازی کنیم. همچنین مشاهدهپذیری (Observability) مهمه تا بتونیم hit rate، latency، صرفهجویی هزینه و کیفیت کش رو بسنجیم.
معیارهای اصلی سنجش کش شامل Cache Hit Rate هست که نشون میده چند درصد درخواستها از کش پاسخ داده میشن و Precision/Recall/F1 Score که کیفیت و دقت پاسخها رو مشخص میکنه. برای بهبود دقت و کارایی کش هم میتونیم Threshold فاصله رو تنظیم کنیم، Reranker اضافه کنیم مثل Cross-encoder یا LLM-as-a-judge، از Fuzzy Matching برای تایپوها استفاده کنیم و فیلترهای اضافی مثل تشخیص پرسشهای زمانمحور (Temporal) یا تشخیص کد (Python، Java و…) اعمال کنیم تا سوالات اشتباه وارد کش نشن.
یه مثال واقعی از این تکنولوژی پروژه waLLMartCache در Walmart هست. اونها با نوآوریهایی مثل Load Balancer برای توزیع کش روی چند Node و Dual-tiered Storage که L1 = Vector DB و L2 = In-memory Cache مثل Redis هست، هم سرعت و هم دقت رو بالا بردن. Multi-tenancy هم باعث شده چند تیم یا اپلیکیشن از یک زیرساخت مشترک استفاده کنن. Decision Engine هم شامل تشخیص کد و زمانه و اگر سوال مناسب کش نباشه مستقیماً به LLM یا RAG میره. نتیجهش رسیدن به دقت نزدیک ۹۰٪ بوده.
<Reza Jafari/>
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
با رشد مدلهای زبانی بزرگ و پیشرفته، هزینه و زمان پاسخدهی هم به شدت افزایش پیدا کرده. مدلهایی مثل GPT-5 یا Claude برای کارهای پیچیده فوقالعادهاند، ولی استفاده از اونها هم پرهزینه و هم کند محسوب میشه. از طرف دیگه، AI Agentها واقعاً «توکنخور» هستن؛ یعنی برای انجام یک کار معمولاً چندین مرحله طی میکنن: تحقیق، برنامهریزی، عمل و بازتاب و تکرار. همین باعث میشه چندین بار با مدل تماس بگیرن و در نتیجه هزینه و تأخیر افزایش پیدا کنه و متنهای طولانیتر تولید بشه. برای مثال، یه بنچمارک اخیر از TheAgentCompany در ۲۰۲۵ نشون داده اجرای کامل یک Agent گاهی تا ۶.۸ دلار هزینه داره.
یکی از مشکلات اصلی در دنیای واقعی، تکراری بودن سوالهاست، مخصوصاً توی پشتیبانی مشتری. کاربران دائماً سوالهای مشابهی میپرسن: مثل «چطور پولم رو پس بگیرم؟» یا «شرایط بازگشت وجه چیه؟» و Agent مجبور میشه هر بار پاسخ رو از صفر تولید کنه. نتیجهش افزایش هزینه، طولانی شدن زمان پاسخ و فشار بیشتر روی سیستمهای RAG و زیرساختهاست.
در نگاه اول، ممکنه فکر کنیم کش کلاسیک کفایت میکنه. ایدهی کش ساده اینه که اگر یک سوال قبلاً پاسخ داده شده، دوباره سراغ مدل نریم. ولی مشکل اینجاست که کش سنتی دنبال Exact Match یا تطابق دقیق متنه. سوالهایی که از نظر معنی یکی هستن ولی عبارتهاشون فرق میکنه، مثل: «میخوام پولم رو پس بگیرم»، «چطور میتونم درخواست بازگشت وجه بدم؟» و «سیاست بازگشت پولتون چیه؟»، همه Cache Miss میشن و کش عملاً استفاده نمیشه.
اینجاست که Semantic Caching وارد میشه. به جای تطابق کلمهبهکلمه، کش به معنی و مفهوم جمله نگاه میکنه. مزیت اصلیش اینه که Recall و Hit Rate بالاتره و احتمال استفاده از کش و صرفهجویی خیلی بیشتر میشه. البته چالشش هم اینه که گاهی ممکنه جواب بیربط بده یا همون «False Positive» رخ بده.
روش کار Semantic Caching ساده است ولی هوشمندانه: ابتدا سوال کاربر به Embedding یا بردار عددی تبدیل میشه. بعد با بردارهای موجود در کش با Semantic Search مقایسه میشه. اگر فاصله معنایی کم باشه، پاسخ از کش برگردونده میشه؛ در غیر این صورت به RAG یا LLM میریم. در نهایت سوال و پاسخ جدید هم ذخیره میشه تا دفعه بعدی قابل استفاده باشه.
پیادهسازی Semantic Caching با چالشهایی همراهه؛ مثل دقت (Accuracy) که آیا کش جواب درست میده، کارایی (Performance) و میزان Cache Hit، سرعت سرویسدهی، آپدیتپذیری کش و اینکه آیا میتونیم کش رو گرم، تازهسازی یا پاکسازی کنیم. همچنین مشاهدهپذیری (Observability) مهمه تا بتونیم hit rate، latency، صرفهجویی هزینه و کیفیت کش رو بسنجیم.
معیارهای اصلی سنجش کش شامل Cache Hit Rate هست که نشون میده چند درصد درخواستها از کش پاسخ داده میشن و Precision/Recall/F1 Score که کیفیت و دقت پاسخها رو مشخص میکنه. برای بهبود دقت و کارایی کش هم میتونیم Threshold فاصله رو تنظیم کنیم، Reranker اضافه کنیم مثل Cross-encoder یا LLM-as-a-judge، از Fuzzy Matching برای تایپوها استفاده کنیم و فیلترهای اضافی مثل تشخیص پرسشهای زمانمحور (Temporal) یا تشخیص کد (Python، Java و…) اعمال کنیم تا سوالات اشتباه وارد کش نشن.
یه مثال واقعی از این تکنولوژی پروژه waLLMartCache در Walmart هست. اونها با نوآوریهایی مثل Load Balancer برای توزیع کش روی چند Node و Dual-tiered Storage که L1 = Vector DB و L2 = In-memory Cache مثل Redis هست، هم سرعت و هم دقت رو بالا بردن. Multi-tenancy هم باعث شده چند تیم یا اپلیکیشن از یک زیرساخت مشترک استفاده کنن. Decision Engine هم شامل تشخیص کد و زمانه و اگر سوال مناسب کش نباشه مستقیماً به LLM یا RAG میره. نتیجهش رسیدن به دقت نزدیک ۹۰٪ بوده.
<Reza Jafari/>
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
❤1
CLAUDE.md: Best Practices Learned from Optimizing Claude Code with Prompt Learning
https://arize.com/blog/claude-md-best-practices-learned-from-optimizing-claude-code-with-prompt-learning/
https://arize.com/blog/claude-md-best-practices-learned-from-optimizing-claude-code-with-prompt-learning/
Arize AI
CLAUDE.md: Best Practices Learned from Optimizing Claude Code with Prompt Learning
How to optimize Claude Code's system prompt to achieve +10% boost on SWE Bench with no architecture changes, tool tweaks, or fine-tuning.
🔵 عنوان مقاله
Intelligence per Watt: Measuring Intelligence Efficiency of Local AI (30 minute read)
🟢 خلاصه مقاله:
** این مقاله «هوشمندی بر واحد وات» را بهعنوان معیاری عملی برای آیندهٔ AI معرفی میکند: سنجش اینکه یک سیستم با چه کیفیتی و با چه مقدار انرژی میتواند کار مفید انجام دهد. در حالیکه frontier models عمدتاً روی cloud اجرا میشوند و فشار قابلتوجهی بر شبکههای برق وارد میکنند، شکاف عملکردی آنها با مدلهای کوچکتر که روی لپتاپ و گوشی اجرا میشوند رو به کاهش است.
نویسنده پیشنهاد میدهد کارایی را نه صرفاً با سرعت، بلکه با «کیفیت بر حسب انرژی» بسنجیم: دقت یا موفقیت در هر ژول، انرژی بهازای هر توکن تحت آستانهٔ کیفیت، و سنجهٔ ترکیبی تأخیر–انرژی. برای کارهای چندرسانهای، «انرژی بهازای تکمیل یک وظیفه» تصویر واقعیتری ارائه میدهد.
در عین حال، اندازهگیری منصفانه دشوار است و به مجموعهداده و پرامپتهای استاندارد، تنظیمات یکنواخت، اندازهگیری انرژی در سطح کل دستگاه، و گزارش جزییات سختافزار/نرمافزار و عدمقطعیتها نیاز دارد.
جمعبندی: اگر یک مدل محلی با انرژی کمتر به کیفیت نزدیک به هدف برسد، علاوه بر کاهش هزینه و تأخیر، فشار بر شبکه برق را هم کم میکند؛ cloud برای آموزش و استنتاجهای سنگین همچنان ضروری است. یک راهبرد ترکیبی—محلی بهصورت پیشفرض و ابر در صورت نیاز—میتواند تعادل کیفیت، پایداری و پرفرمنس را حفظ کند. در نهایت، استانداردهای شفاف برای ارزیابی انرژیمحور و پیشرفتهای معماری و نرمافزاری، مرز «هوشمندی بر واحد وات» را بهپیش خواهند برد.
#IntelligencePerWatt #LocalAI #EdgeAI #EnergyEfficiency #OnDeviceAI #AIInfrastructure #Sustainability #AIBenchmarking
🟣لینک مقاله:
https://arxiv.org/abs/2511.07885?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Intelligence per Watt: Measuring Intelligence Efficiency of Local AI (30 minute read)
🟢 خلاصه مقاله:
** این مقاله «هوشمندی بر واحد وات» را بهعنوان معیاری عملی برای آیندهٔ AI معرفی میکند: سنجش اینکه یک سیستم با چه کیفیتی و با چه مقدار انرژی میتواند کار مفید انجام دهد. در حالیکه frontier models عمدتاً روی cloud اجرا میشوند و فشار قابلتوجهی بر شبکههای برق وارد میکنند، شکاف عملکردی آنها با مدلهای کوچکتر که روی لپتاپ و گوشی اجرا میشوند رو به کاهش است.
نویسنده پیشنهاد میدهد کارایی را نه صرفاً با سرعت، بلکه با «کیفیت بر حسب انرژی» بسنجیم: دقت یا موفقیت در هر ژول، انرژی بهازای هر توکن تحت آستانهٔ کیفیت، و سنجهٔ ترکیبی تأخیر–انرژی. برای کارهای چندرسانهای، «انرژی بهازای تکمیل یک وظیفه» تصویر واقعیتری ارائه میدهد.
در عین حال، اندازهگیری منصفانه دشوار است و به مجموعهداده و پرامپتهای استاندارد، تنظیمات یکنواخت، اندازهگیری انرژی در سطح کل دستگاه، و گزارش جزییات سختافزار/نرمافزار و عدمقطعیتها نیاز دارد.
جمعبندی: اگر یک مدل محلی با انرژی کمتر به کیفیت نزدیک به هدف برسد، علاوه بر کاهش هزینه و تأخیر، فشار بر شبکه برق را هم کم میکند؛ cloud برای آموزش و استنتاجهای سنگین همچنان ضروری است. یک راهبرد ترکیبی—محلی بهصورت پیشفرض و ابر در صورت نیاز—میتواند تعادل کیفیت، پایداری و پرفرمنس را حفظ کند. در نهایت، استانداردهای شفاف برای ارزیابی انرژیمحور و پیشرفتهای معماری و نرمافزاری، مرز «هوشمندی بر واحد وات» را بهپیش خواهند برد.
#IntelligencePerWatt #LocalAI #EdgeAI #EnergyEfficiency #OnDeviceAI #AIInfrastructure #Sustainability #AIBenchmarking
🟣لینک مقاله:
https://arxiv.org/abs/2511.07885?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
arXiv.org
Intelligence per Watt: Measuring Intelligence Efficiency of Local AI
Large language model (LLM) queries are predominantly processed by frontier models in centralized cloud infrastructure. Rapidly growing demand strains this paradigm, and cloud providers struggle to...
🔵 عنوان مقاله
WeatherNext 2: Our most advanced weather forecasting model (4 minute read)
🟢 خلاصه مقاله:
** WeatherNext 2 یک مدل AI برای ارائه پیشبینیهای آبوهوایی جهانی دقیق، کارآمد و با تفکیکپذیری بالا است و میتواند پیشبینیهایی با بازه زمانی تا یک ساعت تولید کند. دادههای پیشبینی این مدل منتشر شده تا پژوهشگران، توسعهدهندگان و نهادهای عمومی بتوانند آن را تحلیل کرده و در ساخت ابزارها و سرویسهای جدید بهکار بگیرند. در هفتههای آینده، WeatherNext 2 برای تقویت اطلاعات آبوهوایی در Google Maps ادغام میشود تا دقت و بهموقع بودن اطلاعات در تجربه مسیریابی و برنامهریزی سفر کاربران بهبود یابد.
#WeatherNext2 #AI #WeatherForecasting #GoogleMaps #HighResolution #DataRelease #Geospatial #ClimateTech
🟣لینک مقاله:
https://blog.google/technology/google-deepmind/weathernext-2/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
WeatherNext 2: Our most advanced weather forecasting model (4 minute read)
🟢 خلاصه مقاله:
** WeatherNext 2 یک مدل AI برای ارائه پیشبینیهای آبوهوایی جهانی دقیق، کارآمد و با تفکیکپذیری بالا است و میتواند پیشبینیهایی با بازه زمانی تا یک ساعت تولید کند. دادههای پیشبینی این مدل منتشر شده تا پژوهشگران، توسعهدهندگان و نهادهای عمومی بتوانند آن را تحلیل کرده و در ساخت ابزارها و سرویسهای جدید بهکار بگیرند. در هفتههای آینده، WeatherNext 2 برای تقویت اطلاعات آبوهوایی در Google Maps ادغام میشود تا دقت و بهموقع بودن اطلاعات در تجربه مسیریابی و برنامهریزی سفر کاربران بهبود یابد.
#WeatherNext2 #AI #WeatherForecasting #GoogleMaps #HighResolution #DataRelease #Geospatial #ClimateTech
🟣لینک مقاله:
https://blog.google/technology/google-deepmind/weathernext-2/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Google
WeatherNext 2: Our most advanced weather forecasting model
The new AI model delivers more efficient, more accurate and higher-resolution global weather predictions.
🔵 عنوان مقاله
Arm custom chips get a boost with Nvidia partnership (3 minute read)
🟢 خلاصه مقاله:
Arm و Nvidia همکاری خود را گسترش دادهاند تا اتصال مستقیم بین CPUهای Arm-based مبتنی بر Neoverse و GPUهای Nvidia از طریق فناوری NVLink Fusion امکانپذیر شود. این پیوند پرظرفیت و کمتأخیر ارتباط CPU–GPU را بهبود میدهد و اجرای بارهای کاری دادهمحور و AI/ML را کارآمدتر میکند، در حالیکه انعطافپذیری بیشتری در طراحی سرورها و کلاسترها فراهم میآورد. همزمان، Microsoft، Amazon و Google در مقیاس ابری به توسعه یا استقرار CPUهای Arm روی آوردهاند؛ بنابراین این همکاری، پیادهسازی سامانههای ترکیبی Arm+Nvidia را برای ارائهدهندگان ابر و مشتریان سازمانی سادهتر میکند. پیام استراتژیک این اعلام نیز روشن است: Nvidia با گشودن پلتفرم NVLink و عدم محدود کردن آن به CPUهای خود، به مشتریان اختیار انتخاب بیشتری میدهد و مسیر نوآوری در حوزههای AI، HPC و تحلیل داده را هموارتر میسازد.
#Arm #Nvidia #NVLink #Neoverse #GPUs #CloudComputing #AIInfrastructure #HPC
🟣لینک مقاله:
https://www.cnbc.com/2025/11/17/arm-nvidia-nvlink-partnership-custom-cpu.html?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Arm custom chips get a boost with Nvidia partnership (3 minute read)
🟢 خلاصه مقاله:
Arm و Nvidia همکاری خود را گسترش دادهاند تا اتصال مستقیم بین CPUهای Arm-based مبتنی بر Neoverse و GPUهای Nvidia از طریق فناوری NVLink Fusion امکانپذیر شود. این پیوند پرظرفیت و کمتأخیر ارتباط CPU–GPU را بهبود میدهد و اجرای بارهای کاری دادهمحور و AI/ML را کارآمدتر میکند، در حالیکه انعطافپذیری بیشتری در طراحی سرورها و کلاسترها فراهم میآورد. همزمان، Microsoft، Amazon و Google در مقیاس ابری به توسعه یا استقرار CPUهای Arm روی آوردهاند؛ بنابراین این همکاری، پیادهسازی سامانههای ترکیبی Arm+Nvidia را برای ارائهدهندگان ابر و مشتریان سازمانی سادهتر میکند. پیام استراتژیک این اعلام نیز روشن است: Nvidia با گشودن پلتفرم NVLink و عدم محدود کردن آن به CPUهای خود، به مشتریان اختیار انتخاب بیشتری میدهد و مسیر نوآوری در حوزههای AI، HPC و تحلیل داده را هموارتر میسازد.
#Arm #Nvidia #NVLink #Neoverse #GPUs #CloudComputing #AIInfrastructure #HPC
🟣لینک مقاله:
https://www.cnbc.com/2025/11/17/arm-nvidia-nvlink-partnership-custom-cpu.html?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
CNBC
Arm custom chips get a boost with Nvidia partnership
Arm doesn't make CPUs but it licenses its instruction set technology and sells designs that customers can build their chips on top of.
خبر خوب برای برنامه نویسانی که میخوان AI به پروژ هاشون اضافه کنند
فریمورک byLLM که به کمکش میتونی مدل عظیم زبانی (LLM) رو توی نرمافزارات با فقط یک خط کد وارد کنی، بدون اینکه پرامپتانجینیری دستی بکنی! این یعنی وقت کمتر روی طراحی پرامپت و بیشتر روی منطق واقعی
دانشگاه میشیگان
با زبان Jac کار میکنه (زبان برنامهنویسی ساختهٔ Jaseci) ولی رابط پایتونی هم داره. هوش مصنوعی
برای شروع میتونی پکیج رو با:
pip install byllm
گیت هاب پروژ
https://github.com/jaseci-labs/jaseci/tree/main/jac-byllm
<Arash/>
فریمورک byLLM که به کمکش میتونی مدل عظیم زبانی (LLM) رو توی نرمافزارات با فقط یک خط کد وارد کنی، بدون اینکه پرامپتانجینیری دستی بکنی! این یعنی وقت کمتر روی طراحی پرامپت و بیشتر روی منطق واقعی
دانشگاه میشیگان
با زبان Jac کار میکنه (زبان برنامهنویسی ساختهٔ Jaseci) ولی رابط پایتونی هم داره. هوش مصنوعی
برای شروع میتونی پکیج رو با:
pip install byllm
گیت هاب پروژ
https://github.com/jaseci-labs/jaseci/tree/main/jac-byllm
<Arash/>
GitHub
jaseci/jac-byllm at main · jaseci-labs/jaseci
The Official Jaseci Code Repository. Contribute to jaseci-labs/jaseci development by creating an account on GitHub.
🔵 عنوان مقاله
New ways to plan travel with AI in Search (4 minute read)
🟢 خلاصه مقاله:
ابزارهای جدید مبتنی بر هوش مصنوعی در Search برنامهریزی سفر را سادهتر کردهاند. Canvas در AI Mode اکنون میتواند با کنار هم گذاشتن دادههای پرواز، مقایسه هتلها، بررسیهای Maps و پیشنهاد رستورانها، یک برنامه سفر کامل بسازد. شما میتوانید مقصد، تاریخ، بودجه، علایق و ترکیب همراهان را مشخص کنید و سیستم، گزینهها را بهصورت منسجم و قابل ویرایش ارائه میکند؛ از معرفی پروازها و هتلهای مناسب تا جمعبندی نکات مهم از بررسیهای کاربران در Maps و پیشنهاد رستورانهای همسو با سلیقه و بودجه. همه اینها داخل Search انجام میشود تا بدون جابهجایی میان تبهای متعدد، یک برنامه سفر روشن و قابل شخصیسازی در اختیار داشته باشید.
#AI #TravelPlanning #Search #Canvas #AIMode #Maps #Itinerary #TravelTech
🟣لینک مقاله:
https://blog.google/products/search/agentic-plans-booking-travel-canvas-ai-mode/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
New ways to plan travel with AI in Search (4 minute read)
🟢 خلاصه مقاله:
ابزارهای جدید مبتنی بر هوش مصنوعی در Search برنامهریزی سفر را سادهتر کردهاند. Canvas در AI Mode اکنون میتواند با کنار هم گذاشتن دادههای پرواز، مقایسه هتلها، بررسیهای Maps و پیشنهاد رستورانها، یک برنامه سفر کامل بسازد. شما میتوانید مقصد، تاریخ، بودجه، علایق و ترکیب همراهان را مشخص کنید و سیستم، گزینهها را بهصورت منسجم و قابل ویرایش ارائه میکند؛ از معرفی پروازها و هتلهای مناسب تا جمعبندی نکات مهم از بررسیهای کاربران در Maps و پیشنهاد رستورانهای همسو با سلیقه و بودجه. همه اینها داخل Search انجام میشود تا بدون جابهجایی میان تبهای متعدد، یک برنامه سفر روشن و قابل شخصیسازی در اختیار داشته باشید.
#AI #TravelPlanning #Search #Canvas #AIMode #Maps #Itinerary #TravelTech
🟣لینک مقاله:
https://blog.google/products/search/agentic-plans-booking-travel-canvas-ai-mode/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Google
New ways to plan travel with AI in Search
Use new Google AI tools to get help with itineraries, finding flight deals and booking reservations.