♨️ گوگل قفل نسل جدید هوش مصنوعی رو باز کرد!
▪️مدل Gemini 3 رسید، سریعتر، باهوشتر، بیتعارفتر ، گوگل رسماً نسل سوم جمنای رو معرفی کرد؛ قویترین مدلی که تا حالا ساخته. اولین عضو این خانواده، Gemini 3 Pro، تقریباً تو هر بخش یه لِوِل پُررنگتر شده :
▪️هوش بیشتر، لفاظی کمتر
جوابهاش دقیقتره، کمتر چاپلوسی میکنه و خروجیهاش خیلی به واقعیت نزدیکتر شدن.
📊 نتایج عجیب در تستهای سخت:
Humanity’s Last Exam → ٪37.5 و ٪41 در حالت Deep Think
همچنین ابزار جدید گوگل اجازه میده جمنای کنترل ادیتور، ترمینال و مرورگر رو بهدست بگیره و بخش عمده کارهای کدنویسی رو خودش انجام بده. روی ویندوز، مک و لینوکس کاملاً رایگان.
+ همچنین از اولین سری از Agent ها رونمایی کرده...تا کارهای چندمرحلهای رو خودش انجام بده ، مثلاً وصل میشه به Gmail و ایمیلهاتو مرتب میکنه.
▪️مدل Gemini 3 رسید، سریعتر، باهوشتر، بیتعارفتر ، گوگل رسماً نسل سوم جمنای رو معرفی کرد؛ قویترین مدلی که تا حالا ساخته. اولین عضو این خانواده، Gemini 3 Pro، تقریباً تو هر بخش یه لِوِل پُررنگتر شده :
▪️هوش بیشتر، لفاظی کمتر
جوابهاش دقیقتره، کمتر چاپلوسی میکنه و خروجیهاش خیلی به واقعیت نزدیکتر شدن.
📊 نتایج عجیب در تستهای سخت:
Humanity’s Last Exam → ٪37.5 و ٪41 در حالت Deep Think
همچنین ابزار جدید گوگل اجازه میده جمنای کنترل ادیتور، ترمینال و مرورگر رو بهدست بگیره و بخش عمده کارهای کدنویسی رو خودش انجام بده. روی ویندوز، مک و لینوکس کاملاً رایگان.
+ همچنین از اولین سری از Agent ها رونمایی کرده...تا کارهای چندمرحلهای رو خودش انجام بده ، مثلاً وصل میشه به Gmail و ایمیلهاتو مرتب میکنه.
‼️مدل Grok 4.1 هم معرفی شد؛ احساسی ترین و انسانی ترین هوش مصنوعی دنیا؟
▪️شرکت xAI نسخه تازه Grok 4.1 رو منتشر کرده ؛ مدلی که نهتنها توی بنچمارکها ترکونده، بلکه توی «هوش هیجانی» رسماً شماره یک شده.
• حرف زدنش طبیعیتر شده و جوابها انسانیتر، خلاقتر و پر از حس + یکم شر و شیطونتره ، نشونههایی از عدمصداقت و Manipulation داره؛ هم هیجانانگیزه، هم ریسکی
• امنیت پایینتر از نسخه قبل ؛ راحتتر میشه با Prompt Injection گولش زد و از همین امروز روی نسخه وب و اپ برای همه باز شده
+ جالبه بدونید که xAI چند وقتیه مربیهای انسانی تخصصی استخدام کرده؛ نتیجهش هم شده پاسخهایی که شبیه یک آدم واقعی حرف میزنن ، نه یک ربات خشک.
▪️شرکت xAI نسخه تازه Grok 4.1 رو منتشر کرده ؛ مدلی که نهتنها توی بنچمارکها ترکونده، بلکه توی «هوش هیجانی» رسماً شماره یک شده.
• حرف زدنش طبیعیتر شده و جوابها انسانیتر، خلاقتر و پر از حس + یکم شر و شیطونتره ، نشونههایی از عدمصداقت و Manipulation داره؛ هم هیجانانگیزه، هم ریسکی
• امنیت پایینتر از نسخه قبل ؛ راحتتر میشه با Prompt Injection گولش زد و از همین امروز روی نسخه وب و اپ برای همه باز شده
+ جالبه بدونید که xAI چند وقتیه مربیهای انسانی تخصصی استخدام کرده؛ نتیجهش هم شده پاسخهایی که شبیه یک آدم واقعی حرف میزنن ، نه یک ربات خشک.
SAM 3D can bring any 2D image to life, accurately reconstructing objects and humans, including their shape and pose.
این مدل جدید از Meta میتونه مدعیه که هر شیء توی عکس ۲ بعدی رو میتونه ۳ بعدی کنه و تحویل بده
#AI #Image #3D #2D #Shape #Meta
https://ai.meta.com/sam3d/
demo:https://aidemos.meta.com/segment-anything/editor/convert-image-to-3d
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
این مدل جدید از Meta میتونه مدعیه که هر شیء توی عکس ۲ بعدی رو میتونه ۳ بعدی کنه و تحویل بده
#AI #Image #3D #2D #Shape #Meta
https://ai.meta.com/sam3d/
demo:https://aidemos.meta.com/segment-anything/editor/convert-image-to-3d
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
Meta
SAM 3D
SAM 3D can bring any 2D image to life, accurately reconstructing objects and humans, including their shape and pose.
🔵 عنوان مقاله
Webinar: Making AI-powered teamwork a reality - the modern tech leader's playbook (Sponsor)
🟢 خلاصه مقاله:
**این وبینار اسپانسرشده با عنوان «Making AI-powered teamwork a reality — the modern tech leader’s playbook» بر پایه تازهترین پژوهش Atlassian درباره بهرهوری توسعهدهندگان، یک راهنمای عملی برای رهبران فنی ارائه میکند. در نشست زنده ۲۰ نوامبر، خواهید دید تیمهای مهندسی چگونه با بهرهگیری از AI در جریانهای کاری و مدیریت متمرکز دانش، زمان کارهای تکراری و اتلاف ناشی از جابهجایی مداوم بین کانتکستها را کم کرده و تمرکز را به نوآوری برمیگردانند.
وبینار بر اجرای عملی تأکید دارد: از راهاندازی آزمایشی امن، ادغام با ابزارهای موجود و تعیین خطمشیها و الزامات حریم خصوصی و امنیت، تا مدیریت تغییر و ارتقای مهارتها. همچنین روشهای سنجش اثرگذاری با معیارهای معنادار (جریان، زمان چرخه، تجربه توسعهدهنده) و ترجمه این بهبودها به نتایج کسبوکاری و ROI مطرح میشود.
مخاطبان—از مدیران مهندسی و Tech Leadها تا تیمهای Platform و DevOps—الگوها و ضدالگوهای واقعی، شیوههای همکاری میان مهندسی، محصول و امنیت، و گامهای بعدی مشخص برای پیادهسازی مؤثر AI را دریافت میکنند. برای دستیابی به چارچوبها، نمونهها و سنجههای لازم جهت واقعیسازی کار تیمی مبتنی بر AI، در برنامه زنده ۲۰ نوامبر شرکت کنید.
#AI #DeveloperProductivity #Atlassian #EngineeringLeadership #AIDrivenWorkflows #KnowledgeManagement #TeamCollaboration #Webinar
🟣لینک مقاله:
https://www.atlassian.com/webinars/enterprise-cloud/the-modern-tech-leaders-playbook-for-ai-powered-teamwork?utm_source=tldr&utm_medium=email&utm_campaign=P:twc*O:clm*F:awareness*C:webinar*H:fy26q2*I:tldr-ai-nov18*&utm_sfdc-campaign_id=701QB00000YINAjYAP
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Webinar: Making AI-powered teamwork a reality - the modern tech leader's playbook (Sponsor)
🟢 خلاصه مقاله:
**این وبینار اسپانسرشده با عنوان «Making AI-powered teamwork a reality — the modern tech leader’s playbook» بر پایه تازهترین پژوهش Atlassian درباره بهرهوری توسعهدهندگان، یک راهنمای عملی برای رهبران فنی ارائه میکند. در نشست زنده ۲۰ نوامبر، خواهید دید تیمهای مهندسی چگونه با بهرهگیری از AI در جریانهای کاری و مدیریت متمرکز دانش، زمان کارهای تکراری و اتلاف ناشی از جابهجایی مداوم بین کانتکستها را کم کرده و تمرکز را به نوآوری برمیگردانند.
وبینار بر اجرای عملی تأکید دارد: از راهاندازی آزمایشی امن، ادغام با ابزارهای موجود و تعیین خطمشیها و الزامات حریم خصوصی و امنیت، تا مدیریت تغییر و ارتقای مهارتها. همچنین روشهای سنجش اثرگذاری با معیارهای معنادار (جریان، زمان چرخه، تجربه توسعهدهنده) و ترجمه این بهبودها به نتایج کسبوکاری و ROI مطرح میشود.
مخاطبان—از مدیران مهندسی و Tech Leadها تا تیمهای Platform و DevOps—الگوها و ضدالگوهای واقعی، شیوههای همکاری میان مهندسی، محصول و امنیت، و گامهای بعدی مشخص برای پیادهسازی مؤثر AI را دریافت میکنند. برای دستیابی به چارچوبها، نمونهها و سنجههای لازم جهت واقعیسازی کار تیمی مبتنی بر AI، در برنامه زنده ۲۰ نوامبر شرکت کنید.
#AI #DeveloperProductivity #Atlassian #EngineeringLeadership #AIDrivenWorkflows #KnowledgeManagement #TeamCollaboration #Webinar
🟣لینک مقاله:
https://www.atlassian.com/webinars/enterprise-cloud/the-modern-tech-leaders-playbook-for-ai-powered-teamwork?utm_source=tldr&utm_medium=email&utm_campaign=P:twc*O:clm*F:awareness*C:webinar*H:fy26q2*I:tldr-ai-nov18*&utm_sfdc-campaign_id=701QB00000YINAjYAP
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Atlassian
The modern tech leader’s playbook for AI-powered teamwork | Atlassian
Join this webinar to learn how to cut tool sprawl, drive operational efficiencies, and truly unlock the power of AI for your engineering org.
🔵 عنوان مقاله
CUDA, Shmuda: Running AlphaFold on a MacBook Air (8 minute read)
🟢 خلاصه مقاله:
** این یادداشت نشان میدهد چطور یک توسعهدهنده توانسته AlphaFold را بدون نیاز به کارت گرافیک NVIDIA و چارچوب CUDA، روی یک MacBook Air با تراشه Apple M اجرا کند. محور کار استفاده از MLX است؛ چارچوبی که برای معماری حافظه یکپارچه Apple Silicon طراحی شده و انتقال داده بین CPU و GPU را به حداقل میرساند. نویسنده با دور زدن وابستگیهای CUDA و جایگزینی بخشهای CUDA-only، اجرای کامل مدل را ممکن کرده و نکات عملی مثل آمادهسازی محیط، دریافت وزنها و تنظیمات دقت و حافظه را توضیح میدهد. هرچند سرعت به پای یک کارت قدرتمند CUDA نمیرسد، اما برای پژوهش، آموزش و اجرای آفلاین، ترکیب کارایی، مصرف انرژی کم و دسترسپذیری دستگاههای Mac مزیت مهمی است. نتیجه کلی: با بلوغ MLX، اجرای مدلهای علمیِ حافظهبر و وابسته به CUDA مثل AlphaFold روی Apple Silicon روزبهروز عملیتر میشود.
#AlphaFold #MLX #AppleSilicon #CUDA #ARM #UnifiedMemory #MacBookAir #Bioinformatics
🟣لینک مقاله:
https://latentspacecraft.com/posts/mlx-protein-folding?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
CUDA, Shmuda: Running AlphaFold on a MacBook Air (8 minute read)
🟢 خلاصه مقاله:
** این یادداشت نشان میدهد چطور یک توسعهدهنده توانسته AlphaFold را بدون نیاز به کارت گرافیک NVIDIA و چارچوب CUDA، روی یک MacBook Air با تراشه Apple M اجرا کند. محور کار استفاده از MLX است؛ چارچوبی که برای معماری حافظه یکپارچه Apple Silicon طراحی شده و انتقال داده بین CPU و GPU را به حداقل میرساند. نویسنده با دور زدن وابستگیهای CUDA و جایگزینی بخشهای CUDA-only، اجرای کامل مدل را ممکن کرده و نکات عملی مثل آمادهسازی محیط، دریافت وزنها و تنظیمات دقت و حافظه را توضیح میدهد. هرچند سرعت به پای یک کارت قدرتمند CUDA نمیرسد، اما برای پژوهش، آموزش و اجرای آفلاین، ترکیب کارایی، مصرف انرژی کم و دسترسپذیری دستگاههای Mac مزیت مهمی است. نتیجه کلی: با بلوغ MLX، اجرای مدلهای علمیِ حافظهبر و وابسته به CUDA مثل AlphaFold روی Apple Silicon روزبهروز عملیتر میشود.
#AlphaFold #MLX #AppleSilicon #CUDA #ARM #UnifiedMemory #MacBookAir #Bioinformatics
🟣لینک مقاله:
https://latentspacecraft.com/posts/mlx-protein-folding?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
🔵 عنوان مقاله
RL is even more information inefficient than you thought (12 minute read)
🟢 خلاصه مقاله:
RL در مقایسه با یادگیری نظارتشده از نظر اطلاعاتی بسیار ناکارآمدتر است، چون برای دریافت یک پاداش واحد باید یک مسیر طولانی از اقدامها و توکنها را بازکرد (گاهی دهها هزار توکن) و در پایان تنها یک سیگنال پراکنده و پرنوسان گرفت؛ در حالیکه در پیشتمرین نظارتشده برای هر توکن یک سیگنال خطا دریافت میشود. نتیجه این است که چگالی اطلاعات هر نمونه در RL پایینتر و هزینه FLOPs برای هر سیگنال مؤثر بسیار بالاتر است، بهویژه در مراحل اولیه که اکتشافِ کمبازده نویز را زیاد میکند. پیامد عملی: هزینه محاسباتی و زمان شبیهسازی بالاتر، بهخصوص در RL برای مدلهای زبانی و RLHF که نیازمند زنجیرههای تفکر طولانیاند. راهکارهای کاهش شکاف شامل بوتاسترپ ارزش، برآورد مزیت، شکلدهی پاداش، زیانهای کمکی و خودنظارتی، استفاده از دادههای آفلاین، مدلمحور/وردمدل و موازیسازی گسترده است. با این حال، حتی با این روشها، عدم تقارن بنیادی باقی میماند؛ بنابراین رویکردهای ترکیبی مانند پیشتمرین نظارتشده گسترده و سپس RL هدفمند با پاداشِ شکلدادهشده و زیانهای کمکی معمولاً بهینهتر است.
#RL #ReinforcementLearning #SupervisedLearning #FLOPs #SampleEfficiency #ScalingLaws #RLHF #AICompute
🟣لینک مقاله:
https://www.dwarkesh.com/p/bits-per-sample?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
RL is even more information inefficient than you thought (12 minute read)
🟢 خلاصه مقاله:
RL در مقایسه با یادگیری نظارتشده از نظر اطلاعاتی بسیار ناکارآمدتر است، چون برای دریافت یک پاداش واحد باید یک مسیر طولانی از اقدامها و توکنها را بازکرد (گاهی دهها هزار توکن) و در پایان تنها یک سیگنال پراکنده و پرنوسان گرفت؛ در حالیکه در پیشتمرین نظارتشده برای هر توکن یک سیگنال خطا دریافت میشود. نتیجه این است که چگالی اطلاعات هر نمونه در RL پایینتر و هزینه FLOPs برای هر سیگنال مؤثر بسیار بالاتر است، بهویژه در مراحل اولیه که اکتشافِ کمبازده نویز را زیاد میکند. پیامد عملی: هزینه محاسباتی و زمان شبیهسازی بالاتر، بهخصوص در RL برای مدلهای زبانی و RLHF که نیازمند زنجیرههای تفکر طولانیاند. راهکارهای کاهش شکاف شامل بوتاسترپ ارزش، برآورد مزیت، شکلدهی پاداش، زیانهای کمکی و خودنظارتی، استفاده از دادههای آفلاین، مدلمحور/وردمدل و موازیسازی گسترده است. با این حال، حتی با این روشها، عدم تقارن بنیادی باقی میماند؛ بنابراین رویکردهای ترکیبی مانند پیشتمرین نظارتشده گسترده و سپس RL هدفمند با پاداشِ شکلدادهشده و زیانهای کمکی معمولاً بهینهتر است.
#RL #ReinforcementLearning #SupervisedLearning #FLOPs #SampleEfficiency #ScalingLaws #RLHF #AICompute
🟣لینک مقاله:
https://www.dwarkesh.com/p/bits-per-sample?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Dwarkesh
Thinking through how pretraining vs RL learn
And implications for RLVR progress
عجب چیزیه این Nano Banana Pro!
هر مقاله یا متن طولانیای رو که بهش بدی، سه سوته برات تبدیل میکنه به یه عکس وایتبردِ ترتمیز و پرجزئیات.
قشنگ خوراکِ کارهای آموزشیه.
اپل فارسی | AppleFarsi
هر مقاله یا متن طولانیای رو که بهش بدی، سه سوته برات تبدیل میکنه به یه عکس وایتبردِ ترتمیز و پرجزئیات.
قشنگ خوراکِ کارهای آموزشیه.
اپل فارسی | AppleFarsi
♨️ چت گروهی ChatGPT برای همه فعال شد ؛ تا 20 نفر در یک گفتگو با هوش مصنوعی!
▪️شرکت Open Ai بالاخره قابلیت Group Chat رو جهانی کرد؛ حالا چه نسخه رایگان باشی چه پولی، میتونی تا ۲۰ نفر رو بیاری داخل یه چت مشترک… همگی در کنار ChatGPT!
▪️از این به بعد ChatGPT فقط یه دستیار تکنفره نیست؛ تبدیل شده به یک «اتاق فکر مشترک» برای تیمها، خانوادهها و گروههای کاری.
▪️چه کارهایی میتونید باهاش انجام بدید؟
▫️سفر گروهی برنامهریزی کنید
▫️پروژه و تحقیق مشترک جلو ببرید
▫️اسناد رو با هم بنویسید
▫️ایدهپردازی تیمی داشته باشید
▫️اختلاف نظرها رو با کمک AI حل کنید
▫️و ChatGPT وسط بحث، براتون مقایسه کنه، خلاصه بده یا جستجو انجام بده
@
▪️شرکت Open Ai بالاخره قابلیت Group Chat رو جهانی کرد؛ حالا چه نسخه رایگان باشی چه پولی، میتونی تا ۲۰ نفر رو بیاری داخل یه چت مشترک… همگی در کنار ChatGPT!
▪️از این به بعد ChatGPT فقط یه دستیار تکنفره نیست؛ تبدیل شده به یک «اتاق فکر مشترک» برای تیمها، خانوادهها و گروههای کاری.
▪️چه کارهایی میتونید باهاش انجام بدید؟
▫️سفر گروهی برنامهریزی کنید
▫️پروژه و تحقیق مشترک جلو ببرید
▫️اسناد رو با هم بنویسید
▫️ایدهپردازی تیمی داشته باشید
▫️اختلاف نظرها رو با کمک AI حل کنید
▫️و ChatGPT وسط بحث، براتون مقایسه کنه، خلاصه بده یا جستجو انجام بده
@
♨️ 4 آمریکایی در خطر 200 سال زندان؛ قاچاق GPUهای انویدیا به چین لو رفت!
▪️یک پرونده سنگین در آمریکا باز شده که چهار شهروند این کشور رو بهخاطر قاچاق پردازندههای ممنوعه هوش مصنوعی به چین، تا مرز 2 قرن زندان برده!
▪️طبق اعلام وزارت دادگستری آمریکا، این افراد با شبکهای از شرکتهای پوششی و اسناد جعلی تونستن :
400 عدد A100
تلاش برای ارسال 50 عدد H200
و حتی 10 ابرکامپیوتر HPE مجهز به H100 رو از مسیرهایی مثل هنگکنگ، مالزی و تایلند رد کنن و تحویل چین بدن.
@
▪️یک پرونده سنگین در آمریکا باز شده که چهار شهروند این کشور رو بهخاطر قاچاق پردازندههای ممنوعه هوش مصنوعی به چین، تا مرز 2 قرن زندان برده!
▪️طبق اعلام وزارت دادگستری آمریکا، این افراد با شبکهای از شرکتهای پوششی و اسناد جعلی تونستن :
400 عدد A100
تلاش برای ارسال 50 عدد H200
و حتی 10 ابرکامپیوتر HPE مجهز به H100 رو از مسیرهایی مثل هنگکنگ، مالزی و تایلند رد کنن و تحویل چین بدن.
@
⁉️ چطور ChatGPT رو دقیقاً مطابق کار خودت شخصیسازی کنی؟
▪️ویژگی جدید Personalization باعث میشه چتهات سه برابر بهتر، مرتبطتر و بدون حاشیهی اضافی بشن ، فقط کافیه چند تنظیم کوچیک رو انجام بدی.
🌀 داخل تنظیمات برید تو بخش Personalization ، چند لحن مختلف وجود داره که هرکدوم برای یک موقعیته.
بهترینش رو باید بر اساس نیازت انتخاب کنی :
❗️لحن Default که خنثی و حرفهای؛ مناسب مکالمات عمومی و آموزشی.
❗️لحن Professional : رسمی و دقیق؛ برای تحلیلهای کاری، لوگو، استراتژی محتوا و… عالیه.
❗️لحن Friendly گرم و صمیمی؛ برای بیان راحت، مکالمات دوستانه و توضیح ساده مفاهیم.
❗️لحن Efficient ، خیلی مختصر، سریع و کاربردی؛ برای جوابهای فنی و تصمیمگیری فوری.
❗️لحن Cynical ، کمی طعنهدار و تیز؛ مناسب نقد یا نگاه بدبینانه.
❗️لحن Nerdy ، عاشق توضیحهای عمیق و علمی؛ مخصوص تکنولوژی، ریاضی و مباحث پیچیده.
❗️لحن Candid ، رک و صریح؛ بدون تعارف، کاملاً مستقیم.
❗️لحن Quirky ، خلاق و غیرمعمول؛ عالی برای ایدهپردازی، داستانسازی و کارهای فانتزی.
@
▪️ویژگی جدید Personalization باعث میشه چتهات سه برابر بهتر، مرتبطتر و بدون حاشیهی اضافی بشن ، فقط کافیه چند تنظیم کوچیک رو انجام بدی.
🌀 داخل تنظیمات برید تو بخش Personalization ، چند لحن مختلف وجود داره که هرکدوم برای یک موقعیته.
بهترینش رو باید بر اساس نیازت انتخاب کنی :
❗️لحن Default که خنثی و حرفهای؛ مناسب مکالمات عمومی و آموزشی.
❗️لحن Professional : رسمی و دقیق؛ برای تحلیلهای کاری، لوگو، استراتژی محتوا و… عالیه.
❗️لحن Friendly گرم و صمیمی؛ برای بیان راحت، مکالمات دوستانه و توضیح ساده مفاهیم.
❗️لحن Efficient ، خیلی مختصر، سریع و کاربردی؛ برای جوابهای فنی و تصمیمگیری فوری.
❗️لحن Cynical ، کمی طعنهدار و تیز؛ مناسب نقد یا نگاه بدبینانه.
❗️لحن Nerdy ، عاشق توضیحهای عمیق و علمی؛ مخصوص تکنولوژی، ریاضی و مباحث پیچیده.
❗️لحن Candid ، رک و صریح؛ بدون تعارف، کاملاً مستقیم.
❗️لحن Quirky ، خلاق و غیرمعمول؛ عالی برای ایدهپردازی، داستانسازی و کارهای فانتزی.
@
❤1
خبر داغ برنامهنویسا : گزارش Stack Overflow 2025 نشون میده ۸۴% دولوپرها از AI مثل ChatGPT و GitHub Copilot استفاده میکنن، اما ۶۶% کلافه از کدهای 'تقریباً باگی' هستن! Cursor و Copilot دارن کدینگ رو متحول میکنن، ولی دیباگش وقتگیره.
https://survey.stackoverflow.co/2025/ai/
<Arash/>
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
https://survey.stackoverflow.co/2025/ai/
<Arash/>
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
❤1
Forwarded from Linux Labdon
کاهش هزینه سیستمهای هوش مصنوعی با Semantic Caching
با رشد مدلهای زبانی بزرگ و پیشرفته، هزینه و زمان پاسخدهی هم به شدت افزایش پیدا کرده. مدلهایی مثل GPT-5 یا Claude برای کارهای پیچیده فوقالعادهاند، ولی استفاده از اونها هم پرهزینه و هم کند محسوب میشه. از طرف دیگه، AI Agentها واقعاً «توکنخور» هستن؛ یعنی برای انجام یک کار معمولاً چندین مرحله طی میکنن: تحقیق، برنامهریزی، عمل و بازتاب و تکرار. همین باعث میشه چندین بار با مدل تماس بگیرن و در نتیجه هزینه و تأخیر افزایش پیدا کنه و متنهای طولانیتر تولید بشه. برای مثال، یه بنچمارک اخیر از TheAgentCompany در ۲۰۲۵ نشون داده اجرای کامل یک Agent گاهی تا ۶.۸ دلار هزینه داره.
یکی از مشکلات اصلی در دنیای واقعی، تکراری بودن سوالهاست، مخصوصاً توی پشتیبانی مشتری. کاربران دائماً سوالهای مشابهی میپرسن: مثل «چطور پولم رو پس بگیرم؟» یا «شرایط بازگشت وجه چیه؟» و Agent مجبور میشه هر بار پاسخ رو از صفر تولید کنه. نتیجهش افزایش هزینه، طولانی شدن زمان پاسخ و فشار بیشتر روی سیستمهای RAG و زیرساختهاست.
در نگاه اول، ممکنه فکر کنیم کش کلاسیک کفایت میکنه. ایدهی کش ساده اینه که اگر یک سوال قبلاً پاسخ داده شده، دوباره سراغ مدل نریم. ولی مشکل اینجاست که کش سنتی دنبال Exact Match یا تطابق دقیق متنه. سوالهایی که از نظر معنی یکی هستن ولی عبارتهاشون فرق میکنه، مثل: «میخوام پولم رو پس بگیرم»، «چطور میتونم درخواست بازگشت وجه بدم؟» و «سیاست بازگشت پولتون چیه؟»، همه Cache Miss میشن و کش عملاً استفاده نمیشه.
اینجاست که Semantic Caching وارد میشه. به جای تطابق کلمهبهکلمه، کش به معنی و مفهوم جمله نگاه میکنه. مزیت اصلیش اینه که Recall و Hit Rate بالاتره و احتمال استفاده از کش و صرفهجویی خیلی بیشتر میشه. البته چالشش هم اینه که گاهی ممکنه جواب بیربط بده یا همون «False Positive» رخ بده.
روش کار Semantic Caching ساده است ولی هوشمندانه: ابتدا سوال کاربر به Embedding یا بردار عددی تبدیل میشه. بعد با بردارهای موجود در کش با Semantic Search مقایسه میشه. اگر فاصله معنایی کم باشه، پاسخ از کش برگردونده میشه؛ در غیر این صورت به RAG یا LLM میریم. در نهایت سوال و پاسخ جدید هم ذخیره میشه تا دفعه بعدی قابل استفاده باشه.
پیادهسازی Semantic Caching با چالشهایی همراهه؛ مثل دقت (Accuracy) که آیا کش جواب درست میده، کارایی (Performance) و میزان Cache Hit، سرعت سرویسدهی، آپدیتپذیری کش و اینکه آیا میتونیم کش رو گرم، تازهسازی یا پاکسازی کنیم. همچنین مشاهدهپذیری (Observability) مهمه تا بتونیم hit rate، latency، صرفهجویی هزینه و کیفیت کش رو بسنجیم.
معیارهای اصلی سنجش کش شامل Cache Hit Rate هست که نشون میده چند درصد درخواستها از کش پاسخ داده میشن و Precision/Recall/F1 Score که کیفیت و دقت پاسخها رو مشخص میکنه. برای بهبود دقت و کارایی کش هم میتونیم Threshold فاصله رو تنظیم کنیم، Reranker اضافه کنیم مثل Cross-encoder یا LLM-as-a-judge، از Fuzzy Matching برای تایپوها استفاده کنیم و فیلترهای اضافی مثل تشخیص پرسشهای زمانمحور (Temporal) یا تشخیص کد (Python، Java و…) اعمال کنیم تا سوالات اشتباه وارد کش نشن.
یه مثال واقعی از این تکنولوژی پروژه waLLMartCache در Walmart هست. اونها با نوآوریهایی مثل Load Balancer برای توزیع کش روی چند Node و Dual-tiered Storage که L1 = Vector DB و L2 = In-memory Cache مثل Redis هست، هم سرعت و هم دقت رو بالا بردن. Multi-tenancy هم باعث شده چند تیم یا اپلیکیشن از یک زیرساخت مشترک استفاده کنن. Decision Engine هم شامل تشخیص کد و زمانه و اگر سوال مناسب کش نباشه مستقیماً به LLM یا RAG میره. نتیجهش رسیدن به دقت نزدیک ۹۰٪ بوده.
<Reza Jafari/>
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
با رشد مدلهای زبانی بزرگ و پیشرفته، هزینه و زمان پاسخدهی هم به شدت افزایش پیدا کرده. مدلهایی مثل GPT-5 یا Claude برای کارهای پیچیده فوقالعادهاند، ولی استفاده از اونها هم پرهزینه و هم کند محسوب میشه. از طرف دیگه، AI Agentها واقعاً «توکنخور» هستن؛ یعنی برای انجام یک کار معمولاً چندین مرحله طی میکنن: تحقیق، برنامهریزی، عمل و بازتاب و تکرار. همین باعث میشه چندین بار با مدل تماس بگیرن و در نتیجه هزینه و تأخیر افزایش پیدا کنه و متنهای طولانیتر تولید بشه. برای مثال، یه بنچمارک اخیر از TheAgentCompany در ۲۰۲۵ نشون داده اجرای کامل یک Agent گاهی تا ۶.۸ دلار هزینه داره.
یکی از مشکلات اصلی در دنیای واقعی، تکراری بودن سوالهاست، مخصوصاً توی پشتیبانی مشتری. کاربران دائماً سوالهای مشابهی میپرسن: مثل «چطور پولم رو پس بگیرم؟» یا «شرایط بازگشت وجه چیه؟» و Agent مجبور میشه هر بار پاسخ رو از صفر تولید کنه. نتیجهش افزایش هزینه، طولانی شدن زمان پاسخ و فشار بیشتر روی سیستمهای RAG و زیرساختهاست.
در نگاه اول، ممکنه فکر کنیم کش کلاسیک کفایت میکنه. ایدهی کش ساده اینه که اگر یک سوال قبلاً پاسخ داده شده، دوباره سراغ مدل نریم. ولی مشکل اینجاست که کش سنتی دنبال Exact Match یا تطابق دقیق متنه. سوالهایی که از نظر معنی یکی هستن ولی عبارتهاشون فرق میکنه، مثل: «میخوام پولم رو پس بگیرم»، «چطور میتونم درخواست بازگشت وجه بدم؟» و «سیاست بازگشت پولتون چیه؟»، همه Cache Miss میشن و کش عملاً استفاده نمیشه.
اینجاست که Semantic Caching وارد میشه. به جای تطابق کلمهبهکلمه، کش به معنی و مفهوم جمله نگاه میکنه. مزیت اصلیش اینه که Recall و Hit Rate بالاتره و احتمال استفاده از کش و صرفهجویی خیلی بیشتر میشه. البته چالشش هم اینه که گاهی ممکنه جواب بیربط بده یا همون «False Positive» رخ بده.
روش کار Semantic Caching ساده است ولی هوشمندانه: ابتدا سوال کاربر به Embedding یا بردار عددی تبدیل میشه. بعد با بردارهای موجود در کش با Semantic Search مقایسه میشه. اگر فاصله معنایی کم باشه، پاسخ از کش برگردونده میشه؛ در غیر این صورت به RAG یا LLM میریم. در نهایت سوال و پاسخ جدید هم ذخیره میشه تا دفعه بعدی قابل استفاده باشه.
پیادهسازی Semantic Caching با چالشهایی همراهه؛ مثل دقت (Accuracy) که آیا کش جواب درست میده، کارایی (Performance) و میزان Cache Hit، سرعت سرویسدهی، آپدیتپذیری کش و اینکه آیا میتونیم کش رو گرم، تازهسازی یا پاکسازی کنیم. همچنین مشاهدهپذیری (Observability) مهمه تا بتونیم hit rate، latency، صرفهجویی هزینه و کیفیت کش رو بسنجیم.
معیارهای اصلی سنجش کش شامل Cache Hit Rate هست که نشون میده چند درصد درخواستها از کش پاسخ داده میشن و Precision/Recall/F1 Score که کیفیت و دقت پاسخها رو مشخص میکنه. برای بهبود دقت و کارایی کش هم میتونیم Threshold فاصله رو تنظیم کنیم، Reranker اضافه کنیم مثل Cross-encoder یا LLM-as-a-judge، از Fuzzy Matching برای تایپوها استفاده کنیم و فیلترهای اضافی مثل تشخیص پرسشهای زمانمحور (Temporal) یا تشخیص کد (Python، Java و…) اعمال کنیم تا سوالات اشتباه وارد کش نشن.
یه مثال واقعی از این تکنولوژی پروژه waLLMartCache در Walmart هست. اونها با نوآوریهایی مثل Load Balancer برای توزیع کش روی چند Node و Dual-tiered Storage که L1 = Vector DB و L2 = In-memory Cache مثل Redis هست، هم سرعت و هم دقت رو بالا بردن. Multi-tenancy هم باعث شده چند تیم یا اپلیکیشن از یک زیرساخت مشترک استفاده کنن. Decision Engine هم شامل تشخیص کد و زمانه و اگر سوال مناسب کش نباشه مستقیماً به LLM یا RAG میره. نتیجهش رسیدن به دقت نزدیک ۹۰٪ بوده.
<Reza Jafari/>
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
❤1
CLAUDE.md: Best Practices Learned from Optimizing Claude Code with Prompt Learning
https://arize.com/blog/claude-md-best-practices-learned-from-optimizing-claude-code-with-prompt-learning/
https://arize.com/blog/claude-md-best-practices-learned-from-optimizing-claude-code-with-prompt-learning/
Arize AI
CLAUDE.md: Best Practices Learned from Optimizing Claude Code with Prompt Learning
How to optimize Claude Code's system prompt to achieve +10% boost on SWE Bench with no architecture changes, tool tweaks, or fine-tuning.
🔵 عنوان مقاله
Intelligence per Watt: Measuring Intelligence Efficiency of Local AI (30 minute read)
🟢 خلاصه مقاله:
** این مقاله «هوشمندی بر واحد وات» را بهعنوان معیاری عملی برای آیندهٔ AI معرفی میکند: سنجش اینکه یک سیستم با چه کیفیتی و با چه مقدار انرژی میتواند کار مفید انجام دهد. در حالیکه frontier models عمدتاً روی cloud اجرا میشوند و فشار قابلتوجهی بر شبکههای برق وارد میکنند، شکاف عملکردی آنها با مدلهای کوچکتر که روی لپتاپ و گوشی اجرا میشوند رو به کاهش است.
نویسنده پیشنهاد میدهد کارایی را نه صرفاً با سرعت، بلکه با «کیفیت بر حسب انرژی» بسنجیم: دقت یا موفقیت در هر ژول، انرژی بهازای هر توکن تحت آستانهٔ کیفیت، و سنجهٔ ترکیبی تأخیر–انرژی. برای کارهای چندرسانهای، «انرژی بهازای تکمیل یک وظیفه» تصویر واقعیتری ارائه میدهد.
در عین حال، اندازهگیری منصفانه دشوار است و به مجموعهداده و پرامپتهای استاندارد، تنظیمات یکنواخت، اندازهگیری انرژی در سطح کل دستگاه، و گزارش جزییات سختافزار/نرمافزار و عدمقطعیتها نیاز دارد.
جمعبندی: اگر یک مدل محلی با انرژی کمتر به کیفیت نزدیک به هدف برسد، علاوه بر کاهش هزینه و تأخیر، فشار بر شبکه برق را هم کم میکند؛ cloud برای آموزش و استنتاجهای سنگین همچنان ضروری است. یک راهبرد ترکیبی—محلی بهصورت پیشفرض و ابر در صورت نیاز—میتواند تعادل کیفیت، پایداری و پرفرمنس را حفظ کند. در نهایت، استانداردهای شفاف برای ارزیابی انرژیمحور و پیشرفتهای معماری و نرمافزاری، مرز «هوشمندی بر واحد وات» را بهپیش خواهند برد.
#IntelligencePerWatt #LocalAI #EdgeAI #EnergyEfficiency #OnDeviceAI #AIInfrastructure #Sustainability #AIBenchmarking
🟣لینک مقاله:
https://arxiv.org/abs/2511.07885?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Intelligence per Watt: Measuring Intelligence Efficiency of Local AI (30 minute read)
🟢 خلاصه مقاله:
** این مقاله «هوشمندی بر واحد وات» را بهعنوان معیاری عملی برای آیندهٔ AI معرفی میکند: سنجش اینکه یک سیستم با چه کیفیتی و با چه مقدار انرژی میتواند کار مفید انجام دهد. در حالیکه frontier models عمدتاً روی cloud اجرا میشوند و فشار قابلتوجهی بر شبکههای برق وارد میکنند، شکاف عملکردی آنها با مدلهای کوچکتر که روی لپتاپ و گوشی اجرا میشوند رو به کاهش است.
نویسنده پیشنهاد میدهد کارایی را نه صرفاً با سرعت، بلکه با «کیفیت بر حسب انرژی» بسنجیم: دقت یا موفقیت در هر ژول، انرژی بهازای هر توکن تحت آستانهٔ کیفیت، و سنجهٔ ترکیبی تأخیر–انرژی. برای کارهای چندرسانهای، «انرژی بهازای تکمیل یک وظیفه» تصویر واقعیتری ارائه میدهد.
در عین حال، اندازهگیری منصفانه دشوار است و به مجموعهداده و پرامپتهای استاندارد، تنظیمات یکنواخت، اندازهگیری انرژی در سطح کل دستگاه، و گزارش جزییات سختافزار/نرمافزار و عدمقطعیتها نیاز دارد.
جمعبندی: اگر یک مدل محلی با انرژی کمتر به کیفیت نزدیک به هدف برسد، علاوه بر کاهش هزینه و تأخیر، فشار بر شبکه برق را هم کم میکند؛ cloud برای آموزش و استنتاجهای سنگین همچنان ضروری است. یک راهبرد ترکیبی—محلی بهصورت پیشفرض و ابر در صورت نیاز—میتواند تعادل کیفیت، پایداری و پرفرمنس را حفظ کند. در نهایت، استانداردهای شفاف برای ارزیابی انرژیمحور و پیشرفتهای معماری و نرمافزاری، مرز «هوشمندی بر واحد وات» را بهپیش خواهند برد.
#IntelligencePerWatt #LocalAI #EdgeAI #EnergyEfficiency #OnDeviceAI #AIInfrastructure #Sustainability #AIBenchmarking
🟣لینک مقاله:
https://arxiv.org/abs/2511.07885?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
arXiv.org
Intelligence per Watt: Measuring Intelligence Efficiency of Local AI
Large language model (LLM) queries are predominantly processed by frontier models in centralized cloud infrastructure. Rapidly growing demand strains this paradigm, and cloud providers struggle to...
🔵 عنوان مقاله
WeatherNext 2: Our most advanced weather forecasting model (4 minute read)
🟢 خلاصه مقاله:
** WeatherNext 2 یک مدل AI برای ارائه پیشبینیهای آبوهوایی جهانی دقیق، کارآمد و با تفکیکپذیری بالا است و میتواند پیشبینیهایی با بازه زمانی تا یک ساعت تولید کند. دادههای پیشبینی این مدل منتشر شده تا پژوهشگران، توسعهدهندگان و نهادهای عمومی بتوانند آن را تحلیل کرده و در ساخت ابزارها و سرویسهای جدید بهکار بگیرند. در هفتههای آینده، WeatherNext 2 برای تقویت اطلاعات آبوهوایی در Google Maps ادغام میشود تا دقت و بهموقع بودن اطلاعات در تجربه مسیریابی و برنامهریزی سفر کاربران بهبود یابد.
#WeatherNext2 #AI #WeatherForecasting #GoogleMaps #HighResolution #DataRelease #Geospatial #ClimateTech
🟣لینک مقاله:
https://blog.google/technology/google-deepmind/weathernext-2/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
WeatherNext 2: Our most advanced weather forecasting model (4 minute read)
🟢 خلاصه مقاله:
** WeatherNext 2 یک مدل AI برای ارائه پیشبینیهای آبوهوایی جهانی دقیق، کارآمد و با تفکیکپذیری بالا است و میتواند پیشبینیهایی با بازه زمانی تا یک ساعت تولید کند. دادههای پیشبینی این مدل منتشر شده تا پژوهشگران، توسعهدهندگان و نهادهای عمومی بتوانند آن را تحلیل کرده و در ساخت ابزارها و سرویسهای جدید بهکار بگیرند. در هفتههای آینده، WeatherNext 2 برای تقویت اطلاعات آبوهوایی در Google Maps ادغام میشود تا دقت و بهموقع بودن اطلاعات در تجربه مسیریابی و برنامهریزی سفر کاربران بهبود یابد.
#WeatherNext2 #AI #WeatherForecasting #GoogleMaps #HighResolution #DataRelease #Geospatial #ClimateTech
🟣لینک مقاله:
https://blog.google/technology/google-deepmind/weathernext-2/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Google
WeatherNext 2: Our most advanced weather forecasting model
The new AI model delivers more efficient, more accurate and higher-resolution global weather predictions.
🔵 عنوان مقاله
Arm custom chips get a boost with Nvidia partnership (3 minute read)
🟢 خلاصه مقاله:
Arm و Nvidia همکاری خود را گسترش دادهاند تا اتصال مستقیم بین CPUهای Arm-based مبتنی بر Neoverse و GPUهای Nvidia از طریق فناوری NVLink Fusion امکانپذیر شود. این پیوند پرظرفیت و کمتأخیر ارتباط CPU–GPU را بهبود میدهد و اجرای بارهای کاری دادهمحور و AI/ML را کارآمدتر میکند، در حالیکه انعطافپذیری بیشتری در طراحی سرورها و کلاسترها فراهم میآورد. همزمان، Microsoft، Amazon و Google در مقیاس ابری به توسعه یا استقرار CPUهای Arm روی آوردهاند؛ بنابراین این همکاری، پیادهسازی سامانههای ترکیبی Arm+Nvidia را برای ارائهدهندگان ابر و مشتریان سازمانی سادهتر میکند. پیام استراتژیک این اعلام نیز روشن است: Nvidia با گشودن پلتفرم NVLink و عدم محدود کردن آن به CPUهای خود، به مشتریان اختیار انتخاب بیشتری میدهد و مسیر نوآوری در حوزههای AI، HPC و تحلیل داده را هموارتر میسازد.
#Arm #Nvidia #NVLink #Neoverse #GPUs #CloudComputing #AIInfrastructure #HPC
🟣لینک مقاله:
https://www.cnbc.com/2025/11/17/arm-nvidia-nvlink-partnership-custom-cpu.html?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Arm custom chips get a boost with Nvidia partnership (3 minute read)
🟢 خلاصه مقاله:
Arm و Nvidia همکاری خود را گسترش دادهاند تا اتصال مستقیم بین CPUهای Arm-based مبتنی بر Neoverse و GPUهای Nvidia از طریق فناوری NVLink Fusion امکانپذیر شود. این پیوند پرظرفیت و کمتأخیر ارتباط CPU–GPU را بهبود میدهد و اجرای بارهای کاری دادهمحور و AI/ML را کارآمدتر میکند، در حالیکه انعطافپذیری بیشتری در طراحی سرورها و کلاسترها فراهم میآورد. همزمان، Microsoft، Amazon و Google در مقیاس ابری به توسعه یا استقرار CPUهای Arm روی آوردهاند؛ بنابراین این همکاری، پیادهسازی سامانههای ترکیبی Arm+Nvidia را برای ارائهدهندگان ابر و مشتریان سازمانی سادهتر میکند. پیام استراتژیک این اعلام نیز روشن است: Nvidia با گشودن پلتفرم NVLink و عدم محدود کردن آن به CPUهای خود، به مشتریان اختیار انتخاب بیشتری میدهد و مسیر نوآوری در حوزههای AI، HPC و تحلیل داده را هموارتر میسازد.
#Arm #Nvidia #NVLink #Neoverse #GPUs #CloudComputing #AIInfrastructure #HPC
🟣لینک مقاله:
https://www.cnbc.com/2025/11/17/arm-nvidia-nvlink-partnership-custom-cpu.html?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
CNBC
Arm custom chips get a boost with Nvidia partnership
Arm doesn't make CPUs but it licenses its instruction set technology and sells designs that customers can build their chips on top of.
خبر خوب برای برنامه نویسانی که میخوان AI به پروژ هاشون اضافه کنند
فریمورک byLLM که به کمکش میتونی مدل عظیم زبانی (LLM) رو توی نرمافزارات با فقط یک خط کد وارد کنی، بدون اینکه پرامپتانجینیری دستی بکنی! این یعنی وقت کمتر روی طراحی پرامپت و بیشتر روی منطق واقعی
دانشگاه میشیگان
با زبان Jac کار میکنه (زبان برنامهنویسی ساختهٔ Jaseci) ولی رابط پایتونی هم داره. هوش مصنوعی
برای شروع میتونی پکیج رو با:
pip install byllm
گیت هاب پروژ
https://github.com/jaseci-labs/jaseci/tree/main/jac-byllm
<Arash/>
فریمورک byLLM که به کمکش میتونی مدل عظیم زبانی (LLM) رو توی نرمافزارات با فقط یک خط کد وارد کنی، بدون اینکه پرامپتانجینیری دستی بکنی! این یعنی وقت کمتر روی طراحی پرامپت و بیشتر روی منطق واقعی
دانشگاه میشیگان
با زبان Jac کار میکنه (زبان برنامهنویسی ساختهٔ Jaseci) ولی رابط پایتونی هم داره. هوش مصنوعی
برای شروع میتونی پکیج رو با:
pip install byllm
گیت هاب پروژ
https://github.com/jaseci-labs/jaseci/tree/main/jac-byllm
<Arash/>
GitHub
jaseci/jac-byllm at main · jaseci-labs/jaseci
The Official Jaseci Code Repository. Contribute to jaseci-labs/jaseci development by creating an account on GitHub.
🔵 عنوان مقاله
New ways to plan travel with AI in Search (4 minute read)
🟢 خلاصه مقاله:
ابزارهای جدید مبتنی بر هوش مصنوعی در Search برنامهریزی سفر را سادهتر کردهاند. Canvas در AI Mode اکنون میتواند با کنار هم گذاشتن دادههای پرواز، مقایسه هتلها، بررسیهای Maps و پیشنهاد رستورانها، یک برنامه سفر کامل بسازد. شما میتوانید مقصد، تاریخ، بودجه، علایق و ترکیب همراهان را مشخص کنید و سیستم، گزینهها را بهصورت منسجم و قابل ویرایش ارائه میکند؛ از معرفی پروازها و هتلهای مناسب تا جمعبندی نکات مهم از بررسیهای کاربران در Maps و پیشنهاد رستورانهای همسو با سلیقه و بودجه. همه اینها داخل Search انجام میشود تا بدون جابهجایی میان تبهای متعدد، یک برنامه سفر روشن و قابل شخصیسازی در اختیار داشته باشید.
#AI #TravelPlanning #Search #Canvas #AIMode #Maps #Itinerary #TravelTech
🟣لینک مقاله:
https://blog.google/products/search/agentic-plans-booking-travel-canvas-ai-mode/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
New ways to plan travel with AI in Search (4 minute read)
🟢 خلاصه مقاله:
ابزارهای جدید مبتنی بر هوش مصنوعی در Search برنامهریزی سفر را سادهتر کردهاند. Canvas در AI Mode اکنون میتواند با کنار هم گذاشتن دادههای پرواز، مقایسه هتلها، بررسیهای Maps و پیشنهاد رستورانها، یک برنامه سفر کامل بسازد. شما میتوانید مقصد، تاریخ، بودجه، علایق و ترکیب همراهان را مشخص کنید و سیستم، گزینهها را بهصورت منسجم و قابل ویرایش ارائه میکند؛ از معرفی پروازها و هتلهای مناسب تا جمعبندی نکات مهم از بررسیهای کاربران در Maps و پیشنهاد رستورانهای همسو با سلیقه و بودجه. همه اینها داخل Search انجام میشود تا بدون جابهجایی میان تبهای متعدد، یک برنامه سفر روشن و قابل شخصیسازی در اختیار داشته باشید.
#AI #TravelPlanning #Search #Canvas #AIMode #Maps #Itinerary #TravelTech
🟣لینک مقاله:
https://blog.google/products/search/agentic-plans-booking-travel-canvas-ai-mode/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Google
New ways to plan travel with AI in Search
Use new Google AI tools to get help with itineraries, finding flight deals and booking reservations.
🔵 عنوان مقاله
OpenAI is finally letting employees donate their equity to charity (3 minute read)
🟢 خلاصه مقاله:
**OpenAI بهصورت محدود و در یک بازه زمانی کوتاه، امکان اهدای سهام را برای کارکنان فعلی و سابقی که «سهام واجد شرایط» دارند فراهم کرده است. این اقدام یک مسیر رسمی برای اهدای سهام به خیریه ایجاد میکند تا افراد ناچار به فروش و تبدیل به نقدینگی در آینده نباشند. با توجه به خصوصی بودن شرکت، انتقال سهام معمولاً با محدودیتها و فرایندهای تأیید همراه است و اهدای سهام ممکن است از طریق خیریهها یا Donor-Advised Fund انجام شود. در برخی نظامهای حقوقی، اهدای سهامِ دارای رشد ارزش میتواند از نظر مالیاتی بهصرفهتر از فروش و اهدای نقدی باشد؛ اما جزئیات و مزایا به قوانین محلی، شرایط فردی و ضوابط OpenAI و نهاد دریافتکننده بستگی دارد. اطلاعات دقیقتر درباره معیارهای واجد شرایط بودن، زمانبندی، روش ارزشگذاری و فرایند انتقال از سوی شرکت به دارندگان سهام اعلام میشود.
#OpenAI #equity #philanthropy #charitablegiving #donations #startups #employees
🟣لینک مقاله:
https://www.theverge.com/ai-artificial-intelligence/822496/openai-employee-equity-donation-charity-rounds-share-valuation?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
OpenAI is finally letting employees donate their equity to charity (3 minute read)
🟢 خلاصه مقاله:
**OpenAI بهصورت محدود و در یک بازه زمانی کوتاه، امکان اهدای سهام را برای کارکنان فعلی و سابقی که «سهام واجد شرایط» دارند فراهم کرده است. این اقدام یک مسیر رسمی برای اهدای سهام به خیریه ایجاد میکند تا افراد ناچار به فروش و تبدیل به نقدینگی در آینده نباشند. با توجه به خصوصی بودن شرکت، انتقال سهام معمولاً با محدودیتها و فرایندهای تأیید همراه است و اهدای سهام ممکن است از طریق خیریهها یا Donor-Advised Fund انجام شود. در برخی نظامهای حقوقی، اهدای سهامِ دارای رشد ارزش میتواند از نظر مالیاتی بهصرفهتر از فروش و اهدای نقدی باشد؛ اما جزئیات و مزایا به قوانین محلی، شرایط فردی و ضوابط OpenAI و نهاد دریافتکننده بستگی دارد. اطلاعات دقیقتر درباره معیارهای واجد شرایط بودن، زمانبندی، روش ارزشگذاری و فرایند انتقال از سوی شرکت به دارندگان سهام اعلام میشود.
#OpenAI #equity #philanthropy #charitablegiving #donations #startups #employees
🟣لینک مقاله:
https://www.theverge.com/ai-artificial-intelligence/822496/openai-employee-equity-donation-charity-rounds-share-valuation?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
The Verge
OpenAI is finally letting employees donate their equity to charity
And the company’s price per share has gone up significantly.
👍1
🔵 عنوان مقاله
The Agent Labs Thesis (12 minute read)
🟢 خلاصه مقاله:
این نوشته توضیح میدهد که تمرکز در AI کاربردی از توسعه صرفِ مدلها به ساخت «ایجنتهای» محصولمحور در حال جابهجایی است. در این رویکرد، Agent Labs با محوریت محصول، ایجنتهایی میسازند که مدلها و ابزارها را برای حل مسائل واقعی ترکیب میکنند و با «قیمتگذاری مبتنی بر نتیجه» پول میگیرند؛ یعنی بابت خروجی قابل سنجش، نه مصرف توکن. این همسویی با ارزش مشتری معمولاً به جریان نقدی بهتر منجر میشود.
در مقابل، Model Labs مدلمحور است و معمولاً «قیمتگذاری بر اساس توکن» دارد. اگرچه این مسیر میتواند به مقیاس زیرساختی و ارزشگذاریهای بزرگتر منتهی شود، Agent Labs به دلیل قراردادهای ارزشمحور و ادغام عمیق با فرایندهای کسبوکار، از نظر نقدینگی کوتاهمدت وضعیت بهتری دارند اما احتمالاً دیرتر به خروجهای با ارزش بالا میرسند.
همزمان، با همگرایی کارایی مدلها و فشار رقابتی بر قیمت، مأموریت Model Labs ممکن است تا رسیدن به «شیفت الگوریتمی» بعدی به سمت لایههای بالاتر مانند ایجنتها و راهکارهای عمودی تغییر کند. خلاصه اینکه Agent Labs امروز روی نتیجه و جریان نقدی بهینه میکنند و Model Labs برای مزیت واضح بعدی، چشمبهراه جهش بزرگ الگوریتمی میمانند.
#AgentLabs #ModelLabs #AIAgents #OutcomeBasedPricing #AIEconomics #AIProductStrategy #TokenPricing
🟣لینک مقاله:
https://www.latent.space/p/agent-labs?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
The Agent Labs Thesis (12 minute read)
🟢 خلاصه مقاله:
این نوشته توضیح میدهد که تمرکز در AI کاربردی از توسعه صرفِ مدلها به ساخت «ایجنتهای» محصولمحور در حال جابهجایی است. در این رویکرد، Agent Labs با محوریت محصول، ایجنتهایی میسازند که مدلها و ابزارها را برای حل مسائل واقعی ترکیب میکنند و با «قیمتگذاری مبتنی بر نتیجه» پول میگیرند؛ یعنی بابت خروجی قابل سنجش، نه مصرف توکن. این همسویی با ارزش مشتری معمولاً به جریان نقدی بهتر منجر میشود.
در مقابل، Model Labs مدلمحور است و معمولاً «قیمتگذاری بر اساس توکن» دارد. اگرچه این مسیر میتواند به مقیاس زیرساختی و ارزشگذاریهای بزرگتر منتهی شود، Agent Labs به دلیل قراردادهای ارزشمحور و ادغام عمیق با فرایندهای کسبوکار، از نظر نقدینگی کوتاهمدت وضعیت بهتری دارند اما احتمالاً دیرتر به خروجهای با ارزش بالا میرسند.
همزمان، با همگرایی کارایی مدلها و فشار رقابتی بر قیمت، مأموریت Model Labs ممکن است تا رسیدن به «شیفت الگوریتمی» بعدی به سمت لایههای بالاتر مانند ایجنتها و راهکارهای عمودی تغییر کند. خلاصه اینکه Agent Labs امروز روی نتیجه و جریان نقدی بهینه میکنند و Model Labs برای مزیت واضح بعدی، چشمبهراه جهش بزرگ الگوریتمی میمانند.
#AgentLabs #ModelLabs #AIAgents #OutcomeBasedPricing #AIEconomics #AIProductStrategy #TokenPricing
🟣لینک مقاله:
https://www.latent.space/p/agent-labs?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
www.latent.space
Agent Labs: Welcome to GPT Wrapper Summer
How great Agent Engineering and Research are combining in a new playbook for building high growth AI startups that doesn't involve training a SOTA LLM.
🔵 عنوان مقاله
The market “did not appreciate” Nvidia's incredible quarter (1 minute read)
🟢 خلاصه مقاله:
** بازار با وجود یک فصل درخشان برای Nvidia واکنش پرشوری نشان نداد؛ انتظارات بالا و نگرانیهای ارزشیگذاری باعث شد دستاوردها بهطور کامل در قیمتها بازتاب پیدا نکند. در همین فضا، Jensen Huang با شوخی گفت Nvidia «زمین را کنار هم نگه داشته»، و به پستهایی اشاره کرد که میگویند کار این شرکت حتی به جلوگیری از رکود در US کمک کرده است. این روایت همزمان نقش محوری Nvidia در موج AI و زیرساخت داده را برجسته میکند و شکاف میان هیجان بلندمدت و نوسان کوتاهمدت بازار را یادآور میشود.
#Nvidia #JensenHuang #AI #StockMarket #Earnings #Semiconductors #USEconomy
🟣لینک مقاله:
https://threadreaderapp.com/thread/1992034582162715099.html?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
The market “did not appreciate” Nvidia's incredible quarter (1 minute read)
🟢 خلاصه مقاله:
** بازار با وجود یک فصل درخشان برای Nvidia واکنش پرشوری نشان نداد؛ انتظارات بالا و نگرانیهای ارزشیگذاری باعث شد دستاوردها بهطور کامل در قیمتها بازتاب پیدا نکند. در همین فضا، Jensen Huang با شوخی گفت Nvidia «زمین را کنار هم نگه داشته»، و به پستهایی اشاره کرد که میگویند کار این شرکت حتی به جلوگیری از رکود در US کمک کرده است. این روایت همزمان نقش محوری Nvidia در موج AI و زیرساخت داده را برجسته میکند و شکاف میان هیجان بلندمدت و نوسان کوتاهمدت بازار را یادآور میشود.
#Nvidia #JensenHuang #AI #StockMarket #Earnings #Semiconductors #USEconomy
🟣لینک مقاله:
https://threadreaderapp.com/thread/1992034582162715099.html?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Threadreaderapp
Thread by @wallstengine on Thread Reader App
@wallstengine: Per Business Insider’s leaked $NVDA all-hands memo: Jensen Huang told employees the market “did not appreciate” what he called an incredible quarter, saying if they’d missed it would be proof of an AI...…