AI Labdon – Telegram
AI Labdon
466 subscribers
24 photos
4 videos
657 links
🕸 AI Labdon

بروز ترین مرجع خبری در مورد دنیایی هوش مصنوعی

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
♨️ گوگل قفل نسل جدید هوش مصنوعی رو باز کرد!

▪️مدل Gemini 3 رسید، سریع‌تر، باهوش‌تر، بی‌تعارف‌تر ، گوگل رسماً نسل سوم جمنای رو معرفی کرد؛ قوی‌ترین مدلی که تا حالا ساخته. اولین عضو این خانواده، Gemini 3 Pro، تقریباً تو هر بخش یه لِوِل پُررنگ‌تر شده :

▪️هوش بیشتر، لفاظی کمتر

جواب‌هاش دقیق‌تره، کمتر چاپلوسی میکنه و خروجی‌هاش خیلی به واقعیت نزدیک‌تر شدن.

📊 نتایج عجیب در تست‌های سخت:

Humanity’s Last Exam → ٪37.5 و ٪41 در حالت Deep Think

همچنین ابزار جدید گوگل اجازه میده جمنای کنترل ادیتور، ترمینال و مرورگر رو به‌دست بگیره و بخش عمده کارهای کدنویسی رو خودش انجام بده. روی ویندوز، مک و لینوکس کاملاً رایگان.

+ همچنین از اولین سری از Agent ها رونمایی کرده...تا کارهای چندمرحله‌ای رو خودش انجام بده ، مثلاً وصل میشه به Gmail و ایمیل‌هاتو مرتب می‌کنه.
‼️مدل Grok 4.1 هم معرفی شد؛ احساسی‌ ترین و انسانی‌ ترین هوش مصنوعی دنیا؟

▪️شرکت xAI نسخه تازه Grok 4.1 رو منتشر کرده ؛ مدلی که نه‌تنها توی بنچمارک‌ها ترکونده، بلکه توی «هوش هیجانی» رسماً شماره یک شده.

• حرف زدنش طبیعی‌تر شده و جواب‌ها انسانی‌تر، خلاق‌تر و پر از حس + یکم شر و شیطون‌تره ، نشونه‌هایی از عدم‌صداقت و Manipulation داره؛ هم هیجان‌انگیزه، هم ریسکی

• امنیت پایین‌تر از نسخه قبل ؛ راحت‌تر میشه با Prompt Injection گولش زد و از همین امروز روی نسخه وب و اپ برای همه باز شده

+ جالبه بدونید که xAI چند وقتیه مربی‌های انسانی تخصصی استخدام کرده؛ نتیجه‌ش هم شده پاسخ‌هایی که شبیه یک آدم واقعی حرف میزنن ، نه یک ربات خشک.
SAM 3D can bring any 2D image to life, accurately reconstructing objects and humans, including their shape and pose.

این مدل جدید از Meta میتونه مدعیه که هر شیء توی عکس ۲ بعدی رو میتونه ۳ بعدی کنه و تحویل بده

#AI #Image #3D #2D #Shape #Meta


https://ai.meta.com/sam3d/
demo:https://aidemos.meta.com/segment-anything/editor/convert-image-to-3d

👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
🔵 عنوان مقاله
Webinar: Making AI-powered teamwork a reality - the modern tech leader's playbook (Sponsor)

🟢 خلاصه مقاله:
**این وبینار اسپانسرشده با عنوان «Making AI-powered teamwork a reality — the modern tech leader’s playbook» بر پایه تازه‌ترین پژوهش Atlassian درباره بهره‌وری توسعه‌دهندگان، یک راهنمای عملی برای رهبران فنی ارائه می‌کند. در نشست زنده ۲۰ نوامبر، خواهید دید تیم‌های مهندسی چگونه با بهره‌گیری از AI در جریان‌های کاری و مدیریت متمرکز دانش، زمان کارهای تکراری و اتلاف ناشی از جابه‌جایی مداوم بین کانتکست‌ها را کم کرده و تمرکز را به نوآوری برمی‌گردانند.

وبینار بر اجرای عملی تأکید دارد: از راه‌اندازی آزمایشی امن، ادغام با ابزارهای موجود و تعیین خط‌مشی‌ها و الزامات حریم خصوصی و امنیت، تا مدیریت تغییر و ارتقای مهارت‌ها. همچنین روش‌های سنجش اثرگذاری با معیارهای معنادار (جریان، زمان چرخه، تجربه توسعه‌دهنده) و ترجمه این بهبودها به نتایج کسب‌وکاری و ROI مطرح می‌شود.

مخاطبان—از مدیران مهندسی و Tech Leadها تا تیم‌های Platform و DevOps—الگوها و ضدالگوهای واقعی، شیوه‌های همکاری میان مهندسی، محصول و امنیت، و گام‌های بعدی مشخص برای پیاده‌سازی مؤثر AI را دریافت می‌کنند. برای دستیابی به چارچوب‌ها، نمونه‌ها و سنجه‌های لازم جهت واقعی‌سازی کار تیمی مبتنی بر AI، در برنامه زنده ۲۰ نوامبر شرکت کنید.

#AI #DeveloperProductivity #Atlassian #EngineeringLeadership #AIDrivenWorkflows #KnowledgeManagement #TeamCollaboration #Webinar

🟣لینک مقاله:
https://www.atlassian.com/webinars/enterprise-cloud/the-modern-tech-leaders-playbook-for-ai-powered-teamwork?utm_source=tldr&utm_medium=email&utm_campaign=P:twc*O:clm*F:awareness*C:webinar*H:fy26q2*I:tldr-ai-nov18*&utm_sfdc-campaign_id=701QB00000YINAjYAP


👑 @ai_Labdon
🔵 عنوان مقاله
CUDA, Shmuda: Running AlphaFold on a MacBook Air (8 minute read)

🟢 خلاصه مقاله:
** این یادداشت نشان می‌دهد چطور یک توسعه‌دهنده توانسته AlphaFold را بدون نیاز به کارت گرافیک NVIDIA و چارچوب CUDA، روی یک MacBook Air با تراشه Apple M اجرا کند. محور کار استفاده از MLX است؛ چارچوبی که برای معماری حافظه یکپارچه Apple Silicon طراحی شده و انتقال داده بین CPU و GPU را به حداقل می‌رساند. نویسنده با دور زدن وابستگی‌های CUDA و جایگزینی بخش‌های CUDA-only، اجرای کامل مدل را ممکن کرده و نکات عملی مثل آماده‌سازی محیط، دریافت وزن‌ها و تنظیمات دقت و حافظه را توضیح می‌دهد. هرچند سرعت به پای یک کارت قدرتمند CUDA نمی‌رسد، اما برای پژوهش، آموزش و اجرای آفلاین، ترکیب کارایی، مصرف انرژی کم و دسترس‌پذیری دستگاه‌های Mac مزیت مهمی است. نتیجه کلی: با بلوغ MLX، اجرای مدل‌های علمیِ حافظه‌بر و وابسته به CUDA مثل AlphaFold روی Apple Silicon روزبه‌روز عملی‌تر می‌شود.

#AlphaFold #MLX #AppleSilicon #CUDA #ARM #UnifiedMemory #MacBookAir #Bioinformatics

🟣لینک مقاله:
https://latentspacecraft.com/posts/mlx-protein-folding?utm_source=tldrai


👑 @ai_Labdon
🔵 عنوان مقاله
RL is even more information inefficient than you thought (12 minute read)

🟢 خلاصه مقاله:
RL در مقایسه با یادگیری نظارت‌شده از نظر اطلاعاتی بسیار ناکارآمدتر است، چون برای دریافت یک پاداش واحد باید یک مسیر طولانی از اقدام‌ها و توکن‌ها را بازکرد (گاهی ده‌ها هزار توکن) و در پایان تنها یک سیگنال پراکنده و پرنوسان گرفت؛ در حالی‌که در پیش‌تمرین نظارت‌شده برای هر توکن یک سیگنال خطا دریافت می‌شود. نتیجه این است که چگالی اطلاعات هر نمونه در RL پایین‌تر و هزینه FLOPs برای هر سیگنال مؤثر بسیار بالاتر است، به‌ویژه در مراحل اولیه که اکتشافِ کم‌بازده نویز را زیاد می‌کند. پیامد عملی: هزینه محاسباتی و زمان شبیه‌سازی بالاتر، به‌خصوص در RL برای مدل‌های زبانی و RLHF که نیازمند زنجیره‌های تفکر طولانی‌اند. راهکارهای کاهش شکاف شامل بوت‌استرپ ارزش، برآورد مزیت، شکل‌دهی پاداش، زیان‌های کمکی و خودنظارتی، استفاده از داده‌های آفلاین، مدل‌محور/وردمدل و موازی‌سازی گسترده است. با این حال، حتی با این روش‌ها، عدم تقارن بنیادی باقی می‌ماند؛ بنابراین رویکردهای ترکیبی مانند پیش‌تمرین نظارت‌شده گسترده و سپس RL هدفمند با پاداشِ شکل‌داده‌شده و زیان‌های کمکی معمولاً بهینه‌تر است.

#RL #ReinforcementLearning #SupervisedLearning #FLOPs #SampleEfficiency #ScalingLaws #RLHF #AICompute

🟣لینک مقاله:
https://www.dwarkesh.com/p/bits-per-sample?utm_source=tldrai


👑 @ai_Labdon
عجب چیزیه این Nano Banana Pro!
هر مقاله یا متن طولانی‌ای رو که بهش بدی، سه سوته برات تبدیل می‌کنه به یه عکس وایت‌بردِ ترتمیز و پرجزئیات.
قشنگ خوراکِ کارهای آموزشیه.

اپل فارسی | AppleFarsi
♨️ چت گروهی ChatGPT برای همه فعال شد ؛ تا 20 نفر در یک گفتگو با هوش مصنوعی!

▪️شرکت Open Ai بالاخره قابلیت Group Chat رو جهانی کرد؛ حالا چه نسخه رایگان باشی چه پولی، می‌تونی تا ۲۰ نفر رو بیاری داخل یه چت مشترک… همگی در کنار ChatGPT!

▪️از این به بعد ChatGPT فقط یه دستیار تک‌نفره نیست؛ تبدیل شده به یک «اتاق فکر مشترک» برای تیم‌ها، خانواده‌ها و گروه‌های کاری.

▪️چه کارهایی می‌تونید باهاش انجام بدید؟

▫️سفر گروهی برنامه‌ریزی کنید
▫️پروژه و تحقیق مشترک جلو ببرید
▫️اسناد رو با هم بنویسید
▫️ایده‌پردازی تیمی داشته باشید
▫️اختلاف نظرها رو با کمک AI حل کنید

▫️و ChatGPT وسط بحث، براتون مقایسه کنه، خلاصه بده یا جستجو انجام بده

@
♨️ 4 آمریکایی در خطر 200 سال زندان؛ قاچاق GPUهای انویدیا به چین لو رفت!

▪️یک پرونده سنگین در آمریکا باز شده که چهار شهروند این کشور رو به‌خاطر قاچاق پردازنده‌های ممنوعه هوش مصنوعی به چین، تا مرز 2 قرن زندان برده!

▪️طبق اعلام وزارت دادگستری آمریکا، این افراد با شبکه‌ای از شرکت‌های پوششی و اسناد جعلی تونستن :

400 عدد A100
تلاش برای ارسال 50 عدد H200

و حتی 10 ابرکامپیوتر HPE مجهز به H100 رو از مسیرهایی مثل هنگ‌کنگ، مالزی و تایلند رد کنن و تحویل چین بدن.

@
⁉️ چطور ChatGPT رو دقیقاً مطابق کار خودت شخصی‌سازی کنی؟

▪️ویژگی جدید Personalization باعث میشه چت‌هات سه برابر بهتر، مرتبط‌تر و بدون حاشیه‌ی اضافی بشن ، فقط کافیه چند تنظیم کوچیک رو انجام بدی.

🌀 داخل تنظیمات برید تو بخش Personalization ، چند لحن مختلف وجود داره که هرکدوم برای یک موقعیته.
بهترینش رو باید بر اساس نیازت انتخاب کنی :

❗️لحن Default که خنثی و حرفه‌ای؛ مناسب مکالمات عمومی و آموزشی.

❗️لحن Professional : رسمی و دقیق؛ برای تحلیل‌های کاری، لوگو، استراتژی محتوا و… عالیه.

❗️لحن Friendly گرم و صمیمی؛ برای بیان راحت، مکالمات دوستانه و توضیح ساده مفاهیم.

❗️لحن Efficient ، خیلی مختصر، سریع و کاربردی؛ برای جواب‌های فنی و تصمیم‌گیری فوری.

❗️لحن Cynical ، کمی طعنه‌دار و تیز؛ مناسب نقد یا نگاه بدبینانه.

❗️لحن Nerdy ، عاشق توضیح‌های عمیق و علمی؛ مخصوص تکنولوژی، ریاضی و مباحث پیچیده.

❗️لحن Candid ، رک و صریح؛ بدون تعارف، کاملاً مستقیم.

❗️لحن Quirky ، خلاق و غیرمعمول؛ عالی برای ایده‌پردازی، داستان‌سازی و کارهای فانتزی.

@
1
خبر داغ برنامه‌نویسا : گزارش Stack Overflow 2025 نشون می‌ده ۸۴% دولوپرها از AI مثل ChatGPT و GitHub Copilot استفاده می‌کنن، اما ۶۶% کلافه از کدهای 'تقریباً باگی' هستن! Cursor و Copilot دارن کدینگ رو متحول می‌کنن، ولی دیباگش وقت‌گیره.

https://survey.stackoverflow.co/2025/ai/

<Arash/>

👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
1
Forwarded from Linux Labdon
کاهش هزینه سیستم‌های هوش مصنوعی با Semantic Caching

با رشد مدل‌های زبانی بزرگ و پیشرفته، هزینه و زمان پاسخ‌دهی هم به شدت افزایش پیدا کرده. مدل‌هایی مثل GPT-5 یا Claude برای کارهای پیچیده فوق‌العاده‌اند، ولی استفاده از اون‌ها هم پرهزینه و هم کند محسوب می‌شه. از طرف دیگه، AI Agentها واقعاً «توکن‌خور» هستن؛ یعنی برای انجام یک کار معمولاً چندین مرحله طی می‌کنن: تحقیق، برنامه‌ریزی، عمل و بازتاب و تکرار. همین باعث می‌شه چندین بار با مدل تماس بگیرن و در نتیجه هزینه و تأخیر افزایش پیدا کنه و متن‌های طولانی‌تر تولید بشه. برای مثال، یه بنچمارک اخیر از TheAgentCompany در ۲۰۲۵ نشون داده اجرای کامل یک Agent گاهی تا ۶.۸ دلار هزینه داره.

یکی از مشکلات اصلی در دنیای واقعی، تکراری بودن سوال‌هاست، مخصوصاً توی پشتیبانی مشتری. کاربران دائماً سوال‌های مشابهی می‌پرسن: مثل «چطور پولم رو پس بگیرم؟» یا «شرایط بازگشت وجه چیه؟» و Agent مجبور می‌شه هر بار پاسخ رو از صفر تولید کنه. نتیجه‌ش افزایش هزینه، طولانی شدن زمان پاسخ و فشار بیشتر روی سیستم‌های RAG و زیرساخت‌هاست.

در نگاه اول، ممکنه فکر کنیم کش کلاسیک کفایت می‌کنه. ایده‌ی کش ساده اینه که اگر یک سوال قبلاً پاسخ داده شده، دوباره سراغ مدل نریم. ولی مشکل اینجاست که کش سنتی دنبال Exact Match یا تطابق دقیق متنه. سوال‌هایی که از نظر معنی یکی هستن ولی عبارت‌هاشون فرق می‌کنه، مثل: «می‌خوام پولم رو پس بگیرم»، «چطور می‌تونم درخواست بازگشت وجه بدم؟» و «سیاست بازگشت پولتون چیه؟»، همه Cache Miss می‌شن و کش عملاً استفاده نمی‌شه.

اینجاست که Semantic Caching وارد می‌شه. به جای تطابق کلمه‌به‌کلمه، کش به معنی و مفهوم جمله نگاه می‌کنه. مزیت اصلی‌ش اینه که Recall و Hit Rate بالاتره و احتمال استفاده از کش و صرفه‌جویی خیلی بیشتر می‌شه. البته چالشش هم اینه که گاهی ممکنه جواب بی‌ربط بده یا همون «False Positive» رخ بده.

روش کار Semantic Caching ساده است ولی هوشمندانه: ابتدا سوال کاربر به Embedding یا بردار عددی تبدیل می‌شه. بعد با بردارهای موجود در کش با Semantic Search مقایسه می‌شه. اگر فاصله معنایی کم باشه، پاسخ از کش برگردونده می‌شه؛ در غیر این صورت به RAG یا LLM می‌ریم. در نهایت سوال و پاسخ جدید هم ذخیره می‌شه تا دفعه بعدی قابل استفاده باشه.

پیاده‌سازی Semantic Caching با چالش‌هایی همراهه؛ مثل دقت (Accuracy) که آیا کش جواب درست می‌ده، کارایی (Performance) و میزان Cache Hit، سرعت سرویس‌دهی، آپدیت‌پذیری کش و اینکه آیا می‌تونیم کش رو گرم، تازه‌سازی یا پاکسازی کنیم. همچنین مشاهده‌پذیری (Observability) مهمه تا بتونیم hit rate، latency، صرفه‌جویی هزینه و کیفیت کش رو بسنجیم.

معیارهای اصلی سنجش کش شامل Cache Hit Rate هست که نشون می‌ده چند درصد درخواست‌ها از کش پاسخ داده می‌شن و Precision/Recall/F1 Score که کیفیت و دقت پاسخ‌ها رو مشخص می‌کنه. برای بهبود دقت و کارایی کش هم می‌تونیم Threshold فاصله رو تنظیم کنیم، Reranker اضافه کنیم مثل Cross-encoder یا LLM-as-a-judge، از Fuzzy Matching برای تایپوها استفاده کنیم و فیلترهای اضافی مثل تشخیص پرسش‌های زمان‌محور (Temporal) یا تشخیص کد (Python، Java و…) اعمال کنیم تا سوالات اشتباه وارد کش نشن.

یه مثال واقعی از این تکنولوژی پروژه waLLMartCache در Walmart هست. اون‌ها با نوآوری‌هایی مثل Load Balancer برای توزیع کش روی چند Node و Dual-tiered Storage که L1 = Vector DB و L2 = In-memory Cache مثل Redis هست، هم سرعت و هم دقت رو بالا بردن. Multi-tenancy هم باعث شده چند تیم یا اپلیکیشن از یک زیرساخت مشترک استفاده کنن. Decision Engine هم شامل تشخیص کد و زمانه و اگر سوال مناسب کش نباشه مستقیماً به LLM یا RAG می‌ره. نتیجه‌ش رسیدن به دقت نزدیک ۹۰٪ بوده.

<Reza Jafari/>

👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
1
🔵 عنوان مقاله
Intelligence per Watt: Measuring Intelligence Efficiency of Local AI (30 minute read)

🟢 خلاصه مقاله:
** این مقاله «هوشمندی بر واحد وات» را به‌عنوان معیاری عملی برای آینده‌ٔ AI معرفی می‌کند: سنجش اینکه یک سیستم با چه کیفیتی و با چه مقدار انرژی می‌تواند کار مفید انجام دهد. در حالی‌که frontier models عمدتاً روی cloud اجرا می‌شوند و فشار قابل‌توجهی بر شبکه‌های برق وارد می‌کنند، شکاف عملکردی آن‌ها با مدل‌های کوچک‌تر که روی لپ‌تاپ و گوشی اجرا می‌شوند رو به کاهش است.

نویسنده پیشنهاد می‌دهد کارایی را نه صرفاً با سرعت، بلکه با «کیفیت بر حسب انرژی» بسنجیم: دقت یا موفقیت در هر ژول، انرژی به‌ازای هر توکن تحت آستانه‌ٔ کیفیت، و سنجه‌ٔ ترکیبی تأخیر–انرژی. برای کارهای چندرسانه‌ای، «انرژی به‌ازای تکمیل یک وظیفه» تصویر واقعی‌تری ارائه می‌دهد.

در عین حال، اندازه‌گیری منصفانه دشوار است و به مجموعه‌داده و پرامپت‌های استاندارد، تنظیمات یکنواخت، اندازه‌گیری انرژی در سطح کل دستگاه، و گزارش جزییات سخت‌افزار/نرم‌افزار و عدم‌قطعیت‌ها نیاز دارد.

جمع‌بندی: اگر یک مدل محلی با انرژی کمتر به کیفیت نزدیک به هدف برسد، علاوه بر کاهش هزینه و تأخیر، فشار بر شبکه برق را هم کم می‌کند؛ cloud برای آموزش و استنتاج‌های سنگین همچنان ضروری است. یک راهبرد ترکیبی—محلی به‌صورت پیش‌فرض و ابر در صورت نیاز—می‌تواند تعادل کیفیت، پایداری و پرفرمنس را حفظ کند. در نهایت، استانداردهای شفاف برای ارزیابی انرژی‌محور و پیشرفت‌های معماری و نرم‌افزاری، مرز «هوشمندی بر واحد وات» را به‌پیش خواهند برد.

#IntelligencePerWatt #LocalAI #EdgeAI #EnergyEfficiency #OnDeviceAI #AIInfrastructure #Sustainability #AIBenchmarking

🟣لینک مقاله:
https://arxiv.org/abs/2511.07885?utm_source=tldrai


👑 @ai_Labdon
🔵 عنوان مقاله
WeatherNext 2: Our most advanced weather forecasting model (4 minute read)

🟢 خلاصه مقاله:
** WeatherNext 2 یک مدل AI برای ارائه پیش‌بینی‌های آب‌وهوایی جهانی دقیق، کارآمد و با تفکیک‌پذیری بالا است و می‌تواند پیش‌بینی‌هایی با بازه زمانی تا یک ساعت تولید کند. داده‌های پیش‌بینی این مدل منتشر شده تا پژوهشگران، توسعه‌دهندگان و نهادهای عمومی بتوانند آن را تحلیل کرده و در ساخت ابزارها و سرویس‌های جدید به‌کار بگیرند. در هفته‌های آینده، WeatherNext 2 برای تقویت اطلاعات آب‌وهوایی در Google Maps ادغام می‌شود تا دقت و به‌موقع بودن اطلاعات در تجربه مسیریابی و برنامه‌ریزی سفر کاربران بهبود یابد.

#WeatherNext2 #AI #WeatherForecasting #GoogleMaps #HighResolution #DataRelease #Geospatial #ClimateTech

🟣لینک مقاله:
https://blog.google/technology/google-deepmind/weathernext-2/?utm_source=tldrai


👑 @ai_Labdon
🔵 عنوان مقاله
Arm custom chips get a boost with Nvidia partnership (3 minute read)

🟢 خلاصه مقاله:
Arm و Nvidia همکاری خود را گسترش داده‌اند تا اتصال مستقیم بین CPUهای Arm-based مبتنی بر Neoverse و GPUهای Nvidia از طریق فناوری NVLink Fusion امکان‌پذیر شود. این پیوند پرظرفیت و کم‌تأخیر ارتباط CPU–GPU را بهبود می‌دهد و اجرای بارهای کاری داده‌محور و AI/ML را کارآمدتر می‌کند، در حالی‌که انعطاف‌پذیری بیشتری در طراحی سرورها و کلاسترها فراهم می‌آورد. هم‌زمان، Microsoft، Amazon و Google در مقیاس ابری به توسعه یا استقرار CPUهای Arm روی آورده‌اند؛ بنابراین این همکاری، پیاده‌سازی سامانه‌های ترکیبی Arm+Nvidia را برای ارائه‌دهندگان ابر و مشتریان سازمانی ساده‌تر می‌کند. پیام استراتژیک این اعلام نیز روشن است: Nvidia با گشودن پلتفرم NVLink و عدم محدود کردن آن به CPUهای خود، به مشتریان اختیار انتخاب بیشتری می‌دهد و مسیر نوآوری در حوزه‌های AI، HPC و تحلیل داده را هموارتر می‌سازد.

#Arm #Nvidia #NVLink #Neoverse #GPUs #CloudComputing #AIInfrastructure #HPC

🟣لینک مقاله:
https://www.cnbc.com/2025/11/17/arm-nvidia-nvlink-partnership-custom-cpu.html?utm_source=tldrai


👑 @ai_Labdon
خبر خوب برای برنامه نویسانی که میخوان AI به پروژ هاشون اضافه کنند
فریم‌ورک byLLM که به کمکش می‌تونی مدل عظیم زبانی (LLM) رو توی نرم‌افزار‌ات با فقط یک خط کد وارد کنی، بدون اینکه پرامپت‌انجینیری دستی بکنی! این یعنی وقت کمتر روی طراحی پرامپت و بیشتر روی منطق واقعی
دانشگاه میشیگان

با زبان Jac کار می‌کنه (زبان برنامه‌نویسی ساخته‌ٔ Jaseci) ولی رابط پایتونی هم داره. هوش مصنوعی
برای شروع می‌تونی پکیج رو با:
pip install byllm
گیت هاب پروژ
https://github.com/jaseci-labs/jaseci/tree/main/jac-byllm

<Arash/>
🔵 عنوان مقاله
New ways to plan travel with AI in Search (4 minute read)

🟢 خلاصه مقاله:
ابزارهای جدید مبتنی بر هوش مصنوعی در Search برنامه‌ریزی سفر را ساده‌تر کرده‌اند. Canvas در AI Mode اکنون می‌تواند با کنار هم گذاشتن داده‌های پرواز، مقایسه هتل‌ها، بررسی‌های Maps و پیشنهاد رستوران‌ها، یک برنامه سفر کامل بسازد. شما می‌توانید مقصد، تاریخ، بودجه، علایق و ترکیب همراهان را مشخص کنید و سیستم، گزینه‌ها را به‌صورت منسجم و قابل ویرایش ارائه می‌کند؛ از معرفی پروازها و هتل‌های مناسب تا جمع‌بندی نکات مهم از بررسی‌های کاربران در Maps و پیشنهاد رستوران‌های هم‌سو با سلیقه و بودجه. همه این‌ها داخل Search انجام می‌شود تا بدون جابه‌جایی میان تب‌های متعدد، یک برنامه سفر روشن و قابل شخصی‌سازی در اختیار داشته باشید.

#AI #TravelPlanning #Search #Canvas #AIMode #Maps #Itinerary #TravelTech

🟣لینک مقاله:
https://blog.google/products/search/agentic-plans-booking-travel-canvas-ai-mode/?utm_source=tldrai


👑 @ai_Labdon
🔵 عنوان مقاله
OpenAI is finally letting employees donate their equity to charity (3 minute read)

🟢 خلاصه مقاله:
**OpenAI به‌صورت محدود و در یک بازه زمانی کوتاه، امکان اهدای سهام را برای کارکنان فعلی و سابقی که «سهام واجد شرایط» دارند فراهم کرده است. این اقدام یک مسیر رسمی برای اهدای سهام به خیریه ایجاد می‌کند تا افراد ناچار به فروش و تبدیل به نقدینگی در آینده نباشند. با توجه به خصوصی بودن شرکت، انتقال سهام معمولاً با محدودیت‌ها و فرایندهای تأیید همراه است و اهدای سهام ممکن است از طریق خیریه‌ها یا Donor-Advised Fund انجام شود. در برخی نظام‌های حقوقی، اهدای سهامِ دارای رشد ارزش می‌تواند از نظر مالیاتی به‌صرفه‌تر از فروش و اهدای نقدی باشد؛ اما جزئیات و مزایا به قوانین محلی، شرایط فردی و ضوابط OpenAI و نهاد دریافت‌کننده بستگی دارد. اطلاعات دقیق‌تر درباره معیارهای واجد شرایط بودن، زمان‌بندی، روش ارزش‌گذاری و فرایند انتقال از سوی شرکت به دارندگان سهام اعلام می‌شود.

#OpenAI #equity #philanthropy #charitablegiving #donations #startups #employees

🟣لینک مقاله:
https://www.theverge.com/ai-artificial-intelligence/822496/openai-employee-equity-donation-charity-rounds-share-valuation?utm_source=tldrai


👑 @ai_Labdon
👍1
🔵 عنوان مقاله
The Agent Labs Thesis (12 minute read)

🟢 خلاصه مقاله:
این نوشته توضیح می‌دهد که تمرکز در AI کاربردی از توسعه صرفِ مدل‌ها به ساخت «ایجنت‌های» محصول‌محور در حال جابه‌جایی است. در این رویکرد، Agent Labs با محوریت محصول، ایجنت‌هایی می‌سازند که مدل‌ها و ابزارها را برای حل مسائل واقعی ترکیب می‌کنند و با «قیمت‌گذاری مبتنی بر نتیجه» پول می‌گیرند؛ یعنی بابت خروجی قابل سنجش، نه مصرف توکن. این همسویی با ارزش مشتری معمولاً به جریان نقدی بهتر منجر می‌شود.

در مقابل، Model Labs مدل‌محور است و معمولاً «قیمت‌گذاری بر اساس توکن» دارد. اگرچه این مسیر می‌تواند به مقیاس زیرساختی و ارزش‌گذاری‌های بزرگ‌تر منتهی شود، Agent Labs به دلیل قراردادهای ارزش‌محور و ادغام عمیق با فرایندهای کسب‌وکار، از نظر نقدینگی کوتاه‌مدت وضعیت بهتری دارند اما احتمالاً دیرتر به خروج‌های با ارزش بالا می‌رسند.

هم‌زمان، با هم‌گرایی کارایی مدل‌ها و فشار رقابتی بر قیمت، مأموریت Model Labs ممکن است تا رسیدن به «شیفت الگوریتمی» بعدی به سمت لایه‌های بالاتر مانند ایجنت‌ها و راهکارهای عمودی تغییر کند. خلاصه اینکه Agent Labs امروز روی نتیجه و جریان نقدی بهینه می‌کنند و Model Labs برای مزیت واضح بعدی، چشم‌به‌راه جهش بزرگ الگوریتمی می‌مانند.

#AgentLabs #ModelLabs #AIAgents #OutcomeBasedPricing #AIEconomics #AIProductStrategy #TokenPricing

🟣لینک مقاله:
https://www.latent.space/p/agent-labs?utm_source=tldrai


👑 @ai_Labdon
🔵 عنوان مقاله
The market “did not appreciate” Nvidia's incredible quarter (1 minute read)

🟢 خلاصه مقاله:
** بازار با وجود یک فصل درخشان برای Nvidia واکنش پرشوری نشان نداد؛ انتظارات بالا و نگرانی‌های ارزشی‌گذاری باعث شد دستاوردها به‌طور کامل در قیمت‌ها بازتاب پیدا نکند. در همین فضا، Jensen Huang با شوخی گفت Nvidia «زمین را کنار هم نگه داشته»، و به پست‌هایی اشاره کرد که می‌گویند کار این شرکت حتی به جلوگیری از رکود در US کمک کرده است. این روایت هم‌زمان نقش محوری Nvidia در موج AI و زیرساخت داده را برجسته می‌کند و شکاف میان هیجان بلندمدت و نوسان کوتاه‌مدت بازار را یادآور می‌شود.

#Nvidia #JensenHuang #AI #StockMarket #Earnings #Semiconductors #USEconomy

🟣لینک مقاله:
https://threadreaderapp.com/thread/1992034582162715099.html?utm_source=tldrai


👑 @ai_Labdon