AI Labdon – Telegram
AI Labdon
466 subscribers
24 photos
4 videos
657 links
🕸 AI Labdon

بروز ترین مرجع خبری در مورد دنیایی هوش مصنوعی

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
لیستی از بهترین ابزارهای هوش مصنوعی برای کارهای پژوهشی

1️⃣ سایت typeset.io پاسخ به سؤالات بر اساس مقالات. همچنین دستیار مطالعه و بازنویسی متن.

2️⃣ سایت researchrabbit.ai  دسته‌بندی مقالات و یافتن ارتباط بین آن‌ها.

3️⃣ اکستنشن glasp.co  یادداشت‌برداری از مقالات به‌صورت مستقیم.

4️⃣ سایت semanticscholar.org  جست‌وجو و یافتن مقالات مشابه.

5️⃣ سایت consensus.app  پاسخ به سؤالات بر اساس داده‌های علمی
Forwarded from VIP
🚀 به دنیای توسعه و تکنولوژی خوش اومدی!

اگر به موضوعات زیر علاقه‌مندی:

🔹 Golang
🔹 Linux & DevOps
🔹 Software Engineering
🔹 AI & Machine Learning
🔹 فرصت‌های شغلی ریموت (خارجی و داخلی)

ما برات یه مجموعه کانال‌های تخصصی ساختیم تا همیشه به‌روز، حرفه‌ای و الهام‌بخش بمونی!
📚 یادگیری، فرصت، شبکه‌سازی و پیشرفت، همش اینجاست...

📌 از این لینک همه چنل‌هامونو یه‌جا ببین و جوین شو:

👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
🔵 عنوان مقاله
Private LLM Training (26 minute read)

🟢 خلاصه مقاله:
Opacus با پشتیبانی از Fully Sharded Data Parallel (FSDP) امکان آموزش خصوصی LLMها را مقیاس‌پذیرتر و به‌صرفه‌تر می‌کند. این ترکیب در PyTorch با توزیع پارامترها، گرادیان‌ها و حالت‌های بهینه‌ساز بین چند GPU، مصرف حافظه هر GPU را کاهش می‌دهد و اجازه می‌دهد اندازه مدل و Batch بزرگ‌تر شود. Opacus از DP-SGD با کلیپ‌کردن گرادیان در سطح نمونه و افزودن نویز استفاده می‌کند و بودجه حریم خصوصی را با حسابدارهایی مانند RDP پیگیری می‌کند. ادغام جدید باعث می‌شود کیفیت مدل در بودجه‌های حریم خصوصی ثابت بهتر حفظ شود و خصوصی‌سازی روی مدل‌های بزرگ عملی‌تر شود. مقاله همچنین به نکات اجرایی مانند تعامل محاسبه گرادیان در سطح نمونه با Sharding، مصالحه‌های ارتباطی، Mixed Precision و Activation Checkpointing، و بهترین‌روش‌ها برای مقداردهی اولیه تصادفی، کلیپینگ درست در بین Rankها و انتخاب حسابداری مناسب اشاره می‌کند. نتیجه نهایی: ریزتنظیم خصوصی LLMها برای حوزه‌های حساس با هزینه کمتر و مقیاس بهتر ممکن می‌شود.

#DifferentialPrivacy #Opacus #FSDP #PyTorch #LLM #PrivateAI #DistributedTraining

🟣لینک مقاله:
https://pytorch.org/blog/enabling-fully-sharded-data-parallel-fsdp2-in-opacus/?utm_source=tldrai


👑 @ai_Labdon
🔵 عنوان مقاله
Anthropic, Google in Talks on Multibillion-Dollar Cloud Deal (2 minute read)

🟢 خلاصه مقاله:
Anthropic در حال مذاکره اولیه با Google برای یک توافق ابری عظیم است که ارزش آن «ده‌ها میلیارد دلارِ بالا» برآورد می‌شود. بر اساس این طرح، Google ظرفیت محاسباتی بیشتری در اختیار Anthropic قرار می‌دهد و دسترسی گسترده‌تری به tensor processing units (TPUs) — تراشه‌های اختصاصی برای تسریع بارکاری یادگیری ماشین — فراهم می‌کند. Google پیش‌تر هم در Anthropic سرمایه‌گذاری کرده و از ارائه‌دهندگان خدمات ابری آن بوده است. هرچند جزئیات و زمان‌بندی نهایی نشده‌اند، اندازه این توافق نشان می‌دهد که دسترسی به محاسبات مقیاس‌بالا به محور اصلی پیشرفت اکوسیستم هوش مصنوعی تبدیل شده و شراکت‌های عمیق بین آزمایشگاه‌های AI و ارائه‌دهندگان ابر در حال شکل‌دهی به مرحله بعدی این صنعت هستند.

#Anthropic #Google #CloudComputing #TPU #MachineLearning #AIInfrastructure #AI #TechDeal

🟣لینک مقاله:
https://www.bloomberg.com/news/articles/2025-10-21/anthropic-google-in-talks-on-cloud-deal-worth-tens-of-billions?utm_source=website&utm_medium=share&utm_campaign=copy


👑 @ai_Labdon
1
لازم نیست دیگه وقتت رو صرف خواندن راجب مدل  بکنی و دیتاست و پیچیدگی‌های کار،Auto tuneهوش مصنوعی که برای فاین‌تیونینگ فکر می‌کنه!

یه دستیار هوشمند مخصوص پژوهشگرها، دولوپرها و علاقه‌مندان هوش مصنوعی‌ه که بهت کمک می‌کنه بهترین مدل‌ها، دیتاست‌ها و استراتژی‌ها رو برای پروژه‌ فاین‌تیونینگت پیدا کنی.
کافیه فقط توضیح بدی چی می‌خوای انجام بدی — AutoTune خودش همه‌چی رو برات پیدا می‌کنه:

- می‌گرده توی HuggingFace، ArXiv و Kaggle
- نیازت رو با تحلیل هوشمند تشخیص می‌ده
- یه گزارش پژوهشی کامل با پیشنهاد مدل و دیتاست برات می‌سازه
- و حتی مسیر اجرای پروژه‌ت رو قدم‌به‌قدم مشخص می‌کنه!

با AutoTune، فقط حرف بزن… و بقیه‌ش رو بسپار به هوش مصنوعی

https://github.com/amirhoseinnaderali-pixel/AutoTune-Research-Assistan

| <Am/>
یک بلاگ عالی از کمپانی HuggingFace اومده که یک راهنمای کامل هست راجع به OCR از جمله:
- چشم‌انداز مدل‌های فعلی و قابلیت‌های آن‌ها
- مقایسه انواع مدلها
- زمان مناسب برای فاین‌تیون کردن مدل‌ها در مقابل استفاده از مدل‌های آماده
- عوامل کلیدی در انتخاب مدل مناسب برای مورد استفاده‌تان
- چگونه فراتر از OCR بروید با استفاده از بازیابی multimodal و پرسش‌و‌پاسخ مبتنی بر اسناد
اگه تسک های مربوط به OCR دارید یا در حجم بالای چند ده هزار باید OCR کنید این بلاگ خیلی کمک میکنه و ایده بهتون میده.
حتما بخونید:
https://huggingface.co/blog/ocr-open-models

| <Mehdi Allahyari/>
1
🔵 عنوان مقاله
Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity (20 minute read)

🟢 خلاصه مقاله:
این مقاله می‌گوید یکنواختی و تکراری‌شدن خروجی LLMها نتیجه «سوگیری تیپیکالیتی» در آموزش است؛ یعنی ارزیاب‌های انسانی در آموزش ترجیح می‌دهند پاسخ‌های آشنا و کم‌ریسک را انتخاب کنند و مدل‌ها به همان الگوها فرو می‌افتند. راهکار پیشنهادی ساده است: از مدل بخواهید چند خروجی متمایز را همراه با احتمال هرکدام تولید کند («verbalized sampling»). با این کار، مدل چند حالت معتبر اما کمتر تکراری را هم رو می‌کند و شما می‌توانید بر اساس وزن‌ها انتخاب یا نمونه‌گیری کنید. این روش بدون نیاز به فاین‌تیون و روی مدل‌هایی مثل ChatGPT، Claude و Gemini حدود ۲ برابر تنوع خلاقانه را افزایش داده و ارزیابی انسانی را حدود ۲۶٪ بهتر کرده است؛ از شوخی‌نویسی و داستان‌نویسی تا شبیه‌سازی اجتماعی. تفاوت آن با بالا بردن temperature این است که به‌جای افزودن نویز، توزیع گزینه‌های معقول را آشکار می‌کند. البته احتمال‌ها ممکن است کاملاً کالیبره نباشند و این روش تضمین‌کننده واقعیت‌مندی نیست، اما برای ایده‌پردازی، نقش‌آفرینی و برنامه‌ریزی اکتشافی بسیار مؤثر است. توصیه عملی: ۵ تا ۱۰ گزینه متمایز، جمع احتمالات برابر ۱، و ادامه‌دادن شاخه منتخب با یک پرامپت دقیق‌تر.

#LLM #ModeCollapse #VerbalizedSampling #PromptEngineering #GenerativeAI #NLP #AIResearch #Creativity

🟣لینک مقاله:
https://simonucl.notion.site/verbalized-sampling?utm_source=tldrai


👑 @ai_Labdon
توکن چیه و چجوری محاسبه میشه؟

1. تعریف توکن:
توکن کوچکترین واحد متنی است که مدل‌های هوش مصنوعی مانند GPT-4 آن را پردازش می‌کنند. توکن‌ها می‌توانند شامل کلمات، حروف، علائم نگارشی یا حتی فضاهای خالی باشند. به عنوان مثال، در زبان انگلیسی، یک کلمه کامل یا حتی بخشی از یک کلمه می‌تواند به عنوان یک توکن در نظر گرفته شود.

2. فرآیند توکنیزاسیون
فرآیندی است که در آن یک متن به توکن‌های کوچکتر شکسته می‌شود. این فرآیند به مدل کمک می‌کند تا متن را به بخش‌های قابل فهم و پردازش تبدیل کند. الگوریتم‌های خاصی برای این کار و ساختار جمله، تصمیم می‌گیرند که کجا متن را به توکن‌های مجزا تقسیم کنند.

3. محاسبه تعداد توکن‌ها:
تعداد توکن‌های یک متن با اعمال فرآیند توکنیزاسیون بر روی متن محاسبه می‌شود. هر توکن معادل یک بخش از متن است که مدل باید آن را پردازش کند. بنابراین، هرچه تعداد توکن‌ها بیشتر باشد، پردازش و محاسبات بیشتری نیاز است.

4. مثال توکنیزاسیون:
برای مثال، جمله “سلام، دنیا!” ممکن است به این صورت توکنیزه شود:
[‘سلام’, ‘،’, ‘دنیا’, ‘!’] در اینجا هر کلمه و علامت نگارشی به عنوان یک توکن در نظر گرفته می‌شود.

5. کاربرد توکن‌ها در دنیای واقعی:
درک مفهوم توکن‌ها برای بهینه‌سازی استفاده از مدل‌های زبانی در برنامه‌هایی مانند چت‌بات‌ها، تحلیل متن و ترجمه ماشینی بسیار مهم است. با دانستن نحوه محاسبه توکن‌ها، توسعه‌دهندگان می‌توانند اندازه ورودی‌ها را بهتر مدیریت کنند و از منابع محاسباتی بهینه استفاده کنند، به خصوص در مواردی که محدودیت منابع وجود دارد.
👍1🥰1
زمانی که Ai نبود برنامه‌نویسی بیشتر حال می‌داد.

موافقم 👍
.
مخالفم 👎
👍30👎19
🔵 عنوان مقاله
Google Veo 3.1 (3 minute read)

🟢 خلاصه مقاله:
** Google نسخه Veo 3.1 را معرفی کرده که با بهبود خروجی صوتی، پایبندی دقیق‌تر به پرامپت‌ها و تولید ویدیوی واقعی‌تر همراه است. علاوه بر این، Flow editor ارتقا یافته و قابلیت‌های object-level control، image-to-video blending و audio-enabled video extensions را اضافه کرده است. نتیجه این تغییرات، کنترل بیشتر، خروجی قابل‌پیش‌بینی‌تر و سرعت بالاتر در تبدیل ایده به ویدیو برای تیم‌های خلاق و تولیدکنندگان محتواست.

#Google #Veo #Veo3_1 #GenerativeAI #VideoGeneration #FlowEditor #AIEditing #CreativeTools

🟣لینک مقاله:
https://blog.google/technology/ai/veo-updates-flow/?utm_source=tldrai


👑 @ai_Labdon
AI Labdon pinned «زمانی که Ai نبود برنامه‌نویسی بیشتر حال می‌داد. موافقم 👍 . مخالفم 👎»
♨️ شرکت OpenAI وارد دنیای موسیقی شد!

▪️بعد از متن، تصویر و ویدیو، حالا نوبت موسیقیه ، OpenAI در آستانه معرفی مدل جدیدی برای تولید آهنگ با هوش مصنوعی قرار داره.

▪️این مدل ادامه‌ی پروژه‌های قدیمی‌تر مثل MuseNet و Jukeboxه و با داده‌هایی از دانشجویان مدرسه موسیقی Juilliard آموزش دیده تا خروجی‌هاش کیفیت هنری بالایی داشته باشن.

+ یعنی رقابت مستقیم با ابزارهایی مثل Suno و Udio
📣 هشدار جدی امنیتی درباره مرورگر Atlas

▪️مرورگر جدید ChatGPT یعنی Atlas گرفتار یک باگ خطرناک شده؛ چیزی به اسم Clipboard Injection.

▪️با این باگ، سایت‌های مخرب میتونن وقتی یه چیزی کپی میکنی ، محتوای کلیپ‌بوردت رو عوض کنن! مثلا به‌جای لینک سالم، لینک فیشینگ یا دستور مخرب جا بزنن ، بدون اینکه حتی بفهمی.

+ البته OpenAI تأکید کرده که Atlas فعلاً نمی‌تونه کد اجرا کنه یا افزونه نصب کنه، و در سایت‌های حساس (مثل بانکی) به‌صورت خودکار متوقف میشه.
♨️ پژوهشگران هشدار دادند: چت‌بات‌های هوش مصنوعی روزبه‌روز چاپلوس‌تر می‌شوند!

▪️طبق تحقیقی از دانشگاه‌های استنفورد، چت‌بات‌های هوش مصنوعی بیش از حد به تأیید کاربران تمایل دارند ، حتی وقتی کاربر اشتباه میکنه یا رفتارش غیراخلاقیه!

▪️تو این تحقیق، 11 چت‌بات از جمله ChatGPT، Gemini، Claude و LLaMA بررسی شدند و نتیجه این شد که هوش‌های مصنوعی حدود 50% بیشتر از انسان‌ها تمایل دارند حرف‌های کاربر رو تأیید کنند و از قضاوت صریح دوری می‌کنند.

▪️برای مثال، ChatGPT-4o در واکنش به کاربری که زباله رو به شاخه‌ی درخت بسته بود، نیت اون رو «قابل ستایش» توصیف کرد!

🗣️ دکتر «الکساندر لافر» می‌گوید:

«چت‌بات‌ها باید انسان‌ها را به تفکر و رشد اجتماعی تشویق کنند، نه فقط آن‌ها را تحسین.»
🔵 عنوان مقاله
The Not-so Bitter Lesson (8 minute read)

🟢 خلاصه مقاله:
AGI هنوز همه‌چیز را قبضه نکرده و به این زودی هم نخواهد کرد؛ بنابراین نقش مهندسان نرم‌افزار همچنان کلیدی است. راهبرد عملی این است که به‌جای راه‌حل‌های سفارشی و شکننده، سامانه‌های مقیاس‌پذیر بسازیم که از Search و Compute بهره می‌برند، مدل‌ها و ابزارها را به‌صورت ماژولار و قابل‌تعویض مدیریت می‌کنند و با ارکستریشن درست، بازیابی، ایندکس، کش و اکتشاف موازی، قابلیت اتکا را بالا می‌برند. به‌جای «راه‌حل»، «هارنس» بسازید: مجموعه‌های ارزیابی، داده‌های مرجع، تست‌های ترکیبی، مانیتورینگ و مشاهده‌پذیری، ردیابی هزینه/تاخیر و گاردریل‌های ایمنی؛ و با A/B و ارزیابی مستمر، بهبود را سریع و کم‌هزینه کنید. مهم‌تر از همه، به‌جای کدنویسی پاسخ‌های سخت‌گیرانه، خود مسئله را دقیق تعریف کنید: ورودی/خروجی، قیود، بودجه خطا، SLA و اینورینت‌ها. با مسئله‌ی خوب‌تعریف‌شده، Search و Compute می‌توانند پیکربندی‌های ممکن را بیابند و سیستم با آمدن مدل‌ها و ابزارهای بهتر، بدون بازنویسی اساسی تکامل یابد. این همان «درس نه‌چندان تلخ» است: آینده با ساخت زیرساخت، هارنس و تعریف مسئله به نفع مهندسان رقم می‌خورد.

#AGI #SoftwareEngineering #SystemDesign #ScalableSystems #SearchAndCompute #MLOps #Evaluation

🟣لینک مقاله:
https://blog.mariusvach.com/posts/bitter-lesson?utm_source=tldrai


👑 @ai_Labdon
🔥 «گراکی‌پدیا» رقیب جدید ویکی‌پدیا شد!

▪️پلتفرم Grokipedia با حدود 800 هزار مقاله اولیه رسماً راه‌اندازی شد. تفاوت جالبش با ویکی‌پدیا اینه که مقاله‌هاش توسط هوش مصنوعی Grok نوشته میشن ، اونم نه از خودش، بلکه با بررسی 200 تا 300 منبع مختلف برای هر مطلب!

▪️کاربران معتقدن مقالات گراکی‌پدیا سوگیری دارن، ولی خب همین انتقاد به ویکی‌پدیا هم همیشه بوده. مثلاً صفحه «ایلان ماسک» توی ویکی‌پدیا بیشتر نقدآمیزه، اما توی گراکی‌پدیا بیشتر روی دستاوردهاش تمرکز شده.

+ فعلاً صفحات گراکی‌پدیا تصویر ندارن، ولی هدفش اینه که یه منبع دقیق و سریع از نگاه هوش مصنوعی باشه.
🔥1
🔵 عنوان مقاله
Google revamps AI Studio with new features for vibe coding (2 minute read)

🟢 خلاصه مقاله:
گوگل نسخه بازطراحی‌شده‌ای از رابط کاربری AI Studio را معرفی کرده که با تمرکز بر توسعه‌دهندگان، استارتاپ‌ها و کاربران غیرمتخصص، فرایند نمونه‌سازی سریع هوش مصنوعی را ساده‌تر می‌کند. این به‌روزرسانی با قابلیت‌های تازه برای vibe coding، جریان کار را از prompt تا تولید روان‌تر کرده و اصطکاک بین ایده‌پردازی، آزمایش و ساخت اپلیکیشن را کاهش می‌دهد. همچنین امکان استقرار یک‌کلیکی پروژه‌ها روی Google Cloud Run فراهم شده تا تبدیل نمونه اولیه به سرویس اجرایی بدون ترک محیط انجام شود. پیش‌نمایش متحرک رابط جدید در مقاله قابل مشاهده است.

#Google #AIStudio #VibeCoding #GoogleCloudRun #AIDevelopment #Prototyping #DevTools #GenerativeAI

🟣لینک مقاله:
https://www.testingcatalog.com/google-revamps-ai-studio-with-new-features-for-vibe-coding/?utm_source=tldrai


👑 @ai_Labdon
🔵 عنوان مقاله
Introducing Claude Haiku 4.5 (2 minute read)

🟢 خلاصه مقاله:
Anthropic مدل کوچک Claude Haiku 4.5 را معرفی کرده که با هزینه‌ای حدود یک‌سوم و سرعتی دو برابر، عملکردی هم‌تراز با Claude Sonnet 4 ارائه می‌دهد. این مدل در سناریوهای پرترافیک و کم‌تاخیر مانند پشتیبانی مشتری، تولید محتوا، کمک کدنویسی و استخراج داده مقرون‌به‌صرفه و سریع عمل می‌کند. Haiku 4.5 همچنین امکان ساخت جریان‌های کاری multi-agent را فراهم می‌کند؛ جایی که Sonnet 4.5 نقش برنامه‌ریز و هماهنگ‌کننده را برعهده دارد و چندین مدل Haiku را به‌صورت موازی مدیریت می‌کند تا با شکستن کارهای پیچیده به وظایف کوچک‌تر، به خروجی یکپارچه، سریع‌تر و کم‌هزینه‌تر برسد. ترکیب Sonnet 4.5 برای استدلال و ارکستراسیون و Haiku 4.5 برای اجرای سریع و اقتصادی، راه را برای طراحی عامل‌های مقیاس‌پذیر با توازن پویا بین سرعت و کیفیت هموار می‌کند.

#Anthropic #Claude #Haiku45 #Sonnet45 #ClaudeSonnet4 #MultiAgent #AIModels #GenerativeAI

🟣لینک مقاله:
https://www.anthropic.com/news/claude-haiku-4-5?utm_source=tldrai


👑 @ai_Labdon
👍1