Algorithm design & data structure – Telegram
Algorithm design & data structure
6.95K subscribers
1.14K photos
151 videos
176 files
716 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
اگه دوست دارید بدونید یه سیستم Realtime Recommendation چطور در عمل ساخته می‌شه، این ریپو یه نمونه‌ی کامل از صفر تا صد رو ارائه می‌ده؛ از طراحی معماری سیستم و Feature Engineering گرفته تا پیاده‌سازی مدل و مباحث MLOps، همه‌چیز با کد و توضیح شفاف پوشش داده شده و دید خیلی خوبی از ساخت یک سیستم توصیه‌گر واقعی در مقیاس عملی می‌ده.

https://github.com/decodingai-magazine/personalized-recommender-course

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
👍4
🛠 دوره آموزش MLflow
مدیریت حرفه‌ای پروژه‌های یادگیری ماشین

نسخه آپدیت‌شده‌ی دوره MLflow for ML Dev منتشر شده؛ مناسب کسایی که می‌خوان پروژه‌های ML رو منظم و قابل‌پیگیری اجرا کنن.

📌 مباحث اصلی:
راه‌اندازی و تنظیم MLflow
ساخت و مدیریت Experiments
لاگ کردن متادیتا
کار با Model Registry
تیونینگ و بهبود مدل‌ها
اجرای یه پروژه کامل با MLflow
Youtube Playlist
GitHub

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
👨‍💻1
📘 LLMs from Scratch
آموزش ساخت مدل‌های زبانی بزرگ از صفر

این ریپوی گیت‌هاب قدم‌به‌قدم نشون می‌ده که LLMها واقعاً چطور ساخته می‌شن؛ بدون وابستگی به فریم‌ورک‌های آماده و فقط با تمرکز روی مفاهیم اصلی.

🔹 پیاده‌سازی ترنسفورمر از پایه
🔹 درک عملی Self-Attention و Tokenization
و...

https://github.com/rasbt/LLMs-from-scratch

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
👍3🙏2
🚀 یادگیری پیاده‌سازی LLaMA 4 از صفر

یکی از محبوب‌ترین خانواده‌های LLMs است و LLaMA 4 جدیدترین و پیشرفته‌ترین نسخه‌ی این سری محسوب می‌شود.

این ویدیوی آموزشی توضیح می‌دهد که چگونه LLaMA 4 را از صفر پیاده‌سازی کنیم و موارد زیر را پوشش می‌دهد:
How LLM works
Tokens
Code tokenizer
Attention explained
Code attention
RoPE
RoPE code & attention
Feed forward


Youtube Playlist
GitHub

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
🙏2
🧠 Agentic RAG for Dummies

یک پروژه آموزشی–عملی برای ساخت یک سیستم Agentic RAG واقعی و آماده‌ی استفاده در محیط Production است.

در این پروژه یاد می‌گیرید چگونه:

یک RAG هوشمند مبتنی بر Agent بسازید.

از LangGraph برای orchestration عامل‌ها استفاده کنید.

حافظه مکالمه (Conversation Memory) داشته باشید.

سوال‌های مبهم را به‌صورت خودکار اصلاح یا از کاربر شفاف‌سازی کنید.

با Multi-Agent Map-Reduce چند سؤال را به‌صورت موازی پردازش کنید.

یک رابط کاربری Gradio کامل برای تعامل بسازید.

https://github.com/GiovanniPasq/agentic-rag-for-dummies/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
🔥1
🤖 یادگیری تقویتی عمیق (Deep Reinforcement Learning)

در مدت کوتاهی میتوانید، مباحث مقدماتی، متوسط و پیشرفته یادگیری تقویتی عمیق را یاد بگیرید!
در این مخزن ، همه چیز به‌صورت منظم و ساختارمند گردآوری شده است؛ از مقالات و آموزش‌ها گرفته تا ویدئوهای یوتیوب، پیاده‌سازی مقالات، پروژه‌ها و کدها 🚀

http://github.com/andri27-ts/Reinforcement-Learning

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
💯4👍1👌1
بیشتر افراد ساعت‌ها وقت خود را صرف پیدا کردن منابع باکیفیت هوش مصنوعی می‌کنند.

اما این ریپوی GitHub، بی‌سروصدا ۱۳ کتاب رایگان و درجه‌یک AI را منتشر کرده؛
همه مفید و عمیق، بدون حاشیه 📚

داخل این مجموعه چه چیزهایی پیدا می‌کنید؟ 👇

🧠 مبانی LLM
🎯 یادگیری تقویتی
💼 مصاحبه‌های Deep Learningه
📐 ریاضیات یادگیری ماشین
🤖 راهنمای OpenAI Agent
موارد بیشتر:
https://github.com/AniruddhaChattopadhyay/Books
#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
🙏3
گوگل. آمازون. مایکروسافت. نتفلیکس.

بیش از ۳۰۰ مطالعه‌ی موردی واقعی از طراحی سیستم‌های یادگیری ماشین در حدود ۸۰ شرکت.

یک ریپازیتوری پیدا کردم که دقیقاً توضیح می‌دهد سیستم‌های ML در مقیاس صنعتی و واقعی چطور ساخته می‌شوند.
https://github.com/Engineer1999/A-Curated-List-of-ML-System-Design-Case-Studies

اگر در یادگیری ماشین، داده، یا Engineering Leadership جدی هستید، بررسی این‌که چرا سیستم‌ها به این شکل طراحی شده‌اند، یکی از پربازده‌ترین مهارت‌هایی است که می‌توانید یاد بگیرید.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
👌1
توی این سایت ابزار بصری جالبی برای تست و مشاهده عملکرد الگوریتم‌های معروف جستجو ارائه می‌دهد. الگوریتم‌های مسیر‌یابی کوتاه‌ترین مسیر را با استفاده از همین روش‌ها پیدا می‌کنند.

https://qiao.github.io/PathFinding.js/visual/

A*:
جستجوی کم‌هزینه با استفاده از تخمینگر (Heuristic).

IDA*:
نسخه‌ای از A* که حافظه کمتری مصرف می‌کنه.

Breadth-First Search (BFS):
جستجوی پهنای سطح، مسیر کوتاه‌ترین تعداد قدم‌ها رو پیدا می‌کنه.

Best-First Search:
انتخاب مسیر براساس بهترین تخمین فعلی به هدف.

Dijkstra:
مسیر کم‌هزینه واقعی رو پیدا می‌کنه بدون استفاده از تخمین.

Jump Point Search:
بهینه‌سازی A* برای شبکه‌های گرید با پرش نقاط.

Orthogonal Jump Point Search:
نسخه محدود به حرکات افقی و عمودی Jump Point Search.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
💯1
🎓 Advanced Large Language Model Agents – Spring 2025 (UC Berkeley)

درس پیشرفته‌ای درباره عامل‌های هوشمند مبتنی بر LLM که روی مهارت‌های کلیدی مثل استدلال پیچیده، برنامه‌ریزی، تولید کد و ریاضیات تمرکز دارد.
این درس به‌صورت عمیق به تکنیک‌های Inference-time و Post-training، جست‌وجو و برنامه‌ریزی، Agentic Workflow، استفاده از ابزارها، و کاربرد LLMها در اثبات قضایا و راستی‌آزمایی برنامه‌ها می‌پردازد.

https://rdi.berkeley.edu/adv-llm-agents/sp25

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
🚀 روش جدید RLEP:

آموزش مدل‌های زبانی بزرگ (LLM) با روش‌های تقویتی (RL) معمولاً ناپایدار و پرهزینه است؛ درست مثل کوهنوردی که تا نیمه راه می‌رود اما خسته می‌شود و دوباره باید از صفر شروع کند!

این مقاله روشی به نام RLEP را معرفی می‌کند که این مشکل را حل کرده است. ایده ساده اما قدرتمند است: ۱. جمع‌آوری: ابتدا مدل تلاش می‌کند و مسیرهای رسیدن به پاسخ "صحیح" را ذخیره می‌کند. ۲. بازپخش (Replay): در آموزش‌های بعدی، مدل این تجربه‌های موفق قبلی را با تلاش‌های جدید ترکیب می‌کند.

نتیجه؟ مدل دیگر وقتش را برای کشف مسیرهای بی‌فایده تلف نمی‌کند، یادگیری‌اش پایدارتر می‌شود و در حل مسائل پیچیده ریاضی (روی مدل Qwen2.5) رکوردها را جابه‌جا کرده است.

🔗 اطلاعات بیشتر به لینک زیر مراجعه کنید:
https://arxiv.org/pdf/2507.07451

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
👏1
۱۰۰+ سؤال و جواب مصاحبه LLM

برای هر کسی که در حال آماده شدن برای مصاحبه‌های AI / ML است، داشتن دانش قوی در زمینه موضوعات مرتبط با مدل‌های زبانی بزرگ (LLM) کاملاً ضروری است.

این ریپازیتوری شامل بیش از ۱۰۰ سؤال مصاحبه LLM همراه با پاسخ است که طیف گسترده‌ای از مباحث LLM را پوشش می‌دهد، از جمله:
LLM Inference
LLM Fine-Tuning
LLM Architectures
LLM Pretraining
Prompt Engineering
etc.

https://github.com/KalyanKS-NLP/LLM-Interview-Questions-and-Answers-Hub

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructue
🙏1