این مقاله یه چارچوب جدید یادگیری تو در تو یا Nested Learning رو معرفی میکنه که یه دیدگاه متفاوت از ساختار مدل های یادگیری عمیق ارائه میده. به جای اینکه معماری های یادگیری عمیق رو بهعنوان سلسله مراتبی از لایههای پردازشی ببینیم، یادگیری تو در تو اونارو سیستمی از مسائل بهینهسازی تو در تو تفسیر میکنه که هر کدوم context flow خودشونو دارنو و با فرکانس های مختلف بروز میشن.
این دیدگاه الهامگرفته از نحوهٔ عملکرد مغز ما انسانهاس ، بهویژه تو فرایند تثبیت حافظه که به دو شکل آنلاین ( حین یادگیری) و آفلاین (حین خواب) انجام میشه. مقاله نیگه که مدلهای زبانی بزرگ بعد از تموم شدن آموزش اولیشون، مثل یه فرد مبتلا به فراموشی پیش گستر (Anterograde Amnesia) عمل میکنن؛ یعنی نمیتونن دانش جدید رو تو حافظه بلند مدتشون ذخیره کنن و صرفا به اطلاعات داخل پنجره توجه کوتاه مدت خود متکین.
نویسندگان این مقاله، یادگیری تو در تو رو به عنوان یه راه برای طراحی سیستم های یادگیری پویاتر پیشنهاد میدن. تو این چارچوب، همه مولفه های یه مدل از جمله شبکه های عصبی و بهینهساز ها، بهعنوان ماژولهای حافظه شرکت پذیر یا انجمنی (Associative Memory) دیده میشن که سعی میکنن روابط بین ورودی ها (مثل توکنها یا گرادیان ها) و خروجی ها (مثل سیگنالهای خطا یا مقادیر هدف) رو تو پارامترهای خودشون فشرده کنن.
بهعنوان مثال، بهینهساز هایی مثل اس جی دی با مومنتوم یا آدام هم به عنوان حافظههایی تفسیر میشن که گرادیان های گذشته رو ذخیره میکنن. بر این اساس، نویسنده ها چندین بهبود عملکرد رو ارائه میدن: اول، بهینهساز های عمیق تر که از حافظه های غیرخطی (مثل ام ال پی) و قوانین یادگیری قوی تر (مثل قاعده دلتا) استفاده میکنن؛ دوم، یه مدل توالی جدید به اسم (خودتغییردهنده Titans) که تو زمان تست الگوریتم بروزرسانی خودش رو یاد میگیره؛ و سوم، یه سیستم حافظه پیوسته که دیدگاه سنتی حافظهٔ کوتاه مدت/بلند مدت رو با طیفی از حافظهها با فرکانس های بهروزرسانی مختلف جایگزین میکنه.
با ترکیب این ایدهها، مدل HOPE طراحی میشه که تو اون هر لایه ام ال پی با فرکانس متفاوتی بروز میشه و مدل به طور همزمان از چندین سطح ابسترکت و مقیاس زمانی یاد میگیره. نتایج ارزیابی نشون میده که HOPE در مقایسه با ترنسفورمر و مدلهای مدرن RNN تو وظایف مدل سازی زبان، استدلال و یادگیری مداوم عملکرد رقابتی یا حتی بهتری داره!
🔔 Nested Learning: The Illusion of Deep Learning Architectures
#یادگیری_عمیق #یادگیری_ماشین #ماشین_لرنینگ #مقاله #شبکه_عصبی #ایده_جذاب
🔹 مطالب بیشتر 👇 👇
✅ @AI_DeepMind
✅ @AI_Person
این دیدگاه الهامگرفته از نحوهٔ عملکرد مغز ما انسانهاس ، بهویژه تو فرایند تثبیت حافظه که به دو شکل آنلاین ( حین یادگیری) و آفلاین (حین خواب) انجام میشه. مقاله نیگه که مدلهای زبانی بزرگ بعد از تموم شدن آموزش اولیشون، مثل یه فرد مبتلا به فراموشی پیش گستر (Anterograde Amnesia) عمل میکنن؛ یعنی نمیتونن دانش جدید رو تو حافظه بلند مدتشون ذخیره کنن و صرفا به اطلاعات داخل پنجره توجه کوتاه مدت خود متکین.
نویسندگان این مقاله، یادگیری تو در تو رو به عنوان یه راه برای طراحی سیستم های یادگیری پویاتر پیشنهاد میدن. تو این چارچوب، همه مولفه های یه مدل از جمله شبکه های عصبی و بهینهساز ها، بهعنوان ماژولهای حافظه شرکت پذیر یا انجمنی (Associative Memory) دیده میشن که سعی میکنن روابط بین ورودی ها (مثل توکنها یا گرادیان ها) و خروجی ها (مثل سیگنالهای خطا یا مقادیر هدف) رو تو پارامترهای خودشون فشرده کنن.
بهعنوان مثال، بهینهساز هایی مثل اس جی دی با مومنتوم یا آدام هم به عنوان حافظههایی تفسیر میشن که گرادیان های گذشته رو ذخیره میکنن. بر این اساس، نویسنده ها چندین بهبود عملکرد رو ارائه میدن: اول، بهینهساز های عمیق تر که از حافظه های غیرخطی (مثل ام ال پی) و قوانین یادگیری قوی تر (مثل قاعده دلتا) استفاده میکنن؛ دوم، یه مدل توالی جدید به اسم (خودتغییردهنده Titans) که تو زمان تست الگوریتم بروزرسانی خودش رو یاد میگیره؛ و سوم، یه سیستم حافظه پیوسته که دیدگاه سنتی حافظهٔ کوتاه مدت/بلند مدت رو با طیفی از حافظهها با فرکانس های بهروزرسانی مختلف جایگزین میکنه.
با ترکیب این ایدهها، مدل HOPE طراحی میشه که تو اون هر لایه ام ال پی با فرکانس متفاوتی بروز میشه و مدل به طور همزمان از چندین سطح ابسترکت و مقیاس زمانی یاد میگیره. نتایج ارزیابی نشون میده که HOPE در مقایسه با ترنسفورمر و مدلهای مدرن RNN تو وظایف مدل سازی زبان، استدلال و یادگیری مداوم عملکرد رقابتی یا حتی بهتری داره!
#یادگیری_عمیق #یادگیری_ماشین #ماشین_لرنینگ #مقاله #شبکه_عصبی #ایده_جذاب
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤5🔥1👌1🆒1
پیشبینیها از بازار هوش مصنوعی تا سال 2030
به سهم هر قسمت توجه کنید، همه چیز LLM نیست.
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
✅ @reza_jafari_ai
به سهم هر قسمت توجه کنید، همه چیز LLM نیست.
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍5☃1👌1
Qwen3-VL Tech report is now out on arXiv!
From pretraining to post-training, architecture to infra, data to evaluation — we’ve packed in the details for anyone building on vision-language models.
🔥 3 models >1M downloads in just over a month
🏆 Qwen3-VL-8B leads with 2M+ downloads
📚 Built on the shoulders of Qwen2.5-VL (2800+ citations in <10 months!)
Check out the paper for insights, baselines, and future directions.
Let’s keep pushing VLMs forward — together.
arxiv.org/pdf/2511.21631
From pretraining to post-training, architecture to infra, data to evaluation — we’ve packed in the details for anyone building on vision-language models.
🔥 3 models >1M downloads in just over a month
🏆 Qwen3-VL-8B leads with 2M+ downloads
📚 Built on the shoulders of Qwen2.5-VL (2800+ citations in <10 months!)
Check out the paper for insights, baselines, and future directions.
Let’s keep pushing VLMs forward — together.
arxiv.org/pdf/2511.21631
❤11🔥1
Memo: Training Memory-Efficient Embodied Agents with Reinforcement Learning
https://arxiv.org/abs/2510.19732
https://arxiv.org/abs/2510.19732
arXiv.org
Memo: Training Memory-Efficient Embodied Agents with Reinforcement Learning
To enable embodied agents to operate effectively over extended timeframes, it is crucial to develop models that form and access memories to stay contextualized in their environment. In the current...
❤5
این #مقاله روی محیطهای ندیده عالی عمل میکند الگوریتمی عمومی، کارآمد و بسیار قابلتعمیم است
پیشبینیهای جدید و مفهومی را کشف میکند که با ارزش یا Q متفاوتاند
📣 Discovering State-of-the-art Reinforcement Learning Algorithms
#ایده_جذاب #یادگیری_تقویتی
🔹 مطالب بیشتر 👇 👇
✅ @AI_DeepMind
✅ @AI_Person
پیشبینیهای جدید و مفهومی را کشف میکند که با ارزش یا Q متفاوتاند
در این مقاله نشان دادهاند که ماشینها میتوانند الگوریتمهای یادگیری تقویتی را بهتر از انسان خلق کنند.
#ایده_جذاب #یادگیری_تقویتی
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14👍1👌1🆒1
Forwarded from Reza Jafari
AI_Product_Manager’s_Handbook,_Second_Edition_Build,_integrate,.pdf
6.6 MB
این کتاب برای کسایی نوشته شده که میخوان وارد دنیای AI Product Management بشن، کسبوکار خودشون رو راه بندازن یا فقط کنجکاون بدونن ساختن یه محصول AI چه ملاحظاتی داره.
اگر الان تو حوزهی Product Management فعالیت میکنین و دوست دارین بفهمین چطور میشه محصولهای AI ساخت، این کتاب میتونه خیلی بهتون کمک کنه. همینطور اگر در AI Development کار میکنین و قصد دارین این مفاهیم رو وارد فضای Product Management کنین و نقش بیزینسیتری بگیرین، باز هم مخاطب همین کتاب هستین. هرچند بعضی فصلها رنگوبوی فنیتر دارن، اما تمام محتوای تکنیکی در حد مبتدی و قابل فهم برای همه نوشته شده تا بدون پیشزمینهی خاص هم بتونین ازش استفاده کنین. از دستش ندید!
@reza_jafari_ai
اگر الان تو حوزهی Product Management فعالیت میکنین و دوست دارین بفهمین چطور میشه محصولهای AI ساخت، این کتاب میتونه خیلی بهتون کمک کنه. همینطور اگر در AI Development کار میکنین و قصد دارین این مفاهیم رو وارد فضای Product Management کنین و نقش بیزینسیتری بگیرین، باز هم مخاطب همین کتاب هستین. هرچند بعضی فصلها رنگوبوی فنیتر دارن، اما تمام محتوای تکنیکی در حد مبتدی و قابل فهم برای همه نوشته شده تا بدون پیشزمینهی خاص هم بتونین ازش استفاده کنین. از دستش ندید!
@reza_jafari_ai
❤18👍2
Forwarded from Programmer
pytorch_part2.pdf
3.9 MB
توی این جزوه سعی کردم مفاهیم مهم و پیشنیازهای معماریهای مدرن هوش مصنوعی مثل Attention، Self-Attention، ترنسفورمرها، Dot-Product Attention، Masking، Batch Computation و همچنین ارتباط این روشها با مفاهیم کلاسیک مثل رگرسیون نادارایا–واتسون و Kernel Methods رو خیلی ساده، شهودی و کاملاً عملی توضیح بدم.
❤24👍2
بیانیه رسمی گروه بینالمللی IDP
داوطلبان گرامی آزمون IELTS، اطلاعیه مهمی برای شما داریم.
متأسفانه، IDP تصمیم سختی گرفته است و برگزاری آزمونهای IELTS در ایران پس از تاریخ ۳۱ ژانویه ۲۰۲۶ متوقف خواهد شد.
میدانیم که این خبر ممکن است برای شما ناراحتکننده باشد، و میخواهیم شما را مطمئن کنیم:
▪تمام رزروهای قطعی آزمون آیلتس طبق برنامه برگزار خواهند شد.
▪هیچ داوطلبی که رزرو معتبر دارد، آزمون خود را ازدست نخواهد داد.
▪همچنان به منابع رایگان آمادگی آزمون IELTS دسترسی خواهید داشت و میتوانید مهارتهای زبانی خود را تقویت کنید: www.ielts.org
از همه داوطلبانی که طی سالهای گذشته آزمون خود را با IDP برگزار کردهاند، صمیمانه سپاسگزاریم.
برای اطلاعات بیشتر و دریافت پشتیبانی، لطفاً با مرکز آزمون خود در ارتباط باشید.
با احترام
IELTS IDP
داوطلبان گرامی آزمون IELTS، اطلاعیه مهمی برای شما داریم.
متأسفانه، IDP تصمیم سختی گرفته است و برگزاری آزمونهای IELTS در ایران پس از تاریخ ۳۱ ژانویه ۲۰۲۶ متوقف خواهد شد.
میدانیم که این خبر ممکن است برای شما ناراحتکننده باشد، و میخواهیم شما را مطمئن کنیم:
▪تمام رزروهای قطعی آزمون آیلتس طبق برنامه برگزار خواهند شد.
▪هیچ داوطلبی که رزرو معتبر دارد، آزمون خود را ازدست نخواهد داد.
▪همچنان به منابع رایگان آمادگی آزمون IELTS دسترسی خواهید داشت و میتوانید مهارتهای زبانی خود را تقویت کنید: www.ielts.org
از همه داوطلبانی که طی سالهای گذشته آزمون خود را با IDP برگزار کردهاند، صمیمانه سپاسگزاریم.
برای اطلاعات بیشتر و دریافت پشتیبانی، لطفاً با مرکز آزمون خود در ارتباط باشید.
با احترام
IELTS IDP
❤7🆒4
DeepMind AI Expert
بیانیه رسمی گروه بینالمللی IDP داوطلبان گرامی آزمون IELTS، اطلاعیه مهمی برای شما داریم. متأسفانه، IDP تصمیم سختی گرفته است و برگزاری آزمونهای IELTS در ایران پس از تاریخ ۳۱ ژانویه ۲۰۲۶ متوقف خواهد شد. میدانیم که این خبر ممکن است برای شما ناراحتکننده…
دیگه مهاجرت کردن هم بسیارسختتر از قبل خواهد شد
https://news.1rj.ru/str/AI_DeepMind/4105
به عقیده من تا پایان سال ۲۰۲۶ در خوشبینانه ترین حالت ممکن شاید مهاجرت شدنی باشه وگرنه دیگه حتی تحصیلی رفتن هم امکان پذیر نخواهد بود همه گزینه های خودت رو در یک سبد نزارید اگه ارشد میخوایین بخونین انتخاب کنین،اگه هدف دکترا خوندن دارید ایران انتخابش کنین وگرنه که نشدنی خواهد شد. اگر یک درصد هم نشد مهاجرت کنین اینجا حق انتخابی برای زندگی داشته باشین
https://news.1rj.ru/str/AI_DeepMind/4105
☃11❤6👌3🕊3
Forwarded from DeepMind AI Expert (Farzad 🦅)
در حالی که قوانین مقیاسپذیری Scaling Laws بیان میکنند
پژوهشهای اخیر مانند LIMO و s1 نشان دادهاند که مجموعهدادههای کوچک اما curated میتوانند عملکرد بهتری داشته باشند.
این مقاله تئوری دقیقی ارائه میدهد که مشخص میکند در چه شرایطی حذف بخشی از دادهها باعث بهبود تعمیم و جلوگیری Model Collapse میشود.
🔰 Why Less is More (Sometimes): A Theory of Data Curation
#مقاله #یادگیری_تقویتی #ایده_جذاب #الگوریتمها
💢 مطالب بیشتر ⬇️ ⬇️
🎙 @AI_DeepMind
🎙 @AI_Person
«هرچه داده بیشتر، بهتر»،
پژوهشهای اخیر مانند LIMO و s1 نشان دادهاند که مجموعهدادههای کوچک اما curated میتوانند عملکرد بهتری داشته باشند.
این مقاله تئوری دقیقی ارائه میدهد که مشخص میکند در چه شرایطی حذف بخشی از دادهها باعث بهبود تعمیم و جلوگیری Model Collapse میشود.
#مقاله #یادگیری_تقویتی #ایده_جذاب #الگوریتمها
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤2
ما در دپارتمان هوش مصنوعی و داده خودرو45 منتظر شما هستیم تا همراه با تیمی پرانرژی در محیطی دوستانه و حرفهای، کنار هم رشد کنیم!
اگر به موقعیت شغلی «Senior Data Scientist» علاقهمند هستید، ازطریق لینک زیر میتونید جزئیاتش رو ببینید و برای ما رزومهتون رو ارسال کنید.
https://careers.khodro45.com/jobs/1312
#استخدام
اگر به موقعیت شغلی «Senior Data Scientist» علاقهمند هستید، ازطریق لینک زیر میتونید جزئیاتش رو ببینید و برای ما رزومهتون رو ارسال کنید.
https://careers.khodro45.com/jobs/1312
#استخدام
❤5
یک دوره کلاسی و کاربردی از #یادگیری_عمیق که ابتدا به صورت مبانی و سپس کاربردی میپردازد پیشنهاد خوبیه برای کسایی که روند پیشرفتی ابزارهای #هوش_مصنوعی رو دنبال میکنند این دوره رو سپری کنن رو پیشنهاد میدم
📱 UofT - Applied Deep Learning - Fall 2025
➡️ Lecture Notes
#منابع #فیلم #کلاس_آموزشی #الگوریتمها
💢 مطالب بیشتر ⬇️ ⬇️
🎙 @AI_DeepMind
🎙 @AI_Person
#منابع #فیلم #کلاس_آموزشی #الگوریتمها
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍4👌1🆒1
از اینجا برای استفاده از جمنای و چت بات ها بخرینو لوکیشن امریکا رو انتخاب کن از این ریفر من بخرین منم ی ریفر جایزه بگیرم ممنون خسیس نباشین اه😂
https://news.1rj.ru/str/F14PanelBot?start=invite_56479f968ee3cd3dd92bfa05ebf07fc9
https://news.1rj.ru/str/F14PanelBot?start=invite_56479f968ee3cd3dd92bfa05ebf07fc9
☃9❤6🆒3👍1👌1🕊1
Forwarded from زندگی به عنوان سرویس
Natural Language Visualization and the Future of Data Analysis and Presentation
Will conversational interaction replace SQL queries, KPI reports, and dashboards?
مطلب جالبیه، توصیه میکنم بخونیدش.
#blog
🆔 @lifeAsAService
Will conversational interaction replace SQL queries, KPI reports, and dashboards?
مطلب جالبیه، توصیه میکنم بخونیدش.
#blog
🆔 @lifeAsAService
❤8👌2👍1
مقالات برگزیده #کنفرانس neurIPS2025
📣 Artificial HivemindArtificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)
📣 Gated Attention for LLMsGated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free
🔔 1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities
🔔 Why Diffusion Models Don't Memorize: The Role of Implicit Dynamical Regularization in Training
🔔 Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?
🔔 Optimal Mistake Bounds for Transductive Online Learning
☢️ Superposition Yields Robust Neural Scaling
#مقاله
🔹 مطالب بیشتر 👇 👇
✅ @AI_DeepMind
❤️ @AI_Person
#مقاله
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤7
Forwarded from زندگی به عنوان سرویس
دوتا مقالهی جالب که به شما کمک میکنن تحلیل دادههای سری زمانی رو با کمک مدلهای زبانی بهتر و موثرتر انجام بدین.
1- Prompt Engineering for Time-Series Analysis with Large Language Models
2- LLM-Powered Time-Series Analysis
#LLM
#ML
🆔 @lifeAsAService
1- Prompt Engineering for Time-Series Analysis with Large Language Models
2- LLM-Powered Time-Series Analysis
#LLM
#ML
🆔 @lifeAsAService
❤11
Forwarded from DeepMind AI Expert (Farzad 🦅)
این مقاله یه چارچوب جدید یادگیری تو در تو یا Nested Learning رو معرفی میکنه که یه دیدگاه متفاوت از ساختار مدل های یادگیری عمیق ارائه میده. به جای اینکه معماری های یادگیری عمیق رو بهعنوان سلسله مراتبی از لایههای پردازشی ببینیم، یادگیری تو در تو اونارو سیستمی از مسائل بهینهسازی تو در تو تفسیر میکنه که هر کدوم context flow خودشونو دارنو و با فرکانس های مختلف بروز میشن.
این دیدگاه الهامگرفته از نحوهٔ عملکرد مغز ما انسانهاس ، بهویژه تو فرایند تثبیت حافظه که به دو شکل آنلاین ( حین یادگیری) و آفلاین (حین خواب) انجام میشه. مقاله نیگه که مدلهای زبانی بزرگ بعد از تموم شدن آموزش اولیشون، مثل یه فرد مبتلا به فراموشی پیش گستر (Anterograde Amnesia) عمل میکنن؛ یعنی نمیتونن دانش جدید رو تو حافظه بلند مدتشون ذخیره کنن و صرفا به اطلاعات داخل پنجره توجه کوتاه مدت خود متکین.
نویسندگان این مقاله، یادگیری تو در تو رو به عنوان یه راه برای طراحی سیستم های یادگیری پویاتر پیشنهاد میدن. تو این چارچوب، همه مولفه های یه مدل از جمله شبکه های عصبی و بهینهساز ها، بهعنوان ماژولهای حافظه شرکت پذیر یا انجمنی (Associative Memory) دیده میشن که سعی میکنن روابط بین ورودی ها (مثل توکنها یا گرادیان ها) و خروجی ها (مثل سیگنالهای خطا یا مقادیر هدف) رو تو پارامترهای خودشون فشرده کنن.
بهعنوان مثال، بهینهساز هایی مثل اس جی دی با مومنتوم یا آدام هم به عنوان حافظههایی تفسیر میشن که گرادیان های گذشته رو ذخیره میکنن. بر این اساس، نویسنده ها چندین بهبود عملکرد رو ارائه میدن: اول، بهینهساز های عمیق تر که از حافظه های غیرخطی (مثل ام ال پی) و قوانین یادگیری قوی تر (مثل قاعده دلتا) استفاده میکنن؛ دوم، یه مدل توالی جدید به اسم (خودتغییردهنده Titans) که تو زمان تست الگوریتم بروزرسانی خودش رو یاد میگیره؛ و سوم، یه سیستم حافظه پیوسته که دیدگاه سنتی حافظهٔ کوتاه مدت/بلند مدت رو با طیفی از حافظهها با فرکانس های بهروزرسانی مختلف جایگزین میکنه.
با ترکیب این ایدهها، مدل HOPE طراحی میشه که تو اون هر لایه ام ال پی با فرکانس متفاوتی بروز میشه و مدل به طور همزمان از چندین سطح ابسترکت و مقیاس زمانی یاد میگیره. نتایج ارزیابی نشون میده که HOPE در مقایسه با ترنسفورمر و مدلهای مدرن RNN تو وظایف مدل سازی زبان، استدلال و یادگیری مداوم عملکرد رقابتی یا حتی بهتری داره!
🔔 Nested Learning: The Illusion of Deep Learning Architectures
#یادگیری_عمیق #یادگیری_ماشین #ماشین_لرنینگ #مقاله #شبکه_عصبی #ایده_جذاب
🔹 مطالب بیشتر 👇 👇
✅ @AI_DeepMind
✅ @AI_Person
این دیدگاه الهامگرفته از نحوهٔ عملکرد مغز ما انسانهاس ، بهویژه تو فرایند تثبیت حافظه که به دو شکل آنلاین ( حین یادگیری) و آفلاین (حین خواب) انجام میشه. مقاله نیگه که مدلهای زبانی بزرگ بعد از تموم شدن آموزش اولیشون، مثل یه فرد مبتلا به فراموشی پیش گستر (Anterograde Amnesia) عمل میکنن؛ یعنی نمیتونن دانش جدید رو تو حافظه بلند مدتشون ذخیره کنن و صرفا به اطلاعات داخل پنجره توجه کوتاه مدت خود متکین.
نویسندگان این مقاله، یادگیری تو در تو رو به عنوان یه راه برای طراحی سیستم های یادگیری پویاتر پیشنهاد میدن. تو این چارچوب، همه مولفه های یه مدل از جمله شبکه های عصبی و بهینهساز ها، بهعنوان ماژولهای حافظه شرکت پذیر یا انجمنی (Associative Memory) دیده میشن که سعی میکنن روابط بین ورودی ها (مثل توکنها یا گرادیان ها) و خروجی ها (مثل سیگنالهای خطا یا مقادیر هدف) رو تو پارامترهای خودشون فشرده کنن.
بهعنوان مثال، بهینهساز هایی مثل اس جی دی با مومنتوم یا آدام هم به عنوان حافظههایی تفسیر میشن که گرادیان های گذشته رو ذخیره میکنن. بر این اساس، نویسنده ها چندین بهبود عملکرد رو ارائه میدن: اول، بهینهساز های عمیق تر که از حافظه های غیرخطی (مثل ام ال پی) و قوانین یادگیری قوی تر (مثل قاعده دلتا) استفاده میکنن؛ دوم، یه مدل توالی جدید به اسم (خودتغییردهنده Titans) که تو زمان تست الگوریتم بروزرسانی خودش رو یاد میگیره؛ و سوم، یه سیستم حافظه پیوسته که دیدگاه سنتی حافظهٔ کوتاه مدت/بلند مدت رو با طیفی از حافظهها با فرکانس های بهروزرسانی مختلف جایگزین میکنه.
با ترکیب این ایدهها، مدل HOPE طراحی میشه که تو اون هر لایه ام ال پی با فرکانس متفاوتی بروز میشه و مدل به طور همزمان از چندین سطح ابسترکت و مقیاس زمانی یاد میگیره. نتایج ارزیابی نشون میده که HOPE در مقایسه با ترنسفورمر و مدلهای مدرن RNN تو وظایف مدل سازی زبان، استدلال و یادگیری مداوم عملکرد رقابتی یا حتی بهتری داره!
#یادگیری_عمیق #یادگیری_ماشین #ماشین_لرنینگ #مقاله #شبکه_عصبی #ایده_جذاب
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍3🆒1
سلام اگه کسی میتونه در سایت arxiv به ایشون endorse بزنه و دعوتش کنه بتونه مقاله خودشو در ارکایو لیست کنه بهش پیام بدید و کمکش کنین مرسی
@MINECRAFTGAME135
@MINECRAFTGAME135
❤4
کلاس آموزشی یادگیری تقویتی عمیق دانشگاه استنفورد برای کسایی که میخوان به صورت حرفه ای تر سرفصلهای جدیدتر و بهتری رو برای این حوزه یادبگیرن مفید هست.
📣 Deep RL course lecture videos from Spring 2025
https://online.stanford.edu/courses/xcs224r-deep-reinforcement-learning
#منابع #کلاس_آموزشی #یادگیری_تقویتی_عمیق #یادگیری_تقویتی #فیلم
🔹 مطالب بیشتر 👇 👇
✅ @AI_DeepMind
✅ @AI_Person
https://online.stanford.edu/courses/xcs224r-deep-reinforcement-learning
#منابع #کلاس_آموزشی #یادگیری_تقویتی_عمیق #یادگیری_تقویتی #فیلم
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10🆒2👍1👌1