صحبت های چند ماه پیش Andrew Ng در مورد تحولات آینده و توسعه هوش مصنوعی با امکانات ارایه شده در مدل جدید openai O1 کاملا همخوانی داره.
به طور خلاصه در ویدیو میگه:
یک نمونه دیگه:
مقاله google deepmind هست که در ماه آگوست منتشر شد. این مقاله به بررسی این موضوع میپردازه که اگه به یه مدل زبانی بزرگ (LLM) زمان بیشتری برای استنتاج داده شه تا به پاسخ برسه، این مدل میتونه به عملکردی برسه که با مدلی 14 برابر بزرگتر از اون برابره:
https://arxiv.org/abs/2408.03314
به طور خلاصه در ویدیو میگه:
مدل های بزرگ زبانی کنونی، معمولا با وارد کردن یه پرسش یا درخواست، پاسخی رو ارائه میدن. اما در مدلهای جدیدتر، فرآیند پاسخدهی به صورت تکراری و بازخوردی طراحی شده، به این صورت که سیستم هوش مصنوعی میتوانه به صورت مداوم به اصلاح و بهبود پاسخ بپردازه. این روند به نام agentic workflows شناخته میشه.https://youtu.be/sal78ACtGTc?feature=shared
ایشون بیان میکنه که با استفاده از این مدلهای تعاملی، نتایج بهتری حاصل میشه و مثالی از برنامهنویسی ارائه میدهه که در اون سیستمهای هوش مصنوعی جدید با بازبینی و اصلاح کدهای خود، عملکردی بهتر از سیستمهای پیشرفتهتر دارن.
همچنین میگه که استفاده از ابزارهایی مانند reflection و multi-agent collaboration بهزودی در توسعه برنامههای هوش مصنوعی نقش مهمی ایفا خواهند کرد.
در آخر هم پیشبینی میکنه که این نوع سیستمها به پیشرفتهای بزرگی در عملکرد و قابلیتهای هوش مصنوعی منجر خواهد شد و استفاده از اونها در کارهای پیچیدهای مثل تحقیق و توسعه بسیار کارآمد خواهد بود.
یک نمونه دیگه:
مقاله google deepmind هست که در ماه آگوست منتشر شد. این مقاله به بررسی این موضوع میپردازه که اگه به یه مدل زبانی بزرگ (LLM) زمان بیشتری برای استنتاج داده شه تا به پاسخ برسه، این مدل میتونه به عملکردی برسه که با مدلی 14 برابر بزرگتر از اون برابره:
https://arxiv.org/abs/2408.03314
YouTube
What's next for AI agentic workflows ft. Andrew Ng of AI Fund
Andrew Ng, founder of DeepLearning.AI and AI Fund, speaks at Sequoia Capital's AI Ascent about what's next for AI agentic workflows and their potential to significantly propel AI advancements—perhaps even surpassing the impact of the forthcoming generation…
👍6🔥4
Tensorflow(@CVision)
صحبت های چند ماه پیش Andrew Ng در مورد تحولات آینده و توسعه هوش مصنوعی با امکانات ارایه شده در مدل جدید openai O1 کاملا همخوانی داره. به طور خلاصه در ویدیو میگه: مدل های بزرگ زبانی کنونی، معمولا با وارد کردن یه پرسش یا درخواست، پاسخی رو ارائه میدن. اما…
This media is not supported in your browser
VIEW IN TELEGRAM
این یه نمونه آزمایشگاهی جالب متن باز استفاده از Llama-3.1 و Groq برای ایجاد زنجیره استدلال مشابه o1 هست.
این روش به مدل اجازه میده تا فکر کنه و مسائل رو با بکارگیری مدل های بزرگتر پیشرو به صورت منطقی حل کنه. برخلاف o1، اینجا همه توکنهای استدلال نمایش داده میشن.
https://github.com/bklieger-groq/g1
این روش به مدل اجازه میده تا فکر کنه و مسائل رو با بکارگیری مدل های بزرگتر پیشرو به صورت منطقی حل کنه. برخلاف o1، اینجا همه توکنهای استدلال نمایش داده میشن.
https://github.com/bklieger-groq/g1
👍7
Audio
چطور زنجیرهی تفکر(chain of thoughtیا COT) ترانسفورمرها رو برای حل مشکلات ذاتی سریالی توانمند میکنه
لینک مقاله:
https://arxiv.org/abs/2402.12875
پادکست تولید شده توسط notebooklm
لینک مقاله:
https://arxiv.org/abs/2402.12875
پادکست تولید شده توسط notebooklm
👍7
انویدیا با تمرکز بر مدلهای پایه برای رباتهای انساننما، قصد داره رباتهای هوشمندی رو وارد زندگی روزمره کنه که ممکنه در دهه آینده نحوه زندگی و کار ما رو به طور اساسی تغییر بده.
در این ویدئو جیم فن (یکی از محققین ارشد انویدیا) به چندین موضوع مهم مرتبط با آینده رباتیک، هوش مصنوعی و آزمایشگاه هوش تجسمی انویدیا میپردازه که به صورت خلاصه نکات کلیدی رو به صورت خلاصه در ادامه میارم:
به نقل از جنسن هوانگ، مدیر عامل انویدیا، میگه که
این پیشبینی بر چشمانداز آینده ای تاکید داره که رباتها، بهویژه رباتهای هوشمند و انساننما، در ده سال آینده به اندازه گوشیهای هوشمند فراگیر میشن. تلاشهای کنونی انویدیا نیز در راستای همین رونده و بر روی ایجاد یه پلتفرم محاسباتی برای رباتهای انساننما تمرکز داره
انویدیا پروژه ای به نام Groot رو راه اندازی کرده وهدف این پروژه توسعه مدلهای هوش مصنوعی پایه برای رباتهای انساننما ست. این پروژه حول محور ایجاد "AI brain" برای رباتهای انساننما میچرخه و از نقاط قوت انویدیا در زمینه شبیهسازی و قدرت محاسباتی بهره میبره.
میگه یکی از چالشهای عمده در توسعه هوش مصنوعی برای رباتیک، در دسترس نبودن دادههای باکیفته. دادههای موجود در مقیاس اینترنت، دادههای واقعی رباتها و دادههای شبیهسازی شده هر یک دارای نقاط قوت و ضعف خاص خود هستن و کلید پیشرفت در رباتیک، استفاده موثر از این منابع داده به صورت ترکیبیه. نبود دادههای کنترل حرکتی از منابع آنلاین پیشرفت رو محدود میکنه، بنابراین شبیهسازی به عنوان ابزاری حیاتی، برای تولید دادههای لازم برای آموزش رباتها به کار میره
همچنین در مورد شباهتهای بین انقلاب GPT-3 در پردازش زبان طبیعی و پتانسیل یک جهش مشابه در رباتیک صحبت میکنه و معتقده که لحظه مشابه GPT-3 زمانی برای رباتیک زمانی اتفاق میفته که مدلهای هوش مصنوعی بتونن بطور عمومی مهارت های حرکتی (motor actions) مثل باز کردن در رو در سناریوهای واقعی و مختلف رو انجام بدن. این امر نیازمند پیشرفتهای قابل توجهی در هر دو سیستم سطح پایین (کنترل حرکتی) و سیستم سطح بالا (استدلال و برنامهریزی) هوش مصنوعه
یکی از دلایلی که انویدیا روی رباتهای انسان نما تمرکز داره اینه که این رباتها به بهترین شکل میتونن با دنیای موجود که برای انسانها طراحی شده، تعامل کنن. از نظر اقتصادی، رباتهای انسان نما میتونن صنایع مختلفی مانند بهداشت و درمان، مراقبت از سالمندان و تولید رو با انجام کارهایی مثل پخت و پز، تمیز کردن یا کار در کارخانه متحول کنن. با این حال، علاوه بر پیشرفتهای فنی، عواملی مثل هزینه، ایمنی و مقررات تعیین کننده این اصله که این رباتها با چه سرعتی به جریان اصلی زندگی وارد خواهند شد.
https://youtu.be/yMGGpMyW_vw?feature=shared
در این ویدئو جیم فن (یکی از محققین ارشد انویدیا) به چندین موضوع مهم مرتبط با آینده رباتیک، هوش مصنوعی و آزمایشگاه هوش تجسمی انویدیا میپردازه که به صورت خلاصه نکات کلیدی رو به صورت خلاصه در ادامه میارم:
به نقل از جنسن هوانگ، مدیر عامل انویدیا، میگه که
هر چیزی که حرکت میکنه، در نهایت خودکار خواهد شد.
این پیشبینی بر چشمانداز آینده ای تاکید داره که رباتها، بهویژه رباتهای هوشمند و انساننما، در ده سال آینده به اندازه گوشیهای هوشمند فراگیر میشن. تلاشهای کنونی انویدیا نیز در راستای همین رونده و بر روی ایجاد یه پلتفرم محاسباتی برای رباتهای انساننما تمرکز داره
انویدیا پروژه ای به نام Groot رو راه اندازی کرده وهدف این پروژه توسعه مدلهای هوش مصنوعی پایه برای رباتهای انساننما ست. این پروژه حول محور ایجاد "AI brain" برای رباتهای انساننما میچرخه و از نقاط قوت انویدیا در زمینه شبیهسازی و قدرت محاسباتی بهره میبره.
میگه یکی از چالشهای عمده در توسعه هوش مصنوعی برای رباتیک، در دسترس نبودن دادههای باکیفته. دادههای موجود در مقیاس اینترنت، دادههای واقعی رباتها و دادههای شبیهسازی شده هر یک دارای نقاط قوت و ضعف خاص خود هستن و کلید پیشرفت در رباتیک، استفاده موثر از این منابع داده به صورت ترکیبیه. نبود دادههای کنترل حرکتی از منابع آنلاین پیشرفت رو محدود میکنه، بنابراین شبیهسازی به عنوان ابزاری حیاتی، برای تولید دادههای لازم برای آموزش رباتها به کار میره
همچنین در مورد شباهتهای بین انقلاب GPT-3 در پردازش زبان طبیعی و پتانسیل یک جهش مشابه در رباتیک صحبت میکنه و معتقده که لحظه مشابه GPT-3 زمانی برای رباتیک زمانی اتفاق میفته که مدلهای هوش مصنوعی بتونن بطور عمومی مهارت های حرکتی (motor actions) مثل باز کردن در رو در سناریوهای واقعی و مختلف رو انجام بدن. این امر نیازمند پیشرفتهای قابل توجهی در هر دو سیستم سطح پایین (کنترل حرکتی) و سیستم سطح بالا (استدلال و برنامهریزی) هوش مصنوعه
یکی از دلایلی که انویدیا روی رباتهای انسان نما تمرکز داره اینه که این رباتها به بهترین شکل میتونن با دنیای موجود که برای انسانها طراحی شده، تعامل کنن. از نظر اقتصادی، رباتهای انسان نما میتونن صنایع مختلفی مانند بهداشت و درمان، مراقبت از سالمندان و تولید رو با انجام کارهایی مثل پخت و پز، تمیز کردن یا کار در کارخانه متحول کنن. با این حال، علاوه بر پیشرفتهای فنی، عواملی مثل هزینه، ایمنی و مقررات تعیین کننده این اصله که این رباتها با چه سرعتی به جریان اصلی زندگی وارد خواهند شد.
https://youtu.be/yMGGpMyW_vw?feature=shared
YouTube
Jim Fan on Nvidia’s Embodied AI Lab and Jensen Huang’s Prediction that All Robots will be Autonomous
AI researcher Jim Fan has had a charmed career. He was OpenAI’s first intern before he did his PhD at Stanford with “godmother of AI,” Fei-Fei Li. He graduated into a research scientist position at Nvidia and now leads its Embodied AI “GEAR” group. The lab’s…
❤7👍2
Advancing the Accuracy-Efficiency Frontier with Llama-3.1-Nemotron-51B
NVIDIA just dropped Nemotron 51B - 220% faster and can handle 400% more workload than Llama 3.1 70B
https://developer.nvidia.com/blog/advancing-the-accuracy-efficiency-frontier-with-llama-3-1-nemotron-51b/
#GenerativeAI #LLMs
NVIDIA just dropped Nemotron 51B - 220% faster and can handle 400% more workload than Llama 3.1 70B
https://developer.nvidia.com/blog/advancing-the-accuracy-efficiency-frontier-with-llama-3-1-nemotron-51b/
#GenerativeAI #LLMs
NVIDIA Technical Blog
Advancing the Accuracy-Efficiency Frontier with Llama-3.1-Nemotron-51B
Today, NVIDIA released a unique language model that delivers an unmatched accuracy-efficiency performance. Llama 3.1-Nemotron-51B, derived from Meta’s Llama-3.1-70B, uses a novel neural architecture…
🔥3👍2
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
متا از هوش مصنوعی متا با قابلیت تولید صدا رونمایی کرد - رقیب مدل صوتی پیشرفته OpenAI
👍5
متا مجموعه جدیدی از مدلهای Llama 3.2 رو برای متن (1B، 3B) و بینایی (11B، 90B) منتشر کرد.
به صورت خلاصه :
مدلهای جدید متنی 1B و 3B با 9 تریلیون توکن آموزش دیدن
مدلهای چندوجهی بینایی جدید 11B و 90B روی 6 میلیارد زوج تصویر و متن آموزش دیدن
طول متن قابل پردازش 128K هست
مدلهای 1B و 3B از برخی روشهای تقطیر مدلهای 8B و 70B استفاده کردن
ارزیابیها برای مدلهای کوچک 1B و 3B و مدلهای چندوجهی بینایی 11B و 90B بسیار خوبه. 1B در آزمون MMLU نمره 49.3 و 3B نمره 63.4 رو کسب کردن. مدلهای چندوجهی بینایی در آزمون MMMU نمره 50.7 و 90B نمره 60.3 رو کسب کردن
https://huggingface.co/collections/meta-llama/llama-32-66f448ffc8c32f949b04c8cf
به صورت خلاصه :
مدلهای جدید متنی 1B و 3B با 9 تریلیون توکن آموزش دیدن
مدلهای چندوجهی بینایی جدید 11B و 90B روی 6 میلیارد زوج تصویر و متن آموزش دیدن
طول متن قابل پردازش 128K هست
مدلهای 1B و 3B از برخی روشهای تقطیر مدلهای 8B و 70B استفاده کردن
ارزیابیها برای مدلهای کوچک 1B و 3B و مدلهای چندوجهی بینایی 11B و 90B بسیار خوبه. 1B در آزمون MMLU نمره 49.3 و 3B نمره 63.4 رو کسب کردن. مدلهای چندوجهی بینایی در آزمون MMMU نمره 50.7 و 90B نمره 60.3 رو کسب کردن
https://huggingface.co/collections/meta-llama/llama-32-66f448ffc8c32f949b04c8cf
huggingface.co
Llama 3.2 - a meta-llama Collection
This collection hosts the transformers and original repos of the Llama 3.2 and Llama Guard 3
👍10🔥7
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI
یک رابط کاربری جدید به نام "Canvas" معرفی کرده که به کاربران اجازه میده در کنار چت معمولی، روی پروژههای نوشتن و کدنویسی کار کنن. این ابزار یه فضای کاری جداگانه در یک پنجره جدید باز میکنه که کاربران میتونن در اون متن یا کد تولید کنن و بخشهایی رو برای ویرایش مشخص کنن
Canvas
از روز گذشته برای کاربران ChatGPT Plus و Teams در دسترسهو هفته آینده برای کاربران Enterprise و Edu ارائه میشه.
این قابلیت شبیه به ابزارهای دیگری مانند "Artifacts" از Anthropic و "Cursor" هست که برای کمک به کدنویسی طراحی شدن. با استفاده از Canvas، کاربران میتونن خروجی مدل هوش مصنوعی رو بدون نیاز به نوشتن مجدد تمام متن یا کد ویرایش کنن
Canvas
همچنین ابزارهای جدیدی برای کدنویسی ارائه میده، مانند اضافه کردن مستندات به کد یا بررسی و پیشنهاد اصلاحات برای رفع باگها. این ابزار به زودی پس از پایان نسخه بتا برای کاربران رایگان نیز عرضه خواهد شد.
یک رابط کاربری جدید به نام "Canvas" معرفی کرده که به کاربران اجازه میده در کنار چت معمولی، روی پروژههای نوشتن و کدنویسی کار کنن. این ابزار یه فضای کاری جداگانه در یک پنجره جدید باز میکنه که کاربران میتونن در اون متن یا کد تولید کنن و بخشهایی رو برای ویرایش مشخص کنن
Canvas
از روز گذشته برای کاربران ChatGPT Plus و Teams در دسترسهو هفته آینده برای کاربران Enterprise و Edu ارائه میشه.
این قابلیت شبیه به ابزارهای دیگری مانند "Artifacts" از Anthropic و "Cursor" هست که برای کمک به کدنویسی طراحی شدن. با استفاده از Canvas، کاربران میتونن خروجی مدل هوش مصنوعی رو بدون نیاز به نوشتن مجدد تمام متن یا کد ویرایش کنن
Canvas
همچنین ابزارهای جدیدی برای کدنویسی ارائه میده، مانند اضافه کردن مستندات به کد یا بررسی و پیشنهاد اصلاحات برای رفع باگها. این ابزار به زودی پس از پایان نسخه بتا برای کاربران رایگان نیز عرضه خواهد شد.
👌5👍3
یه سری مقالات از یه آزمایشگاه هوش مصنوعی تو دانشگاه بریتیش کلمبیا اخیراً منتشر شدن که در نگاه اول خیلی خاص به نظر نمیان، ولی جالبیشون اینه که این تحقیقات توسط یه "دانشمند هوش مصنوعی" ساخته شدن. این پروژه با همکاری دانشگاه آکسفورد و استارتاپ Sakana AI ایجاد شده و هدفش اینه که به هوش مصنوعی یاد بده خودش ایدههای جدید خلق و کشف کنه.
الان بیشتر مدل های هوشمند نیاز به دادههای انسانی دارن، اما اگه بتونن خودشون بتنهایی ایدههای جالب کشف کنن، ممکنه خیلی فراتر از تواناییهای فعلی پیش برن. مثلاً تو این پروژه، یه "دانشمند هوش مصنوعی" خودکار آزمایشها و کدها رو مینویسه و اجرا میکنه.
https://arxiv.org/abs/2408.06292
نتایجش فعلاً خارقالعاده نیست، ولی محققینی مثل Jeff Clune باور دارن با افزایش قدرت محاسباتی، این سیستمها خیلی قویتر میشن.
البته یه سری محقق دیگه مثل Tom Hope میگن این سیستمها هنوز خیلی قابل اعتماد نیستن و نمیشه بهشون برای کشفهای بزرگ علمی تکیه کرد.
با این حال، این یادگیری آزاد ممکنه کلید ساخت هوش مصنوعی قدرتمندتر باشه.Clune اخیراً پروژهای رو معرفی کرده که در اون هوش مصنوعی نمایندگانی طراحی کرده که تو بعضی وظایف مثل ریاضیات و درک مطلب از انسانها بهتر عمل میکنن. البته Clune هشدار داده که این تکنولوژی ممکنه خطرناک باشه و باید با احتیاط پیش رفت.
https://arxiv.org/abs/2408.08435
الان بیشتر مدل های هوشمند نیاز به دادههای انسانی دارن، اما اگه بتونن خودشون بتنهایی ایدههای جالب کشف کنن، ممکنه خیلی فراتر از تواناییهای فعلی پیش برن. مثلاً تو این پروژه، یه "دانشمند هوش مصنوعی" خودکار آزمایشها و کدها رو مینویسه و اجرا میکنه.
https://arxiv.org/abs/2408.06292
نتایجش فعلاً خارقالعاده نیست، ولی محققینی مثل Jeff Clune باور دارن با افزایش قدرت محاسباتی، این سیستمها خیلی قویتر میشن.
البته یه سری محقق دیگه مثل Tom Hope میگن این سیستمها هنوز خیلی قابل اعتماد نیستن و نمیشه بهشون برای کشفهای بزرگ علمی تکیه کرد.
با این حال، این یادگیری آزاد ممکنه کلید ساخت هوش مصنوعی قدرتمندتر باشه.Clune اخیراً پروژهای رو معرفی کرده که در اون هوش مصنوعی نمایندگانی طراحی کرده که تو بعضی وظایف مثل ریاضیات و درک مطلب از انسانها بهتر عمل میکنن. البته Clune هشدار داده که این تکنولوژی ممکنه خطرناک باشه و باید با احتیاط پیش رفت.
https://arxiv.org/abs/2408.08435
arXiv.org
The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery
One of the grand challenges of artificial general intelligence is developing agents capable of conducting scientific research and discovering new knowledge. While frontier models have already been...
👍8😱6❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Facepoke: Realtime head transformation
Code : https://github.com/jbilcke-hf/FacePoke?tab=readme-ov-file#introduction
Demo: https://huggingface.co/spaces/jbilcke-hf/FacePoke
Code : https://github.com/jbilcke-hf/FacePoke?tab=readme-ov-file#introduction
Demo: https://huggingface.co/spaces/jbilcke-hf/FacePoke
👍6❤1🔥1
💵ثروت مدیرعامل انویدیا از کل ارزش اینتل بیشتر شد
🔹پیشروی جنونآمیز هوش مصنوعی باعث شده سهام #انویدیا، بهعنوان یکی از بزرگترین تولیدکنندگان پردازشگرهای گرافیکی هوش مصنوعی، افزایش یابد. جهش سهام انویدیا برای جنسن هوانگ که بیش از ۷۵ میلیون سهم شرکت را در اختیار دارد، نتیجهای عالی داشت. براساس شاخص میلیاردرهای بلومبرگ، دارایی جنسن هوانگ اکنون ۱۰۹.۲ میلیارد دلار است و در رتبه سیزدهم ثروتمندان جهان قرار دارد. از سویی، ارزش بازار اینتل نیز ۹۶.۵۹ میلیارد دلار است.
🔹اگرچه جنسن هوانگ میتواند #اینتل را بخرد و حدود ۱۳ میلیارد دلار نیز از ثروتش باقی میماند، چنین کاری بسیار بعید است.
———————-
🙏منبع: @Digiato
🔹پیشروی جنونآمیز هوش مصنوعی باعث شده سهام #انویدیا، بهعنوان یکی از بزرگترین تولیدکنندگان پردازشگرهای گرافیکی هوش مصنوعی، افزایش یابد. جهش سهام انویدیا برای جنسن هوانگ که بیش از ۷۵ میلیون سهم شرکت را در اختیار دارد، نتیجهای عالی داشت. براساس شاخص میلیاردرهای بلومبرگ، دارایی جنسن هوانگ اکنون ۱۰۹.۲ میلیارد دلار است و در رتبه سیزدهم ثروتمندان جهان قرار دارد. از سویی، ارزش بازار اینتل نیز ۹۶.۵۹ میلیارد دلار است.
🔹اگرچه جنسن هوانگ میتواند #اینتل را بخرد و حدود ۱۳ میلیارد دلار نیز از ثروتش باقی میماند، چنین کاری بسیار بعید است.
———————-
🙏منبع: @Digiato
😁10😱8❤2👌2
Forwarded from ByteSize Brains ™
آکادمی سلطنتی علوم سوئد جایزه نوبل فیزیک ۲۰۲۴ رو به جان جی. هاپفیلد و جفری هینتون اهدا کردن «به خاطر کشفیات و اختراعات بنیادی که یادگیری ماشین با شبکههای عصبی مصنوعی رو ممکن کردن.»
https://youtu.be/SBGG4WNweEc
کاملاً سزاوار بود برای کسانی که در عمل بکپراپگیشن، شبکههای پیشخور و «یادگیری عمیق» رو توسعه دادن.
این دو نفر در واقع نیوتون دنیای یادگیری ماشین هستن. نه تنها الگوریتمهایی رو پایهگذاری کردن که به سیستمهایی که امروزه استفاده میکنیم مقیاس دادن، بلکه برای اولین بار تئوریهایی رو فرموله کردن که میتونستن رفتار آینده مدلها رو پیشبینی کنن، که این کار، به جای اینکه فقط یه نقطه عطف مهندسی باشه، واقعا یه تحول در فیزیک محسوب میشه.
https://youtu.be/SBGG4WNweEc
کاملاً سزاوار بود برای کسانی که در عمل بکپراپگیشن، شبکههای پیشخور و «یادگیری عمیق» رو توسعه دادن.
این دو نفر در واقع نیوتون دنیای یادگیری ماشین هستن. نه تنها الگوریتمهایی رو پایهگذاری کردن که به سیستمهایی که امروزه استفاده میکنیم مقیاس دادن، بلکه برای اولین بار تئوریهایی رو فرموله کردن که میتونستن رفتار آینده مدلها رو پیشبینی کنن، که این کار، به جای اینکه فقط یه نقطه عطف مهندسی باشه، واقعا یه تحول در فیزیک محسوب میشه.
YouTube
Announcement of the 2024 Nobel Prize in Physics
The Royal Swedish Academy of Sciences has decided to award the Nobel Prize in Physics 2024 to John J. Hopfield and Geoffrey E. Hinton “for foundational discoveries and inventions that enable machine learning with artificial neural networks”.
#NobelPrize…
#NobelPrize…
👍14😱1
ترنسفورمرها معمولا توجه زیادی به اطلاعات نامربوط دارن که این موضوع میتونه دقتشون رو در کارهای مختلف یادگیری ماشین مثل خلاصهسازی متن یا پاسخ دادن به سوالات کم کنه.
برای حل این مشکل، محققین مایکروسافت Diff Transformer رو در این مقاله ارایه دادن. در واقع در این مقاله روش جدیدی به نام مکانیزم توجه تفاضلی ارایه شده. بهجای اینکه نمرات توجه رو بطور یکپارچه محاسبه کنه، از تفریق دو نگاشت توجه استفاده میکنه.
این کار باعث میشه نویز و اطلاعات نامربوط حذف بشه و الگوهای توجه پراکنده(Sparce attention) تشویق بشن.
نتایج آزمایشها نشون میده که Diff Transformer نه تنها توی آزمایشها عملکرد بهتری داره، بلکه در کاربردهای واقعی هم مزایای زیادی داره.
مثلاً در متون طولانی، بازیابی اطلاعات کلیدی و کاهش توهمات(hallucinations) در مدلهای زبانی، پیشرفتهای قابلتوجهی داشته.
https://arxiv.org/abs/2410.05258
برای حل این مشکل، محققین مایکروسافت Diff Transformer رو در این مقاله ارایه دادن. در واقع در این مقاله روش جدیدی به نام مکانیزم توجه تفاضلی ارایه شده. بهجای اینکه نمرات توجه رو بطور یکپارچه محاسبه کنه، از تفریق دو نگاشت توجه استفاده میکنه.
این کار باعث میشه نویز و اطلاعات نامربوط حذف بشه و الگوهای توجه پراکنده(Sparce attention) تشویق بشن.
نتایج آزمایشها نشون میده که Diff Transformer نه تنها توی آزمایشها عملکرد بهتری داره، بلکه در کاربردهای واقعی هم مزایای زیادی داره.
مثلاً در متون طولانی، بازیابی اطلاعات کلیدی و کاهش توهمات(hallucinations) در مدلهای زبانی، پیشرفتهای قابلتوجهی داشته.
https://arxiv.org/abs/2410.05258
👌21👍6❤4