Wavelet Kolmogorov-Arnold Networks (Wav-KAN)
"Analogous to how water conforms to the shape of its container, Wav-KAN adapts to the data structure, resulting in enhanced accuracy, faster training speeds, and increased robustness compared to Spl-KAN and MLPs."
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
"Analogous to how water conforms to the shape of its container, Wav-KAN adapts to the data structure, resulting in enhanced accuracy, faster training speeds, and increased robustness compared to Spl-KAN and MLPs."
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍5
Forwarded from Meysam
Meysam
اینو گرفتن دستشون میگن رسمیه، من شک دارم :) پینوشت: الکی شک دارم 😂 راسته
مایکروسافت فکر نمیکنم آنقدر بیکار باشه ربات تلگرامی برای محصولش بده، اگرم بده یه تیک آبی چیزی میکنه که مطمین باشید رسمی هست. در کل مشکوکم چون برای امتحانش میگه شماره تلفنت رو هم با من به اشتراک بزار.
گرچه خودم برای تست این کار رو کردم ولی بازم قانع نیستم رسمی باشه.
پینوشت: یکی فرستاد لینکش رو قانع شدم.
گرچه خودم برای تست این کار رو کردم ولی بازم قانع نیستم رسمی باشه.
پینوشت: یکی فرستاد لینکش رو قانع شدم.
👍10👎3
Forwarded from Meysam
Meysam
مایکروسافت فکر نمیکنم آنقدر بیکار باشه ربات تلگرامی برای محصولش بده، اگرم بده یه تیک آبی چیزی میکنه که مطمین باشید رسمی هست. در کل مشکوکم چون برای امتحانش میگه شماره تلفنت رو هم با من به اشتراک بزار. گرچه خودم برای تست این کار رو کردم ولی بازم قانع نیستم…
Microsoft Copilot
Enjoy an AI Assistant Anywhere with Copilot for PC, Mac, Mobile and more | Microsoft Copilot
From deep research to voice AI, see what you can do with Microsoft Copilot, your AI companion. Download for Mac, Windows, and more to save time, work smarter, and improve any task.
🆒7👍1
مدلهایی که در هفته گذشته به صورت متن باز منتشر شدند.
- CogVLM2: multimodal conversational
- Yi 1.5 long context
- M2-BERT-V2, long-context encoder models
- Phi 3 small and medium + vision
- Falcon VLM
- Mistral 7B 0.3
- Aya 23: multilingual
#الگوریتمها #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
- CogVLM2: multimodal conversational
- Yi 1.5 long context
- M2-BERT-V2, long-context encoder models
- Phi 3 small and medium + vision
- Falcon VLM
- Mistral 7B 0.3
- Aya 23: multilingual
#الگوریتمها #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍5👌2❤1
Forwarded from Meysam
اگه میخواهید پردازش زبان طبیعی مدرن رو شروع کنید اینم یه منبع خوب:
https://arxiv.org/abs/2209.00099
@ai_person
https://arxiv.org/abs/2209.00099
@ai_person
👍5❤3
Forwarded from DeepMind AI Expert (Farzad)
اگر حال نوشتن ندارین، حرف بزنید تا هوش مصنوعی براتون مینویسه.
سایت زیر به صورت رایگان ابزار صوت به متن در زبانهای مختلف از جمله فارسی رو در اختیار شما قرار میده، از دست ندید.
لینک سایت:
https://speechtexter.com
پ.ن: بررسی کردم کیفیت خوبی داره
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
سایت زیر به صورت رایگان ابزار صوت به متن در زبانهای مختلف از جمله فارسی رو در اختیار شما قرار میده، از دست ندید.
لینک سایت:
https://speechtexter.com
پ.ن: بررسی کردم کیفیت خوبی داره
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👌4❤3👍1
Forwarded from Meysam
Linkedin
Meysam Asgari-Chenaghlu on LinkedIn: Finally done!
Mastering Transformers: Second edition
It was a really long… | 29 comments
Mastering Transformers: Second edition
It was a really long… | 29 comments
Finally done!
Mastering Transformers: Second edition
It was a really long and joyful journey to be honest.
Also thanks to my dear coauthor Savaş Yıldırım for… | 29 comments on LinkedIn
Mastering Transformers: Second edition
It was a really long and joyful journey to be honest.
Also thanks to my dear coauthor Savaş Yıldırım for… | 29 comments on LinkedIn
❤1👍1
لیست جامع از cloud coding های انلاین
🔔 https://lambdalabs.com/service/gpu-cloud
🔔 https://colab.research.google.com/
🔔 Lightning.ai
🔔 https://modal.com/pricing
🔔 https://replicate.com/
🔔 https://huggingface.co/pricing
🔔 https://www.lepton.ai/
🔔 https://aws.amazon.com/sagemaker/train/ 📣
مهم هستش و خیلی بهتر از بقیه موارد گفته شده در بالا هستش.
پ.ن : اگه چیزی دیگه وجود داره کامنت کنید تا اضافه کنم
#الگوریتمها #منابع #پردازش_آنلاین
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔔 https://lambdalabs.com/service/gpu-cloud
🔔 https://colab.research.google.com/
🔔 Lightning.ai
🔔 https://modal.com/pricing
🔔 https://replicate.com/
🔔 https://huggingface.co/pricing
🔔 https://www.lepton.ai/
🔔 https://aws.amazon.com/sagemaker/train/ 📣
مهم هستش و خیلی بهتر از بقیه موارد گفته شده در بالا هستش.
پ.ن : اگه چیزی دیگه وجود داره کامنت کنید تا اضافه کنم
#الگوریتمها #منابع #پردازش_آنلاین
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6❤2🆒1
Forwarded from روزمرگی های یک برنامه نویس
✅ تفاوتهای کلیدی بین لیستها و تاپلها
قابلیت تغییر (Mutability)
لیستها:
قابل تغییر (Mutable): لیستها میتوانند پس از ایجاد تغییر کنند؛ میتوانید عناصر را اضافه، حذف یا جایگزین کنید.
تاپلها:
غیرقابل تغییر (Immutable): پس از ایجاد یک تاپل، نمیتوانید عناصر آن را تغییر دهید. این ویژگی باعث افزایش کارایی و امنیت دادهها در مواردی میشود که نیاز به تغییرات مکرر ندارند.
عملکرد (Performance)
لیستها:
کندتر: به دلیل قابلیت تغییر، لیستها دارای سربار (overhead) بیشتری هستند که میتواند منجر به کاهش کارایی در برخی موارد شود.
تاپلها:
سریعتر: از آنجا که تاپلها غیرقابل تغییر هستند، بهینهتر بوده و سربار کمتری دارند، که منجر به افزایش سرعت عملیات میشود، به خصوص در ساختارهای داده بزرگ.
استفاده حافظه (Memory Usage)
لیستها:
مصرف حافظه بیشتر: به دلیل قابلیت تغییر، لیستها برای مدیریت تغییرات به فضای اضافی نیاز دارند.
تاپلها:
مصرف حافظه کمتر: تاپلها به دلیل غیرقابل تغییر بودن و ساختار سادهتر، معمولاً فضای حافظه کمتری نسبت به لیستها اشغال میکنند.
امنیت داده (Data Integrity)
لیستها:
کمتر امن: از آنجا که لیستها قابل تغییر هستند، ممکن است بهطور ناخواسته تغییر یابند و دادهها دچار ناپایداری شوند.
تاپلها:
بیشتر امن: تاپلها به دلیل غیرقابل تغییر بودن، امنیت دادهها را تضمین میکنند و برای استفاده در موقعیتهایی که نیاز به عدم تغییر دادهها داریم، مناسبتر هستند.
کاربرد (Usage)
لیستها:
زمانی که نیاز به تغییرات مکرر دارید: برای مجموعههایی از دادهها که بهطور مداوم نیاز به اضافه کردن، حذف یا تغییر دارند، لیستها مناسبتر هستند.
تاپلها:
زمانی که نیاز به ثابت ماندن دادهها دارید: برای دادههایی که نباید تغییر کنند، مانند کلیدهای دیکشنری یا مقادیر ثابت در برنامهنویسی.
عملیاتهای مجاز
لیستها:
پشتیبانی از تمام عملیاتهای تغییرپذیری مانند append(), remove(), insert(), pop(), و غیره.
تاپلها:
پشتیبانی از عملیات دسترسی و شمارش عناصر مانند index() و count(), اما بدون قابلیت تغییر.
ترکیب دادهها (Concatenation) و تکرار (Repetition)
هر دو نوع داده از ترکیب و تکرار پشتیبانی میکنند، اما ترکیب و تکرار در تاپلها منجر به ایجاد تاپلهای جدید میشود.
تبدیل بین لیست و تاپل
گاهی اوقات نیاز به تبدیل بین این دو نوع داده وجود دارد.
نتیجهگیری
لیستها برای مواردی مناسب هستند که نیاز به تغییر، اضافه کردن یا حذف عناصر دارید. از لیستها در برنامههایی استفاده کنید که انعطافپذیری دادهها مهم است.
تاپلها برای مواردی مناسب هستند که دادهها باید ثابت بمانند و بهینهسازی عملکرد و استفاده از حافظه مهم است. از تاپلها در مواردی استفاده کنید که دادهها نباید تغییر کنند و امنیت دادهها حائز اهمیت است
@lython
قابلیت تغییر (Mutability)
لیستها:
قابل تغییر (Mutable): لیستها میتوانند پس از ایجاد تغییر کنند؛ میتوانید عناصر را اضافه، حذف یا جایگزین کنید.
my_list = [1, 2, 3]
my_list[0] = 4 # تغییر اولین عنصر
my_list.append(5) # اضافه کردن عنصر جدید
print(my_list) # خروجی: [4, 2, 3, 5]
تاپلها:
غیرقابل تغییر (Immutable): پس از ایجاد یک تاپل، نمیتوانید عناصر آن را تغییر دهید. این ویژگی باعث افزایش کارایی و امنیت دادهها در مواردی میشود که نیاز به تغییرات مکرر ندارند.
my_tuple = (1, 2, 3)
# my_tuple[0] = 4 # این خط خطا میدهد
عملکرد (Performance)
لیستها:
کندتر: به دلیل قابلیت تغییر، لیستها دارای سربار (overhead) بیشتری هستند که میتواند منجر به کاهش کارایی در برخی موارد شود.
تاپلها:
سریعتر: از آنجا که تاپلها غیرقابل تغییر هستند، بهینهتر بوده و سربار کمتری دارند، که منجر به افزایش سرعت عملیات میشود، به خصوص در ساختارهای داده بزرگ.
استفاده حافظه (Memory Usage)
لیستها:
مصرف حافظه بیشتر: به دلیل قابلیت تغییر، لیستها برای مدیریت تغییرات به فضای اضافی نیاز دارند.
تاپلها:
مصرف حافظه کمتر: تاپلها به دلیل غیرقابل تغییر بودن و ساختار سادهتر، معمولاً فضای حافظه کمتری نسبت به لیستها اشغال میکنند.
امنیت داده (Data Integrity)
لیستها:
کمتر امن: از آنجا که لیستها قابل تغییر هستند، ممکن است بهطور ناخواسته تغییر یابند و دادهها دچار ناپایداری شوند.
تاپلها:
بیشتر امن: تاپلها به دلیل غیرقابل تغییر بودن، امنیت دادهها را تضمین میکنند و برای استفاده در موقعیتهایی که نیاز به عدم تغییر دادهها داریم، مناسبتر هستند.
کاربرد (Usage)
لیستها:
زمانی که نیاز به تغییرات مکرر دارید: برای مجموعههایی از دادهها که بهطور مداوم نیاز به اضافه کردن، حذف یا تغییر دارند، لیستها مناسبتر هستند.
my_list = [1, 2, 3]
my_list.append(4)
my_list.remove(2)
print(my_list) # خروجی: [1, 3, 4]
تاپلها:
زمانی که نیاز به ثابت ماندن دادهها دارید: برای دادههایی که نباید تغییر کنند، مانند کلیدهای دیکشنری یا مقادیر ثابت در برنامهنویسی.
my_tuple = (1, 2, 3)
my_dict = {my_tuple: "value"} # استفاده از تاپل به عنوان کلید در دیکشنری
عملیاتهای مجاز
لیستها:
پشتیبانی از تمام عملیاتهای تغییرپذیری مانند append(), remove(), insert(), pop(), و غیره.
تاپلها:
پشتیبانی از عملیات دسترسی و شمارش عناصر مانند index() و count(), اما بدون قابلیت تغییر.
ترکیب دادهها (Concatenation) و تکرار (Repetition)
هر دو نوع داده از ترکیب و تکرار پشتیبانی میکنند، اما ترکیب و تکرار در تاپلها منجر به ایجاد تاپلهای جدید میشود.
# ترکیب
list1 = [1, 2]
list2 = [3, 4]
combined_list = list1 + list2
print(combined_list) # خروجی: [1, 2, 3, 4]
tuple1 = (1, 2)
tuple2 = (3, 4)
combined_tuple = tuple1 + tuple2
print(combined_tuple) # خروجی: (1, 2, 3, 4)
# تکرار
repeated_list = list1 * 3
print(repeated_list) # خروجی: [1, 2, 1, 2, 1, 2]
repeated_tuple = tuple1 * 3
print(repeated_tuple) # خروجی: (1, 2, 1, 2, 1, 2)
تبدیل بین لیست و تاپل
گاهی اوقات نیاز به تبدیل بین این دو نوع داده وجود دارد.
# لیست به تاپل
my_list = [1, 2, 3]
my_tuple = tuple(my_list)
print(my_tuple) # خروجی: (1, 2, 3)
# تاپل به لیست
my_tuple = (1, 2, 3)
my_list = list(my_tuple)
print(my_list) # خروجی: [1, 2, 3]
نتیجهگیری
لیستها برای مواردی مناسب هستند که نیاز به تغییر، اضافه کردن یا حذف عناصر دارید. از لیستها در برنامههایی استفاده کنید که انعطافپذیری دادهها مهم است.
تاپلها برای مواردی مناسب هستند که دادهها باید ثابت بمانند و بهینهسازی عملکرد و استفاده از حافظه مهم است. از تاپلها در مواردی استفاده کنید که دادهها نباید تغییر کنند و امنیت دادهها حائز اهمیت است
@lython
👍18❤3🆒2👎1
❤1
مقاله یکی از همراهان کانال در حیطه فشن و مد منتشر شده علاقمندان به این حوزه میتونین مطالعه و موضوع تحقیقاتی خودتون رو این موضوع انتخاب کنید
▪️ PRFashion24: A Dataset for Sentiment Analysis of Fashion Products Reviews in Persian
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ PRFashion24: A Dataset for Sentiment Analysis of Fashion Products Reviews in Persian
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤6
Forwarded from A. Ashofteh
در طی چند سال گذشته افتخار داشتم ضمن تدریس در دانشگاه، یکی از چهار مشاور مرکز آمار کشور پرتغال هم باشم. خرسندم به همراه دو نفر دیگر از این مرکز آمار رسمی (دکتر ژوا و دکتر پدرو)، نتیجه بخشی از تحقیقات چهار سال گذشته را در کنفرانس اروپایی کیفیت آمار رسمی 2024 (Q2024) ارایه می کنیم.
تولید آمار رسمی در مورد چگونگی زندگی و دسترسی به کالاها برای گروه های مختلف جامعه بسیار مهم است مخصوصا زمانی که تفاوت های نژادی و قومی و کاهش جمعیت فعال به عنوان یک چالش مهم جمعیتی معاصر می توانند در نتایج مطالعه موثر باشند ولی در اینگونه مطالعات، جمع آوری داده ها برای اقلیت ها و بر اساس خصوصیات قومی و نژادی با چالش هایی همراه است. در این مطالعه، یک بررسی نمونهگیری با کمک روشهای یادگیری ماشین و بیگ دیتا برای کشور پرتغال طراحی شده است و از فناوری های جدید برای غلبه بر این چالش ها استفاده شد و در سه مرحله مطالعه، طراحی، بررسی نمونه گیری اولیه، و بررسی نمونه ای در سطح ملی اجرا شد و نتایج نهایی این مطالعه نیز به زودی توسط این مرکز آمار رسمی منتشر می شود. ما از روشهای خوشهبندی و دادههای سرشماری برای شناسایی متغیرهای اساسی و از روش های داده های فضایی برای تعیین گروه های نمونه گیری همگن برای توزیع حجم نمونه استفاده کردیم. علاوه بر این، مناطق مختلف کشور تقسیمبندی شدند و خوشهها برای به حداقل رساندن خطاهای عدم پاسخ و پوشش مورد تجزیه و تحلیل و بحث قرار گرفتند. روش پیشنهادی یک طرح نمونه گیری بهینه بر مبنای داده های فضایی را با کمک روش های یادگیری ماشین و داده های حجیم (بیگ دیتا) ارایه می دهد و از فناوری های مختلفی مانند سس، آر، اسپارک و اس کیو ال استفاده شد./افشین آشفته
آدرس کنفرانس برای علاقه مندان:
https://www.q2024.pt/
آدرس مجموعه خلاصه مقالات:
https://www.q2024.pt/abstract/book-of-abstracts
تولید آمار رسمی در مورد چگونگی زندگی و دسترسی به کالاها برای گروه های مختلف جامعه بسیار مهم است مخصوصا زمانی که تفاوت های نژادی و قومی و کاهش جمعیت فعال به عنوان یک چالش مهم جمعیتی معاصر می توانند در نتایج مطالعه موثر باشند ولی در اینگونه مطالعات، جمع آوری داده ها برای اقلیت ها و بر اساس خصوصیات قومی و نژادی با چالش هایی همراه است. در این مطالعه، یک بررسی نمونهگیری با کمک روشهای یادگیری ماشین و بیگ دیتا برای کشور پرتغال طراحی شده است و از فناوری های جدید برای غلبه بر این چالش ها استفاده شد و در سه مرحله مطالعه، طراحی، بررسی نمونه گیری اولیه، و بررسی نمونه ای در سطح ملی اجرا شد و نتایج نهایی این مطالعه نیز به زودی توسط این مرکز آمار رسمی منتشر می شود. ما از روشهای خوشهبندی و دادههای سرشماری برای شناسایی متغیرهای اساسی و از روش های داده های فضایی برای تعیین گروه های نمونه گیری همگن برای توزیع حجم نمونه استفاده کردیم. علاوه بر این، مناطق مختلف کشور تقسیمبندی شدند و خوشهها برای به حداقل رساندن خطاهای عدم پاسخ و پوشش مورد تجزیه و تحلیل و بحث قرار گرفتند. روش پیشنهادی یک طرح نمونه گیری بهینه بر مبنای داده های فضایی را با کمک روش های یادگیری ماشین و داده های حجیم (بیگ دیتا) ارایه می دهد و از فناوری های مختلفی مانند سس، آر، اسپارک و اس کیو ال استفاده شد./افشین آشفته
آدرس کنفرانس برای علاقه مندان:
https://www.q2024.pt/
آدرس مجموعه خلاصه مقالات:
https://www.q2024.pt/abstract/book-of-abstracts
www.q2024.pt
European Conference on Quality in Official Statistics 2024
Welcome to the European Conference on Quality in Official Statistics, which brings together statisticians, academics, and external stakeholders to foster the dissemination of knowledge and research on emerging issues related to quality in official statistics.
👍9❤1
Forwarded from Ali's Notes (Ali Najafi)
خب سلامی دوباره!
Engineer
یا همون مهندس خودمون، یک شخص practitioner هستش
یعنی اینکه ایده رو به عمل میرسونه!
مثلا ساخت و تولید یک چیزی!
حالا شاید شما بپرسید که خب طرف نمیشینه این رو فکر کنه که چطوری بسازه و فلان؟!
جواب اینکه فکر میکنه که چطوری بسازه و به عمل برسونه اما! سوال نمیپرسه!!!!!!!!!!!!!
سوال پرسیدن سخته!
قاضی بودن سخته!
بزارید با یه مثالی این قضیه رو براتون بشکنم.
مثالم میشه همین ChatGPT که یهو ترکید و همه ازش حرف زدن.
تکنولوژی و علم ساخت ChatGPT از سال 2015 بوده، اما ما ChatGPT رو اون موقع ندیدیم
Engineer
های محترم اومدن و با داشتن ایده و علم که بوده( نه شاید متمرکز) با گرفتن Consulting از researcher های محترم
تونستن تحت عنوان شرکت OpenAI این محصول(ChatGPT) رو بسازن و ما شاهد این زیبایی باشیم.
ریسرچر فقط به رسیدن جواب بسنده نمیکنه!
میشینه فکر میکنه که چرا این جواب ها بیرون اومدن
یا اصلا چرا جواب درست شد
سوال میپرسه و از سوال پرسیدن دست نمیکشه و اینطوری هستش که دنیای علم بزرگ و بزرگ تر میشه
یه مثال دیگه میشه هم این باشه که یه دولوپر وبسایت میاد میسازه یه محصولی رو بلی روی ساختش فکر میکنه
اما تکنولوژی ساخت وبسایت رو ایشون پیدا نکرده. بلکه توسط اشخاصی(ریسرچر های حوزه وب) بالا اومده و این دولوپر از نتیجه کار اون ها استفاده میکنه
و یک وبسایت رو ایجاد میکنه.
من فارسیم زیاد خوب نیست اگر غلط املایی بوده باشه از قبل عذرخواهی میکنم.
@css_nlp
Engineer
یا همون مهندس خودمون، یک شخص practitioner هستش
یعنی اینکه ایده رو به عمل میرسونه!
مثلا ساخت و تولید یک چیزی!
حالا شاید شما بپرسید که خب طرف نمیشینه این رو فکر کنه که چطوری بسازه و فلان؟!
جواب اینکه فکر میکنه که چطوری بسازه و به عمل برسونه اما! سوال نمیپرسه!!!!!!!!!!!!!
سوال پرسیدن سخته!
قاضی بودن سخته!
بزارید با یه مثالی این قضیه رو براتون بشکنم.
مثالم میشه همین ChatGPT که یهو ترکید و همه ازش حرف زدن.
تکنولوژی و علم ساخت ChatGPT از سال 2015 بوده، اما ما ChatGPT رو اون موقع ندیدیم
Engineer
های محترم اومدن و با داشتن ایده و علم که بوده( نه شاید متمرکز) با گرفتن Consulting از researcher های محترم
تونستن تحت عنوان شرکت OpenAI این محصول(ChatGPT) رو بسازن و ما شاهد این زیبایی باشیم.
ریسرچر فقط به رسیدن جواب بسنده نمیکنه!
میشینه فکر میکنه که چرا این جواب ها بیرون اومدن
یا اصلا چرا جواب درست شد
سوال میپرسه و از سوال پرسیدن دست نمیکشه و اینطوری هستش که دنیای علم بزرگ و بزرگ تر میشه
یه مثال دیگه میشه هم این باشه که یه دولوپر وبسایت میاد میسازه یه محصولی رو بلی روی ساختش فکر میکنه
اما تکنولوژی ساخت وبسایت رو ایشون پیدا نکرده. بلکه توسط اشخاصی(ریسرچر های حوزه وب) بالا اومده و این دولوپر از نتیجه کار اون ها استفاده میکنه
و یک وبسایت رو ایجاد میکنه.
من فارسیم زیاد خوب نیست اگر غلط املایی بوده باشه از قبل عذرخواهی میکنم.
@css_nlp
❤8👍7👎1
Forwarded from DeepMind AI Expert (Farzad 🦅)
This media is not supported in your browser
VIEW IN TELEGRAM
این استاد سابق دانشگاه هاروارد خیلی جالب آینده پروگرمینگ و تغییر جهت به سمت آموزش llm ها برای یادگیری مهارتهای مختلف از جمله برنامه نویسی را توضیح میده. اینک ویدیو کامل هم هست.
https://m.youtube.com/watch?v=JhCl-GeT4jw&t=252s&ab_channel=CS50
#مقاله #منابع #ایده_جذاب #فیلم #کلاس_آموزشی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://m.youtube.com/watch?v=JhCl-GeT4jw&t=252s&ab_channel=CS50
#مقاله #منابع #ایده_جذاب #فیلم #کلاس_آموزشی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍9👎1
This media is not supported in your browser
VIEW IN TELEGRAM
How can an RL agent successfully solve a task while showcasing versatility of behaviors a property intuitive to intelligent systems like humans?
▪️ Learning Multimodal Behaviors from Scratch with Diffusion Policy Gradient
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Learning Multimodal Behaviors from Scratch with Diffusion Policy Gradient
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍1
Can an emerging field called ‘neural systems understanding’ explain the brain?
This mashup of neuroscience, artificial intelligence and even linguistics and philosophy of mind aims to crack the deep question of what “understanding” is, however un-brain-like its models may be.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
This mashup of neuroscience, artificial intelligence and even linguistics and philosophy of mind aims to crack the deep question of what “understanding” is, however un-brain-like its models may be.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥2👍1
محدودیت معماری ترنسفورمر
▪️ On Limitation of Transformer for Learning HMMs
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ On Limitation of Transformer for Learning HMMs
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
arXiv.org
On Limitation of Transformer for Learning HMMs
Despite the remarkable success of Transformer-based architectures in various sequential modeling tasks, such as natural language processing, computer vision, and robotics, their ability to learn...
👍2