Forwarded from DeepMind AI Expert (Farzad 🦅)
Data Science roadmap.pdf
384 KB
نقشه راه
Data Science ML Full Stack Roadmap
#منابع #یادگیری_ماشین #علم_داده #پایتون #کلاس_آموزشی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Data Science ML Full Stack Roadmap
#منابع #یادگیری_ماشین #علم_داده #پایتون #کلاس_آموزشی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤3
Audio
بازم دلم گرفته تو این نمنم بارون
منو بارون از رضا صادقی و بابک جهانبخش را گوش کنید.
#متفرقه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
منو بارون از رضا صادقی و بابک جهانبخش را گوش کنید.
#متفرقه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4👎4❤1
اگر کاربر #تلگرام Premium هستید، و محتویات و پستهای کانال مورد توجهت قراره گرفته با Boost کردن کانال ما، در فعال کردن قابلیت انتشار استوری به ما کمک کنید تا بتوانیم محتواهای جذاب را در استوری تلگرام با شما به اشتراک بگذاریم ❤️🌻
👇👇
https://news.1rj.ru/str/boost/AI_DeepMind
👇👇
https://news.1rj.ru/str/boost/AI_DeepMind
👍5👎5🔥1
Forwarded from DeepMind AI Expert (Farzad)
سلام همراهان گرامی و پژوهشگران هموطن،
اخیرا و در سالهای گذشته یک گروه و تیمی در سطح تلگرام به اسم " مرکز هوش مصنوعی ایران" اقدام به فعالیت در زمینه های کارآموزی، اشتغال ، مقاله نویسی، اپلای و... میکنه با توجه به گزارشهایی که در این چند سال ایجاد این گروه در تلگرام که به ما میرسه تصمیم بر آگاه کردن افراد که از فعالیت این گروه به خاطر کلاهبرداری و فریب اخذ پول و... میکنن، گرفتیم اقدمات این گروه بدون هرگونه پاسخگویی و فرار از انجام کار هست و باتوجه به پیشینه ای که وجود داره اکیدا توصیه میکنم در دام این گروه قرار نگیرید و از راه های آسون تر و سخت تر شاید هست به پول برسید پول مجانی در تله موش وجود داره
اخیرا و در سالهای گذشته یک گروه و تیمی در سطح تلگرام به اسم " مرکز هوش مصنوعی ایران" اقدام به فعالیت در زمینه های کارآموزی، اشتغال ، مقاله نویسی، اپلای و... میکنه با توجه به گزارشهایی که در این چند سال ایجاد این گروه در تلگرام که به ما میرسه تصمیم بر آگاه کردن افراد که از فعالیت این گروه به خاطر کلاهبرداری و فریب اخذ پول و... میکنن، گرفتیم اقدمات این گروه بدون هرگونه پاسخگویی و فرار از انجام کار هست و باتوجه به پیشینه ای که وجود داره اکیدا توصیه میکنم در دام این گروه قرار نگیرید و از راه های آسون تر و سخت تر شاید هست به پول برسید پول مجانی در تله موش وجود داره
👍13👌9
Forwarded from Deep Time
خداحافظ Adam
با معرفی ADOPT بهتره Optimizer مدلهای Deep Learning و LLM رو تغییر بدیم. مشکل اساسی Adam در واقع عدم تضمین convergence در فرآیند آپدیت وزنها بود که در ADOPT حل شده. اما این برتری فقط در تئوری نیست و در عمل هم در اکثریت مسائل از جمله pretraining در GPT-2 بهتر بوده.
ایده اصلی و راه حل برای تضمین همگرایی هم دو مورد هست:
۱_ حذف گرادیان کنونی از تخمین momentum دوم
۲_ نرمالایز کردن گرادیان قبل از آپدیت momentum
Paper
Github
کد:
با معرفی ADOPT بهتره Optimizer مدلهای Deep Learning و LLM رو تغییر بدیم. مشکل اساسی Adam در واقع عدم تضمین convergence در فرآیند آپدیت وزنها بود که در ADOPT حل شده. اما این برتری فقط در تئوری نیست و در عمل هم در اکثریت مسائل از جمله pretraining در GPT-2 بهتر بوده.
ایده اصلی و راه حل برای تضمین همگرایی هم دو مورد هست:
۱_ حذف گرادیان کنونی از تخمین momentum دوم
۲_ نرمالایز کردن گرادیان قبل از آپدیت momentum
Paper
Github
کد:
from adopt import ADOPT
#optimizer = Adam(model.parameters(), lr=1e-3)
optimizer = ADOPT(model.parameters(), lr=1e-3)
👍30❤3
Forwarded from DeepMind AI Expert (Farzad)
سلام دوستان لینک دعوت فیلترشکن برای ی برنامهنویسان، گیمرها، دانشجویان، فعالین حوزه رمز ارز، فریلنسرها از لینک دعوت من استفاده کنین هم شما ی فیلترشکن مطمین استفاده کنین بدونین قطعی نداره هم من ی حجمی بدست بیارم😁، هم شما به فیلترشکنی قابل پشتیبان دسترسی داشته باشید
https://news.1rj.ru/str/F14PanelBot?start=invite_56479f968ee3cd3dd92bfa05ebf07fc9
پ.ن: خدماتشون من به شدت راضیم دوستانتون رو دعوت کنید و حجم هدیه بگیرید
https://news.1rj.ru/str/F14PanelBot?start=invite_56479f968ee3cd3dd92bfa05ebf07fc9
پ.ن: خدماتشون من به شدت راضیم دوستانتون رو دعوت کنید و حجم هدیه بگیرید
👎26❤3👍3👌1
همانطوری که قبلا برای
نوشتم که پول مفت فقط در تله موش قرار داره و کاری صرفا برکلاهبرداری هست و مراقب خودتون باشید الان شرکت دادما تک برای دوره کارآموزی که در همه دنیا بصورت پرداخت دستمزد هست این شرکت بدون پرداخت دستمزد قصد در حل تسک های خودش توسط علاقمندان زیادی دارد و بعدش یک کاراموز 3 ماه هر نوع تسکی داشته باشن بدون پرداختی براشون بزنه بعدا هم بشه بگن عذرمیخوایم ببخشید شما فرد مورد نظر نیستید بیایید این روندی که داره شکل میگیره برای کارآموزان زحمت کش که دنبال کسب تجربه و علم هستند رو جلوشو بگیریم تا هیچ شرکتی نخواهد این روند رو ادامه بده.
مرکز هوش مصنوعی ایران
نوشتم که پول مفت فقط در تله موش قرار داره و کاری صرفا برکلاهبرداری هست و مراقب خودتون باشید الان شرکت دادما تک برای دوره کارآموزی که در همه دنیا بصورت پرداخت دستمزد هست این شرکت بدون پرداخت دستمزد قصد در حل تسک های خودش توسط علاقمندان زیادی دارد و بعدش یک کاراموز 3 ماه هر نوع تسکی داشته باشن بدون پرداختی براشون بزنه بعدا هم بشه بگن عذرمیخوایم ببخشید شما فرد مورد نظر نیستید بیایید این روندی که داره شکل میگیره برای کارآموزان زحمت کش که دنبال کسب تجربه و علم هستند رو جلوشو بگیریم تا هیچ شرکتی نخواهد این روند رو ادامه بده.
👍61❤4
Forwarded from Out of Distribution (Mahdi)
زمستان Scaling برای هوش مصنوعی؟
یکی از اخبار داغ این روزهای هوش مصنوعی، پستی بود که رویترز منتشر کرد و در اون ادعا کرد که Ilya Sutskever، یکی از بنیانگذاران openai که بعد از کودتای سم آلتمن مجبور به ترک این شرکت شد، به رویترز گفته که پارادایم اسکیلینگ روی LLMها گویا دچار مشکل شده و نهایتا داره انگار آروم میگیره و فلت میشه و رشدشون کم و کمتر میشه. توضیح این که scaling به زبان خیلی خلاصه، ایدهای هست که میگه هر چه قدر مدلها رو بزرگتر کنیم و داده آموزشیشون رو هم بیشتر کنیم، عملکردشون هم بهتر و بهتر میشه، تا حدی که بالاخره به AGI و هوش جامع مصنوعی برسیم. حالا ایلیا ادعا کرده که این ایده با مشکل مواجه شده، به این لفظ زیر ایلیا توجه کنید:
در ادامه این پست رویترز هم راجع به تلاش شرکتهای مختلف برای انتقال اسکیلکردن از سمت pretraining به سمت هنگام inference شده. ایدهای که در O1 هم گویا اجرایی شده.
در این خصوص اما، بلاگی هم به طرز جذابی اومده همین قضیه رو توضیح داده. راجع به این توضیح داده که openAI دچار وقفه در انتشار مدل بعدی نسبت به GPT4 شده و مدل پسا GPT4 ای هم که آموزش دادند گویا میزان جامپش به نسبت مدلهای قبلی بسیار کمتره. در واقع این مدل که ازش به نام Orion نام برده در تسکهای زبانی نسبت به مدلهای قبلی بهتره ولی در تسکهایی مثل کدزنی نتونسته برتری خاصی رو ارائه کنه. این بلاگ در ادامه هم یک بحث جالبی راجع به اقتصاد هوش مصنوعی کرده. راجع به ایده اسکیلکردن O1 در test-time بحث کرده و گفته که اون نموداری که OpenAI ارائه داده محور افقیش از مرتبه لگاریتمی بوده، و حالا ممکنه که O1 با اسکیلکردن بتونه انسان رو شکست بده ولی به مدت زمان بسیار زیادی نیاز داره که در رقابت با انسان عملا بیمعنیش میکنه. این بحث رو کرده که رسیدن به AGI با این روند فعلی بسیار هزینهبر به نظر میرسه، چه به لحاظ دلاری و چه به لحاظ واتی. در نهایت هم میگه که شرکتهای AI ای با وعده رسیدن به AGI بودجه رو از سرمایهگذارها میگیرن حالا اگر مشخص بشه که رسیدن به AGI ممکن نیست و واقعا دیگه اسکیلینگ جوابگو نیست، سرمایهگذاریها روی AI سقوط میکنه و فیلد دوباره وارد یک زمستون دیگه ممکنه بشه.
پینوشت ۱: مدلهای مولد فعلی هنوز بسیاری قابلیت کشفناشده دارند که در صنعت ازشون استفاده نشده و شاید چندین سال زمان لازم باشه تا کاربردهای جدید ازشون ببینیم. منتهی چیزی که اینجا مورد بحثه توانایی رسیدن یا نرسیدن به AGI با این پارادایم فعلیه.
لینک رویترز:
https://www.reuters.com/technology/artificial-intelligence/openai-rivals-seek-new-path-smarter-ai-current-methods-hit-limitations-2024-11-11/
لینک بلاگ:
https://garrisonlovely.substack.com/p/is-deep-learning-actually-hitting
یکی از اخبار داغ این روزهای هوش مصنوعی، پستی بود که رویترز منتشر کرد و در اون ادعا کرد که Ilya Sutskever، یکی از بنیانگذاران openai که بعد از کودتای سم آلتمن مجبور به ترک این شرکت شد، به رویترز گفته که پارادایم اسکیلینگ روی LLMها گویا دچار مشکل شده و نهایتا داره انگار آروم میگیره و فلت میشه و رشدشون کم و کمتر میشه. توضیح این که scaling به زبان خیلی خلاصه، ایدهای هست که میگه هر چه قدر مدلها رو بزرگتر کنیم و داده آموزشیشون رو هم بیشتر کنیم، عملکردشون هم بهتر و بهتر میشه، تا حدی که بالاخره به AGI و هوش جامع مصنوعی برسیم. حالا ایلیا ادعا کرده که این ایده با مشکل مواجه شده، به این لفظ زیر ایلیا توجه کنید:
The 2010s were the age of scaling, now we're back in the age of wonder and discovery once again. Everyone is looking for the next thing. Scaling the right thing matters more now than ever.
در ادامه این پست رویترز هم راجع به تلاش شرکتهای مختلف برای انتقال اسکیلکردن از سمت pretraining به سمت هنگام inference شده. ایدهای که در O1 هم گویا اجرایی شده.
در این خصوص اما، بلاگی هم به طرز جذابی اومده همین قضیه رو توضیح داده. راجع به این توضیح داده که openAI دچار وقفه در انتشار مدل بعدی نسبت به GPT4 شده و مدل پسا GPT4 ای هم که آموزش دادند گویا میزان جامپش به نسبت مدلهای قبلی بسیار کمتره. در واقع این مدل که ازش به نام Orion نام برده در تسکهای زبانی نسبت به مدلهای قبلی بهتره ولی در تسکهایی مثل کدزنی نتونسته برتری خاصی رو ارائه کنه. این بلاگ در ادامه هم یک بحث جالبی راجع به اقتصاد هوش مصنوعی کرده. راجع به ایده اسکیلکردن O1 در test-time بحث کرده و گفته که اون نموداری که OpenAI ارائه داده محور افقیش از مرتبه لگاریتمی بوده، و حالا ممکنه که O1 با اسکیلکردن بتونه انسان رو شکست بده ولی به مدت زمان بسیار زیادی نیاز داره که در رقابت با انسان عملا بیمعنیش میکنه. این بحث رو کرده که رسیدن به AGI با این روند فعلی بسیار هزینهبر به نظر میرسه، چه به لحاظ دلاری و چه به لحاظ واتی. در نهایت هم میگه که شرکتهای AI ای با وعده رسیدن به AGI بودجه رو از سرمایهگذارها میگیرن حالا اگر مشخص بشه که رسیدن به AGI ممکن نیست و واقعا دیگه اسکیلینگ جوابگو نیست، سرمایهگذاریها روی AI سقوط میکنه و فیلد دوباره وارد یک زمستون دیگه ممکنه بشه.
پینوشت ۱: مدلهای مولد فعلی هنوز بسیاری قابلیت کشفناشده دارند که در صنعت ازشون استفاده نشده و شاید چندین سال زمان لازم باشه تا کاربردهای جدید ازشون ببینیم. منتهی چیزی که اینجا مورد بحثه توانایی رسیدن یا نرسیدن به AGI با این پارادایم فعلیه.
لینک رویترز:
https://www.reuters.com/technology/artificial-intelligence/openai-rivals-seek-new-path-smarter-ai-current-methods-hit-limitations-2024-11-11/
لینک بلاگ:
https://garrisonlovely.substack.com/p/is-deep-learning-actually-hitting
Reuters
OpenAI and others seek new path to smarter AI as current methods hit limitations
Artificial intelligence companies like OpenAI are seeking to overcome unexpected delays and challenges in the pursuit of ever-bigger large language models by developing training techniques that use more human-like ways for algorithms to "think".
👌11👍6❤2
به مناسبت هفته " کتاب و کتابخوانی" یک دوست هدیه ارزشمندی از یک اندیشه فکری بهم پیشنهاد داد که مطالعه کنم کتاب ماه پنهان است اثر جان اشتاین بک کتاب همیشه بهترین چیزیه برام که میتونم هدیه بگیرم.
کتاب درمورد شهری بندری است که با خیانت یکی از اهالی شهر توسط دشمنان اشغال میشه و روایت مقاومت و امید مردم اون شهر رو نشون میده
پ.ن: شما بگین بهترین کتابی ک تونسته نقشی اساسی در زندگی شما داشته باشه اون چیه که بتونین به بقیه پیشنهاد بدید لطفا از کتابهایی ک زرد و بی محتوا هستن خودداری کنین
▪️ خرید ماه پنهان است اثر جان اشتاین بک
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
کتاب درمورد شهری بندری است که با خیانت یکی از اهالی شهر توسط دشمنان اشغال میشه و روایت مقاومت و امید مردم اون شهر رو نشون میده
پ.ن: شما بگین بهترین کتابی ک تونسته نقشی اساسی در زندگی شما داشته باشه اون چیه که بتونین به بقیه پیشنهاد بدید لطفا از کتابهایی ک زرد و بی محتوا هستن خودداری کنین
▪️ خرید ماه پنهان است اثر جان اشتاین بک
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6❤3
تا ابد نمیتوان کوانتایز کرد.
این هفته، گویا هفته داغ بحث درمورد Scaling Law هست وحالاکاری اومده وسعی کرده Scaling Law روبرای Arithmetic precisionهای مختلف ارائه بده.ماشبکههای عصبی روبه دو طریق میتونیم Precisionشون رو دستکاری کنیم، یا با کوانتیزهکردن Post-Training یااین هم که موقع آموزش شبکه بیایم وبا precisionهای پایین مثل ۸ بیتی یا ۱۶ بیتی شبکه رو آموزش بدیم. این کارها رو هم میکنیم تا شبکه کوچکتری داشته باشیم برای inference.
حالا این پیپر دو چیز مهم رو ادعا کرده. یکی این که شماالزاما هرچی دیتاست آموزش رو بزرگتر کنید وقتی کوانتایزش کنید الزاما با مدل بهتری رو به رو نخواهید شد. به همین دلیل لاما ۳ که چهارصد و خوردهای بیلیون پارامتر داره سخت کوانتایز میشه.
یافته دومشون هم این که حتی فرآیند آموزش مدلها با precisionهای پایینتر هم بیهزینه نیست و مثلا یک مدل ۱ بیلیون پارامتر با FP4، عملکرد قابل مقایسهای با یک مدل ۲۵۰ میلیون پارامتر با BF16 داره.
ازلحاظ Scale Law واقعاداریم به دیوار میخوریم.
▪️ Scaling Laws for Precision
#علوم_پزشکی #مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
این هفته، گویا هفته داغ بحث درمورد Scaling Law هست وحالاکاری اومده وسعی کرده Scaling Law روبرای Arithmetic precisionهای مختلف ارائه بده.ماشبکههای عصبی روبه دو طریق میتونیم Precisionشون رو دستکاری کنیم، یا با کوانتیزهکردن Post-Training یااین هم که موقع آموزش شبکه بیایم وبا precisionهای پایین مثل ۸ بیتی یا ۱۶ بیتی شبکه رو آموزش بدیم. این کارها رو هم میکنیم تا شبکه کوچکتری داشته باشیم برای inference.
حالا این پیپر دو چیز مهم رو ادعا کرده. یکی این که شماالزاما هرچی دیتاست آموزش رو بزرگتر کنید وقتی کوانتایزش کنید الزاما با مدل بهتری رو به رو نخواهید شد. به همین دلیل لاما ۳ که چهارصد و خوردهای بیلیون پارامتر داره سخت کوانتایز میشه.
یافته دومشون هم این که حتی فرآیند آموزش مدلها با precisionهای پایینتر هم بیهزینه نیست و مثلا یک مدل ۱ بیلیون پارامتر با FP4، عملکرد قابل مقایسهای با یک مدل ۲۵۰ میلیون پارامتر با BF16 داره.
ازلحاظ Scale Law واقعاداریم به دیوار میخوریم.
▪️ Scaling Laws for Precision
#علوم_پزشکی #مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍9👎1
Exciting Research position:
Senior LLM Researcher at Sharif Center for Information Systems and Data Science
We are seeking a Senior LLM Engineer for a new, high-impact project focused on advancing research in large language models with direct industrial applications.
🔴 Key Responsibilities:
Contribute to State-of-the-Art Research: Design and fine-tune advanced LLMs, pushing the boundaries of language model research.
Publish and Innovate: Contribute to academic research through publications, establishing the Center's leadership in the field of LLMs and NLP.
🔴 Essential Qualifications:
Extensive experience in developing and fine-tuning large language models, with a focus on both research and real-world applications.
Strong record of research publications or contributions to the field of LLMs, NLP, or related areas.
Proficiency in Python, and deep learning frameworks like PyTorch or TensorFlow.
✅ Ideal Qualifications:
Experience with state-of-the-art LLMs like GPT, BERT, T5, or similar models.
Knowledge of advanced NLP techniques, including transfer learning, reinforcement learning, and multi-modal models.
Please send your CV, with the subject line "Research Position in LLM"
to the email address:
data-icst@sharif.edu.
#Hiring
#استخدام
Senior LLM Researcher at Sharif Center for Information Systems and Data Science
We are seeking a Senior LLM Engineer for a new, high-impact project focused on advancing research in large language models with direct industrial applications.
🔴 Key Responsibilities:
Contribute to State-of-the-Art Research: Design and fine-tune advanced LLMs, pushing the boundaries of language model research.
Publish and Innovate: Contribute to academic research through publications, establishing the Center's leadership in the field of LLMs and NLP.
🔴 Essential Qualifications:
Extensive experience in developing and fine-tuning large language models, with a focus on both research and real-world applications.
Strong record of research publications or contributions to the field of LLMs, NLP, or related areas.
Proficiency in Python, and deep learning frameworks like PyTorch or TensorFlow.
✅ Ideal Qualifications:
Experience with state-of-the-art LLMs like GPT, BERT, T5, or similar models.
Knowledge of advanced NLP techniques, including transfer learning, reinforcement learning, and multi-modal models.
Please send your CV, with the subject line "Research Position in LLM"
to the email address:
data-icst@sharif.edu.
#Hiring
#استخدام
👍4
ابزارهایی که از #هوش_مصنوعی برای کمک کردن ساختن
◾️ http://bolt.new - Frontend Engineer
◾️ http://aider.chat - Backend Engineer
◾️ CrewAI - Product Designer / Manager
◾️ Claude AI - Content Creator
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
◾️ http://bolt.new - Frontend Engineer
◾️ http://aider.chat - Backend Engineer
◾️ CrewAI - Product Designer / Manager
◾️ Claude AI - Content Creator
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
bolt.new
Bolt AI builder: Websites, apps & prototypes
Prompt, run, edit & publish apps
👍2
حمید محمدی بنیانگذار دیجی کالادر مورد: تجربه هایی از ساخت اکوسیستم تجارت الکترونیک سخنرانی میکند.
علاقمند بودین شرکت کنین و برید اونجا با دوستان خوبی ک شرکت کردن اشنا بشید
▪️ لینک ثبت نام
علاقمند بودین شرکت کنین و برید اونجا با دوستان خوبی ک شرکت کردن اشنا بشید
▪️ لینک ثبت نام
👍5👎5
اپ کتابخوانی طاقچه به مناسبت 10 سالگی خودش، روی اشتراک بی نهایت که امکان دسترسی به 30 هزار کتاب الکترونیکی و صوتی (ولی نه همه کتابها) رو در مدت اشتراک میده، تا 80 درصد تخفیف گذاشته و اشتراک سالانه اون هم تا 2 سال قابل تمدید هست.
این اشتراک رو میتونین از اینجا خریداری کنید.
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
این اشتراک رو میتونین از اینجا خریداری کنید.
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤7👎2
اپ کتابخوانی فیدیبو هم روی اشتراک فیدیبوپلاس، که امکان دسترسی به 33 هزار کتاب الکترونیکی و صوتی (ولی نه همه کتابها) رو در مدت اشتراک میده، تا 70 درصد تخفیف گذاشته و اشتراک سالانه اون هم تا چند سال قابل تمدید هست.
این اشتراک رو هم میتونین از اینجا خریداری کنید.
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
این اشتراک رو هم میتونین از اینجا خریداری کنید.
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤8👎3
Forwarded from DeepMind AI Expert
لیست کانال و گروه های ما :
▪️ گروه هوش مصنوعی: یادگیری عمیق و...
https://news.1rj.ru/str/DeepLearningAIExperts
▪️ گروه هوش مصنوعی: پردازش زبان طبیعی
https://news.1rj.ru/str/NLPExperts
▪️ کانال دکتر میثم عسگری
https://news.1rj.ru/str/ai_person
▪️ گروه لینوکس و پایتون و سایر...
https://news.1rj.ru/str/PythonLinuxExperts
با اشتراک گذاشتن این پست به دیده شدن و پیشرفت هموطنان خود کمک کنید. جایی برای پرسش و پاسخ و ارتباط با پژوهشگران علوم کامپیوتر و صنعت پیدا کنند.
▪️ گروه هوش مصنوعی: یادگیری عمیق و...
https://news.1rj.ru/str/DeepLearningAIExperts
▪️ گروه هوش مصنوعی: پردازش زبان طبیعی
https://news.1rj.ru/str/NLPExperts
▪️ کانال دکتر میثم عسگری
https://news.1rj.ru/str/ai_person
▪️ گروه لینوکس و پایتون و سایر...
https://news.1rj.ru/str/PythonLinuxExperts
با اشتراک گذاشتن این پست به دیده شدن و پیشرفت هموطنان خود کمک کنید. جایی برای پرسش و پاسخ و ارتباط با پژوهشگران علوم کامپیوتر و صنعت پیدا کنند.
👍3❤1👎1🆒1