Forwarded from Deep learning channel (Khalooei)
هم اکنون / مجموعه سخنرانی های هوش مصنوعی امیرکبیر
✅ ارائه دکتر نیک آبادی در خصوص ویرایش معنایی صفات چهره با استفاده از مدل های مولد
🌐 https://bluemeet.aut.ac.ir/ch/aaic_lectures/guest
✅ ارائه دکتر نیک آبادی در خصوص ویرایش معنایی صفات چهره با استفاده از مدل های مولد
🌐 https://bluemeet.aut.ac.ir/ch/aaic_lectures/guest
سخنرانی آنلاین: مقدمه ای بر تحلیل توپولوژیکی داده
دکتر نیره الیاسی
پنجشنبه ۵ خرداد ساعت ۱۱
برای ورود به جلسه به عنوان مهمان وارد این لینک شوید.
@Ai_Events
دکتر نیره الیاسی
پنجشنبه ۵ خرداد ساعت ۱۱
برای ورود به جلسه به عنوان مهمان وارد این لینک شوید.
@Ai_Events
👍1
۲۴ ساعت کد زدن به همراه پیتزا و خوش گذرونی
مسابقه ی XeroCTF ترکیبی از چالش های هوش مصنوعی و امنیت سایبریه و طوری طراحی شده میزان یادگیری و تفریح رو به حداکثرترین حالت ممکن خودش برسونه.
تیم Roboepics پنج چالش رو به دقت طراحی کرده تا مهارت های حوزه های بالا رو مورد آزمایش قرار بده.
افراد میتونن به صورت انفرادی یا تیم های حداکثر سه نفری برای مسابقه ثبت نام کنن.
لینک ثبتنام:
Xero.roboepics.com
@Ai_Events
مسابقه ی XeroCTF ترکیبی از چالش های هوش مصنوعی و امنیت سایبریه و طوری طراحی شده میزان یادگیری و تفریح رو به حداکثرترین حالت ممکن خودش برسونه.
تیم Roboepics پنج چالش رو به دقت طراحی کرده تا مهارت های حوزه های بالا رو مورد آزمایش قرار بده.
افراد میتونن به صورت انفرادی یا تیم های حداکثر سه نفری برای مسابقه ثبت نام کنن.
لینک ثبتنام:
Xero.roboepics.com
@Ai_Events
❤5
Things are moving fast in Al. How to stay up-to-date with the latest and greatest in machine learning and data science research and applications?
1. Follow top research and applied scientists on Twitter to stay apprised of new ML publications or blogs. Beware that you'll need to sort through the noise. For example, top institutions tend to get more attention than others – it is not always justified. If you're looking for people to follow, see the list I follow on Twitter: https://buff.ly/37JLDNC
2. Top ML & DS conferences such as NeurlPS, CVPR, ICLR, ICML, or KDD publish their list of award winning papers. These are peer-reviewed and have excited multiple people from the community. You'd get less real-time info than on Twitter, but also less noise. It's also a more academic view. I like to print papers and skim through them (5 min each max) focusing on abstract, methodology, and figures. If I'm interested, I'll spend more time on the paper.
3. Reddit is my favorite place to discuss ML & DS research papers or industry innovations. That's where you can go deeper into your understanding of a new approach by asking questions and scrolling through answers. The point of views are more critical. I recommend the following subreddits: r/ Machine Learning, r/datascience, r/deeplearning, r/ datasets, r/artificial, r/Language Technology, or r/ reinforcementlearning.
Hope it helps!
From: Kian Katanforoush (Stanford lecturer)
@Ai_Events
1. Follow top research and applied scientists on Twitter to stay apprised of new ML publications or blogs. Beware that you'll need to sort through the noise. For example, top institutions tend to get more attention than others – it is not always justified. If you're looking for people to follow, see the list I follow on Twitter: https://buff.ly/37JLDNC
2. Top ML & DS conferences such as NeurlPS, CVPR, ICLR, ICML, or KDD publish their list of award winning papers. These are peer-reviewed and have excited multiple people from the community. You'd get less real-time info than on Twitter, but also less noise. It's also a more academic view. I like to print papers and skim through them (5 min each max) focusing on abstract, methodology, and figures. If I'm interested, I'll spend more time on the paper.
3. Reddit is my favorite place to discuss ML & DS research papers or industry innovations. That's where you can go deeper into your understanding of a new approach by asking questions and scrolling through answers. The point of views are more critical. I recommend the following subreddits: r/ Machine Learning, r/datascience, r/deeplearning, r/ datasets, r/artificial, r/Language Technology, or r/ reinforcementlearning.
Hope it helps!
From: Kian Katanforoush (Stanford lecturer)
@Ai_Events
👍5
عنوان سخنرانی:
Industry in the Big Data Era
سخنران:
Dr. Hossein Badri (Adjunct Assistant Professor at University of Texas – Arlington, Department of Information Systems and Operations Management)
تاریخ سخنرانی: دوشنبه ٩ خردادماه ١۴٠١، ساعت ١٧:٠٠ الی ١٨:٣٠
محل برگزاری:
https://vc.sharif.edu/ch/ie-seminar
@Ai_Events
Industry in the Big Data Era
سخنران:
Dr. Hossein Badri (Adjunct Assistant Professor at University of Texas – Arlington, Department of Information Systems and Operations Management)
تاریخ سخنرانی: دوشنبه ٩ خردادماه ١۴٠١، ساعت ١٧:٠٠ الی ١٨:٣٠
محل برگزاری:
https://vc.sharif.edu/ch/ie-seminar
@Ai_Events
رویداد آموزشی کاربردی
تنظیم هایپرپارامترها(شبکههای عمیق)
hyparameter tuning
چگونه بهترین هایپرپارامترها را برای مدلسازی شبکه های عمیق به روش GRIDSEARCH تنظیم کنیم؟
مدرس :جناب آقای احمد اسدی (دکترای هوش مصنوعی، دانشگاه امیر کبیر)
زمان برگزاری : ١٢ خرداد ساعت:١٦
مهلت ثبت نام تا ١٠ خرداد
مدت رويداد : ٤ ساعت
لینک ثبتنام
کدتخفیف :
@AyehEvent
@Ai_Events
تنظیم هایپرپارامترها(شبکههای عمیق)
hyparameter tuning
چگونه بهترین هایپرپارامترها را برای مدلسازی شبکه های عمیق به روش GRIDSEARCH تنظیم کنیم؟
مدرس :جناب آقای احمد اسدی (دکترای هوش مصنوعی، دانشگاه امیر کبیر)
زمان برگزاری : ١٢ خرداد ساعت:١٦
مهلت ثبت نام تا ١٠ خرداد
مدت رويداد : ٤ ساعت
لینک ثبتنام
کدتخفیف :
Ayehe2424@AyehEvent
@Ai_Events
👍2
گامهایی برای جلوگیری از بیشبرازش (overfitting) شبکه عصبی (۱)
افزایش دادهها (Data Augmentation):
دستیابی به دادههای بیشتر راهی برای بهبود دقت مدلها است. درک این نکته ساده است که دادههای بیشتر، جزئیات بیشتری در مورد وظیفهای که مدل باید انجام دهد را ارائه می دهد. در اینجا افزایش دادهها میتواند به عنوان راهی برای بزرگ کردن مجموعه دادههای ما در نظر گرفته شود.
برای مثالی ساده در حین کار با مجموعه کوچک دادهی تصویر، میتوانیم تعداد تصاویر را با اضافه کردن نسخههای چرخانده شده و تغییر مقیاسشده تصاویر، در دادهها افزایش دهیم. این باعث افزایش اندازه دادهها میشود و با استفاده از چنین تکنیکهایی میتوانیم دقت مدل را افزایش دهیم و در عین حال آن را از شرایط بیشبرازش نجات دهیم.
این مرحله یک مرحله کلی بوده که میتواند برای هر نوع مدل سازی استفاده شود، خواه شبکه عصبی باشد یا مدل های ایستا مانند random forest و ماشین بردار پشتیبان. روشهای مختلفی برای تقویت دادهها با دادههای طبقهبندی مانند SMOTE وجود دارد، و با بیشنمونهبرداری میتوانیم ایدهای از افزایش دادهها با دادههای تصویری پیدا کنیم.
منبع
@Ai_Events
افزایش دادهها (Data Augmentation):
دستیابی به دادههای بیشتر راهی برای بهبود دقت مدلها است. درک این نکته ساده است که دادههای بیشتر، جزئیات بیشتری در مورد وظیفهای که مدل باید انجام دهد را ارائه می دهد. در اینجا افزایش دادهها میتواند به عنوان راهی برای بزرگ کردن مجموعه دادههای ما در نظر گرفته شود.
برای مثالی ساده در حین کار با مجموعه کوچک دادهی تصویر، میتوانیم تعداد تصاویر را با اضافه کردن نسخههای چرخانده شده و تغییر مقیاسشده تصاویر، در دادهها افزایش دهیم. این باعث افزایش اندازه دادهها میشود و با استفاده از چنین تکنیکهایی میتوانیم دقت مدل را افزایش دهیم و در عین حال آن را از شرایط بیشبرازش نجات دهیم.
این مرحله یک مرحله کلی بوده که میتواند برای هر نوع مدل سازی استفاده شود، خواه شبکه عصبی باشد یا مدل های ایستا مانند random forest و ماشین بردار پشتیبان. روشهای مختلفی برای تقویت دادهها با دادههای طبقهبندی مانند SMOTE وجود دارد، و با بیشنمونهبرداری میتوانیم ایدهای از افزایش دادهها با دادههای تصویری پیدا کنیم.
منبع
@Ai_Events
👍2
گامهایی برای جلوگیری از بیشبرازش (overfitting) شبکه عصبی (۲)
سادهسازی شبکه عصبی
ممکن است این یک گام اشتباه برای حل مشکل ما به نظر برسد، اما این یکی از گامهای اساسی و آسان برای جلوگیری از بیشبرازش است. این مرحله میتواند شامل 2 روش باشد، یکی حذف لایههای پیچیده و دوم کاهش نورونهای لایهها. در مدلسازی کلی، میتوان دریافت که استفاده از مدلهای پیچیده با دادههای آسان میتواند مشکل بیشبرازش را افزایش دهد در حالی که مدلهای ساده میتوانند عملکرد بسیار بهتری داشته باشند.
قبل از کاهش پیچیدگی شبکه، باید ورودی و خروجی لایه ها را محاسبه کنیم. همیشه پیشنهاد میشود به جای اعمال پیچیدگی در شبکه، از شبکههای ساده استفاده کنید. اگر شبکه دچار بیشبرازش شده است، باید سعی کنیم آن را ساده کنیم.
منبع
@Ai_Events
سادهسازی شبکه عصبی
ممکن است این یک گام اشتباه برای حل مشکل ما به نظر برسد، اما این یکی از گامهای اساسی و آسان برای جلوگیری از بیشبرازش است. این مرحله میتواند شامل 2 روش باشد، یکی حذف لایههای پیچیده و دوم کاهش نورونهای لایهها. در مدلسازی کلی، میتوان دریافت که استفاده از مدلهای پیچیده با دادههای آسان میتواند مشکل بیشبرازش را افزایش دهد در حالی که مدلهای ساده میتوانند عملکرد بسیار بهتری داشته باشند.
قبل از کاهش پیچیدگی شبکه، باید ورودی و خروجی لایه ها را محاسبه کنیم. همیشه پیشنهاد میشود به جای اعمال پیچیدگی در شبکه، از شبکههای ساده استفاده کنید. اگر شبکه دچار بیشبرازش شده است، باید سعی کنیم آن را ساده کنیم.
منبع
@Ai_Events
👍3
👍3
گامهایی برای جلوگیری از بیشبرازش (overfitting) شبکه عصبی (۳)
رگولهسازی وزن
رگولهسازی وزن مرحلهای است که با کاهش پیچیدگی مدلها به جلوگیری از بیشبرازش کمک میکند. راههای مختلفی برای رگولهسازی مانند L1 و L2 وجود دارد. این روشها عمدتاً با جریمه کردن (penalizing) وزنهای هر تابعی کار میکنند و این وزنهای کوچکتر منجر به مدلهای سادهتر میشوند. همانطور که در پشت قبل توضیح داده شد، مدل های سادهتر به جلوگیری از بیشبرازش کمک میکند.
همانطور که از نام آن پیداست، این مرحله عبارت منظمسازی را به همراه تابع هزینه (Loss Function) اضافه میکند بطوری که ماتریس وزنها میتواند کوچکتر شود. عمل جمع، یک تابع هزینه (Cost Function) میسازد و میتواند به صورت زیر تعریف شود.
تابع هزینه = هزینه + ترم رگولهسازی
با توجه به فرمولها میتوان گفت که رگولهسازی L1 سعی میکند قدر مطلق وزنها را به حداقل برساند اما رگولهسازی L2 تلاش میکند تا قدر مجذور وزنها را به حداقل برساند.
هر دوی این روشها روشهای محبوبی هستند و تفاوت اصلی بین آنها این است که روش L1 قوی، ساده و قابل تفسیر است در حالی که رگولهسازی L2 قادر به یادگیری دادههای پیچیده است و چندان قوی نیست. بنابراین انتخاب هر یک از روش ها به پیچیدگی دادهها بستگی دارد.
منبع
@Ai_Events
رگولهسازی وزن
رگولهسازی وزن مرحلهای است که با کاهش پیچیدگی مدلها به جلوگیری از بیشبرازش کمک میکند. راههای مختلفی برای رگولهسازی مانند L1 و L2 وجود دارد. این روشها عمدتاً با جریمه کردن (penalizing) وزنهای هر تابعی کار میکنند و این وزنهای کوچکتر منجر به مدلهای سادهتر میشوند. همانطور که در پشت قبل توضیح داده شد، مدل های سادهتر به جلوگیری از بیشبرازش کمک میکند.
همانطور که از نام آن پیداست، این مرحله عبارت منظمسازی را به همراه تابع هزینه (Loss Function) اضافه میکند بطوری که ماتریس وزنها میتواند کوچکتر شود. عمل جمع، یک تابع هزینه (Cost Function) میسازد و میتواند به صورت زیر تعریف شود.
تابع هزینه = هزینه + ترم رگولهسازی
با توجه به فرمولها میتوان گفت که رگولهسازی L1 سعی میکند قدر مطلق وزنها را به حداقل برساند اما رگولهسازی L2 تلاش میکند تا قدر مجذور وزنها را به حداقل برساند.
هر دوی این روشها روشهای محبوبی هستند و تفاوت اصلی بین آنها این است که روش L1 قوی، ساده و قابل تفسیر است در حالی که رگولهسازی L2 قادر به یادگیری دادههای پیچیده است و چندان قوی نیست. بنابراین انتخاب هر یک از روش ها به پیچیدگی دادهها بستگی دارد.
منبع
@Ai_Events
👍2
گامهایی برای جلوگیری از بیشبرازش (overfitting) شبکه عصبی (۴)
استفاده از روش Dropout
این مرحله به ما کمک میکند تا با کاهش تعداد نورونهای شبکه تا زمانی که شبکه آموزش ببیند، از بیش برازش جلوگیری کنیم. همچنین میتوان گفت که این یک تکنیک رگولهسازی است اما برخلاف تابع هزینه، با نورونها کار میکند.
این روش ساده است و نورونها را در حین آموزش در هر تکرار(epoch) از شبکه حذف میکند. همچنین میتوانیم به این فرآیند بهگونه ای فکر کنیم که شبکه را در حین آموزش ساده و متفاوت میکند، زیرا درنهایت باعث کاهش پیچیدگی شبکه و تمایل به آمادهسازی یک شبکه جدید میشود. اثر خالص اعمال لایههای Dropout در شبکه، به کاهش میزان بیشبرازش شبکه همگرا میشود.
منبع
@Ai_Events
استفاده از روش Dropout
این مرحله به ما کمک میکند تا با کاهش تعداد نورونهای شبکه تا زمانی که شبکه آموزش ببیند، از بیش برازش جلوگیری کنیم. همچنین میتوان گفت که این یک تکنیک رگولهسازی است اما برخلاف تابع هزینه، با نورونها کار میکند.
این روش ساده است و نورونها را در حین آموزش در هر تکرار(epoch) از شبکه حذف میکند. همچنین میتوانیم به این فرآیند بهگونه ای فکر کنیم که شبکه را در حین آموزش ساده و متفاوت میکند، زیرا درنهایت باعث کاهش پیچیدگی شبکه و تمایل به آمادهسازی یک شبکه جدید میشود. اثر خالص اعمال لایههای Dropout در شبکه، به کاهش میزان بیشبرازش شبکه همگرا میشود.
منبع
@Ai_Events
👍2
گامهایی برای جلوگیری از بیشبرازش (overfitting) شبکه عصبی (۵)
توقف زودهنگام آموزش
همانطور که از نام آن پیداست این مرحله روشی برای توقف آموزش شبکه در مراحل اولیه نسبت به مرحله نهایی است. ما میتوانیم آن را با تکنیک اعتبارسنجی متقابل مقایسه کنیم، زیرا برخی از بخشهای دادههای آموزشی به عنوان دادههای اعتبارسنجی استفاده میشوند؛ تا بتوان عملکرد مدل را در برابر این دادههای اعتبارسنجی اندازهگیری کرد. با افزایش عملکرد مدل به نقطه اوج، میتوان آموزش را متوقف کرد.
این مرحله در حالی که ما مدل را آموزش میدهیم نیز کار میکند. همانطور که مدل در آموزش یاد میگیرد، ما سعی میکنیم عملکرد آن را روی دادههای دیده نشده اندازهگیری کنیم و آموزش را تا نقطهای ادامه دهیم که مدل شروع به کاهش دقت در اعتبارسنجی یا دادههای دیده نشده کند. اگر عملکرد این مجموعه اعتبارسنجی کاهش یابد یا برای تکرارهای خاص ثابت بماند، آموزش متوقف می شود.
منبع
@Ai_Events
توقف زودهنگام آموزش
همانطور که از نام آن پیداست این مرحله روشی برای توقف آموزش شبکه در مراحل اولیه نسبت به مرحله نهایی است. ما میتوانیم آن را با تکنیک اعتبارسنجی متقابل مقایسه کنیم، زیرا برخی از بخشهای دادههای آموزشی به عنوان دادههای اعتبارسنجی استفاده میشوند؛ تا بتوان عملکرد مدل را در برابر این دادههای اعتبارسنجی اندازهگیری کرد. با افزایش عملکرد مدل به نقطه اوج، میتوان آموزش را متوقف کرد.
این مرحله در حالی که ما مدل را آموزش میدهیم نیز کار میکند. همانطور که مدل در آموزش یاد میگیرد، ما سعی میکنیم عملکرد آن را روی دادههای دیده نشده اندازهگیری کنیم و آموزش را تا نقطهای ادامه دهیم که مدل شروع به کاهش دقت در اعتبارسنجی یا دادههای دیده نشده کند. اگر عملکرد این مجموعه اعتبارسنجی کاهش یابد یا برای تکرارهای خاص ثابت بماند، آموزش متوقف می شود.
منبع
@Ai_Events
سمینار با عنوان:
افق های جدید در درمان و تصویربرداری مولکولی، هوش مصنوعی و دوقلوهای دیجیتال (به علاوه نظراتی بر چگونگی کار موثر)
سخنران: دکتر آرمان رحمیم
استاد تمام رادیولوژی، فیزیک و مهندسی پزشکی در دانشگاه بریتیش کلمبیا (UBC)
زمان برگزاری: شنبه ۱ مرداد ماه ساعت ٨ الی ١٢:٣٠
محل برگزاری: خیابان ایتالیا، نبش وصال و قدس، پلاک 41 ، آزمایشگاه جامع تحقیقات، طبقه دوم
لینک ثبتنام:
https://tpcf.tums.ac.ir/FA/workshops/New-Horizons-in-Molecular-Imaging
@TUMS_PreClinical_CF
@Ai_Events
افق های جدید در درمان و تصویربرداری مولکولی، هوش مصنوعی و دوقلوهای دیجیتال (به علاوه نظراتی بر چگونگی کار موثر)
سخنران: دکتر آرمان رحمیم
استاد تمام رادیولوژی، فیزیک و مهندسی پزشکی در دانشگاه بریتیش کلمبیا (UBC)
زمان برگزاری: شنبه ۱ مرداد ماه ساعت ٨ الی ١٢:٣٠
محل برگزاری: خیابان ایتالیا، نبش وصال و قدس، پلاک 41 ، آزمایشگاه جامع تحقیقات، طبقه دوم
لینک ثبتنام:
https://tpcf.tums.ac.ir/FA/workshops/New-Horizons-in-Molecular-Imaging
@TUMS_PreClinical_CF
@Ai_Events
Media is too big
VIEW IN TELEGRAM
این ویدیوی خیلی جذاب رو نمیدونم کی ایجاد کرده، حتی چون سرم شلوغ بود صبح، به نظرم جالب اومد، دانلود کردم و حالا نمیدونم از کجا گرفتمش.
خلاصه این ویدئو داره در مورد Google LaMDA صحبت میکنه که یه مدلسازی زبانیه برای گفتوگو.
اگه میدونید صفحهشون کجاست لطفا کامنت کنید.
@Ai_Events
خلاصه این ویدئو داره در مورد Google LaMDA صحبت میکنه که یه مدلسازی زبانیه برای گفتوگو.
اگه میدونید صفحهشون کجاست لطفا کامنت کنید.
@Ai_Events
کلاسویژن با همکاری آکادمی همراه اول برگزار میکند:
🛎 دوره ضبط شدهی "مبانی هوش مصنوعی و یادگیری عمیق"
➕ فهم عمیق هوش مصنوعی و یادگیری ماشین و کاربردهای آن
➕ حل مسئله با الگوریتم های یادگیری عمیق در فریم ورک های مبتنی بر پایتون
➕ اعطای تخفیف جهت ثبت نام در بوت کمپ تابستانی پایتون و هوش مصنوعی
♦️همراه با پروژه های فردی و گروهی
🎤 مدرس: مهندس علیرضا اخوان پور
🔸مدرس یادگیری عمیق در دانشگاه های برتر
🔹مدیر فنی مجموعه دانش بنیان شناسا
⏳شروع ثبت نام: از 12 تیرماه 1401
⏱ مدت دوره: 12 ساعت
کد تخفیف:
🔗 مشاهده اطلاعات بیشتر و ثبتنام:
🌐 https://class.vision/product/intro-to-ai-ml-deep/
❓پاسخ به سوالات:
🆔 @academy_hamrah
📞 09191866820
کانال مدرس دوره: @cvision
@Ai_Events
🛎 دوره ضبط شدهی "مبانی هوش مصنوعی و یادگیری عمیق"
➕ فهم عمیق هوش مصنوعی و یادگیری ماشین و کاربردهای آن
➕ حل مسئله با الگوریتم های یادگیری عمیق در فریم ورک های مبتنی بر پایتون
➕ اعطای تخفیف جهت ثبت نام در بوت کمپ تابستانی پایتون و هوش مصنوعی
♦️همراه با پروژه های فردی و گروهی
🎤 مدرس: مهندس علیرضا اخوان پور
🔸مدرس یادگیری عمیق در دانشگاه های برتر
🔹مدیر فنی مجموعه دانش بنیان شناسا
⏳شروع ثبت نام: از 12 تیرماه 1401
⏱ مدت دوره: 12 ساعت
کد تخفیف:
cvision🔗 مشاهده اطلاعات بیشتر و ثبتنام:
🌐 https://class.vision/product/intro-to-ai-ml-deep/
❓پاسخ به سوالات:
🆔 @academy_hamrah
📞 09191866820
کانال مدرس دوره: @cvision
@Ai_Events
👍2
New release for 𝐒𝐮𝐩𝐞𝐫𝐆𝐫𝐚𝐝𝐢𝐞𝐧𝐭𝐬 👇🏼
The 𝐒𝐮𝐩𝐞𝐫𝐆𝐫𝐚𝐝𝐢𝐞𝐧𝐭𝐬 is a Python library that provides a framework for training 𝐝𝐞𝐞𝐩 𝐥𝐞𝐚𝐫𝐧𝐢𝐧𝐠 models with 𝐏𝐲𝐓𝐨𝐫𝐜𝐡 for any 𝐜𝐨𝐦𝐩𝐮𝐭𝐞𝐫 𝐯𝐢𝐬𝐢𝐨𝐧 tasks by Deci AI. It also enables you to import pre-trained SOTA models, such as object detection, classification of images, and semantic segmentation for videos and images .
Version 2.0.0/1 main updates:
Integration with Weights & Biases and DagsHub
KD trainer and resnet50 recipe (81.92 % accuracy)
ViT models (Vision Transformer) - Training recipes and pre-trained checkpoints (ViT, BEiT).
𝐒𝐨𝐮𝐫𝐜𝐞 𝐜𝐨𝐝𝐞: https://lnkd.in/gwyCSH7f
𝐃𝐨𝐜𝐮𝐦𝐞𝐧𝐭𝐚𝐭𝐢𝐨𝐧: https://lnkd.in/gPiZ-QJx
𝐂𝐨𝐥𝐚𝐛 𝐭𝐮𝐭𝐨𝐫𝐢𝐚𝐥𝐬: https://github.com/Deci-AI/super-gradients#quick-start-notebook---classification
@Ai_Events
The 𝐒𝐮𝐩𝐞𝐫𝐆𝐫𝐚𝐝𝐢𝐞𝐧𝐭𝐬 is a Python library that provides a framework for training 𝐝𝐞𝐞𝐩 𝐥𝐞𝐚𝐫𝐧𝐢𝐧𝐠 models with 𝐏𝐲𝐓𝐨𝐫𝐜𝐡 for any 𝐜𝐨𝐦𝐩𝐮𝐭𝐞𝐫 𝐯𝐢𝐬𝐢𝐨𝐧 tasks by Deci AI. It also enables you to import pre-trained SOTA models, such as object detection, classification of images, and semantic segmentation for videos and images .
Version 2.0.0/1 main updates:
Integration with Weights & Biases and DagsHub
KD trainer and resnet50 recipe (81.92 % accuracy)
ViT models (Vision Transformer) - Training recipes and pre-trained checkpoints (ViT, BEiT).
𝐒𝐨𝐮𝐫𝐜𝐞 𝐜𝐨𝐝𝐞: https://lnkd.in/gwyCSH7f
𝐃𝐨𝐜𝐮𝐦𝐞𝐧𝐭𝐚𝐭𝐢𝐨𝐧: https://lnkd.in/gPiZ-QJx
𝐂𝐨𝐥𝐚𝐛 𝐭𝐮𝐭𝐨𝐫𝐢𝐚𝐥𝐬: https://github.com/Deci-AI/super-gradients#quick-start-notebook---classification
@Ai_Events
👍4
Google Imagen neural network creates crazy photorealistic images
And it performs it simply by text denoscription.
Google has unveiled its new project called Imagen, an image generator based on a given text denoscription.
According to the developers, the Imagen neural network is superior to OpenAI's DALL-E 2, another image generator with artificial intelligence. Imagen is not currently available to the public, but the samples presented are impressive.
As Google notes, the new text-to-image model features "an unprecedented degree of photorealism and a deep understanding of language."
Imagen generates a 64 x 64 pixel image, then performs two successive enhancements and converts the image to a larger 1024 x 1024 pixel size.
@Ai_Events
And it performs it simply by text denoscription.
Google has unveiled its new project called Imagen, an image generator based on a given text denoscription.
According to the developers, the Imagen neural network is superior to OpenAI's DALL-E 2, another image generator with artificial intelligence. Imagen is not currently available to the public, but the samples presented are impressive.
As Google notes, the new text-to-image model features "an unprecedented degree of photorealism and a deep understanding of language."
Imagen generates a 64 x 64 pixel image, then performs two successive enhancements and converts the image to a larger 1024 x 1024 pixel size.
@Ai_Events
❤2
همايش "شركتهاى #دانش_بنیان ، #بازارسرمایه ، دور نماى آينده" به همت بورس تهران در تاريخ ٢٢ تيرماه مصادف با روز ملى فناورى اطلاعات برگزار مى گردد. در اين همايش برنامه ريزى شده است علاوه بر سخنرانى معمول مقامات دولتى، شركتهاى دانش بنيانى كه به مرحله بلوغ و توسعه يافتگى رسيده اند فضاى اقتصادى حاكم بر كسب و كار خود را تشريح كنند.در اين همايش #ديجيكالا ، #اسنپ ، #ايرانسل ، #آسياتك و #تپسی از تجربيات خود مى گويند.
بازار سرمايه علاوه بر فراهم آوردن امكان تامين مالى براى كسب و كارها، پذيراى درج سهام شركتهاى دانش بنيان توسعه يافته از طريق پذيرش در بورس اوراق بهادار تهران است. بدون شك پذيرش و درج نماد شركتهاى مبتنى بر دانش فناورى اطلاعات و بر پايه اقتصاد ديجيتال مكمل شركتهاى توليدى و اصطلاحا كاموديتى محور بورس تهران است. از شما جهت حضور در این همایش دعوت به عمل می آید.
توضیح اینکه در بازار سرمایه مباحث هوشمندسازی بسیار مهم هست، اما متاسفانه تا این لحظه، پروژههای چندانی در این حوزه بالا نیومده یا حداقل من اطلاع ندارم، امیدوارم این همایش نقطه عطفی باشه برای هر دو طرف.
@Ai_Events
بازار سرمايه علاوه بر فراهم آوردن امكان تامين مالى براى كسب و كارها، پذيراى درج سهام شركتهاى دانش بنيان توسعه يافته از طريق پذيرش در بورس اوراق بهادار تهران است. بدون شك پذيرش و درج نماد شركتهاى مبتنى بر دانش فناورى اطلاعات و بر پايه اقتصاد ديجيتال مكمل شركتهاى توليدى و اصطلاحا كاموديتى محور بورس تهران است. از شما جهت حضور در این همایش دعوت به عمل می آید.
توضیح اینکه در بازار سرمایه مباحث هوشمندسازی بسیار مهم هست، اما متاسفانه تا این لحظه، پروژههای چندانی در این حوزه بالا نیومده یا حداقل من اطلاع ندارم، امیدوارم این همایش نقطه عطفی باشه برای هر دو طرف.
@Ai_Events
👍2
دوران مصورسازیهای ضعیف در پایتون به سر آمده!
اون اوایل که شروع کردم به یاد گرفتن پایتون، چند تا نقطه ضعف اساسی رو حس میکردم که یکیشون، packageهایی بود که برای نمودار کشیدن در اختیار قرار میداد. Matplotlib که کماکان هم کاربرهای خودش رو داره، هم خروجیهای خوشتیپی نداشت، هم مثل نمودارهای جاوااسکریپتی، تعاملی نبود!
حدود دو سال و نیم پیش با package فوقالعاده plotly آشنا شدم که بهم کمک کرد نمودارها رو با همون مقدار کد packageهای قبلی، در قالب جاوااسکریپت تولید کنم و توی مرورگرم بتونم ببینمشون.
اینکه وقتی نمودار رو میکشی، میتونی روش بزرگنمایی داشته باشی، یا یه سری legendها رو مخفی/نمایش کنی، خیلی جذابه و کلا تعامل باهاش آدم رو میرسونه به نقطهای که بگه اوففففففف.
حتما از این لینک نمونههایی که داره رو چک کنید و باهاش کار کنید.
تو پستهای بعدی، یه بسته دیگه معرفی میکنم که اومده با استفاده از plotly، Flask و React یه بسته ساخته که خیییلی خیلی راحت میتونید یه داشبورد آپدیتشونده خودکار تحت وب ایجاد کنید و کاربرای زیادی بتونن ازش استفاده کنن بدون حتی یک خط HTML زدن!!!
@Ai_Events
اون اوایل که شروع کردم به یاد گرفتن پایتون، چند تا نقطه ضعف اساسی رو حس میکردم که یکیشون، packageهایی بود که برای نمودار کشیدن در اختیار قرار میداد. Matplotlib که کماکان هم کاربرهای خودش رو داره، هم خروجیهای خوشتیپی نداشت، هم مثل نمودارهای جاوااسکریپتی، تعاملی نبود!
حدود دو سال و نیم پیش با package فوقالعاده plotly آشنا شدم که بهم کمک کرد نمودارها رو با همون مقدار کد packageهای قبلی، در قالب جاوااسکریپت تولید کنم و توی مرورگرم بتونم ببینمشون.
اینکه وقتی نمودار رو میکشی، میتونی روش بزرگنمایی داشته باشی، یا یه سری legendها رو مخفی/نمایش کنی، خیلی جذابه و کلا تعامل باهاش آدم رو میرسونه به نقطهای که بگه اوففففففف.
حتما از این لینک نمونههایی که داره رو چک کنید و باهاش کار کنید.
تو پستهای بعدی، یه بسته دیگه معرفی میکنم که اومده با استفاده از plotly، Flask و React یه بسته ساخته که خیییلی خیلی راحت میتونید یه داشبورد آپدیتشونده خودکار تحت وب ایجاد کنید و کاربرای زیادی بتونن ازش استفاده کنن بدون حتی یک خط HTML زدن!!!
@Ai_Events
👍7