Real-time machine learning: challenges and solutions
https://huyenchip.com/2022/01/02/real-time-machine-learning-challenges-and-solutions.html
https://huyenchip.com/2022/01/02/real-time-machine-learning-challenges-and-solutions.html
Chip Huyen
Real-time machine learning: challenges and solutions
[Twitter discussion, LinkedIn]
Forwarded from Python_Labs🐍
Often the hardest part of solving a machine learning problem can be finding the right estimator for the job. In this talk by @adrinjalali
, learn about how to design a custom scikit-learn estimator.
https://www.youtube.com/watch?v=sEaiOkxTFjw
, learn about how to design a custom scikit-learn estimator.
https://www.youtube.com/watch?v=sEaiOkxTFjw
YouTube
Adrin Jalali - Custom Scikit-learn Estimators
About the Talk:
Often the hardest part of solving a machine learning problem can be finding the right estimator for the job. In some cases, you may decide to write your customized scikit-learn estimator, that precisely tackle the ML problem at hand. In this…
Often the hardest part of solving a machine learning problem can be finding the right estimator for the job. In some cases, you may decide to write your customized scikit-learn estimator, that precisely tackle the ML problem at hand. In this…
RuDOLPH: One Hyper-Modal Transformer can be creative as DALL-E and smart as CLIP
https://github.com/sberbank-ai/ru-dolph
https://github.com/sberbank-ai/ru-dolph
🤩1
بازسازی چهره امروزی چهرههای تاریخی با کمک هوش مصنوعی
چپ/از بالا به پایین:
صلاحالدین ایوبی
عیسی مسیح
ملکه نفرتیتی
داوینچی
راست/ از بالا به پایین:
ژوکوند
شکسپیر
کلوپاترا
داوود اثر میکل آنژ
#GAN
🙏Thanks to: @akhbar_montakhab
چپ/از بالا به پایین:
صلاحالدین ایوبی
عیسی مسیح
ملکه نفرتیتی
داوینچی
راست/ از بالا به پایین:
ژوکوند
شکسپیر
کلوپاترا
داوود اثر میکل آنژ
#GAN
🙏Thanks to: @akhbar_montakhab
🔥12😱4😁3👍1
Forwarded from Shenasa-ai.ir
#Detic
Detecting Twenty-thousand Classes using Image-level Supervision
این مدل سگمنتیشن جدید فیسبوک واقعا خوبه. همین الان یه عکس از حمیدرضا، از توسعه دهنده های شرکتمون(شناسا)، در حال کار گرفتم و دادم به مدل، اینم از خروجی خیره کنندش!
همین الان آنلاین تست کنید:
https://huggingface.co/spaces/akhaliq/Detic
سورس کد:
https://github.com/facebookresearch/Detic
Detecting Twenty-thousand Classes using Image-level Supervision
این مدل سگمنتیشن جدید فیسبوک واقعا خوبه. همین الان یه عکس از حمیدرضا، از توسعه دهنده های شرکتمون(شناسا)، در حال کار گرفتم و دادم به مدل، اینم از خروجی خیره کنندش!
همین الان آنلاین تست کنید:
https://huggingface.co/spaces/akhaliq/Detic
سورس کد:
https://github.com/facebookresearch/Detic
👍12
Tensorflow(@CVision)
#رویداد_آنلاین ثبت نام دوره ی GAN آغاز شد. 7 الی 22 بهمن به مدت 18 ساعت. مدرس: علیرضا اخوان پور http://class.vision/product/gan-winter400/
اگر به شبکه های GAN علاقه مندید گوگل هم یه کورس رایگان گذاشته:
https://developers.google.com/machine-learning/gan
https://developers.google.com/machine-learning/gan
Google for Developers
Introduction | Machine Learning | Google for Developers
🤩5
خانم اسلامی، دانشجوی هوش مصنوعی علم و صنعت و از فالورهای کانال:
https://www.linkedin.com/in/maryam-eslami-2a226916b/
برای بخشی از پایان نامه که در حوزه ی خلاقیت محاسباتی و ماشین لرنینگ هست، یک فرمی تهیه کردند که توضیحاتش تو این لینک هست:
https://www.linkedin.com/posts/maryam-eslami-2a226916b_computational-creativity-in-visual-metaphor-activity-6886722090058166272-ljvu
لینک پر کردن فرم نظر سنجی این هست:
https://lnkd.in/dztpJA4n?trk=public_post_share-update_update-text
https://www.linkedin.com/in/maryam-eslami-2a226916b/
برای بخشی از پایان نامه که در حوزه ی خلاقیت محاسباتی و ماشین لرنینگ هست، یک فرمی تهیه کردند که توضیحاتش تو این لینک هست:
https://www.linkedin.com/posts/maryam-eslami-2a226916b_computational-creativity-in-visual-metaphor-activity-6886722090058166272-ljvu
لینک پر کردن فرم نظر سنجی این هست:
https://lnkd.in/dztpJA4n?trk=public_post_share-update_update-text
Linkedin
Maryam Eslami on LinkedIn: Computational Creativity in Visual Metaphor
"𝑨 𝒑𝒊𝒄𝒕𝒖𝒓𝒆 𝒊𝒔 𝒘𝒐𝒓𝒕𝒉 𝒂 𝒕𝒉𝒐𝒖𝒔𝒂𝒏𝒅 𝒘𝒐𝒓𝒅𝒔".
With help of 𝐌𝐚𝐜𝐡𝐢𝐧𝐞 𝐋𝐞𝐚𝐫𝐧𝐢𝐧𝐠 tools and algorithms, a 𝐂𝐨𝐦𝐩𝐮𝐭𝐚...
With help of 𝐌𝐚𝐜𝐡𝐢𝐧𝐞 𝐋𝐞𝐚𝐫𝐧𝐢𝐧𝐠 tools and algorithms, a 𝐂𝐨𝐦𝐩𝐮𝐭𝐚...
training Vision Transformers (ViT) on small datasets
https://keras.io/examples/vision/vit_small_ds/
https://keras.io/examples/vision/vit_small_ds/
keras.io
Keras documentation: Train a Vision Transformer on small datasets
Forwarded from DLeX: AI Python (Farzad 🦅)
بحث آزاد پرسش و پاسخ با دکتر رحیم دهخوارقانی و دکتر میثم عسگری پیرامون موضوع زیر: 👇👇
🔰 Sentiment Analysis and its Challenges for the NLP World
🔸 در تاریخ یکشنبه ۲۶ دی ساعت ۲۱ به وقت تهران
در پیج اینستاگرام زیر برگزار میگردد.
https://instagram.com/ai_python_podcast
📣 هر گونه سوالی که دارید روی این پست کامنت کنید.
❇️ @AI_Python
🔰 Sentiment Analysis and its Challenges for the NLP World
🔸 در تاریخ یکشنبه ۲۶ دی ساعت ۲۱ به وقت تهران
در پیج اینستاگرام زیر برگزار میگردد.
https://instagram.com/ai_python_podcast
📣 هر گونه سوالی که دارید روی این پست کامنت کنید.
❇️ @AI_Python
در انتقال یادگیری از لایههای میانی غافل نشوید
در سناریو انتقال یادگیری و هنگامی که بخواهیم شبکه پیش آموزش دیده روی تسک مبدا را برای تسک مقصد استفاده کنیم، دو راه پیشروی خود داریم. راه اول این است که شبکه را به اصطلاح فریز کنیم و یک لایه خطی روی فیچرهای لایه آخر شبکه برای تسک مقصد استفاده کنیم. راه دوم هم این است که کل شبکه را مورد فاین تیون قرار بدهیم. حالا مقالهای اومده که نشون داده راه سومی هم جز این دو هست و این راه فریزکردن شبکه و در عین حال سوارکردن یک لایه خطی بر روی فیچرهای تمام لایههای میانی شبکه است (نه فقط فیچرهای لایه آخر). در واقع سوالی که منجر به این ایده شده این بوده که Fine-tuning با این که پیچیدگی و تعداد پارامتر بیشتری نسبت به حالت فریزکردن مدل داره چرا بهتر عمل میکنه؟ نکنه در سناریو Fine-tuning صرفا فیچرهای میانی شبکه دارند به آخر شبکه پاس داده میشوند؟؟)
این مقاله ابتدا اومده imagenet رو به عنوان تسک مبدا در نظر گرفته و ۱۹ دیتاست دیگه مثل Cifar100 و Clevr و Pets و ... رو به عنوان تسک مقصد در نظر گرفته. سپس یک مقداری تحت عنوان domain affinity محاسبه کرده که نشون میده هر کدوم از این ۱۹ تسک مقصد چه قدر به imagenet نزدیک هستند. حالا اومدند و برای هر کدوم از این دیتاستها سه سناریو دستهبند خطی روی شبکه مبدا فریزشده (Linear)، فاین تیونکردن شبکه مبدا (Fine-tuning) و اموزش دادن از اول (Scratch) و نتایج این روشها رو تو عکس figure2 ای که مشاهده میکنید گذاشتند. در این نمودار دیتاست های سمت چپ دارای affinity کمتر و دیتاستهای سمت راست دارای affinity بیشتری هستند. نمودار نشون میده که برای دیتاستهای چپ سناریو Scratch جواببهتری از بقیه میده و برای دیتاستهای راست هم سناریو Linear جواب خوبی میده ( که منطقی هم هست).
در گام بعدی مقاله اومده و مدل خودش یعنی Head2Toe رو مطرح کرده. در این مدل ابتدا شبکه مبدا (همون پیش آموزش دیدهه روی imagent) فریز میشه و سپس تمامی فیچرهای میانی شبکه انتخاب میشوند. از اونجایی که سایز اینها خب زیاده فیچرهای هر لایه توسط یک مکانیزم pooling ابعادشون کاهش پیدا میکنه. در نهایت تمامی این فیچرهای کاهش بعد داده شده تمامی لایهها با هم کانکت میشوند و یک بردار ویژگی بزرگ به دست میاد (اسمش رو h_all بذارید). از اونجایی که این h_all هم بزرگه و آموزش دادن کلاسیفایر خطی روش ممکنه منجر به اورفیت بشه، مقاله اومده از رگولاریزیشن Group lasso برای آموزش یک دستهبند خطی روی این بردار بزرگ استفاده کرده تا وزنهایی که به دست میان اسپارس باشن و هم به نوعی عمل فیچر سلکشن رو روی h_all انجام داده. در نهایت هم اومدن head2Toe رو روی اون ۱۹ دیتاست مختلف اجرا کردند و نشون دادند که در میانگین روششون بهتر از سناریوهای دیگه نظیر Linear و حتی Fine-tune داره عمل میکنه!
لینک مقاله:
https://arxiv.org/abs/2201.03529
#read
#paper
🙏Thanks to: @nlp_stuff 🌹
در سناریو انتقال یادگیری و هنگامی که بخواهیم شبکه پیش آموزش دیده روی تسک مبدا را برای تسک مقصد استفاده کنیم، دو راه پیشروی خود داریم. راه اول این است که شبکه را به اصطلاح فریز کنیم و یک لایه خطی روی فیچرهای لایه آخر شبکه برای تسک مقصد استفاده کنیم. راه دوم هم این است که کل شبکه را مورد فاین تیون قرار بدهیم. حالا مقالهای اومده که نشون داده راه سومی هم جز این دو هست و این راه فریزکردن شبکه و در عین حال سوارکردن یک لایه خطی بر روی فیچرهای تمام لایههای میانی شبکه است (نه فقط فیچرهای لایه آخر). در واقع سوالی که منجر به این ایده شده این بوده که Fine-tuning با این که پیچیدگی و تعداد پارامتر بیشتری نسبت به حالت فریزکردن مدل داره چرا بهتر عمل میکنه؟ نکنه در سناریو Fine-tuning صرفا فیچرهای میانی شبکه دارند به آخر شبکه پاس داده میشوند؟؟)
این مقاله ابتدا اومده imagenet رو به عنوان تسک مبدا در نظر گرفته و ۱۹ دیتاست دیگه مثل Cifar100 و Clevr و Pets و ... رو به عنوان تسک مقصد در نظر گرفته. سپس یک مقداری تحت عنوان domain affinity محاسبه کرده که نشون میده هر کدوم از این ۱۹ تسک مقصد چه قدر به imagenet نزدیک هستند. حالا اومدند و برای هر کدوم از این دیتاستها سه سناریو دستهبند خطی روی شبکه مبدا فریزشده (Linear)، فاین تیونکردن شبکه مبدا (Fine-tuning) و اموزش دادن از اول (Scratch) و نتایج این روشها رو تو عکس figure2 ای که مشاهده میکنید گذاشتند. در این نمودار دیتاست های سمت چپ دارای affinity کمتر و دیتاستهای سمت راست دارای affinity بیشتری هستند. نمودار نشون میده که برای دیتاستهای چپ سناریو Scratch جواببهتری از بقیه میده و برای دیتاستهای راست هم سناریو Linear جواب خوبی میده ( که منطقی هم هست).
در گام بعدی مقاله اومده و مدل خودش یعنی Head2Toe رو مطرح کرده. در این مدل ابتدا شبکه مبدا (همون پیش آموزش دیدهه روی imagent) فریز میشه و سپس تمامی فیچرهای میانی شبکه انتخاب میشوند. از اونجایی که سایز اینها خب زیاده فیچرهای هر لایه توسط یک مکانیزم pooling ابعادشون کاهش پیدا میکنه. در نهایت تمامی این فیچرهای کاهش بعد داده شده تمامی لایهها با هم کانکت میشوند و یک بردار ویژگی بزرگ به دست میاد (اسمش رو h_all بذارید). از اونجایی که این h_all هم بزرگه و آموزش دادن کلاسیفایر خطی روش ممکنه منجر به اورفیت بشه، مقاله اومده از رگولاریزیشن Group lasso برای آموزش یک دستهبند خطی روی این بردار بزرگ استفاده کرده تا وزنهایی که به دست میان اسپارس باشن و هم به نوعی عمل فیچر سلکشن رو روی h_all انجام داده. در نهایت هم اومدن head2Toe رو روی اون ۱۹ دیتاست مختلف اجرا کردند و نشون دادند که در میانگین روششون بهتر از سناریوهای دیگه نظیر Linear و حتی Fine-tune داره عمل میکنه!
لینک مقاله:
https://arxiv.org/abs/2201.03529
#read
#paper
🙏Thanks to: @nlp_stuff 🌹
👍6🔥2
🔹 ۲۵ دی ۱۴۰۰ | چین از مجری خبری هوش مصنوعی خود رونمایی کرد که تقریباً از انسان واقعی قابل تشخیص نیست
اِنشیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بیوقفه، هویت خود را برای مخاطبان فاش کرد:
«سلام به همگی، من مجری خبری هوش مصنوعی نشنال بیزینیس دیلی هستم. دوقلوی مجازی مجری اصلی محسوب میشوم. اکنون ۷۰ روز است که بهطور ناشناس در حال اجرا هستم و اخبار را گزارش میکنم»
persianepochtimes.com/?p=56464
اِنشیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بیوقفه، هویت خود را برای مخاطبان فاش کرد:
«سلام به همگی، من مجری خبری هوش مصنوعی نشنال بیزینیس دیلی هستم. دوقلوی مجازی مجری اصلی محسوب میشوم. اکنون ۷۰ روز است که بهطور ناشناس در حال اجرا هستم و اخبار را گزارش میکنم»
persianepochtimes.com/?p=56464
Persian Epoch Times
چین از مجری خبری هوش مصنوعی خود رونمایی کرد که تقریباً از انسان واقعی قابل تشخیص نیست - اپک تایمز فارسی
اِنشیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بیوقفه، هویت خود را برای مخاطبان فاش کرد: «سلام به همگی، من مجری خبری هوش
😱14👍3🔥1
Tensorflow(@CVision)
🔹 ۲۵ دی ۱۴۰۰ | چین از مجری خبری هوش مصنوعی خود رونمایی کرد که تقریباً از انسان واقعی قابل تشخیص نیست اِنشیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بیوقفه، هویت خود را برای مخاطبان فاش کرد: «سلام به همگی، من مجری خبری…
🔹 ۲۴ دی ۱۴۰۰ | بنجامین فولفورد، سردبیر سابق مجله فوربس و نوه جرج تیلور فولفورد، بزرگترین سهامدار جنرال الکتریک، مدعی شد: در کنفرانس مجازی داووس، بسیاری از چهرههای حاضر درواقع شخصیتهای مجازی شبیهسازی شده از روی افراد واقعی هستند و افراد اصلی، دیگر وجود ندارند! گفته شده کلاوس شوآب، فائوچی، و بسیاری از چهرههای سرشناس، دیگر زنده نیستند!
benjaminfulford.net/2022/01/17/the-gnostic-illuminati-was-right-we-really-are-dealing-with-a-rogue-ai
benjaminfulford.net/2022/01/17/the-gnostic-illuminati-was-right-we-really-are-dealing-with-a-rogue-ai
😱9😢2🤩1
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
#دوره #آنلاین
دوره مقدماتی یادگیری عمیق و بینایی کامپیوتر.
این دوره با همکاری #دیجی_نکست برگزار می گردد.
کد تخفیف 15 درصدی مخصوص اعضای کانال:
cvision
برای ثبت نام و جزئیات دوره به سایت مراجعه فرمائید:
http://class.vision
دوره مقدماتی یادگیری عمیق و بینایی کامپیوتر.
این دوره با همکاری #دیجی_نکست برگزار می گردد.
کد تخفیف 15 درصدی مخصوص اعضای کانال:
cvision
برای ثبت نام و جزئیات دوره به سایت مراجعه فرمائید:
http://class.vision
👍2
Tensorflow(@CVision)
#دوره #آنلاین دوره مقدماتی یادگیری عمیق و بینایی کامپیوتر. این دوره با همکاری #دیجی_نکست برگزار می گردد. کد تخفیف 15 درصدی مخصوص اعضای کانال: cvision برای ثبت نام و جزئیات دوره به سایت مراجعه فرمائید: http://class.vision
ایوند
یادگیری عمیق و بینایی کامپیوتر - شنبه ۲ بهمن ۰۰
خرید بلیت و ثبتنام یادگیری عمیق و بینایی کامپیوتر در ایوند - موضوع: برنامه نویسی - رویداد آنلاین است