Machine learning application (Kartal) – Telegram
Machine learning application (Kartal)
2.79K subscribers
559 photos
203 videos
111 files
1.21K links
1- Participate in cutting edge research in machine learning applications.
2- Apply your expertise in biometrics, Natural Language Processing, computer vision and real-time data mining solutions.

Admin: @Kartal_ai (https://news.1rj.ru/str/Kartal_ai )
Download Telegram
Code eager executions
امیدوارم مفید واقع شود. تمام
Forwarded from Ali Fazeli
در تنسورفلو هاب داشتم گشت میزدم به یه ماژول جالبی برخورد کردم. گفتم به اشتراک بگذارم .
https://www.tensorflow.org/tutorials/image_retraining
ماژولی به نام retrain که میتونه برای #یادگیری_انتقالی (استفاده از مدل آموزش داده شده برای ایجاد مدل ای جدید) استفاده بشه و از دیتاست محدودی که بهش داده میشه کلاس جدید استخراج (ایجاد) کنه.
برای اطلاعات بیشتر لینک زیر جالب توجه است:
https://codelabs.developers.google.com/codelabs/tensorflow-for-poets/#0
Real_World_Robot_Learning_TensorFlow_Dev_Summit_2018_.136.mp4
27.6 MB
Real-World Robot Learning (TensorFlow Dev Summit 2018)

توسعه دهندگان تنسور فلو
Forwarded from Ali Fazeli
#پیشنهاد
مقاله ای میخوندم در مورد امنیت صحت خروجی DNN
بنام One pixel attack for fooling deep neural networks
(البته برای یه ماه و نیم پیشه احتمالا اساتید دیده باشن)
https://arxiv.org/abs/1710.08864
ایده مقاله اینه که با علم به اینکه تغییر دادن یه مقدار خاصی از داده تست (تصویر RGB) میتونه باعث شه که CNN گول بخوره و نتونه درست دسته بندی کنه، چطور میتونیم به حداقل تعداد تغییر در پیکسل برسیم که باعث بشیم CNN اشتباه کنه. اومدن کلاس های احتمالی ای که CNN پیشنهاد داده رو نگاه کردن، با استفاده از یه الگوریتمی بنام دیفرانسیل تکاملی یکسری عکس رندوم (تو داده تست) که هربار یه تغییری رندوم تو تصویر میده رو ایجاد کردن و فید کردن به CNN. اگه صحت رو کاهش داد جایگزین میشه با داده تست قبلی. و این فرایند تکاملی وار ادامه پیدا پیدا میکنه تا صحت (accuracy) کمینه بشه و در عین حال از تغییرات پیکسلی کمتری استفاده بشه.
خود Differential evolution برای من تازگی داشت و دارم در موردش میخونم.
—---------------------------------------------------------------------------------------—
اخیرا پیاده سازی خیلی خوبی برای این مقاله تو گیت هاب دیدم در لینک زیر
https://github.com/Hyperparticle/one-pixel-attack-keras
با استفاده از keras روی cifar10 پیاده سازی شده.
اومده برای معماری های رایج با اسفاده از تغییر دادن یک پیکسل، سه پیکسل و پنج پیکسل حمله رو انجام داده و میزان صحت اون کلاس غلط رو گزارش کرده. تو ریپازیتوری نسخه pretrain شده LeNet و ResNet هست.
برای دانلود بقیه معماری ها (که حجیم ان) از لینک زیر:
https://www.dropbox.com/sh/dvatkpjl0sn79kn/AAC9L4puJ_sdFUkDZfr5SFkLa?dl=0
و قرار دادنشون تو پوشه models
—-------------------------------------------------------------------------------------
کارهای بیشتر
روی حمله هدف گذاری شده اش پیاده سازی کاملی انجام گرفته. توی هر تکرار میاد میزان صحت دسته بندی کلاسی که میخواد به قصد CNN رو مجبور به غلط دسته بندی کردنش داره رو نیگاه میکنه و با DE سعی در کمینه کردن اش داره. اما یه قسمتی هم داره که untargeted attack هست. روی اون میشه کار کرد. یعنی عکس لاک پشت رو دادیم. مهم نیست با چه label ای غلط دسته بندی کنه، فقط میخوایم اشتباه کنه. متد ای داره ژوپیتر نوت بوک اش بنام attck که داخل اش میشه از الگوریتم جدیدی برای هوشمندتر کردنش استفاده کرد.