ما بعنوان یکی از شرکتهای برتر در حوزه امنیت شبکه و امنیت اطلاعات، علاقمندیم تا با فردی در حوزه #BigData بعنوان عضو جدید تیم امن سازی همکاری نماییم.
ما علاقمندیم تا عضو جدید این تیم:
* به مجازی سازی و مفاهیم #شبکه آشنا باشد.
* به #تست_نرم_افزار آشنا باشد.
* بر مفاهیم #داده_کاوی مسلط و به اکوسیستم #Hadoop آشنا باشد.
* با پروتکلهای ارتباطی IOT و کار با Rasbery Pi و Arduino آشنا باشد.
* بر برنامه نویسی به زبان #Java یا #Python آشنا باشد.
* در صورت تسلط بر برنامه نویسی به زبان Java لازم است فرد بر موارد زیر مسلط باشد:
Maven
Spring
Hibernate
MQ-JMX
Rest
Soap
*در صورت تسلط بر برنامه نویسی به زبان Python تسلط بر مهارتهای زیر ضروری است:
Numpy
SKlearn
Pandas
Tensorflow
NLTK
Stanford
در صورتی که علاقمند به همکاری با تیم امن سازی ما هستید، لطفا رزومه خود را به آدرس hr@amnafzar.ir ارسال فرمایید.
@dataanalysis
ما علاقمندیم تا عضو جدید این تیم:
* به مجازی سازی و مفاهیم #شبکه آشنا باشد.
* به #تست_نرم_افزار آشنا باشد.
* بر مفاهیم #داده_کاوی مسلط و به اکوسیستم #Hadoop آشنا باشد.
* با پروتکلهای ارتباطی IOT و کار با Rasbery Pi و Arduino آشنا باشد.
* بر برنامه نویسی به زبان #Java یا #Python آشنا باشد.
* در صورت تسلط بر برنامه نویسی به زبان Java لازم است فرد بر موارد زیر مسلط باشد:
Maven
Spring
Hibernate
MQ-JMX
Rest
Soap
*در صورت تسلط بر برنامه نویسی به زبان Python تسلط بر مهارتهای زیر ضروری است:
Numpy
SKlearn
Pandas
Tensorflow
NLTK
Stanford
در صورتی که علاقمند به همکاری با تیم امن سازی ما هستید، لطفا رزومه خود را به آدرس hr@amnafzar.ir ارسال فرمایید.
@dataanalysis
Forwarded from khabarjou
🔴دریافت لحظهای سوژههای خبری مورد علاقه در 200 منبع خبری🔴
👈برخوردار از پیچیدهترین الگوریتمهای هوش مصنوعی👉
t.me/khabarjou_bot
👈برخوردار از پیچیدهترین الگوریتمهای هوش مصنوعی👉
t.me/khabarjou_bot
۱۰ تکنولوژی برتر که آینده اقتصاد دنیا را شکل میدهند:
1-هوش مصنوعی
2-رباتیک
3- اینترنت اشیا
4- ژنتیک
5- پهباد
6- بلاکچِین
7- کلان داده
8- واقعیت افزوده
9- واقعیت مجازی
10- پرینتر ۳ بعدی
@dataanalysis
1-هوش مصنوعی
2-رباتیک
3- اینترنت اشیا
4- ژنتیک
5- پهباد
6- بلاکچِین
7- کلان داده
8- واقعیت افزوده
9- واقعیت مجازی
10- پرینتر ۳ بعدی
@dataanalysis
پایتون و R بهترین پلت فرمهای یادگیری ماشین در علم داده ها(در نظرسنجی شاپیرو) پیشی گرفتن پایتون از R در 2017. چیزی که پیش بینی می شد. https://news.1rj.ru/str/dataanalysis
روشهای برتر در بازار دیجیتال در سال 2017 https://news.1rj.ru/str/dataanalysis
معرفی کاربردهای یادگیری عمیق
https://goo.gl/EuyWcZ
پرسوناژ نرمافزاری است که با استفاده از الگوریتمهای یادگیری عمیق در شناسایی چهره، نام بازیگرهای ایرانی را از روی چهره آنها تشخیص میدهد و از آنها اطلاعات کاملی ارایه میکند. این استارتاپ از اولین کاربردهای شبکههای عصبی مصنوعی عمیق در اپلیکیشنهای عمومی در ایران است و در حوزه سرگرمی و کاوش برنامههای تلویزیونی فعالیت میکند.
میتوانید نرمافزار را از این لینک برای اندروید دریافت و امتحان کنید:
https://cafebazaar.ir/app/com.systemnegar.personage/?l=fa
@dataanalysis
https://goo.gl/EuyWcZ
پرسوناژ نرمافزاری است که با استفاده از الگوریتمهای یادگیری عمیق در شناسایی چهره، نام بازیگرهای ایرانی را از روی چهره آنها تشخیص میدهد و از آنها اطلاعات کاملی ارایه میکند. این استارتاپ از اولین کاربردهای شبکههای عصبی مصنوعی عمیق در اپلیکیشنهای عمومی در ایران است و در حوزه سرگرمی و کاوش برنامههای تلویزیونی فعالیت میکند.
میتوانید نرمافزار را از این لینک برای اندروید دریافت و امتحان کنید:
https://cafebazaar.ir/app/com.systemnegar.personage/?l=fa
@dataanalysis
Forwarded from کانال دانلود کتاب
Robert_Layton_Learning_Data_Mining.pdf
3.9 MB
الْحَمْدُ لِلَّهِ الَّذِی جَعَلَنَا مِنَ الْمُتَمَسِّکِینَ بِوِلاَیَةِ أَمِیرِ الْمُؤْمِنِینَ وَ الْأَئِمَّةِ عَلَیْهِمُ السَّلاَمُ
الْحَمْدُ لِلَّهِ الَّذِی جَعَلَ کَمَالَ دِینِهِ وَ تَمَامَ نِعْمَتِهِ بِوِلاَیَةِ أَمِیرِ الْمُؤْمِنِینَ عَلِیِّ بْنِ أَبِی طَالِبٍ عَلَیْهِ السَّلاَم.
الْحَمْدُ لِلَّهِ الَّذِی أَکْرَمَنَا بِهَذَا الْیَوْمِ وَ جَعَلَنَا مِنَ الْمُوفِینَ بِعَهْدِهِ إِلَیْنَا وَ مِیثَاقِهِ الَّذِی وَاثَقَنَا بِهِ مِنْ وِلاَیَةِ وُلاَةِ أَمْرِهِ وَ الْقُوَّامِ بِقِسْطِهِ وَ لَمْ یَجْعَلْنَا مِنَ الْجَاحِدِینَ وَ الْمُکَذِّبِینَ بِیَوْمِ الدِّین.
الْحَمْدُ لِلَّهِ الَّذِی جَعَلَ کَمَالَ دِینِهِ وَ تَمَامَ نِعْمَتِهِ بِوِلاَیَةِ أَمِیرِ الْمُؤْمِنِینَ عَلِیِّ بْنِ أَبِی طَالِبٍ عَلَیْهِ السَّلاَم.
الْحَمْدُ لِلَّهِ الَّذِی أَکْرَمَنَا بِهَذَا الْیَوْمِ وَ جَعَلَنَا مِنَ الْمُوفِینَ بِعَهْدِهِ إِلَیْنَا وَ مِیثَاقِهِ الَّذِی وَاثَقَنَا بِهِ مِنْ وِلاَیَةِ وُلاَةِ أَمْرِهِ وَ الْقُوَّامِ بِقِسْطِهِ وَ لَمْ یَجْعَلْنَا مِنَ الْجَاحِدِینَ وَ الْمُکَذِّبِینَ بِیَوْمِ الدِّین.
Forwarded from مسابقه دادهكاوی اميركبير
مقایسه بین استفاده از زبانهای پایتون و R در پیادهسازیهای صورت گرفته در مسابقات علمداده وبسایت Kaggle
@dataanalysis
@dataanalysis
معماری پروژه هوش تجاری مبتنی بر کلان داده:
جهت پیادهسازی یک پروژه هوش تجاری مبتنی بر کلان داده نیازمند برخی ابزارها و پلتفرمهای مطرح Big Data میباشد که در ادامه برخی از این ابزارها به تفکیک گامهای یک پروژه هوش تجاری معرفی خواهند شد:
http://bit.ly/2h7CCPI
1- فرایند ETL:
*این گام یکی از مراحل مهم در پیاده سازی یک پروژه هوش تجاری میباشد. در صورتی که از پایگاه دادههای رابطه همانند Sql, MySQL و... استفاده می کنید جهت انتقال اطلاعات و پیاده سازی فرایند Extract به پلتفرمهای کلان داده همچون آپاچی هدوپ میتوانید از پروژه آپاچی Sqoop استفاده نمایید.
* جهت اعمال برخی فرایندهای پردازشی در گام Transform زبان اسکریپتی آپاچی Pig یا نرم افزار آپاچی Nifi جهت این فرایند کاربرد خواهد داشت.
+برخی از Message Broker های مطرح نیز همچون آپاچی Kafka, Flume و Nifi جهت انتقال بلادرنگ اطلاعات از پایگاه دادهها و منابع ورودی اطلاعات سازمان شما به انبار داده در گام Load میتواند کاربرد داشته باشد.
2- انبار داده:
جهت ایجاد انبارداده از پایگاه دادههای Nosql یا فایل سیستمهای مطرح در سطح کلان داده همچون فایلسیستم توزیعی هدوپ( HDFS), کاساندرا، HBASE و... بنا به معماری و ویژگیهای پروژه خود می توانید انتخاب کنید.
3- پردازش تحلیلی آنلاین(OLAP):
جهت ساخت OLAP و مکعبهای پردازشی در کلان داده ها از پروژه آپاچی Kylin استفاده میشود. این معماری از معماری Map Reduce و اتصال به پایگاه داده های رابطهای مانند Hive, Impala و... جهت ساخت مدل تحلیلی پردازشی آنلاین استفاده میگردد. جهت تحلیلهای پیشرفته مبتنی بر یادگیری ماشین و دادهکاوی هم کتابخانههای تحلیلی آپاچی ماهوت در هدوپ و MLlib در اسپارک وجود دارد.
@dataanalysis
ارادتمند
محمدرضا محتاط
جهت پیادهسازی یک پروژه هوش تجاری مبتنی بر کلان داده نیازمند برخی ابزارها و پلتفرمهای مطرح Big Data میباشد که در ادامه برخی از این ابزارها به تفکیک گامهای یک پروژه هوش تجاری معرفی خواهند شد:
http://bit.ly/2h7CCPI
1- فرایند ETL:
*این گام یکی از مراحل مهم در پیاده سازی یک پروژه هوش تجاری میباشد. در صورتی که از پایگاه دادههای رابطه همانند Sql, MySQL و... استفاده می کنید جهت انتقال اطلاعات و پیاده سازی فرایند Extract به پلتفرمهای کلان داده همچون آپاچی هدوپ میتوانید از پروژه آپاچی Sqoop استفاده نمایید.
* جهت اعمال برخی فرایندهای پردازشی در گام Transform زبان اسکریپتی آپاچی Pig یا نرم افزار آپاچی Nifi جهت این فرایند کاربرد خواهد داشت.
+برخی از Message Broker های مطرح نیز همچون آپاچی Kafka, Flume و Nifi جهت انتقال بلادرنگ اطلاعات از پایگاه دادهها و منابع ورودی اطلاعات سازمان شما به انبار داده در گام Load میتواند کاربرد داشته باشد.
2- انبار داده:
جهت ایجاد انبارداده از پایگاه دادههای Nosql یا فایل سیستمهای مطرح در سطح کلان داده همچون فایلسیستم توزیعی هدوپ( HDFS), کاساندرا، HBASE و... بنا به معماری و ویژگیهای پروژه خود می توانید انتخاب کنید.
3- پردازش تحلیلی آنلاین(OLAP):
جهت ساخت OLAP و مکعبهای پردازشی در کلان داده ها از پروژه آپاچی Kylin استفاده میشود. این معماری از معماری Map Reduce و اتصال به پایگاه داده های رابطهای مانند Hive, Impala و... جهت ساخت مدل تحلیلی پردازشی آنلاین استفاده میگردد. جهت تحلیلهای پیشرفته مبتنی بر یادگیری ماشین و دادهکاوی هم کتابخانههای تحلیلی آپاچی ماهوت در هدوپ و MLlib در اسپارک وجود دارد.
@dataanalysis
ارادتمند
محمدرضا محتاط
👍1