#یادگیری_عمیق دقیقا چیه؟
طی چند روز گذشته، بعضی از محققهای بزرگ هوش مصنوعی مانند #یان_لکان و #فرانسوا_شوله تعریف خودشون رو از دیپ لرنینگ توی سال 2019 اعلام کردند.
یان لکان:
"Some folks still seem confused about what deep learning is. Here is a definition:
DL is constructing networks of parameterized functional modules & training them from examples using gradient-based optimization. That's it.
This definition is orthogonal to the learning paradigm: reinforcement, supervised, or self-supervised.
Don't say "DL can't do X" when what you really mean is "supervised learning needs too much data to do X"
Extensions (dynamic networks, differentiable programming, graph NN, etc) allow the network architecture to change dynamically in a data-dependent way."
https://www.facebook.com/722677142/posts/10156463919392143/
فرانسوا شوله:
"What's deep learning?
The "common usage" definition as of 2019 would be "chains of differentiable parametric layers trained end-to-end with backprop".
But this definition seems overly restrictive to me. It describes *how we do DL today*, not *what it is*."
https://twitter.com/fchollet/status/1210031900695449600
اندری بورکوف:
"Looks like in late 2019, people still need a definition of deep learning, so here's mine: deep learning is finding parameters of a nested parametrized non-linear function by minimizing an example-based differentiable cost function using gradient descent."
https://www.linkedin.com/posts/andriyburkov_looks-like-in-late-2019-people-still-need-activity-6615377527147941888-ce68/
#deep_learning
طی چند روز گذشته، بعضی از محققهای بزرگ هوش مصنوعی مانند #یان_لکان و #فرانسوا_شوله تعریف خودشون رو از دیپ لرنینگ توی سال 2019 اعلام کردند.
یان لکان:
"Some folks still seem confused about what deep learning is. Here is a definition:
DL is constructing networks of parameterized functional modules & training them from examples using gradient-based optimization. That's it.
This definition is orthogonal to the learning paradigm: reinforcement, supervised, or self-supervised.
Don't say "DL can't do X" when what you really mean is "supervised learning needs too much data to do X"
Extensions (dynamic networks, differentiable programming, graph NN, etc) allow the network architecture to change dynamically in a data-dependent way."
https://www.facebook.com/722677142/posts/10156463919392143/
فرانسوا شوله:
"What's deep learning?
The "common usage" definition as of 2019 would be "chains of differentiable parametric layers trained end-to-end with backprop".
But this definition seems overly restrictive to me. It describes *how we do DL today*, not *what it is*."
https://twitter.com/fchollet/status/1210031900695449600
اندری بورکوف:
"Looks like in late 2019, people still need a definition of deep learning, so here's mine: deep learning is finding parameters of a nested parametrized non-linear function by minimizing an example-based differentiable cost function using gradient descent."
https://www.linkedin.com/posts/andriyburkov_looks-like-in-late-2019-people-still-need-activity-6615377527147941888-ce68/
#deep_learning
Facebook
Yann LeCun
Some folks still seem confused about what deep learning is. Here is a definition: DL is constructing networks of parameterized functional modules & training them from examples using gradient-based...
#کنفرانس_بین_المللی
#در_حال_پذیرش_مقاله
هشتمین کنفرانس بین المللی فناوری اطلاعات، کامپیوتر و مخابرات
8th International Conference on Information Technology, Computer and Telecommunication
تاریخ برگزاری: ۲۲ اسفندماه
مهلت ارسال مقاله : ۱۳۹۸/۱۱/۲۶
برگزار کننده : سازمان بین المللی مطالعات دانشگاهی-با همکاری دانشگاه جرجیا
محل برگزاری همایش: شهر تفلیس - گرجستان
https://itctconf.ir/fa/
#در_حال_پذیرش_مقاله
هشتمین کنفرانس بین المللی فناوری اطلاعات، کامپیوتر و مخابرات
8th International Conference on Information Technology, Computer and Telecommunication
تاریخ برگزاری: ۲۲ اسفندماه
مهلت ارسال مقاله : ۱۳۹۸/۱۱/۲۶
برگزار کننده : سازمان بین المللی مطالعات دانشگاهی-با همکاری دانشگاه جرجیا
محل برگزاری همایش: شهر تفلیس - گرجستان
https://itctconf.ir/fa/
۴ ویژگی که دانشمند علم داده باید دارا باشد:
4 Traits, qualities that a data scientist must seek ...
1) Technical bar: Data science teams work everyday in SQL, specifically in Postgres, and expect candidates to know Python/some fluency in some sort of statistical language. Also, someone who is really comfortable with querying really large datasets.
2) Communication: we’re in roles where a lot of our day-to-day is spent getting great insights or building models and communicating results of that to stakeholders, whether that’s product managers, marketing folks or finance. It’s super key that data science candidates have good communication skills.
3) Grit, tenacity and willingness to solve hard problems: Things that DS teams solve are generally hard problems. My hope is that anyone who joins the data science team is excited about hard problems and bumping against hard challenges.
4) Passion for the arts and passion for the mission: This is not the most important but great to have.
4 Traits, qualities that a data scientist must seek ...
1) Technical bar: Data science teams work everyday in SQL, specifically in Postgres, and expect candidates to know Python/some fluency in some sort of statistical language. Also, someone who is really comfortable with querying really large datasets.
2) Communication: we’re in roles where a lot of our day-to-day is spent getting great insights or building models and communicating results of that to stakeholders, whether that’s product managers, marketing folks or finance. It’s super key that data science candidates have good communication skills.
3) Grit, tenacity and willingness to solve hard problems: Things that DS teams solve are generally hard problems. My hope is that anyone who joins the data science team is excited about hard problems and bumping against hard challenges.
4) Passion for the arts and passion for the mission: This is not the most important but great to have.
#کنفرانس_داخلی
#در_حال_پذیرش_مقاله
کنگره مشترک سیستم های فازی و هوشمند ایران(نوزدهمین کنفرانس سیستم های فازی و هفدهمین کنفرانس سیستم های هوشمند)
19th Iranian Conference on Fuzzy Systems
تاریخ برگزاری: ۱۴ تا ۱۶ اسفندماه
مهلت ارسال مقاله: ۱۳۹۸/۱۰/۳۰
برگزار کننده: دانشگاه فردوسی مشهد - قطب علمی رایانش نرم و پردازش هوشمند اطلاعات
انجمن علمی: انجمن سیستم های فازی ایران
محل برگزاری همایش: شهر مشهد
http://cci.um.ac.ir/index.php?lang=fa
#در_حال_پذیرش_مقاله
کنگره مشترک سیستم های فازی و هوشمند ایران(نوزدهمین کنفرانس سیستم های فازی و هفدهمین کنفرانس سیستم های هوشمند)
19th Iranian Conference on Fuzzy Systems
تاریخ برگزاری: ۱۴ تا ۱۶ اسفندماه
مهلت ارسال مقاله: ۱۳۹۸/۱۰/۳۰
برگزار کننده: دانشگاه فردوسی مشهد - قطب علمی رایانش نرم و پردازش هوشمند اطلاعات
انجمن علمی: انجمن سیستم های فازی ایران
محل برگزاری همایش: شهر مشهد
http://cci.um.ac.ir/index.php?lang=fa
Forwarded from Digikala | دیجیکالا
دومین دوره رویداد HR Talk به میزبانی گروه دیجیکالا با موضوع Scale Up، چالشها و فرصتها در تاریخ ۱۸ دی ماه ۱۳۹۸ از ساعت ۱۸ تا ۲۱ در دیجیکالا نکست در مجموعه کارخانه نوآوری آزادی برگزار میشود و دیجیکالا اسپانسر این برنامه خواهد بود.
رویداد مستقل منابع انسانی با عنوان “HR Talk” با هدف مطرح شدن ایدهها، گردهمایی ذهنهای فعال در حوزه منابع انسانی و به اشتراکگذاری تجربهها، چالشهای مشترک و بهترین الگوهای تجربه شده در جهان برگزار میشود.
برای اطلاعات بیشتر لینک زیر را بخوانید👇
https://dgka.la/HRTalk9810
@Digikala | دیجیکالا
رویداد مستقل منابع انسانی با عنوان “HR Talk” با هدف مطرح شدن ایدهها، گردهمایی ذهنهای فعال در حوزه منابع انسانی و به اشتراکگذاری تجربهها، چالشهای مشترک و بهترین الگوهای تجربه شده در جهان برگزار میشود.
برای اطلاعات بیشتر لینک زیر را بخوانید👇
https://dgka.la/HRTalk9810
@Digikala | دیجیکالا
Forwarded from Digikala | دیجیکالا
DKReport1398-H1.pdf
10.8 MB
👆👆دانلود گزارش دیجیکالا👆👆
گزارش شش ماهه نخست ۹۸ دیجیکالا، گزیدهای از آمار و دادههای گروه دیجیکالا است که برای اولین بار در ۲۰ آذر ۹۸ به صورت عمومی منتشر میشود.
گستردگی فروش، تنوع بیش از ۱/۸ میلیون کالا، مشارکت ۳۰ هزار کسب و کار ایرانی و ۲۰ میلیون بازدیدکننده ماهانه از سایت و اپلیکیشن دیجیکالا، باعث میشود این گزارش گزیده گویایی از کل بازار خرده فروشی آنلاین کشور باشد.
گزارش دیجیکالا در چهار بخش رفتار کاربران، بازخورد مشتریان، بازارگاه و کسب و کارهای ایرانی و محصولات و برندها منتشر شده است.
🔗اطلاعات بیشتر:
https://dgka.la/Report9801
@Digikala | دیجیکالا
گزارش شش ماهه نخست ۹۸ دیجیکالا، گزیدهای از آمار و دادههای گروه دیجیکالا است که برای اولین بار در ۲۰ آذر ۹۸ به صورت عمومی منتشر میشود.
گستردگی فروش، تنوع بیش از ۱/۸ میلیون کالا، مشارکت ۳۰ هزار کسب و کار ایرانی و ۲۰ میلیون بازدیدکننده ماهانه از سایت و اپلیکیشن دیجیکالا، باعث میشود این گزارش گزیده گویایی از کل بازار خرده فروشی آنلاین کشور باشد.
گزارش دیجیکالا در چهار بخش رفتار کاربران، بازخورد مشتریان، بازارگاه و کسب و کارهای ایرانی و محصولات و برندها منتشر شده است.
🔗اطلاعات بیشتر:
https://dgka.la/Report9801
@Digikala | دیجیکالا
#معرفی_کتاب
معرفی کتاب هوش مصنوعی برای کسبوکار
نویسنده راجندرا اکرکار
هوش مصنوعی (AI) تبدیل به مفهومی آشنا و برجسته در کسب و کار شده است. با این وجود، بسیاری از سازمانها قادر به استفاده کارآمد از AI برای موارد خاص تجاری نیستند. یک خصوصیت مهم AI ایستا نبودن آن است، یعنی میتواند یاد بگیرد و خود را تطبیق دهد.
استفاده تجاری از هوش مصنوعی در مراحل اولیه خود است ولی با نرخ قابلتوجهی رو به رشد است. هوش مصنوعی به شکلی پایدار در حال تبدیل شدن به یک استفاده روزمره تجاری است. از مدیریت جریان کاری تا پیشبینی روندها و خدمات مشتری گرفته تا بهینهسازی پویای قیمتها. هوش مصنوعی استفادههای بسیاری در کسب و کارها دارد. هوش مصنوعی همچنین فرصتهای تجاری نوآورانهای را مهیا میکند. فناوریهای هوش مصنوعی در ایجاد نوآوری، فراهمسازی مدلهای تجاری جدید و شکلدهی مجدد عملیات کسب و کارها نقشی اساسی دارند.
این کتاب به توضیح مفصل الگوریتمها و مدلهای هوش مصنوعی نمیپردازد بلکه به مروری بر مهمترین و پر استفادهترین مدلها در کسب و کارها میپردازد.
معرفی کتاب هوش مصنوعی برای کسبوکار
نویسنده راجندرا اکرکار
هوش مصنوعی (AI) تبدیل به مفهومی آشنا و برجسته در کسب و کار شده است. با این وجود، بسیاری از سازمانها قادر به استفاده کارآمد از AI برای موارد خاص تجاری نیستند. یک خصوصیت مهم AI ایستا نبودن آن است، یعنی میتواند یاد بگیرد و خود را تطبیق دهد.
استفاده تجاری از هوش مصنوعی در مراحل اولیه خود است ولی با نرخ قابلتوجهی رو به رشد است. هوش مصنوعی به شکلی پایدار در حال تبدیل شدن به یک استفاده روزمره تجاری است. از مدیریت جریان کاری تا پیشبینی روندها و خدمات مشتری گرفته تا بهینهسازی پویای قیمتها. هوش مصنوعی استفادههای بسیاری در کسب و کارها دارد. هوش مصنوعی همچنین فرصتهای تجاری نوآورانهای را مهیا میکند. فناوریهای هوش مصنوعی در ایجاد نوآوری، فراهمسازی مدلهای تجاری جدید و شکلدهی مجدد عملیات کسب و کارها نقشی اساسی دارند.
این کتاب به توضیح مفصل الگوریتمها و مدلهای هوش مصنوعی نمیپردازد بلکه به مروری بر مهمترین و پر استفادهترین مدلها در کسب و کارها میپردازد.
#کاربرد
فرصت ۴۵۰ میلیارد دلاری برای اپلیکیشنهای هوش مصنوعی فعال در بخش بانکداری
طبق نظرسنجی انجام شده از خبرگان حوزه مالی، اکثر بانکها (80 درصد) از پتانسیل درآمدی هوش مصنوعی آگاهی زیادی دارند در حقیقت بسیاری از بانکها درحال برنامهریزی برای استقاده از هوش مصنوعی هستند به طوری که طبق گزارش UBS Evidence Lab report ، هفتاد و پنج درصد بانکهایی که دارایی آنها بیش از 100 میلیارد دلار است در حال حاضر استراتژیهای هوش مصنوعی را اجرایی کردهاند. در مقابل 46 درصد بانکهایی که دارایی آنها کمتر از 100 میلیارد دلار است از این استراتژی استفاده میکنند. برخی موارد استفاده از هوش مصنوعی قبلا در بین عملکرد بانکها برجسته بودهاند مانند استفاده از چت بات (chatbots) در بخش فرآنت آفیس (front office) و فناوریهای جلوگیری از کلاهبرداری در پرداخت ها در بخش میدل آفیس که قدیمیتر است.
بانکها میتوانند از طریق هوش مصنوعی تجربه کاربری مشتری را (ارائه خدمات به صورت 24/7) دگرگون سازند با این حال هوش مصنوعی تنها در ارائه خدمات خرد بانکها محدود نمیشود.
فرصت ۴۵۰ میلیارد دلاری برای اپلیکیشنهای هوش مصنوعی فعال در بخش بانکداری
طبق نظرسنجی انجام شده از خبرگان حوزه مالی، اکثر بانکها (80 درصد) از پتانسیل درآمدی هوش مصنوعی آگاهی زیادی دارند در حقیقت بسیاری از بانکها درحال برنامهریزی برای استقاده از هوش مصنوعی هستند به طوری که طبق گزارش UBS Evidence Lab report ، هفتاد و پنج درصد بانکهایی که دارایی آنها بیش از 100 میلیارد دلار است در حال حاضر استراتژیهای هوش مصنوعی را اجرایی کردهاند. در مقابل 46 درصد بانکهایی که دارایی آنها کمتر از 100 میلیارد دلار است از این استراتژی استفاده میکنند. برخی موارد استفاده از هوش مصنوعی قبلا در بین عملکرد بانکها برجسته بودهاند مانند استفاده از چت بات (chatbots) در بخش فرآنت آفیس (front office) و فناوریهای جلوگیری از کلاهبرداری در پرداخت ها در بخش میدل آفیس که قدیمیتر است.
بانکها میتوانند از طریق هوش مصنوعی تجربه کاربری مشتری را (ارائه خدمات به صورت 24/7) دگرگون سازند با این حال هوش مصنوعی تنها در ارائه خدمات خرد بانکها محدود نمیشود.
This media is not supported in your browser
VIEW IN TELEGRAM
#کاربرد
#پردازش_تصویر
این فیلم تبلیغات یوتیوبی ایده خوب و ساده که جزو مثالهای کتابهای پردازش تصویر هست . اما در عین حال اپ کاربردیش مفیده.
#پردازش_تصویر
این فیلم تبلیغات یوتیوبی ایده خوب و ساده که جزو مثالهای کتابهای پردازش تصویر هست . اما در عین حال اپ کاربردیش مفیده.
#پیشنهاد
In datascience, you must understand context. There are times at work where looking at the data alone didn't help me from solving the problem.
It doesn't matter if your domain is in marketing, healthcare, product, etc... You need to understand the context first before diving into the data. Without background information about how the data was generated, it becomes really difficult to make accurate assumptions on what your data will show.
Taking the time to understand the context will not only benefit you in your analysis, but you may even help your colleagues tackle the problem better.
When you are informed about the data and problem, you increase your value because now you're in a position to communicate and identify other potential problems.
So do this:
On your next project, take the time to not just do EDA, but also document your understanding of the context behind the data.
This good practice will definitely help you in your career and is a valuable skill you can bring to any team.
Context first, data second.
در علم داده ، باید زمینه (محتوا) را درک کنید. زمان هایی در کار وجود دارد که نگاه کردن به داده ها به تنهایی در حل مسئله نمی تواند به ما کمک نمی کند.
فرقی نمی کند دامنه شما بازاریابی ، مراقبت های بهداشتی ، محصول و غیره باشد ... شما باید ابتدا زمینه (محتوا) را قبل از فرورفتن در داده ها بفهمید. بدون اطلاعات پیش زمینه ای در مورد چگونگی تولید داده ها ، آزمایش فرضیات دقیق در مورد آنچه داده های شما نشان می دهد ، کاری دشوار است.
صرف زمان برای درک زمینه نه تنها به شما در تجزیه و تحلیل سود خواهد رساند بلکه حتی ممکن است به همکاران خود برای حل بهتر این مشکل کمک کنید.
هنگامی که از داده ها و مشکل مطلع شدید ، ارزش خود را افزایش می دهید زیرا اکنون شما در موقعیت برقراری ارتباط و شناسایی سایر مشکلات احتمالی قرار دارید.
بنابراین این کار را انجام دهید:
در پروژه بعدی خود وقت بگذارید نه تنها EDA را انجام دهید ، بلکه درک خود را از زمینه داده ها نیز مستند کنید.
این تمرین خوب قطعاً به شما در حرفه شما کمک می کند و یک مهارت ارزشمندی است که می توانید برای هر تیمی به دست آورید.
"زمینه اول ، داده دوم"
In datascience, you must understand context. There are times at work where looking at the data alone didn't help me from solving the problem.
It doesn't matter if your domain is in marketing, healthcare, product, etc... You need to understand the context first before diving into the data. Without background information about how the data was generated, it becomes really difficult to make accurate assumptions on what your data will show.
Taking the time to understand the context will not only benefit you in your analysis, but you may even help your colleagues tackle the problem better.
When you are informed about the data and problem, you increase your value because now you're in a position to communicate and identify other potential problems.
So do this:
On your next project, take the time to not just do EDA, but also document your understanding of the context behind the data.
This good practice will definitely help you in your career and is a valuable skill you can bring to any team.
Context first, data second.
در علم داده ، باید زمینه (محتوا) را درک کنید. زمان هایی در کار وجود دارد که نگاه کردن به داده ها به تنهایی در حل مسئله نمی تواند به ما کمک نمی کند.
فرقی نمی کند دامنه شما بازاریابی ، مراقبت های بهداشتی ، محصول و غیره باشد ... شما باید ابتدا زمینه (محتوا) را قبل از فرورفتن در داده ها بفهمید. بدون اطلاعات پیش زمینه ای در مورد چگونگی تولید داده ها ، آزمایش فرضیات دقیق در مورد آنچه داده های شما نشان می دهد ، کاری دشوار است.
صرف زمان برای درک زمینه نه تنها به شما در تجزیه و تحلیل سود خواهد رساند بلکه حتی ممکن است به همکاران خود برای حل بهتر این مشکل کمک کنید.
هنگامی که از داده ها و مشکل مطلع شدید ، ارزش خود را افزایش می دهید زیرا اکنون شما در موقعیت برقراری ارتباط و شناسایی سایر مشکلات احتمالی قرار دارید.
بنابراین این کار را انجام دهید:
در پروژه بعدی خود وقت بگذارید نه تنها EDA را انجام دهید ، بلکه درک خود را از زمینه داده ها نیز مستند کنید.
این تمرین خوب قطعاً به شما در حرفه شما کمک می کند و یک مهارت ارزشمندی است که می توانید برای هر تیمی به دست آورید.
"زمینه اول ، داده دوم"
✅#جهاد_دانشگاهی_علم_و_صنعت برگزار می کند:
#دوره_آموزشی_علم_داده (Data Science)
📆پنجشنبه ها از ۸ اسفند ماه
⏰ساعت ۸ الی ۱۴ و ۱۴ الی ۲۰
⏱مدت دوره ۵۵ ساعت
💵شهریه دوره: آزاد 600 هزار تومان
برای دانشجویان : ۴۸۰ هزار تومان
🏠جهاد دانشگاهی علم و صنعت
📋با اعطای گواهینامه رسمی و قابل ترجمه
🌐 ثبت نام در : www.jdiust.ir
کانال اطلاع رسانی : @Madatascienceir
اطلاعات بیشتر از طریق @Datascience_cource
#دوره_آموزشی_علم_داده (Data Science)
📆پنجشنبه ها از ۸ اسفند ماه
⏰ساعت ۸ الی ۱۴ و ۱۴ الی ۲۰
⏱مدت دوره ۵۵ ساعت
💵شهریه دوره: آزاد 600 هزار تومان
برای دانشجویان : ۴۸۰ هزار تومان
🏠جهاد دانشگاهی علم و صنعت
📋با اعطای گواهینامه رسمی و قابل ترجمه
🌐 ثبت نام در : www.jdiust.ir
کانال اطلاع رسانی : @Madatascienceir
اطلاعات بیشتر از طریق @Datascience_cource
#گزارش
🛠شغلهای برتر سال ۲۰۱۸ ...
سه شغل از 4 شغل برتر سال گذشته متعلق به حوزه های مرتبط با یادگیری ماشین، علم داده و بینایی ماشین است!
📈همچنین نیمی از 10 شغل نخست امسال کامپیوتری است
Here are the top ten “best” jobs ranked in order of base salary, together with the position’s historical job growth:
1. Machine learning engineer: $136,241 with 166% growth
2. Data scientist: $132,915 with 106% growth
3. Optometrist: $131,692 with 118% growth
4. Computer vision engineer: $131,297 with 169% growth
5. Development operations engineer: $125,714 with 91% growth
6. Agile coach: $120,142 with 80% growth
7. Chief estimator: $116,848 with 101% growth
8. Full stack developer: $111,640 with 198% growth
9. Head of sales: $108,788 with 42% growth
10. Staff pharmacist: $107,584 with 42% growth
📚@Madatascienceir
🛠شغلهای برتر سال ۲۰۱۸ ...
سه شغل از 4 شغل برتر سال گذشته متعلق به حوزه های مرتبط با یادگیری ماشین، علم داده و بینایی ماشین است!
📈همچنین نیمی از 10 شغل نخست امسال کامپیوتری است
Here are the top ten “best” jobs ranked in order of base salary, together with the position’s historical job growth:
1. Machine learning engineer: $136,241 with 166% growth
2. Data scientist: $132,915 with 106% growth
3. Optometrist: $131,692 with 118% growth
4. Computer vision engineer: $131,297 with 169% growth
5. Development operations engineer: $125,714 with 91% growth
6. Agile coach: $120,142 with 80% growth
7. Chief estimator: $116,848 with 101% growth
8. Full stack developer: $111,640 with 198% growth
9. Head of sales: $108,788 with 42% growth
10. Staff pharmacist: $107,584 with 42% growth
📚@Madatascienceir
👍1
#اینفوگرافی
♻️چرخه علم داده
📝فرآیند علم داده شامل چهار بخش اصلی درک زمینه ، درک داده ، مدل سازی و به کار گیری است که هرکدام از این ها با مراحل قبلی خود در حال ارتباط و نشان دادن واکنش هستند.
🗞۱ - مرحله ابتدایی ، درک زمینه است که طی آن سعی میکنیم با زمینه ای که مورد استفاده علم داده و ابزار های آن قرار می گیرد آشنا شویم تا سوالات آن را پاسخ دهیم.
📚۲ - در مرحله بعد ، به درک داده ها از چهار طریق کار با منبع داده ها، ایجاد پایپ لاین ها ، بررسی محیط کار متناسب با شرایط داده ها، اکتشاف و پاکسازی داده ها می پردازیم.
📒۳- در بخش مدل سازی ویژگی ها را مورد تحلیل و ویرایش قرار می دهیم و سپس مدل را آموزش داده و در نهایت آن را ارزیابی می کنیم.
📎۴ - در مرحله نهایی ، به ایجاد خروجی می پردازیم که در قالب های متنوعی مانند پایش، سرویس های تحت وب ، اپ های هوشمند و خروجی مورد نیاز مشتری قابل دسترسی هستند.
📚@Madatascienceir
♻️چرخه علم داده
📝فرآیند علم داده شامل چهار بخش اصلی درک زمینه ، درک داده ، مدل سازی و به کار گیری است که هرکدام از این ها با مراحل قبلی خود در حال ارتباط و نشان دادن واکنش هستند.
🗞۱ - مرحله ابتدایی ، درک زمینه است که طی آن سعی میکنیم با زمینه ای که مورد استفاده علم داده و ابزار های آن قرار می گیرد آشنا شویم تا سوالات آن را پاسخ دهیم.
📚۲ - در مرحله بعد ، به درک داده ها از چهار طریق کار با منبع داده ها، ایجاد پایپ لاین ها ، بررسی محیط کار متناسب با شرایط داده ها، اکتشاف و پاکسازی داده ها می پردازیم.
📒۳- در بخش مدل سازی ویژگی ها را مورد تحلیل و ویرایش قرار می دهیم و سپس مدل را آموزش داده و در نهایت آن را ارزیابی می کنیم.
📎۴ - در مرحله نهایی ، به ایجاد خروجی می پردازیم که در قالب های متنوعی مانند پایش، سرویس های تحت وب ، اپ های هوشمند و خروجی مورد نیاز مشتری قابل دسترسی هستند.
📚@Madatascienceir
#گزارش
#معرفی_مجموعه_داده
📌دانشگاه جان هاپکینز تحلیل داده ای روی مجموعه داده های جمع آوری شده از بیماری کرونا انجام داد است که به نتایج قابل توجهی در این زمینه دست یافته اند. برخی از این نتایج عبارتند از :
📓۱ - انتقال و شیوع این بیماری از ۲۸ فوریه ۲۰۲۰ به بعد رشد روزانه ۲۵۰ درصدی داشته و بعد از آن نیز با سرعت بسیار زیادی در حال گسترش است.
📉۲- در هفته اول تعداد مرگ بین مبتلایان از تعداد بهبود یافته ها بیشتر بود ولی بعد از ۳۱ ژانویه نرخ بهبود یافتگی بیشتر از مرگ شد.
📊۳- کشورهای نزدیک به چین مانند تایلند و ژاپن و سنگاپور بیشتر در معرض بیماری بوده اند و از کشورهای اروپایی تنها آلمان به صورت استثنا بیشترین میزان ابتلا را در بین کشورهای اروپایی داشته است.
📋۴- نرخ مرگ در بین مبتلایان هیچ گاه بیشتر از ۳ درصد نشده و اکنون به ۲ درصد رسیده است و طی هفته های آینده به دلیل بهبود های بیشتر این نرخ کاهش خواهد یافت.
🗒۵- مرکز اصلی شیوع این بیماری استان هوبی است و استان هایی وجود دارند که کشته نداشته اند و همه مبتلا ها بهبود یافته اند.
https://towardsdatascience.com/a-data-scientists-perspective-on-the-wuhan-coronavirus-4d1110446478
📚@Madatascienceir
#معرفی_مجموعه_داده
📌دانشگاه جان هاپکینز تحلیل داده ای روی مجموعه داده های جمع آوری شده از بیماری کرونا انجام داد است که به نتایج قابل توجهی در این زمینه دست یافته اند. برخی از این نتایج عبارتند از :
📓۱ - انتقال و شیوع این بیماری از ۲۸ فوریه ۲۰۲۰ به بعد رشد روزانه ۲۵۰ درصدی داشته و بعد از آن نیز با سرعت بسیار زیادی در حال گسترش است.
📉۲- در هفته اول تعداد مرگ بین مبتلایان از تعداد بهبود یافته ها بیشتر بود ولی بعد از ۳۱ ژانویه نرخ بهبود یافتگی بیشتر از مرگ شد.
📊۳- کشورهای نزدیک به چین مانند تایلند و ژاپن و سنگاپور بیشتر در معرض بیماری بوده اند و از کشورهای اروپایی تنها آلمان به صورت استثنا بیشترین میزان ابتلا را در بین کشورهای اروپایی داشته است.
📋۴- نرخ مرگ در بین مبتلایان هیچ گاه بیشتر از ۳ درصد نشده و اکنون به ۲ درصد رسیده است و طی هفته های آینده به دلیل بهبود های بیشتر این نرخ کاهش خواهد یافت.
🗒۵- مرکز اصلی شیوع این بیماری استان هوبی است و استان هایی وجود دارند که کشته نداشته اند و همه مبتلا ها بهبود یافته اند.
https://towardsdatascience.com/a-data-scientists-perspective-on-the-wuhan-coronavirus-4d1110446478
📚@Madatascienceir
Medium
A Data Scientist’s Perspective on the Coronavirus Outbreak
An EDA on the coronavirus dataset by John Hopkins University.
#معرفی
#یادگیری_ماشینی
در لینک زیر به شکل مختصر و بسیار مفید و کاربردی به معرفی زمینه ها و اجزای یادگیری ماشینی(Machine learning) می پردازد. این توضیحات برای آشنایی و آگاهی از کاربردهای آن بسیار مفید می باشد.
https://towardsdatascience.com/machine-learning-an-introduction-23b84d51e6d0?gi=10a5fcd4decd
📚@Madatascienceir
#یادگیری_ماشینی
در لینک زیر به شکل مختصر و بسیار مفید و کاربردی به معرفی زمینه ها و اجزای یادگیری ماشینی(Machine learning) می پردازد. این توضیحات برای آشنایی و آگاهی از کاربردهای آن بسیار مفید می باشد.
https://towardsdatascience.com/machine-learning-an-introduction-23b84d51e6d0?gi=10a5fcd4decd
📚@Madatascienceir
Medium
Machine Learning | An Introduction
An introduction to Machine Learning and its 4 approaches
#گزارش
🖥برترین مهارتهای فناورانه سال 2020
📱براساس گزارش موسسه Udemy که در حوزه برگزاری دورههای آموزشی آنلاین در سطح بینالمللی فعالیت دارد به تفکیک محبوبترین و پررشدترین ابزارها و تکنولوژیهای سال 2020 براساس تحلیل مخاطبین این موسسه به شرح ذیل است.
⌚️محبوبترین ابزارها و تکنولوژیها:
▪️Python
▪️React (Web)
▪️Angular
▪️Docker
▪️Django
▪️CompTIA
▪️Amazon AWS
▪️Deep Learning
▪️React Native (Mobile)
📡برترین تکنولوژیها با بیشترین رشد تقاضا:
▪️Tensorflow
▪️ChatBot
▪️Microsoft Azure
▪️OpenCV
▪️Neural Network
▪️Lpic-Linux
▪️Blockchain
▪️Splunk
▪️QGIS
▪️Kotline
🔭حضور بیش از 6 ابزار و مفاهیم تخصصی حوزههای علمداده و یادگیری عمیق بعنوان محبوبترین و پررشدترین تکنولوژیهای سال 2020 از نکات قابل توجه این گزارش است. امری که نشان از جایگاه ویژه مشاغل مرتبط با علمداده در سال آتی خواهد شد.
📚@Madatascienceir
🖥برترین مهارتهای فناورانه سال 2020
📱براساس گزارش موسسه Udemy که در حوزه برگزاری دورههای آموزشی آنلاین در سطح بینالمللی فعالیت دارد به تفکیک محبوبترین و پررشدترین ابزارها و تکنولوژیهای سال 2020 براساس تحلیل مخاطبین این موسسه به شرح ذیل است.
⌚️محبوبترین ابزارها و تکنولوژیها:
▪️Python
▪️React (Web)
▪️Angular
▪️Docker
▪️Django
▪️CompTIA
▪️Amazon AWS
▪️Deep Learning
▪️React Native (Mobile)
📡برترین تکنولوژیها با بیشترین رشد تقاضا:
▪️Tensorflow
▪️ChatBot
▪️Microsoft Azure
▪️OpenCV
▪️Neural Network
▪️Lpic-Linux
▪️Blockchain
▪️Splunk
▪️QGIS
▪️Kotline
🔭حضور بیش از 6 ابزار و مفاهیم تخصصی حوزههای علمداده و یادگیری عمیق بعنوان محبوبترین و پررشدترین تکنولوژیهای سال 2020 از نکات قابل توجه این گزارش است. امری که نشان از جایگاه ویژه مشاغل مرتبط با علمداده در سال آتی خواهد شد.
📚@Madatascienceir
دوره هایی مفید برای شروع مسیر تبدیل شدن به دانشمند علم داده:
Course 1 : A Learning Path to become Data Scientist in 2019
Link :
https://bit.ly/2HOthei
Course 2 : Experiments with Data
Link :
https://bit.ly/2HQuQbw
Course 3 : Python for Data Science
Link :
https://bit.ly/2HOG5RG
Course 4 : Twitter Sentiments Analysis
Link :
https://bit.ly/2HR8O8A
Course 5 : Creating Time Series Forecast with Python
Link :
https://bit.ly/2XniU6r
Course 6 : A path for learning Deep Learning in 2019
Link :
https://bit.ly/2HO1VVJ
Course 7 : Loan Prediction Practice problem
Link :
https://bit.ly/2IcynQl
Course 8 : Big mart Sales Problem using R
Link :
https://bit.ly/2JUlZIb
📚@BigDataServe
Course 1 : A Learning Path to become Data Scientist in 2019
Link :
https://bit.ly/2HOthei
Course 2 : Experiments with Data
Link :
https://bit.ly/2HQuQbw
Course 3 : Python for Data Science
Link :
https://bit.ly/2HOG5RG
Course 4 : Twitter Sentiments Analysis
Link :
https://bit.ly/2HR8O8A
Course 5 : Creating Time Series Forecast with Python
Link :
https://bit.ly/2XniU6r
Course 6 : A path for learning Deep Learning in 2019
Link :
https://bit.ly/2HO1VVJ
Course 7 : Loan Prediction Practice problem
Link :
https://bit.ly/2IcynQl
Course 8 : Big mart Sales Problem using R
Link :
https://bit.ly/2JUlZIb
📚@BigDataServe
Analytics Vidhya
Comprehensive Learning Path to become Data Scientist in 2019
Comprehensive Learning Path to become Data Scientist in 2019 is a FREE course to teach you Machine Learning, Deep Learning and Data Science starting from basics. The course breaks down the outcomes for month on month progress.
Forwarded from انجمن علمی مهندسی صنایع (Fatemeh ✵ Sanati)
📣 انجمن علمی دانشکده مهندسی صنایع برگزار میکند:
👨💻همایش آشنایی با یادگیری ماشین ☑️
👨🏫مدرس: مهندس آرمان بهنام
✅ مدرس و مجری پروژه های علم داده در زمینه های نفتی،سلامت،مالی و تولیدی ✅
🗒 سرفصل ها:
1⃣آشنایی با رویکرد علم داده و دنیای داده محور
2⃣آشنایی با یادگیری ماشینی و جایگاه آن در هوش مصنوعی
3⃣نوآوری ها و کاربردهای یادگیری ماشینی در زندگی روزمره
📆 زمان:دوشنبه ۵ اسفند۹۸
⏰ ساعت ۱۳ الی ۱۵
🏢مکان:طبقه سوم کلاس ۳۰۷ دانشکده مهندسی صنایع دانشگاه علم و صنعت
💶به صورت رایگان
❎ جهت کسب اطلاعات بیشتر با آیدی
@f79s79a79
در ارتباط باشید.✅
❌لینک ایوند برای ثبت نام
https://evnd.co/p9XvU
@ssiediust
👨💻همایش آشنایی با یادگیری ماشین ☑️
👨🏫مدرس: مهندس آرمان بهنام
✅ مدرس و مجری پروژه های علم داده در زمینه های نفتی،سلامت،مالی و تولیدی ✅
🗒 سرفصل ها:
1⃣آشنایی با رویکرد علم داده و دنیای داده محور
2⃣آشنایی با یادگیری ماشینی و جایگاه آن در هوش مصنوعی
3⃣نوآوری ها و کاربردهای یادگیری ماشینی در زندگی روزمره
📆 زمان:دوشنبه ۵ اسفند۹۸
⏰ ساعت ۱۳ الی ۱۵
🏢مکان:طبقه سوم کلاس ۳۰۷ دانشکده مهندسی صنایع دانشگاه علم و صنعت
💶به صورت رایگان
❎ جهت کسب اطلاعات بیشتر با آیدی
@f79s79a79
در ارتباط باشید.✅
❌لینک ایوند برای ثبت نام
https://evnd.co/p9XvU
@ssiediust
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft Power BI is a self-service business analytics tool which is designed to convert business data into comprehensive visuals.
#powerbi
#businessintelligence
📚@Madatascienceir
#powerbi
#businessintelligence
📚@Madatascienceir
#گزارش
🖲مهم ترین مفاهیم یادگیری ماشینی
در لینک زیر مهم ترین مفاهیم یادگیری ماشینی دسته بندی شپو توضیح داده شده است که عبارتند از :
🗃۱ - رشد با مقیاس گردن در یادگیری ماشینی
- مقیاس کردن محاسباتی
- دسترس پذیری داده ها
📦۲ - بهینه سازی الگوریتم ها
- بهینه سازی و ارضای محدودیت ها
- معیار ارزیابی عدد به عدد
- بهینه سازی با کمک فرد
📉۳- به کار گیری و کاربرد
- داده های مثال خاص و کاربردی برای معیار های موجود
- داده های مخصوص هر الگوریتم
- آزمون واحد آماری
- آزمون ترکیبی آماری
https://medium.com/@joonatansamuel/most-important-concepts-in-applied-machine-learning-11e1e5f33ff4
#AI #DeepLearning #BigData #DataScience
📚@Madatascienceir
🖲مهم ترین مفاهیم یادگیری ماشینی
در لینک زیر مهم ترین مفاهیم یادگیری ماشینی دسته بندی شپو توضیح داده شده است که عبارتند از :
🗃۱ - رشد با مقیاس گردن در یادگیری ماشینی
- مقیاس کردن محاسباتی
- دسترس پذیری داده ها
📦۲ - بهینه سازی الگوریتم ها
- بهینه سازی و ارضای محدودیت ها
- معیار ارزیابی عدد به عدد
- بهینه سازی با کمک فرد
📉۳- به کار گیری و کاربرد
- داده های مثال خاص و کاربردی برای معیار های موجود
- داده های مخصوص هر الگوریتم
- آزمون واحد آماری
- آزمون ترکیبی آماری
https://medium.com/@joonatansamuel/most-important-concepts-in-applied-machine-learning-11e1e5f33ff4
#AI #DeepLearning #BigData #DataScience
📚@Madatascienceir
Medium
Most important concepts in applied machine learning.
We will cover conceptualizations of scale, optimization, and development.