𝗙𝗥𝗘𝗘 (𝗚𝗼𝗼𝗴𝗹𝗲) 𝗖𝗼𝘂𝗿𝘀𝗲𝘀 𝘆𝗼𝘂 𝘄𝗶𝗹𝗹 𝗿𝗲𝗴𝗿𝗲𝘁 𝗻𝗼𝘁 𝘁𝗮𝗸𝗶𝗻𝗴 𝗶𝗻 𝟮𝟬𝟮𝟯.
1. Python Basics for Data Analysis
🔗https://lnkd.in/dCGMEGpm
2. Data Science Foundations
🔗https://lnkd.in/daHK4m-i
3. Advanced Google Analytics
🔗https://lnkd.in/dbwP4_B7
4. Data, ML, and AI in Google Cloud
🔗https://lnkd.in/dSXa7aCG
5. Google Cloud Computing Foundations: Networking and Security in Google Cloud
🔗https://lnkd.in/du6YkCxq
6. Machine Learning Crash Course
🔗https://lnkd.in/dj_RxD9Y
7. Basics of Machine Learning
🔗https://lnkd.in/deC_yyZ3
8. Data Science with Python
🔗https://lnkd.in/dWGtY868
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
1. Python Basics for Data Analysis
🔗https://lnkd.in/dCGMEGpm
2. Data Science Foundations
🔗https://lnkd.in/daHK4m-i
3. Advanced Google Analytics
🔗https://lnkd.in/dbwP4_B7
4. Data, ML, and AI in Google Cloud
🔗https://lnkd.in/dSXa7aCG
5. Google Cloud Computing Foundations: Networking and Security in Google Cloud
🔗https://lnkd.in/du6YkCxq
6. Machine Learning Crash Course
🔗https://lnkd.in/dj_RxD9Y
7. Basics of Machine Learning
🔗https://lnkd.in/deC_yyZ3
8. Data Science with Python
🔗https://lnkd.in/dWGtY868
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
❤2
'ChatGPT detector’ catches AI-generated papers with unprecedented accuracy
😂😂😂
فارسی 🇮🇷: آقا بالاخره هوش مصنوعی همه کاره می شه که.
چت جپت را هم انسان استفاده می کنه برای نوشته های خودش دیگه چه کاریه دوباره از مدلی برگرفته از خود چت جپت بخواهیم که بین نوشته انسان و ربات شناسایی انجام دهیم؟ سوال دیگه هم اینجاست دیتای ترین شده برای شناسایی انسان از ربات از کجا به دست آمده؟ از ژورنال ها؟ خوب ژورنال ها هم از اپلیکشن هایی مثله گرامرلی قبلا استفاده کرده برای اصلاح گرامر. جواب اش شاید در این مقاله نوشته شده باشد. نظری دارین؟
تۆرکجه 🇮🇷: گویه چیخاسیز یئره باتاسیز آخیری یاپای ذکاء هر ایشیزی گورجک 😂😂😂
مقاله یازیبلار چت جپت نین یازیلان مقاله لری تانین سین. سوْال؛: بو تانیما اپلیکشنی اوزی نئجه دوزلیب؟ هانکی دیتانان ترین اولوب؟ هاردان معلوم دیتالار اوزلری انسان یازیب؟ جوابین بلکه بو اشاغاداکی مقاله ده تاپاق اولار. سیزین باخیشیز ندیر؟
https://www.nature.com/articles/d41586-023-03479-4
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
😂😂😂
فارسی 🇮🇷: آقا بالاخره هوش مصنوعی همه کاره می شه که.
چت جپت را هم انسان استفاده می کنه برای نوشته های خودش دیگه چه کاریه دوباره از مدلی برگرفته از خود چت جپت بخواهیم که بین نوشته انسان و ربات شناسایی انجام دهیم؟ سوال دیگه هم اینجاست دیتای ترین شده برای شناسایی انسان از ربات از کجا به دست آمده؟ از ژورنال ها؟ خوب ژورنال ها هم از اپلیکشن هایی مثله گرامرلی قبلا استفاده کرده برای اصلاح گرامر. جواب اش شاید در این مقاله نوشته شده باشد. نظری دارین؟
تۆرکجه 🇮🇷: گویه چیخاسیز یئره باتاسیز آخیری یاپای ذکاء هر ایشیزی گورجک 😂😂😂
مقاله یازیبلار چت جپت نین یازیلان مقاله لری تانین سین. سوْال؛: بو تانیما اپلیکشنی اوزی نئجه دوزلیب؟ هانکی دیتانان ترین اولوب؟ هاردان معلوم دیتالار اوزلری انسان یازیب؟ جوابین بلکه بو اشاغاداکی مقاله ده تاپاق اولار. سیزین باخیشیز ندیر؟
https://www.nature.com/articles/d41586-023-03479-4
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
Nature
‘ChatGPT detector’ catches AI-generated papers with unprecedented accuracy
Nature - Tool based on machine learning uses features of writing style to distinguish between human and AI authors.
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
data pipeline overview
Machine learning application (Kartal)
فارسی 🇮🇷: کسی هست خدای واقعی هوش مصنوعی را نشناسه؟ تۆرکجه 🇮🇷: یاپای ذکاء نین آللهین تانیمیان وارمی؟ 👍👎😁
از کارهای خدای هوش مصنوعی
یاپای ذکاء نین تانریسینین ایشلرینن
یاپای ذکاء نین تانریسینین ایشلرینن
🔥15👎1
Yann LeCun
VP & Chief AI Scientist at Meta
❤️🌎👇🏽
Animals and humans get very smart very quickly with vastly smaller amounts of training data than current AI systems.
Current LLMs are trained on text data that would take 20,000 years for a human to read.
And still, they haven't learned that if A is the same as B, then B is the same as A.
Humans get a lot smarter than that with comparatively little training data.
Even corvids, parrots, dogs, and octopuses get smarter than that very, very quickly, with only 2 billion neurons and a few trillion "parameters."
🌘
My money is on new architectures that would learn as efficiently as animals and humans.
Using more text data (synthetic or not) is a temporary stopgap made necessary by the limitations of our current approaches.
The salvation is in using sensory data, e.g. video, which has higher bandwidth and more internal structure.
The total amount of visual data seen by a 2 year-old is larger than the amount of data used to train LLMs, but still pretty reasonable.
2 years = 2x365x12x3600 or roughly 32 million seconds.
We have 2 million optical nerve fibers, carrying roughly ten bytes per second each.
That's a total of 6E14 bytes. The volume of data for LLM training is typically 1E13 tokens, which is about 2E13 bytes.
It's a factor of 30.
🤔
Importantly, there is more to learn from video than from text because it is more redundant.
It tells you a lot about the structure of the world.
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
VP & Chief AI Scientist at Meta
❤️🌎👇🏽
Animals and humans get very smart very quickly with vastly smaller amounts of training data than current AI systems.
Current LLMs are trained on text data that would take 20,000 years for a human to read.
And still, they haven't learned that if A is the same as B, then B is the same as A.
Humans get a lot smarter than that with comparatively little training data.
Even corvids, parrots, dogs, and octopuses get smarter than that very, very quickly, with only 2 billion neurons and a few trillion "parameters."
🌘
My money is on new architectures that would learn as efficiently as animals and humans.
Using more text data (synthetic or not) is a temporary stopgap made necessary by the limitations of our current approaches.
The salvation is in using sensory data, e.g. video, which has higher bandwidth and more internal structure.
The total amount of visual data seen by a 2 year-old is larger than the amount of data used to train LLMs, but still pretty reasonable.
2 years = 2x365x12x3600 or roughly 32 million seconds.
We have 2 million optical nerve fibers, carrying roughly ten bytes per second each.
That's a total of 6E14 bytes. The volume of data for LLM training is typically 1E13 tokens, which is about 2E13 bytes.
It's a factor of 30.
🤔
Importantly, there is more to learn from video than from text because it is more redundant.
It tells you a lot about the structure of the world.
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
Telegram
Machine learning application (Kartal)
1- Participate in cutting edge research in machine learning applications.
2- Apply your expertise in biometrics, Natural Language Processing, computer vision and real-time data mining solutions.
Admin: @Kartal_ai (https://news.1rj.ru/str/Kartal_ai )
2- Apply your expertise in biometrics, Natural Language Processing, computer vision and real-time data mining solutions.
Admin: @Kartal_ai (https://news.1rj.ru/str/Kartal_ai )
👍3
Forwarded from آذربایجانی و یا تورکی لهجه لر
This media is not supported in your browser
VIEW IN TELEGRAM
تزه آپدیت:
😍حافظ فرهنگ خود باشید
🏆 جایزه نقدی هم هدیه بگیرید.
😍مدنیتینیزی قوْرویون
🏆 سیز ده پۇل مۆکافاتی قازانین 💶🇪🇺
📸🔊🔉 پایلاشین
عزیز تورکلر بو آخارا عضو اولون و اوز لهجه نیزنن جمله لری ضبط ائدین.
https://news.1rj.ru/str/+LEjcUcoiQYJhMmM0
😍حافظ فرهنگ خود باشید
🏆 جایزه نقدی هم هدیه بگیرید.
😍مدنیتینیزی قوْرویون
🏆 سیز ده پۇل مۆکافاتی قازانین 💶🇪🇺
📸🔊🔉 پایلاشین
عزیز تورکلر بو آخارا عضو اولون و اوز لهجه نیزنن جمله لری ضبط ائدین.
https://news.1rj.ru/str/+LEjcUcoiQYJhMmM0
👍3👎1😁1🤔1
فارسی 🇮🇷: هوش مصنوعی مولد می تواند تعداد حملات بر زنان را افزایش دهد.
تۆرکجه 🇮🇷:مولد یاپای ذکاء قادینلارا قارشی هۆجوملارین سایینی آرتیرا بیلر.
Read more:
https://on.unesco.org/3Gl7LuR
تۆرکجه 🇮🇷:مولد یاپای ذکاء قادینلارا قارشی هۆجوملارین سایینی آرتیرا بیلر.
Read more:
https://on.unesco.org/3Gl7LuR
👍2👎1
فارسی : فینقر پرینت همچنان در بورس. اپل دوباره سلامی می کند به فینقر پرینت 👇🏽
تورکجه : بارماق پرینتی یئنی دن اپل ایشلرینده گلجک. 👇🏽
https://www.biometricupdate.com/202311/apple-rumored-to-be-retiring-fingerprint-biometrics-on-iphones
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
تورکجه : بارماق پرینتی یئنی دن اپل ایشلرینده گلجک. 👇🏽
https://www.biometricupdate.com/202311/apple-rumored-to-be-retiring-fingerprint-biometrics-on-iphones
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
Biometric Update
Apple rumored to be retiring fingerprint biometrics on iPhones
The next generation of iPhones may not come with Apple’s biometric fingerprint sensor TouchID, according to whispers from the Chinese social media.
🤔1
فارسی: پیشرفت آمریکایی ها در ربات های جنگنده هوش مصنوعی بیس
تورکجه: آمریکایی لرین یاپای ذکاء اوستونده ساواش رباتلارینین قاباغا گئدمگی
https://www.linkedin.com/feed/update/urn:li:activity:7134762014559596544?utm_source=share&utm_medium=member_desktop
داعش بعدی ربات های نیست در خاورمیانه؟ 😄
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
تورکجه: آمریکایی لرین یاپای ذکاء اوستونده ساواش رباتلارینین قاباغا گئدمگی
https://www.linkedin.com/feed/update/urn:li:activity:7134762014559596544?utm_source=share&utm_medium=member_desktop
داعش بعدی ربات های نیست در خاورمیانه؟ 😄
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
Linkedin
Sign Up | LinkedIn
500 million+ members | Manage your professional identity. Build and engage with your professional network. Access knowledge, insights and opportunities.
به به اینم از راه رسید... مدل های ويژن بزرگ
بودا گلدی چیخدی... بویوگ ویژن مدلر
The LVM (large vision model) revolution is coming a little after the LLM (large language model) one, and will transform how we process images. But there’s an important difference between LLMs and LVMs:
- Internet text is similar enough to proprietary text documents that an LLM trained on internet text can understand your documents.
- But internet images – such as Instagram pictures – contain a lot of pictures of people, pets, landmarks, and everyday objects. Many practical vision applications (manufacturing, aerial imagery, life sciences, etc.) use images that look nothing like most internet images. So a generic LVM trained on internet images fares poorly at picking out the most salient features of images in many specialized domains.
That’s why domain specific LVMs – ones adapted to images of a particular domain (such as semiconductor manufacturing, or pathology) – do much better. At Landing AI, by using ~100K unlabeled images to adapt an LVM to a specific domain, we see significantly improved results, for example where only 10-30% as much labeled data is now needed to achieve a certain level of performance.
For companies with large sets of images that look nothing like internet images, I think domain specific LVMs can be a way to unlock considerable value from their data. Dan Maloney and I share more details in the video.
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
بودا گلدی چیخدی... بویوگ ویژن مدلر
The LVM (large vision model) revolution is coming a little after the LLM (large language model) one, and will transform how we process images. But there’s an important difference between LLMs and LVMs:
- Internet text is similar enough to proprietary text documents that an LLM trained on internet text can understand your documents.
- But internet images – such as Instagram pictures – contain a lot of pictures of people, pets, landmarks, and everyday objects. Many practical vision applications (manufacturing, aerial imagery, life sciences, etc.) use images that look nothing like most internet images. So a generic LVM trained on internet images fares poorly at picking out the most salient features of images in many specialized domains.
That’s why domain specific LVMs – ones adapted to images of a particular domain (such as semiconductor manufacturing, or pathology) – do much better. At Landing AI, by using ~100K unlabeled images to adapt an LVM to a specific domain, we see significantly improved results, for example where only 10-30% as much labeled data is now needed to achieve a certain level of performance.
For companies with large sets of images that look nothing like internet images, I think domain specific LVMs can be a way to unlock considerable value from their data. Dan Maloney and I share more details in the video.
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
Telegram
Machine learning application (Kartal)
1- Participate in cutting edge research in machine learning applications.
2- Apply your expertise in biometrics, Natural Language Processing, computer vision and real-time data mining solutions.
Admin: @Kartal_ai (https://news.1rj.ru/str/Kartal_ai )
2- Apply your expertise in biometrics, Natural Language Processing, computer vision and real-time data mining solutions.
Admin: @Kartal_ai (https://news.1rj.ru/str/Kartal_ai )
👏1
سخت افزاریا نظر بدن
دونانیم چیلار باخیشلارین بیلدیرسین
Researchers look to the human eye to boost computer vision efficiency
Hard to believe there will be a replacement for digital camera but for sure our tasks for vision would be easier.
https://www.purdue.edu/newsroom/releases/2023/Q4/researchers-look-to-the-human-eye-to-boost-computer-vision-efficiency.html
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
دونانیم چیلار باخیشلارین بیلدیرسین
Researchers look to the human eye to boost computer vision efficiency
Hard to believe there will be a replacement for digital camera but for sure our tasks for vision would be easier.
https://www.purdue.edu/newsroom/releases/2023/Q4/researchers-look-to-the-human-eye-to-boost-computer-vision-efficiency.html
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
Purdue University
Researchers look to the human eye to boost computer vision efficiency
Conventional silicon architecture has taken computer vision a long way, but Purdue University researchers are developing an alternative path — taking a cue from nature — that they say is the foundation of an artificial retina. Like our own visual system,…
👍1
فارسی 🇮🇷: به نظر می رسه گوگل تلاش می کنه اوپن ائ آی را پس بزنه... شدنیه؟
تۆرکجه 🇮🇷: گوگل اوپن ائ آی نان چوخ یاخون ریقابت ائدیر... یانی اولمالیدی؟
جزئیات: 👇
https://blog-google.cdn.ampproject.org/c/s/blog.google/technology/ai/google-gemini-ai/amp/
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
تۆرکجه 🇮🇷: گوگل اوپن ائ آی نان چوخ یاخون ریقابت ائدیر... یانی اولمالیدی؟
جزئیات: 👇
https://blog-google.cdn.ampproject.org/c/s/blog.google/technology/ai/google-gemini-ai/amp/
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
👍2👎1
Forwarded from Dr Jamali, UMA (Shahram)
This media is not supported in your browser
VIEW IN TELEGRAM
🔻بخشی از تواناییهای هوش مصنوعی Gemini گوگل
🔴گوگل از Gemini رونمایی کرد؛ انقلابی در دنیای هوش مصنوعی
گوگل ماهها پس از انتشار اولین اخبار درباره مدل هوش مصنوعی جدید خود به نام Gemini در کنفرانس توسعهدهندگان I/O 2023، حالا بهطور رسمی از آن رونمایی کرده تا رقابت با OpenAI، سازنده ChatGPT، را وارد فاز تازهای کند. به گفته گوگل، این مدل یک پیشرفت بزرگ محسوب میشود که بهطور بالقوه روی تمام محصولات آن تأثیر میگذارد. همچنین گوگل میگوید این مدل جدید در اکثر بنچمارکها از GPT-4 قدرتمندتر است.
مدل هوش مصنوعی جمینای سه نسخه دارد. نسخه پایه با نام Gemini Nano میتواند بهطور بومی و آفلاین روی دستگاههای اندرویدی اجرا شود. نسخه قدرتمندتر، Gemini Pro که در اکثر سرویسهای هوش مصنوعی گوگل ازجمله چتبات بارد مورد استفاده قرار میگیرد. درنهایت نسخه Gemini Ultra که قدرتمندترین مدل زبانی گوگل محسوب میشود و احتمالاً در دیتاسنترها مورد استفاده قرار میگیرد.
🔴گوگل از Gemini رونمایی کرد؛ انقلابی در دنیای هوش مصنوعی
گوگل ماهها پس از انتشار اولین اخبار درباره مدل هوش مصنوعی جدید خود به نام Gemini در کنفرانس توسعهدهندگان I/O 2023، حالا بهطور رسمی از آن رونمایی کرده تا رقابت با OpenAI، سازنده ChatGPT، را وارد فاز تازهای کند. به گفته گوگل، این مدل یک پیشرفت بزرگ محسوب میشود که بهطور بالقوه روی تمام محصولات آن تأثیر میگذارد. همچنین گوگل میگوید این مدل جدید در اکثر بنچمارکها از GPT-4 قدرتمندتر است.
مدل هوش مصنوعی جمینای سه نسخه دارد. نسخه پایه با نام Gemini Nano میتواند بهطور بومی و آفلاین روی دستگاههای اندرویدی اجرا شود. نسخه قدرتمندتر، Gemini Pro که در اکثر سرویسهای هوش مصنوعی گوگل ازجمله چتبات بارد مورد استفاده قرار میگیرد. درنهایت نسخه Gemini Ultra که قدرتمندترین مدل زبانی گوگل محسوب میشود و احتمالاً در دیتاسنترها مورد استفاده قرار میگیرد.
❤3🔥1😁1
Dr Jamali, UMA
🔻بخشی از تواناییهای هوش مصنوعی Gemini گوگل 🔴گوگل از Gemini رونمایی کرد؛ انقلابی در دنیای هوش مصنوعی گوگل ماهها پس از انتشار اولین اخبار درباره مدل هوش مصنوعی جدید خود به نام Gemini در کنفرانس توسعهدهندگان I/O 2023، حالا بهطور رسمی از آن رونمایی کرده…
Are you f.u.c.king kidding me? 😂😂😂
😁2👏1
Dr Jamali, UMA
🔻بخشی از تواناییهای هوش مصنوعی Gemini گوگل 🔴گوگل از Gemini رونمایی کرد؛ انقلابی در دنیای هوش مصنوعی گوگل ماهها پس از انتشار اولین اخبار درباره مدل هوش مصنوعی جدید خود به نام Gemini در کنفرانس توسعهدهندگان I/O 2023، حالا بهطور رسمی از آن رونمایی کرده…
لینک ویدیو از خود گوگل. 👇👇👇
گوگل اوزی قویان ویدیون لینکی 👇👇👇
https://youtu.be/UIZAiXYceBI?si=uiGoMb-ReT4syYy9
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
گوگل اوزی قویان ویدیون لینکی 👇👇👇
https://youtu.be/UIZAiXYceBI?si=uiGoMb-ReT4syYy9
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
YouTube
The capabilities of multimodal AI | Gemini Demo
Our natively multimodal AI model Gemini is capable of reasoning across text, images, audio, video and code. Here are favorite moments with Gemini Learn more and try the model: https://deepmind.google/gemini
Explore Gemini: https://goo.gle/how-its-made…
Explore Gemini: https://goo.gle/how-its-made…
👎1
فارسی 🇮🇷: یک جامعه متعالی توسط دانشجویان اش به درجه تعالی می رسد. اگر دانشجویان فقط پیرو باشند فلاکت به جامعه می آورد. پس پیرو نباشیم و مبارز باشیم و جلوی بی عدالتی و حق خوری همیشه مبارزه کنیم.
روز دانشجو بر تمام دانشجویان شجاع و مردمی مبارک باد
تۆرکجه 🇮🇷: گلیشتیریلمیش توپلوم اوْنون اوْیرنجیلری نین طرفیندن الده ائدیلیر. اوْیرنجیلر سادهجه ایزلعیجی (İzləyici) اوْلسالار، بو، توپلوما بدبختلیک گتیرر. اوْدور کی، ایزلعیچی اوْلمایاق و مۆباریز اوْلاق و همیشه حاقسیزلیغا و حاقسیزلیغا قارشی مۆباریزه آپاراق.
بۆتون جسور و میلتچی اوْیرنجی لرین گۆنو مۆبارک
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
روز دانشجو بر تمام دانشجویان شجاع و مردمی مبارک باد
تۆرکجه 🇮🇷: گلیشتیریلمیش توپلوم اوْنون اوْیرنجیلری نین طرفیندن الده ائدیلیر. اوْیرنجیلر سادهجه ایزلعیجی (İzləyici) اوْلسالار، بو، توپلوما بدبختلیک گتیرر. اوْدور کی، ایزلعیچی اوْلمایاق و مۆباریز اوْلاق و همیشه حاقسیزلیغا و حاقسیزلیغا قارشی مۆباریزه آپاراق.
بۆتون جسور و میلتچی اوْیرنجی لرین گۆنو مۆبارک
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
❤6👍2👎2
Yann LeCun:
EU AI Act cheatsheet.
- Some items are good and sensible: e.g. limits on biometric identification.
- Some are strange: why ban emotion recognition? is that even possible? that will certainly limit the usefulness and human-compatibility of many AI applications.
- Some are premature.
- Certainly, making exceptions for R&D and open source systems is good.
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal
EU AI Act cheatsheet.
- Some items are good and sensible: e.g. limits on biometric identification.
- Some are strange: why ban emotion recognition? is that even possible? that will certainly limit the usefulness and human-compatibility of many AI applications.
- Some are premature.
- Certainly, making exceptions for R&D and open source systems is good.
کانالیمیزی جانلی یایین:
https://news.1rj.ru/str/Machinelearning_Kartal