🗣️ Source: LiveScience / OfoghRoydad
پژوهشهای جدید نشان میدهند که مدلهای زبانی بزرگ (LLM) و چتباتهای قدیمی ممکن است به مرور زمان دچار افت در عملکرد شناختی شوند، پدیدهای که شباهت زیادی به زوال شناختی در انسان دارد.
در سالهای اخیر، هوش مصنوعی (AI) نقش مهمی در تشخیصهای پزشکی ایفا کرده است، زیرا میتواند با سرعت و دقت بالا دادههای پزشکی، از جمله تصاویر رادیولوژی و سوابق بیماران، را تحلیل کرده و ناهنجاریهای احتمالی را شناسایی کند. با این حال، مقالهای که در ۲۰ دسامبر ۲۰۲۴ در مجله BMJ منتشر شده است، به چالشی مهم اشاره دارد: مدلهای زبانی بزرگ و چتباتها، مشابه مغز انسان، ممکن است در طول زمان دچار افت تواناییهای شناختی شوند.
نویسندگان این پژوهش معتقدند که چنین نتایجی میتواند چالشهایی جدی برای ایده جایگزینی پزشکان انسانی با هوش مصنوعی ایجاد کند. کاهش تواناییهای شناختی در چتباتهای پیشرفته میتواند دقت آنها را در تشخیصهای پزشکی کاهش داده و اعتماد بیماران را به این فناوریها تضعیف کند.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10
🗣️ Source: Laravel News
لاراول 12 از دوشنبه 24 فوریه منتشر میشود. این نسخه عمدتا بهعنوان یک بهروزرسانی (Maintenance Release) طراحی شده و تغییرات اساسی و انقلابی در کدهای قبلی ایجاد نخواهد کرد.
– تیلور، توسعهدهنده اصلی لاراول در رابطه با این موضوع در یکی از پستهای خود در شبکه اجتماعی ایکس نوشته است:
” این نسخه بهطور عمده تمرکزش روی بهبود و بهروزرسانی وابستگیهاست و تغییرات اساسی یا ویژگیهای بزرگ چندانی ندارد. بنابراین اکثر اپلیکیشنها میتوانند بدون تغییرات خاص یا تنظیمات پیچیده بهروزرسانی شوند. ‟
به گفته تیلور، لاراول با ویژگیهای خفن خود توانسته بیش از گذشته محبوب شود و استفاده از آن گسترش یابد؛ بنابراین تیم توسعه تلاش میکند تا با ارائه ویژگیهای جدید در طول سال و بدون ایجاد ناسازگاری، روند بهبود و بهروزرسانی را پیوسته ادامه دهد. نسخههای سالانه بیشتر برای بهروزرسانی وابستگیها و سازگاری با نسخههای جدید PHP به کار گرفته میشوند.
– لاراول 12 و استارتر کیتهای جدید!
همچنین، همراه با انتشار این نسخه، تیم Laravel استارتر کیتهای جدیدی را منتشر میکند که توسط Vue, React و Livewire پشتیبانی میشوند. این استارتر کیتها شامل کامپوننتهای Shadcn هستند و برای استک Livewire امکان استفاده از نسخه رایگان کامپوننتهای Flux فراهم شده است.
هر کیت از ریپازیتوریهای جداگانه گیتهاب دانلود شده و به صورت مستقیم در سورس کد نصب میشود؛ یعنی کنترل کامل بر روی کدها به دست توسعهدهنده خواهد بود، بدون اینکه کدها درون vendor پنهان شوند.
Please open Telegram to view this post
VIEW IN TELEGRAM
🗣️ Github: https://github.com/yorukot/superfile
– اگه دوست داری فایل منیجری در ترمینال مورد علاقت داشته باشی حتما ازش استفاده کن.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥3
تراشههای طراحیشده با AI آنقدر عجیب هستند که انسانها واقعا نمیتوانند آنها را درک کنند!
– مدلهای هوش مصنوعی در عرض چند ساعت توانستهاند که از طریق یادگیری عمیق [Deep Learning] چیپهای وایرلس کارآمدتری را نسبت به نمونههای ساخته شده توسط انسان طراحی کنند. هرچند، هنوز چگونگی تولید این تراشهها توسط AI واضح نیست.
مهندسان محقق نشان دادند که هوش مصنوعی میتواند چیپهای وایرلس پیچیده را در چند ساعت طراحی کند؛ کاری که انسانها در طول هفتهها آن را انجام میدهند! این طراحیها نه تنها کارآمدتر بودهاند بلکه AI برای طراحی آن رویکردی متفاوت از یک طراح مدار نابغه در پیش گرفته است. این محققان یافتهها و نتایج تحقیق خود را در دسامبر 2024 در نشریه Nature Communications منتشر کردند.
🔔 #AI #News
💎 Channel: @ZhinoDev
🗣️ Source: LiveScience | Nature
– مدلهای هوش مصنوعی در عرض چند ساعت توانستهاند که از طریق یادگیری عمیق [Deep Learning] چیپهای وایرلس کارآمدتری را نسبت به نمونههای ساخته شده توسط انسان طراحی کنند. هرچند، هنوز چگونگی تولید این تراشهها توسط AI واضح نیست.
مهندسان محقق نشان دادند که هوش مصنوعی میتواند چیپهای وایرلس پیچیده را در چند ساعت طراحی کند؛ کاری که انسانها در طول هفتهها آن را انجام میدهند! این طراحیها نه تنها کارآمدتر بودهاند بلکه AI برای طراحی آن رویکردی متفاوت از یک طراح مدار نابغه در پیش گرفته است. این محققان یافتهها و نتایج تحقیق خود را در دسامبر 2024 در نشریه Nature Communications منتشر کردند.
این پژوهش بر روی چیپهای mm-Wave متمرکز شده است که به دلیل پیچیدگی و نیاز به کوچکسازی چالشی بزرگ برای تولیدکنندگان و طراحان آن ایجاد میکنند. این چیپها در مودمهای 5G استفاده میشوند که درحال حاضر در تلفنها یافت میشوند.
Please open Telegram to view this post
VIEW IN TELEGRAM
⭐️ الگوریتم PageRank؛ تحولی در موتورهای جستجو
– تا حالا فکر کردید وقتی یه چیزی رو تو گوگل سرچ میکنید، چطوری تصمیم میگیره کدوم صفحه رو اول نشون بده؟ از بین میلیاردها صفحه، کدوم مهمتره؟ چرا بعضیا همیشه صفحهی اولن و بعضیا حتی اگه اسم دقیقشون رو هم سرچ کنی، به زور پیدا میشن؟ ایده اولیه پشت این ماجرا یه الگوریتم معروفه: PageRank
ماجرا از یه ایدهی ساده شروع شد. تصور کن دنیای وب یه شبکهی عظیم از صفحاته که با لینکها به هم وصل شدن. هر لینک یه جور رأیگیریه: وقتی یه سایت به یه سایت دیگه لینک میده، داره یه جور تأیید اعتبار انجام میده. ولی همهی رأیها ارزش یکسانی ندارن! اگه یه سایت معروف و معتبر مثل MIT به یه صفحه لینک بده، اون صفحه کلی اعتبار میگیره، ولی اگه یه وبلاگ ناشناس لینک بده، تأثیرش خیلی کمه. دقیقا مثل شاخص H-index توی مقالات علمی ( اگه پروفایل های ریسرچر ها رو توی google scholar دیده باشید همچنین شاخصی دارن که خیلی مهمه )
الگوریتم PageRank میگه: اگه یه صفحه لینکهای زیادی از صفحات معتبر دریافت کنه، پس خودش هم مهمه. ولی یه نکته مهم: اگه یه صفحه به هزار تا سایت دیگه لینک بده، اعتبارش بین همهشون تقسیم میشه. یعنی یه سایت اگه لینکهای کمی بده ولی به صفحات خاصی لینک بده، اون لینکها خیلی ارزشمندتر میشن.
— 💡 حالا گوگل هنوز هم از PageRank استفاده میکنه؟
اوایل که گوگل تازه کارش رو شروع کرده بود، این الگوریتم خیلی عالی جواب میداد، ولی کمکم مردم یاد گرفتن چجوری گولش بزنن! لینکسازی مصنوعی، خرید بکلینک، شبکههای تبادل لینک و کلی روش دیگه که باعث شد گوگل بعداً فاکتورهای خیلی پیچیدهتری رو هم وارد ماجرا کنه، مثل یادگیری ماشین، تعامل کاربر و کیفیت محتوا.
*⃣ #Article #PageRank
💎 Channel: @ZhinoDev
💡 Part: 01
📙 Source: https://en.wikipedia.org/wiki/PageRank | @HugeThinker
– تا حالا فکر کردید وقتی یه چیزی رو تو گوگل سرچ میکنید، چطوری تصمیم میگیره کدوم صفحه رو اول نشون بده؟ از بین میلیاردها صفحه، کدوم مهمتره؟ چرا بعضیا همیشه صفحهی اولن و بعضیا حتی اگه اسم دقیقشون رو هم سرچ کنی، به زور پیدا میشن؟ ایده اولیه پشت این ماجرا یه الگوریتم معروفه: PageRank
ماجرا از یه ایدهی ساده شروع شد. تصور کن دنیای وب یه شبکهی عظیم از صفحاته که با لینکها به هم وصل شدن. هر لینک یه جور رأیگیریه: وقتی یه سایت به یه سایت دیگه لینک میده، داره یه جور تأیید اعتبار انجام میده. ولی همهی رأیها ارزش یکسانی ندارن! اگه یه سایت معروف و معتبر مثل MIT به یه صفحه لینک بده، اون صفحه کلی اعتبار میگیره، ولی اگه یه وبلاگ ناشناس لینک بده، تأثیرش خیلی کمه. دقیقا مثل شاخص H-index توی مقالات علمی ( اگه پروفایل های ریسرچر ها رو توی google scholar دیده باشید همچنین شاخصی دارن که خیلی مهمه )
الگوریتم PageRank میگه: اگه یه صفحه لینکهای زیادی از صفحات معتبر دریافت کنه، پس خودش هم مهمه. ولی یه نکته مهم: اگه یه صفحه به هزار تا سایت دیگه لینک بده، اعتبارش بین همهشون تقسیم میشه. یعنی یه سایت اگه لینکهای کمی بده ولی به صفحات خاصی لینک بده، اون لینکها خیلی ارزشمندتر میشن.
— 💡 حالا گوگل هنوز هم از PageRank استفاده میکنه؟
اوایل که گوگل تازه کارش رو شروع کرده بود، این الگوریتم خیلی عالی جواب میداد، ولی کمکم مردم یاد گرفتن چجوری گولش بزنن! لینکسازی مصنوعی، خرید بکلینک، شبکههای تبادل لینک و کلی روش دیگه که باعث شد گوگل بعداً فاکتورهای خیلی پیچیدهتری رو هم وارد ماجرا کنه، مثل یادگیری ماشین، تعامل کاربر و کیفیت محتوا.
ولی هنوز هم PageRank یکی از گزینه های مورد استفاده موتورهای جستجو، تحلیل شبکههای اجتماعی، سیستمهای پیشنهادگر و حتی بیوانفورماتیکه. اما طبعا گزینه هایی مثل یادگیری ماشین اولویت اصلی هستن مخصوصا Impression و تعاملات کاربر که خوب دیتای اصلی مدل ها هستن برای یادگیری :)
*⃣ #Article #PageRank
💎 Channel: @ZhinoDev
⭐️ الگوریتم PageRank؛ تحولی در موتورهای جستجو
– این الگوریتم ساده را میتوان با کمک ریاضی هم مانند تصویر نوشت؛ یعنی PageRank یه صفحه مثل A بستگی داره به PageRank صفحاتی که بهش لینک دادن (Bها)، ولی این تأثیر تقسیم میشه بین همهی لینکهای خروجی اون صفحات. اون فاکتور d (معمولاً 0.85) هم یه احتمال تصادفیه که نشون میده کاربر ممکنه یه لینک جدید رو تایپ کنه و از این شبکه خارج بشه.
اما چجوری PageRank واقعی رو حساب میکنن؟ چون وقتی همه چیز به هم وابستهست، نمیشه تو یه مرحله مقدار دقیقشو فهمید. روشش اینه که یه مقدار اولیه (مثلاً برای همهی صفحات عدد 1) در نظر میگیریم، بعد با استفاده از همین فرمول مقدار جدید هر صفحه رو حساب میکنیم، بعد مقدار جدید رو جایگزین قبلی میکنیم و این روند رو تکرار میکنیم تا مقدارها به یه عدد ثابت برسن (بهش میگن همگرایی یا Convergence).
با پایتون و NetworkX راحت میشه اینو تست کرد، بزارید دم دستی باهم ببینیم:
این کد یه شبکهی ساده میسازه و PageRank هر صفحه رو حساب میکنه. هرچی یه گره (صفحه) لینکهای باارزشتری داشته باشه، عدد بالاتری میگیره.
*⃣ #Article #PageRank
💎 Channel: @ZhinoDev
💡 Part: 02
📙 Source: https://en.wikipedia.org/wiki/PageRank | @HugeThinker
– این الگوریتم ساده را میتوان با کمک ریاضی هم مانند تصویر نوشت؛ یعنی PageRank یه صفحه مثل A بستگی داره به PageRank صفحاتی که بهش لینک دادن (Bها)، ولی این تأثیر تقسیم میشه بین همهی لینکهای خروجی اون صفحات. اون فاکتور d (معمولاً 0.85) هم یه احتمال تصادفیه که نشون میده کاربر ممکنه یه لینک جدید رو تایپ کنه و از این شبکه خارج بشه.
اما چجوری PageRank واقعی رو حساب میکنن؟ چون وقتی همه چیز به هم وابستهست، نمیشه تو یه مرحله مقدار دقیقشو فهمید. روشش اینه که یه مقدار اولیه (مثلاً برای همهی صفحات عدد 1) در نظر میگیریم، بعد با استفاده از همین فرمول مقدار جدید هر صفحه رو حساب میکنیم، بعد مقدار جدید رو جایگزین قبلی میکنیم و این روند رو تکرار میکنیم تا مقدارها به یه عدد ثابت برسن (بهش میگن همگرایی یا Convergence).
با پایتون و NetworkX راحت میشه اینو تست کرد، بزارید دم دستی باهم ببینیم:
import networkx as nx
G = nx.DiGraph()
G.add_edges_from([('A', 'B'), ('A', 'C'), ('B', 'C'), ('C', 'A'), ('C', 'D'), ('D', 'A')])
pr = nx.pagerank(G, alpha=0.85)
print(pr)
این کد یه شبکهی ساده میسازه و PageRank هر صفحه رو حساب میکنه. هرچی یه گره (صفحه) لینکهای باارزشتری داشته باشه، عدد بالاتری میگیره.
*⃣ #Article #PageRank
💎 Channel: @ZhinoDev
🔥9👍2
🚀 سرویس Legal Simplifier یا ساده ساز حقوقی
– سادهساز حقوقی یک پلتفرم هوشمند است که با استفاده از فناوری هوش مصنوعی، اسناد حقوقی پیچیده را به زبانی ساده و قابل فهم ترجمه میکند. هدف ما توانمندسازی افراد غیرمتخصص برای درک بهتر متون حقوقی است.
— 🌍 چشمانداز ما: ما معتقدیم که دسترسی به درک صحیح از اسناد حقوقی حق همه افراد است. چشمانداز ما ایجاد جهانی است که در آن هیچکس به دلیل عدم آشنایی با زبان حقوقی، از حقوق خود محروم نشود.
— ⭐️ فناوری ما: الگوریتمهای ما قادر به شناسایی نکات کلیدی، تعهدات، شرایط فسخ، و اصطلاحات پیچیده هستند و آنها را به زبانی ساده و قابل فهم توضیح میدهند.
*⃣ #ZhinoTech
💎 Channel: @ZhinoDev
🔗 Legal Simplifier: https://legal-simplifier-hub.netlify.app | @HugeThinker
– سادهساز حقوقی یک پلتفرم هوشمند است که با استفاده از فناوری هوش مصنوعی، اسناد حقوقی پیچیده را به زبانی ساده و قابل فهم ترجمه میکند. هدف ما توانمندسازی افراد غیرمتخصص برای درک بهتر متون حقوقی است.
— 🌍 چشمانداز ما: ما معتقدیم که دسترسی به درک صحیح از اسناد حقوقی حق همه افراد است. چشمانداز ما ایجاد جهانی است که در آن هیچکس به دلیل عدم آشنایی با زبان حقوقی، از حقوق خود محروم نشود.
— ⭐️ فناوری ما: الگوریتمهای ما قادر به شناسایی نکات کلیدی، تعهدات، شرایط فسخ، و اصطلاحات پیچیده هستند و آنها را به زبانی ساده و قابل فهم توضیح میدهند.
*⃣ #ZhinoTech
💎 Channel: @ZhinoDev
👍6 2❤1
🔍 یادگیری و کار کردن با PyTorch یا TensorFlow؟🤔
به تازگی وارد دنیای یادگیری ماشین و یادگیری عمیق شدم و یکی از سوالات مهمی که ذهنم را مشغول کرده، انتخاب بین PyTorch و TensorFlow است. هر دو فریمورک محبوب در این حوزه هستند و ممکن است شما هم با این سوال مواجه شده باشید: آیا تفاوت واقعی بین این دو وجود دارد یا فقط سلیقه شخصی مطرح است؟
پاسخ این سوال مثبت است! انتخاب شما باید بر اساس نیازها و اهداف خاصتان باشد. بیایید نگاهی به تاریخچه و ویژگیهای کلیدی این دو فریمورک بیندازیم:
▎🛠️ 1. اشکالزدایی (Debugging)
▎🚀 2. استقرار و تولید (Deployment Production)
▎🔍 نتیجهگیری
*⃣ #DeepLearning #PyTorch #TensorFlow
💎 Channel: @ZhinoDev
به تازگی وارد دنیای یادگیری ماشین و یادگیری عمیق شدم و یکی از سوالات مهمی که ذهنم را مشغول کرده، انتخاب بین PyTorch و TensorFlow است. هر دو فریمورک محبوب در این حوزه هستند و ممکن است شما هم با این سوال مواجه شده باشید: آیا تفاوت واقعی بین این دو وجود دارد یا فقط سلیقه شخصی مطرح است؟
پاسخ این سوال مثبت است! انتخاب شما باید بر اساس نیازها و اهداف خاصتان باشد. بیایید نگاهی به تاریخچه و ویژگیهای کلیدی این دو فریمورک بیندازیم:
▎🛠️ 1. اشکالزدایی (Debugging)
در PyTorch، محاسبات به صورت آنی انجام میشوند و اشکالزدایی با ابزارهای استاندارد پایتون مانند PyCharm بسیار ساده است. نیازی به کامپایل نمودار محاسباتی پیش از اجرا نیست، بنابراین خطاها سریعتر شناسایی میشوند.
در مقابل، TensorFlow (قبل از نسخه 2.0) از نمودارهای محاسباتی استاتیک استفاده میکرد که اشکالزدایی را دشوار میساخت. هرچند بعد از نسخه 2.0 بهبودهایی ایجاد شده، اما هنوز PyTorch در این زمینه برتری دارد.
▎🚀 2. استقرار و تولید (Deployment Production)
در ابتدای کار، PyTorch برای تولید طراحی نشده بود، اما اکنون ابزارهایی برای استقرار مدلها دارد. با این حال، برای استقرار به مراحل اضافی نیاز است.
اما TensorFlow به طور یکپارچه خدمات استقرار مدلها را در محیطهای تولید فراهم میکند و قابلیتهایی برای اجرا در موبایل و مرورگر دارد.
▎🔍 نتیجهگیری
به طور کلی، PyTorch بیشتر برای تحقیقات و نمونهسازی مناسب است و پشتیبانی خوبی از پردازندههای گرافیکی با ادغام CUDA دارد. در حالی که TensorFlow برای حجم کاری تولید در مقیاس بزرگ بهینهسازی شده و پشتیبانی بهتری از آموزشهای توزیعشده (TPUs, multi-GPU) ارائه میدهد.
*⃣ #DeepLearning #PyTorch #TensorFlow
💎 Channel: @ZhinoDev
⭐️ تحلیل ویدیوهای ورزشی با یادگیری عمیق: از بسکتبال تا فوتبال
✏️ با گسترش روزافزون دادههای ویدیویی در پلتفرمهای اینترنتی، تحلیل خودکار ویدیوهای ورزشی به یک چالش بزرگ تبدیل شده است. امروز دو مقاله مرتبط با این موضوع رو بررسی کردم که به تحلیل ویدیو های بسکتبال و فوتبال با استفاده از DeepLearning پرداخته بود.
این مقاله یک رویکرد نوین برای تحلیل خودکار ویدیوهای ورزشی ارائه میدهد که از الگوریتمهای سبکوزن (lightweight algorithms) و تکنیکهای یادگیری عمیق (deep learning) برای تقسیمبندی بازیکنان و تشخیص رویدادها در هر دو ورزش بسکتبال و فوتبال استفاده میکند. در مورد بسکتبال، روش پیشنهادی از ویژگیهای حرکتی گروهی (group motion features) و جهانی (global motion features) برای تقسیم ویدیوهای بازی به سه مرحله استفاده کرده و یک روش طبقهبندی (classification approach) برای رویدادهایی مانند شوت و لیآپ ارائه میدهد. نتایج آزمایشی نشاندهنده بهبود قابل توجه در دقت تشخیص رویدادها است. به طور مشابه، برای فوتبال، این مطالعه از یادگیری عمیق با تقسیم ویدیوها به فریمهای متوالی و استفاده از شبکههای عصبی کانولوشنال سهبعدی (3D convolutional neural networks یا 3D CNNs) در یک مدل دو مرحلهای برای شناسایی و طبقهبندی رویدادهای کلیدی استفاده میکند. این روش به طور موثر لحظات برجسته را از ویدیوهای طولانی فوتبال استخراج و دستهبندی میکند.
از منظر علمی، این پیشرفتها با تقاضای روزافزون برای تحلیلهای ورزشی خودکار (automated sports analytics) همسو است که بر پردازش حجم بزرگی از دادههای ویدیویی با استفاده از بینایی کامپیوتری (computer vision) و یادگیری ماشین (machine learning) تکیه دارد. استفاده از ویژگیهای حرکتی در تحلیل بسکتبال، اهمیت دینامیکهای فضایی-زمانی (spatiotemporal dynamics) در ورزشهای تیمی را نشان میدهد، جایی که حرکات و تعاملات بازیکنان برای تشخیص رویدادها حیاتی هستند. از سوی دیگر، کاربرد شبکههای 3D CNN در فوتبال، نقش مدلسازی زمانی (temporal modeling) را در الگوهای متوالی، مانند مسیرهای بازیکنان و حرکات توپ، برجسته میکند که برای شناسایی رویدادهای پیچیده مانند گلها، پاسها یا خطاها ضروری است. هر دو رویکرد پتانسیل ترکیب الگوریتمهای سبکوزن برای پردازش بلادرنگ (real-time processing) با یادگیری عمیق برای استخراج ویژگیهای سطح بالا (high-level feature extraction) را نشان میدهند و راه را برای سیستمهای کارآمدتر و دقیقتر تحلیل ورزشی هموار میکنند. تحقیقات آینده میتواند به بررسی قابلیت تطبیق بین ورزشهای مختلف، ادغام این روشها در یک چارچوب یکپارچه برای تحلیل چندورزشی، یا افزایش مقاومت در شرایط نوری مختلف و زوایای دوربین بپردازد.
*️⃣ #DeepLearning #VideoAnalysis
💎 Channel: @ZhinoDev
✏️ با گسترش روزافزون دادههای ویدیویی در پلتفرمهای اینترنتی، تحلیل خودکار ویدیوهای ورزشی به یک چالش بزرگ تبدیل شده است. امروز دو مقاله مرتبط با این موضوع رو بررسی کردم که به تحلیل ویدیو های بسکتبال و فوتبال با استفاده از DeepLearning پرداخته بود.
📁 1. Video Analysis and System Construction of Basketball Game by Lightweight Deep Learning under the Internet of Things
📁 2. Football Game Video Analysis Method with Deep Learning
این مقاله یک رویکرد نوین برای تحلیل خودکار ویدیوهای ورزشی ارائه میدهد که از الگوریتمهای سبکوزن (lightweight algorithms) و تکنیکهای یادگیری عمیق (deep learning) برای تقسیمبندی بازیکنان و تشخیص رویدادها در هر دو ورزش بسکتبال و فوتبال استفاده میکند. در مورد بسکتبال، روش پیشنهادی از ویژگیهای حرکتی گروهی (group motion features) و جهانی (global motion features) برای تقسیم ویدیوهای بازی به سه مرحله استفاده کرده و یک روش طبقهبندی (classification approach) برای رویدادهایی مانند شوت و لیآپ ارائه میدهد. نتایج آزمایشی نشاندهنده بهبود قابل توجه در دقت تشخیص رویدادها است. به طور مشابه، برای فوتبال، این مطالعه از یادگیری عمیق با تقسیم ویدیوها به فریمهای متوالی و استفاده از شبکههای عصبی کانولوشنال سهبعدی (3D convolutional neural networks یا 3D CNNs) در یک مدل دو مرحلهای برای شناسایی و طبقهبندی رویدادهای کلیدی استفاده میکند. این روش به طور موثر لحظات برجسته را از ویدیوهای طولانی فوتبال استخراج و دستهبندی میکند.
از منظر علمی، این پیشرفتها با تقاضای روزافزون برای تحلیلهای ورزشی خودکار (automated sports analytics) همسو است که بر پردازش حجم بزرگی از دادههای ویدیویی با استفاده از بینایی کامپیوتری (computer vision) و یادگیری ماشین (machine learning) تکیه دارد. استفاده از ویژگیهای حرکتی در تحلیل بسکتبال، اهمیت دینامیکهای فضایی-زمانی (spatiotemporal dynamics) در ورزشهای تیمی را نشان میدهد، جایی که حرکات و تعاملات بازیکنان برای تشخیص رویدادها حیاتی هستند. از سوی دیگر، کاربرد شبکههای 3D CNN در فوتبال، نقش مدلسازی زمانی (temporal modeling) را در الگوهای متوالی، مانند مسیرهای بازیکنان و حرکات توپ، برجسته میکند که برای شناسایی رویدادهای پیچیده مانند گلها، پاسها یا خطاها ضروری است. هر دو رویکرد پتانسیل ترکیب الگوریتمهای سبکوزن برای پردازش بلادرنگ (real-time processing) با یادگیری عمیق برای استخراج ویژگیهای سطح بالا (high-level feature extraction) را نشان میدهند و راه را برای سیستمهای کارآمدتر و دقیقتر تحلیل ورزشی هموار میکنند. تحقیقات آینده میتواند به بررسی قابلیت تطبیق بین ورزشهای مختلف، ادغام این روشها در یک چارچوب یکپارچه برای تحلیل چندورزشی، یا افزایش مقاومت در شرایط نوری مختلف و زوایای دوربین بپردازد.
"استفاده از یادگیری عمیق در تحلیل ویدیوهای ورزشی نه تنها دقت تشخیص رویدادها را افزایش میدهد، بلکه سرعت تحلیل را نیز بهبود میبخشد. این فناوری میتواند به توسعه سریعتر ورزشهایی مانند بسکتبال و فوتبال کمک کند."
*️⃣ #DeepLearning #VideoAnalysis
💎 Channel: @ZhinoDev
👍5👌1