دستاوردهای یادگیری عمیق(InTec) – Telegram
دستاوردهای یادگیری عمیق(InTec)
9.45K subscribers
363 photos
40 videos
44 files
674 links
هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
موضوع اصلی کانال

این یک بلاگ شخصی با طرز تفکر شخصی هست.

Core Python : @PyHints

تلاشی هم در یادگیری Rust دارم که درحال داکیومنت شدن هم هست؛ اگر شماهم به این زبان علاقمند هستید join یادتون نره

Rust: @PyRust
Download Telegram
StandfordNLP (Stanza)

برای پروژه‌ای درحال تست این ابزار بودم، ازونجایی که خیلی خیلی بهتر از معادل‌های فارسی برگرفته از ابزار (nltk) هست.
گفتم مجدداً راجبش مطلب بذارم، دوستان بیخیال ابزارهای فارسی بشن یا حداقل این مورد رو هم تست کنند.

شخصاً برای کار من عالی بود، خیلی خیلی سرعت آماده‌سازی پروژه‌ام رو هم جلو انداخت.

More info at Stanza Website
بحث آزاد پرسش و پاسخ به همراه میهمان ویژه جناب آقای دکتر مهدی حبیب زاده :

Instructor, McGill University School of Continuing Studies

مهندس آیدین زهتاب و محمد عباسی پیرامون موضوع کلی یادگیری ماشین، پنج‌شنبه‌ 23 بهمن ساعت 21 به وقت تهران در گوگل میت برگزار خواهد شد. (ظرفیت محدود)

🔸لینک گفتگو ده دقیقه قبل از برگزاری جلسه بر روی کانال قرار داده خواهد شد.

🔸ضمنا ویدیو جلسه پس از برگزاری به صورت IGTV در اینستاگرام و تلگرام در دسترس خواهد بود.

🔸دوستان گرامی می توانند سوال های خود را در قسمت کامنت این پیام مطرح کنند تا در گفتگو به سوالات پاسخ بدیم.

🔸اگر به دلیل مشغله کاریشان فرصت گفتگو با ایشان رو نداشتیم حتما قبل برگزاری جلسه اعلام خواهیم کرد

❇️ @AI_Python

❇️ @PyTens
#خارج_از_بحث
حرفی برای گفتن نمی‌مونه اما ی همچین افرادی نباید توی محیط‌های برنامه‌نویسی شغل پیدا کنند.
دیتایی ازین آدم موجود نیست انگار برای همین من از تصویری که طرف آمریکایی به اشتراک گذاشته استفاده می‌کنم تا تیم‌های ایرانی هم حواسشون رو جمع کنند.

ممنون از دوستانی که ریپورت کردند

Link
لینک مربوط به کارگاهی که در لایو صحبت شد :

ثبت‌نام در این کارگاه رایگان هست

https://www.acmt.ac.ir/services/data-science-in-practice-webinar/
محدودیت 512. توکن در bert به کمک خروجی جدید google research به 2048 رسیده توی این مقاله

SMITH
توی دوران قطع شدن اینترنت، همه مجبور و محکوم به استفاده از
Search engine
های داخلی بودیم، که مطمئناً مزخرف بود
اما چقدر خوب بود اگر کار رو به نیروی تخصصی سپرده می‌شد، یافتن جملات مشابه (البته فقط بین دیتای اخبار)
به کمک تنسورفلو، هوش مصنوعی

البته اینکه می‌گم فقط دیتای اخبار، منظورم کم بودن دیتا نیست (جستجوی ۵ خبر نزدیک در بین ۵.۰۰۰.۰۰۰ خبر، زمان جستجو تا 2.32ms پایین اومده)

(روی سیستم شخصی، اجرا شده)
پروژه‌ای برای مشتری درخواست کننده، زمانبندی و سخت‌افزار بسیار اهمیت داشت در این پروژه
#خارج_از_بحث

تک سوال :
CPU, GPU, HDD & SSD, NIC , RAM, COOLING SYSTEM , ...

اینهارو هم تولید می‌کنند یا قاب فلزی سرور رو رنگ می‌کنن فقط !؟

#خریته_فرا_زمینی :/
Hooshvare
مدل pretrain از GPT-2 رو در hugginface منتشر کرد.

شاید نتونید ازش بهره ببرید(تعداد پارامتر و ...) اما برای تولید دیتاست بسیار می‌تونه کمک کننده باشه

Hugging Face (GPT-2 Persian)
از دیپ‌لرنینگ برای کشتن پشه‌ها با لیزر استفاده شده

شاید بنظرتون جذاب نباشه، اما چندتا نکته راجبش بگم :
۱- تعداد prediction مورد نیاز
۲- پروژه روی Raspberry pi اجرا شده
۳- سرعت predict
۴- دقت predict
۵- زمان پاسخگویی مدل هوش مصنوعی + زمان پردازش و لیزر و ...


این پروژه شاید ساده و غیر جذاب بنظر بیاد، اما خیلی خیلی چیزهایی زیادی می‌شه ازش یاد گرفت.

از کنار این پروژه‌ها ساده رد نشید ...
قطعاً، شخصاً مشتری اینترنت ماهواره‌ای
SpaceX
خواهم بود.
#خارج_از_بحث

این ابزار احتمال بسیار زیاد بدرد شما هم میخوره،
قدیما ی پروژه
Free & OpenSource
بود به اسم
Synergy
کاری که این ابزار می‌کرد این بود که اجازه میداد یدونه
Mouse & Keyboard
رو بین چندتا سیستم به اشتراک بذارید، البته پروژه هنوز هست ولی پولی شده، KVM های سخت‌افزاری هم ی سری مشکلات دارند که گیمرها و اونایی که می‌خوان دو یا چند سیستم رو با python کنترل کنند می‌دونند.

ی ابزاری هست که از همین پروژه
Synergy

اومده به اسم barrier تمام خوبی‌های پروژه قبل رو داره و کاملاً هم free , OpenSource هست مهمتر اینکه lag هم نداره بر خلاف خیلی ابزارهای دیگه

توی کارهای دیپ‌لرنینگ (چندتا سیستم) و crawl و .... خیلی بدرد می‌خوره.

نصب ubuntu :
sudo snap install barrier

پشتیبانی ویندوز و مک و دیگر نسخه‌های لینوکس هم موجوده