Armin's Notes 🪴 – Telegram
Armin's Notes 🪴
146 subscribers
71 photos
13 videos
1 file
55 links
إحتضن نَفسك بِنَفسك، لَن يحارب أحد مِن أجلك 💛

اینجا بیشتر می‌نویسم... 🌿
از چیزایی که به نظرم جالب رسیده 🦋
موزیکایی که دوس داشتم 🌚
مقالات و کتابایی که خوندم 📚
و چیزای دیگه 💫

🃏 t.me/PanicDev

🃏 t.me/LaravelGroups

🃏 t.me/MentionHex
Download Telegram
🔥3👍1
میبینید که ما یک فضای ۳ بعدی تونستیم چند هزار برابر بهینه سازی نسبت به روش One Hot Encoding داشته باشیم - این همون کاریه که Word Embedding های مدرن برای ما انجام میدن.

مزایاشون چیه؟ فکر کنم میدونید و دیگه نیاز به گفتن هم نداره.


ما حتی با نگاه کردن به این بردار هم میتونیم ارتباط بین کلمات و صفت‌ها و ... رو تشخیص بدیم. 😁

مورد بعدی اینه که کلمات مشابه - بردار‌های مشابه‌تری دارن - مثلا embedding نهایی برای کلمه "خواب" و "بیداری" فاصله کمتری نسبت به "خواب" و "پادشاه" دارن.

منظور از فاصله - فاصله اقلیدسی هست.

این دوتا رفرنس رو یه نگاهی بندازید.

https://en.wikipedia.org/wiki/Cosine_similarity

https://www.sciencedirect.com/topics/computer-science/cosine-similarity

- جلوتر بیشتر درمودشون میگیم.
👍3
مورد بعدی اینکه اگه دقت کنید ماتریس نهایی خیلی متراکم تر شده و داره دیتای بهتری رو به ما میده - ضمن اینکه روابط بین کلمات هم به وضوح مشخصه

مثلا شما اگه از پادشاه به سمت ملکه حرکت کنید - روند حرکتتون دقیقا مشابه حرکتی خواهد بود که از پسر به دختر انجام میدید.
👍2
نکته‌ای که وجود داره اینه که توی دیتای واقعی - بردارهای ما و ابعادشون خیلی زیاد میشه و ما نمیتونیم مثل عکس های بالا انتساب هارو دستی انجام بدیم و خروجیشون رو به راحتی نمایش بدیم - درنتیجه الگوریتم هایی مثل GloVe که بالاتر هم بهش اشاره کردیم ایجاد شده تا این زحمت رو از دوش ما برداره.
👍3
حالا فرض کنید ما یک لغت‌نامه بزرگتر داریم و یک سیستم هوشمند خصوصیات و وزن‌دهی هارو برای ما انجام داده.

ما الان میتونیم یک خروجی انتزاعی از روابط کلمات بر اساس فاصله اقلیدسی کلمات لغت‌نامه‌مون و شباهتشون بر اساس شباهت کسینوسی ببینیم.

— رفرنس هاشون رو بالاتر هم ارسال کردم

خروجی چیزی شبیه این خواهد شد:
👍1
اگه دقت کنید - کلمات مشابه توی مکان‌های مشابه قرار گرفتن - یعنی توی فضای N - D بعدی همگرا شدن و Vector های مشابهی دارن که درجهت مشابهی داره حرکت میکنه.
👍1
Armin's Notes 🪴
Photo
اینجا تقریبا همون نقطه‌ای هست که ما نیاز داریم داخلش باشیم.

هرکدوم از کلمات توی این تصویر یک Word Embedding هستند که یک مجموعه‌ای از اعداد هستند که تبدیل به یک Word Vector شدن و ما اینجا داریمشون.

فضایی که این کلمات داخلشون قرار گرفتن هم یک Vector Database هست.
پس روال به چه صورت شد؟

۱. کلمه خام رو داریم
۲. با استفاده از روش‌های انکدینگ کلمه رو Encode میکنیم
۳. میرسیم به یک مجموعه از اعداد که بهش میگیم Word Vector
۴. این ‌Word Vector یا بردار کلمه‌ای که در نهایت دریافت کردیم رو ذخیره میکنیم.


به کل این پروسه (بجز ذخیره سازی) میگیم Word Embedding و به محلی که ذخیره سازی توش انجام میشه میگیم Vector Database
👍3
تا همینجا فکر میکنم کافیه و به اندازه کافی درمورد وکتور دیتابیس ها و بردار ها و کلمات یاد گرفتیم - امشب میتونیم بریم و یک لیستی از کلمات رو تبدیل به وکتور کنیم و توی یک وکتور دیتابیس ذخیره کنیم و روشون سرچ بزنیم و باهاشون صحبت کنیم 🤩
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍2
اقا این نوشیدنی ادایی جدیدارو دیدین؟ TorshX
این فلفلی‌شه
به گفته خودشون اینطوریه که هرکدوم از ادیشن‌هاش‌ رو (مثلا مکزیکو فلفلیه...) امتحان کنید؛ یه تجربه جدید میشه براتون که توی ۳ مرحله تقسیمش کردن 👀

1. Xplore the unique flavors
2. Xpect the xtreme taste
3. Xplosion begins with sourness
🫡1
اقا واقعا باحال بود - بگیرید تست کنید 🤣
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
⚡️🥳
🎉5