تا حالا سوالاتی از Quantization پرسیدید و جوابی براش نداشتید که کدوم روش مناسبه برای مسیله خودتون اینجا میتونین انواعش رو مطالعه کنید. یک رودمپی برای یادگیری LLMمیخواید این ریپازتوری خیلی مناسبیه تا جون آدمیزاد اینجا میتونین پیدا کنید 😂
🎓 LLM Course
#ایده_جذاب #منابع #مقدماتی #کلاس_آموزشی #یادگیری_ماشین #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🎓 LLM Course
#ایده_جذاب #منابع #مقدماتی #کلاس_آموزشی #یادگیری_ماشین #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4😍2
این مقاله به بررسی این سوال آیا می توان مدل های موجود را در یک مدل قوی تر ادغام کرد پرداخته است.
با معرفی FuseLLM گفتند چطوری از نقاط قوت LLMs برای استفاده در یک مدل یکپارچه استفاده کنیم.
▪️Knowledge Fusion of LLMs
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
با معرفی FuseLLM گفتند چطوری از نقاط قوت LLMs برای استفاده در یک مدل یکپارچه استفاده کنیم.
▪️Knowledge Fusion of LLMs
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥4❤2👍2
Last Man Standing
People In Planes
❤25👎15🔥5👌2👍1😍1
Forwarded from Recommender system (MehriMoon 🌙)
در دنیای علم داده، یادگیری ماشین، هوش مصنوعی و تحلیل داده، یکی از مشکلات رایج مواجهه با دادههای گمشده یا دادههای ناکارآمد است. اما این مشکل نباید مانع پیشرفت شود. روشهای زیادی برای مدیریت دادههای گمشده وجود دارد و بهترین راهکار به نوع داده و تحلیل موردنظر شما بستگی دارد. استراتژیهای حذف، که شامل حذف سطرها یا ستونهای دارای دادههای گمشده است، و تکنیکهای پر کردن، که شامل جایگزین کردن دادههای گمشده با مقادیر تخمینی یا پیشبینی شده است، از جمله روشهای رایج برای مدیریت دادههای گمشده هستند. نکات اضافی نیز وجود دارد که شامل بررسی الگوهای ناقصی در دادههایتان، تست روشهای مختلف و مقایسه نتایج، و آگاهی از محدودیتهای هر روش است. با پیروی از این نکات، میتوانید با دادههای گمشده در تحلیل دادههایتان برخورد کنید و نتایج دقیق و قابل اعتمادی به دست آورید.
😍4
Take Me To Church
Hozier
👍9👎4🆒2
Audio
👎4❤3
کتاب جدید منتشر شده
▪️ State Space Models: A Modern Approach
#کتاب #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ State Space Models: A Modern Approach
#کتاب #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
This media is not supported in your browser
VIEW IN TELEGRAM
وقتی که دیزاینرها قراره بی کار بشن 😀
مدل های بنیاد و تبدیل text-to-3D
«هرکسی در آینده میتونه دیزاین داخلی ساختمان خودشو به هوش مصنوعی بده و قبل چیدمان وسایل ساختمان میشه نظر #هوش_مصنوعی رو پرسید!»
▪️ Text-to-3D Foundation Model
#پروژه #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
مدل های بنیاد و تبدیل text-to-3D
«هرکسی در آینده میتونه دیزاین داخلی ساختمان خودشو به هوش مصنوعی بده و قبل چیدمان وسایل ساختمان میشه نظر #هوش_مصنوعی رو پرسید!»
▪️ Text-to-3D Foundation Model
#پروژه #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥2👍1👎1
Automatically calculate the family tree of a given model. It also displays the type of license each model uses (permissive, noncommercial, or unknown).
https://huggingface.co/spaces/mlabonne/model-family-tree
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://huggingface.co/spaces/mlabonne/model-family-tree
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍1
مقاله خوبیه راجب vision-language models
▪️ Red Teaming Visual Language Models
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Red Teaming Visual Language Models
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
مدلهای بنیادی و کلی اتفاق جذاب دیگه که میشه زندگیو راحتتر کرد!!
▪️ Lumiere: A Space-Time Diffusion Model for Video Generation
* Text-to-Video
* Image-to-Video
* Stylized Generation
* Inpainting
* Cinemagraphs
#پروژه #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Lumiere: A Space-Time Diffusion Model for Video Generation
* Text-to-Video
* Image-to-Video
* Stylized Generation
* Inpainting
* Cinemagraphs
#پروژه #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍5
#کتاب جدید #یادگیری_ماشین برای مهندسین منتشر شده علاقه داشتید مطالعه کنید
▪️ Machine Learning Engineering
#منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Machine Learning Engineering
#منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤2👍2
مقاله جدید متا
▪️ Deconstructing Denoising Diffusion Models for Self-Supervised Learning
#پروژه #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Deconstructing Denoising Diffusion Models for Self-Supervised Learning
#پروژه #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
استاد بزرگ گفتن :
"A 4-year-old child has seen 50x more information than the biggest LLMs that we have."
LLMs may have consumed all available text, but when it comes to other sensory inputs...they haven't even started.
#هوش_مصنوعی
پ.ن: نظر شما چیه ؟ کامنت کنید
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
"A 4-year-old child has seen 50x more information than the biggest LLMs that we have."
LLMs may have consumed all available text, but when it comes to other sensory inputs...they haven't even started.
#هوش_مصنوعی
پ.ن: نظر شما چیه ؟ کامنت کنید
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍20👎5
پادکست خوب میخواهید گوش کنید بفرمایید تو کار #فریلنسرر هستید جان وینسور، بنیانگذار علوم نوآوری دانشگاه هاروارد درباره فریلنسری صحبت کرده
▪️ HBR IdeaCast: What the New Freelance Economy Means for Your Talent Strategy
#پادکست #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ HBR IdeaCast: What the New Freelance Economy Means for Your Talent Strategy
#پادکست #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6
▪️ New embedding models and API updates
• text-embedding-3-small: 5x cheaper and stronger performance compared to the previous generation
• text-embedding-3-large: our best performing model, creating embeddings with up to 3072 dimensions
#پروژه #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
• text-embedding-3-small: 5x cheaper and stronger performance compared to the previous generation
• text-embedding-3-large: our best performing model, creating embeddings with up to 3072 dimensions
#پروژه #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
۵هزارتایی شد کانال الان حسودا پلاستیکیا میان میگن ۴۹۹۹ هستش اگه دیس لایک نمیزنین تعداد علاقمندان زیاد شد 😒🥹😍
❤78👎15😍4🆒4🔥3
یک لیستی از #مقاله های خوب و متفاوت با #ایده_جذاب
SHINOBI: Shape and Illumination using Neural Object Decomposition via BRDF Optimization In-the-wild
VMamba: Visual State Space Model
FreGrad: Lightweight and Fast Frequency-aware Diffusion Vocoder
CustomVideo: Customizing Text-to-Video Generation with Multiple Subjects
Rethinking FID: Towards a Better Evaluation Metric for Image Generation
DiffusionGPT: LLM-Driven Text-to-Image Generation System
Improving fine-grained understanding in image-text pre-training
ChatQA: Building GPT-4 Level Conversational QA Models
Self-Rewarding Language Models
WorldDreamer: Towards General World Models for Video Generation via Predicting Masked Tokens
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
SHINOBI: Shape and Illumination using Neural Object Decomposition via BRDF Optimization In-the-wild
VMamba: Visual State Space Model
FreGrad: Lightweight and Fast Frequency-aware Diffusion Vocoder
CustomVideo: Customizing Text-to-Video Generation with Multiple Subjects
Rethinking FID: Towards a Better Evaluation Metric for Image Generation
DiffusionGPT: LLM-Driven Text-to-Image Generation System
Improving fine-grained understanding in image-text pre-training
ChatQA: Building GPT-4 Level Conversational QA Models
Self-Rewarding Language Models
WorldDreamer: Towards General World Models for Video Generation via Predicting Masked Tokens
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍10
طریقه کارکرد GAN به زبان خیلی ساده و کاربردی به زبان تصویر
❗️ ادامه در پست بعدی
𝗚𝗼𝗮𝗹: Generate realistic 4-D data from 2-D noise.
[1] Given
↳ 4 noise vectors in 2D (N)
↳ 4 real data vectors in 4D (X)
[2] 🟩 Generator: First Layer
↳ Multiply the noise vectors with weights and biases to obtain new feature vectors
[3] 🟩 Generator: ReLU
↳ Apply the ReLU activation function, which has the effect of suppressing negative values. In this exercise, -1 and -2 are crossed out and set to 0.
[4] 🟩 Generator: Second Layer
↳ Multiply the features with weights and biases to obtain new feature vectors.
↳ ReLU is applied. But since every value is positive, there's no effect.
↳ These new feature vectors are the "Fake" data (F) generated by this simple 2-layer Generator network.
[5] 🟦 Discriminator: First Layer
↳ Feed both Fake data (F) and real data (X) to the first linear layer
↳ Multiply F and X with weights and biases to obtain new feature vectors.
↳ ReLU is applied. But since every value is positive, there's no effect.
[6] 🟦 Discriminator: Second Layer
↳ Multiply the features with one set of weights and bias to obtain new features.
↳ The intended effect is to reduce to just one feature value per data vector.
[7] 🟦 Discriminator: Sigmoid σ
↳ Convert features (Z) to probability values (Y) using the Sigmoid function
↳ 1 means the Discriminator is 100% confident the data is real.
↳ 0 means the Discriminator is 100% confident the data is fake.
[8] 🏋️ Training: 🟦 Discriminator
↳ Compute the loss gradients of the Discriminator by the simple equation of Y - YD. Why so simple? Because when we use sigmoid and binary entropy loss together, the math magically simplifies to this equation.
↳ YD are the target predictions from the Discriminator's perspective. The Discriminator must learn to predict 0 for the four Fake data (F) and 1 for the four Real data (X). YD=[0,0,0,0,1,1,1,1].
↳ Note that the Discriminator's loss involves both the Fake data and Real data.
↳ With the loss gradients computed, we can kickoff the back propagation process to update the Discriminator's weights and biases (blue borders).
[9] 🏋️ Training: 🟩 Generator
↳ Compute the loss gradients of the Generator by the simple equation of Y - YG.
↳ YG are the target predictions from the Generator's perspective. The Generator must fool the Discriminator into predicting 1 for the four Fake data (F). YG=[1,1,1,1].
↳ Note that the Generator's loss involves only the Fake data.
↳ With the loss gradients computed, we can kickoff the back propagation process to update the Generator's weights and biases (green borders).
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❗️ ادامه در پست بعدی
𝗚𝗼𝗮𝗹: Generate realistic 4-D data from 2-D noise.
[1] Given
↳ 4 noise vectors in 2D (N)
↳ 4 real data vectors in 4D (X)
[2] 🟩 Generator: First Layer
↳ Multiply the noise vectors with weights and biases to obtain new feature vectors
[3] 🟩 Generator: ReLU
↳ Apply the ReLU activation function, which has the effect of suppressing negative values. In this exercise, -1 and -2 are crossed out and set to 0.
[4] 🟩 Generator: Second Layer
↳ Multiply the features with weights and biases to obtain new feature vectors.
↳ ReLU is applied. But since every value is positive, there's no effect.
↳ These new feature vectors are the "Fake" data (F) generated by this simple 2-layer Generator network.
[5] 🟦 Discriminator: First Layer
↳ Feed both Fake data (F) and real data (X) to the first linear layer
↳ Multiply F and X with weights and biases to obtain new feature vectors.
↳ ReLU is applied. But since every value is positive, there's no effect.
[6] 🟦 Discriminator: Second Layer
↳ Multiply the features with one set of weights and bias to obtain new features.
↳ The intended effect is to reduce to just one feature value per data vector.
[7] 🟦 Discriminator: Sigmoid σ
↳ Convert features (Z) to probability values (Y) using the Sigmoid function
↳ 1 means the Discriminator is 100% confident the data is real.
↳ 0 means the Discriminator is 100% confident the data is fake.
[8] 🏋️ Training: 🟦 Discriminator
↳ Compute the loss gradients of the Discriminator by the simple equation of Y - YD. Why so simple? Because when we use sigmoid and binary entropy loss together, the math magically simplifies to this equation.
↳ YD are the target predictions from the Discriminator's perspective. The Discriminator must learn to predict 0 for the four Fake data (F) and 1 for the four Real data (X). YD=[0,0,0,0,1,1,1,1].
↳ Note that the Discriminator's loss involves both the Fake data and Real data.
↳ With the loss gradients computed, we can kickoff the back propagation process to update the Discriminator's weights and biases (blue borders).
[9] 🏋️ Training: 🟩 Generator
↳ Compute the loss gradients of the Generator by the simple equation of Y - YG.
↳ YG are the target predictions from the Generator's perspective. The Generator must fool the Discriminator into predicting 1 for the four Fake data (F). YG=[1,1,1,1].
↳ Note that the Generator's loss involves only the Fake data.
↳ With the loss gradients computed, we can kickoff the back propagation process to update the Generator's weights and biases (green borders).
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4
This media is not supported in your browser
VIEW IN TELEGRAM
طریقه کارکرد GAN به زبان خیلی ساده و کاربردی به زبان تصویر ( گیف)
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3👎1