DeepMind AI Expert – Telegram
DeepMind AI Expert
15K subscribers
1.28K photos
385 videos
120 files
2.26K links
مقالات کاربردی هوش مصنوعی در پایتون، علوم پزشکی، علوم انسانی، علوم اعصاب و...
دوره های آموزشی از دانشگاه های بزرگ و موسسات انلاین
@ffarzaddh
پژوهشگران هوش مصنوعی ایران

تبادلات پیام بدید
Download Telegram
https://www.linkedin.com/groups/12424311/
دانشجویان و فارغ التحصیلان مقاطع کارشناسی، ارشد و دکتری داخل کشور که به دنبال کارراهه ای برای علم داده و هوش مصنوعی هستند می توانند نظر بنده را در یک مقاله لینکدین مطالعه کنند که در آدرس زیر به اشتراک گذاشته شده. برخی قسمت های کلاس مقدمات یادگیری عمیق بنده هم به صورت ویدیو در همین گروه مباحثه لینکدین به اشتراک گذاشته شده البته به زبان انگلیسی است.
از اینکه به پیام ها بصورت شخصی و جداگانه نمی توانم پاسخ بدهم عذرخواهی می کنم ولی امیدوارم با این کارراهه و دیگر منابعی که هر از گاهی در لینکدین فارسی خود به اشتراک می گذارم به سوالات تا حدی پاسخ داده بشود. امیدوارم در این شرایط سخت، خبرهای موفقیت جوانان با استعداد ایرانی را بشنویم و رشد و شکوفایی آنها را شاهد باشیم.
https://www.linkedin.com/groups/12424311/
/ موفق باشید. افشین آشفته
👍3
Forwarded from Recommender system (MehriMoon 🌙)
یک خبر عالی: دیگه نوشتن کد توی Jupyter رو به ChatGPT بسپار

با Jupyter AI به طور مستقیم میتونی کدهات رو با نوشتن prompt مناسب تولید کنی

توی لینک های زیر یاد بگیرین چطور ازش استفاده کنین:
گیت هاب: https://lnkd.in/gKWbZTwR
داکیومنت: https://lnkd.in/gN5zYxtx
👍18
اینم مدل ترین شده این در هاگینگ فیس


https://huggingface.co/spaces/mostafaamiri/persianllama

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
در این مدل منتشر شده سعی شده همه چی واقعگرایانه تر باشه به ورودی متعهدانه تر باشند در این مدل هم Lora رو در عملکرد سعی کردند کمتر مورد استفاده قرار بگیره .
Let us create photos/paintings/avatars for anyone in any style within seconds.

▪️ PhotoMaker: Customizing Realistic Human Photos via Stacked ID Embedding
▪️ project

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍8👎1
چند مورد از TTS models اوپن سورس شده:

▪️ XTTS
▪️ YourTTS
▪️ FastSpeech2
▪️ VITS
▪️ TorToiSe
▪️ Pheme
▪️ EmotiVoice
▪️ StyleTTS
▪️ pflowtts_pytorch
▪️ VALL-E
▪️ OpenVoice
▪️ piper

پ.ن: موردهای یگه میشناسید کامنت کنید

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
4👍3
Forwarded from DeepMind AI Expert (Farzad 🦅)
اگر میخواید از بعضی مقاله های پولی مثل مدیوم استفاده کنید.
حتما یه سری به لینک های زیر بزنید.

📌 https://1ft.io

📌 https://12ft.io

📌 https://github.com/iamadamdev/bypass-paywalls-chrome

#مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍4
یه دوره جدید از امازون
▪️ Generative AI Foundations on AWS Technical Deep Dive Series

#منابع #هوش_مصنوعی #

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍8
این اتفاقاتی هستش که داره میفته کانادا هم به جمع کشورهای دیگه پیوست بعضی دانشگاه‌ها و رشته ها تهدیدی برای امنیت ملی اون کشور به حساب آورده.
👎22👌4🆒2
هرچی خوندین تا حالا بزارین کنار اینو بخونین
https://avt.im/blog/on-successful-research/


#مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍7
The main idea is to take two small models:
- a small base model (M2)
- a finetuned base model (M3)

1) The goal was to
A. instruction-tuning
B. domain adaptation
C. task-specific finetuning

improve a Llama 2 70B Base model to the level of Llama 2 70B Chat but without doing any RLHF to get the model from Base -> Chat.

2) They took a 10x smaller Llama 2 7B model and instruction-finetuned it.

3) After finetuning, they computed the difference in logits over the output vocabulary between 7B Base and 7B Finetuned

4) They applied the difference from 3) to the Llama 2 70B Base model. This pushed the 70B Base model's performance pretty close to 70B Chat.

▪️ Tuning Language Models by Proxy

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
2👍1
تاریخچه Text Embeddings

▪️ The 1950-2024 Text Embeddings Evolution Poster

#مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
🆒42
Faster RAG re-ranking with ColBERT

After re-ranking using GPT-4 yesterday, I tested out ColBERT for re-ranking today.

Test:
• Re-ranking Airbnb's 10-K, like before.

Results:
• ColBERT and GPT-4 were identical in ranking quality

However, ColBERT was lightning-fast.

Re-ranking speed:
• 3.41 secs for ColBERT
• 25.47 secs for GPT-4

ColBERT is a game-changer for re-ranking tasks.

Excited to try it out in production with Oxygen.

https://gist.github.com/virattt/b140fb4bf549b6125d53aa153dc53be6
👍3🆒2
Overcome Lost In Middle Phenomenon In RAG Using LongContextRetriver

▪️Lost in the Middle: How Language Models Use Long Contexts
https://arxiv.org/pdf/2307.03172.pdf