Emmanuel Tsekleves:
As a Professor I would say PhDs can do several things better than Profs. Here is an non-exhaustive list:
Master the art of hyper-focused research
Turn coffee into groundbreaking theories
Expertise in deciphering jargon like it's a second language
Excel at explaining complex concepts in 280 characters or less
Generate new knowledge like it's a daily routine
Embrace rejection with the enthusiasm of a serial entrepreneur
Transform data into visual stories that rival Pixar animations
Keep calm, carry on, and produce groundbreaking work under pressure.
#کلاس_آموزشی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
As a Professor I would say PhDs can do several things better than Profs. Here is an non-exhaustive list:
Master the art of hyper-focused research
Turn coffee into groundbreaking theories
Expertise in deciphering jargon like it's a second language
Excel at explaining complex concepts in 280 characters or less
Generate new knowledge like it's a daily routine
Embrace rejection with the enthusiasm of a serial entrepreneur
Transform data into visual stories that rival Pixar animations
Keep calm, carry on, and produce groundbreaking work under pressure.
#کلاس_آموزشی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6
DeepMind AI Expert
در این مقاله و مقاله جدیدی که در اومده
RAG
🔹
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
🔹
✔️مدل های RAG، ساختار جدیدی برای مدل های Retrieval هستن که با knowledge سرو کار دارن و تلاش میکنند وقتی جنریت میکنن نالج محور باشن!
✔️ منظور از knowledge، هر دیتابیسی که شامل اطلاعاتی هستش مثل ویکی پدیا، البته فقط ویکی پدیا نیست لزوما
✔️ همونطور که گفتم این یک ساختار جدید هستش، Seq2Seq و نسبت به ساختار های E2E عادی و همچنین کاندیدا محور بهتر کار کرده.
✔️به خاطر محبوبیت و کاراییش، Huggingface هم این ساختار رو به کتابخونه ترنسفورمر ها اضافه کرده.
▪️
Introducing Self-RAG, a new easy-to-train, customizable, and powerful framework for making an LM learn to retrieve, generate, and critique its own outputs and retrieved passages, by using model-predicted reflection tokens.
📜 Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection
🌐 Project
#مقاله #ایده_جذاب #دیتاست
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ @css_nlp
RAG
🔹
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
🔹
✔️مدل های RAG، ساختار جدیدی برای مدل های Retrieval هستن که با knowledge سرو کار دارن و تلاش میکنند وقتی جنریت میکنن نالج محور باشن!
✔️ منظور از knowledge، هر دیتابیسی که شامل اطلاعاتی هستش مثل ویکی پدیا، البته فقط ویکی پدیا نیست لزوما
✔️ همونطور که گفتم این یک ساختار جدید هستش، Seq2Seq و نسبت به ساختار های E2E عادی و همچنین کاندیدا محور بهتر کار کرده.
✔️به خاطر محبوبیت و کاراییش، Huggingface هم این ساختار رو به کتابخونه ترنسفورمر ها اضافه کرده.
▪️
Introducing Self-RAG, a new easy-to-train, customizable, and powerful framework for making an LM learn to retrieve, generate, and critique its own outputs and retrieved passages, by using model-predicted reflection tokens.
📜 Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection
🌐 Project
#مقاله #ایده_جذاب #دیتاست
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ @css_nlp
قبلتر اینجا راجب مدل RAG صحبت کردیم اما اینجا در مقاله جدیدی ساختارهای جدیدتری بهش اضافه شده اینکارها رو انجام میده از جمله:
Input: The input can be a text or image query.
Embeddings: You can natively embed/index images with joint embeddings (CLIP). You can choose to embed text the same way or use specialized text embeddings (e.g. ada)
Storage: Use a vector database to store images. The image file itself could live in a separate docstore or in a vector db. You can use the same vector db for image/text storage or separate collections
Retrieval: Given a user query, the retrieved context can be text, images or both. If we use separate image/text embeddings, you need two retrieval calls.
Synthesis: We can use either a multi-modal model (GPT-4V) that can take in both text and images, or a standard LLM (gpt-4-turbo) that takes in just text. If the latter, you may need to caption/summarize each image into text.
* Response: The returned result can be text or images.
چیزی که در این مقاله بهش،پرداخته شده:
💡 More multi-modal embeddings/LLMs
💡 More ways to store images/text in different storage systems
💡 More ways to combine/apply lessons from text retrieval to image retrieval
💡 More ways to synthesize over arbitrary text/images
▪️ Paper
▪️ GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Input: The input can be a text or image query.
Embeddings: You can natively embed/index images with joint embeddings (CLIP). You can choose to embed text the same way or use specialized text embeddings (e.g. ada)
Storage: Use a vector database to store images. The image file itself could live in a separate docstore or in a vector db. You can use the same vector db for image/text storage or separate collections
Retrieval: Given a user query, the retrieved context can be text, images or both. If we use separate image/text embeddings, you need two retrieval calls.
Synthesis: We can use either a multi-modal model (GPT-4V) that can take in both text and images, or a standard LLM (gpt-4-turbo) that takes in just text. If the latter, you may need to caption/summarize each image into text.
* Response: The returned result can be text or images.
چیزی که در این مقاله بهش،پرداخته شده:
💡 More multi-modal embeddings/LLMs
💡 More ways to store images/text in different storage systems
💡 More ways to combine/apply lessons from text retrieval to image retrieval
💡 More ways to synthesize over arbitrary text/images
▪️ Paper
▪️ GitHub
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤2👍2
شرکت Nvidia یه لایبرری جدید داده که سرعت پردازش دیتافریمهای پاندا را تا ۱۵۰ برابر افزایش میده. تنها کاری که باید بکنی اینه که این دستور را تو جوپیتر ران کنی:
▪️ Google Colab
▪️ GitHub
#پایتون #برنامه_نویسی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Import pandas as pd
▪️ Google Colab
▪️ GitHub
#پایتون #برنامه_نویسی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤7👍4
Media is too big
VIEW IN TELEGRAM
اگه دوست دارید به llm قابلیت اجرای کد تو سیستمتون را بدید ابزار interpreter را استفاده کنید. قابلیت جدید: میتونید کامپوننتهای مختلف را با استفاده از عکسشون جنریت کنید.
▪️ GitHub
#پایتون #برنامه_نویسی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ GitHub
#پایتون #برنامه_نویسی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🆒2👍1
بهترین و سریعترین روش سرچ، استفاده از vector database هاست. یعنی شما متن، صدا، تصویر و ویدیو و… را به یه سری بردار تبدیل میکنی و بعد با الگوریتمهای مختلف مثل k- nearest neighbor از بین این بردارها شبیه ترین بردار به بردارِ سوالت را پیدا میکنی و اینجوری مثلا تصویر را پیدا میکنی. حالا اگه دوست دارید بدونید نتفلیکس چطوری از این تکنیک برای درست کردن تریلر برای فیلماش استفاده میکنه این بلاگ را بخوانید.
https://netflixtechblog.com/building-in-video-search-936766f0017c
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://netflixtechblog.com/building-in-video-search-936766f0017c
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍8❤1😍1
دکتر Yann LeCun کورسی رو که دانشگاه نیویورک تدریس میکه رو اوپن سورس منتشر کرده دوست داشتید ببینیدش
▪️ Transforming Deep Learning Education with Yann LeCun and Alfredo Canziani’s Free Online Course
#کلاس_آموزشی #منابع #یادگیری_عمیق
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Transforming Deep Learning Education with Yann LeCun and Alfredo Canziani’s Free Online Course
#کلاس_آموزشی #منابع #یادگیری_عمیق
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍9❤1
اگه میخواهید که با وب اپ یا browser مثل chatGPT ازش استفاده کنید و فرانت اند کارید، این ریپو کارتونو راحت میکنه.
https://github.com/ykhli/local-ai-stack
#پایتون #برنامه_نویسی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://github.com/ykhli/local-ai-stack
#پایتون #برنامه_نویسی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍1
چطور یه Copilot مجانی و لوکال برای خودمون درست کنیم؟
۱- دوباره میریم سراغ مدلهای LLM اوپن سورس مثل Mistral و codellama.
قدم اول نصب Ollama هست. بعد از نصب مدلی که میخواهید را با یه command دانلود میکنید. مثلا:
ollama pull codellama
۲- بعد باید این VScode Extension را نصب کنید:
Code GPT: Chat & AI Agents
۳- مرحله بعد تنظیم این اکستنش هست:(توی ویدیو سریع از روی تنظیم ۲ رد شدم!)
- Code GPT API Key: Ollama
- Code GPT Model: codellama
- Code GPT Autocomplete: codellama
۴- میتونید از مدلهای دیگه هم استفاده کنید. من اینجا برای دمو از codellama استفاده کردم.
دیگه الان Copilot آماده است. میتونید بازش کنید توی navbar کناری و استفاده کنید. میتونید برای توضیح کد هم استفاده کنید. کافیه کد را کپی کنید توی چت و بهش بگید توضیح بده براتون. سرعت کدینگ را خیلی میبره بالا.
#پایتون #برنامه_نویسی #هوش_مصنوعی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
۱- دوباره میریم سراغ مدلهای LLM اوپن سورس مثل Mistral و codellama.
قدم اول نصب Ollama هست. بعد از نصب مدلی که میخواهید را با یه command دانلود میکنید. مثلا:
ollama pull codellama
۲- بعد باید این VScode Extension را نصب کنید:
Code GPT: Chat & AI Agents
۳- مرحله بعد تنظیم این اکستنش هست:(توی ویدیو سریع از روی تنظیم ۲ رد شدم!)
- Code GPT API Key: Ollama
- Code GPT Model: codellama
- Code GPT Autocomplete: codellama
۴- میتونید از مدلهای دیگه هم استفاده کنید. من اینجا برای دمو از codellama استفاده کردم.
دیگه الان Copilot آماده است. میتونید بازش کنید توی navbar کناری و استفاده کنید. میتونید برای توضیح کد هم استفاده کنید. کافیه کد را کپی کنید توی چت و بهش بگید توضیح بده براتون. سرعت کدینگ را خیلی میبره بالا.
#پایتون #برنامه_نویسی #هوش_مصنوعی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍7❤3
یک ورکشاپی که در #کنفرانس CoRL 2023 ارایه شده است میتونید آینده تحقیقات و #ایده_جذاب مقالات رو از اینجا متوجه بشید
▪️ Towards Reliable and Deployable Learning-Based Robotic Systems
#مقاله #کلاس_آموزشی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Towards Reliable and Deployable Learning-Based Robotic Systems
#مقاله #کلاس_آموزشی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤5
چطور متن را به صدا تبدیل کنیم روی کامپیوتر خودمون به صورت لوکال؟
۱/ یکی از راحتترین روشها استفاده از لایبرری coqui هست. مرحله اول باید نصبش کنید.
کلی اطلاعات تو وبساستشون هست:
https://tts.readthedocs.io/en/latest/index.html
بعد ترمینال را باز کنید و این دستور را بزنید تا مدلهایی که داره را بهتون نشون بده. اینها مدلهای صدایی مختلف مثل خانم یا آقا و با لهجه های مختلف هستند. همچنین مدل برای زبانهای غیر انگلیسی.
اسم این مدلها پترن خاصی دارند:
که میتونید بفهمید زبان مدل چیه، یا روی چه دیتاستی train شده. اطلاعات کامل برای هر مدل تو وبسایتشون هست. بعد ۲ راه دارید که متن را بهش بدید براتون تبدیل کنه. ترمینال یا از طریق اپ.
از طریق ترمینال دستور زیر را وارد میکنید که شامل متن، مدل مورد نظر و محل فایل تبدیل شده خروجی میشه.دقت کنید دفعه اول باید مدل دانلود بشه.
از طریق وب اپ: دستور زیر را استفاده کنید. دقت کنید که اگه مدل قبلا دانلود نشده باشه، اول دانلودش میکنه و ممکنه یه کمی طول بکشه بسته به اندازه مدل. و بعد URL را اپ را نشون میده. روش کلیک کنید باید این صفحه را ببینید.
الان دیگه متن را وارد میکنید و بعد از چند لحظه یه پلیر میبینید که شروع میکنه به پخش صدای متن با لهجه اون مدلی که انتخاب کردید. میتونید فایل صوتی را هم دانلود کنید. یا مدل را عوض کنید و دوباره امتحان کنید. همه چی روی کامپیوتر خودتون هست.
پ.ن: میتونین فایل صوتی که درست میکنه را بدین به Whisper و خروجی srt برای تولید زیرنویس بگیری.
#الگوریتمها #آموزش #پایتون #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
۱/ یکی از راحتترین روشها استفاده از لایبرری coqui هست. مرحله اول باید نصبش کنید.
pip install TTS
کلی اطلاعات تو وبساستشون هست:
https://tts.readthedocs.io/en/latest/index.html
بعد ترمینال را باز کنید و این دستور را بزنید تا مدلهایی که داره را بهتون نشون بده. اینها مدلهای صدایی مختلف مثل خانم یا آقا و با لهجه های مختلف هستند. همچنین مدل برای زبانهای غیر انگلیسی.
tts --list_models
اسم این مدلها پترن خاصی دارند:
<type>/<language>/<dataset>/<model_na
که میتونید بفهمید زبان مدل چیه، یا روی چه دیتاستی train شده. اطلاعات کامل برای هر مدل تو وبسایتشون هست. بعد ۲ راه دارید که متن را بهش بدید براتون تبدیل کنه. ترمینال یا از طریق اپ.
از طریق ترمینال دستور زیر را وارد میکنید که شامل متن، مدل مورد نظر و محل فایل تبدیل شده خروجی میشه.دقت کنید دفعه اول باید مدل دانلود بشه.
tts --text "Text for TTS" \
--model_name "<type>/<language>/<dataset>/<model_name>" \
--out_path folder/to/save/output.wav
از طریق وب اپ: دستور زیر را استفاده کنید. دقت کنید که اگه مدل قبلا دانلود نشده باشه، اول دانلودش میکنه و ممکنه یه کمی طول بکشه بسته به اندازه مدل. و بعد URL را اپ را نشون میده. روش کلیک کنید باید این صفحه را ببینید.
الان دیگه متن را وارد میکنید و بعد از چند لحظه یه پلیر میبینید که شروع میکنه به پخش صدای متن با لهجه اون مدلی که انتخاب کردید. میتونید فایل صوتی را هم دانلود کنید. یا مدل را عوض کنید و دوباره امتحان کنید. همه چی روی کامپیوتر خودتون هست.
پ.ن: میتونین فایل صوتی که درست میکنه را بدین به Whisper و خروجی srt برای تولید زیرنویس بگیری.
#الگوریتمها #آموزش #پایتون #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6🔥4❤1
تا به حال فکر کردین چطور میشه که عکس را به html تبدیل کرد؟!. به طبع باید از مدلهای LSTM استفاده کرد که درست کردن دیتاست و train کردنشون خیلی وقتگیر هست. و تنها کار جالب هم pix2code بود:
https://blog.floydhub.com/turning-design-mockups-into-code-with-deep-learning/
الان دیگه ولی اوضاع خیلی فرق کرده!
با فراگیر شدن Generative AI دیگه اینقدر ابزارهای مختلف درست میشه، که گاهی «یه ماه» قدیم حساب میشه. 😂 ولی در عین حال تا خیلی از این ابزارها و تکنولوژیها به صورت فراگیر تو کمپانیها به مرحله پروداکشن برسه فاصله هست. پس existential crisis بهتون راه پیدا نکنه!
▪️ لینک ۱
▪️ لینک
▪️ گیتهاب
#آموزش #پایتون #هوش_مصنوعی #برنامه_نویسی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://blog.floydhub.com/turning-design-mockups-into-code-with-deep-learning/
الان دیگه ولی اوضاع خیلی فرق کرده!
با فراگیر شدن Generative AI دیگه اینقدر ابزارهای مختلف درست میشه، که گاهی «یه ماه» قدیم حساب میشه. 😂 ولی در عین حال تا خیلی از این ابزارها و تکنولوژیها به صورت فراگیر تو کمپانیها به مرحله پروداکشن برسه فاصله هست. پس existential crisis بهتون راه پیدا نکنه!
▪️ لینک ۱
▪️ لینک
▪️ گیتهاب
#آموزش #پایتون #هوش_مصنوعی #برنامه_نویسی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4❤3
DeepMind AI Expert
Video
در قبل عکسها رو به html تبدیل کنیم اینجای مورد،دیگه هست
https://github.com/abi/screenshot-to-code
https://github.com/abi/screenshot-to-code
GitHub
GitHub - abi/screenshot-to-code: Drop in a screenshot and convert it to clean code (HTML/Tailwind/React/Vue)
Drop in a screenshot and convert it to clean code (HTML/Tailwind/React/Vue) - abi/screenshot-to-code
👌2
ایکس یه IDE داده مخصوص Prompt Engineering که البته اولش فقط در دسترس یوزرهای خاصه.
https://x.ai/prompt-ide/
#مقاله #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://x.ai/prompt-ide/
#مقاله #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
DeepMind AI Expert
بهترین و سریعترین روش سرچ، استفاده از vector database هاست. یعنی شما متن، صدا، تصویر و ویدیو و… را به یه سری بردار تبدیل میکنی و بعد با الگوریتمهای مختلف مثل k- nearest neighbor از بین این بردارها شبیه ترین بردار به بردارِ سوالت را پیدا میکنی و اینجوری مثلا…
قبلتر راجب vector databaseها مقالهای معرفی کرده بودم و اینکه ایده این چطوری به وجود اومده؛ از این مقاله متا که search engine معرفی کرده اومده، به نظرم خیلی میتونین کارهای ارزشمندتری رو پیش ببرید مقالات اینده روی وِکتور دیتابیس ها خواهد بود.
▪️ Reading Wikipedia to Answer Open-Domain Questions
در ادامه توجهتون رو به این تویت در شرکت ایکس( توئیتر سابق) جلب میکنم
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Reading Wikipedia to Answer Open-Domain Questions
در ادامه توجهتون رو به این تویت در شرکت ایکس( توئیتر سابق) جلب میکنم
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
از دکتر مهدی الهیاری خیلی چیزا رو یادگرفتم اینجا یه کار خفن کرده اگه دوست دارید سریع فکراتون را به توییت تبدیل کنید یا حال تایپ کردن نداشتید ازش استفاده کنید. سعی میکنم کدش رو ازشون بگیرم که بتونین توسعه بدید هرچیند مدلهاش اوپن سورس وجودداره.
moments-olive.vercel.app
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
moments-olive.vercel.app
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥9😍4👍3
DeepMind AI Expert
از دکتر مهدی الهیاری خیلی چیزا رو یادگرفتم اینجا یه کار خفن کرده اگه دوست دارید سریع فکراتون را به توییت تبدیل کنید یا حال تایپ کردن نداشتید ازش استفاده کنید. سعی میکنم کدش رو ازشون بگیرم که بتونین توسعه بدید هرچیند مدلهاش اوپن سورس وجودداره. moments-olive.vercel.app…
سورس کد پست بالا
https://github.com/mallahyari/transonic
https://github.com/mallahyari/transonic
GitHub
GitHub - mallahyari/transonic
Contribute to mallahyari/transonic development by creating an account on GitHub.
👌5🆒3👍1