DeepMind AI Expert – Telegram
DeepMind AI Expert
14.9K subscribers
1.28K photos
385 videos
120 files
2.26K links
مقالات کاربردی هوش مصنوعی در پایتون، علوم پزشکی، علوم انسانی، علوم اعصاب و...
دوره های آموزشی از دانشگاه های بزرگ و موسسات انلاین
@ffarzaddh
پژوهشگران هوش مصنوعی ایران

تبادلات پیام بدید
Download Telegram
استاد Andrew Ng فرمودند:

Last week, I described four design patterns for AI agentic workflows that I believe will drive significant progress this year: Reflection, Tool use, Planning and Multi-agent collaboration. Instead of having an LLM generate its final output directly, an agentic workflow prompts the LLM multiple times, giving it opportunities to build step by step to higher-quality output. Here, I'd like to discuss Reflection. For a design pattern that’s relatively quick to implement, I've seen it lead to surprising performance gains.

You may have had the experience of prompting ChatGPT/Claude/Gemini, receiving unsatisfactory output, delivering critical feedback to help the LLM improve its response, and then getting a better response. What if you automate the step of delivering critical feedback, so the model automatically criticizes its own output and improves its response? This is the crux of Reflection.

Take the task of asking an LLM to write code. We can prompt it to generate the desired code directly to carry out some task X. After that, we can prompt it to reflect on its own output, perhaps as follows:

Here’s code intended for task X:
[previously generated code]
Check the code carefully for correctness, style, and efficiency, and give constructive criticism for how to improve it.

Sometimes this causes the LLM to spot problems and come up with constructive suggestions. Next, we can prompt the LLM with context including (i) the previously generated code and (ii) the constructive feedback, and ask it to use the feedback to rewrite the code. This can lead to a better response. Repeating the criticism/rewrite process might yield further improvements. This self-reflection process allows the LLM to spot gaps and improve its output on a variety of tasks including producing code, writing text, and answering questions.

And we can go beyond self-reflection by giving the LLM tools that help evaluate its output; for example, running its code through a few unit tests to check whether it generates correct results on test cases or searching the web to double-check text output. Then it can reflect on any errors it found and come up with ideas for improvement.

Further, we can implement Reflection using a multi-agent framework. I've found it convenient to create two different agents, one prompted to generate good outputs and the other prompted to give constructive criticism of the first agent's output. The resulting discussion between the two agents leads to improved responses.

Reflection is a relatively basic type of agentic workflow, but I've been delighted by how much it improved my applications’ results in a few cases. I hope you will try it in your own work. If you’re interested in learning more about reflection, I recommend these papers:
- Self-Refine: Iterative Refinement with Self-Feedback, by Madaan et al. (2023)
- Reflexion: Language Agents with Verbal Reinforcement Learning, by Shinn et al. (2023)
- CRITIC: Large Language Models Can Self-Correct with Tool-Interactive Critiquing, by Gou et al. (2024)


I’ll discuss the other agentic design patterns as well in the future.
https://www.deeplearning.ai/the-batch/issue-242/

#هوش_مصنوعی #الگوریتمها

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍7😍2
سعی در کاهش هزینه ها، کیفیت و بهبود سرعت دارند.
SSM-Transformer open model

production-grade model based on Mamba architecture, Jamba achieves an unprecedented 3X throughput and fits 140K context on a single GPU.

AI21 just dropped an open source Mamba!

- MoE with 52B parameters.
- Active parameters: 12B.
- 256K Context length.
- Competitive performance to Mixtral!
- Open weights: Apache 2.0.

▪️ Jamba Huggingface
▪️ Jamba Website

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍4
Media is too big
VIEW IN TELEGRAM
یک مدل جذاب

SotA for both speech editing and zero-shot text-to-speech, Outperforming VALL-E, XTTS-v2, etc.

VoiceCraft works on in-the-wild data such as movies, random videos and podcasts


▪️ VoiceCraft: Zero-Shot Speech Editing and Text-to-Speech in the Wild

▪️ Demo

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍7👌2
#هوش_مصنوعی در خدمت فوتبال
TacticAI
دستیار هوش مصنوعی برای تاکتیک های فوتبال
منتشر شد
به عنوان بخشی از همکاری چند ساله خود با باشگاه لیورپول، ما یک سیستم هوش مصنوعی کامل ایجاد کردیم که می تواند مربیان را در مورد ضربات کرنر راهنمایی کند...
https://deepmind.google/discover/blog/tacticai-ai-assistant-for-football-tactics/?utm_source=twitter&utm_medium=social&utm_campaign=TacticAI/
👎3
اگر حال نوشتن ندارین، حرف بزنید تا هوش مصنوعی براتون مینویسه.

سایت زیر به صورت رایگان ابزار صوت به متن در زبانهای مختلف از جمله فارسی رو در اختیار شما قرار میده، از دست ندید.

لینک سایت:
https://speechtexter.com

پ.ن: بررسی کردم کیفیت خوبی داره

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍7👎5🆒21
تویتر من هستش اگه دوست داشتین اینجام میتونین منو دنبال کنین تویت فارسی انگلیسی اونجام منتشر میکنم منتظرتونم
https://twitter.com/farzadhss
👍15👎111
Forwarded from DeepMind AI Expert (Farzad 🦅)
Ten Years of Generative Adversarial Nets (GANs)_ A survey.pdf
868.1 KB
مقاله ای Survey از مدل GAN اینجا میتونین اطلاعات جامعتری که دوستان سوال داشتن بدس بیارن

#کتاب #ایده_جذاب #منابع

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍6
با یک پرامپت کتاب کامل می‌نویسه و با فرمت EPUB خروجی میده
https://github.com/mshumer/gpt-author

#آموزش #الگوریتمها

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍4
آیا می‌توانیم مکانیسم‌های پیش‌بینی نشده را در LMها درک و ویرایش کنیم؟

▪️ Sparse Feature Circuits: Discovering and Editing Interpretable Causal Graphs in Language Models

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍2
Forwarded from DeepMind AI Expert (Farzad 🦅)
Deep Learning Interviews.pdf
13.8 MB
مصاحبه‌های تخصصی یادگیری عمیق برای استخدامی

#کتاب #منابع

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍5👎1
Find task vectors, activations that encode task-specific information, which guide the model towards performing a task better than the original model w/o the need for input-output examples

▪️ Finding Visual Task Vectors

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍1
در تویتر سابق (ایکس کنونی) دکتر الهیاری مقاله جالبی رو بررسی کرده به نظرم خیلی موضوع پژوهشی جالبیه:

آیا "قدرت تو تعداد است" (strength in numbers) برای AI هم صادق است؟
قدرت مدلهای LLM برکسی پوشیده نیست. در انواع کارها از نوشتن و فهمیدن زبان تا ترجمه و ... ازشون استفاده میکنیم. ولی وقتی کار مورد نظر پیچیده باشه و به استدلال زیادی (reasoning) نیاز داره هنوز لنگ میزنن. راههای مختلفی برای بهبود کارایی این مدلها تو این مواقع هست. یکی از این راهها، استفاده از روشهای ensemble است. یعنی چندتا از این مدل‌ها رو با هم دیگه به کار گرفت. مشابه این روش را احتمالا قبلا شنیده باشید مثل mixture of experts.
یک مقاله جدید اومده ی تحقیق جامع کرده روی این موضوع (scaling property of LLM agents) و روش ساده ای را ارائه میده به اسم sampling-and-voting method (روش ساده نمونه‌گیری و رأی‌گیری). این روش شامل دو مرحله است. اول ورودی (input query) یک LLM، به طور تکراری به یک LLM واحد یا چندتا agent وارد می‌شود تا چندین خروجی تولید کند. سپس، برای تعیین نتیجه نهایی از رأی‌گیری اکثریت استفاده می‌شود. این روش مشابه متد Chain of thought است ولی اون پیچیدگی های اون را نداره. عکس زیر روش را نشون میده.
▪️ More Agents Is All You Need

#ایده_جذاب #مقاله

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍31🆒1
از این هم میتونین استفاده کنید استفاده رایگان داره

- free persistent storage
- free persistent environments
- unlimited background execution
- VSCode, PyCharm, (any IDE) integration


https://lightning.ai/pricing

#کتاب #منابع #پایتون #آموزش

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👌104👍3