استاد Andrew Ng فرمودند:
Last week, I described four design patterns for AI agentic workflows that I believe will drive significant progress this year: Reflection, Tool use, Planning and Multi-agent collaboration. Instead of having an LLM generate its final output directly, an agentic workflow prompts the LLM multiple times, giving it opportunities to build step by step to higher-quality output. Here, I'd like to discuss Reflection. For a design pattern that’s relatively quick to implement, I've seen it lead to surprising performance gains.
You may have had the experience of prompting ChatGPT/Claude/Gemini, receiving unsatisfactory output, delivering critical feedback to help the LLM improve its response, and then getting a better response. What if you automate the step of delivering critical feedback, so the model automatically criticizes its own output and improves its response? This is the crux of Reflection.
Take the task of asking an LLM to write code. We can prompt it to generate the desired code directly to carry out some task X. After that, we can prompt it to reflect on its own output, perhaps as follows:
Here’s code intended for task X:
[previously generated code]
Check the code carefully for correctness, style, and efficiency, and give constructive criticism for how to improve it.
Sometimes this causes the LLM to spot problems and come up with constructive suggestions. Next, we can prompt the LLM with context including (i) the previously generated code and (ii) the constructive feedback, and ask it to use the feedback to rewrite the code. This can lead to a better response. Repeating the criticism/rewrite process might yield further improvements. This self-reflection process allows the LLM to spot gaps and improve its output on a variety of tasks including producing code, writing text, and answering questions.
And we can go beyond self-reflection by giving the LLM tools that help evaluate its output; for example, running its code through a few unit tests to check whether it generates correct results on test cases or searching the web to double-check text output. Then it can reflect on any errors it found and come up with ideas for improvement.
Further, we can implement Reflection using a multi-agent framework. I've found it convenient to create two different agents, one prompted to generate good outputs and the other prompted to give constructive criticism of the first agent's output. The resulting discussion between the two agents leads to improved responses.
Reflection is a relatively basic type of agentic workflow, but I've been delighted by how much it improved my applications’ results in a few cases. I hope you will try it in your own work. If you’re interested in learning more about reflection, I recommend these papers:
- Self-Refine: Iterative Refinement with Self-Feedback, by Madaan et al. (2023)
- Reflexion: Language Agents with Verbal Reinforcement Learning, by Shinn et al. (2023)
- CRITIC: Large Language Models Can Self-Correct with Tool-Interactive Critiquing, by Gou et al. (2024)
I’ll discuss the other agentic design patterns as well in the future.
https://www.deeplearning.ai/the-batch/issue-242/
#هوش_مصنوعی #الگوریتمها
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Last week, I described four design patterns for AI agentic workflows that I believe will drive significant progress this year: Reflection, Tool use, Planning and Multi-agent collaboration. Instead of having an LLM generate its final output directly, an agentic workflow prompts the LLM multiple times, giving it opportunities to build step by step to higher-quality output. Here, I'd like to discuss Reflection. For a design pattern that’s relatively quick to implement, I've seen it lead to surprising performance gains.
You may have had the experience of prompting ChatGPT/Claude/Gemini, receiving unsatisfactory output, delivering critical feedback to help the LLM improve its response, and then getting a better response. What if you automate the step of delivering critical feedback, so the model automatically criticizes its own output and improves its response? This is the crux of Reflection.
Take the task of asking an LLM to write code. We can prompt it to generate the desired code directly to carry out some task X. After that, we can prompt it to reflect on its own output, perhaps as follows:
Here’s code intended for task X:
[previously generated code]
Check the code carefully for correctness, style, and efficiency, and give constructive criticism for how to improve it.
Sometimes this causes the LLM to spot problems and come up with constructive suggestions. Next, we can prompt the LLM with context including (i) the previously generated code and (ii) the constructive feedback, and ask it to use the feedback to rewrite the code. This can lead to a better response. Repeating the criticism/rewrite process might yield further improvements. This self-reflection process allows the LLM to spot gaps and improve its output on a variety of tasks including producing code, writing text, and answering questions.
And we can go beyond self-reflection by giving the LLM tools that help evaluate its output; for example, running its code through a few unit tests to check whether it generates correct results on test cases or searching the web to double-check text output. Then it can reflect on any errors it found and come up with ideas for improvement.
Further, we can implement Reflection using a multi-agent framework. I've found it convenient to create two different agents, one prompted to generate good outputs and the other prompted to give constructive criticism of the first agent's output. The resulting discussion between the two agents leads to improved responses.
Reflection is a relatively basic type of agentic workflow, but I've been delighted by how much it improved my applications’ results in a few cases. I hope you will try it in your own work. If you’re interested in learning more about reflection, I recommend these papers:
- Self-Refine: Iterative Refinement with Self-Feedback, by Madaan et al. (2023)
- Reflexion: Language Agents with Verbal Reinforcement Learning, by Shinn et al. (2023)
- CRITIC: Large Language Models Can Self-Correct with Tool-Interactive Critiquing, by Gou et al. (2024)
I’ll discuss the other agentic design patterns as well in the future.
https://www.deeplearning.ai/the-batch/issue-242/
#هوش_مصنوعی #الگوریتمها
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍7😍2
سعی در کاهش هزینه ها، کیفیت و بهبود سرعت دارند.
SSM-Transformer open model
production-grade model based on Mamba architecture, Jamba achieves an unprecedented 3X throughput and fits 140K context on a single GPU.
AI21 just dropped an open source Mamba!
- MoE with 52B parameters.
- Active parameters: 12B.
- 256K Context length.
- Competitive performance to Mixtral!
- Open weights: Apache 2.0.
▪️ Jamba Huggingface
▪️ Jamba Website
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
SSM-Transformer open model
production-grade model based on Mamba architecture, Jamba achieves an unprecedented 3X throughput and fits 140K context on a single GPU.
AI21 just dropped an open source Mamba!
- MoE with 52B parameters.
- Active parameters: 12B.
- 256K Context length.
- Competitive performance to Mixtral!
- Open weights: Apache 2.0.
▪️ Jamba Huggingface
▪️ Jamba Website
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4
Media is too big
VIEW IN TELEGRAM
یک مدل جذاب
SotA for both speech editing and zero-shot text-to-speech, Outperforming VALL-E, XTTS-v2, etc.
VoiceCraft works on in-the-wild data such as movies, random videos and podcasts
▪️ VoiceCraft: Zero-Shot Speech Editing and Text-to-Speech in the Wild
▪️ Demo
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
SotA for both speech editing and zero-shot text-to-speech, Outperforming VALL-E, XTTS-v2, etc.
VoiceCraft works on in-the-wild data such as movies, random videos and podcasts
▪️ VoiceCraft: Zero-Shot Speech Editing and Text-to-Speech in the Wild
▪️ Demo
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍7👌2
Forwarded from اخبار هوش مصنوعی
#هوش_مصنوعی در خدمت فوتبال
TacticAI
دستیار هوش مصنوعی برای تاکتیک های فوتبال
منتشر شد
به عنوان بخشی از همکاری چند ساله خود با باشگاه لیورپول، ما یک سیستم هوش مصنوعی کامل ایجاد کردیم که می تواند مربیان را در مورد ضربات کرنر راهنمایی کند...
https://deepmind.google/discover/blog/tacticai-ai-assistant-for-football-tactics/?utm_source=twitter&utm_medium=social&utm_campaign=TacticAI/
TacticAI
دستیار هوش مصنوعی برای تاکتیک های فوتبال
منتشر شد
به عنوان بخشی از همکاری چند ساله خود با باشگاه لیورپول، ما یک سیستم هوش مصنوعی کامل ایجاد کردیم که می تواند مربیان را در مورد ضربات کرنر راهنمایی کند...
https://deepmind.google/discover/blog/tacticai-ai-assistant-for-football-tactics/?utm_source=twitter&utm_medium=social&utm_campaign=TacticAI/
Google DeepMind
TacticAI: an AI assistant for football tactics
As part of our multi-year collaboration with Liverpool FC, we develop a full AI system that can advise coaches on corner kicks
👎3
اگر حال نوشتن ندارین، حرف بزنید تا هوش مصنوعی براتون مینویسه.
سایت زیر به صورت رایگان ابزار صوت به متن در زبانهای مختلف از جمله فارسی رو در اختیار شما قرار میده، از دست ندید.
لینک سایت:
https://speechtexter.com
پ.ن: بررسی کردم کیفیت خوبی داره
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
سایت زیر به صورت رایگان ابزار صوت به متن در زبانهای مختلف از جمله فارسی رو در اختیار شما قرار میده، از دست ندید.
لینک سایت:
https://speechtexter.com
پ.ن: بررسی کردم کیفیت خوبی داره
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍7👎5🆒2❤1
تویتر من هستش اگه دوست داشتین اینجام میتونین منو دنبال کنین تویت فارسی انگلیسی اونجام منتشر میکنم منتظرتونم
https://twitter.com/farzadhss
https://twitter.com/farzadhss
X (formerly Twitter)
farzad hasanvand (@farzadhss) on X
#NaturalLanguageProcess
#ReinforcementLearning
#Python #Rust
#ReinforcementLearning
#Python #Rust
👍15👎11❤1
Forwarded from DeepMind AI Expert (Farzad 🦅)
Ten Years of Generative Adversarial Nets (GANs)_ A survey.pdf
868.1 KB
مقاله ای Survey از مدل GAN اینجا میتونین اطلاعات جامعتری که دوستان سوال داشتن بدس بیارن
#کتاب #ایده_جذاب #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
#کتاب #ایده_جذاب #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6
DeepMind AI Expert
تجربه، من بعد از چند ماه دنبال کار گشتن (برای پوزیشن های data scientist و machine learning engineer ): ۱. الان دیگه سال ۲۰۱۹ نیست که همه دربهدر دنبال یه دیتا ساینتیست باشن که بیاد یه مدلی رو train کنه و data analysis انجام بده. این کارارو همه بلدن. مارکت…
سوال تعداد زیادی از دوستان برای Data Engineering منبع خواستند فعلن این منبع رو داشته باشید تا برای بقیه هم در فرصتهای آتی مرفی میکنم
▪️ CMU Distributed Systems
#آموزش #کلاس_آموزشی #سیستمهای_توزیع_شده #منابع #فیلم #مقدماتی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ CMU Distributed Systems
#آموزش #کلاس_آموزشی #سیستمهای_توزیع_شده #منابع #فیلم #مقدماتی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤7👍2
Long-form factuality in large language models
https://arxiv.org/abs/2403.18802
https://arxiv.org/abs/2403.18802
arXiv.org
Long-form factuality in large language models
Large language models (LLMs) often generate content that contains factual errors when responding to fact-seeking prompts on open-ended topics. To benchmark a model's long-form factuality in open...
👍1
با یک پرامپت کتاب کامل مینویسه و با فرمت EPUB خروجی میده
https://github.com/mshumer/gpt-author
#آموزش #الگوریتمها
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://github.com/mshumer/gpt-author
#آموزش #الگوریتمها
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4
آیا میتوانیم مکانیسمهای پیشبینی نشده را در LMها درک و ویرایش کنیم؟
▪️ Sparse Feature Circuits: Discovering and Editing Interpretable Causal Graphs in Language Models
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Sparse Feature Circuits: Discovering and Editing Interpretable Causal Graphs in Language Models
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍2
Andrej Karpathy:
I added a quick crappy tutorial on how PyTorch layers are moved to C, with a few possibly helpful pointers:
https://github.com/karpathy/llm.c/blob/master/doc/layernorm/layernorm.md
#منابع #الگوریتمها #پایتون
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
I added a quick crappy tutorial on how PyTorch layers are moved to C, with a few possibly helpful pointers:
https://github.com/karpathy/llm.c/blob/master/doc/layernorm/layernorm.md
#منابع #الگوریتمها #پایتون
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
GitHub
llm.c/doc/layernorm/layernorm.md at master · karpathy/llm.c
LLM training in simple, raw C/CUDA. Contribute to karpathy/llm.c development by creating an account on GitHub.
👍5
Find task vectors, activations that encode task-specific information, which guide the model towards performing a task better than the original model w/o the need for input-output examples
▪️ Finding Visual Task Vectors
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Finding Visual Task Vectors
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍1
در تویتر سابق (ایکس کنونی) دکتر الهیاری مقاله جالبی رو بررسی کرده به نظرم خیلی موضوع پژوهشی جالبیه:
آیا "قدرت تو تعداد است" (strength in numbers) برای AI هم صادق است؟
قدرت مدلهای LLM برکسی پوشیده نیست. در انواع کارها از نوشتن و فهمیدن زبان تا ترجمه و ... ازشون استفاده میکنیم. ولی وقتی کار مورد نظر پیچیده باشه و به استدلال زیادی (reasoning) نیاز داره هنوز لنگ میزنن. راههای مختلفی برای بهبود کارایی این مدلها تو این مواقع هست. یکی از این راهها، استفاده از روشهای ensemble است. یعنی چندتا از این مدلها رو با هم دیگه به کار گرفت. مشابه این روش را احتمالا قبلا شنیده باشید مثل mixture of experts.
یک مقاله جدید اومده ی تحقیق جامع کرده روی این موضوع (scaling property of LLM agents) و روش ساده ای را ارائه میده به اسم sampling-and-voting method (روش ساده نمونهگیری و رأیگیری). این روش شامل دو مرحله است. اول ورودی (input query) یک LLM، به طور تکراری به یک LLM واحد یا چندتا agent وارد میشود تا چندین خروجی تولید کند. سپس، برای تعیین نتیجه نهایی از رأیگیری اکثریت استفاده میشود. این روش مشابه متد Chain of thought است ولی اون پیچیدگی های اون را نداره. عکس زیر روش را نشون میده.
▪️ More Agents Is All You Need
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
آیا "قدرت تو تعداد است" (strength in numbers) برای AI هم صادق است؟
قدرت مدلهای LLM برکسی پوشیده نیست. در انواع کارها از نوشتن و فهمیدن زبان تا ترجمه و ... ازشون استفاده میکنیم. ولی وقتی کار مورد نظر پیچیده باشه و به استدلال زیادی (reasoning) نیاز داره هنوز لنگ میزنن. راههای مختلفی برای بهبود کارایی این مدلها تو این مواقع هست. یکی از این راهها، استفاده از روشهای ensemble است. یعنی چندتا از این مدلها رو با هم دیگه به کار گرفت. مشابه این روش را احتمالا قبلا شنیده باشید مثل mixture of experts.
یک مقاله جدید اومده ی تحقیق جامع کرده روی این موضوع (scaling property of LLM agents) و روش ساده ای را ارائه میده به اسم sampling-and-voting method (روش ساده نمونهگیری و رأیگیری). این روش شامل دو مرحله است. اول ورودی (input query) یک LLM، به طور تکراری به یک LLM واحد یا چندتا agent وارد میشود تا چندین خروجی تولید کند. سپس، برای تعیین نتیجه نهایی از رأیگیری اکثریت استفاده میشود. این روش مشابه متد Chain of thought است ولی اون پیچیدگی های اون را نداره. عکس زیر روش را نشون میده.
▪️ More Agents Is All You Need
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3❤1🆒1
از این هم میتونین استفاده کنید استفاده رایگان داره
- free persistent storage
- free persistent environments
- unlimited background execution
- VSCode, PyCharm, (any IDE) integration
https://lightning.ai/pricing
#کتاب #منابع #پایتون #آموزش
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
- free persistent storage
- free persistent environments
- unlimited background execution
- VSCode, PyCharm, (any IDE) integration
https://lightning.ai/pricing
#کتاب #منابع #پایتون #آموزش
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👌10❤4👍3