لیستی از بهترین ابزارهای هوش مصنوعی برای کارهای پژوهشی
1️⃣ سایت typeset.io پاسخ به سؤالات بر اساس مقالات. همچنین دستیار مطالعه و بازنویسی متن.
2️⃣ سایت researchrabbit.ai دستهبندی مقالات و یافتن ارتباط بین آنها.
3️⃣ اکستنشن glasp.co یادداشتبرداری از مقالات بهصورت مستقیم.
4️⃣ سایت semanticscholar.org جستوجو و یافتن مقالات مشابه.
5️⃣ سایت consensus.app پاسخ به سؤالات بر اساس دادههای علمی
1️⃣ سایت typeset.io پاسخ به سؤالات بر اساس مقالات. همچنین دستیار مطالعه و بازنویسی متن.
2️⃣ سایت researchrabbit.ai دستهبندی مقالات و یافتن ارتباط بین آنها.
3️⃣ اکستنشن glasp.co یادداشتبرداری از مقالات بهصورت مستقیم.
4️⃣ سایت semanticscholar.org جستوجو و یافتن مقالات مشابه.
5️⃣ سایت consensus.app پاسخ به سؤالات بر اساس دادههای علمی
Forwarded from VIP
🚀 به دنیای توسعه و تکنولوژی خوش اومدی!
اگر به موضوعات زیر علاقهمندی:
🔹 Golang
🔹 Linux & DevOps
🔹 Software Engineering
🔹 AI & Machine Learning
🔹 فرصتهای شغلی ریموت (خارجی و داخلی)
ما برات یه مجموعه کانالهای تخصصی ساختیم تا همیشه بهروز، حرفهای و الهامبخش بمونی!
📚 یادگیری، فرصت، شبکهسازی و پیشرفت، همش اینجاست...
📌 از این لینک همه چنلهامونو یهجا ببین و جوین شو:
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
اگر به موضوعات زیر علاقهمندی:
🔹 Golang
🔹 Linux & DevOps
🔹 Software Engineering
🔹 AI & Machine Learning
🔹 فرصتهای شغلی ریموت (خارجی و داخلی)
ما برات یه مجموعه کانالهای تخصصی ساختیم تا همیشه بهروز، حرفهای و الهامبخش بمونی!
📚 یادگیری، فرصت، شبکهسازی و پیشرفت، همش اینجاست...
📌 از این لینک همه چنلهامونو یهجا ببین و جوین شو:
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
گییرمو دل تورو میگوید: ترجیح میدهم بمیرم تا از هوش مصنوعی استفاده کنم
https://gamefa.com/1245763/guillermo-del-toro-frankenstein/
https://gamefa.com/1245763/guillermo-del-toro-frankenstein/
گیمفا: وب سایت خبری تحلیلی بازی های کامپیوتری
گییرمو دل تورو میگوید: ترجیح میدهم بمیرم تا از هوش مصنوعی استفاده کنم - گیمفا
گییرمو دل تورو در صحبتهای تازه خودش بیان کرده که ترجیح میدهد بمیرد تا اینکه از هوش مصنوعی استفاده کند.
🔵 عنوان مقاله
Private LLM Training (26 minute read)
🟢 خلاصه مقاله:
Opacus با پشتیبانی از Fully Sharded Data Parallel (FSDP) امکان آموزش خصوصی LLMها را مقیاسپذیرتر و بهصرفهتر میکند. این ترکیب در PyTorch با توزیع پارامترها، گرادیانها و حالتهای بهینهساز بین چند GPU، مصرف حافظه هر GPU را کاهش میدهد و اجازه میدهد اندازه مدل و Batch بزرگتر شود. Opacus از DP-SGD با کلیپکردن گرادیان در سطح نمونه و افزودن نویز استفاده میکند و بودجه حریم خصوصی را با حسابدارهایی مانند RDP پیگیری میکند. ادغام جدید باعث میشود کیفیت مدل در بودجههای حریم خصوصی ثابت بهتر حفظ شود و خصوصیسازی روی مدلهای بزرگ عملیتر شود. مقاله همچنین به نکات اجرایی مانند تعامل محاسبه گرادیان در سطح نمونه با Sharding، مصالحههای ارتباطی، Mixed Precision و Activation Checkpointing، و بهترینروشها برای مقداردهی اولیه تصادفی، کلیپینگ درست در بین Rankها و انتخاب حسابداری مناسب اشاره میکند. نتیجه نهایی: ریزتنظیم خصوصی LLMها برای حوزههای حساس با هزینه کمتر و مقیاس بهتر ممکن میشود.
#DifferentialPrivacy #Opacus #FSDP #PyTorch #LLM #PrivateAI #DistributedTraining
🟣لینک مقاله:
https://pytorch.org/blog/enabling-fully-sharded-data-parallel-fsdp2-in-opacus/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Private LLM Training (26 minute read)
🟢 خلاصه مقاله:
Opacus با پشتیبانی از Fully Sharded Data Parallel (FSDP) امکان آموزش خصوصی LLMها را مقیاسپذیرتر و بهصرفهتر میکند. این ترکیب در PyTorch با توزیع پارامترها، گرادیانها و حالتهای بهینهساز بین چند GPU، مصرف حافظه هر GPU را کاهش میدهد و اجازه میدهد اندازه مدل و Batch بزرگتر شود. Opacus از DP-SGD با کلیپکردن گرادیان در سطح نمونه و افزودن نویز استفاده میکند و بودجه حریم خصوصی را با حسابدارهایی مانند RDP پیگیری میکند. ادغام جدید باعث میشود کیفیت مدل در بودجههای حریم خصوصی ثابت بهتر حفظ شود و خصوصیسازی روی مدلهای بزرگ عملیتر شود. مقاله همچنین به نکات اجرایی مانند تعامل محاسبه گرادیان در سطح نمونه با Sharding، مصالحههای ارتباطی، Mixed Precision و Activation Checkpointing، و بهترینروشها برای مقداردهی اولیه تصادفی، کلیپینگ درست در بین Rankها و انتخاب حسابداری مناسب اشاره میکند. نتیجه نهایی: ریزتنظیم خصوصی LLMها برای حوزههای حساس با هزینه کمتر و مقیاس بهتر ممکن میشود.
#DifferentialPrivacy #Opacus #FSDP #PyTorch #LLM #PrivateAI #DistributedTraining
🟣لینک مقاله:
https://pytorch.org/blog/enabling-fully-sharded-data-parallel-fsdp2-in-opacus/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
🔵 عنوان مقاله
Anthropic, Google in Talks on Multibillion-Dollar Cloud Deal (2 minute read)
🟢 خلاصه مقاله:
Anthropic در حال مذاکره اولیه با Google برای یک توافق ابری عظیم است که ارزش آن «دهها میلیارد دلارِ بالا» برآورد میشود. بر اساس این طرح، Google ظرفیت محاسباتی بیشتری در اختیار Anthropic قرار میدهد و دسترسی گستردهتری به tensor processing units (TPUs) — تراشههای اختصاصی برای تسریع بارکاری یادگیری ماشین — فراهم میکند. Google پیشتر هم در Anthropic سرمایهگذاری کرده و از ارائهدهندگان خدمات ابری آن بوده است. هرچند جزئیات و زمانبندی نهایی نشدهاند، اندازه این توافق نشان میدهد که دسترسی به محاسبات مقیاسبالا به محور اصلی پیشرفت اکوسیستم هوش مصنوعی تبدیل شده و شراکتهای عمیق بین آزمایشگاههای AI و ارائهدهندگان ابر در حال شکلدهی به مرحله بعدی این صنعت هستند.
#Anthropic #Google #CloudComputing #TPU #MachineLearning #AIInfrastructure #AI #TechDeal
🟣لینک مقاله:
https://www.bloomberg.com/news/articles/2025-10-21/anthropic-google-in-talks-on-cloud-deal-worth-tens-of-billions?utm_source=website&utm_medium=share&utm_campaign=copy
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Anthropic, Google in Talks on Multibillion-Dollar Cloud Deal (2 minute read)
🟢 خلاصه مقاله:
Anthropic در حال مذاکره اولیه با Google برای یک توافق ابری عظیم است که ارزش آن «دهها میلیارد دلارِ بالا» برآورد میشود. بر اساس این طرح، Google ظرفیت محاسباتی بیشتری در اختیار Anthropic قرار میدهد و دسترسی گستردهتری به tensor processing units (TPUs) — تراشههای اختصاصی برای تسریع بارکاری یادگیری ماشین — فراهم میکند. Google پیشتر هم در Anthropic سرمایهگذاری کرده و از ارائهدهندگان خدمات ابری آن بوده است. هرچند جزئیات و زمانبندی نهایی نشدهاند، اندازه این توافق نشان میدهد که دسترسی به محاسبات مقیاسبالا به محور اصلی پیشرفت اکوسیستم هوش مصنوعی تبدیل شده و شراکتهای عمیق بین آزمایشگاههای AI و ارائهدهندگان ابر در حال شکلدهی به مرحله بعدی این صنعت هستند.
#Anthropic #Google #CloudComputing #TPU #MachineLearning #AIInfrastructure #AI #TechDeal
🟣لینک مقاله:
https://www.bloomberg.com/news/articles/2025-10-21/anthropic-google-in-talks-on-cloud-deal-worth-tens-of-billions?utm_source=website&utm_medium=share&utm_campaign=copy
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Bloomberg.com
Anthropic, Google in Talks on Multibillion-Dollar Cloud Deal
Anthropic PBC is in discussions with Alphabet Inc.’s Google about a deal that would provide the artificial intelligence company with additional computing power valued in the high tens of billions of dollars, according to people familiar with the matter.
❤1
لازم نیست دیگه وقتت رو صرف خواندن راجب مدل بکنی و دیتاست و پیچیدگیهای کار،Auto tuneهوش مصنوعی که برای فاینتیونینگ فکر میکنه!
یه دستیار هوشمند مخصوص پژوهشگرها، دولوپرها و علاقهمندان هوش مصنوعیه که بهت کمک میکنه بهترین مدلها، دیتاستها و استراتژیها رو برای پروژه فاینتیونینگت پیدا کنی.
کافیه فقط توضیح بدی چی میخوای انجام بدی — AutoTune خودش همهچی رو برات پیدا میکنه:
- میگرده توی HuggingFace، ArXiv و Kaggle
- نیازت رو با تحلیل هوشمند تشخیص میده
- یه گزارش پژوهشی کامل با پیشنهاد مدل و دیتاست برات میسازه
- و حتی مسیر اجرای پروژهت رو قدمبهقدم مشخص میکنه!
با AutoTune، فقط حرف بزن… و بقیهش رو بسپار به هوش مصنوعی
https://github.com/amirhoseinnaderali-pixel/AutoTune-Research-Assistan
| <Am/>
یه دستیار هوشمند مخصوص پژوهشگرها، دولوپرها و علاقهمندان هوش مصنوعیه که بهت کمک میکنه بهترین مدلها، دیتاستها و استراتژیها رو برای پروژه فاینتیونینگت پیدا کنی.
کافیه فقط توضیح بدی چی میخوای انجام بدی — AutoTune خودش همهچی رو برات پیدا میکنه:
- میگرده توی HuggingFace، ArXiv و Kaggle
- نیازت رو با تحلیل هوشمند تشخیص میده
- یه گزارش پژوهشی کامل با پیشنهاد مدل و دیتاست برات میسازه
- و حتی مسیر اجرای پروژهت رو قدمبهقدم مشخص میکنه!
با AutoTune، فقط حرف بزن… و بقیهش رو بسپار به هوش مصنوعی
https://github.com/amirhoseinnaderali-pixel/AutoTune-Research-Assistan
| <Am/>
GitHub
GitHub - amirhoseinnaderali-pixel/AutoTune-Research-Assistan: AutoTune Research Assistant - An intelligent conversational AI that…
AutoTune Research Assistant - An intelligent conversational AI that helps researchers find optimal models, datasets, and fine-tuning strategies through multi-platform search across HuggingFace Hub,...
یک بلاگ عالی از کمپانی HuggingFace اومده که یک راهنمای کامل هست راجع به OCR از جمله:
- چشمانداز مدلهای فعلی و قابلیتهای آنها
- مقایسه انواع مدلها
- زمان مناسب برای فاینتیون کردن مدلها در مقابل استفاده از مدلهای آماده
- عوامل کلیدی در انتخاب مدل مناسب برای مورد استفادهتان
- چگونه فراتر از OCR بروید با استفاده از بازیابی multimodal و پرسشوپاسخ مبتنی بر اسناد
اگه تسک های مربوط به OCR دارید یا در حجم بالای چند ده هزار باید OCR کنید این بلاگ خیلی کمک میکنه و ایده بهتون میده.
حتما بخونید:
https://huggingface.co/blog/ocr-open-models
| <Mehdi Allahyari/>
- چشمانداز مدلهای فعلی و قابلیتهای آنها
- مقایسه انواع مدلها
- زمان مناسب برای فاینتیون کردن مدلها در مقابل استفاده از مدلهای آماده
- عوامل کلیدی در انتخاب مدل مناسب برای مورد استفادهتان
- چگونه فراتر از OCR بروید با استفاده از بازیابی multimodal و پرسشوپاسخ مبتنی بر اسناد
اگه تسک های مربوط به OCR دارید یا در حجم بالای چند ده هزار باید OCR کنید این بلاگ خیلی کمک میکنه و ایده بهتون میده.
حتما بخونید:
https://huggingface.co/blog/ocr-open-models
| <Mehdi Allahyari/>
huggingface.co
Supercharge your OCR Pipelines with Open Models
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤1
سم آلتمن با استارتاپ بعدی خود بهدنبال خواندن ذهن با امواج صوتی است
https://digiato.com/entrepreneurship/sam-altman-merge-labs-brain-computer-interface-startup-hire
https://digiato.com/entrepreneurship/sam-altman-merge-labs-brain-computer-interface-startup-hire
دیجیاتو
سم آلتمن با استارتاپ بعدی خود بهدنبال خواندن ذهن با امواج صوتی است
این استارتاپ که با همراهی یک مهندس زیستمولکولی شناختهشده تأسیس شده، رقیب نورالینک خواهد بود اما برخلاف آن روشی غیرتهاجمی دارد.
🔵 عنوان مقاله
Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity (20 minute read)
🟢 خلاصه مقاله:
این مقاله میگوید یکنواختی و تکراریشدن خروجی LLMها نتیجه «سوگیری تیپیکالیتی» در آموزش است؛ یعنی ارزیابهای انسانی در آموزش ترجیح میدهند پاسخهای آشنا و کمریسک را انتخاب کنند و مدلها به همان الگوها فرو میافتند. راهکار پیشنهادی ساده است: از مدل بخواهید چند خروجی متمایز را همراه با احتمال هرکدام تولید کند («verbalized sampling»). با این کار، مدل چند حالت معتبر اما کمتر تکراری را هم رو میکند و شما میتوانید بر اساس وزنها انتخاب یا نمونهگیری کنید. این روش بدون نیاز به فاینتیون و روی مدلهایی مثل ChatGPT، Claude و Gemini حدود ۲ برابر تنوع خلاقانه را افزایش داده و ارزیابی انسانی را حدود ۲۶٪ بهتر کرده است؛ از شوخینویسی و داستاننویسی تا شبیهسازی اجتماعی. تفاوت آن با بالا بردن temperature این است که بهجای افزودن نویز، توزیع گزینههای معقول را آشکار میکند. البته احتمالها ممکن است کاملاً کالیبره نباشند و این روش تضمینکننده واقعیتمندی نیست، اما برای ایدهپردازی، نقشآفرینی و برنامهریزی اکتشافی بسیار مؤثر است. توصیه عملی: ۵ تا ۱۰ گزینه متمایز، جمع احتمالات برابر ۱، و ادامهدادن شاخه منتخب با یک پرامپت دقیقتر.
#LLM #ModeCollapse #VerbalizedSampling #PromptEngineering #GenerativeAI #NLP #AIResearch #Creativity
🟣لینک مقاله:
https://simonucl.notion.site/verbalized-sampling?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity (20 minute read)
🟢 خلاصه مقاله:
این مقاله میگوید یکنواختی و تکراریشدن خروجی LLMها نتیجه «سوگیری تیپیکالیتی» در آموزش است؛ یعنی ارزیابهای انسانی در آموزش ترجیح میدهند پاسخهای آشنا و کمریسک را انتخاب کنند و مدلها به همان الگوها فرو میافتند. راهکار پیشنهادی ساده است: از مدل بخواهید چند خروجی متمایز را همراه با احتمال هرکدام تولید کند («verbalized sampling»). با این کار، مدل چند حالت معتبر اما کمتر تکراری را هم رو میکند و شما میتوانید بر اساس وزنها انتخاب یا نمونهگیری کنید. این روش بدون نیاز به فاینتیون و روی مدلهایی مثل ChatGPT، Claude و Gemini حدود ۲ برابر تنوع خلاقانه را افزایش داده و ارزیابی انسانی را حدود ۲۶٪ بهتر کرده است؛ از شوخینویسی و داستاننویسی تا شبیهسازی اجتماعی. تفاوت آن با بالا بردن temperature این است که بهجای افزودن نویز، توزیع گزینههای معقول را آشکار میکند. البته احتمالها ممکن است کاملاً کالیبره نباشند و این روش تضمینکننده واقعیتمندی نیست، اما برای ایدهپردازی، نقشآفرینی و برنامهریزی اکتشافی بسیار مؤثر است. توصیه عملی: ۵ تا ۱۰ گزینه متمایز، جمع احتمالات برابر ۱، و ادامهدادن شاخه منتخب با یک پرامپت دقیقتر.
#LLM #ModeCollapse #VerbalizedSampling #PromptEngineering #GenerativeAI #NLP #AIResearch #Creativity
🟣لینک مقاله:
https://simonucl.notion.site/verbalized-sampling?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
simonucl on Notion
Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity | Notion
Jiayi Zhang*¹, Simon Yu*¹, Derek Chong*², Anthony Sicilia³,
توکن چیه و چجوری محاسبه میشه؟
1. تعریف توکن:
توکن کوچکترین واحد متنی است که مدلهای هوش مصنوعی مانند GPT-4 آن را پردازش میکنند. توکنها میتوانند شامل کلمات، حروف، علائم نگارشی یا حتی فضاهای خالی باشند. به عنوان مثال، در زبان انگلیسی، یک کلمه کامل یا حتی بخشی از یک کلمه میتواند به عنوان یک توکن در نظر گرفته شود.
2. فرآیند توکنیزاسیون
فرآیندی است که در آن یک متن به توکنهای کوچکتر شکسته میشود. این فرآیند به مدل کمک میکند تا متن را به بخشهای قابل فهم و پردازش تبدیل کند. الگوریتمهای خاصی برای این کار و ساختار جمله، تصمیم میگیرند که کجا متن را به توکنهای مجزا تقسیم کنند.
3. محاسبه تعداد توکنها:
تعداد توکنهای یک متن با اعمال فرآیند توکنیزاسیون بر روی متن محاسبه میشود. هر توکن معادل یک بخش از متن است که مدل باید آن را پردازش کند. بنابراین، هرچه تعداد توکنها بیشتر باشد، پردازش و محاسبات بیشتری نیاز است.
4. مثال توکنیزاسیون:
برای مثال، جمله “سلام، دنیا!” ممکن است به این صورت توکنیزه شود:
[‘سلام’, ‘،’, ‘دنیا’, ‘!’] در اینجا هر کلمه و علامت نگارشی به عنوان یک توکن در نظر گرفته میشود.
5. کاربرد توکنها در دنیای واقعی:
درک مفهوم توکنها برای بهینهسازی استفاده از مدلهای زبانی در برنامههایی مانند چتباتها، تحلیل متن و ترجمه ماشینی بسیار مهم است. با دانستن نحوه محاسبه توکنها، توسعهدهندگان میتوانند اندازه ورودیها را بهتر مدیریت کنند و از منابع محاسباتی بهینه استفاده کنند، به خصوص در مواردی که محدودیت منابع وجود دارد.
1. تعریف توکن:
توکن کوچکترین واحد متنی است که مدلهای هوش مصنوعی مانند GPT-4 آن را پردازش میکنند. توکنها میتوانند شامل کلمات، حروف، علائم نگارشی یا حتی فضاهای خالی باشند. به عنوان مثال، در زبان انگلیسی، یک کلمه کامل یا حتی بخشی از یک کلمه میتواند به عنوان یک توکن در نظر گرفته شود.
2. فرآیند توکنیزاسیون
فرآیندی است که در آن یک متن به توکنهای کوچکتر شکسته میشود. این فرآیند به مدل کمک میکند تا متن را به بخشهای قابل فهم و پردازش تبدیل کند. الگوریتمهای خاصی برای این کار و ساختار جمله، تصمیم میگیرند که کجا متن را به توکنهای مجزا تقسیم کنند.
3. محاسبه تعداد توکنها:
تعداد توکنهای یک متن با اعمال فرآیند توکنیزاسیون بر روی متن محاسبه میشود. هر توکن معادل یک بخش از متن است که مدل باید آن را پردازش کند. بنابراین، هرچه تعداد توکنها بیشتر باشد، پردازش و محاسبات بیشتری نیاز است.
4. مثال توکنیزاسیون:
برای مثال، جمله “سلام، دنیا!” ممکن است به این صورت توکنیزه شود:
[‘سلام’, ‘،’, ‘دنیا’, ‘!’] در اینجا هر کلمه و علامت نگارشی به عنوان یک توکن در نظر گرفته میشود.
5. کاربرد توکنها در دنیای واقعی:
درک مفهوم توکنها برای بهینهسازی استفاده از مدلهای زبانی در برنامههایی مانند چتباتها، تحلیل متن و ترجمه ماشینی بسیار مهم است. با دانستن نحوه محاسبه توکنها، توسعهدهندگان میتوانند اندازه ورودیها را بهتر مدیریت کنند و از منابع محاسباتی بهینه استفاده کنند، به خصوص در مواردی که محدودیت منابع وجود دارد.
👍1🥰1
🔵 عنوان مقاله
Google Veo 3.1 (3 minute read)
🟢 خلاصه مقاله:
** Google نسخه Veo 3.1 را معرفی کرده که با بهبود خروجی صوتی، پایبندی دقیقتر به پرامپتها و تولید ویدیوی واقعیتر همراه است. علاوه بر این، Flow editor ارتقا یافته و قابلیتهای object-level control، image-to-video blending و audio-enabled video extensions را اضافه کرده است. نتیجه این تغییرات، کنترل بیشتر، خروجی قابلپیشبینیتر و سرعت بالاتر در تبدیل ایده به ویدیو برای تیمهای خلاق و تولیدکنندگان محتواست.
#Google #Veo #Veo3_1 #GenerativeAI #VideoGeneration #FlowEditor #AIEditing #CreativeTools
🟣لینک مقاله:
https://blog.google/technology/ai/veo-updates-flow/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Google Veo 3.1 (3 minute read)
🟢 خلاصه مقاله:
** Google نسخه Veo 3.1 را معرفی کرده که با بهبود خروجی صوتی، پایبندی دقیقتر به پرامپتها و تولید ویدیوی واقعیتر همراه است. علاوه بر این، Flow editor ارتقا یافته و قابلیتهای object-level control، image-to-video blending و audio-enabled video extensions را اضافه کرده است. نتیجه این تغییرات، کنترل بیشتر، خروجی قابلپیشبینیتر و سرعت بالاتر در تبدیل ایده به ویدیو برای تیمهای خلاق و تولیدکنندگان محتواست.
#Google #Veo #Veo3_1 #GenerativeAI #VideoGeneration #FlowEditor #AIEditing #CreativeTools
🟣لینک مقاله:
https://blog.google/technology/ai/veo-updates-flow/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Google
Introducing Veo 3.1 and advanced capabilities in Flow
Today, we’re introducing new and enhanced creative capabilities to edit your clips.
♨️ شرکت OpenAI وارد دنیای موسیقی شد!
▪️بعد از متن، تصویر و ویدیو، حالا نوبت موسیقیه ، OpenAI در آستانه معرفی مدل جدیدی برای تولید آهنگ با هوش مصنوعی قرار داره.
▪️این مدل ادامهی پروژههای قدیمیتر مثل MuseNet و Jukeboxه و با دادههایی از دانشجویان مدرسه موسیقی Juilliard آموزش دیده تا خروجیهاش کیفیت هنری بالایی داشته باشن.
+ یعنی رقابت مستقیم با ابزارهایی مثل Suno و Udio
▪️بعد از متن، تصویر و ویدیو، حالا نوبت موسیقیه ، OpenAI در آستانه معرفی مدل جدیدی برای تولید آهنگ با هوش مصنوعی قرار داره.
▪️این مدل ادامهی پروژههای قدیمیتر مثل MuseNet و Jukeboxه و با دادههایی از دانشجویان مدرسه موسیقی Juilliard آموزش دیده تا خروجیهاش کیفیت هنری بالایی داشته باشن.
+ یعنی رقابت مستقیم با ابزارهایی مثل Suno و Udio
📣 هشدار جدی امنیتی درباره مرورگر Atlas
▪️مرورگر جدید ChatGPT یعنی Atlas گرفتار یک باگ خطرناک شده؛ چیزی به اسم Clipboard Injection.
▪️با این باگ، سایتهای مخرب میتونن وقتی یه چیزی کپی میکنی ، محتوای کلیپبوردت رو عوض کنن! مثلا بهجای لینک سالم، لینک فیشینگ یا دستور مخرب جا بزنن ، بدون اینکه حتی بفهمی.
+ البته OpenAI تأکید کرده که Atlas فعلاً نمیتونه کد اجرا کنه یا افزونه نصب کنه، و در سایتهای حساس (مثل بانکی) بهصورت خودکار متوقف میشه.
▪️مرورگر جدید ChatGPT یعنی Atlas گرفتار یک باگ خطرناک شده؛ چیزی به اسم Clipboard Injection.
▪️با این باگ، سایتهای مخرب میتونن وقتی یه چیزی کپی میکنی ، محتوای کلیپبوردت رو عوض کنن! مثلا بهجای لینک سالم، لینک فیشینگ یا دستور مخرب جا بزنن ، بدون اینکه حتی بفهمی.
+ البته OpenAI تأکید کرده که Atlas فعلاً نمیتونه کد اجرا کنه یا افزونه نصب کنه، و در سایتهای حساس (مثل بانکی) بهصورت خودکار متوقف میشه.
♨️ پژوهشگران هشدار دادند: چتباتهای هوش مصنوعی روزبهروز چاپلوستر میشوند!
▪️طبق تحقیقی از دانشگاههای استنفورد، چتباتهای هوش مصنوعی بیش از حد به تأیید کاربران تمایل دارند ، حتی وقتی کاربر اشتباه میکنه یا رفتارش غیراخلاقیه!
▪️تو این تحقیق، 11 چتبات از جمله ChatGPT، Gemini، Claude و LLaMA بررسی شدند و نتیجه این شد که هوشهای مصنوعی حدود 50% بیشتر از انسانها تمایل دارند حرفهای کاربر رو تأیید کنند و از قضاوت صریح دوری میکنند.
▪️برای مثال، ChatGPT-4o در واکنش به کاربری که زباله رو به شاخهی درخت بسته بود، نیت اون رو «قابل ستایش» توصیف کرد!
🗣️ دکتر «الکساندر لافر» میگوید:
«چتباتها باید انسانها را به تفکر و رشد اجتماعی تشویق کنند، نه فقط آنها را تحسین.»
▪️طبق تحقیقی از دانشگاههای استنفورد، چتباتهای هوش مصنوعی بیش از حد به تأیید کاربران تمایل دارند ، حتی وقتی کاربر اشتباه میکنه یا رفتارش غیراخلاقیه!
▪️تو این تحقیق، 11 چتبات از جمله ChatGPT، Gemini، Claude و LLaMA بررسی شدند و نتیجه این شد که هوشهای مصنوعی حدود 50% بیشتر از انسانها تمایل دارند حرفهای کاربر رو تأیید کنند و از قضاوت صریح دوری میکنند.
▪️برای مثال، ChatGPT-4o در واکنش به کاربری که زباله رو به شاخهی درخت بسته بود، نیت اون رو «قابل ستایش» توصیف کرد!
🗣️ دکتر «الکساندر لافر» میگوید:
«چتباتها باید انسانها را به تفکر و رشد اجتماعی تشویق کنند، نه فقط آنها را تحسین.»
🔵 عنوان مقاله
The Not-so Bitter Lesson (8 minute read)
🟢 خلاصه مقاله:
AGI هنوز همهچیز را قبضه نکرده و به این زودی هم نخواهد کرد؛ بنابراین نقش مهندسان نرمافزار همچنان کلیدی است. راهبرد عملی این است که بهجای راهحلهای سفارشی و شکننده، سامانههای مقیاسپذیر بسازیم که از Search و Compute بهره میبرند، مدلها و ابزارها را بهصورت ماژولار و قابلتعویض مدیریت میکنند و با ارکستریشن درست، بازیابی، ایندکس، کش و اکتشاف موازی، قابلیت اتکا را بالا میبرند. بهجای «راهحل»، «هارنس» بسازید: مجموعههای ارزیابی، دادههای مرجع، تستهای ترکیبی، مانیتورینگ و مشاهدهپذیری، ردیابی هزینه/تاخیر و گاردریلهای ایمنی؛ و با A/B و ارزیابی مستمر، بهبود را سریع و کمهزینه کنید. مهمتر از همه، بهجای کدنویسی پاسخهای سختگیرانه، خود مسئله را دقیق تعریف کنید: ورودی/خروجی، قیود، بودجه خطا، SLA و اینورینتها. با مسئلهی خوبتعریفشده، Search و Compute میتوانند پیکربندیهای ممکن را بیابند و سیستم با آمدن مدلها و ابزارهای بهتر، بدون بازنویسی اساسی تکامل یابد. این همان «درس نهچندان تلخ» است: آینده با ساخت زیرساخت، هارنس و تعریف مسئله به نفع مهندسان رقم میخورد.
#AGI #SoftwareEngineering #SystemDesign #ScalableSystems #SearchAndCompute #MLOps #Evaluation
🟣لینک مقاله:
https://blog.mariusvach.com/posts/bitter-lesson?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
The Not-so Bitter Lesson (8 minute read)
🟢 خلاصه مقاله:
AGI هنوز همهچیز را قبضه نکرده و به این زودی هم نخواهد کرد؛ بنابراین نقش مهندسان نرمافزار همچنان کلیدی است. راهبرد عملی این است که بهجای راهحلهای سفارشی و شکننده، سامانههای مقیاسپذیر بسازیم که از Search و Compute بهره میبرند، مدلها و ابزارها را بهصورت ماژولار و قابلتعویض مدیریت میکنند و با ارکستریشن درست، بازیابی، ایندکس، کش و اکتشاف موازی، قابلیت اتکا را بالا میبرند. بهجای «راهحل»، «هارنس» بسازید: مجموعههای ارزیابی، دادههای مرجع، تستهای ترکیبی، مانیتورینگ و مشاهدهپذیری، ردیابی هزینه/تاخیر و گاردریلهای ایمنی؛ و با A/B و ارزیابی مستمر، بهبود را سریع و کمهزینه کنید. مهمتر از همه، بهجای کدنویسی پاسخهای سختگیرانه، خود مسئله را دقیق تعریف کنید: ورودی/خروجی، قیود، بودجه خطا، SLA و اینورینتها. با مسئلهی خوبتعریفشده، Search و Compute میتوانند پیکربندیهای ممکن را بیابند و سیستم با آمدن مدلها و ابزارهای بهتر، بدون بازنویسی اساسی تکامل یابد. این همان «درس نهچندان تلخ» است: آینده با ساخت زیرساخت، هارنس و تعریف مسئله به نفع مهندسان رقم میخورد.
#AGI #SoftwareEngineering #SystemDesign #ScalableSystems #SearchAndCompute #MLOps #Evaluation
🟣لینک مقاله:
https://blog.mariusvach.com/posts/bitter-lesson?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Mariusvach
The Not-so Bitter Lesson
How tinygrad helped me finally understand what Sutton meant
🔥 «گراکیپدیا» رقیب جدید ویکیپدیا شد!
▪️پلتفرم Grokipedia با حدود 800 هزار مقاله اولیه رسماً راهاندازی شد. تفاوت جالبش با ویکیپدیا اینه که مقالههاش توسط هوش مصنوعی Grok نوشته میشن ، اونم نه از خودش، بلکه با بررسی 200 تا 300 منبع مختلف برای هر مطلب!
▪️کاربران معتقدن مقالات گراکیپدیا سوگیری دارن، ولی خب همین انتقاد به ویکیپدیا هم همیشه بوده. مثلاً صفحه «ایلان ماسک» توی ویکیپدیا بیشتر نقدآمیزه، اما توی گراکیپدیا بیشتر روی دستاوردهاش تمرکز شده.
+ فعلاً صفحات گراکیپدیا تصویر ندارن، ولی هدفش اینه که یه منبع دقیق و سریع از نگاه هوش مصنوعی باشه.
▪️پلتفرم Grokipedia با حدود 800 هزار مقاله اولیه رسماً راهاندازی شد. تفاوت جالبش با ویکیپدیا اینه که مقالههاش توسط هوش مصنوعی Grok نوشته میشن ، اونم نه از خودش، بلکه با بررسی 200 تا 300 منبع مختلف برای هر مطلب!
▪️کاربران معتقدن مقالات گراکیپدیا سوگیری دارن، ولی خب همین انتقاد به ویکیپدیا هم همیشه بوده. مثلاً صفحه «ایلان ماسک» توی ویکیپدیا بیشتر نقدآمیزه، اما توی گراکیپدیا بیشتر روی دستاوردهاش تمرکز شده.
+ فعلاً صفحات گراکیپدیا تصویر ندارن، ولی هدفش اینه که یه منبع دقیق و سریع از نگاه هوش مصنوعی باشه.
🔥1
🔵 عنوان مقاله
Google revamps AI Studio with new features for vibe coding (2 minute read)
🟢 خلاصه مقاله:
گوگل نسخه بازطراحیشدهای از رابط کاربری AI Studio را معرفی کرده که با تمرکز بر توسعهدهندگان، استارتاپها و کاربران غیرمتخصص، فرایند نمونهسازی سریع هوش مصنوعی را سادهتر میکند. این بهروزرسانی با قابلیتهای تازه برای vibe coding، جریان کار را از prompt تا تولید روانتر کرده و اصطکاک بین ایدهپردازی، آزمایش و ساخت اپلیکیشن را کاهش میدهد. همچنین امکان استقرار یککلیکی پروژهها روی Google Cloud Run فراهم شده تا تبدیل نمونه اولیه به سرویس اجرایی بدون ترک محیط انجام شود. پیشنمایش متحرک رابط جدید در مقاله قابل مشاهده است.
#Google #AIStudio #VibeCoding #GoogleCloudRun #AIDevelopment #Prototyping #DevTools #GenerativeAI
🟣لینک مقاله:
https://www.testingcatalog.com/google-revamps-ai-studio-with-new-features-for-vibe-coding/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Google revamps AI Studio with new features for vibe coding (2 minute read)
🟢 خلاصه مقاله:
گوگل نسخه بازطراحیشدهای از رابط کاربری AI Studio را معرفی کرده که با تمرکز بر توسعهدهندگان، استارتاپها و کاربران غیرمتخصص، فرایند نمونهسازی سریع هوش مصنوعی را سادهتر میکند. این بهروزرسانی با قابلیتهای تازه برای vibe coding، جریان کار را از prompt تا تولید روانتر کرده و اصطکاک بین ایدهپردازی، آزمایش و ساخت اپلیکیشن را کاهش میدهد. همچنین امکان استقرار یککلیکی پروژهها روی Google Cloud Run فراهم شده تا تبدیل نمونه اولیه به سرویس اجرایی بدون ترک محیط انجام شود. پیشنمایش متحرک رابط جدید در مقاله قابل مشاهده است.
#Google #AIStudio #VibeCoding #GoogleCloudRun #AIDevelopment #Prototyping #DevTools #GenerativeAI
🟣لینک مقاله:
https://www.testingcatalog.com/google-revamps-ai-studio-with-new-features-for-vibe-coding/?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
TestingCatalog
Google revamps AI Studio with new features for vibe coding
Google debuts a revamped AI Studio "Build" interface that cuts technical barriers for AI app prototyping with one-click Cloud Run publishing.
🔵 عنوان مقاله
Introducing Claude Haiku 4.5 (2 minute read)
🟢 خلاصه مقاله:
Anthropic مدل کوچک Claude Haiku 4.5 را معرفی کرده که با هزینهای حدود یکسوم و سرعتی دو برابر، عملکردی همتراز با Claude Sonnet 4 ارائه میدهد. این مدل در سناریوهای پرترافیک و کمتاخیر مانند پشتیبانی مشتری، تولید محتوا، کمک کدنویسی و استخراج داده مقرونبهصرفه و سریع عمل میکند. Haiku 4.5 همچنین امکان ساخت جریانهای کاری multi-agent را فراهم میکند؛ جایی که Sonnet 4.5 نقش برنامهریز و هماهنگکننده را برعهده دارد و چندین مدل Haiku را بهصورت موازی مدیریت میکند تا با شکستن کارهای پیچیده به وظایف کوچکتر، به خروجی یکپارچه، سریعتر و کمهزینهتر برسد. ترکیب Sonnet 4.5 برای استدلال و ارکستراسیون و Haiku 4.5 برای اجرای سریع و اقتصادی، راه را برای طراحی عاملهای مقیاسپذیر با توازن پویا بین سرعت و کیفیت هموار میکند.
#Anthropic #Claude #Haiku45 #Sonnet45 #ClaudeSonnet4 #MultiAgent #AIModels #GenerativeAI
🟣لینک مقاله:
https://www.anthropic.com/news/claude-haiku-4-5?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Introducing Claude Haiku 4.5 (2 minute read)
🟢 خلاصه مقاله:
Anthropic مدل کوچک Claude Haiku 4.5 را معرفی کرده که با هزینهای حدود یکسوم و سرعتی دو برابر، عملکردی همتراز با Claude Sonnet 4 ارائه میدهد. این مدل در سناریوهای پرترافیک و کمتاخیر مانند پشتیبانی مشتری، تولید محتوا، کمک کدنویسی و استخراج داده مقرونبهصرفه و سریع عمل میکند. Haiku 4.5 همچنین امکان ساخت جریانهای کاری multi-agent را فراهم میکند؛ جایی که Sonnet 4.5 نقش برنامهریز و هماهنگکننده را برعهده دارد و چندین مدل Haiku را بهصورت موازی مدیریت میکند تا با شکستن کارهای پیچیده به وظایف کوچکتر، به خروجی یکپارچه، سریعتر و کمهزینهتر برسد. ترکیب Sonnet 4.5 برای استدلال و ارکستراسیون و Haiku 4.5 برای اجرای سریع و اقتصادی، راه را برای طراحی عاملهای مقیاسپذیر با توازن پویا بین سرعت و کیفیت هموار میکند.
#Anthropic #Claude #Haiku45 #Sonnet45 #ClaudeSonnet4 #MultiAgent #AIModels #GenerativeAI
🟣لینک مقاله:
https://www.anthropic.com/news/claude-haiku-4-5?utm_source=tldrai
➖➖➖➖➖➖➖➖
👑 @ai_Labdon
Anthropic
Introducing Claude Haiku 4.5
Claude Haiku 4.5, our latest small model, is available today to all users.
👍1