AI Pulse – Telegram
AI Pulse
3.73K subscribers
397 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
به گزارش "The Information"، اینتل و TSMC اخیراً درباره راه‌اندازی یک سرمایه‌گذاری مشترک برای اداره کارخانه‌های اینتل در آمریکا مذاکره کردن. طبق این گزارش، TSMC قراره ۲۰ درصد از سهام این شرکت جدید رو در اختیار بگیره.

کاخ سفید و وزارت بازرگانی آمریکا هم برای حل بحران اینتل، پیگیر این توافق بودن. اینتل سال گذشته با زیان ۱۸.۸ میلیارد دلاری و سقوط ۶۰ درصدی ارزش سهامش روبه‌رو شد و حالا تلاش داره با مدیریت جدید، عقب‌افتادگی از رقبا رو جبران کنه.

‏TSMC هم ماه پیش اعلام کرد قصد داره ۱۰۰ میلیارد دلار در ساخت پنج کارخانه جدید در آمریکا سرمایه‌گذاری کنه.

@aipulse24
👍142
گوگل امکان به اشتراک گذاری صفحه نمایش و دوربین گوشی رو به Gemeni Live اضافه کرده. این قابلیت باعث میشه کاربران بتونن به صورت بهینه‌تری از جمنای استفاده کنن.

این قابلیت از امروز برای کاربران پلن Advanced در اپلیکیشن جمنای در اندروید قابل استفاده هست.

@aipulse24
🔥162👍1
آقای Andrej Karpathy، پژوهشگر برجسته‌ی حوزه‌ی هوش مصنوعی و از چهره‌های تأثیرگذار سابق در تیم هوش مصنوعی تسلا و OpenAI، در تازه‌ترین مقاله‌ی خودش به یک پدیده‌ی جالب توجه اشاره کرده: انقلاب مدل‌های زبانی بزرگ (LLMها) برخلاف مسیر همیشگی گسترش فناوری‌ها، از پایین به بالا اتفاق افتاده، نه از بالا به پایین.

‏Karpathy توضیح می‌ده که فناوری‌های بزرگ در طول تاریخ معمولاً اول در دولت‌ها یا ارتش‌ها توسعه پیدا می‌کردن، بعد به شرکت‌های بزرگ می‌رسیدن و نهایتاً راهشون به دست مصرف‌کننده‌های عادی باز می‌شده. مثلاً برق، اینترنت، کامپیوتر و حتی GPS همگی این مسیر رو طی کردن. چون فناوری‌های نو در ابتدای مسیرشون پرهزینه، کمیاب و نیازمند تخصص بالا بودن. اما حالا ما با یک استثنای تاریخی طرفیم: LLMها مثل ChatGPT و Claude مستقیماً و اول از همه به مردم رسیدن و تأثیرشون روی زندگی فردی، خیلی سریع‌تر و گسترده‌تر از سازمان‌ها و دولت‌ها بوده.

او به این نکته اشاره می‌کنه که ChatGPT با بیش از ۴۰۰ میلیون کاربر هفتگی، به یکی از پرکاربردترین ابزارهای روزمره تبدیل شده. افراد ازش برای کارهایی مثل نوشتن، کدنویسی، ترجمه، تحقیق، خلاصه‌نویسی، تولید محتوا، و حتی آموزش استفاده می‌کنن. چیزی که Karpathy روش تأکید می‌کنه اینه که LLMها نه فقط یک ابزار جدید، بلکه یک "اهرم برای قدرت فردی" هستن؛ چون به افراد این امکان رو می‌دن که کارهایی رو انجام بدن که قبلاً از عهده‌شون خارج بوده. اون می‌گه: «حالا هر کسی می‌تونه یک اپ بنویسه، یک مقاله‌ علمی رو بفهمه، یا حتی قرارداد حقوقی رو تحلیل کنه، بدون این‌که متخصص اون حوزه باشه.»

در مقابل، Karpathy دلایلی رو مطرح می‌کنه که چرا سازمان‌ها و دولت‌ها هنوز نتونستن از این ابزارها به اندازه‌ افراد بهره ببرن؛ دلیل اول اینه که مدل‌های زبانی گستره‌ زیادی از دانش دارن، ولی در هر حوزه‌ای فقط در سطح نیمه‌تخصصی عمل می‌کنن. در حالی که شرکت‌ها خودشون با استخدام متخصص‌ها، از قبل این توانایی رو داشتن. در نتیجه، استفاده از LLMها تو سازمان‌ها بیشتر در حد افزایش بهره‌وری کارمنده، نه ایجاد توانمندی جدید. دلیل دوم، پیچیدگی بالای کار در سازمان‌هاست که از جمله اونها هماهنگی بین سیستم‌های قدیمی، قوانین سخت‌گیرانه، نیاز به امنیت بالا، رعایت سبک برند و خطرات حقوقی هست. و دلیل سوم هم مقاومت طبیعی سازمان‌های بزرگ در برابر تغییر سریعه؛ موانعی مثل فرهنگ داخلی، بوروکراسی، و چالش‌های آموزش نیروهای زیاد و پراکنده، موانعی هستن که در هنگام پذیرش تغییرات جدید دست و پاگیر میشن.

در ادامه، Karpathy به آینده‌ این روند هم اشاره می‌کنه. اون می‌گه یکی از ویژگی‌های جالب LLMهای امروزی اینه که با سرمایه‌ کم می‌تونی به بهترین نسخه‌ها دسترسی داشته باشی. به‌عبارت دیگه، بیل گیتس هم همون GPT-4o رو داره که یک دانش‌آموز ساده داره. اما هشدار می‌ده که ممکنه در آینده دوباره فاصله ایجاد بشه؛ اگه شرکت‌ها بتونن مدل‌هایی بخرن یا بسازن که به‌مراتب بهتر از نسخه‌های عمومی باشن، اون وقت دوباره طبقه‌ی ثروتمند از بقیه جدا می‌شه. بچه‌ی ثروتمندها با GPT-8-Pro درس می‌خونه، بقیه با نسخه‌ی ارزان‌تر.

در پایان، Karpathy این وضعیت رو "بی‌سابقه" توصیف می‌کنه و می‌گه که برخلاف تصور داستان‌های علمی‌تخیلی، انقلاب هوش مصنوعی نه از پروژه‌های نظامی و محرمانه، بلکه از اپلیکیشنی شروع شده که یه‌شبه و به‌صورت رایگان روی گوشی همه‌ی مردم اومده. با نقل‌قول از ویلیام گیبسون که می‌گفت "آینده همین حالاست، فقط هنوز همه‌جا پخش نشده"، Karpathy می‌نویسه: «این‌بار آینده نه‌تنها اینجاست، بلکه به طرز عجیبی همگانی شده. قدرت به مردم رسیده. و من عاشق این اتفاقم.»

نسخه کامل این مقاله رو از اینجا میتونید مشاهده کنید.

@aipulse24
32👍9
AI Pulse
از من که دارم هفته ای تقریبا ۱۵تا نیوزلتر هوش مصنوعی میخونم به شماها نصیحت اینده هوش مصنوعی تو اشل متوسط رو به کوچیک (نه تو لول ساخت ربات و غیره) توی ساخت ایجنت با استفاده از پلتفرم های low code و no code هست. تو همین ۱ ماه گذشته مایکروسافت و امازون هردو…
داشتم توی کانال میگشتم که به این پستم رسیدم
این پیش بینی من برای جولای پارسال!

قبل از اینکه ابزارهای vibe coding رایج بشن

قبل از اینکه سم التمن سال ۲۰۲۵ رو سال agent ها معرفی کنه

https://blog.samaltman.com/reflections

قبل از اینکه IBM، Techtarget ، مدیر عامل انویدیا و ۶۰۰ نفر دیگه توی ژانویه ۲۰۲۵ اعلام کنن

این پیش بینی رو کردم

(پستم شبیه این تریدر دوزاری ها شد ولی انصافا عجب پیش بینی کردم:))) )

آیا ایمان نمی آورید؟😭

حالا توی پست بعدی راجع به مشاغل آینده بعد هوش مصنوعی میگم
Please open Telegram to view this post
VIEW IN TELEGRAM
😁14🤣10👍63
💻پست مهم 💻

پژوهش های خیلی زیادی در رابطه با تحول نیروی کار و نحوه کار شرکت ها بعد از عرضه مدل های زبانی انجام شده

خیلی از اون ها به شرایط حذف انسان ها از نیروهای شرکت های مختلف و جایگزینی اونها با هوش مصنوعی پرداختن. درمورد یکی از این پژوهش ها اینجا حرف زدیم.

🔥 حالا بیاید درمورد شغل هایی که قرار بعد از رایج تر شدن هوش مصنوعی ایجاد بشن حرف بزنیم! 🔥

یکی از اون شغل ها به گفته گوگل AgentOps هست.

ایجنت یک نرم افزار برنامه ریزی شده است که با درک شرایط و contextی که در اون قرار داره با استفاده از ابزارهایی که دراختیار داره یک سری اهداف رو به سرانجام میرسونه. مثلا؟! مثلا دستیارهای خرید، کالایی که میخواید رو بهش میدید، براتون سرچ میکنه بهترین قیمت رو پیدا میکنه و خرید رو نهایی میکنه


یک ایجنت شامل مدل زبانی، ابزارها و فرایندهایی میشه که باید برای انجام وظایفش طی کنه.

اگر با GenAi کار کرده باشید متوجه میشید که رسیدن از یه ایده به proof of concept یا طرح اولیه خیلی خیلی ساده است اما رسیدن به یه نتیجه موندگار و قابل اطمینان خیلی کار میبره!


اینجاست که AgentOps وارد میشه!

هدف وجودی این شغل اینه که ایجنت ها با بهروری بالایی بتونن توی سازمان مورد استفاده قرار بگیرن

توی این مدت ۲ سال ساختار MLops یا GenAiOps خیلی رواج پیدا کرد و حالا AgentOps زیر مجموعه این ساختار هست که کارش مدیریت ابزارهایی که ایجنت استفاده میکنه، مدیریت پرامپت اصلی ایجنت، هماهنگی فرایندهاش، حافظه و تقسیم بندی وظایف ایجنت هست.


به طور کلی این شغل زیر مجموعه بخش Ops هر سازمان میگیره

😀در بالای این اکوسیستم DevOps قرار داره که کارش وصل کردن تیم توسعه و تیم عملیات به همه این بخش سعی میکنه برنامه هایی که توسعه دهنده ها نوشتن بدون خطا، امن و سریع بره روی سرور ها

😀بعدش MLOps هست که همون کار DevOps رو میکنه ولی برای مدل های یادگیری ماشین، واسه همین کارش خیلی داده محوره

😀 باز زیر مجموعه اون FMOps هست که کارش توسعه مدل های زبانی کارامده که بشه واقعا توی کار ازشون استفاده کرد


😀بعدی PromptOps هست که کارش حفظ و عملیاتی کردن پرامپت هاست، کازش اینه پرامپت ایجاد کنه، اثرات پرامپت مختلف رو بررسی کنه و دایم بهینه کنه

😀 بعدی RAGops هست که کارش اینه بتونه به صورت کارامد داده های سازمانی رو بازیابی کنه و اونهارو به خوبی توی دیتابیس نگه داره و درنهایت درزمان نیاز به خوبی اونهارو به کاربر برسونه

تا اینجا این ابزارها داشتن شرایط رو فراهم میکردن تا داده ها و مدل های ما اماده باشن تا بتونن واقعا واسه ما کاری انجام بدن!

🏆 حالا اینجا AgentOps وارد میشه روی قابلیت هایی که بقیه بخش ها ساختن سوار میشه و با استفاده از ابزارها و مدل ها زبانی و داده هایی که بخش های قبلی ساختن ایجنت هایی ایجاد میکنه تا یه سری تسک رو به سر انجام برسونن!🏆

😀 تا اخر این هفته مسیر یادگیری و منابعی که برای وارد شدن به این حوزه نیاز دارید رو جمع اوری می کنم و در قالب یه پست دیگه میزنم😀

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2915🔥6🫡1
گوگل در رویداد Next 25 از نسل هفتم شتاب‌دهنده اختصاصی خودش با نام Ironwood رونمایی کرد؛ قوی‌ترین و مقیاس‌پذیرترین TPU تاریخ این شرکت که به‌طور ویژه برای اجرای مدل‌های Inference طراحی شده. این چیپ جدید قراره پایه‌گذار «عصر Inference» باشه؛ دورانی که مدل‌های هوش مصنوعی نه فقط به سوال‌ها پاسخ می‌دن، بلکه خودشون به تولید و تفسیر داده هم می‌پردازن.

‏Ironwood در دو پیکربندی ۲۵۶ و ۹۲۱۶ چیپ عرضه می‌شه و در حالت کامل، قدرت پردازشی‌اش به ۴۲.۵ اگزافلاپس می‌رسه؛ یعنی بیش از ۲۴ برابر قوی‌تر از ابررایانه El Capitan. هر چیپ هم تا ۴۶۱۴ ترافلاپس قدرت داره و بهره‌وری انرژی اون نسبت به نسل قبل (Trillium) دو برابر شده. این نسل از سیستم خنک‌کننده مایع استفاده می‌کنه و به گفته گوگل، ۳۰ برابر کم‌مصرف‌تر از Cloud TPU v2ـه.

از نظر فنی، Ironwood از حافظه ۱۹۲ گیگابایتی HBM (۶ برابر بیشتر از Trillium) با پهنای باند ۷.۲ ترابیت بر ثانیه بهره می‌بره. شبکه ارتباطی Inter-Chip Interconnect هم با پهنای باند ۱.۲ ترابیت دوطرفه، اتصال سریع بین هزاران چیپ رو ممکن کرده. ماژول SparseCore در این نسل بهبود پیدا کرده و حالا می‌تونه در حوزه‌هایی مثل محاسبات مالی و علمی هم استفاده بشه.

همچنین گوگل از نرم‌افزار اختصاصی Pathways برای اجرای توزیع‌شده مدل‌ها روی صدها هزار چیپ Ironwood استفاده کرده؛ کاری که توسعه سریع‌تر مدل‌های بزرگ مولد مثل Gemini 2.5 و AlphaFold رو ممکن می‌کنه. Ironwood از اواخر امسال در اختیار توسعه‌دهنده‌ها و مشتریان Google Cloud قرار می‌گیره.

@aipulse24
🔥17👍3👌21
گوگل با همکاری بیش از ۵۰ شرکت فناوری، از پروتکل جدید و متن‌باز «Agent2Agent» یا به‌اختصار A2A رونمایی کرده؛ پروتکلی که با هدف تعامل و همکاری بین ایجنت‌های هوش مصنوعی طراحی شده و قراره نقطه‌ی عطفی در مسیر ساخت اکوسیستم چندایجنتی باشه. ایجنت‌های هوش مصنوعی، ابزارهایی هستن که می‌تونن به‌طور خودکار وظایف مختلفی رو انجام بدن؛ از کمک به کارمندان پشتیبانی تا برنامه‌ریزی زنجیره تأمین. حالا A2A این ایجنت‌ها رو قادر می‌کنه تا حتی اگه از شرکت‌های مختلف یا با چارچوب‌های متفاوت ساخته شده باشن، بتونن با هم ارتباط برقرار کنن و همکاری کنن.

پروتکل A2A بر پایه‌ی استانداردهای شناخته‌شده‌ای مثل HTTP و JSON-RPC توسعه داده شده و به‌صورت پیش‌فرض از امنیت در سطح سازمانی پشتیبانی می‌کنه. این پروتکل همچنین از وظایف طولانی‌مدت، تعامل‌های چندرسانه‌ای (مثل صدا و ویدیو) و سناریوهای پیچیده پشتیبانی می‌کنه. ایجنت‌ها از طریق یک «Agent Card» قابلیت‌های خودشون رو معرفی می‌کنن تا ایجنت‌های دیگه بتونن بهترین همکار ممکن رو برای انجام یک وظیفه پیدا کنن.

در یکی از نمونه‌های کاربردی، یک مدیر استخدام می‌تونه به ایجنت خودش وظیفه‌ی پیدا کردن برنامه‌نویسان مناسب رو بده. این ایجنت با ایجنت‌های دیگه ارتباط می‌گیره، اطلاعات لازم رو جمع می‌کنه و حتی هماهنگی برای مصاحبه و بررسی سوابق رو هم به ایجنت‌های دیگه واگذار می‌کنه. چنین همکاری‌ای فقط از طریق یک بستر مشترک مثل A2A ممکنه.

گوگل اعلام کرده که نسخه‌ی نهایی و آماده‌به‌کار این پروتکل قراره تا پایان امسال با همکاری جامعه‌ی متن‌باز و شرکای فناوری عرضه بشه.

@aipulse24
👍25🔥64
در ادامه، این شرکت از ابزار متن‌باز جدیدی با نام Agent Development Kit (ADK) رونمایی کرده. ADK یه چارچوب توسعه‌ی متن‌بازه که برای ساخت اپلیکیشن‌های ایجنت‌محور طراحی شده و به توسعه‌دهنده‌ها این امکان رو می‌ده که سیستم‌های چندایجنتی رو راحت‌تر و با کنترل دقیق‌تری بسازن، تست کنن و به مرحله‌ی اجرا برسونن.

گوگل اعلام کرده که همین ADK در محصولات داخلی خودش مثل Agentspace و Customer Engagement Suite (CES) هم استفاده شده. حالا با متن‌باز کردن اون، هدفش اینه که دست توسعه‌دهنده‌ها رو برای ساخت ایجنت‌های هوشمند و مستقل بازتر کنه.

چارچوب ADK روی چهار اصل کلیدی بنا شده: ساخت، تعامل، ارزیابی و استقرار. از طراحی چندایجنتی و اتصال به مدل‌های متنوع گرفته تا ابزارهای آماده مثل سرچ گوگل، قابلیت پخش زنده‌ی صوت و تصویر، تجربه‌ی توسعه‌ی یکپارچه و حتی ارزیابی خودکار عملکرد ایجنت‌ها — همه در این بسته‌ی جامع در نظر گرفته شدن.

برای مثال، توسعه‌دهنده‌ها می‌تونن با چند خط کد ساده یه ایجنت بسازن که با استفاده از سرچ گوگل به سوال‌ها جواب بده. یا می‌تونن یه سیستم چندایجنتی طراحی کنن که ایجنت اصلی درخواست‌های مربوط به آب‌وهوا رو پاسخ بده، ولی در صورت سلام یا خداحافظی، کار رو به ایجنت‌های تخصصی دیگه بسپره. این ساختار سلسله‌مراتبی با توصیف شفاف وظایف، به LLM کمک می‌کنه تا خودش تشخیص بده کدوم ایجنت باید مسئولیت پاسخ رو بر عهده بگیره.

گوگل همچنین یه سیستم ارزیابی داخلی هم توی ADK گذاشته که اجازه می‌ده قبل از استقرار نهایی، عملکرد ایجنت‌ها با تست‌های از پیش تعیین‌شده سنجیده بشه. در نهایت، ADK امکان استقرار راحت توی محیط‌های کانتینری و همچنین اجرای مستقیم روی موتور ایجنت Vertex AI رو فراهم می‌کنه که برای پروژه‌های مقیاس‌پذیر سازمانی طراحی شده.

در کنار ADK، گوگل ابزار دیگه‌ای به نام Genkit هم داره که برای پروژه‌های جنرال‌تر GenAI استفاده می‌شه. ولی برای پروژه‌هایی که نیاز به ساخت سیستم‌های چندایجنتی پیچیده دارن، ADK انتخاب بهتریه چون سطح انتزاع بالاتری ارائه می‌ده و با مدل‌های متنوع‌تری از جمله Gemini، Anthropic، Meta، و غیره سازگاری داره.

@aipulse24
👍21🔥31🥰1
گوگل همچنین از رابط کاربری جدید AI Studio رونمایی کرده که مورد استقبال گسترده کاربران قرار گرفته و نسبت به قبل سهولت بیشتری در استفاده رو برای کاربران فراهم میکنه.

@aipulse24
🔥26👍21❤‍🔥1🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
و در ادامه! گوگل از نسخه پیش‌نمایش «Firebase Studio» رونمایی کرده؛ یک محیط توسعه ابری و هوشمند که طراحی شده تا ساخت، تست، استقرار و اجرای اپ‌های ساخته شده با هوش مصنوعی رو سریع‌تر و ساده‌تر کنه. این ابزار جدید در راستای هدف فایربیس برای ساده‌سازی توسعه فول‌استک طراحی شده و به‌گونه‌ای ساخته شده که هم برای تازه‌کارها و هم برای توسعه‌دهنده‌های حرفه‌ای کاربردی باشه. از پروتوتایپ‌سازی با زبان طبیعی گرفته تا استفاده از ماشین مجازی قابل تنظیم، همه چیز توی یه پلتفرم یکپارچه جمع شده.

این ابزار که مشابه v0، bolt و cursor هست ترکیبیه از ابزارهایی مثل Project IDX، Genkit و Gemini in Firebase؛ و به توسعه‌دهنده‌ها این امکان رو می‌ده که در همون محیط، سریع نمونه اولیه بسازن، کد بزنن، پیش‌نمایش بگیرن، و در نهایت پروژه رو منتشر کنن. مثلاً با کمک «App Prototyping agent» می‌تونین با یه پرامپت ساده یا حتی یه عکس، خیلی سریع یه اپ Next.js تولید کنین.

یکی از قابلیت‌های جذاب دیگه، تعامل مستقیم با Gemini داخل خود Firebase Studio هست. کاربر می‌تونه با نوشتن یه دستور ساده مثل «احراز هویت کاربر رو اضافه کن» یا «رنگ دکمه‌ها رو تغییر بده»، تغییرات لازم رو توی اپش اعمال کنه، بدون این‌که خودش به کد دست بزنه. البته اگه کسی بخواد، می‌تونه مستقیماً وارد محیط کدنویسی بشه و مثل یه IDE کامل، از قابلیت‌هایی مثل تکمیل کد، دیباگ، ترمینال و... استفاده کنه.

برای تست پروژه هم نیازی به دانش فنی بالایی نیست. می‌تونین یه لینک عمومی یا QR code بسازین و روی هر دستگاهی پیش‌نمایش بگیرین. بعد از اطمینان از نتیجه، فقط کافیه روی «Publish» کلیک کنین تا پروژه‌تون با استفاده از Firebase App Hosting به‌صورت کامل روی وب منتشر بشه.

در نهایت، Firebase Studio امکاناتی مثل همکاری هم‌زمان روی پروژه، اشتراک‌گذاری محیط توسعه با لینک، دسترسی به ماشین مجازی ابری قابل تنظیم، و حتی استفاده از قالب‌های آماده یا ایمپورت پروژه‌های قدیمی رو هم فراهم کرده.
برای شروع، فقط کافیه وارد این لینک بشین.

@aipulse24
🔥22👍7🕊1
شرکت xAI بالاخره API مخصوص مدل پرچم‌دار خودش یعنی Grok 3 رو راه‌اندازی کرده. این مدل شامل چند نسخه مختلفه از جمله Grok 3 Mini، Grok 3 Reasoning و نسخه Mini اون با قابلیت «استدلال». کاربران می‌تونن به دو نسخه اصلی یعنی Grok 3 و Grok 3 Mini از طریق API دسترسی داشته باشن، و قیمت‌گذاری بسته به میزان توکن‌های ورودی یا خروجی محاسبه می‌شه.

نسخه استاندارد Grok 3 با قیمت ۳ دلار برای هر میلیون توکن ورودی و ۱۵ دلار برای هر میلیون توکن خروجی عرضه شده، در حالی‌ که Grok 3 Mini با نرخ پایین‌تر ۰.۳۰ دلار برای ورودی و ۰.۵۰ دلار برای خروجی در دسترسه. نسخه‌های سریع‌تر این مدل‌ها هم با هزینه بیشتر ارائه می‌شن، به‌طوری که استفاده از Grok 3 در حالت پرسرعت، ۵ دلار برای ورودی و ۲۵ دلار برای خروجی هزینه داره.

@aipulse24
13👍9
This media is not supported in your browser
VIEW IN TELEGRAM
پرپلکسیتی هم از ربات رسمی تلگرام خودش رونمایی کرده. از این پس میتونید داخل تلگرام باهاش چت کنید یا حتی به گروه‌هاتون اضافه‌ش کنید و ازش استفاده کنید.

این ربات از طریق آیدی @askplexbot در دسترسه.

@aipulse24
👍208
یک مدل مرموز چند روزه به Openrouter اضافه شده با عنوان Quasar Alpha که احتمال میره برای openai باشه و درحال تست قابلیت هاش هست.

مدل context window یک میلیونی داره، ۴برابر سریع تر از sonnet 3.7 هست و قابلیت های کدینگش نزدیک به بهترین مدل هاست

علت اینکه احساس میشه برای OpenAi باشه اینه که هم استایل و هم متا دیتا مدل مشابه مدل های OpenAi هست و سم التمن هم توی جواب یک تویئت که توی عکس میینید این رو تایید کرده که مدل برای OpenAi هست.

اینم جهت سیگنچر کار: 🍽

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
😁15🔥8👍2
AI Pulse
Video
This media is not supported in your browser
VIEW IN TELEGRAM
مدل OmniHuman ریلیز شد با اسم جدید Dreamina

به صورت فری تقریبا روزی یه دونه ویدیو میده که اونم من خرج شما عزیزان کردم😂😂

هعی:)) همه اش فداکاری😭

ولی محدودیتش زیاده توی وویس اول هم کلمه احمق داشتم و هم نارنجک مجبور شدم هردو رو حذف کنم تا جنریت کنه

ولی کیفیتش خیلی خوبه

با اکانت capcut میتونین ازش استفاده کنید.

Dreamina.capcut.com

@aipulse
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👍81❤‍🔥1