گوگل یک ابزار هوش مصنوعی جدید به نام Learn About معرفی کرده که با چتباتهای معمول مثل جمینای و چتجیپیتی کاملاً متفاوته. این ابزار که روی مدل LearnLM ساخته شده، بر اساس تحقیقات آموزشی طراحی شده و با نحوه یادگیری انسان تطابق داره. محتواش پر از عناصر بصری و تعاملی با فرمت آموزشیه.
تو یه مقایسه بین Learn About و جمینای با سوال "کیهان چقدر بزرگه؟"، هر دو سیستم جواب دادن که کیهان قابل مشاهده حدود ۹۳ میلیارد سال نوری قطر داره. ولی Learn About با کادرهای آموزشی، توضیحات تکمیلی و واژهنامه، جواب رو به شکل آموزشیتری ارائه داده، در حالی که جمینای فقط یک نمودار از ویکیپدیا و دو پاراگراف متن با لینک منابع ارائه کرده.
این ابزار جدید حتی در مواجهه با سوالهای چالشبرانگیز هم دقت و ارزش آموزشی بالاتری نشون داده و مثلاً وقتی درباره چسب زدن روی پیتزا سوال شده (که قبلاً برای هوش مصنوعی گوگل مشکلساز شده بود)، این بار جواب درستی ارائه کرده. تمرکز این ابزار روی آموزش، اون رو به گزینهای متمایز در مقایسه با چتباتهای موجود تبدیل کرده.
میتونید از اینجا بهش دسترسی داشته باشید، البته هنوز برای خیلی از کشورها در دسترس نیست.
@aipulse24
تو یه مقایسه بین Learn About و جمینای با سوال "کیهان چقدر بزرگه؟"، هر دو سیستم جواب دادن که کیهان قابل مشاهده حدود ۹۳ میلیارد سال نوری قطر داره. ولی Learn About با کادرهای آموزشی، توضیحات تکمیلی و واژهنامه، جواب رو به شکل آموزشیتری ارائه داده، در حالی که جمینای فقط یک نمودار از ویکیپدیا و دو پاراگراف متن با لینک منابع ارائه کرده.
این ابزار جدید حتی در مواجهه با سوالهای چالشبرانگیز هم دقت و ارزش آموزشی بالاتری نشون داده و مثلاً وقتی درباره چسب زدن روی پیتزا سوال شده (که قبلاً برای هوش مصنوعی گوگل مشکلساز شده بود)، این بار جواب درستی ارائه کرده. تمرکز این ابزار روی آموزش، اون رو به گزینهای متمایز در مقایسه با چتباتهای موجود تبدیل کرده.
میتونید از اینجا بهش دسترسی داشته باشید، البته هنوز برای خیلی از کشورها در دسترس نیست.
@aipulse24
❤🔥22👍5❤1😁1
AI Pulse
Photo
کدوم یکی از این عکسها تولید هوش مصنوعیه؟
Anonymous Quiz
47%
عکس بالا
18%
عکس پایین
23%
هردو
13%
هیچ کدام
😁22🤬7
شرکت چینی DeepSeek از مدل اوپن سورس جدیدش DeepSeek-R1 رونمایی کرده که با مدل o1 از OpenAI رقابت تنگاتنگی داره. نسخه پیشنمایش این مدل که اسمش DeepSeek-R1-Lite-Preview هست، تو آزمونهای معتبر مثل AIME و MATH عملکرد خیلی خوبی داشته و حتی از o1 هم بهتر عمل کرده.
این مدل جدید مثل o1 از روش «زنجیره فکری» استفاده میکنه که باعث میشه مسائل پیچیده رو قدم به قدم حل کنه. این روش کمک میکنه که مدل بتونه درستی محاسباتش رو چک کنه و از اشتباهات رایج دوری کنه. کاربرها میتونن مراحل فکر کردن مدل رو ببینن، ولی خب این دقت باعث میشه که جواب دادن به سوالهای پیچیده کمی زمانبر بشه.
با اینکه DeepSeek-R1 خیلی خوب کار میکنه و از سیستمهای پیشرفتهای مثل GPT-4 و Claude هم توی بنچمارکها بهتر عمل کرده، ولی هنوز یه سری مشکلات داره. ضمنا از اونجایی که یه محصول چینیه، به موضوعات سیاسی حساس مربوط به چین هم جواب نمیده.
قراره DeepSeek-R1 به صورت اوپنسورس منتشر بشه و API هم در دسترس کاربران قرار بگیره. فعلاً میشه از طریق وبسایت DeepSeek Chat از اینجا باهاش کار کرد، و کاربرهای رایگان روزی ۵۰ تا پیام میتونن بفرستن.
@aipulse24
این مدل جدید مثل o1 از روش «زنجیره فکری» استفاده میکنه که باعث میشه مسائل پیچیده رو قدم به قدم حل کنه. این روش کمک میکنه که مدل بتونه درستی محاسباتش رو چک کنه و از اشتباهات رایج دوری کنه. کاربرها میتونن مراحل فکر کردن مدل رو ببینن، ولی خب این دقت باعث میشه که جواب دادن به سوالهای پیچیده کمی زمانبر بشه.
با اینکه DeepSeek-R1 خیلی خوب کار میکنه و از سیستمهای پیشرفتهای مثل GPT-4 و Claude هم توی بنچمارکها بهتر عمل کرده، ولی هنوز یه سری مشکلات داره. ضمنا از اونجایی که یه محصول چینیه، به موضوعات سیاسی حساس مربوط به چین هم جواب نمیده.
قراره DeepSeek-R1 به صورت اوپنسورس منتشر بشه و API هم در دسترس کاربران قرار بگیره. فعلاً میشه از طریق وبسایت DeepSeek Chat از اینجا باهاش کار کرد، و کاربرهای رایگان روزی ۵۰ تا پیام میتونن بفرستن.
@aipulse24
👍22❤4
آنتروپیک یک استاندارد جدید به نام پروتکل MCP یا Model Context Protocol معرفی کرده که میتونه دستیارهای هوش مصنوعی مثل Claude رو به منابع مختلف اطلاعاتی و سیستمها متصل کنه. با این پروتکل دیگه نیازی نیست برای هر منبع اطلاعاتی یک رابط جداگانه نوشته بشه.
ساختار MCP از دو بخش تشکیل شده: سرورهای MCP که اطلاعات رو از پلتفرمهای مختلف در دسترس قرار میدن، و کلاینتهای MCP که برنامههای مبتنی بر هوش مصنوعی هستن. آنتروپیک مشخصات فنی، SDK و یک مخزن متنباز از سرورهای آماده MCP برای سیستمهای محبوب مثل گوگل درایو، اسلک و گیتهاب رو منتشر کرده.
همچنین این استاندارد مورد استقبال کاربران و توسعه دهندگان زیادی قرار گرفته و باعث شده سرورهای مختلفی برای MCP توسعه بدن، مثلا در یکی از ویدیوهایی که بالا ضمیمه کردم یک کاربر با یک سرور MCP متصل به آمازون تونسته مواد غذایی مورد نیازش رو با استفاده از کلاد سفارش بده.
در حال حاضر MCP در نسخه دسکتاپ کلاد برای مک و ویندوز در دسترسه و کاربرها میتونن به فایلهای محلی، اینترنت و حتی کانالهای اسلک دسترسی داشته باشن.
این پروتکل میتونه تاثیر زیادی روی برنامههای هوش مصنوعی بذاره چون یک روش استاندارد برای تغذیه اطلاعات خارجی به مدلهای هوش مصنوعی فراهم میکنه. شرکتهای بزرگی مثل Cloudflare از الان شروع به توسعه سرورهای MCP کردن و با بلوغ این اکوسیستم، سیستمهای هوش مصنوعی میتونن در حین حرکت بین ابزارها و دادههای مختلف، متن رو هم بهتر درک کنن.
سرورهای آماده MCP رو از اینجا و نسخه دسکتاپ کلاد رو از اینجا میتونید دانلود کنید.
@aipulse24
ساختار MCP از دو بخش تشکیل شده: سرورهای MCP که اطلاعات رو از پلتفرمهای مختلف در دسترس قرار میدن، و کلاینتهای MCP که برنامههای مبتنی بر هوش مصنوعی هستن. آنتروپیک مشخصات فنی، SDK و یک مخزن متنباز از سرورهای آماده MCP برای سیستمهای محبوب مثل گوگل درایو، اسلک و گیتهاب رو منتشر کرده.
همچنین این استاندارد مورد استقبال کاربران و توسعه دهندگان زیادی قرار گرفته و باعث شده سرورهای مختلفی برای MCP توسعه بدن، مثلا در یکی از ویدیوهایی که بالا ضمیمه کردم یک کاربر با یک سرور MCP متصل به آمازون تونسته مواد غذایی مورد نیازش رو با استفاده از کلاد سفارش بده.
در حال حاضر MCP در نسخه دسکتاپ کلاد برای مک و ویندوز در دسترسه و کاربرها میتونن به فایلهای محلی، اینترنت و حتی کانالهای اسلک دسترسی داشته باشن.
این پروتکل میتونه تاثیر زیادی روی برنامههای هوش مصنوعی بذاره چون یک روش استاندارد برای تغذیه اطلاعات خارجی به مدلهای هوش مصنوعی فراهم میکنه. شرکتهای بزرگی مثل Cloudflare از الان شروع به توسعه سرورهای MCP کردن و با بلوغ این اکوسیستم، سیستمهای هوش مصنوعی میتونن در حین حرکت بین ابزارها و دادههای مختلف، متن رو هم بهتر درک کنن.
سرورهای آماده MCP رو از اینجا و نسخه دسکتاپ کلاد رو از اینجا میتونید دانلود کنید.
@aipulse24
❤19👍8
اوپنروتر، یک سرویس پیشرفته هوش مصنوعی هست که امکان استفاده از انواع مدلهای زبانی رو با یک API ساده فراهم میکنه. تصور کنید به جای اینکه مجبور باشید برای هر مدل هوش مصنوعی یک حساب جداگانه بسازید، میتونید از طریق یک درگاه واحد به همه اونها دسترسی داشته باشید.
تنوع مدلهای موجود در اوپنروتر واقعاً چشمگیره. از مدلهای سبک و سریع مثل Llama گرفته تا مدلهای قدرتمندی مثل GPT و Claude. هر کدوم از این مدلها برای کار خاصی بهینه شدن؛ مثلاً بعضیهاشون توی خلاصهنویسی عالی عمل میکنن، بعضیها توی برنامهنویسی، و بعضیها توی تحلیل متنهای طولانی.
در مورد هزینهها، اوپنروتر کاملاً شفاف عمل میکنه. شما میتونید قبل از استفاده، قیمت دقیق هر مدل رو ببینید و مقایسه کنید. سیستم پرداخت هم خیلی سادهست، حسابتون رو شارژ میکنید و فقط به اندازه استفادهتون هزینه پرداخت میکنید. این یعنی هم برای یک کاربر عادی مناسبه، هم برای یک برنامهنویس مستقل، و هم برای یک شرکت بزرگ. ضمنا میتونید با رمزارزها هم حسابتون رو شارژ کنید که برای کاربران ایرانی به دلیل در دسترس نبودن سیستم های پرداخت سنتی بسیار حائز اهمیت هست.
نکته جالب دیگه اینه که به عنوان توسعه دهنده میتونید خیلی راحت بین مدلهای مختلف جابجا بشید. مثلاً اگه دیدید یک مدل جدید اومده که برای کارتون بهتره، کافیه فقط اسم مدل رو عوض کنید - نیازی نیست کل برنامهتون رو تغییر بدید. این ویژگی باعث میشه اوپنروتر برای همه کاربرها، از مبتدی تا حرفهای، یک گزینه عالی باشه.
نکته هیجانانگیز اینه که حتی اگه برنامهنویس نیستید یا اصلاً نمیدونید API چیه، میتونید از طریق رابط کاربری ساده چت اوپنروتر، با بیش از ۲۰۰ مدل هوش مصنوعی مختلف گفتگو کنید. یکی از قابلیتهای جالبش اینه که میتونید همزمان از چند مدل مختلف جواب بگیرید و جوابها رو با هم مقایسه کنید تا از درستی اطلاعات مطمئن بشید. حتی میتونید تنظیمات مختلف هر مدل رو تغییر بدید - مثلاً میزان خلاقیت یا دقت مدل رو کم و زیاد کنید - تا دقیقاً به جوابی که میخواید برسید.
لازمه بدونید که حتی بدون شارژ کردن حسابتون هم میتونید از تعدادی از این مدلها به صورت کاملا رایگان برای تست API و یا قابلیت چت اوپن روتر استفاده کنید که لیست این مدل ها از اینجا قابل مشاهدهست.
به زبون سادهتر، اوپنروتر مثل یک مرکز خرید بزرگ برای هوش مصنوعی میمونه - همه چیز رو یکجا و با قیمتهای شفاف پیدا میکنید، و میتونید هر وقت خواستید از هر مدلی که دوست دارید استفاده کنید، چه برنامهنویس باشید چه نباشید.
سرویس چت اوپن روتر از اینجا در دسترسه، همچنین لیست مدل های موجود رو از اینجا و مستندات API رو از اینجا میتونید مشاهده کنید.
@aipulse24
تنوع مدلهای موجود در اوپنروتر واقعاً چشمگیره. از مدلهای سبک و سریع مثل Llama گرفته تا مدلهای قدرتمندی مثل GPT و Claude. هر کدوم از این مدلها برای کار خاصی بهینه شدن؛ مثلاً بعضیهاشون توی خلاصهنویسی عالی عمل میکنن، بعضیها توی برنامهنویسی، و بعضیها توی تحلیل متنهای طولانی.
در مورد هزینهها، اوپنروتر کاملاً شفاف عمل میکنه. شما میتونید قبل از استفاده، قیمت دقیق هر مدل رو ببینید و مقایسه کنید. سیستم پرداخت هم خیلی سادهست، حسابتون رو شارژ میکنید و فقط به اندازه استفادهتون هزینه پرداخت میکنید. این یعنی هم برای یک کاربر عادی مناسبه، هم برای یک برنامهنویس مستقل، و هم برای یک شرکت بزرگ. ضمنا میتونید با رمزارزها هم حسابتون رو شارژ کنید که برای کاربران ایرانی به دلیل در دسترس نبودن سیستم های پرداخت سنتی بسیار حائز اهمیت هست.
نکته جالب دیگه اینه که به عنوان توسعه دهنده میتونید خیلی راحت بین مدلهای مختلف جابجا بشید. مثلاً اگه دیدید یک مدل جدید اومده که برای کارتون بهتره، کافیه فقط اسم مدل رو عوض کنید - نیازی نیست کل برنامهتون رو تغییر بدید. این ویژگی باعث میشه اوپنروتر برای همه کاربرها، از مبتدی تا حرفهای، یک گزینه عالی باشه.
نکته هیجانانگیز اینه که حتی اگه برنامهنویس نیستید یا اصلاً نمیدونید API چیه، میتونید از طریق رابط کاربری ساده چت اوپنروتر، با بیش از ۲۰۰ مدل هوش مصنوعی مختلف گفتگو کنید. یکی از قابلیتهای جالبش اینه که میتونید همزمان از چند مدل مختلف جواب بگیرید و جوابها رو با هم مقایسه کنید تا از درستی اطلاعات مطمئن بشید. حتی میتونید تنظیمات مختلف هر مدل رو تغییر بدید - مثلاً میزان خلاقیت یا دقت مدل رو کم و زیاد کنید - تا دقیقاً به جوابی که میخواید برسید.
لازمه بدونید که حتی بدون شارژ کردن حسابتون هم میتونید از تعدادی از این مدلها به صورت کاملا رایگان برای تست API و یا قابلیت چت اوپن روتر استفاده کنید که لیست این مدل ها از اینجا قابل مشاهدهست.
به زبون سادهتر، اوپنروتر مثل یک مرکز خرید بزرگ برای هوش مصنوعی میمونه - همه چیز رو یکجا و با قیمتهای شفاف پیدا میکنید، و میتونید هر وقت خواستید از هر مدلی که دوست دارید استفاده کنید، چه برنامهنویس باشید چه نباشید.
سرویس چت اوپن روتر از اینجا در دسترسه، همچنین لیست مدل های موجود رو از اینجا و مستندات API رو از اینجا میتونید مشاهده کنید.
@aipulse24
3🔥22👍10❤🔥1🥰1👏1
Media is too big
VIEW IN TELEGRAM
لوما AI بهتازگی از جدیدترین دستاورد خودش در زمینه تولید ویدیو با هوش مصنوعی رونمایی کرده: Ray2. این مدل جدید که بخشی از پلتفرم Dream Machine هست، یک جهش چشمگیر در ساخت محتوای ویدیویی واقعگرایانه و پویا از متن به حساب میاد.
قدرت پردازشی Ray2 نسبت به نسخه قبلیش ۱۰ برابر افزایش پیدا کرده. این ارتقای قابل توجه باعث شده بتونه ویدیوهای ۵ تا ۱۰ ثانیهای با کیفیت بالا تولید کنه که حرکتهای طبیعی و منسجمی دارن. این مدل در تولید انیمیشنهای واقعگرایانه، انتقالهای نرم و فیلمبرداری پیشرفته عملکرد فوقالعادهای داره و درک بهتری از فیزیک دنیای واقعی نشون میده.
در حال حاضر، Ray2 از تبدیل متن به ویدیو پشتیبانی میکنه و کاربرها میتونن با وارد کردن توضیحات متنی، کلیپهای کوتاه تولید کنن. این مدل قادره محتوا رو با کیفیت 1080P تولید کنه و قراره در بهروزرسانیهای آینده، مدت زمان ویدیوها به ۲۰ ثانیه افزایش پیدا کنه. لوما AI همچنین خبر داده که قابلیتهای جدیدی مثل تبدیل عکس به ویدیو، ویدیو به ویدیو و ابزارهای ویرایش پیشرفته در راه هستن.
مدل Ray2 هماکنون برای مشترکین پلتفرم Dream Machine در دسترسه و قیمت اشتراکها از ۷ دلار در ماه شروع میشه.
@aipulse24
قدرت پردازشی Ray2 نسبت به نسخه قبلیش ۱۰ برابر افزایش پیدا کرده. این ارتقای قابل توجه باعث شده بتونه ویدیوهای ۵ تا ۱۰ ثانیهای با کیفیت بالا تولید کنه که حرکتهای طبیعی و منسجمی دارن. این مدل در تولید انیمیشنهای واقعگرایانه، انتقالهای نرم و فیلمبرداری پیشرفته عملکرد فوقالعادهای داره و درک بهتری از فیزیک دنیای واقعی نشون میده.
در حال حاضر، Ray2 از تبدیل متن به ویدیو پشتیبانی میکنه و کاربرها میتونن با وارد کردن توضیحات متنی، کلیپهای کوتاه تولید کنن. این مدل قادره محتوا رو با کیفیت 1080P تولید کنه و قراره در بهروزرسانیهای آینده، مدت زمان ویدیوها به ۲۰ ثانیه افزایش پیدا کنه. لوما AI همچنین خبر داده که قابلیتهای جدیدی مثل تبدیل عکس به ویدیو، ویدیو به ویدیو و ابزارهای ویرایش پیشرفته در راه هستن.
مدل Ray2 هماکنون برای مشترکین پلتفرم Dream Machine در دسترسه و قیمت اشتراکها از ۷ دلار در ماه شروع میشه.
@aipulse24
1👍14❤4👀1
مدلهای زبانی بزرگ (LLM) که بر پایه معماری ترنسفورمر کار میکنن، تحول چشمگیری در پردازش متن ایجاد کردن. این مدلها از ماژولهای توجه (attention) استفاده میکنن که مثل یه حافظه قدرتمند عمل میکنن و میتونن ارتباطهای پیچیده بین کلمات رو درک کنن. اما یه مشکل اساسی دارن: هرچی متن طولانیتر باشه، نیاز به محاسبات و حافظه بهطور تصاعدی افزایش پیدا میکنه و این باعث میشه که استفاده از اونها در دنیای واقعی با محدودیتهای جدی مواجه بشه.
خبر خوب اینه که محققان گوگل یه راهحل نوآورانه پیشنهاد کردن که اسمش رو گذاشتن Titans. این سیستم جدید از یه ماژول حافظه عصبی بلندمدت استفاده میکنه که میتونه اطلاعات تاریخی رو به شکل کارآمدی ذخیره و بازیابی کنه. جالبترین ویژگی Titans اینه که از یه سیستم حافظه دوگانه استفاده میکنه: یه بخش برای حافظه کوتاهمدت که وظیفهش مدلسازی دقیق وابستگیهای متنی در محدوده کوچکه، و یه بخش برای حافظه بلندمدت که اطلاعات مهم رو برای استفادههای بعدی نگه میداره.
این سیستم جدید از سه ماژول اصلی تشکیل شده: یه هسته مرکزی که مسئول پردازش اصلی دادههاست، یه شاخه حافظه بلندمدت که اطلاعات تاریخی رو ذخیره میکنه، و یه بخش حافظه دائمی که پارامترهای ثابت و مستقل از داده رو نگه میداره. محققان با استفاده از تکنیکهای پیشرفتهای مثل اتصالات باقیمانده، توابع فعالسازی SiLU و نرمالسازی، عملکرد سیستم رو بهینه کردن.
نتایج آزمایشها نشون میده که این سیستم جدید عملکرد فوقالعادهای داره. سه نسخه مختلف Titans (MAC، MAG و MAL) همگی از مدلهای موجود بهتر عمل میکنن و میتونن متنهای خیلی طولانی (بیشتر از ۲ میلیون توکن) رو با دقت بالا پردازش کنن. این موفقیت به خاطر سه ویژگی کلیدیه: مدیریت بهینه حافظه، قابلیتهای پیشرفته حافظه غیرخطی، و توانایی حذف هوشمندانه اطلاعات غیرضروری از حافظه.
این دستاورد مهم میتونه تأثیر زیادی روی آینده هوش مصنوعی و کاربردهای عملی اون داشته باشه. حالا میتونیم به سیستمهایی فکر کنیم که قادرن متنهای خیلی طولانی رو درک کنن، ویدیوها رو تحلیل کنن و پیشبینیهای دقیقتری از روندهای طولانیمدت داشته باشن. این پیشرفت، درهای جدیدی رو به روی محققان و توسعهدهندگان باز میکنه و میتونه به حل مسائل پیچیدهتر در آینده کمک کنه.
از اینجا میتونید نسخه کامل این مقاله رو دانلود و مشاهده کنید.
👀 منبع
@aipulse24
خبر خوب اینه که محققان گوگل یه راهحل نوآورانه پیشنهاد کردن که اسمش رو گذاشتن Titans. این سیستم جدید از یه ماژول حافظه عصبی بلندمدت استفاده میکنه که میتونه اطلاعات تاریخی رو به شکل کارآمدی ذخیره و بازیابی کنه. جالبترین ویژگی Titans اینه که از یه سیستم حافظه دوگانه استفاده میکنه: یه بخش برای حافظه کوتاهمدت که وظیفهش مدلسازی دقیق وابستگیهای متنی در محدوده کوچکه، و یه بخش برای حافظه بلندمدت که اطلاعات مهم رو برای استفادههای بعدی نگه میداره.
این سیستم جدید از سه ماژول اصلی تشکیل شده: یه هسته مرکزی که مسئول پردازش اصلی دادههاست، یه شاخه حافظه بلندمدت که اطلاعات تاریخی رو ذخیره میکنه، و یه بخش حافظه دائمی که پارامترهای ثابت و مستقل از داده رو نگه میداره. محققان با استفاده از تکنیکهای پیشرفتهای مثل اتصالات باقیمانده، توابع فعالسازی SiLU و نرمالسازی، عملکرد سیستم رو بهینه کردن.
نتایج آزمایشها نشون میده که این سیستم جدید عملکرد فوقالعادهای داره. سه نسخه مختلف Titans (MAC، MAG و MAL) همگی از مدلهای موجود بهتر عمل میکنن و میتونن متنهای خیلی طولانی (بیشتر از ۲ میلیون توکن) رو با دقت بالا پردازش کنن. این موفقیت به خاطر سه ویژگی کلیدیه: مدیریت بهینه حافظه، قابلیتهای پیشرفته حافظه غیرخطی، و توانایی حذف هوشمندانه اطلاعات غیرضروری از حافظه.
این دستاورد مهم میتونه تأثیر زیادی روی آینده هوش مصنوعی و کاربردهای عملی اون داشته باشه. حالا میتونیم به سیستمهایی فکر کنیم که قادرن متنهای خیلی طولانی رو درک کنن، ویدیوها رو تحلیل کنن و پیشبینیهای دقیقتری از روندهای طولانیمدت داشته باشن. این پیشرفت، درهای جدیدی رو به روی محققان و توسعهدهندگان باز میکنه و میتونه به حل مسائل پیچیدهتر در آینده کمک کنه.
از اینجا میتونید نسخه کامل این مقاله رو دانلود و مشاهده کنید.
👀 منبع
@aipulse24
11❤22🔥8👍3
این هفته شرکت مینیمکس (MiniMax) که با پشتیبانی علیبابا و تنسنت تا کنون ۸۵۰ میلیون دلار سرمایه جذب کرده و ارزش اون بیش از ۲.۵ میلیارد دلار هست، از سه مدل جدید هوش مصنوعی رونمایی کرد. این مدلها شامل MiniMax-Text-01 برای پردازش متن، MiniMax-VL-01 برای درک تصویر و متن، و T2A-01-HD برای تولید صدا میشن.
مدل MiniMax-Text-01 با ۴۵۶ میلیارد پارامتر، ادعا میکنه که از مدلهای مطرحی مثل Gemini 2.0 Flash گوگل در معیارهای MMLU و SimpleQA عملکرد بهتری داره. نکته قابل توجه اینه که این مدل میتونه حدود ۴ میلیون توکن رو پردازش کنه که این ظرفیت حدود ۳۱ برابر بیشتر از مدلهای GPT-4o و Llama 3.1 هست.
مدل MiniMax-VL-01 هم در رقابت با Claude 3.5 Sonnet شرکت Anthropic قرار گرفته و در زمینه درک چندرسانهای مثل تحلیل نمودارها و دیاگرامها عملکرد قابل توجهی داره. مدل T2A-01-HD که برای تولید صدا بهینه شده، میتونه در ۱۷ زبان مختلف از جمله انگلیسی و چینی صدای مصنوعی تولید کنه و با فقط ۱۰ ثانیه نمونه صوتی، صدای افراد رو شبیهسازی کنه.
نکته جالب توجه اینکه با وجود در دسترس بودن این مدلها در GitHub و Hugging Face، استفاده از اونها تحت مجوز محدودکننده MiniMax قرار داره و پلتفرمهایی با بیش از ۱۰۰ میلیون کاربر فعال ماهانه باید مجوز ویژهای از MiniMax درخواست کنن.
میتونید از اینجا به صورت رایگان یا از طریق اوپن روتر به این مدلها دسترسی داشته باشید.
@aipulse24
مدل MiniMax-Text-01 با ۴۵۶ میلیارد پارامتر، ادعا میکنه که از مدلهای مطرحی مثل Gemini 2.0 Flash گوگل در معیارهای MMLU و SimpleQA عملکرد بهتری داره. نکته قابل توجه اینه که این مدل میتونه حدود ۴ میلیون توکن رو پردازش کنه که این ظرفیت حدود ۳۱ برابر بیشتر از مدلهای GPT-4o و Llama 3.1 هست.
مدل MiniMax-VL-01 هم در رقابت با Claude 3.5 Sonnet شرکت Anthropic قرار گرفته و در زمینه درک چندرسانهای مثل تحلیل نمودارها و دیاگرامها عملکرد قابل توجهی داره. مدل T2A-01-HD که برای تولید صدا بهینه شده، میتونه در ۱۷ زبان مختلف از جمله انگلیسی و چینی صدای مصنوعی تولید کنه و با فقط ۱۰ ثانیه نمونه صوتی، صدای افراد رو شبیهسازی کنه.
نکته جالب توجه اینکه با وجود در دسترس بودن این مدلها در GitHub و Hugging Face، استفاده از اونها تحت مجوز محدودکننده MiniMax قرار داره و پلتفرمهایی با بیش از ۱۰۰ میلیون کاربر فعال ماهانه باید مجوز ویژهای از MiniMax درخواست کنن.
میتونید از اینجا به صورت رایگان یا از طریق اوپن روتر به این مدلها دسترسی داشته باشید.
@aipulse24
👍12🔥12
شرکتهای OpenAI, Oracle و SoftBank امروز اعلام کردن که قراره یک شرکت جدید به نام Stargate تاسیس کنن تا زیرساختهای هوش مصنوعی رو در ایالات متحده گسترش بدن. سم آلتمن (مدیرعامل OpenAI)، ماسایوشی سان (مدیرعامل SoftBank) و لری الیسون (رئیس Oracle) در کاخ سفید حضور پیدا کردن و در کنار دونالد ترامپ، این پروژه رو که رئیس جمهور اون رو "بزرگترین پروژه زیرساختی هوش مصنوعی در تاریخ" خوند، معرفی کردن.
این شرکتها در مرحله اول ۱۰۰ میلیارد دلار سرمایهگذاری میکنن و برنامه دارن که این رقم رو تا ۵۰۰ میلیارد دلار در سالهای آینده افزایش بدن. طبق گفته ترامپ، این پروژه قراره ۱۰۰ هزار شغل جدید در آمریکا ایجاد کنه. اولین مرکز داده این پروژه که مساحتش یک میلیون فوت مربع هست، هماکنون در تگزاس در حال ساخته.
سم آلتمن که قبلاً هم با مقامات آمریکایی درباره اهمیت توسعه زیرساختهای هوش مصنوعی صحبت کرده بود، این پروژه رو "مهمترین پروژه این دوران" خونده. اون تأکید کرده که هوش مصنوعی برخلاف نرمافزارهای معمولی، به زیرساختهای عظیم، از جمله برق، تراشههای کامپیوتری و مراکز داده نیاز داره و آمریکا باید برای پیشتاز موندن در این حوزه، این زیرساختها رو در داخل کشور بسازه.
در این پروژه، SoftBank مسئولیت مالی و OpenAI مسئولیت عملیاتی رو به عهده میگیره و ماسایوشی سان به عنوان رئیس Stargate انتخاب شده. این در حالیه که OpenAI هفته گذشته در یک گزارش اعلام کرد که حدود ۱۷۵ میلیارد دلار سرمایه جهانی آماده سرمایهگذاری در پروژههای هوش مصنوعی هست و اگر آمریکا نتونه این سرمایهها رو جذب کنه، به سمت پروژههای چینی سرازیر میشن.
@aipulse24
این شرکتها در مرحله اول ۱۰۰ میلیارد دلار سرمایهگذاری میکنن و برنامه دارن که این رقم رو تا ۵۰۰ میلیارد دلار در سالهای آینده افزایش بدن. طبق گفته ترامپ، این پروژه قراره ۱۰۰ هزار شغل جدید در آمریکا ایجاد کنه. اولین مرکز داده این پروژه که مساحتش یک میلیون فوت مربع هست، هماکنون در تگزاس در حال ساخته.
سم آلتمن که قبلاً هم با مقامات آمریکایی درباره اهمیت توسعه زیرساختهای هوش مصنوعی صحبت کرده بود، این پروژه رو "مهمترین پروژه این دوران" خونده. اون تأکید کرده که هوش مصنوعی برخلاف نرمافزارهای معمولی، به زیرساختهای عظیم، از جمله برق، تراشههای کامپیوتری و مراکز داده نیاز داره و آمریکا باید برای پیشتاز موندن در این حوزه، این زیرساختها رو در داخل کشور بسازه.
در این پروژه، SoftBank مسئولیت مالی و OpenAI مسئولیت عملیاتی رو به عهده میگیره و ماسایوشی سان به عنوان رئیس Stargate انتخاب شده. این در حالیه که OpenAI هفته گذشته در یک گزارش اعلام کرد که حدود ۱۷۵ میلیارد دلار سرمایه جهانی آماده سرمایهگذاری در پروژههای هوش مصنوعی هست و اگر آمریکا نتونه این سرمایهها رو جذب کنه، به سمت پروژههای چینی سرازیر میشن.
@aipulse24
👍18❤3🔥1