شرکت OpenAI صدای جدیدی به نام "Monday" رو به حالت صوتی چتجیپیتی اضافه کرده که برای همه کاربران، حتی اونایی که از نسخه رایگان استفاده میکنن، در دسترسه. این صدا لحن خاصی داره و قرار شده که پاسخهای طعنهآمیز و طنزآمیزتری ارائه بده.
Monday بهعنوان دهمین صدا به Voice Mode اضافه شده و لحنش کاملاً با اسمش جور درمیاد؛ ترکیبی از شوخی و کمی بدخلقی که خیلیا صبح روزهای دوشنبه (صبح شنبه خودمون) حسش میکنن. کاربرای نسخه پولی میتونن مستقیم از قسمت انتخاب صدا، Monday رو فعال کنن. اما برای کاربران رایگان، استفاده از این صدا فقط در حالت چت متنی ممکنه و باید از قسمت Explore در محیط کاربری چتجیپیتی پیداش کنن.
یه نکته جالب اینه که OpenAI این صدا رو دقیقاً در روز اول آوریل منتشر کرده که روز جهانی شوخی و دروغهای مصلحتی محسوب میشه. این موضوع باعث شده بعضیا فکر کنن Monday یه تغییر موقتیه و شاید بهزودی حذف بشه. اما اگه این ویژگی دائمی باشه، میتونه رقابت جدیای با حالت Grok Unhinged شرکت xAI داشته باشه، حالتی که بهخاطر پاسخهای جسورانه و گاهی نیشدارش حسابی سروصدا کرده.
این آپدیت درحالی منتشر شده که OpenAI با مشکلات فنی و کمبود ظرفیت پردازشی مواجهه. بهدلیل افزایش شدید استفاده از ویژگیهای جدید مثل تولید تصویر به سبک استودیو جیبلی، سم آلتمن، مدیرعامل OpenAI، هشدار داده که کاربران باید انتظار اختلال، کندی سرویس و تأخیر در انتشار قابلیتهای جدید رو داشته باشن. اون همچنین اعلام کرده که این شرکت با کمبود پردازندههای گرافیکی (GPU) روبهرو شده و در شبکه اجتماعی X از شرکتهای تأمینکننده درخواست کمک کرده.
@aipulse24
Monday بهعنوان دهمین صدا به Voice Mode اضافه شده و لحنش کاملاً با اسمش جور درمیاد؛ ترکیبی از شوخی و کمی بدخلقی که خیلیا صبح روزهای دوشنبه (صبح شنبه خودمون) حسش میکنن. کاربرای نسخه پولی میتونن مستقیم از قسمت انتخاب صدا، Monday رو فعال کنن. اما برای کاربران رایگان، استفاده از این صدا فقط در حالت چت متنی ممکنه و باید از قسمت Explore در محیط کاربری چتجیپیتی پیداش کنن.
یه نکته جالب اینه که OpenAI این صدا رو دقیقاً در روز اول آوریل منتشر کرده که روز جهانی شوخی و دروغهای مصلحتی محسوب میشه. این موضوع باعث شده بعضیا فکر کنن Monday یه تغییر موقتیه و شاید بهزودی حذف بشه. اما اگه این ویژگی دائمی باشه، میتونه رقابت جدیای با حالت Grok Unhinged شرکت xAI داشته باشه، حالتی که بهخاطر پاسخهای جسورانه و گاهی نیشدارش حسابی سروصدا کرده.
این آپدیت درحالی منتشر شده که OpenAI با مشکلات فنی و کمبود ظرفیت پردازشی مواجهه. بهدلیل افزایش شدید استفاده از ویژگیهای جدید مثل تولید تصویر به سبک استودیو جیبلی، سم آلتمن، مدیرعامل OpenAI، هشدار داده که کاربران باید انتظار اختلال، کندی سرویس و تأخیر در انتشار قابلیتهای جدید رو داشته باشن. اون همچنین اعلام کرده که این شرکت با کمبود پردازندههای گرافیکی (GPU) روبهرو شده و در شبکه اجتماعی X از شرکتهای تأمینکننده درخواست کمک کرده.
@aipulse24
🥰12👍7
This media is not supported in your browser
VIEW IN TELEGRAM
تصویری از رابط کاربری AI Mode گوگل که برای تعدادی از کاربران فعال شده.
این قابلیت مشابه قابلیت سرچ در ChatGPT هست.
@aipulse24
این قابلیت مشابه قابلیت سرچ در ChatGPT هست.
@aipulse24
🔥24👍7👎2😁1💯1
گوگل امروز قیمتگذاری مدل Gemini 2.5 Pro، مدل هوش مصنوعی جدیدش رو منتشر کرده. هزینهی این مدل برای درخواستهای تا ۲۰۰ هزار توکن، ۱.۲۵ دلار به ازای هر میلیون توکن ورودی و ۱۰ دلار برای خروجیه. برای درخواستهای بزرگتر، قیمت به ۲.۵۰ دلار برای ورودی و ۱۵ دلار برای خروجی افزایش پیدا میکنه.
این مدل از تمام نسخههای قبلی گوگل گرونتره و حتی از برخی رقبا مثل o3-mini از OpenAI و DeepSeek R1 قیمت بالاتری داره، اما از مدلهایی مثل Claude 3.7 Sonnet و GPT-4.5 ارزونتره.
در کل، قیمت مدلهای پرچمدار شرکتهایی مثل گوگل و OpenAI رو به افزایشه. یکی از دلایل این روند، تقاضای بالاست. به گفتهی ساندار پیچای، Gemini 2.5 Pro محبوبترین مدل گوگل بین توسعهدهندههاست و استفاده از API اون در این ماه ۸۰٪ رشد کرده.
دقت کنید که قیمتهای اعلام شده مربوط به API هست و کاربران عادی همچنان از AI Studio و اپ یا وبسایت جمنای میتونن از نسخه رایگان این مدل استفاده کنن.
@aipulse24
این مدل از تمام نسخههای قبلی گوگل گرونتره و حتی از برخی رقبا مثل o3-mini از OpenAI و DeepSeek R1 قیمت بالاتری داره، اما از مدلهایی مثل Claude 3.7 Sonnet و GPT-4.5 ارزونتره.
در کل، قیمت مدلهای پرچمدار شرکتهایی مثل گوگل و OpenAI رو به افزایشه. یکی از دلایل این روند، تقاضای بالاست. به گفتهی ساندار پیچای، Gemini 2.5 Pro محبوبترین مدل گوگل بین توسعهدهندههاست و استفاده از API اون در این ماه ۸۰٪ رشد کرده.
دقت کنید که قیمتهای اعلام شده مربوط به API هست و کاربران عادی همچنان از AI Studio و اپ یا وبسایت جمنای میتونن از نسخه رایگان این مدل استفاده کنن.
@aipulse24
❤12👍10
اگه دنبال کار میگردی یا میخوای رزومهتو یه سرو سامون بدی، این ابزارهای خفن که با هوش مصنوعی کار میکنن کلی میتونن کمکت کنن. هم وقتتو ذخیره میکنن، هم حرفهایتر جلوه میدی:
1. Rezi – ساخت رزومه اتومات با هوش مصنوعی
2. Teal – مدیریت پروسه اپلای کردن
3. Resumai – رزومهسازی با یه کلیک
4. Lazyapply – خودش برات میره اپلای میکنه
5. Careerflow – یه داشبورد برای دنبال کردن روند شغل پیدا کردن
6. Himalayas – مخصوص کارهای ریموت
7. Huru.ai – تمرین مصاحبه مثل واقعیها
8. Skillora.ai و Remasto.com – فقط برای گزینه های پولی داره
9. Interviewsby.ai – تمرین مصاحبه با تحلیل حرفهای
حالا جدا از رزومه و اپلای، برای آماده شدن واسه مصاحبه هم کلی ابزار هست که میتونی باهاشون تمرین کنی:
آمادگی عمومی برای مصاحبه:
Prep Invue AI – آنالیز رفتار و حرف زدنت با AI
Final Round AI – راهنمایی لحظهای تو مصاحبههای واقعی
مصاحبههای فنی و کدنویسی:
Acedit – تمرین کدنویسی تو مرورگر
Exponent Practice – تمرین با همسطحا
interviewing.io – مصاحبه ناشناس با فیدبک واقعی
LeetCode Interview – تمرین سوالات فنی و چالشدار
برای بهتر حرف زدن و ارتباط گرفتن:
Yoodli AI – تمرین حرف زدن، اعتماد به نفس و بیان
Big Interview – فیدبک واسه مصاحبههای رفتاری
Voomer – تمرین جواب دادن ویدیویی با فیدبک AI
برای کیس استادی و مصاحبههای مشاورهای:
CaseCoach – تمرین حرفهای واسه کیس استادی
RocketBlocks – تمرین برای نقشهای بیزینسی
IGotAnOffer – آموزش و تمرین برای مصاحبههای خاص
برای مدیریت محصول و UX:
PracticeInterview.ai – تمرین PM مصاحبه
آمادگی برای شرکت یا موقعیت خاص:
PrepInsta – تمرین واسه شرکتهای خاص
Pathrise – کوچینگ و راهنمایی شغلی کامل با AI
اگه اینا رو قبلاً امتحان کردی یا سوالی داری، خوشحال میشم گپ بزنیم!
@aipulse24
1. Rezi – ساخت رزومه اتومات با هوش مصنوعی
2. Teal – مدیریت پروسه اپلای کردن
3. Resumai – رزومهسازی با یه کلیک
4. Lazyapply – خودش برات میره اپلای میکنه
5. Careerflow – یه داشبورد برای دنبال کردن روند شغل پیدا کردن
6. Himalayas – مخصوص کارهای ریموت
7. Huru.ai – تمرین مصاحبه مثل واقعیها
8. Skillora.ai و Remasto.com – فقط برای گزینه های پولی داره
9. Interviewsby.ai – تمرین مصاحبه با تحلیل حرفهای
حالا جدا از رزومه و اپلای، برای آماده شدن واسه مصاحبه هم کلی ابزار هست که میتونی باهاشون تمرین کنی:
آمادگی عمومی برای مصاحبه:
Prep Invue AI – آنالیز رفتار و حرف زدنت با AI
Final Round AI – راهنمایی لحظهای تو مصاحبههای واقعی
مصاحبههای فنی و کدنویسی:
Acedit – تمرین کدنویسی تو مرورگر
Exponent Practice – تمرین با همسطحا
interviewing.io – مصاحبه ناشناس با فیدبک واقعی
LeetCode Interview – تمرین سوالات فنی و چالشدار
برای بهتر حرف زدن و ارتباط گرفتن:
Yoodli AI – تمرین حرف زدن، اعتماد به نفس و بیان
Big Interview – فیدبک واسه مصاحبههای رفتاری
Voomer – تمرین جواب دادن ویدیویی با فیدبک AI
برای کیس استادی و مصاحبههای مشاورهای:
CaseCoach – تمرین حرفهای واسه کیس استادی
RocketBlocks – تمرین برای نقشهای بیزینسی
IGotAnOffer – آموزش و تمرین برای مصاحبههای خاص
برای مدیریت محصول و UX:
PracticeInterview.ai – تمرین PM مصاحبه
آمادگی برای شرکت یا موقعیت خاص:
PrepInsta – تمرین واسه شرکتهای خاص
Pathrise – کوچینگ و راهنمایی شغلی کامل با AI
اگه اینا رو قبلاً امتحان کردی یا سوالی داری، خوشحال میشم گپ بزنیم!
@aipulse24
🔥12👍9❤8
AI Pulse
اگه دنبال کار میگردی یا میخوای رزومهتو یه سرو سامون بدی، این ابزارهای خفن که با هوش مصنوعی کار میکنن کلی میتونن کمکت کنن. هم وقتتو ذخیره میکنن، هم حرفهایتر جلوه میدی: 1. Rezi – ساخت رزومه اتومات با هوش مصنوعی 2. Teal – مدیریت پروسه اپلای کردن …
لیست سایت ها رو دادم به هوش مصنوعی گفتم یه پست تلگرام تولید کن
این فاجعه رو ساخت😭 😭
گفتم همینجوری بفرستم خیلی نگران نباشید از کار بیکار میشید😂
اون عکسم بهش گفتم از خودت بساز که داری این پست رو مینویسی اون رو زد🥺
✅✅ نکته مهم ✅✅
برید توی سایت Rezi ثبت نام کنید و بعد توی ساب ردیت Rezi اون بالا یک فرم هست پر کنید تا بهتون رایگان لایف تایم پرمیوم بده!!!!
این فاجعه رو ساخت
گفتم همینجوری بفرستم خیلی نگران نباشید از کار بیکار میشید
اون عکسم بهش گفتم از خودت بساز که داری این پست رو مینویسی اون رو زد
✅✅ نکته مهم ✅✅
برید توی سایت Rezi ثبت نام کنید و بعد توی ساب ردیت Rezi اون بالا یک فرم هست پر کنید تا بهتون رایگان لایف تایم پرمیوم بده!!!!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14😁10👍3
شرکت متا نسل چهارم از مدلهای زبانی Llama را معرفی کرده که با تواناییهای چندوجهی و پشتیبانی از کانتکست بسیار بلند، رقیب بسیار جدیای برای مدلهای اوپن سورس محسوب میشن.
در این مجموعه سه مدل معرفی شده: Llama 4 Scout، Llama 4 Maverick و Llama 4 Behemoth. دو مدل اول به صورت Open Weight عرضه شدن و برای استفاده در پلتفرمهایی مثل WhatsApp، Messenger، Instagram Direct و نسخه وب Meta AI در دسترس قرار گرفتن.
مدل Scout با ۱۷ میلیارد پارامتر فعال و ۱۶ متخصص، قویترین مدل توی کلاس خودش بهشمار میاد و با وجود تواناییهای چشمگیر، روی یک GPU از نوع H100 اجرا میشه. این مدل با داشتن پنجره کانتکست ۱۰ میلیون توکنی، عملکردی بهتر از مدلهایی مثل Gemma 3 و Gemini 2.0 Flash-Lite ارائه میده.
مدل Maverick هم که از همون تعداد پارامتر فعال اما با ۱۲۸ متخصص بهره میبره، در تستهای گسترده از GPT-4o و Gemini 2.0 پیشی گرفته و با مدلهایی مثل DeepSeek v3 در زمینههای استدلال و کدنویسی رقابت میکنه؛ اون هم با نصف تعداد پارامتر فعال.
قدرت این مدلها تا حد زیادی مدیون مدل Behemoth هست؛ یک مدل بزرگ ۲ تریلیونی با ۲۸۸ میلیارد پارامتر فعال که نقش "معلم" رو در فرایند آموزش ایفا کرده. Behemoth در بنچمارکهای ریاضی، کدنویسی و زبانهای مختلف عملکردی بهتر از مدلهای شاخصی مثل GPT-4.5، Claude 3.7 و Gemini 2.0 Pro داشته. هرچند هنوز بهطور کامل عرضه نشده، اما متا وعده داده بهزودی اطلاعات بیشتری دربارهی اون منتشر کنه.
در طراحی این مدلها، معماری Mixture of Experts بهکار گرفته شده که با فعالسازی بخشی از پارامترها بهازای هر توکن، هم بازدهی محاسباتی رو افزایش داده و هم کیفیت مدل رو نسبت به مدلهای متراکم بهبود داده. Llama 4 همچنین بهصورت چندوجهی طراحی شده و میتونه همزمان ورودیهای متنی و تصویری رو پردازش کنه. در فاز آموزش، از دادههای متنی، تصویری و ویدیویی در مقیاس بالا استفاده شده و تکنیکهای جدیدی مثل MetaP برای بهینهسازی هایپرپارامترها بهکار رفته.
در مرحله پسآموزش، متا از روشهای جدیدی مثل یادگیری تقویتی آنلاین و بهینهسازی مستقیم ترجیحی برای بهبود مهارتهای مدل در استدلال، مکالمه و چندوجهیبودن استفاده کرده.
مدل Maverick با بهرهگیری از این روشها، عملکرد چشمگیری در درک تصویر، تولید متن، پاسخ به پرسشهای بصری و وظایف پیچیده نشون داده. مدل Scout هم با وجود حجم کمتر، در زمینههایی مثل کدنویسی، پردازش کانتکست بلند، و درک تصویری، نتایجی بهتر از تمام نسلهای قبلی Llama ارائه میده.
در نهایت، متا تأکید کرده که این مدلها با بالاترین استانداردهای ایمنی توسعه داده شدن. ابزارهایی مثل Llama Guard، Prompt Guard و سامانهی تست GOAT برای جلوگیری از خروجیهای نامناسب یا سؤاستفاده از مدلها ارائه شده و توسعهدهندگان میتونن این ابزارها رو متناسب با نیاز خودشون تنظیم کنن. همچنین تلاشهایی هم برای کاهش سوگیریهای سیاسی و اجتماعی در پاسخهای مدل صورت گرفته تا Llama 4 بتونه دیدگاههای مختلف رو بهدرستی درک و بیان کنه.
@aipulse24
در این مجموعه سه مدل معرفی شده: Llama 4 Scout، Llama 4 Maverick و Llama 4 Behemoth. دو مدل اول به صورت Open Weight عرضه شدن و برای استفاده در پلتفرمهایی مثل WhatsApp، Messenger، Instagram Direct و نسخه وب Meta AI در دسترس قرار گرفتن.
مدل Scout با ۱۷ میلیارد پارامتر فعال و ۱۶ متخصص، قویترین مدل توی کلاس خودش بهشمار میاد و با وجود تواناییهای چشمگیر، روی یک GPU از نوع H100 اجرا میشه. این مدل با داشتن پنجره کانتکست ۱۰ میلیون توکنی، عملکردی بهتر از مدلهایی مثل Gemma 3 و Gemini 2.0 Flash-Lite ارائه میده.
مدل Maverick هم که از همون تعداد پارامتر فعال اما با ۱۲۸ متخصص بهره میبره، در تستهای گسترده از GPT-4o و Gemini 2.0 پیشی گرفته و با مدلهایی مثل DeepSeek v3 در زمینههای استدلال و کدنویسی رقابت میکنه؛ اون هم با نصف تعداد پارامتر فعال.
قدرت این مدلها تا حد زیادی مدیون مدل Behemoth هست؛ یک مدل بزرگ ۲ تریلیونی با ۲۸۸ میلیارد پارامتر فعال که نقش "معلم" رو در فرایند آموزش ایفا کرده. Behemoth در بنچمارکهای ریاضی، کدنویسی و زبانهای مختلف عملکردی بهتر از مدلهای شاخصی مثل GPT-4.5، Claude 3.7 و Gemini 2.0 Pro داشته. هرچند هنوز بهطور کامل عرضه نشده، اما متا وعده داده بهزودی اطلاعات بیشتری دربارهی اون منتشر کنه.
در طراحی این مدلها، معماری Mixture of Experts بهکار گرفته شده که با فعالسازی بخشی از پارامترها بهازای هر توکن، هم بازدهی محاسباتی رو افزایش داده و هم کیفیت مدل رو نسبت به مدلهای متراکم بهبود داده. Llama 4 همچنین بهصورت چندوجهی طراحی شده و میتونه همزمان ورودیهای متنی و تصویری رو پردازش کنه. در فاز آموزش، از دادههای متنی، تصویری و ویدیویی در مقیاس بالا استفاده شده و تکنیکهای جدیدی مثل MetaP برای بهینهسازی هایپرپارامترها بهکار رفته.
در مرحله پسآموزش، متا از روشهای جدیدی مثل یادگیری تقویتی آنلاین و بهینهسازی مستقیم ترجیحی برای بهبود مهارتهای مدل در استدلال، مکالمه و چندوجهیبودن استفاده کرده.
مدل Maverick با بهرهگیری از این روشها، عملکرد چشمگیری در درک تصویر، تولید متن، پاسخ به پرسشهای بصری و وظایف پیچیده نشون داده. مدل Scout هم با وجود حجم کمتر، در زمینههایی مثل کدنویسی، پردازش کانتکست بلند، و درک تصویری، نتایجی بهتر از تمام نسلهای قبلی Llama ارائه میده.
در نهایت، متا تأکید کرده که این مدلها با بالاترین استانداردهای ایمنی توسعه داده شدن. ابزارهایی مثل Llama Guard، Prompt Guard و سامانهی تست GOAT برای جلوگیری از خروجیهای نامناسب یا سؤاستفاده از مدلها ارائه شده و توسعهدهندگان میتونن این ابزارها رو متناسب با نیاز خودشون تنظیم کنن. همچنین تلاشهایی هم برای کاهش سوگیریهای سیاسی و اجتماعی در پاسخهای مدل صورت گرفته تا Llama 4 بتونه دیدگاههای مختلف رو بهدرستی درک و بیان کنه.
@aipulse24
🔥17❤4👍2❤🔥1
به گزارش "The Information"، اینتل و TSMC اخیراً درباره راهاندازی یک سرمایهگذاری مشترک برای اداره کارخانههای اینتل در آمریکا مذاکره کردن. طبق این گزارش، TSMC قراره ۲۰ درصد از سهام این شرکت جدید رو در اختیار بگیره.
کاخ سفید و وزارت بازرگانی آمریکا هم برای حل بحران اینتل، پیگیر این توافق بودن. اینتل سال گذشته با زیان ۱۸.۸ میلیارد دلاری و سقوط ۶۰ درصدی ارزش سهامش روبهرو شد و حالا تلاش داره با مدیریت جدید، عقبافتادگی از رقبا رو جبران کنه.
TSMC هم ماه پیش اعلام کرد قصد داره ۱۰۰ میلیارد دلار در ساخت پنج کارخانه جدید در آمریکا سرمایهگذاری کنه.
@aipulse24
کاخ سفید و وزارت بازرگانی آمریکا هم برای حل بحران اینتل، پیگیر این توافق بودن. اینتل سال گذشته با زیان ۱۸.۸ میلیارد دلاری و سقوط ۶۰ درصدی ارزش سهامش روبهرو شد و حالا تلاش داره با مدیریت جدید، عقبافتادگی از رقبا رو جبران کنه.
TSMC هم ماه پیش اعلام کرد قصد داره ۱۰۰ میلیارد دلار در ساخت پنج کارخانه جدید در آمریکا سرمایهگذاری کنه.
@aipulse24
👍14❤2
گوگل امکان به اشتراک گذاری صفحه نمایش و دوربین گوشی رو به Gemeni Live اضافه کرده. این قابلیت باعث میشه کاربران بتونن به صورت بهینهتری از جمنای استفاده کنن.
این قابلیت از امروز برای کاربران پلن Advanced در اپلیکیشن جمنای در اندروید قابل استفاده هست.
@aipulse24
این قابلیت از امروز برای کاربران پلن Advanced در اپلیکیشن جمنای در اندروید قابل استفاده هست.
@aipulse24
🔥16❤2👍1
آقای Andrej Karpathy، پژوهشگر برجستهی حوزهی هوش مصنوعی و از چهرههای تأثیرگذار سابق در تیم هوش مصنوعی تسلا و OpenAI، در تازهترین مقالهی خودش به یک پدیدهی جالب توجه اشاره کرده: انقلاب مدلهای زبانی بزرگ (LLMها) برخلاف مسیر همیشگی گسترش فناوریها، از پایین به بالا اتفاق افتاده، نه از بالا به پایین.
Karpathy توضیح میده که فناوریهای بزرگ در طول تاریخ معمولاً اول در دولتها یا ارتشها توسعه پیدا میکردن، بعد به شرکتهای بزرگ میرسیدن و نهایتاً راهشون به دست مصرفکنندههای عادی باز میشده. مثلاً برق، اینترنت، کامپیوتر و حتی GPS همگی این مسیر رو طی کردن. چون فناوریهای نو در ابتدای مسیرشون پرهزینه، کمیاب و نیازمند تخصص بالا بودن. اما حالا ما با یک استثنای تاریخی طرفیم: LLMها مثل ChatGPT و Claude مستقیماً و اول از همه به مردم رسیدن و تأثیرشون روی زندگی فردی، خیلی سریعتر و گستردهتر از سازمانها و دولتها بوده.
او به این نکته اشاره میکنه که ChatGPT با بیش از ۴۰۰ میلیون کاربر هفتگی، به یکی از پرکاربردترین ابزارهای روزمره تبدیل شده. افراد ازش برای کارهایی مثل نوشتن، کدنویسی، ترجمه، تحقیق، خلاصهنویسی، تولید محتوا، و حتی آموزش استفاده میکنن. چیزی که Karpathy روش تأکید میکنه اینه که LLMها نه فقط یک ابزار جدید، بلکه یک "اهرم برای قدرت فردی" هستن؛ چون به افراد این امکان رو میدن که کارهایی رو انجام بدن که قبلاً از عهدهشون خارج بوده. اون میگه: «حالا هر کسی میتونه یک اپ بنویسه، یک مقاله علمی رو بفهمه، یا حتی قرارداد حقوقی رو تحلیل کنه، بدون اینکه متخصص اون حوزه باشه.»
در مقابل، Karpathy دلایلی رو مطرح میکنه که چرا سازمانها و دولتها هنوز نتونستن از این ابزارها به اندازه افراد بهره ببرن؛ دلیل اول اینه که مدلهای زبانی گستره زیادی از دانش دارن، ولی در هر حوزهای فقط در سطح نیمهتخصصی عمل میکنن. در حالی که شرکتها خودشون با استخدام متخصصها، از قبل این توانایی رو داشتن. در نتیجه، استفاده از LLMها تو سازمانها بیشتر در حد افزایش بهرهوری کارمنده، نه ایجاد توانمندی جدید. دلیل دوم، پیچیدگی بالای کار در سازمانهاست که از جمله اونها هماهنگی بین سیستمهای قدیمی، قوانین سختگیرانه، نیاز به امنیت بالا، رعایت سبک برند و خطرات حقوقی هست. و دلیل سوم هم مقاومت طبیعی سازمانهای بزرگ در برابر تغییر سریعه؛ موانعی مثل فرهنگ داخلی، بوروکراسی، و چالشهای آموزش نیروهای زیاد و پراکنده، موانعی هستن که در هنگام پذیرش تغییرات جدید دست و پاگیر میشن.
در ادامه، Karpathy به آینده این روند هم اشاره میکنه. اون میگه یکی از ویژگیهای جالب LLMهای امروزی اینه که با سرمایه کم میتونی به بهترین نسخهها دسترسی داشته باشی. بهعبارت دیگه، بیل گیتس هم همون GPT-4o رو داره که یک دانشآموز ساده داره. اما هشدار میده که ممکنه در آینده دوباره فاصله ایجاد بشه؛ اگه شرکتها بتونن مدلهایی بخرن یا بسازن که بهمراتب بهتر از نسخههای عمومی باشن، اون وقت دوباره طبقهی ثروتمند از بقیه جدا میشه. بچهی ثروتمندها با GPT-8-Pro درس میخونه، بقیه با نسخهی ارزانتر.
در پایان، Karpathy این وضعیت رو "بیسابقه" توصیف میکنه و میگه که برخلاف تصور داستانهای علمیتخیلی، انقلاب هوش مصنوعی نه از پروژههای نظامی و محرمانه، بلکه از اپلیکیشنی شروع شده که یهشبه و بهصورت رایگان روی گوشی همهی مردم اومده. با نقلقول از ویلیام گیبسون که میگفت "آینده همین حالاست، فقط هنوز همهجا پخش نشده"، Karpathy مینویسه: «اینبار آینده نهتنها اینجاست، بلکه به طرز عجیبی همگانی شده. قدرت به مردم رسیده. و من عاشق این اتفاقم.»
نسخه کامل این مقاله رو از اینجا میتونید مشاهده کنید.
@aipulse24
Karpathy توضیح میده که فناوریهای بزرگ در طول تاریخ معمولاً اول در دولتها یا ارتشها توسعه پیدا میکردن، بعد به شرکتهای بزرگ میرسیدن و نهایتاً راهشون به دست مصرفکنندههای عادی باز میشده. مثلاً برق، اینترنت، کامپیوتر و حتی GPS همگی این مسیر رو طی کردن. چون فناوریهای نو در ابتدای مسیرشون پرهزینه، کمیاب و نیازمند تخصص بالا بودن. اما حالا ما با یک استثنای تاریخی طرفیم: LLMها مثل ChatGPT و Claude مستقیماً و اول از همه به مردم رسیدن و تأثیرشون روی زندگی فردی، خیلی سریعتر و گستردهتر از سازمانها و دولتها بوده.
او به این نکته اشاره میکنه که ChatGPT با بیش از ۴۰۰ میلیون کاربر هفتگی، به یکی از پرکاربردترین ابزارهای روزمره تبدیل شده. افراد ازش برای کارهایی مثل نوشتن، کدنویسی، ترجمه، تحقیق، خلاصهنویسی، تولید محتوا، و حتی آموزش استفاده میکنن. چیزی که Karpathy روش تأکید میکنه اینه که LLMها نه فقط یک ابزار جدید، بلکه یک "اهرم برای قدرت فردی" هستن؛ چون به افراد این امکان رو میدن که کارهایی رو انجام بدن که قبلاً از عهدهشون خارج بوده. اون میگه: «حالا هر کسی میتونه یک اپ بنویسه، یک مقاله علمی رو بفهمه، یا حتی قرارداد حقوقی رو تحلیل کنه، بدون اینکه متخصص اون حوزه باشه.»
در مقابل، Karpathy دلایلی رو مطرح میکنه که چرا سازمانها و دولتها هنوز نتونستن از این ابزارها به اندازه افراد بهره ببرن؛ دلیل اول اینه که مدلهای زبانی گستره زیادی از دانش دارن، ولی در هر حوزهای فقط در سطح نیمهتخصصی عمل میکنن. در حالی که شرکتها خودشون با استخدام متخصصها، از قبل این توانایی رو داشتن. در نتیجه، استفاده از LLMها تو سازمانها بیشتر در حد افزایش بهرهوری کارمنده، نه ایجاد توانمندی جدید. دلیل دوم، پیچیدگی بالای کار در سازمانهاست که از جمله اونها هماهنگی بین سیستمهای قدیمی، قوانین سختگیرانه، نیاز به امنیت بالا، رعایت سبک برند و خطرات حقوقی هست. و دلیل سوم هم مقاومت طبیعی سازمانهای بزرگ در برابر تغییر سریعه؛ موانعی مثل فرهنگ داخلی، بوروکراسی، و چالشهای آموزش نیروهای زیاد و پراکنده، موانعی هستن که در هنگام پذیرش تغییرات جدید دست و پاگیر میشن.
در ادامه، Karpathy به آینده این روند هم اشاره میکنه. اون میگه یکی از ویژگیهای جالب LLMهای امروزی اینه که با سرمایه کم میتونی به بهترین نسخهها دسترسی داشته باشی. بهعبارت دیگه، بیل گیتس هم همون GPT-4o رو داره که یک دانشآموز ساده داره. اما هشدار میده که ممکنه در آینده دوباره فاصله ایجاد بشه؛ اگه شرکتها بتونن مدلهایی بخرن یا بسازن که بهمراتب بهتر از نسخههای عمومی باشن، اون وقت دوباره طبقهی ثروتمند از بقیه جدا میشه. بچهی ثروتمندها با GPT-8-Pro درس میخونه، بقیه با نسخهی ارزانتر.
در پایان، Karpathy این وضعیت رو "بیسابقه" توصیف میکنه و میگه که برخلاف تصور داستانهای علمیتخیلی، انقلاب هوش مصنوعی نه از پروژههای نظامی و محرمانه، بلکه از اپلیکیشنی شروع شده که یهشبه و بهصورت رایگان روی گوشی همهی مردم اومده. با نقلقول از ویلیام گیبسون که میگفت "آینده همین حالاست، فقط هنوز همهجا پخش نشده"، Karpathy مینویسه: «اینبار آینده نهتنها اینجاست، بلکه به طرز عجیبی همگانی شده. قدرت به مردم رسیده. و من عاشق این اتفاقم.»
نسخه کامل این مقاله رو از اینجا میتونید مشاهده کنید.
@aipulse24
❤32👍9
AI Pulse
از من که دارم هفته ای تقریبا ۱۵تا نیوزلتر هوش مصنوعی میخونم به شماها نصیحت اینده هوش مصنوعی تو اشل متوسط رو به کوچیک (نه تو لول ساخت ربات و غیره) توی ساخت ایجنت با استفاده از پلتفرم های low code و no code هست. تو همین ۱ ماه گذشته مایکروسافت و امازون هردو…
داشتم توی کانال میگشتم که به این پستم رسیدم
این پیش بینی من برای جولای پارسال!
قبل از اینکه ابزارهای vibe coding رایج بشن
قبل از اینکه سم التمن سال ۲۰۲۵ رو سال agent ها معرفی کنه
https://blog.samaltman.com/reflections
قبل از اینکه IBM، Techtarget ، مدیر عامل انویدیا و ۶۰۰ نفر دیگه توی ژانویه ۲۰۲۵ اعلام کنن
این پیش بینی رو کردم
(پستم شبیه این تریدر دوزاری ها شد ولی انصافا عجب پیش بینی کردم:))) )
آیا ایمان نمی آورید؟😭
حالا توی پست بعدی راجع به مشاغل آینده بعد هوش مصنوعی میگم
این پیش بینی من برای جولای پارسال!
قبل از اینکه ابزارهای vibe coding رایج بشن
قبل از اینکه سم التمن سال ۲۰۲۵ رو سال agent ها معرفی کنه
https://blog.samaltman.com/reflections
قبل از اینکه IBM، Techtarget ، مدیر عامل انویدیا و ۶۰۰ نفر دیگه توی ژانویه ۲۰۲۵ اعلام کنن
این پیش بینی رو کردم
(پستم شبیه این تریدر دوزاری ها شد ولی انصافا عجب پیش بینی کردم:))) )
آیا ایمان نمی آورید؟
حالا توی پست بعدی راجع به مشاغل آینده بعد هوش مصنوعی میگم
Please open Telegram to view this post
VIEW IN TELEGRAM
Sam Altman
Reflections
The second birthday of ChatGPT was only a little over a month ago, and now we have transitioned into the next paradigm of models that can do complex reasoning. New years get people in a reflective...
😁14🤣10👍6❤3
پژوهش های خیلی زیادی در رابطه با تحول نیروی کار و نحوه کار شرکت ها بعد از عرضه مدل های زبانی انجام شده
خیلی از اون ها به شرایط حذف انسان ها از نیروهای شرکت های مختلف و جایگزینی اونها با هوش مصنوعی پرداختن. درمورد یکی از این پژوهش ها اینجا حرف زدیم.
یکی از اون شغل ها به گفته گوگل AgentOps هست.
ایجنت یک نرم افزار برنامه ریزی شده است که با درک شرایط و contextی که در اون قرار داره با استفاده از ابزارهایی که دراختیار داره یک سری اهداف رو به سرانجام میرسونه. مثلا؟! مثلا دستیارهای خرید، کالایی که میخواید رو بهش میدید، براتون سرچ میکنه بهترین قیمت رو پیدا میکنه و خرید رو نهایی میکنه
یک ایجنت شامل مدل زبانی، ابزارها و فرایندهایی میشه که باید برای انجام وظایفش طی کنه.
اگر با GenAi کار کرده باشید متوجه میشید که رسیدن از یه ایده به proof of concept یا طرح اولیه خیلی خیلی ساده است اما رسیدن به یه نتیجه موندگار و قابل اطمینان خیلی کار میبره!
اینجاست که
هدف وجودی این شغل اینه که ایجنت ها با بهروری بالایی بتونن توی سازمان مورد استفاده قرار بگیرن
توی این مدت ۲ سال ساختار MLops یا GenAiOps خیلی رواج پیدا کرد و حالا AgentOps زیر مجموعه این ساختار هست که کارش مدیریت ابزارهایی که ایجنت استفاده میکنه، مدیریت پرامپت اصلی ایجنت، هماهنگی فرایندهاش، حافظه و تقسیم بندی وظایف ایجنت هست.
به طور کلی این شغل زیر مجموعه بخش Ops هر سازمان میگیره
تا اینجا این ابزارها داشتن شرایط رو فراهم میکردن تا داده ها و مدل های ما اماده باشن تا بتونن واقعا واسه ما کاری انجام بدن!
@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29❤15🔥6🫡1
گوگل در رویداد Next 25 از نسل هفتم شتابدهنده اختصاصی خودش با نام Ironwood رونمایی کرد؛ قویترین و مقیاسپذیرترین TPU تاریخ این شرکت که بهطور ویژه برای اجرای مدلهای Inference طراحی شده. این چیپ جدید قراره پایهگذار «عصر Inference» باشه؛ دورانی که مدلهای هوش مصنوعی نه فقط به سوالها پاسخ میدن، بلکه خودشون به تولید و تفسیر داده هم میپردازن.
Ironwood در دو پیکربندی ۲۵۶ و ۹۲۱۶ چیپ عرضه میشه و در حالت کامل، قدرت پردازشیاش به ۴۲.۵ اگزافلاپس میرسه؛ یعنی بیش از ۲۴ برابر قویتر از ابررایانه El Capitan. هر چیپ هم تا ۴۶۱۴ ترافلاپس قدرت داره و بهرهوری انرژی اون نسبت به نسل قبل (Trillium) دو برابر شده. این نسل از سیستم خنککننده مایع استفاده میکنه و به گفته گوگل، ۳۰ برابر کممصرفتر از Cloud TPU v2ـه.
از نظر فنی، Ironwood از حافظه ۱۹۲ گیگابایتی HBM (۶ برابر بیشتر از Trillium) با پهنای باند ۷.۲ ترابیت بر ثانیه بهره میبره. شبکه ارتباطی Inter-Chip Interconnect هم با پهنای باند ۱.۲ ترابیت دوطرفه، اتصال سریع بین هزاران چیپ رو ممکن کرده. ماژول SparseCore در این نسل بهبود پیدا کرده و حالا میتونه در حوزههایی مثل محاسبات مالی و علمی هم استفاده بشه.
همچنین گوگل از نرمافزار اختصاصی Pathways برای اجرای توزیعشده مدلها روی صدها هزار چیپ Ironwood استفاده کرده؛ کاری که توسعه سریعتر مدلهای بزرگ مولد مثل Gemini 2.5 و AlphaFold رو ممکن میکنه. Ironwood از اواخر امسال در اختیار توسعهدهندهها و مشتریان Google Cloud قرار میگیره.
@aipulse24
Ironwood در دو پیکربندی ۲۵۶ و ۹۲۱۶ چیپ عرضه میشه و در حالت کامل، قدرت پردازشیاش به ۴۲.۵ اگزافلاپس میرسه؛ یعنی بیش از ۲۴ برابر قویتر از ابررایانه El Capitan. هر چیپ هم تا ۴۶۱۴ ترافلاپس قدرت داره و بهرهوری انرژی اون نسبت به نسل قبل (Trillium) دو برابر شده. این نسل از سیستم خنککننده مایع استفاده میکنه و به گفته گوگل، ۳۰ برابر کممصرفتر از Cloud TPU v2ـه.
از نظر فنی، Ironwood از حافظه ۱۹۲ گیگابایتی HBM (۶ برابر بیشتر از Trillium) با پهنای باند ۷.۲ ترابیت بر ثانیه بهره میبره. شبکه ارتباطی Inter-Chip Interconnect هم با پهنای باند ۱.۲ ترابیت دوطرفه، اتصال سریع بین هزاران چیپ رو ممکن کرده. ماژول SparseCore در این نسل بهبود پیدا کرده و حالا میتونه در حوزههایی مثل محاسبات مالی و علمی هم استفاده بشه.
همچنین گوگل از نرمافزار اختصاصی Pathways برای اجرای توزیعشده مدلها روی صدها هزار چیپ Ironwood استفاده کرده؛ کاری که توسعه سریعتر مدلهای بزرگ مولد مثل Gemini 2.5 و AlphaFold رو ممکن میکنه. Ironwood از اواخر امسال در اختیار توسعهدهندهها و مشتریان Google Cloud قرار میگیره.
@aipulse24
🔥17👍3👌2❤1
گوگل با همکاری بیش از ۵۰ شرکت فناوری، از پروتکل جدید و متنباز «Agent2Agent» یا بهاختصار A2A رونمایی کرده؛ پروتکلی که با هدف تعامل و همکاری بین ایجنتهای هوش مصنوعی طراحی شده و قراره نقطهی عطفی در مسیر ساخت اکوسیستم چندایجنتی باشه. ایجنتهای هوش مصنوعی، ابزارهایی هستن که میتونن بهطور خودکار وظایف مختلفی رو انجام بدن؛ از کمک به کارمندان پشتیبانی تا برنامهریزی زنجیره تأمین. حالا A2A این ایجنتها رو قادر میکنه تا حتی اگه از شرکتهای مختلف یا با چارچوبهای متفاوت ساخته شده باشن، بتونن با هم ارتباط برقرار کنن و همکاری کنن.
پروتکل A2A بر پایهی استانداردهای شناختهشدهای مثل HTTP و JSON-RPC توسعه داده شده و بهصورت پیشفرض از امنیت در سطح سازمانی پشتیبانی میکنه. این پروتکل همچنین از وظایف طولانیمدت، تعاملهای چندرسانهای (مثل صدا و ویدیو) و سناریوهای پیچیده پشتیبانی میکنه. ایجنتها از طریق یک «Agent Card» قابلیتهای خودشون رو معرفی میکنن تا ایجنتهای دیگه بتونن بهترین همکار ممکن رو برای انجام یک وظیفه پیدا کنن.
در یکی از نمونههای کاربردی، یک مدیر استخدام میتونه به ایجنت خودش وظیفهی پیدا کردن برنامهنویسان مناسب رو بده. این ایجنت با ایجنتهای دیگه ارتباط میگیره، اطلاعات لازم رو جمع میکنه و حتی هماهنگی برای مصاحبه و بررسی سوابق رو هم به ایجنتهای دیگه واگذار میکنه. چنین همکاریای فقط از طریق یک بستر مشترک مثل A2A ممکنه.
گوگل اعلام کرده که نسخهی نهایی و آمادهبهکار این پروتکل قراره تا پایان امسال با همکاری جامعهی متنباز و شرکای فناوری عرضه بشه.
@aipulse24
پروتکل A2A بر پایهی استانداردهای شناختهشدهای مثل HTTP و JSON-RPC توسعه داده شده و بهصورت پیشفرض از امنیت در سطح سازمانی پشتیبانی میکنه. این پروتکل همچنین از وظایف طولانیمدت، تعاملهای چندرسانهای (مثل صدا و ویدیو) و سناریوهای پیچیده پشتیبانی میکنه. ایجنتها از طریق یک «Agent Card» قابلیتهای خودشون رو معرفی میکنن تا ایجنتهای دیگه بتونن بهترین همکار ممکن رو برای انجام یک وظیفه پیدا کنن.
در یکی از نمونههای کاربردی، یک مدیر استخدام میتونه به ایجنت خودش وظیفهی پیدا کردن برنامهنویسان مناسب رو بده. این ایجنت با ایجنتهای دیگه ارتباط میگیره، اطلاعات لازم رو جمع میکنه و حتی هماهنگی برای مصاحبه و بررسی سوابق رو هم به ایجنتهای دیگه واگذار میکنه. چنین همکاریای فقط از طریق یک بستر مشترک مثل A2A ممکنه.
گوگل اعلام کرده که نسخهی نهایی و آمادهبهکار این پروتکل قراره تا پایان امسال با همکاری جامعهی متنباز و شرکای فناوری عرضه بشه.
@aipulse24
👍25🔥6❤4