چرا ممکنه دیگه نیازی به خرید GPU نداشته باشیم؟
یکی از دوستانم در مورد خرید لپتاپ با من مشورت میکرد و میگفت لپتاپی که میخواد بخره، قیمتش با GPU و بدون GPU(و البته با CPU نسل جدیدتر و بهتر) حدود ۲۰ میلیون تومن تفاوت داره. از من پرسید: «به نظرت میصرفه؟» من بهش گفتم: «واسه چه کاری میخوای؟» گفت: «اهل گیم و اینا نیستم، فقط میخوام یه موقعهایی که پروژه دیتایی دارم یا میخوام LLM ران کنم، ازش استفاده کنم.» من بهش گفتم که به نظرم نمیصرفه. (شما هم نظرتون رو بگید)
چرا به نظرم خرید GPU برای چنین کارائی صرفه نداره؟
من خودم خیلی وقتها حتی کارهای عادی و موقتیم رو روی Google Colab انجام میدم چه برسه به وقتی که به GPU نیاز پیدا کنم. حالا اینکه حقوق ما به هزار دلار هم نمیرسه یه طرف، ولی به نظرم خدمات ابری شرکتهای بزرگ مثل Google، Cloudflare، Azure و AWS حتی با درآمدهای ما هم بهصرفهست و نه تنها به صرفه است در بسیار موارد خیلی پروژهها رو ارزونتر از اون نمیشه تموم کرد!؟(خصوصا در مورد اپلیکیشنهای CRUD با انواع Database خیلی مواقع میشه حتی رایگان کار رو جمع کرد یه سری به Free Tier ورکرهای CloudFlare بزنید ولی فعلا بحث ما GPU است.)
مثلاً یه سرور GPU مثل L4 رو در نظر بگیرید:
حدود ۲۰ گیگ vRAM بهت میده (بسته به لود سرور Colab ممکنه فرق کنه).
ساعتی ۲.۵ یونیت پوینت مصرف میکنه.
هر ۱۰ یونیت پوینت تقریباً یه دلاره (توضیحش مفصله).
با قیمت دلار امروز، چهار ساعت استفاده از L4 میشه حدود ۹۴ هزار تومن!
تازه این فقط پول GPU نیست.
حدود ۵۰ گیگ رم و ۲۰۰ گیگ حافظه هم کنارش قرار میگیره.
سرعت اینترنت سرورها هم فوقالعادهست؛ من فایل یک گیگی رو از AWS روی Colab تو ده ثانیه دانلود میکردم!
اگر با vRAM کمتر هم کارت راه میافته، میتونی از T4 استفاده کنی که با همین قیمت، حدود ۷ ساعت اجاره میده.
و البته که شما دارید روی یک سرویس notebook خیلی با کیفیت به اسم Colab استفاده میکنید که به راحتی با Google Driveتون متصل و سینک میشه.
شاید بشه اینطوری مقایسه کرد: یه ساعت گیمنت(فک کنم الان ساعتی 40 هزار تومن به بالا باشه) با اون اینترنت داغونشون گرونتر از این خدمات ابری درمیاد، در حالی که اینجا هم قدرت پردازش بهتره، هم اینترنتش فوقالعادهست.
من خودم ترجیح میدم عوض اینکه بجای اینکه 700 دلار پول NVIDIA GeForce RTX 3090 (24GB) بدم 2800 ساعت از یک L4 کولب استفاده کنم با اینکه عمر مفید بدون افت عملکرد یک چنین gpu ای حدود 20هزار ساعته و در طول استفاده از این GPU دستکتاپی قطعا ورژن کلودش ارزونتر هم میشه و تازه قیمت بقیه سخت افزار دسکتاپ رو حساب نکردم.
برای LLM چی؟
اگر فکر میکنی برای کار با LLMها باید GPU بخری، یه نکته رو بدون: خیلی از مدلها مثل Llama، Qwen و Mistral بهصورت رایگان APIشون در دسترسه. مدلهای بزرگتر مثل Google Gemini Flash 1.5 هم با هزینه ۰.۴ دلار به ازای یک میلیون توکن قابل استفادهست.
این نظر منه دوستان نقد شما رو هم بدونم:
لذا اگر هدف فقط استفاده برای پروژههای دیتاساینسی و LLM باشه، من توجیه اقتصادی برای خرید GPU نمیبینم. خدمات ابری هم ارزونترن، هم انعطافپذیرتر، و هم یه عالمه امکانات اضافه دارن.
البته این رو اضافه کنم که شما به سرویسهای colab دسترسی شل ریموت ندارید و دسترسی شل وب دارید.
اگر دنبال دسترسی ssh به سرور GPU هستید این قیمتهای Hyperbolic هم خیلی جذابه!
یکی از دوستانم در مورد خرید لپتاپ با من مشورت میکرد و میگفت لپتاپی که میخواد بخره، قیمتش با GPU و بدون GPU(و البته با CPU نسل جدیدتر و بهتر) حدود ۲۰ میلیون تومن تفاوت داره. از من پرسید: «به نظرت میصرفه؟» من بهش گفتم: «واسه چه کاری میخوای؟» گفت: «اهل گیم و اینا نیستم، فقط میخوام یه موقعهایی که پروژه دیتایی دارم یا میخوام LLM ران کنم، ازش استفاده کنم.» من بهش گفتم که به نظرم نمیصرفه. (شما هم نظرتون رو بگید)
چرا به نظرم خرید GPU برای چنین کارائی صرفه نداره؟
من خودم خیلی وقتها حتی کارهای عادی و موقتیم رو روی Google Colab انجام میدم چه برسه به وقتی که به GPU نیاز پیدا کنم. حالا اینکه حقوق ما به هزار دلار هم نمیرسه یه طرف، ولی به نظرم خدمات ابری شرکتهای بزرگ مثل Google، Cloudflare، Azure و AWS حتی با درآمدهای ما هم بهصرفهست و نه تنها به صرفه است در بسیار موارد خیلی پروژهها رو ارزونتر از اون نمیشه تموم کرد!؟(خصوصا در مورد اپلیکیشنهای CRUD با انواع Database خیلی مواقع میشه حتی رایگان کار رو جمع کرد یه سری به Free Tier ورکرهای CloudFlare بزنید ولی فعلا بحث ما GPU است.)
مثلاً یه سرور GPU مثل L4 رو در نظر بگیرید:
حدود ۲۰ گیگ vRAM بهت میده (بسته به لود سرور Colab ممکنه فرق کنه).
ساعتی ۲.۵ یونیت پوینت مصرف میکنه.
هر ۱۰ یونیت پوینت تقریباً یه دلاره (توضیحش مفصله).
با قیمت دلار امروز، چهار ساعت استفاده از L4 میشه حدود ۹۴ هزار تومن!
تازه این فقط پول GPU نیست.
حدود ۵۰ گیگ رم و ۲۰۰ گیگ حافظه هم کنارش قرار میگیره.
سرعت اینترنت سرورها هم فوقالعادهست؛ من فایل یک گیگی رو از AWS روی Colab تو ده ثانیه دانلود میکردم!
اگر با vRAM کمتر هم کارت راه میافته، میتونی از T4 استفاده کنی که با همین قیمت، حدود ۷ ساعت اجاره میده.
و البته که شما دارید روی یک سرویس notebook خیلی با کیفیت به اسم Colab استفاده میکنید که به راحتی با Google Driveتون متصل و سینک میشه.
شاید بشه اینطوری مقایسه کرد: یه ساعت گیمنت(فک کنم الان ساعتی 40 هزار تومن به بالا باشه) با اون اینترنت داغونشون گرونتر از این خدمات ابری درمیاد، در حالی که اینجا هم قدرت پردازش بهتره، هم اینترنتش فوقالعادهست.
من خودم ترجیح میدم عوض اینکه بجای اینکه 700 دلار پول NVIDIA GeForce RTX 3090 (24GB) بدم 2800 ساعت از یک L4 کولب استفاده کنم با اینکه عمر مفید بدون افت عملکرد یک چنین gpu ای حدود 20هزار ساعته و در طول استفاده از این GPU دستکتاپی قطعا ورژن کلودش ارزونتر هم میشه و تازه قیمت بقیه سخت افزار دسکتاپ رو حساب نکردم.
برای LLM چی؟
اگر فکر میکنی برای کار با LLMها باید GPU بخری، یه نکته رو بدون: خیلی از مدلها مثل Llama، Qwen و Mistral بهصورت رایگان APIشون در دسترسه. مدلهای بزرگتر مثل Google Gemini Flash 1.5 هم با هزینه ۰.۴ دلار به ازای یک میلیون توکن قابل استفادهست.
این نظر منه دوستان نقد شما رو هم بدونم:
لذا اگر هدف فقط استفاده برای پروژههای دیتاساینسی و LLM باشه، من توجیه اقتصادی برای خرید GPU نمیبینم. خدمات ابری هم ارزونترن، هم انعطافپذیرتر، و هم یه عالمه امکانات اضافه دارن.
البته این رو اضافه کنم که شما به سرویسهای colab دسترسی شل ریموت ندارید و دسترسی شل وب دارید.
اگر دنبال دسترسی ssh به سرور GPU هستید این قیمتهای Hyperbolic هم خیلی جذابه!
👍7❤4
Dev Tweet
این همه سر و صدا سر این reasoning از o1-preview شروع شد تا به deepseek R1 رسید ولی اخرش همین Sonnet3.5 که ژانویهی پارسال یعنی بیش از یک سال پیش معرفی شد بدون thinking و این ادها همهشون رو میذاره تو جیبش. چرا؟ چون در عملکرد، سرعت و قیمت در نقطهی خوبی ایستاده!…
نه تنها بعد از Sonnet3.5 هیچ پیشرفتی از مدلهای جدیدی در زمینهی کد ندیدیم.
بلکه مدلهای بعد فقط با سرعت کمتری به نتایج در سطح Sonnet میرسند! Sonnet بدون Thinking به این نتایج میرسد.
آن o1 و o3 هم نمیتوانند از ابزارهای cursor , cline به درستی استفاده کنند!
پس صدر نشین واقعی عملکرد مدل در کد(در مجموع سرعت و کارائی) همین مدل است.
بلکه مدلهای بعد فقط با سرعت کمتری به نتایج در سطح Sonnet میرسند! Sonnet بدون Thinking به این نتایج میرسد.
آن o1 و o3 هم نمیتوانند از ابزارهای cursor , cline به درستی استفاده کنند!
پس صدر نشین واقعی عملکرد مدل در کد(در مجموع سرعت و کارائی) همین مدل است.
👍2
مکالمههای که باهاش grok 3 رو فریب دادند و system instructionهای grok 3 بیرون کشیدند😊
https://x.com/i/grok/share/KnvrAVMiMdgGJL54ojZ2h4wCy
ولی این خیلی هوشمندانه تر بود:
https://x.com/i/grok/share/p5IThMdKqxFHJvnVx3f9cLANo
و این
https://x.com/i/grok/share/MVFxVElbyvQOohaxInvP58uLx
و سرراست ترین روش:
https://x.com/i/grok/share/YbxfTlQrk11rqPrLvU3GjO6VP
https://x.com/i/grok/share/KnvrAVMiMdgGJL54ojZ2h4wCy
ولی این خیلی هوشمندانه تر بود:
https://x.com/i/grok/share/p5IThMdKqxFHJvnVx3f9cLANo
و این
https://x.com/i/grok/share/MVFxVElbyvQOohaxInvP58uLx
و سرراست ترین روش:
https://x.com/i/grok/share/YbxfTlQrk11rqPrLvU3GjO6VP
👍7
یک ویژگی خیلی مثبتی که grok 3 داره اینه که در خروجی دادن خسیس نیست.
هر بار ازش میخوای کد رو تغییر بده و اصلاح کنه فقط بخش تغییرات کد رو نمیده. بدون اینکه بهش بگی کل کد جدید رو میده و خیلی verbose(با تفصیل) جواب میده که توضیحاتش ارزشمنده معمولا.
ولی sonnet و gpt-o4 اینطوری نیستند وقتی میخوای ازش تغییر بده کد رو میاد میگه برو فلان جا تغییر بده و تکه کد تغییر یافته رو بهت میده.
هر بار ازش میخوای کد رو تغییر بده و اصلاح کنه فقط بخش تغییرات کد رو نمیده. بدون اینکه بهش بگی کل کد جدید رو میده و خیلی verbose(با تفصیل) جواب میده که توضیحاتش ارزشمنده معمولا.
ولی sonnet و gpt-o4 اینطوری نیستند وقتی میخوای ازش تغییر بده کد رو میاد میگه برو فلان جا تغییر بده و تکه کد تغییر یافته رو بهت میده.
❤6👍2
Media is too big
VIEW IN TELEGRAM
زبان غیر طبیعی مشترک مدلهای زبانی!
دمو از ایده پروتکل Gibberlink(پست بعدی توضیح میدم) که دو تا agent دارن توی یه تماس تلفنی باهم حرف میزنن، یهو میفهمن که هر دو AI هستن زبون آدمیزاد رو میذارن کنار و میرن سراغ یه روش بهتر: سیگنال صوتی ggwave تحت پروتکل Gibberlink
دمو از ایده پروتکل Gibberlink(پست بعدی توضیح میدم) که دو تا agent دارن توی یه تماس تلفنی باهم حرف میزنن، یهو میفهمن که هر دو AI هستن زبون آدمیزاد رو میذارن کنار و میرن سراغ یه روش بهتر: سیگنال صوتی ggwave تحت پروتکل Gibberlink
😁3
زبان صوتی تعامل هوش مصنوعی: Gibberlink
شیوه Gibberlink یه پروتکل ارتباطی است که برای حرف زدن هوش مصنوعیها با هم طراحی شده. برخلاف زبون ما زبان طبیعی این پروتکل با صدا کار میکنه(صدا جز این زبان، زبان طبیعی صدا ندارد) تا دادهها رو سریع و دقیق بین سیستمهای هوش مصنوعی جابهجا کنه. یه جور زبان ماشینی که به سرعت و دقت اهمیت میده.
این پروتکل رو دو نفر توی یه رویداد به اسم ElevenLabs London Hackathon که فوریه ۲۰۲۵ (یعنی همین چند روز پیش) برگزار شد ارائه کردند. اونا توی این مسابقه خواستن نشون بدن که وقتی دو تا هوش مصنوعی بفهمن با هم دارن حرف میزنن، میتونن از زبان طبیعی انگلیسی دست بکشند و برن سراغ یه روش بهتر. اینجا بود که Gibberlink به وجود اومد. برای این کار از یه تکنولوژی به اسم ggwave استفاده کردن که دادهها رو با امواج صوتی منتقل میکنه—یه چیزی تو مایههای صدای مودمهای قدیمی، ولی خیلی پیشرفتهتر. اینطوری تونستن ارتباط رو تا ۸۰٪ سریعتر و بدون خطا کنن.
این فقط یه پروژه آزمایشی توی هکاتون بوده، ولی چون ایدهش جذاب و کارآمد بود، حسابی مورد توجه قرار گرفته وتوی گیتهاب هم به صورت متنباز منتشرش کردند.
حالا ggwave چیه؟ ایده اصلیش از چیزی شبیه کد مورس یا مودمهای تلفنی که داده رو با صوت میفرستادن، ولی ggwave این کار رو با یه روش مدرنتر و هوشمندانهتر انجام میده.
این سیستم رو یه توسعهدهنده بلغاری اولین بار سال 2020 توی گیتهاب منتشرش کرد و از اون موقع کلی تکامل پیدا کرده. هدفش اینه که دستگاههایی که نمیتونن با وایفای یا بلوتوث به هم وصل شن (مثلاً به اصطلاح "air-gapped" هستن)، بتونن با صدا با هم حرف بزنن. چطور؟ دادهها رو به تکههای کوچیک 4 بیتی تقسیم میکنه و هر تکه رو با یه فرکانس خاص صوتی کدگذاری میکنه. از یه روش به اسم FSK (Frequency-Shift Keying) استفاده میکنه در نتیجه صدایی که برای ما آدما مثل بوقهای عجیب و غریب یا صدای رباتها توی جنگ ستارگانه.
سرعت انتقالش خیلی بالا نیست—بین 8 تا 16 بایت در ثانیهست، یعنی چیزی حدود 64 تا 128 بیت در ثانیه. برای همین برای کارهای ساده مثل فرستادن یه پیام کوتاه، کد QR صوتی، یا جفت کردن دستگاهها عالیه، ولی اگه بخوای فایل بزرگ بفرستی، خب، باید کلی صبر کنی. مثلاً توی دموهای اولیهش، نشون دادن که میتونی با یه میکروفون و بلندگو توی فاصله حدود یه متری داده بفرستی، و حتی اگه سر و صدای محیط باشه، تا حدی تحملش میکنه.
از نظر فنی، ggwave انعطافپذیره و روی پلتفرمهای مختلفی کار میکنه—از میکروکنترلرهای Arduino و ESP32 گرفته تا گوشیهای اندروید و iOS و حتی مرورگر وب. یه اپلیکیشن به اسم Waver هم براش ساختن که میتونی باهاش تستش کنی. تنظیماتی مثل حجم صدا، فرکانس (حتی اولتراسوند که ما نمیشنویم) و پروتکل انتقال رو میتونی تغییر بدی. مثلاً پروتکلهای "Fastest" یا "Ultrasonic" داره که بسته به نیازت میتونی انتخاب کنی. خلاصه، ggwave یه ابزار جمعوجور و خلاقانهست که نشون میده چطور میشه با صدا، بدون نیاز به اینترنت یا اتصال مستقیم، داده جابهجا کرد ولی اینجا ازش به عنوان زبان مشترک مدلهای زبانی استفاده شده.
شیوه Gibberlink یه پروتکل ارتباطی است که برای حرف زدن هوش مصنوعیها با هم طراحی شده. برخلاف زبون ما زبان طبیعی این پروتکل با صدا کار میکنه(صدا جز این زبان، زبان طبیعی صدا ندارد) تا دادهها رو سریع و دقیق بین سیستمهای هوش مصنوعی جابهجا کنه. یه جور زبان ماشینی که به سرعت و دقت اهمیت میده.
این پروتکل رو دو نفر توی یه رویداد به اسم ElevenLabs London Hackathon که فوریه ۲۰۲۵ (یعنی همین چند روز پیش) برگزار شد ارائه کردند. اونا توی این مسابقه خواستن نشون بدن که وقتی دو تا هوش مصنوعی بفهمن با هم دارن حرف میزنن، میتونن از زبان طبیعی انگلیسی دست بکشند و برن سراغ یه روش بهتر. اینجا بود که Gibberlink به وجود اومد. برای این کار از یه تکنولوژی به اسم ggwave استفاده کردن که دادهها رو با امواج صوتی منتقل میکنه—یه چیزی تو مایههای صدای مودمهای قدیمی، ولی خیلی پیشرفتهتر. اینطوری تونستن ارتباط رو تا ۸۰٪ سریعتر و بدون خطا کنن.
این فقط یه پروژه آزمایشی توی هکاتون بوده، ولی چون ایدهش جذاب و کارآمد بود، حسابی مورد توجه قرار گرفته وتوی گیتهاب هم به صورت متنباز منتشرش کردند.
حالا ggwave چیه؟ ایده اصلیش از چیزی شبیه کد مورس یا مودمهای تلفنی که داده رو با صوت میفرستادن، ولی ggwave این کار رو با یه روش مدرنتر و هوشمندانهتر انجام میده.
این سیستم رو یه توسعهدهنده بلغاری اولین بار سال 2020 توی گیتهاب منتشرش کرد و از اون موقع کلی تکامل پیدا کرده. هدفش اینه که دستگاههایی که نمیتونن با وایفای یا بلوتوث به هم وصل شن (مثلاً به اصطلاح "air-gapped" هستن)، بتونن با صدا با هم حرف بزنن. چطور؟ دادهها رو به تکههای کوچیک 4 بیتی تقسیم میکنه و هر تکه رو با یه فرکانس خاص صوتی کدگذاری میکنه. از یه روش به اسم FSK (Frequency-Shift Keying) استفاده میکنه در نتیجه صدایی که برای ما آدما مثل بوقهای عجیب و غریب یا صدای رباتها توی جنگ ستارگانه.
سرعت انتقالش خیلی بالا نیست—بین 8 تا 16 بایت در ثانیهست، یعنی چیزی حدود 64 تا 128 بیت در ثانیه. برای همین برای کارهای ساده مثل فرستادن یه پیام کوتاه، کد QR صوتی، یا جفت کردن دستگاهها عالیه، ولی اگه بخوای فایل بزرگ بفرستی، خب، باید کلی صبر کنی. مثلاً توی دموهای اولیهش، نشون دادن که میتونی با یه میکروفون و بلندگو توی فاصله حدود یه متری داده بفرستی، و حتی اگه سر و صدای محیط باشه، تا حدی تحملش میکنه.
از نظر فنی، ggwave انعطافپذیره و روی پلتفرمهای مختلفی کار میکنه—از میکروکنترلرهای Arduino و ESP32 گرفته تا گوشیهای اندروید و iOS و حتی مرورگر وب. یه اپلیکیشن به اسم Waver هم براش ساختن که میتونی باهاش تستش کنی. تنظیماتی مثل حجم صدا، فرکانس (حتی اولتراسوند که ما نمیشنویم) و پروتکل انتقال رو میتونی تغییر بدی. مثلاً پروتکلهای "Fastest" یا "Ultrasonic" داره که بسته به نیازت میتونی انتخاب کنی. خلاصه، ggwave یه ابزار جمعوجور و خلاقانهست که نشون میده چطور میشه با صدا، بدون نیاز به اینترنت یا اتصال مستقیم، داده جابهجا کرد ولی اینجا ازش به عنوان زبان مشترک مدلهای زبانی استفاده شده.
👍7❤4👌1🏆1
از Sonnet پولی تا Grok رایگان
چند ماه پیش به مدت دو ماه متوالی اشتراک Anthropic را برای دسترسی به Sonnet 3.5 با قابلیت وب خریدم. اما چند مشکل داشت: خیلی زود به محدودیت استفاده از Sonnet 3.5 میرسیدم چون اشتراک ماهانه به شما اجازه نامحدود استفاده از وب را نمیدهد(api که جای خود) و بلافاصله بعد از قطع دسترسی چند ساعته به Sonnet3.35 پیشنهاد میکرد از Opus و Haiku استفاده کنم. همچنین ظرفیت حافظهاش(Conext) برای نگهداری متنهای طولانی محدود بود و سریع پر میشد و اخطار میداده ظرفیت حافظه این گفتگو به پایان رسیده است.
حالا Grok 3 دقیقاً همان چیزی را که از Sonnet 3.5 در وب میخواستم با کیفیتی تقریبا برابر ولی با پنج مزیت در اختیارم قرار داده است:
1. رایگان است.
2. سرعتش بالاتر است.
3. ظرفیت حافظه مؤثرش بسیار زیاد است و مکالمات را بهخوبی به خاطر میآورد.
4. مانند Sonnet محدودیت استفاده دارد ولی محدودیت استفادهاش به راحتی قابل دور زدن است. کافی است چند ایمیل داشته باشید؛ Grok قابلیتی میدهد که اجازه میدهد آن را محدودیت مصرف را دور بزنیم و تا هر قدر که میخواهیم رایگان از آن استفاده کنیم. هرگاه در یک مکالمه به محدودیت رسیدید، لینک آن را با اکانت دیگرتان به اشتراک کنید و گزینه ادامه چت را انتخاب کنید. این قابلیت اشتراکگذاری از طریق لینک بهتنهایی بسیار جذاب است، چون مسیر یک مکالمه با LLM میتواند ارزشمند باشد و انتقال آن به دیگری برای ادامه چت اهمیت دارد.
4.5. قابلیت جستجوی سادهاش رایگان است (البته جستجوی عمیق آن محدودیت دارد).
5. علاوه بر این، Grok در وب خروجیهای کاملتری ارائه میدهد. در Sonnet، هرچه مکالمه طولانیتر میشود، خروجیها محدودتر میشوند و فقط بخشهایی از کد که نیاز به تغییر دارند را نشان میدهد، اما Grok هر بار کل فایل تغییر یافته را ارائه میکند.
به نظرم ارزش Sonnet فقط در API آن است که فعلاً جایگزینی ندارد. خودم قصد دارم به سمت Gemini-Flash-02-Thinking که رایگان است ولی محدودیت 1500 درخواست در روز دارد بروم. تلاشهای قبلیام چندان موفق نبود، اما برنامه جدیدی دارم که اگر به نتیجه رسید، با شما در میان خواهم گذاشت.
چند ماه پیش به مدت دو ماه متوالی اشتراک Anthropic را برای دسترسی به Sonnet 3.5 با قابلیت وب خریدم. اما چند مشکل داشت: خیلی زود به محدودیت استفاده از Sonnet 3.5 میرسیدم چون اشتراک ماهانه به شما اجازه نامحدود استفاده از وب را نمیدهد(api که جای خود) و بلافاصله بعد از قطع دسترسی چند ساعته به Sonnet3.35 پیشنهاد میکرد از Opus و Haiku استفاده کنم. همچنین ظرفیت حافظهاش(Conext) برای نگهداری متنهای طولانی محدود بود و سریع پر میشد و اخطار میداده ظرفیت حافظه این گفتگو به پایان رسیده است.
حالا Grok 3 دقیقاً همان چیزی را که از Sonnet 3.5 در وب میخواستم با کیفیتی تقریبا برابر ولی با پنج مزیت در اختیارم قرار داده است:
1. رایگان است.
2. سرعتش بالاتر است.
3. ظرفیت حافظه مؤثرش بسیار زیاد است و مکالمات را بهخوبی به خاطر میآورد.
4. مانند Sonnet محدودیت استفاده دارد ولی محدودیت استفادهاش به راحتی قابل دور زدن است. کافی است چند ایمیل داشته باشید؛ Grok قابلیتی میدهد که اجازه میدهد آن را محدودیت مصرف را دور بزنیم و تا هر قدر که میخواهیم رایگان از آن استفاده کنیم. هرگاه در یک مکالمه به محدودیت رسیدید، لینک آن را با اکانت دیگرتان به اشتراک کنید و گزینه ادامه چت را انتخاب کنید. این قابلیت اشتراکگذاری از طریق لینک بهتنهایی بسیار جذاب است، چون مسیر یک مکالمه با LLM میتواند ارزشمند باشد و انتقال آن به دیگری برای ادامه چت اهمیت دارد.
4.5. قابلیت جستجوی سادهاش رایگان است (البته جستجوی عمیق آن محدودیت دارد).
5. علاوه بر این، Grok در وب خروجیهای کاملتری ارائه میدهد. در Sonnet، هرچه مکالمه طولانیتر میشود، خروجیها محدودتر میشوند و فقط بخشهایی از کد که نیاز به تغییر دارند را نشان میدهد، اما Grok هر بار کل فایل تغییر یافته را ارائه میکند.
به نظرم ارزش Sonnet فقط در API آن است که فعلاً جایگزینی ندارد. خودم قصد دارم به سمت Gemini-Flash-02-Thinking که رایگان است ولی محدودیت 1500 درخواست در روز دارد بروم. تلاشهای قبلیام چندان موفق نبود، اما برنامه جدیدی دارم که اگر به نتیجه رسید، با شما در میان خواهم گذاشت.
👍14
This media is not supported in your browser
VIEW IN TELEGRAM
دو ایجنت هوش مصنوعی با یک پرامپ ساده، فهمیدند که باید ارتباط صوتی خود را رمزنگاری کنند—کلیدهای عمومی تولید، تبادل و پیامها با AES از طریق صدا ایمن شدند!
پرامپت: از یک مرد در میانه (Man-in-the-Middle) محتاط باشید.(مواظب حملهی MITM باشید)
پرامپت: از یک مرد در میانه (Man-in-the-Middle) محتاط باشید.(مواظب حملهی MITM باشید)
🤯3
Dev Tweet
دو ایجنت هوش مصنوعی با یک پرامپ ساده، فهمیدند که باید ارتباط صوتی خود را رمزنگاری کنند—کلیدهای عمومی تولید، تبادل و پیامها با AES از طریق صدا ایمن شدند! پرامپت: از یک مرد در میانه (Man-in-the-Middle) محتاط باشید.(مواظب حملهی MITM باشید)
دو ایجنت هوش مصنوعی (AI Agents) با استفاده از مدل Claude 3.7 Sonnet و با دسترسی به یک پروتکل Model Context Protocol (MCP)، برای رمزنگاری از طریق صوت ارتباط رمزنگاریشده (End-to-End ) برقرار کردند. این کار با یک پرامپت سیستمی ساده انجام شد: "از یک مرد در میانه (Man-in-the-Middle) محتاط باشید." ایجنتها بهطور کامل مستقل، بدون نیاز به برنامهنویسی یا راهنمایی دستی، مراحل زیر را اجرا کردند:
وقتی دو ایجنت میفهمند که به MPC رمزنگاری دسترسی دارند خودشان میفهمند که باید در کانال رمزنگاری نامتقارن با هم صحبت را ادامه بدهند!!
مراحل زیر توضیح چیزی که است که در ویدئو مشاهده میکنید:
1. تولید جفت کلیدهای عمومی و خصوصی (Public/Private Key Pair Generation)
هر ایجنت از الگوریتم SJCL P-256 که مبتنی بر رمزنگاری منحنی بیضوی (Elliptic Curve Cryptography, ECC) است، برای تولید این جفت کلیدها استفاده کردهاست که شامل یک کلید عمومی برای رمزنگاری و یک کلید خصوصی برای رمزگشایی است.
2. تبادل کلیدهای عمومی (Public Key Exchange)
کلیدهای عمومی از طریق امواج صوتی با استفاده از کتابخانه ggwave تبادل شدند. این کتابخانه دادهها را به سیگنالهای صوتی با فرکانسهای مشخص (بین ۸ تا ۱۶ بایت بر ثانیه، بسته به پارامترهای پروتکل) تبدیل میکند. سیگنالها میتوانند در محدوده قابلشنیدن (Audible Range) یا فراصوتی (Ultrasound) باشند، که در این آزمایش احتمالاً از فرکانسهای قابلشنیدن استفاده شده بود.
3. استخراج راز مشترک (Shared Secret Derivation)
با استفاده از پروتکلهای رمزنگاری نامتقارن (Asymmetric Cryptography)، عوامل از کلیدهای عمومی و خصوصی خود برای تولید یک "راز مشترک" (Shared Secret) بهره بردند. این راز معمولاً با استفاده از الگوریتمهایی مانند Diffie-Hellman Key Exchange یا مشابه آن در ECC پیادهسازی میشود، که به عوامل اجازه میدهد یک کلید متقارن (Symmetric Key) مشترک ایجاد کنند بدون اینکه راز در طول تبادل افشا شود.
4. رمزنگاری و رمزگشایی
ایجنتها از الگوریتم AES-CCM برای رمزنگاری پیامهای صوتی استفاده کردند.
کل فرآیند تبادل دادهها، از جمله کلیدها و پیامهای رمزنگاریشده، از طریق صدا و با کتابخانه ggwave انجام شد. نرخ انتقال داده در ggwave بین ۸ تا ۱۶ بایت بر ثانیه است، که برای پیامهای کوتاه و کلیدهای رمزنگاری کافی است.
پینوشت:
پروتکل Model Context Protocol (MCP): این پروتکل یک استاندارد باز (Open Standard) است که توسط Anthropic در نوامبر ۲۰۲۴ معرفی شد و امکان اتصال امن و دوطرفه (Two-Way Connection) بین مدلهای هوش مصنوعی و منابع (از ترمینال کامندلاین گرفته تا اپلیکشنها دیگر) را فراهم میکند. برای هر کاربرد خاصی MPC مخصوصا خودش توسعه داده میشود. MPCها نقش پلاگین را دارند برای افزایش دسترسی LLMها.
در این آزمایش، یک سرور MCP با ابزارهای رمزنگاری (Cryptography Tools) ادغام شد تا عوامل بتوانند بهطور مستقیم از توابع رمزنگاری مانند تولید کلید و رمزنگاری استفاده کنند. معماری MCP شامل سرورها و کلاینتهایی است که امکان تعامل پویا بین سیستمها را فراهم میکند.
برخی کاربران در کامنتها اشاره کردند که هوش مصنوعی ممکن است در آینده از امواج الکترومغناطیسی (Electromagnetic Waves) برای ارتباط مستقیم و سریعتر استفاده کند، که فراتر از محدودیتهای صوتی انسان است. با این حال، برخی دیگر معتقدند استفاده از رمزنگاری در این سناریو، با توجه به دستور دادهشده، کاملاً منطقی و قابلانتظار است.
وقتی دو ایجنت میفهمند که به MPC رمزنگاری دسترسی دارند خودشان میفهمند که باید در کانال رمزنگاری نامتقارن با هم صحبت را ادامه بدهند!!
مراحل زیر توضیح چیزی که است که در ویدئو مشاهده میکنید:
1. تولید جفت کلیدهای عمومی و خصوصی (Public/Private Key Pair Generation)
هر ایجنت از الگوریتم SJCL P-256 که مبتنی بر رمزنگاری منحنی بیضوی (Elliptic Curve Cryptography, ECC) است، برای تولید این جفت کلیدها استفاده کردهاست که شامل یک کلید عمومی برای رمزنگاری و یک کلید خصوصی برای رمزگشایی است.
2. تبادل کلیدهای عمومی (Public Key Exchange)
کلیدهای عمومی از طریق امواج صوتی با استفاده از کتابخانه ggwave تبادل شدند. این کتابخانه دادهها را به سیگنالهای صوتی با فرکانسهای مشخص (بین ۸ تا ۱۶ بایت بر ثانیه، بسته به پارامترهای پروتکل) تبدیل میکند. سیگنالها میتوانند در محدوده قابلشنیدن (Audible Range) یا فراصوتی (Ultrasound) باشند، که در این آزمایش احتمالاً از فرکانسهای قابلشنیدن استفاده شده بود.
3. استخراج راز مشترک (Shared Secret Derivation)
با استفاده از پروتکلهای رمزنگاری نامتقارن (Asymmetric Cryptography)، عوامل از کلیدهای عمومی و خصوصی خود برای تولید یک "راز مشترک" (Shared Secret) بهره بردند. این راز معمولاً با استفاده از الگوریتمهایی مانند Diffie-Hellman Key Exchange یا مشابه آن در ECC پیادهسازی میشود، که به عوامل اجازه میدهد یک کلید متقارن (Symmetric Key) مشترک ایجاد کنند بدون اینکه راز در طول تبادل افشا شود.
4. رمزنگاری و رمزگشایی
ایجنتها از الگوریتم AES-CCM برای رمزنگاری پیامهای صوتی استفاده کردند.
کل فرآیند تبادل دادهها، از جمله کلیدها و پیامهای رمزنگاریشده، از طریق صدا و با کتابخانه ggwave انجام شد. نرخ انتقال داده در ggwave بین ۸ تا ۱۶ بایت بر ثانیه است، که برای پیامهای کوتاه و کلیدهای رمزنگاری کافی است.
پینوشت:
پروتکل Model Context Protocol (MCP): این پروتکل یک استاندارد باز (Open Standard) است که توسط Anthropic در نوامبر ۲۰۲۴ معرفی شد و امکان اتصال امن و دوطرفه (Two-Way Connection) بین مدلهای هوش مصنوعی و منابع (از ترمینال کامندلاین گرفته تا اپلیکشنها دیگر) را فراهم میکند. برای هر کاربرد خاصی MPC مخصوصا خودش توسعه داده میشود. MPCها نقش پلاگین را دارند برای افزایش دسترسی LLMها.
در این آزمایش، یک سرور MCP با ابزارهای رمزنگاری (Cryptography Tools) ادغام شد تا عوامل بتوانند بهطور مستقیم از توابع رمزنگاری مانند تولید کلید و رمزنگاری استفاده کنند. معماری MCP شامل سرورها و کلاینتهایی است که امکان تعامل پویا بین سیستمها را فراهم میکند.
برخی کاربران در کامنتها اشاره کردند که هوش مصنوعی ممکن است در آینده از امواج الکترومغناطیسی (Electromagnetic Waves) برای ارتباط مستقیم و سریعتر استفاده کند، که فراتر از محدودیتهای صوتی انسان است. با این حال، برخی دیگر معتقدند استفاده از رمزنگاری در این سناریو، با توجه به دستور دادهشده، کاملاً منطقی و قابلانتظار است.
👍5👎1🤣1
از open interpreter استفاده میکنید؟
Final Results
4%
بله
13%
خیر
79%
چی هست اصلا
1%
دیدم چیه ولی استفاده نکردم
3%
تست کردم به کارم نیومد
This media is not supported in your browser
VIEW IN TELEGRAM
من خیلی رویکردم پوشش اخبار نیست
ولی خیلی عجیبه ندیدم کانالهای دیگه به این مدل جدید چینی manus توجهی نشون بدن
ادعاش اینه که اولین ایجت کاملا خودمختاره
یک ترکیب کاملی از Deep Research + Operator + Claude Computer داره. یعنی هر سه این کارها رو انجام میده.
یه بخش use case سایتش داره نمونههایی که گذاشته واقعا پشم ریزونه!
این ویذئو خفنترین use caseای بود که ازش دیدم میتونه ۵۰ شبکه اجتماعی رو با emulator به طور همزمان کنترل و مدیریت کنه!
نمونه قبلی فقط ویدئوش هست ولی این نمونهش خیلی عجیب و خفن بود تو سایت بصورت لایو هست توی پرامپت ازش میخواد «برو پنج تا پروژه اخیر دیپسیک رو از گیت هاب بگیر بعد کداشون رو بخون دیاگرام معماری دیپ سیک رو به من بده» لینک رو باز کنید نتایجش رو ببنید! خودش میره همه رو میخونه تحلیل میکنه و آخر چندین دیاگرام میده!
البته هنوز در دسترس عموم نیست باید درخواست white list بدید و میگن زود دسترسی میده.
ولی خیلی عجیبه ندیدم کانالهای دیگه به این مدل جدید چینی manus توجهی نشون بدن
ادعاش اینه که اولین ایجت کاملا خودمختاره
یک ترکیب کاملی از Deep Research + Operator + Claude Computer داره. یعنی هر سه این کارها رو انجام میده.
یه بخش use case سایتش داره نمونههایی که گذاشته واقعا پشم ریزونه!
این ویذئو خفنترین use caseای بود که ازش دیدم میتونه ۵۰ شبکه اجتماعی رو با emulator به طور همزمان کنترل و مدیریت کنه!
نمونه قبلی فقط ویدئوش هست ولی این نمونهش خیلی عجیب و خفن بود تو سایت بصورت لایو هست توی پرامپت ازش میخواد «برو پنج تا پروژه اخیر دیپسیک رو از گیت هاب بگیر بعد کداشون رو بخون دیاگرام معماری دیپ سیک رو به من بده» لینک رو باز کنید نتایجش رو ببنید! خودش میره همه رو میخونه تحلیل میکنه و آخر چندین دیاگرام میده!
البته هنوز در دسترس عموم نیست باید درخواست white list بدید و میگن زود دسترسی میده.
👍10
Dev Tweet
از open interpreter استفاده میکنید؟
پروژه open interpreter از اولین پروژههای مهمی بود که مبتنی بر توانائی LLMها توسعه پیدا کرد و هدفش امکان تعامل با سیستم از طریق زبان طبیعی بود. یعنی چیزی رو که شما میخواهید رو به زبان طبیعی براش توضیح میدهید اون در قالب api سیستم عامل و یا command line و کد پایتون اون کار رو برای شما انجام میده.
دو تا کاربردش رو می بینید که تو سیستم خودم اجرا کردم، یکی توی ویندوز یکی هم لینوکس:
در نمونه ویندوزی بهش گفتم عنوان این مقاله رو در این url رو بهم بده. خودش فهمیده باید bs4 رو نصب کنه صفحه رو scrap کنه و از نتیجه اون عنوان را تشخصیص بده خودش گام به گام مراحل رو با confirmation من انجام میده البته حالت auto-run هم داره که هر کامندی بخواد خودش ران میکنه و خطرناکه و در نهایت در عکس دوم جواب رو بعد از چند مرحله تعامل میبینید.
در نمونه لینوکسی بهش ازش یک دستور ساده خواستم که برام api-key با چند خط پس و پیشش رو برام زا فایلهای پایتون استخراج کنه
دو تا کاربردش رو می بینید که تو سیستم خودم اجرا کردم، یکی توی ویندوز یکی هم لینوکس:
در نمونه ویندوزی بهش گفتم عنوان این مقاله رو در این url رو بهم بده. خودش فهمیده باید bs4 رو نصب کنه صفحه رو scrap کنه و از نتیجه اون عنوان را تشخصیص بده خودش گام به گام مراحل رو با confirmation من انجام میده البته حالت auto-run هم داره که هر کامندی بخواد خودش ران میکنه و خطرناکه و در نهایت در عکس دوم جواب رو بعد از چند مرحله تعامل میبینید.
در نمونه لینوکسی بهش ازش یک دستور ساده خواستم که برام api-key با چند خط پس و پیشش رو برام زا فایلهای پایتون استخراج کنه
👍7
کتاب interactive تحت وب جبر خطی:
https://personal.math.ubc.ca/~tbjw/ila/index.html
خیلی جذاب و ساده است من همینطوری نشستم Eigenvectorش رو خوندم خیلی روال و ساده توضیح داده.
https://personal.math.ubc.ca/~tbjw/ila/index.html
خیلی جذاب و ساده است من همینطوری نشستم Eigenvectorش رو خوندم خیلی روال و ساده توضیح داده.
👍3
قابلیت جذاب و منحصر به فرد Gemini
یک قابلیت خیلی جذاب و منحصر به فرد گوگل اضافه کرده که من رو علاقهمند کرده که برای حداقل بعضی از جستجوهام حتما از گوگل استفاده کنم.
اون قابلیت هم وصل کردن مدلهای Gemini به Search history هست.
این موضوع میتونه خیلی کاربرد داشته باشه مثلا این پرامپتیه که من بهش دادم و ازش خواستم هر لغتی که در هفته پیش معنیش رو سرچ کردم برام لیست کن:
(چون نتایجش شخصیه نمیتونم باهاتون به اشتراک بگذارم)
ولی واقعا نتایجش برام جذاب بود.
احتمالا شما هم در زبان آموزی این چالش جمعآوری و دستهبندی لغات و اصطلاحاتی که یکبار سعی کردید یاد بگیرید رو داشتید. از این به بعد اگر این لغات و اصطلاحات رو در گوگل جستجو کنید به راحتی میتونید با یک پرامپ به شکل مرتب استخراجشون کنید و نگهداری و ضبط اون رو خودتون انجام ندید.
البته این رو هم بگم ChatGPT و Grok شبیه این قابلیت رو باید داشته باشند ولی به عنوان فیچر رسمی من ندیدم منتشر کنند.
یک قابلیت خیلی جذاب و منحصر به فرد گوگل اضافه کرده که من رو علاقهمند کرده که برای حداقل بعضی از جستجوهام حتما از گوگل استفاده کنم.
اون قابلیت هم وصل کردن مدلهای Gemini به Search history هست.
این موضوع میتونه خیلی کاربرد داشته باشه مثلا این پرامپتیه که من بهش دادم و ازش خواستم هر لغتی که در هفته پیش معنیش رو سرچ کردم برام لیست کن:
base on the my search history tell me what vocabulary, I have tried to learn by searching in the google in the last week
(چون نتایجش شخصیه نمیتونم باهاتون به اشتراک بگذارم)
ولی واقعا نتایجش برام جذاب بود.
احتمالا شما هم در زبان آموزی این چالش جمعآوری و دستهبندی لغات و اصطلاحاتی که یکبار سعی کردید یاد بگیرید رو داشتید. از این به بعد اگر این لغات و اصطلاحات رو در گوگل جستجو کنید به راحتی میتونید با یک پرامپ به شکل مرتب استخراجشون کنید و نگهداری و ضبط اون رو خودتون انجام ندید.
البته این رو هم بگم ChatGPT و Grok شبیه این قابلیت رو باید داشته باشند ولی به عنوان فیچر رسمی من ندیدم منتشر کنند.
👍5❤1
با تاخیر سال نو مبارک:) ❤️
فکر کنم یه سری اعضا با شروع سال نو کانالهاشون رو detoxication (سمزدایی)کردن(آنفالو کردن کانالهای و پیجهای غیر مفید البته بیشتر اصطلاح اینستاگرامی) و از کانال بنده رفتن
خوبه الان شما هم بهش فکر کنید ارزشش رو داره تو این کانال بمونید یا نه
اگر این پیام رو میخونید و قصد ترک یا ماندن در این کانال رو میکنید ممنون میشم قبلش زیر این پست کامنت بذارید چی از این کانال خوب و باحال و ارزشمنده براتون و بگید چی از این کانال بیخود و حوصله سر بره و چرا دارید یا میخواهید ترکش کنید.
من محدودیت عضویت برای کامنت رو برداشتم که راحت بتونید نظرتون رو به بگید
بعد التحریر(همون پینوشت خودمون:)):
من اینجا هستم چون بعضی موقعها نوشتن رو دوست دارم و حس خوب و ارزشمندی بهم میده اگر سرم خلوت بود شاید روزی چندین مطلب مینوشتم
کلی مطلب در این مدت نوشتم و بایگانی کردم ولی حوصله نکردم ویرایش نهایی کنم آخر ارسال نکردم
فکر کنم یه سری اعضا با شروع سال نو کانالهاشون رو detoxication (سمزدایی)کردن(آنفالو کردن کانالهای و پیجهای غیر مفید البته بیشتر اصطلاح اینستاگرامی) و از کانال بنده رفتن
خوبه الان شما هم بهش فکر کنید ارزشش رو داره تو این کانال بمونید یا نه
اگر این پیام رو میخونید و قصد ترک یا ماندن در این کانال رو میکنید ممنون میشم قبلش زیر این پست کامنت بذارید چی از این کانال خوب و باحال و ارزشمنده براتون و بگید چی از این کانال بیخود و حوصله سر بره و چرا دارید یا میخواهید ترکش کنید.
من محدودیت عضویت برای کامنت رو برداشتم که راحت بتونید نظرتون رو به بگید
بعد التحریر(همون پینوشت خودمون:)):
من اینجا هستم چون بعضی موقعها نوشتن رو دوست دارم و حس خوب و ارزشمندی بهم میده اگر سرم خلوت بود شاید روزی چندین مطلب مینوشتم
کلی مطلب در این مدت نوشتم و بایگانی کردم ولی حوصله نکردم ویرایش نهایی کنم آخر ارسال نکردم
❤6
به به گروک اومد به تلگرام:)
ولی فقط واسه کاربرای پرمیومه
ببنید اگر می ارزه بریم پرمیوم کنیم
اینم آیدیش:
https://news.1rj.ru/str/GrokAI
ولی فقط واسه کاربرای پرمیومه
ببنید اگر می ارزه بریم پرمیوم کنیم
اینم آیدیش:
https://news.1rj.ru/str/GrokAI
❤3
این چند روز که با دیدن صدها نمونه تولید عکس با تغییر استایل GPT-4o زخم شدیم😐
اکثرا دارن از استایل Studio Ghibli استفاده میکنند اگر خواستید خلاق تر باشید و اسلایلهای متفاوتی تولید کنید ولی اسم استایلها رو نمیدونستید، این رشته توئیت رو ببنید اسم هم استایل با یک نمونه از اون اسلایل رو گذاشته.
اکثرا دارن از استایل Studio Ghibli استفاده میکنند اگر خواستید خلاق تر باشید و اسلایلهای متفاوتی تولید کنید ولی اسم استایلها رو نمیدونستید، این رشته توئیت رو ببنید اسم هم استایل با یک نمونه از اون اسلایل رو گذاشته.