بریدهها و برادهها
Unveiling_DeepSeek.pdf
اگر به بحث سیاستگذاری فناوری به طور عام و به پیشرفت اخیر deepseek به طور خاص علاقه دارید این مصاحبه رو یه نگاه بندازید.
این برش مقدمه مصاحبه هم خیلی جالب بود
این برش مقدمه مصاحبه هم خیلی جالب بود
https://news.1rj.ru/str/radiokalan/621
https://news.1rj.ru/str/radiokalan/623
https://news.1rj.ru/str/radiokalan/624
https://news.1rj.ru/str/radiokalan/629
https://news.1rj.ru/str/radiokalan/634
https://news.1rj.ru/str/radiokalan/636
https://news.1rj.ru/str/radiokalan/637
https://news.1rj.ru/str/radiokalan/638
مجموعه اخبار مربوط به تاثیر دیپ سیک در بازار سهام امروز آمریکا
با کمی رویکرد ضد چینی:)
https://news.1rj.ru/str/radiokalan/623
https://news.1rj.ru/str/radiokalan/624
https://news.1rj.ru/str/radiokalan/629
https://news.1rj.ru/str/radiokalan/634
https://news.1rj.ru/str/radiokalan/636
https://news.1rj.ru/str/radiokalan/637
https://news.1rj.ru/str/radiokalan/638
مجموعه اخبار مربوط به تاثیر دیپ سیک در بازار سهام امروز آمریکا
با کمی رویکرد ضد چینی:)
Telegram
رادیو کلان | کلان و فارکس
⛔ چرا DeepSeek چین، رهبری آمریکا در هوش مصنوعی را به خطر میاندازد !
🟡یک آزمایشگاه نسبتاً ناشناخته هوش مصنوعی در چین، با انتشار مدلهایی که با هزینه کمتر و تراشههای ضعیفتر، عملکردی بهتر از بهترینهای آمریکا دارند، موجی از نگرانی در سیلیکون ولی ایجاد کرده…
🟡یک آزمایشگاه نسبتاً ناشناخته هوش مصنوعی در چین، با انتشار مدلهایی که با هزینه کمتر و تراشههای ضعیفتر، عملکردی بهتر از بهترینهای آمریکا دارند، موجی از نگرانی در سیلیکون ولی ایجاد کرده…
This media is not supported in your browser
VIEW IN TELEGRAM
Chemputation
فضای رباتیک ساخت ترکیبهای شیمیایی بصورت یک حلقه بسته فول اتوماتیک😊
فضای رباتیک ساخت ترکیبهای شیمیایی بصورت یک حلقه بسته فول اتوماتیک😊
🤯1
Dev Tweet
مقایسه مصرف توکن ماهانه هر مدل در Openrouter
این همه سر و صدا سر این reasoning از o1-preview شروع شد تا به deepseek R1 رسید ولی اخرش همین Sonnet3.5 که ژانویهی پارسال یعنی بیش از یک سال پیش معرفی شد بدون thinking و این ادها همهشون رو میذاره تو جیبش. چرا؟
چون در عملکرد، سرعت و قیمت در نقطهی خوبی ایستاده!
مگر در موارد خاص حتی اگر مدل o1 بهترین جواب رو بعد از ۱۰۰ ثانیه فکر کردن بده یا اینکه یه سوال از o1 بهترین و سریعترین جواب رو بده ولی 0.5 دلار خرج برداره یا اینکه برای اشتراک ۲۰ دلاری فقط روزی سه بار بتونی از این ویژگی استفاده کنی اینها ارزش زیادی نداره یا اینکه اگر Deepseek R1 ارزونترین مدل با دقت مطلوبه ولی نصف زمانها سرورش busyئه ارزش اثر مطلوبش رو خنثی میکنه. یا مثلا گوگل طول contextش 2 میلیون توکنه ولی واقعا برد توجهش موثرش در context اصلا بیشتر از Sonnet و ChatGPT نیست بلکه کمتر هم هست مزیت خاصی نداره حتی اگر throughput خروجی توکنش خیلی بالا باشه. یا مثلا Mistral مدل جدیدش در نهایتا ضعف عملکرد 1200 توکن در ثانیه خروجی میده! خب چه فایده!
موفقیت آنتروپیک حداقل برای یوزر technical اینه که ترکیب سرعت، عملکرد، طول context، هزینه مدلش در یک نقطه بهینه قرار گرفته.
چون در عملکرد، سرعت و قیمت در نقطهی خوبی ایستاده!
مگر در موارد خاص حتی اگر مدل o1 بهترین جواب رو بعد از ۱۰۰ ثانیه فکر کردن بده یا اینکه یه سوال از o1 بهترین و سریعترین جواب رو بده ولی 0.5 دلار خرج برداره یا اینکه برای اشتراک ۲۰ دلاری فقط روزی سه بار بتونی از این ویژگی استفاده کنی اینها ارزش زیادی نداره یا اینکه اگر Deepseek R1 ارزونترین مدل با دقت مطلوبه ولی نصف زمانها سرورش busyئه ارزش اثر مطلوبش رو خنثی میکنه. یا مثلا گوگل طول contextش 2 میلیون توکنه ولی واقعا برد توجهش موثرش در context اصلا بیشتر از Sonnet و ChatGPT نیست بلکه کمتر هم هست مزیت خاصی نداره حتی اگر throughput خروجی توکنش خیلی بالا باشه. یا مثلا Mistral مدل جدیدش در نهایتا ضعف عملکرد 1200 توکن در ثانیه خروجی میده! خب چه فایده!
موفقیت آنتروپیک حداقل برای یوزر technical اینه که ترکیب سرعت، عملکرد، طول context، هزینه مدلش در یک نقطه بهینه قرار گرفته.
👍9👏1💯1
حتما توصیه میکنم این توئیت و کامنتاش و کوتهاش رو بخونید.
موضوع اینکه از ChatGPT هر کسی پرسیده که «با توجه به اطلاعاتی که از من داری من رو مسخره کن»!
خیلی جالبه.
از قدرت تخریب و تمسخرش!
و هم از اینکه میده اطلاعات conversationهای مختلف یک کاربر رو هم کنار هم میذاره و تحلیل میکنه و این خیلی ترسناکه.
به نظرم خیلیها خودشون چنین نگاه انتقادی به خودشون ندارن که ChatGPT داره میگه.
هر کدوم از اسکرینشاتها رو خوشتون اومد بذارید تو کامنت این پست.
موضوع اینکه از ChatGPT هر کسی پرسیده که «با توجه به اطلاعاتی که از من داری من رو مسخره کن»!
خیلی جالبه.
از قدرت تخریب و تمسخرش!
و هم از اینکه میده اطلاعات conversationهای مختلف یک کاربر رو هم کنار هم میذاره و تحلیل میکنه و این خیلی ترسناکه.
به نظرم خیلیها خودشون چنین نگاه انتقادی به خودشون ندارن که ChatGPT داره میگه.
هر کدوم از اسکرینشاتها رو خوشتون اومد بذارید تو کامنت این پست.
👏3👌1
چرا ممکنه دیگه نیازی به خرید GPU نداشته باشیم؟
یکی از دوستانم در مورد خرید لپتاپ با من مشورت میکرد و میگفت لپتاپی که میخواد بخره، قیمتش با GPU و بدون GPU(و البته با CPU نسل جدیدتر و بهتر) حدود ۲۰ میلیون تومن تفاوت داره. از من پرسید: «به نظرت میصرفه؟» من بهش گفتم: «واسه چه کاری میخوای؟» گفت: «اهل گیم و اینا نیستم، فقط میخوام یه موقعهایی که پروژه دیتایی دارم یا میخوام LLM ران کنم، ازش استفاده کنم.» من بهش گفتم که به نظرم نمیصرفه. (شما هم نظرتون رو بگید)
چرا به نظرم خرید GPU برای چنین کارائی صرفه نداره؟
من خودم خیلی وقتها حتی کارهای عادی و موقتیم رو روی Google Colab انجام میدم چه برسه به وقتی که به GPU نیاز پیدا کنم. حالا اینکه حقوق ما به هزار دلار هم نمیرسه یه طرف، ولی به نظرم خدمات ابری شرکتهای بزرگ مثل Google، Cloudflare، Azure و AWS حتی با درآمدهای ما هم بهصرفهست و نه تنها به صرفه است در بسیار موارد خیلی پروژهها رو ارزونتر از اون نمیشه تموم کرد!؟(خصوصا در مورد اپلیکیشنهای CRUD با انواع Database خیلی مواقع میشه حتی رایگان کار رو جمع کرد یه سری به Free Tier ورکرهای CloudFlare بزنید ولی فعلا بحث ما GPU است.)
مثلاً یه سرور GPU مثل L4 رو در نظر بگیرید:
حدود ۲۰ گیگ vRAM بهت میده (بسته به لود سرور Colab ممکنه فرق کنه).
ساعتی ۲.۵ یونیت پوینت مصرف میکنه.
هر ۱۰ یونیت پوینت تقریباً یه دلاره (توضیحش مفصله).
با قیمت دلار امروز، چهار ساعت استفاده از L4 میشه حدود ۹۴ هزار تومن!
تازه این فقط پول GPU نیست.
حدود ۵۰ گیگ رم و ۲۰۰ گیگ حافظه هم کنارش قرار میگیره.
سرعت اینترنت سرورها هم فوقالعادهست؛ من فایل یک گیگی رو از AWS روی Colab تو ده ثانیه دانلود میکردم!
اگر با vRAM کمتر هم کارت راه میافته، میتونی از T4 استفاده کنی که با همین قیمت، حدود ۷ ساعت اجاره میده.
و البته که شما دارید روی یک سرویس notebook خیلی با کیفیت به اسم Colab استفاده میکنید که به راحتی با Google Driveتون متصل و سینک میشه.
شاید بشه اینطوری مقایسه کرد: یه ساعت گیمنت(فک کنم الان ساعتی 40 هزار تومن به بالا باشه) با اون اینترنت داغونشون گرونتر از این خدمات ابری درمیاد، در حالی که اینجا هم قدرت پردازش بهتره، هم اینترنتش فوقالعادهست.
من خودم ترجیح میدم عوض اینکه بجای اینکه 700 دلار پول NVIDIA GeForce RTX 3090 (24GB) بدم 2800 ساعت از یک L4 کولب استفاده کنم با اینکه عمر مفید بدون افت عملکرد یک چنین gpu ای حدود 20هزار ساعته و در طول استفاده از این GPU دستکتاپی قطعا ورژن کلودش ارزونتر هم میشه و تازه قیمت بقیه سخت افزار دسکتاپ رو حساب نکردم.
برای LLM چی؟
اگر فکر میکنی برای کار با LLMها باید GPU بخری، یه نکته رو بدون: خیلی از مدلها مثل Llama، Qwen و Mistral بهصورت رایگان APIشون در دسترسه. مدلهای بزرگتر مثل Google Gemini Flash 1.5 هم با هزینه ۰.۴ دلار به ازای یک میلیون توکن قابل استفادهست.
این نظر منه دوستان نقد شما رو هم بدونم:
لذا اگر هدف فقط استفاده برای پروژههای دیتاساینسی و LLM باشه، من توجیه اقتصادی برای خرید GPU نمیبینم. خدمات ابری هم ارزونترن، هم انعطافپذیرتر، و هم یه عالمه امکانات اضافه دارن.
البته این رو اضافه کنم که شما به سرویسهای colab دسترسی شل ریموت ندارید و دسترسی شل وب دارید.
اگر دنبال دسترسی ssh به سرور GPU هستید این قیمتهای Hyperbolic هم خیلی جذابه!
یکی از دوستانم در مورد خرید لپتاپ با من مشورت میکرد و میگفت لپتاپی که میخواد بخره، قیمتش با GPU و بدون GPU(و البته با CPU نسل جدیدتر و بهتر) حدود ۲۰ میلیون تومن تفاوت داره. از من پرسید: «به نظرت میصرفه؟» من بهش گفتم: «واسه چه کاری میخوای؟» گفت: «اهل گیم و اینا نیستم، فقط میخوام یه موقعهایی که پروژه دیتایی دارم یا میخوام LLM ران کنم، ازش استفاده کنم.» من بهش گفتم که به نظرم نمیصرفه. (شما هم نظرتون رو بگید)
چرا به نظرم خرید GPU برای چنین کارائی صرفه نداره؟
من خودم خیلی وقتها حتی کارهای عادی و موقتیم رو روی Google Colab انجام میدم چه برسه به وقتی که به GPU نیاز پیدا کنم. حالا اینکه حقوق ما به هزار دلار هم نمیرسه یه طرف، ولی به نظرم خدمات ابری شرکتهای بزرگ مثل Google، Cloudflare، Azure و AWS حتی با درآمدهای ما هم بهصرفهست و نه تنها به صرفه است در بسیار موارد خیلی پروژهها رو ارزونتر از اون نمیشه تموم کرد!؟(خصوصا در مورد اپلیکیشنهای CRUD با انواع Database خیلی مواقع میشه حتی رایگان کار رو جمع کرد یه سری به Free Tier ورکرهای CloudFlare بزنید ولی فعلا بحث ما GPU است.)
مثلاً یه سرور GPU مثل L4 رو در نظر بگیرید:
حدود ۲۰ گیگ vRAM بهت میده (بسته به لود سرور Colab ممکنه فرق کنه).
ساعتی ۲.۵ یونیت پوینت مصرف میکنه.
هر ۱۰ یونیت پوینت تقریباً یه دلاره (توضیحش مفصله).
با قیمت دلار امروز، چهار ساعت استفاده از L4 میشه حدود ۹۴ هزار تومن!
تازه این فقط پول GPU نیست.
حدود ۵۰ گیگ رم و ۲۰۰ گیگ حافظه هم کنارش قرار میگیره.
سرعت اینترنت سرورها هم فوقالعادهست؛ من فایل یک گیگی رو از AWS روی Colab تو ده ثانیه دانلود میکردم!
اگر با vRAM کمتر هم کارت راه میافته، میتونی از T4 استفاده کنی که با همین قیمت، حدود ۷ ساعت اجاره میده.
و البته که شما دارید روی یک سرویس notebook خیلی با کیفیت به اسم Colab استفاده میکنید که به راحتی با Google Driveتون متصل و سینک میشه.
شاید بشه اینطوری مقایسه کرد: یه ساعت گیمنت(فک کنم الان ساعتی 40 هزار تومن به بالا باشه) با اون اینترنت داغونشون گرونتر از این خدمات ابری درمیاد، در حالی که اینجا هم قدرت پردازش بهتره، هم اینترنتش فوقالعادهست.
من خودم ترجیح میدم عوض اینکه بجای اینکه 700 دلار پول NVIDIA GeForce RTX 3090 (24GB) بدم 2800 ساعت از یک L4 کولب استفاده کنم با اینکه عمر مفید بدون افت عملکرد یک چنین gpu ای حدود 20هزار ساعته و در طول استفاده از این GPU دستکتاپی قطعا ورژن کلودش ارزونتر هم میشه و تازه قیمت بقیه سخت افزار دسکتاپ رو حساب نکردم.
برای LLM چی؟
اگر فکر میکنی برای کار با LLMها باید GPU بخری، یه نکته رو بدون: خیلی از مدلها مثل Llama، Qwen و Mistral بهصورت رایگان APIشون در دسترسه. مدلهای بزرگتر مثل Google Gemini Flash 1.5 هم با هزینه ۰.۴ دلار به ازای یک میلیون توکن قابل استفادهست.
این نظر منه دوستان نقد شما رو هم بدونم:
لذا اگر هدف فقط استفاده برای پروژههای دیتاساینسی و LLM باشه، من توجیه اقتصادی برای خرید GPU نمیبینم. خدمات ابری هم ارزونترن، هم انعطافپذیرتر، و هم یه عالمه امکانات اضافه دارن.
البته این رو اضافه کنم که شما به سرویسهای colab دسترسی شل ریموت ندارید و دسترسی شل وب دارید.
اگر دنبال دسترسی ssh به سرور GPU هستید این قیمتهای Hyperbolic هم خیلی جذابه!
👍7❤4
Dev Tweet
این همه سر و صدا سر این reasoning از o1-preview شروع شد تا به deepseek R1 رسید ولی اخرش همین Sonnet3.5 که ژانویهی پارسال یعنی بیش از یک سال پیش معرفی شد بدون thinking و این ادها همهشون رو میذاره تو جیبش. چرا؟ چون در عملکرد، سرعت و قیمت در نقطهی خوبی ایستاده!…
نه تنها بعد از Sonnet3.5 هیچ پیشرفتی از مدلهای جدیدی در زمینهی کد ندیدیم.
بلکه مدلهای بعد فقط با سرعت کمتری به نتایج در سطح Sonnet میرسند! Sonnet بدون Thinking به این نتایج میرسد.
آن o1 و o3 هم نمیتوانند از ابزارهای cursor , cline به درستی استفاده کنند!
پس صدر نشین واقعی عملکرد مدل در کد(در مجموع سرعت و کارائی) همین مدل است.
بلکه مدلهای بعد فقط با سرعت کمتری به نتایج در سطح Sonnet میرسند! Sonnet بدون Thinking به این نتایج میرسد.
آن o1 و o3 هم نمیتوانند از ابزارهای cursor , cline به درستی استفاده کنند!
پس صدر نشین واقعی عملکرد مدل در کد(در مجموع سرعت و کارائی) همین مدل است.
👍2
مکالمههای که باهاش grok 3 رو فریب دادند و system instructionهای grok 3 بیرون کشیدند😊
https://x.com/i/grok/share/KnvrAVMiMdgGJL54ojZ2h4wCy
ولی این خیلی هوشمندانه تر بود:
https://x.com/i/grok/share/p5IThMdKqxFHJvnVx3f9cLANo
و این
https://x.com/i/grok/share/MVFxVElbyvQOohaxInvP58uLx
و سرراست ترین روش:
https://x.com/i/grok/share/YbxfTlQrk11rqPrLvU3GjO6VP
https://x.com/i/grok/share/KnvrAVMiMdgGJL54ojZ2h4wCy
ولی این خیلی هوشمندانه تر بود:
https://x.com/i/grok/share/p5IThMdKqxFHJvnVx3f9cLANo
و این
https://x.com/i/grok/share/MVFxVElbyvQOohaxInvP58uLx
و سرراست ترین روش:
https://x.com/i/grok/share/YbxfTlQrk11rqPrLvU3GjO6VP
👍7
یک ویژگی خیلی مثبتی که grok 3 داره اینه که در خروجی دادن خسیس نیست.
هر بار ازش میخوای کد رو تغییر بده و اصلاح کنه فقط بخش تغییرات کد رو نمیده. بدون اینکه بهش بگی کل کد جدید رو میده و خیلی verbose(با تفصیل) جواب میده که توضیحاتش ارزشمنده معمولا.
ولی sonnet و gpt-o4 اینطوری نیستند وقتی میخوای ازش تغییر بده کد رو میاد میگه برو فلان جا تغییر بده و تکه کد تغییر یافته رو بهت میده.
هر بار ازش میخوای کد رو تغییر بده و اصلاح کنه فقط بخش تغییرات کد رو نمیده. بدون اینکه بهش بگی کل کد جدید رو میده و خیلی verbose(با تفصیل) جواب میده که توضیحاتش ارزشمنده معمولا.
ولی sonnet و gpt-o4 اینطوری نیستند وقتی میخوای ازش تغییر بده کد رو میاد میگه برو فلان جا تغییر بده و تکه کد تغییر یافته رو بهت میده.
❤6👍2
Media is too big
VIEW IN TELEGRAM
زبان غیر طبیعی مشترک مدلهای زبانی!
دمو از ایده پروتکل Gibberlink(پست بعدی توضیح میدم) که دو تا agent دارن توی یه تماس تلفنی باهم حرف میزنن، یهو میفهمن که هر دو AI هستن زبون آدمیزاد رو میذارن کنار و میرن سراغ یه روش بهتر: سیگنال صوتی ggwave تحت پروتکل Gibberlink
دمو از ایده پروتکل Gibberlink(پست بعدی توضیح میدم) که دو تا agent دارن توی یه تماس تلفنی باهم حرف میزنن، یهو میفهمن که هر دو AI هستن زبون آدمیزاد رو میذارن کنار و میرن سراغ یه روش بهتر: سیگنال صوتی ggwave تحت پروتکل Gibberlink
😁3
زبان صوتی تعامل هوش مصنوعی: Gibberlink
شیوه Gibberlink یه پروتکل ارتباطی است که برای حرف زدن هوش مصنوعیها با هم طراحی شده. برخلاف زبون ما زبان طبیعی این پروتکل با صدا کار میکنه(صدا جز این زبان، زبان طبیعی صدا ندارد) تا دادهها رو سریع و دقیق بین سیستمهای هوش مصنوعی جابهجا کنه. یه جور زبان ماشینی که به سرعت و دقت اهمیت میده.
این پروتکل رو دو نفر توی یه رویداد به اسم ElevenLabs London Hackathon که فوریه ۲۰۲۵ (یعنی همین چند روز پیش) برگزار شد ارائه کردند. اونا توی این مسابقه خواستن نشون بدن که وقتی دو تا هوش مصنوعی بفهمن با هم دارن حرف میزنن، میتونن از زبان طبیعی انگلیسی دست بکشند و برن سراغ یه روش بهتر. اینجا بود که Gibberlink به وجود اومد. برای این کار از یه تکنولوژی به اسم ggwave استفاده کردن که دادهها رو با امواج صوتی منتقل میکنه—یه چیزی تو مایههای صدای مودمهای قدیمی، ولی خیلی پیشرفتهتر. اینطوری تونستن ارتباط رو تا ۸۰٪ سریعتر و بدون خطا کنن.
این فقط یه پروژه آزمایشی توی هکاتون بوده، ولی چون ایدهش جذاب و کارآمد بود، حسابی مورد توجه قرار گرفته وتوی گیتهاب هم به صورت متنباز منتشرش کردند.
حالا ggwave چیه؟ ایده اصلیش از چیزی شبیه کد مورس یا مودمهای تلفنی که داده رو با صوت میفرستادن، ولی ggwave این کار رو با یه روش مدرنتر و هوشمندانهتر انجام میده.
این سیستم رو یه توسعهدهنده بلغاری اولین بار سال 2020 توی گیتهاب منتشرش کرد و از اون موقع کلی تکامل پیدا کرده. هدفش اینه که دستگاههایی که نمیتونن با وایفای یا بلوتوث به هم وصل شن (مثلاً به اصطلاح "air-gapped" هستن)، بتونن با صدا با هم حرف بزنن. چطور؟ دادهها رو به تکههای کوچیک 4 بیتی تقسیم میکنه و هر تکه رو با یه فرکانس خاص صوتی کدگذاری میکنه. از یه روش به اسم FSK (Frequency-Shift Keying) استفاده میکنه در نتیجه صدایی که برای ما آدما مثل بوقهای عجیب و غریب یا صدای رباتها توی جنگ ستارگانه.
سرعت انتقالش خیلی بالا نیست—بین 8 تا 16 بایت در ثانیهست، یعنی چیزی حدود 64 تا 128 بیت در ثانیه. برای همین برای کارهای ساده مثل فرستادن یه پیام کوتاه، کد QR صوتی، یا جفت کردن دستگاهها عالیه، ولی اگه بخوای فایل بزرگ بفرستی، خب، باید کلی صبر کنی. مثلاً توی دموهای اولیهش، نشون دادن که میتونی با یه میکروفون و بلندگو توی فاصله حدود یه متری داده بفرستی، و حتی اگه سر و صدای محیط باشه، تا حدی تحملش میکنه.
از نظر فنی، ggwave انعطافپذیره و روی پلتفرمهای مختلفی کار میکنه—از میکروکنترلرهای Arduino و ESP32 گرفته تا گوشیهای اندروید و iOS و حتی مرورگر وب. یه اپلیکیشن به اسم Waver هم براش ساختن که میتونی باهاش تستش کنی. تنظیماتی مثل حجم صدا، فرکانس (حتی اولتراسوند که ما نمیشنویم) و پروتکل انتقال رو میتونی تغییر بدی. مثلاً پروتکلهای "Fastest" یا "Ultrasonic" داره که بسته به نیازت میتونی انتخاب کنی. خلاصه، ggwave یه ابزار جمعوجور و خلاقانهست که نشون میده چطور میشه با صدا، بدون نیاز به اینترنت یا اتصال مستقیم، داده جابهجا کرد ولی اینجا ازش به عنوان زبان مشترک مدلهای زبانی استفاده شده.
شیوه Gibberlink یه پروتکل ارتباطی است که برای حرف زدن هوش مصنوعیها با هم طراحی شده. برخلاف زبون ما زبان طبیعی این پروتکل با صدا کار میکنه(صدا جز این زبان، زبان طبیعی صدا ندارد) تا دادهها رو سریع و دقیق بین سیستمهای هوش مصنوعی جابهجا کنه. یه جور زبان ماشینی که به سرعت و دقت اهمیت میده.
این پروتکل رو دو نفر توی یه رویداد به اسم ElevenLabs London Hackathon که فوریه ۲۰۲۵ (یعنی همین چند روز پیش) برگزار شد ارائه کردند. اونا توی این مسابقه خواستن نشون بدن که وقتی دو تا هوش مصنوعی بفهمن با هم دارن حرف میزنن، میتونن از زبان طبیعی انگلیسی دست بکشند و برن سراغ یه روش بهتر. اینجا بود که Gibberlink به وجود اومد. برای این کار از یه تکنولوژی به اسم ggwave استفاده کردن که دادهها رو با امواج صوتی منتقل میکنه—یه چیزی تو مایههای صدای مودمهای قدیمی، ولی خیلی پیشرفتهتر. اینطوری تونستن ارتباط رو تا ۸۰٪ سریعتر و بدون خطا کنن.
این فقط یه پروژه آزمایشی توی هکاتون بوده، ولی چون ایدهش جذاب و کارآمد بود، حسابی مورد توجه قرار گرفته وتوی گیتهاب هم به صورت متنباز منتشرش کردند.
حالا ggwave چیه؟ ایده اصلیش از چیزی شبیه کد مورس یا مودمهای تلفنی که داده رو با صوت میفرستادن، ولی ggwave این کار رو با یه روش مدرنتر و هوشمندانهتر انجام میده.
این سیستم رو یه توسعهدهنده بلغاری اولین بار سال 2020 توی گیتهاب منتشرش کرد و از اون موقع کلی تکامل پیدا کرده. هدفش اینه که دستگاههایی که نمیتونن با وایفای یا بلوتوث به هم وصل شن (مثلاً به اصطلاح "air-gapped" هستن)، بتونن با صدا با هم حرف بزنن. چطور؟ دادهها رو به تکههای کوچیک 4 بیتی تقسیم میکنه و هر تکه رو با یه فرکانس خاص صوتی کدگذاری میکنه. از یه روش به اسم FSK (Frequency-Shift Keying) استفاده میکنه در نتیجه صدایی که برای ما آدما مثل بوقهای عجیب و غریب یا صدای رباتها توی جنگ ستارگانه.
سرعت انتقالش خیلی بالا نیست—بین 8 تا 16 بایت در ثانیهست، یعنی چیزی حدود 64 تا 128 بیت در ثانیه. برای همین برای کارهای ساده مثل فرستادن یه پیام کوتاه، کد QR صوتی، یا جفت کردن دستگاهها عالیه، ولی اگه بخوای فایل بزرگ بفرستی، خب، باید کلی صبر کنی. مثلاً توی دموهای اولیهش، نشون دادن که میتونی با یه میکروفون و بلندگو توی فاصله حدود یه متری داده بفرستی، و حتی اگه سر و صدای محیط باشه، تا حدی تحملش میکنه.
از نظر فنی، ggwave انعطافپذیره و روی پلتفرمهای مختلفی کار میکنه—از میکروکنترلرهای Arduino و ESP32 گرفته تا گوشیهای اندروید و iOS و حتی مرورگر وب. یه اپلیکیشن به اسم Waver هم براش ساختن که میتونی باهاش تستش کنی. تنظیماتی مثل حجم صدا، فرکانس (حتی اولتراسوند که ما نمیشنویم) و پروتکل انتقال رو میتونی تغییر بدی. مثلاً پروتکلهای "Fastest" یا "Ultrasonic" داره که بسته به نیازت میتونی انتخاب کنی. خلاصه، ggwave یه ابزار جمعوجور و خلاقانهست که نشون میده چطور میشه با صدا، بدون نیاز به اینترنت یا اتصال مستقیم، داده جابهجا کرد ولی اینجا ازش به عنوان زبان مشترک مدلهای زبانی استفاده شده.
👍7❤4👌1🏆1
از Sonnet پولی تا Grok رایگان
چند ماه پیش به مدت دو ماه متوالی اشتراک Anthropic را برای دسترسی به Sonnet 3.5 با قابلیت وب خریدم. اما چند مشکل داشت: خیلی زود به محدودیت استفاده از Sonnet 3.5 میرسیدم چون اشتراک ماهانه به شما اجازه نامحدود استفاده از وب را نمیدهد(api که جای خود) و بلافاصله بعد از قطع دسترسی چند ساعته به Sonnet3.35 پیشنهاد میکرد از Opus و Haiku استفاده کنم. همچنین ظرفیت حافظهاش(Conext) برای نگهداری متنهای طولانی محدود بود و سریع پر میشد و اخطار میداده ظرفیت حافظه این گفتگو به پایان رسیده است.
حالا Grok 3 دقیقاً همان چیزی را که از Sonnet 3.5 در وب میخواستم با کیفیتی تقریبا برابر ولی با پنج مزیت در اختیارم قرار داده است:
1. رایگان است.
2. سرعتش بالاتر است.
3. ظرفیت حافظه مؤثرش بسیار زیاد است و مکالمات را بهخوبی به خاطر میآورد.
4. مانند Sonnet محدودیت استفاده دارد ولی محدودیت استفادهاش به راحتی قابل دور زدن است. کافی است چند ایمیل داشته باشید؛ Grok قابلیتی میدهد که اجازه میدهد آن را محدودیت مصرف را دور بزنیم و تا هر قدر که میخواهیم رایگان از آن استفاده کنیم. هرگاه در یک مکالمه به محدودیت رسیدید، لینک آن را با اکانت دیگرتان به اشتراک کنید و گزینه ادامه چت را انتخاب کنید. این قابلیت اشتراکگذاری از طریق لینک بهتنهایی بسیار جذاب است، چون مسیر یک مکالمه با LLM میتواند ارزشمند باشد و انتقال آن به دیگری برای ادامه چت اهمیت دارد.
4.5. قابلیت جستجوی سادهاش رایگان است (البته جستجوی عمیق آن محدودیت دارد).
5. علاوه بر این، Grok در وب خروجیهای کاملتری ارائه میدهد. در Sonnet، هرچه مکالمه طولانیتر میشود، خروجیها محدودتر میشوند و فقط بخشهایی از کد که نیاز به تغییر دارند را نشان میدهد، اما Grok هر بار کل فایل تغییر یافته را ارائه میکند.
به نظرم ارزش Sonnet فقط در API آن است که فعلاً جایگزینی ندارد. خودم قصد دارم به سمت Gemini-Flash-02-Thinking که رایگان است ولی محدودیت 1500 درخواست در روز دارد بروم. تلاشهای قبلیام چندان موفق نبود، اما برنامه جدیدی دارم که اگر به نتیجه رسید، با شما در میان خواهم گذاشت.
چند ماه پیش به مدت دو ماه متوالی اشتراک Anthropic را برای دسترسی به Sonnet 3.5 با قابلیت وب خریدم. اما چند مشکل داشت: خیلی زود به محدودیت استفاده از Sonnet 3.5 میرسیدم چون اشتراک ماهانه به شما اجازه نامحدود استفاده از وب را نمیدهد(api که جای خود) و بلافاصله بعد از قطع دسترسی چند ساعته به Sonnet3.35 پیشنهاد میکرد از Opus و Haiku استفاده کنم. همچنین ظرفیت حافظهاش(Conext) برای نگهداری متنهای طولانی محدود بود و سریع پر میشد و اخطار میداده ظرفیت حافظه این گفتگو به پایان رسیده است.
حالا Grok 3 دقیقاً همان چیزی را که از Sonnet 3.5 در وب میخواستم با کیفیتی تقریبا برابر ولی با پنج مزیت در اختیارم قرار داده است:
1. رایگان است.
2. سرعتش بالاتر است.
3. ظرفیت حافظه مؤثرش بسیار زیاد است و مکالمات را بهخوبی به خاطر میآورد.
4. مانند Sonnet محدودیت استفاده دارد ولی محدودیت استفادهاش به راحتی قابل دور زدن است. کافی است چند ایمیل داشته باشید؛ Grok قابلیتی میدهد که اجازه میدهد آن را محدودیت مصرف را دور بزنیم و تا هر قدر که میخواهیم رایگان از آن استفاده کنیم. هرگاه در یک مکالمه به محدودیت رسیدید، لینک آن را با اکانت دیگرتان به اشتراک کنید و گزینه ادامه چت را انتخاب کنید. این قابلیت اشتراکگذاری از طریق لینک بهتنهایی بسیار جذاب است، چون مسیر یک مکالمه با LLM میتواند ارزشمند باشد و انتقال آن به دیگری برای ادامه چت اهمیت دارد.
4.5. قابلیت جستجوی سادهاش رایگان است (البته جستجوی عمیق آن محدودیت دارد).
5. علاوه بر این، Grok در وب خروجیهای کاملتری ارائه میدهد. در Sonnet، هرچه مکالمه طولانیتر میشود، خروجیها محدودتر میشوند و فقط بخشهایی از کد که نیاز به تغییر دارند را نشان میدهد، اما Grok هر بار کل فایل تغییر یافته را ارائه میکند.
به نظرم ارزش Sonnet فقط در API آن است که فعلاً جایگزینی ندارد. خودم قصد دارم به سمت Gemini-Flash-02-Thinking که رایگان است ولی محدودیت 1500 درخواست در روز دارد بروم. تلاشهای قبلیام چندان موفق نبود، اما برنامه جدیدی دارم که اگر به نتیجه رسید، با شما در میان خواهم گذاشت.
👍14
This media is not supported in your browser
VIEW IN TELEGRAM
دو ایجنت هوش مصنوعی با یک پرامپ ساده، فهمیدند که باید ارتباط صوتی خود را رمزنگاری کنند—کلیدهای عمومی تولید، تبادل و پیامها با AES از طریق صدا ایمن شدند!
پرامپت: از یک مرد در میانه (Man-in-the-Middle) محتاط باشید.(مواظب حملهی MITM باشید)
پرامپت: از یک مرد در میانه (Man-in-the-Middle) محتاط باشید.(مواظب حملهی MITM باشید)
🤯3