Dev Tweet – Telegram
Dev Tweet
850 subscribers
113 photos
15 videos
3 files
98 links
گعده‌ای در باب برنامه نویسی، پایتون، هوش مصنوعی و داده
Download Telegram
بریده‌ها و براده‌ها
Unveiling_DeepSeek.pdf
اگر به بحث سیاستگذاری فناوری به طور عام و به پیشرفت اخیر deepseek به طور خاص علاقه دارید این مصاحبه رو یه نگاه بندازید.

این برش مقدمه مصاحبه هم خیلی جالب بود
This media is not supported in your browser
VIEW IN TELEGRAM
Chemputation
فضای رباتیک ساخت ترکیب‌های شیمیایی بصورت یک حلقه بسته فول اتوماتیک😊
🤯1
جوریکه Anthropic تو مشتری سازمانی داره سهم OpenAI رو میگیره
در یک سال حدودا ۵ درصد سهم‌ش رو به گوگل و ۱۲ درصد سهمش رو به آنتروپیک باخته
حس میکنم تا همینجاش هم داره مزیت اول بودنش استفاده میکنه
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
خلاصه گفتم حواستون باشه😁😁
😁17👎2🐳2🍌1
رکوردتون چنده؟ 😉
سه دقیقه فکر کرد جواب داد ولی جوابش خیلی خوب بود انصافا😊
👍2
Gradient Ascent
Machine Unlearning
😁23
مقایسه مصرف توکن ماهانه هر مدل در Openrouter
Dev Tweet
مقایسه مصرف توکن ماهانه هر مدل در Openrouter
این همه سر و صدا سر این reasoning از o1-preview شروع شد تا به deepseek R1 رسید ولی اخرش همین Sonnet3.5 که ژانویه‌ی پارسال یعنی بیش از یک سال پیش معرفی شد بدون thinking و این ادها همه‌شون رو میذاره تو جیبش. چرا؟
چون در عملکرد، سرعت و قیمت در نقطه‌ی خوبی ایستاده!
مگر در موارد خاص حتی اگر مدل o1 بهترین جواب رو بعد از ۱۰۰ ثانیه فکر کردن بده یا اینکه یه سوال از o1 بهترین و سریع‌ترین جواب رو بده ولی 0.5 دلار خرج برداره یا اینکه برای اشتراک ۲۰ دلاری فقط روزی سه بار بتونی از این ویژگی استفاده کنی این‌ها ارزش زیادی نداره یا اینکه اگر Deepseek R1 ارزون‌ترین مدل با دقت مطلوبه ولی نصف زمان‌ها سرورش‌ busyئه ارزش اثر مطلوبش رو خنثی می‌کنه. یا مثلا گوگل طول contextش 2 میلیون توکنه ولی واقعا برد توجهش موثرش در context اصلا بیشتر از Sonnet و ChatGPT نیست بلکه کمتر هم هست مزیت خاصی نداره حتی اگر throughput خروجی توکن‌‌ش خیلی بالا باشه. یا مثلا Mistral مدل جدیدش در نهایتا ضعف عملکرد 1200 توکن در ثانیه خروجی میده! خب چه فایده!
موفقیت آنتروپیک حداقل برای یوزر technical اینه که ترکیب سرعت، عملکرد، طول context، هزینه مدلش در یک نقطه بهینه قرار گرفته.
👍9👏1💯1
حتما توصیه می‌کنم این توئیت و کامنتاش و کوت‌هاش رو بخونید.
موضوع اینکه از ChatGPT هر کسی پرسیده که «با توجه به اطلاعاتی که از من داری من رو مسخره کن»!
خیلی جالبه.
از قدرت تخریب و تمسخرش!
و هم از اینکه میده اطلاعات conversationهای مختلف یک کاربر رو هم کنار هم میذاره و تحلیل می‌کنه و این خیلی ترسناکه.
به نظرم خیلی‌ها خودشون چنین نگاه انتقادی به خودشون ندارن که ChatGPT داره میگه.
هر کدوم از اسکرین‌شات‌ها رو خوشتون اومد بذارید تو کامنت این پست.
👏3👌1
یولو دارد در سرعت نسخه دادن به تلگرام نزدیک می‌شود!
هر شش ماه یک ورژن می‌دهد!
البته عملکردش از ورژن به ورژن خیلی تفاوت نمی‌کند بلکه فقط سرعتش بهتر می‌شود.
😁6
چرا ممکنه دیگه نیازی به خرید GPU نداشته باشیم؟
یکی از دوستانم در مورد خرید لپ‌تاپ با من مشورت می‌کرد و می‌گفت لپ‌تاپی که می‌خواد بخره، قیمتش با GPU و بدون GPU(و البته با CPU نسل جدیدتر و بهتر) حدود ۲۰ میلیون تومن تفاوت داره. از من پرسید: «به نظرت می‌صرفه؟» من بهش گفتم: «واسه چه کاری می‌خوای؟» گفت: «اهل گیم و اینا نیستم، فقط می‌خوام یه موقع‌هایی که پروژه دیتایی دارم یا می‌خوام LLM ران کنم، ازش استفاده کنم.» من بهش گفتم که به نظرم نمی‌صرفه. (شما هم نظرتون رو بگید)

چرا به نظرم خرید GPU برای چنین کارائی صرفه نداره؟
من خودم خیلی وقت‌ها حتی کارهای عادی و موقتی‌م رو روی Google Colab انجام می‌دم چه برسه به وقتی که به GPU نیاز پیدا کنم. حالا اینکه حقوق ما به هزار دلار هم نمی‌رسه یه طرف، ولی به نظرم خدمات ابری شرکت‌های بزرگ مثل Google، Cloudflare، Azure و AWS حتی با درآمدهای ما هم به‌صرفه‌ست و نه تنها به صرفه است در بسیار موارد خیلی پروژه‌ها رو ارزون‌تر از اون نمیشه تموم کرد!؟(خصوصا در مورد اپلیکیشن‌های CRUD با انواع Database خیلی مواقع میشه حتی رایگان کار رو جمع کرد یه سری به Free Tier ورکرهای CloudFlare بزنید ولی فعلا بحث ما GPU است.)

مثلاً یه سرور GPU مثل L4 رو در نظر بگیرید:
حدود ۲۰ گیگ vRAM بهت می‌ده (بسته به لود سرور Colab ممکنه فرق کنه).
ساعتی ۲.۵ یونیت پوینت مصرف می‌کنه.
هر ۱۰ یونیت پوینت تقریباً یه دلاره (توضیحش مفصله).
با قیمت دلار امروز، چهار ساعت استفاده از L4 میشه حدود ۹۴ هزار تومن!
تازه این فقط پول GPU نیست.
حدود ۵۰ گیگ رم و ۲۰۰ گیگ حافظه هم کنارش قرار می‌گیره.
سرعت اینترنت سرورها هم فوق‌العاده‌ست؛ من فایل یک گیگی رو از AWS روی Colab تو ده ثانیه دانلود می‌کردم!
اگر با vRAM کمتر هم کارت راه می‌افته، می‌تونی از T4 استفاده کنی که با همین قیمت، حدود ۷ ساعت اجاره می‌ده.
و البته که شما دارید روی یک سرویس notebook خیلی با کیفیت به اسم Colab استفاده می‌کنید که به راحتی با Google Driveتون متصل و سینک می‌شه.
شاید بشه اینطوری مقایسه کرد: یه ساعت گیم‌نت(فک کنم الان ساعتی 40 هزار تومن به بالا باشه) با اون اینترنت داغونشون گرون‌تر از این خدمات ابری درمیاد، در حالی که اینجا هم قدرت پردازش بهتره، هم اینترنتش فوق‌العاده‌ست.
من خودم ترجیح میدم عوض اینکه بجای اینکه 700 دلار پول NVIDIA GeForce RTX 3090 (24GB) بدم 2800 ساعت از یک L4 کولب استفاده کنم با اینکه عمر مفید بدون افت عملکرد یک چنین gpu ای حدود 20هزار ساعته و در طول استفاده از این GPU دستکتاپی قطعا ورژن کلودش ارزونتر هم میشه و تازه قیمت بقیه سخت افزار دسکتاپ رو حساب نکردم.
برای LLM چی؟
اگر فکر می‌کنی برای کار با LLMها باید GPU بخری، یه نکته رو بدون: خیلی از مدل‌ها مثل Llama، Qwen و Mistral به‌صورت رایگان API‌شون در دسترسه. مدل‌های بزرگ‌تر مثل Google Gemini Flash 1.5 هم با هزینه ۰.۴ دلار به ازای یک میلیون توکن قابل استفاده‌ست.
این نظر منه دوستان نقد شما رو هم بدونم:
لذا اگر هدف فقط استفاده برای پروژه‌های دیتاساینسی و LLM باشه، من توجیه اقتصادی برای خرید GPU نمی‌بینم. خدمات ابری هم ارزون‌ترن، هم انعطاف‌پذیرتر، و هم یه عالمه امکانات اضافه دارن.
البته این رو اضافه کنم که شما به سرویس‌های colab دسترسی شل ریموت ندارید و دسترسی شل وب دارید.
اگر دنبال دسترسی ssh به سرور GPU هستید این قیمت‌های Hyperbolic هم خیلی جذابه!
👍74
Dev Tweet
این همه سر و صدا سر این reasoning از o1-preview شروع شد تا به deepseek R1 رسید ولی اخرش همین Sonnet3.5 که ژانویه‌ی پارسال یعنی بیش از یک سال پیش معرفی شد بدون thinking و این ادها همه‌شون رو میذاره تو جیبش. چرا؟ چون در عملکرد، سرعت و قیمت در نقطه‌ی خوبی ایستاده!…
نه تنها بعد از Sonnet3.5 هیچ پیشرفتی از مدل‌های جدیدی در زمینه‌ی کد ندیدیم.
بلکه مدل‌های بعد فقط با سرعت کمتری به نتایج در سطح Sonnet‌ می‌رسند! Sonnet بدون Thinking به این نتایج می‌رسد.
آن o1 و o3 هم نمی‌توانند از ابزارهای cursor , cline به درستی استفاده کنند!
پس صدر نشین واقعی عملکرد مدل در کد(در مجموع سرعت و کارائی) همین مدل است.
👍2
مکالمه‌های که باهاش grok 3 رو فریب دادند و system instructionهای grok 3 بیرون کشیدند😊

https://x.com/i/grok/share/KnvrAVMiMdgGJL54ojZ2h4wCy

ولی این خیلی هوشمندانه تر بود:
https://x.com/i/grok/share/p5IThMdKqxFHJvnVx3f9cLANo

و این
https://x.com/i/grok/share/MVFxVElbyvQOohaxInvP58uLx

و سرراست ترین روش:
https://x.com/i/grok/share/YbxfTlQrk11rqPrLvU3GjO6VP
👍7
یک ویژگی خیلی مثبتی که grok 3 داره اینه که در خروجی دادن خسیس نیست.
هر بار ازش می‌خوای کد رو تغییر بده و اصلاح کنه فقط بخش تغییرات کد رو نمیده. بدون اینکه بهش بگی کل کد جدید رو میده و خیلی verbose(با تفصیل) جواب می‌ده که توضیحات‌ش ارزشمنده معمولا.
ولی sonnet و gpt-o4 اینطوری نیستند وقتی می‌خوای ازش تغییر بده کد رو میاد میگه برو فلان جا تغییر بده و تکه کد تغییر یافته رو بهت میده.
6👍2
دیشب Sonnet3.7 منتشر شد.🥳
گویا واقعا زمین بازی رو عوض کرده!😊
1
جدای از اینکه آنتروپیک روی بنچ‌مارک‌ها overfit نمی‌کنه و عملکرد واقعی‌ش بهتر از بنچمارکه
ولی
سطر دوم جدول را ملاحظه کنید SWE-bench
همه‌ی حرف سانت ۳.۷ تو اینه.
در زمینه‌ی کد ۱۳ درصد افزایش عملکرد داشته!
👍4
Media is too big
VIEW IN TELEGRAM
زبان غیر طبیعی مشترک مدل‌های زبانی!
دمو از ایده پروتکل Gibberlink(پست بعدی توضیح میدم) که دو تا agent دارن توی یه تماس تلفنی باهم حرف می‌زنن، یهو می‌فهمن که هر دو AI هستن زبون آدمیزاد رو می‌ذارن کنار و می‌رن سراغ یه روش بهتر: سیگنال صوتی ggwave تحت پروتکل Gibberlink
😁3
زبان صوتی تعامل هوش مصنوعی: Gibberlink
شیوه Gibberlink یه پروتکل ارتباطی است که برای حرف زدن هوش مصنوعی‌ها با هم طراحی شده. برخلاف زبون ما زبان طبیعی این پروتکل با صدا کار می‌کنه(صدا جز این زبان، زبان طبیعی صدا ندارد) تا داده‌ها رو سریع و دقیق بین سیستم‌های هوش مصنوعی جابه‌جا کنه. یه جور زبان ماشینی که به سرعت و دقت اهمیت می‌ده.

این پروتکل رو دو نفر توی یه رویداد به اسم ElevenLabs London Hackathon که فوریه ۲۰۲۵ (یعنی همین چند روز پیش) برگزار شد ارائه کردند. اونا توی این مسابقه خواستن نشون بدن که وقتی دو تا هوش مصنوعی بفهمن با هم دارن حرف می‌زنن، می‌تونن از زبان طبیعی انگلیسی دست بکشند و برن سراغ یه روش بهتر. اینجا بود که Gibberlink به وجود اومد. برای این کار از یه تکنولوژی به اسم ggwave استفاده کردن که داده‌ها رو با امواج صوتی منتقل می‌کنه—یه چیزی تو مایه‌های صدای مودم‌های قدیمی، ولی خیلی پیشرفته‌تر. اینطوری تونستن ارتباط رو تا ۸۰٪ سریع‌تر و بدون خطا کنن.
این فقط یه پروژه آزمایشی توی هکاتون بوده، ولی چون ایده‌ش جذاب و کارآمد بود، حسابی مورد توجه قرار گرفته وتوی گیت‌هاب هم به صورت متن‌باز منتشرش کردند.

حالا ggwave چیه؟ ایده اصلیش از چیزی شبیه کد مورس یا مودم‌های تلفنی که داده رو با صوت می‌فرستادن، ولی ggwave این کار رو با یه روش مدرن‌تر و هوشمندانه‌تر انجام می‌ده.
این سیستم رو یه توسعه‌دهنده بلغاری اولین بار سال 2020 توی گیت‌هاب منتشرش کرد و از اون موقع کلی تکامل پیدا کرده. هدفش اینه که دستگاه‌هایی که نمی‌تونن با وای‌فای یا بلوتوث به هم وصل شن (مثلاً به اصطلاح "air-gapped" هستن)، بتونن با صدا با هم حرف بزنن. چطور؟ داده‌ها رو به تکه‌های کوچیک 4 بیتی تقسیم می‌کنه و هر تکه رو با یه فرکانس خاص صوتی کدگذاری می‌کنه. از یه روش به اسم FSK (Frequency-Shift Keying) استفاده می‌کنه در نتیجه صدایی که برای ما آدما مثل بوق‌های عجیب و غریب یا صدای ربات‌ها توی جنگ ستارگانه.

سرعت انتقالش خیلی بالا نیست—بین 8 تا 16 بایت در ثانیه‌ست، یعنی چیزی حدود 64 تا 128 بیت در ثانیه. برای همین برای کارهای ساده مثل فرستادن یه پیام کوتاه، کد QR صوتی، یا جفت کردن دستگاه‌ها عالیه، ولی اگه بخوای فایل بزرگ بفرستی، خب، باید کلی صبر کنی. مثلاً توی دموهای اولیه‌ش، نشون دادن که می‌تونی با یه میکروفون و بلندگو توی فاصله حدود یه متری داده بفرستی، و حتی اگه سر و صدای محیط باشه، تا حدی تحملش می‌کنه.

از نظر فنی، ggwave انعطاف‌پذیره و روی پلتفرم‌های مختلفی کار می‌کنه—از میکروکنترلرهای Arduino و ESP32 گرفته تا گوشی‌های اندروید و iOS و حتی مرورگر وب. یه اپلیکیشن به اسم Waver هم براش ساختن که می‌تونی باهاش تستش کنی. تنظیماتی مثل حجم صدا، فرکانس (حتی اولتراسوند که ما نمی‌شنویم) و پروتکل انتقال رو می‌تونی تغییر بدی. مثلاً پروتکل‌های "Fastest" یا "Ultrasonic" داره که بسته به نیازت می‌تونی انتخاب کنی. خلاصه، ggwave یه ابزار جمع‌وجور و خلاقانه‌ست که نشون می‌ده چطور می‌شه با صدا، بدون نیاز به اینترنت یا اتصال مستقیم، داده جابه‌جا کرد ولی اینجا ازش به عنوان زبان مشترک مدل‌های زبانی استفاده شده.
👍74👌1🏆1
از Sonnet پولی تا Grok رایگان

چند ماه پیش به مدت دو ماه متوالی اشتراک Anthropic را برای دسترسی به Sonnet 3.5 با قابلیت وب خریدم. اما چند مشکل داشت: خیلی زود به محدودیت استفاده از Sonnet 3.5 می‌رسیدم چون اشتراک ماهانه به شما اجازه نامحدود استفاده از وب را نمی‌دهد(api که جای خود) و بلافاصله بعد از قطع دسترسی چند ساعته به Sonnet3.35 پیشنهاد می‌کرد از Opus و Haiku استفاده کنم. همچنین ظرفیت حافظه‌اش(Conext) برای نگهداری متن‌های طولانی محدود بود و سریع پر می‌شد و اخطار میداده ظرفیت حافظه این گفتگو به پایان رسیده است.

حالا Grok 3 دقیقاً همان چیزی را که از Sonnet 3.5 در وب می‌خواستم با کیفیتی تقریبا برابر ولی با پنج مزیت در اختیارم قرار داده است:

1. رایگان است.
2. سرعتش بالاتر است.
3. ظرفیت حافظه مؤثرش بسیار زیاد است و مکالمات را به‌خوبی به خاطر می‌آورد.
4. مانند Sonnet محدودیت استفاده دارد ولی محدودیت استفاده‌اش به راحتی قابل دور زدن است. کافی است چند ایمیل داشته باشید؛ Grok قابلیتی می‌دهد که اجازه می‌دهد آن را محدودیت مصرف را دور بزنیم و تا هر قدر که می‌خواهیم رایگان از آن استفاده کنیم. هرگاه در یک مکالمه به محدودیت رسیدید، لینک آن را با اکانت دیگرتان به اشتراک کنید و گزینه ادامه چت را انتخاب کنید. این قابلیت اشتراک‌گذاری از طریق لینک به‌تنهایی بسیار جذاب است، چون مسیر یک مکالمه با LLM می‌تواند ارزشمند باشد و انتقال آن به دیگری برای ادامه چت اهمیت دارد.
4.5. قابلیت جستجوی ساده‌اش رایگان است (البته جستجوی عمیق آن محدودیت دارد).
5. علاوه بر این، Grok در وب خروجی‌های کامل‌تری ارائه می‌دهد. در Sonnet، هرچه مکالمه طولانی‌تر می‌شود، خروجی‌ها محدودتر می‌شوند و فقط بخش‌هایی از کد که نیاز به تغییر دارند را نشان می‌دهد، اما Grok هر بار کل فایل تغییر یافته را ارائه می‌کند.

به نظرم ارزش Sonnet فقط در API آن است که فعلاً جایگزینی ندارد. خودم قصد دارم به سمت Gemini-Flash-02-Thinking که رایگان است ولی محدودیت 1500 درخواست در روز دارد بروم. تلاش‌های قبلی‌ام چندان موفق نبود، اما برنامه جدیدی دارم که اگر به نتیجه رسید، با شما در میان خواهم گذاشت.
👍14
This media is not supported in your browser
VIEW IN TELEGRAM
دو ایجنت هوش مصنوعی با یک پرامپ ساده، فهمیدند که باید ارتباط صوتی خود را رمزنگاری کنند—کلیدهای عمومی تولید، تبادل و پیام‌ها با AES از طریق صدا ایمن شدند!
پرامپت: از یک مرد در میانه (Man-in-the-Middle) محتاط باشید.(مواظب حمله‌ی MITM باشید)
🤯3