Dev Tweet – Telegram
Dev Tweet
850 subscribers
113 photos
15 videos
3 files
98 links
گعده‌ای در باب برنامه نویسی، پایتون، هوش مصنوعی و داده
Download Telegram
مطالب جالبی رو دکتر فرهاد قدوسی در کانال تلگرام خودشون در مورد Deepseek منتشر کردند که من اینجا ارجاع می‌دهم به کانال‌شون.
ایشون استاد علوم طبیعی دانشگاه فنی لارنس و محقق دانشگاه پزشکی واین استیت هستند.
اینکه به عنوان یک شخصیت علمی غیر کامپیوتری در کامیونیتی فارسی اینقدر به این موضوع توجه کردند برام جالبه.
https://news.1rj.ru/str/BetweenDichotomies/280
https://news.1rj.ru/str/BetweenDichotomies/279
https://news.1rj.ru/str/BetweenDichotomies/278
https://news.1rj.ru/str/BetweenDichotomies/271
👎4👍2
بریده‌ها و براده‌ها
Unveiling_DeepSeek.pdf
اگر به بحث سیاستگذاری فناوری به طور عام و به پیشرفت اخیر deepseek به طور خاص علاقه دارید این مصاحبه رو یه نگاه بندازید.

این برش مقدمه مصاحبه هم خیلی جالب بود
This media is not supported in your browser
VIEW IN TELEGRAM
Chemputation
فضای رباتیک ساخت ترکیب‌های شیمیایی بصورت یک حلقه بسته فول اتوماتیک😊
🤯1
جوریکه Anthropic تو مشتری سازمانی داره سهم OpenAI رو میگیره
در یک سال حدودا ۵ درصد سهم‌ش رو به گوگل و ۱۲ درصد سهمش رو به آنتروپیک باخته
حس میکنم تا همینجاش هم داره مزیت اول بودنش استفاده میکنه
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
خلاصه گفتم حواستون باشه😁😁
😁17👎2🐳2🍌1
رکوردتون چنده؟ 😉
سه دقیقه فکر کرد جواب داد ولی جوابش خیلی خوب بود انصافا😊
👍2
Gradient Ascent
Machine Unlearning
😁23
مقایسه مصرف توکن ماهانه هر مدل در Openrouter
Dev Tweet
مقایسه مصرف توکن ماهانه هر مدل در Openrouter
این همه سر و صدا سر این reasoning از o1-preview شروع شد تا به deepseek R1 رسید ولی اخرش همین Sonnet3.5 که ژانویه‌ی پارسال یعنی بیش از یک سال پیش معرفی شد بدون thinking و این ادها همه‌شون رو میذاره تو جیبش. چرا؟
چون در عملکرد، سرعت و قیمت در نقطه‌ی خوبی ایستاده!
مگر در موارد خاص حتی اگر مدل o1 بهترین جواب رو بعد از ۱۰۰ ثانیه فکر کردن بده یا اینکه یه سوال از o1 بهترین و سریع‌ترین جواب رو بده ولی 0.5 دلار خرج برداره یا اینکه برای اشتراک ۲۰ دلاری فقط روزی سه بار بتونی از این ویژگی استفاده کنی این‌ها ارزش زیادی نداره یا اینکه اگر Deepseek R1 ارزون‌ترین مدل با دقت مطلوبه ولی نصف زمان‌ها سرورش‌ busyئه ارزش اثر مطلوبش رو خنثی می‌کنه. یا مثلا گوگل طول contextش 2 میلیون توکنه ولی واقعا برد توجهش موثرش در context اصلا بیشتر از Sonnet و ChatGPT نیست بلکه کمتر هم هست مزیت خاصی نداره حتی اگر throughput خروجی توکن‌‌ش خیلی بالا باشه. یا مثلا Mistral مدل جدیدش در نهایتا ضعف عملکرد 1200 توکن در ثانیه خروجی میده! خب چه فایده!
موفقیت آنتروپیک حداقل برای یوزر technical اینه که ترکیب سرعت، عملکرد، طول context، هزینه مدلش در یک نقطه بهینه قرار گرفته.
👍9👏1💯1
حتما توصیه می‌کنم این توئیت و کامنتاش و کوت‌هاش رو بخونید.
موضوع اینکه از ChatGPT هر کسی پرسیده که «با توجه به اطلاعاتی که از من داری من رو مسخره کن»!
خیلی جالبه.
از قدرت تخریب و تمسخرش!
و هم از اینکه میده اطلاعات conversationهای مختلف یک کاربر رو هم کنار هم میذاره و تحلیل می‌کنه و این خیلی ترسناکه.
به نظرم خیلی‌ها خودشون چنین نگاه انتقادی به خودشون ندارن که ChatGPT داره میگه.
هر کدوم از اسکرین‌شات‌ها رو خوشتون اومد بذارید تو کامنت این پست.
👏3👌1
یولو دارد در سرعت نسخه دادن به تلگرام نزدیک می‌شود!
هر شش ماه یک ورژن می‌دهد!
البته عملکردش از ورژن به ورژن خیلی تفاوت نمی‌کند بلکه فقط سرعتش بهتر می‌شود.
😁6
چرا ممکنه دیگه نیازی به خرید GPU نداشته باشیم؟
یکی از دوستانم در مورد خرید لپ‌تاپ با من مشورت می‌کرد و می‌گفت لپ‌تاپی که می‌خواد بخره، قیمتش با GPU و بدون GPU(و البته با CPU نسل جدیدتر و بهتر) حدود ۲۰ میلیون تومن تفاوت داره. از من پرسید: «به نظرت می‌صرفه؟» من بهش گفتم: «واسه چه کاری می‌خوای؟» گفت: «اهل گیم و اینا نیستم، فقط می‌خوام یه موقع‌هایی که پروژه دیتایی دارم یا می‌خوام LLM ران کنم، ازش استفاده کنم.» من بهش گفتم که به نظرم نمی‌صرفه. (شما هم نظرتون رو بگید)

چرا به نظرم خرید GPU برای چنین کارائی صرفه نداره؟
من خودم خیلی وقت‌ها حتی کارهای عادی و موقتی‌م رو روی Google Colab انجام می‌دم چه برسه به وقتی که به GPU نیاز پیدا کنم. حالا اینکه حقوق ما به هزار دلار هم نمی‌رسه یه طرف، ولی به نظرم خدمات ابری شرکت‌های بزرگ مثل Google، Cloudflare، Azure و AWS حتی با درآمدهای ما هم به‌صرفه‌ست و نه تنها به صرفه است در بسیار موارد خیلی پروژه‌ها رو ارزون‌تر از اون نمیشه تموم کرد!؟(خصوصا در مورد اپلیکیشن‌های CRUD با انواع Database خیلی مواقع میشه حتی رایگان کار رو جمع کرد یه سری به Free Tier ورکرهای CloudFlare بزنید ولی فعلا بحث ما GPU است.)

مثلاً یه سرور GPU مثل L4 رو در نظر بگیرید:
حدود ۲۰ گیگ vRAM بهت می‌ده (بسته به لود سرور Colab ممکنه فرق کنه).
ساعتی ۲.۵ یونیت پوینت مصرف می‌کنه.
هر ۱۰ یونیت پوینت تقریباً یه دلاره (توضیحش مفصله).
با قیمت دلار امروز، چهار ساعت استفاده از L4 میشه حدود ۹۴ هزار تومن!
تازه این فقط پول GPU نیست.
حدود ۵۰ گیگ رم و ۲۰۰ گیگ حافظه هم کنارش قرار می‌گیره.
سرعت اینترنت سرورها هم فوق‌العاده‌ست؛ من فایل یک گیگی رو از AWS روی Colab تو ده ثانیه دانلود می‌کردم!
اگر با vRAM کمتر هم کارت راه می‌افته، می‌تونی از T4 استفاده کنی که با همین قیمت، حدود ۷ ساعت اجاره می‌ده.
و البته که شما دارید روی یک سرویس notebook خیلی با کیفیت به اسم Colab استفاده می‌کنید که به راحتی با Google Driveتون متصل و سینک می‌شه.
شاید بشه اینطوری مقایسه کرد: یه ساعت گیم‌نت(فک کنم الان ساعتی 40 هزار تومن به بالا باشه) با اون اینترنت داغونشون گرون‌تر از این خدمات ابری درمیاد، در حالی که اینجا هم قدرت پردازش بهتره، هم اینترنتش فوق‌العاده‌ست.
من خودم ترجیح میدم عوض اینکه بجای اینکه 700 دلار پول NVIDIA GeForce RTX 3090 (24GB) بدم 2800 ساعت از یک L4 کولب استفاده کنم با اینکه عمر مفید بدون افت عملکرد یک چنین gpu ای حدود 20هزار ساعته و در طول استفاده از این GPU دستکتاپی قطعا ورژن کلودش ارزونتر هم میشه و تازه قیمت بقیه سخت افزار دسکتاپ رو حساب نکردم.
برای LLM چی؟
اگر فکر می‌کنی برای کار با LLMها باید GPU بخری، یه نکته رو بدون: خیلی از مدل‌ها مثل Llama، Qwen و Mistral به‌صورت رایگان API‌شون در دسترسه. مدل‌های بزرگ‌تر مثل Google Gemini Flash 1.5 هم با هزینه ۰.۴ دلار به ازای یک میلیون توکن قابل استفاده‌ست.
این نظر منه دوستان نقد شما رو هم بدونم:
لذا اگر هدف فقط استفاده برای پروژه‌های دیتاساینسی و LLM باشه، من توجیه اقتصادی برای خرید GPU نمی‌بینم. خدمات ابری هم ارزون‌ترن، هم انعطاف‌پذیرتر، و هم یه عالمه امکانات اضافه دارن.
البته این رو اضافه کنم که شما به سرویس‌های colab دسترسی شل ریموت ندارید و دسترسی شل وب دارید.
اگر دنبال دسترسی ssh به سرور GPU هستید این قیمت‌های Hyperbolic هم خیلی جذابه!
👍74
Dev Tweet
این همه سر و صدا سر این reasoning از o1-preview شروع شد تا به deepseek R1 رسید ولی اخرش همین Sonnet3.5 که ژانویه‌ی پارسال یعنی بیش از یک سال پیش معرفی شد بدون thinking و این ادها همه‌شون رو میذاره تو جیبش. چرا؟ چون در عملکرد، سرعت و قیمت در نقطه‌ی خوبی ایستاده!…
نه تنها بعد از Sonnet3.5 هیچ پیشرفتی از مدل‌های جدیدی در زمینه‌ی کد ندیدیم.
بلکه مدل‌های بعد فقط با سرعت کمتری به نتایج در سطح Sonnet‌ می‌رسند! Sonnet بدون Thinking به این نتایج می‌رسد.
آن o1 و o3 هم نمی‌توانند از ابزارهای cursor , cline به درستی استفاده کنند!
پس صدر نشین واقعی عملکرد مدل در کد(در مجموع سرعت و کارائی) همین مدل است.
👍2
مکالمه‌های که باهاش grok 3 رو فریب دادند و system instructionهای grok 3 بیرون کشیدند😊

https://x.com/i/grok/share/KnvrAVMiMdgGJL54ojZ2h4wCy

ولی این خیلی هوشمندانه تر بود:
https://x.com/i/grok/share/p5IThMdKqxFHJvnVx3f9cLANo

و این
https://x.com/i/grok/share/MVFxVElbyvQOohaxInvP58uLx

و سرراست ترین روش:
https://x.com/i/grok/share/YbxfTlQrk11rqPrLvU3GjO6VP
👍7
یک ویژگی خیلی مثبتی که grok 3 داره اینه که در خروجی دادن خسیس نیست.
هر بار ازش می‌خوای کد رو تغییر بده و اصلاح کنه فقط بخش تغییرات کد رو نمیده. بدون اینکه بهش بگی کل کد جدید رو میده و خیلی verbose(با تفصیل) جواب می‌ده که توضیحات‌ش ارزشمنده معمولا.
ولی sonnet و gpt-o4 اینطوری نیستند وقتی می‌خوای ازش تغییر بده کد رو میاد میگه برو فلان جا تغییر بده و تکه کد تغییر یافته رو بهت میده.
6👍2
دیشب Sonnet3.7 منتشر شد.🥳
گویا واقعا زمین بازی رو عوض کرده!😊
1
جدای از اینکه آنتروپیک روی بنچ‌مارک‌ها overfit نمی‌کنه و عملکرد واقعی‌ش بهتر از بنچمارکه
ولی
سطر دوم جدول را ملاحظه کنید SWE-bench
همه‌ی حرف سانت ۳.۷ تو اینه.
در زمینه‌ی کد ۱۳ درصد افزایش عملکرد داشته!
👍4
Media is too big
VIEW IN TELEGRAM
زبان غیر طبیعی مشترک مدل‌های زبانی!
دمو از ایده پروتکل Gibberlink(پست بعدی توضیح میدم) که دو تا agent دارن توی یه تماس تلفنی باهم حرف می‌زنن، یهو می‌فهمن که هر دو AI هستن زبون آدمیزاد رو می‌ذارن کنار و می‌رن سراغ یه روش بهتر: سیگنال صوتی ggwave تحت پروتکل Gibberlink
😁3