نمیدانم – Telegram
نمیدانم
اشتباه شد ویرگول منظورم بود
بعد این ویراستی چقد حریصانه قیمت گذاری شده اصن خیلی شاهکاره
خییییلی جذاب
👍1
نمیدانم
خییییلی جذاب
واقعا گزینه های بهینه سازی gcc خیلی زیادن
شاید جذاب باشه بعدا هم یه نگاهی بهشون بندازم
https://www.youtube.com/watch?v=B6CUwcHJpQ0
این داداشمون هم که داره zig-clr رو توسعه میده. zig-clr یه ابزار تحلیل ایستا (static-analysis) برای زبان zig هست که هدفشه چیزایی مثل استفاده از متغیرای تعریف نشده، امنیت حافظه و مسیرهای غیر قابل دسترس رو تحلیل کنه و اشتباهای برنامه نویس رو بگیره یا حتی میتونه به عنوان زیرساخت اثبات درستی کدای به زبون زیگ استفاده بشه.
https://www.youtube.com/watch?v=G0ptIEX0y5c
۱ ساعت مطلب
کلا ۱ قابلیت جدید جالب (بقیش ai slop)
اونم اینطوریه که بهتون قابلیت دیباگ مشتی برای کامپایل های Release میده
اینطوریه که میاد جاهایی که وقفه (Breakpoint) میذاری رو میاد از حالت بهینه تبدیل میکنه به حالت غیر بهینه و حالا وقتی به اون وقفه میخوری همه متغیرای محلی اون تابع خاص رو خواهی داشت
1
یلداتون مبارک :)))
25🤣1
حالا که خیلیا خرید Groq توسط Nvidia که یک استارتاپ سخت افزاری هوش مصنوعی هست رو پوشش دادن : https://www.cnbc.com/2025/12/24/nvidia-buying-ai-chip-startup-groq-for-about-20-billion-biggest-deal.html
بد نیست یه نگاهی هم به بحثای فناوری این قضیه بندازیم و یه تحلیلی روش داشته باشیم.

به نظرم خوبه اول شروع کنیم با اینکه این استارتاپ دقیقا چیکار میکرد و چه ارزشی خلق کرده بود:
این استارتاپ در سال ۲۰۲۰ با هدف پیاده سازی الگوریتم های تنسوری و هوش مصنوعی توی خود لایه سخت افزار شکل گرفت و ایده اساسی پیاده سازیش اینه که عملا اومده یک خط لوله خیلی عظیم به صورت متناوب متشکل از حافظه و واحدای پردازش برداری و ماتریسی ساخته. که بعدا با توجه به منفجر شدن بازار LLM ها و یه مقدار معماری خودشو به این طرف سوق داده که بتونه الگوریتم attention رو تقریبا به صورت بدون مرز پیاده بکنه. چیزی که من میبینم خیلی خیلی شبیه چیزیه که توی تحقیقات بهش In-Memory-Processing گفته میشه.

درضمن این معماری به سلبی چیزی که توی رسانه معمولا گفته میشه نیست و تقریبا هر الگوریتم یادگیری عمیقی رو میشه روش اجرا کرد و نه فقط ترنسفورمر.
البته خب کلا یک پارادایم متفاوتیه از برنامه نویسی و شما نمیتونید هر برنامه روزمره که دارید رو روی این چیپ اجرا کنید. طبق چیزی که خوندم و درکی که دارم اینه که تمام این ماجرا و سخت افزار رو تحت یک رابط برنامه نویسی ۱ رشته ای با یک زبان خاص قابل کنترله و عملا توی این زبان شما دارید این خط لوله عظیم رو کنترل میکنید که توی هر مرحله چیکار کنه.

https://web.archive.org/web/20250321025711/https://groq.com/wp-content/uploads/2020/06/ISCA-TSP.pdf
این مقاله ۲۰۲۰ همین معماریه که در اون زمان بهش TSP میگفتن و بعدا برند خودشونو به LPU تغییر دادن که با هایپ بازار مطابقت بیشتری داشته باشه.
توصیه میکنم یه نگاهی بهش بندازید.
(اینکه مجبور شدم از wayback-machine استفاده کنم هم جالبه :)) )

و حالا بریم برسیم به اینکه انویدیا با این شرکت چه کاری میتونه داشته باشه:
یه گزینه اینه که بذاره با همین روند که گراک داره میره جلو بره جلو و خیلیم کاری باش نداشته باشه که گزینه منطقی ای نیست.
یه گزینه دیگه اینه که انویدیا شاید میخواد که معماری هسته های تنسوری خودشو ارتقا بده و به ISA این بنده خدا مجهز بکنه و در نهایت این رو تحت یک رابط زیر مجموعه کودا به ملت ارائه بده که بتونن تا یه حدی واحدای تنسوری خودشونو تنظیم نیازشون بکنن. یه نشانه هایی هم از این منظور در cuda-tile دیده میشه از این نظر که احتمالا این ISA با تایل ها بتونه خیلی بهتر کار بکنه
و یه گزینه سومی هم به نظرم میاد که انویدیا میخواد یه واحد جدید به gpu های خودش اضافه بکنه و اونم attention-core هست. به شخصه احتمال این رو بعد از اینکه این مقاله هه رو یه نگاه انداختم پایین میبینم ولی ممکنه با توجه به اینکه توی چندسال اخیر تلاش کرده هرچه بیشتر transformer رو به خورد بازیکنای بازی ها تحت عنوان بستر های up-scale یا frame-gen و حتی ray-tracing بده و با استفاده از فریم های خیالی تجربه بازی رو بهتر بکنه. همینطور مشتری های مراکز داده اون هم از این اتفاق به شدت خوشحال میشن چون یه بخش خوبی از پردازش ابری روی gpu های Nvidia داره حول همین مدل های هوش مصنوعی میچرخه.