Forwarded from کانال اطلاعرسانی توزیع پارچ
پارچ کازمیک عرضه شد!
با تشکر از سروش عزیز، پارچ کازمیک مجدداً به عنوان یکی از رلیزهای چرخه پارچ در دسترس است.
شما میتونید این نسخه رو از مخزن پارچ دریافت کنید و مشکلاتش رو داخل فروم پارچ اعلام کنید.
دریافت پارچ کازمیک
فروم پارچ
با تشکر از نوبَرکلاد☁️
@ParchLinux
با تشکر از سروش عزیز، پارچ کازمیک مجدداً به عنوان یکی از رلیزهای چرخه پارچ در دسترس است.
شما میتونید این نسخه رو از مخزن پارچ دریافت کنید و مشکلاتش رو داخل فروم پارچ اعلام کنید.
دریافت پارچ کازمیک
فروم پارچ
توجه! میزکار کازمیک هم اکنون در بتای پنجم خودش است، اگر به مشکلات خاصی برخورد کردید که مربوط به سازوکار میزکار بود در گیتهاب کازمیک به صورت ایشو مطرح کنید.
با تشکر از نوبَرکلاد☁️
@ParchLinux
❤3
در تهلاگ ۲۸۰، آیدین طباطبایی دربارهی این صحبت کرد که چطور اوپنسورس ستون اصلی توسعهی سرویسهای ابری مدرن است.
او با اشاره به تجربهی کار با OpenStack توضیح داد که پروژههای متنباز چطور امکان ساخت زیرساختهای پایدار، قابلاعتماد و مقیاسپذیر را فراهم میکنند؛ و چرا استانداردهای باز، همکاری و سرعت توسعه را در اکوسیستم ابری بالاتر میبرند.
در نوبرکلاد هم بخش مهمی از معماری ما بر پایهی همین فلسفه بنا شده؛
اعتماد به فناوریهای باز، جامعهی فعال و مدلی که به تیمها اجازه میدهد سریعتر بسازند و راحتتر توسعه دهند.
جزئیات بیشتر را در لینکدین ببینید:
[لینک]
او با اشاره به تجربهی کار با OpenStack توضیح داد که پروژههای متنباز چطور امکان ساخت زیرساختهای پایدار، قابلاعتماد و مقیاسپذیر را فراهم میکنند؛ و چرا استانداردهای باز، همکاری و سرعت توسعه را در اکوسیستم ابری بالاتر میبرند.
در نوبرکلاد هم بخش مهمی از معماری ما بر پایهی همین فلسفه بنا شده؛
اعتماد به فناوریهای باز، جامعهی فعال و مدلی که به تیمها اجازه میدهد سریعتر بسازند و راحتتر توسعه دهند.
جزئیات بیشتر را در لینکدین ببینید:
[لینک]
Linkedin
#نوبر_کلاد #تهلاگ #تهران_لاگ #زیرساخت_ابری #متن_باز | NobarCloud | نوبرکلاد | 10 comments
آیدین طباطبایی در تهلاگ ۲۸۰؛ روایتی روشن از نقش متنباز در زیرساخت ابری
در رویداد تهلاگ ۲۸۰ که در ۷ آذر برگزار شد، جامعه فنی مثل همیشه دور هم جمع شده بود؛ فضایی پر از گفتوگوهای باز، تجربههای واقعی و نگاههای تازه به دنیای زیرساخت ابری. ✨
میان ارائهها،…
در رویداد تهلاگ ۲۸۰ که در ۷ آذر برگزار شد، جامعه فنی مثل همیشه دور هم جمع شده بود؛ فضایی پر از گفتوگوهای باز، تجربههای واقعی و نگاههای تازه به دنیای زیرساخت ابری. ✨
میان ارائهها،…
❤4👍2
گزارش Nobar Server Throwing Championship در #تهلاگ۲۸۰
ما در نوبر کلاد همیشه به دنبال نوآوری در فناوری هستیم. در #تهلاگ۲۸۰ برای اولینبار در ایران مسابقهای به نام Nobar Server Throwing Championship برگزار کردیم. الهام گرفته از مسابقات پرتاب سرور CloudFest، این مسابقه فرصتی برای جامعه فناوری بود تا مهارتهای خود را به چالش بکشند.
این رویداد در دانشگاه امیرکبیر و در کنار جامعه #تهلاگ برگزار شد و تأکید ویژهای بر فرهنگ همکاری، نوآوری و مقیاسپذیری پایدار داشت. ما در Nobar معتقدیم برای موفقیت در دنیای ابری، تنها ابزار کافی نیست؛ ذهنیت و همکاری از ارکان پیشرفت هستند.
استقبال گسترده و مشارکت فعالانه شرکتکنندگان منجر به ثبت رکوردها و معرفی برندگان شد. این تجربه یادآوری کرد که نوآوری مستمر و تغییر فرهنگ، کلید دستیابی به موفقیت و مقیاسپذیری پایدار است.
ما در Nobar همواره در تلاشیم تا با ارتقای استانداردهای زیرساخت ابری، به کسبوکارها کمک کنیم تا بهترین راهکارها را در توسعه زیرساختهای خود داشته باشند.
🆔 Tehlug
🆔 Amirkabir
ما در نوبر کلاد همیشه به دنبال نوآوری در فناوری هستیم. در #تهلاگ۲۸۰ برای اولینبار در ایران مسابقهای به نام Nobar Server Throwing Championship برگزار کردیم. الهام گرفته از مسابقات پرتاب سرور CloudFest، این مسابقه فرصتی برای جامعه فناوری بود تا مهارتهای خود را به چالش بکشند.
این رویداد در دانشگاه امیرکبیر و در کنار جامعه #تهلاگ برگزار شد و تأکید ویژهای بر فرهنگ همکاری، نوآوری و مقیاسپذیری پایدار داشت. ما در Nobar معتقدیم برای موفقیت در دنیای ابری، تنها ابزار کافی نیست؛ ذهنیت و همکاری از ارکان پیشرفت هستند.
استقبال گسترده و مشارکت فعالانه شرکتکنندگان منجر به ثبت رکوردها و معرفی برندگان شد. این تجربه یادآوری کرد که نوآوری مستمر و تغییر فرهنگ، کلید دستیابی به موفقیت و مقیاسپذیری پایدار است.
ما در Nobar همواره در تلاشیم تا با ارتقای استانداردهای زیرساخت ابری، به کسبوکارها کمک کنیم تا بهترین راهکارها را در توسعه زیرساختهای خود داشته باشند.
🆔 Tehlug
🆔 Amirkabir
❤4🔥2👏1
پایداری سرویسها در پیکترافیک با لود بالانسینگ نوبر
📈 در بازههای پرترافیک مثل بلکفرایدی، فشار ناگهانی درخواستها میتواند باعث کندی یا از دسترس خارج شدن سرویسها شود؛ مشکلی که بسیاری از پلتفرمها در این زمان تجربه میکنند.
🎛 لود بالانسینگ با توزیع بار میان چند سرور، از ایجاد فشار بیشازحد روی سرور جلوگیری کرده و مسیر درخواستها را بهصورت هوشمند مدیریت میکند. این یعنی سرویس شما حتی زیر بار سنگین نیز پایدار میماند.
🌐 با تحلیل لحظهای ترافیک، بار میان سرورها توزیع میشود تا هیچ بخشی از زیرساخت تحت فشار بیش از اندازه قرار نگیرد.
⚙️ در روزهایی که ترافیک چند برابر میشود، لود بالانسینگ همان عاملی است که کمک میکند سرویس پایدار بماند و دچار اختلال نشود.
🔗 برای مطالعه نسخه کامل این مطلب، به لینک زیر مراجعه کنید:
Link
☁️@NobarCloud
📈 در بازههای پرترافیک مثل بلکفرایدی، فشار ناگهانی درخواستها میتواند باعث کندی یا از دسترس خارج شدن سرویسها شود؛ مشکلی که بسیاری از پلتفرمها در این زمان تجربه میکنند.
🎛 لود بالانسینگ با توزیع بار میان چند سرور، از ایجاد فشار بیشازحد روی سرور جلوگیری کرده و مسیر درخواستها را بهصورت هوشمند مدیریت میکند. این یعنی سرویس شما حتی زیر بار سنگین نیز پایدار میماند.
🌐 با تحلیل لحظهای ترافیک، بار میان سرورها توزیع میشود تا هیچ بخشی از زیرساخت تحت فشار بیش از اندازه قرار نگیرد.
⚙️ در روزهایی که ترافیک چند برابر میشود، لود بالانسینگ همان عاملی است که کمک میکند سرویس پایدار بماند و دچار اختلال نشود.
🔗 برای مطالعه نسخه کامل این مطلب، به لینک زیر مراجعه کنید:
Link
☁️@NobarCloud
Linkedin
#نوبرکلاد #لودبالانسر #بلک_فرایدی #یلدا | NobarCloud | نوبرکلاد
در پیکتایمها، سرویسها معمولاً با مشکلات زیادی مواجه میشن. این مشکلات بیشتر از همه به خاطر تجمع ترافیک و بهوجود اومدن محدودیتهاست. وقتی حجم ترافیک زیاد میشه، بسیاری از پلتفرمها به دلیل ناتوانی در مدیریت این حجم از دادهها و درخواستها، دچار افت کیفیت…
❤5
💸یکی از مشکلات بزرگ کسبوکارها، هزینههای ثابت و پیشپرداختیه که برای منابع بلااستفاده پرداخت میکنند. این مسئله برای استارتاپها و کسبوکارهای در حال رشد که نیاز به انعطافپذیری دارند، خیلی دردسرسازه.
مدل «Pay as you go» این مشکل رو حل میکنه! شما فقط برای منابعی که واقعاً استفاده میکنید هزینه میدید و میتونید منابع رو طبق نیاز خودتون تنظیم کنید.
این مدل پرداخت برای هر کسب و کاری بهینه و منطقی تر هستش!
جزئیات بیشتر در لینکدین
مدل «Pay as you go» این مشکل رو حل میکنه! شما فقط برای منابعی که واقعاً استفاده میکنید هزینه میدید و میتونید منابع رو طبق نیاز خودتون تنظیم کنید.
این مدل پرداخت برای هر کسب و کاری بهینه و منطقی تر هستش!
جزئیات بیشتر در لینکدین
❤5
زمانی که ورودی کاربرها چند برابر میشه و سرویس رو حسابی تحت فشار میذاره اگه زیرساخت آماده نباشه، کندی یا حتی قطعی سرویس اصلاً دور از انتظار نیست.
اینجاست که زیرساخت ابری ارزش خودش رو نشون میده.
ما توی نوبر با محدودیتهای سختافزاری روبهرو نیستیم؛ منابع بر اساس ترافیک لحظهای بهصورت خودکار بیشتر میشن و اپلیکیشنها میتونن بدون توقف بار بیشتری رو مدیریت کنن.
جزئیات بیشتر در لینکدین
اینجاست که زیرساخت ابری ارزش خودش رو نشون میده.
ما توی نوبر با محدودیتهای سختافزاری روبهرو نیستیم؛ منابع بر اساس ترافیک لحظهای بهصورت خودکار بیشتر میشن و اپلیکیشنها میتونن بدون توقف بار بیشتری رو مدیریت کنن.
جزئیات بیشتر در لینکدین
Linkedin
#بلک_فرایدی #نوبرکلاد | NobarCloud | نوبرکلاد
بلکفرایدی بزرگترین تست مقیاسپذیری برای هر سرویس آنلاینه.
توی همچین کمپینی، ورودی کاربرها چند برابر میشه و سرویس رو حسابی تحت فشار میذاره و اگه زیرساخت آماده نباشه، کندی یا حتی قطعی سرویس اصلاً دور از انتظار نیست.
اینجاست که زیرساخت ابری ارزش خودش رو…
توی همچین کمپینی، ورودی کاربرها چند برابر میشه و سرویس رو حسابی تحت فشار میذاره و اگه زیرساخت آماده نباشه، کندی یا حتی قطعی سرویس اصلاً دور از انتظار نیست.
اینجاست که زیرساخت ابری ارزش خودش رو…
❤2
در IaaS، منابع بهصورت هوشمند با ترافیک هماهنگ میشوند؛ فشار که زیاد شود ظرفیت بالا میرود و بعد از پیک دوباره همهچیز به حالت بهینه برمیگردد. سرویس بدون افت کیفیت ادامه پیدا میکند و شما هم فقط هزینه مصرف واقعی را میپردازید.
همچنین زیرساخت روی چند نود اجرا میشود و لودبالنسر ترافیک را بین آنها پخش میکند. اگر یکی از نودها به مشکل بخورد، درخواستها بلافاصله به نودهای سالم منتقل میشوند و تجربه کاربر بدون اختلال ادامه پیدا میکند.
جزئیات بیشتر در لینکدین
همچنین زیرساخت روی چند نود اجرا میشود و لودبالنسر ترافیک را بین آنها پخش میکند. اگر یکی از نودها به مشکل بخورد، درخواستها بلافاصله به نودهای سالم منتقل میشوند و تجربه کاربر بدون اختلال ادامه پیدا میکند.
جزئیات بیشتر در لینکدین
Linkedin
#iaas #nobarcloud #نوبرکلاد #زیرساخت_ابری | NobarCloud | نوبرکلاد
زمانی که ترافیک به صورت ناگهانی بالا میرود، سرویس وارد حساسترین لحظههای خودش میشود. در چنین موقعیتی، زیرساخت باید مطمئن باشد و بدون مکث واکنش نشان بدهد. اینجاست که IaaS نقش اصلی را برعهده میگیرد.
در IaaS، منابع بهصورت هوشمند با ترافیک هماهنگ میشوند؛…
در IaaS، منابع بهصورت هوشمند با ترافیک هماهنگ میشوند؛…
❤2
تو IaaS، زیرساخت فقط یه سرور روشن نیست؛ سیستم طوری طراحی میشه که با رفتار ترافیک تطبیق پیدا کنه. وقتی تعداد درخواستها ناگهان ۳ برابر میشه، نودهای جدید بالا میان، CPU و RAM بیشتری تخصیص داده میشه و سرویس بدون افت کیفیت ادامه میده. وقتی پیک تموم شد، منابع آزاد میشن و فقط هزینه مصرف واقعی پرداخت میشه.
همین منطق تو اجرای AI هم مهمه. پروژه yzma کمک میکنه مدلهای هوش مصنوعی طوری اجرا شن که شبیه یه سرویس ابری واقعی رفتار کنن، نه یه اسکریپت سنگین روی یه ماشین تنها.
مثلاً مدل روی ۳ نود اجرا شده. اگر یکی به هر دلیلی down بشه، لودبالنسر سریع اون نود رو از چرخه خارج میکنه و ترافیک میره سمت نودهای سالم؛ کاربر نه ارور میبینه، نه کندی حس میکنه.
با yzma:
۱. وابستگی مستقیم به SaaS خارجی نداری
۲. میتونی روی VM، Bare Metal یا کلاستر ابری خودت deploy کنی
۳. رفتار سیستم قابل پیشبینی و مقیاسپذیر میشه.
اگه تا دیروز IaaS رو برای وبسرورها و دیتابیسها میشناختیم، امروز با ابزارهایی مثل yzma همون الگو برای مدلهای هوش مصنوعی تکرار میشه: مقیاسپذیر، resilient و تحت کنترل خودمون.
@NobarCloud ☁️
همین منطق تو اجرای AI هم مهمه. پروژه yzma کمک میکنه مدلهای هوش مصنوعی طوری اجرا شن که شبیه یه سرویس ابری واقعی رفتار کنن، نه یه اسکریپت سنگین روی یه ماشین تنها.
مثلاً مدل روی ۳ نود اجرا شده. اگر یکی به هر دلیلی down بشه، لودبالنسر سریع اون نود رو از چرخه خارج میکنه و ترافیک میره سمت نودهای سالم؛ کاربر نه ارور میبینه، نه کندی حس میکنه.
با yzma:
۱. وابستگی مستقیم به SaaS خارجی نداری
۲. میتونی روی VM، Bare Metal یا کلاستر ابری خودت deploy کنی
۳. رفتار سیستم قابل پیشبینی و مقیاسپذیر میشه.
اگه تا دیروز IaaS رو برای وبسرورها و دیتابیسها میشناختیم، امروز با ابزارهایی مثل yzma همون الگو برای مدلهای هوش مصنوعی تکرار میشه: مقیاسپذیر، resilient و تحت کنترل خودمون.
@NobarCloud ☁️
❤4👏3
جریان حمله دستکاری توکن GitHub (PAT)
امروز حملهها فقط از «کلاد» شروع نمیشن، خیلی وقتها از گیتهاب شروع میشن و آرومآروم میرسن به کنترلپلین فضای ابری.
سناریو چی بوده؟
اول مهاجم به یه Personal Access Token (PAT) دست پیدا میکنه؛ مثلاً از طریق فیشینگ، ریپازیتوریهای عمومی یا توکنهایی که بد اسکوپ شدن میتونه ریپازیتوریها رو بگرده، اسم secretها رو پیدا کنه، بفهمه CI/CD چطوری کار میکنه
حالا اگه دسترسی نوشتن هم داشته باشه، قضیه جدیتر میشه.
مهاجم میتونه Github Action رو تغییر بده یا workflow جدید بسازه و کد دلخواه رو اجرا کنه.
اینجاست که خیلی از تیمها، کلیدهای AWS / Azure / GCP رو داخل GitHub Secrets نگه میدارن. گیتهاب اکشن اجرا میشه، secretها داخل محیط runtime در دسترسن و مهاجم میتونه اونها رو از طریق لاگ یا خروجیها استخراج کنه.
مهاجم با همون کلیدها وارد Cloud Control Plane میشه:
۱. کاربر جدید میسازه
۲. دسترسیها رو بالا میبره
۳. منابع ابری رو کنترل میکنه
نکته اینه که خیلی از این کارها لاگ واضح ندارن یا بین تیم Dev و Cloud گم میشه و دیر متوجه بشی که حمله از کجا شروع شده.
منبع
@NobarCloud ☁️
امروز حملهها فقط از «کلاد» شروع نمیشن، خیلی وقتها از گیتهاب شروع میشن و آرومآروم میرسن به کنترلپلین فضای ابری.
سناریو چی بوده؟
اول مهاجم به یه Personal Access Token (PAT) دست پیدا میکنه؛ مثلاً از طریق فیشینگ، ریپازیتوریهای عمومی یا توکنهایی که بد اسکوپ شدن میتونه ریپازیتوریها رو بگرده، اسم secretها رو پیدا کنه، بفهمه CI/CD چطوری کار میکنه
حالا اگه دسترسی نوشتن هم داشته باشه، قضیه جدیتر میشه.
مهاجم میتونه Github Action رو تغییر بده یا workflow جدید بسازه و کد دلخواه رو اجرا کنه.
اینجاست که خیلی از تیمها، کلیدهای AWS / Azure / GCP رو داخل GitHub Secrets نگه میدارن. گیتهاب اکشن اجرا میشه، secretها داخل محیط runtime در دسترسن و مهاجم میتونه اونها رو از طریق لاگ یا خروجیها استخراج کنه.
مهاجم با همون کلیدها وارد Cloud Control Plane میشه:
۱. کاربر جدید میسازه
۲. دسترسیها رو بالا میبره
۳. منابع ابری رو کنترل میکنه
نکته اینه که خیلی از این کارها لاگ واضح ندارن یا بین تیم Dev و Cloud گم میشه و دیر متوجه بشی که حمله از کجا شروع شده.
منبع
@NobarCloud ☁️
❤2🔥1
وقتی Docker و SSL دستبهگریبان میشن
توی دنیای واقعیِ سرورها و میکروسرویسها، ارتباط امن با HTTPS و TLS حرف اول رو میزنه. تو یکی از پروژهها، تیم Luca Baggi با یه خطای عجیب توی محیط Production روبهرو شد:
برنامه نمیتونست با یه سرویس خارجی از طریق HTTPS و mTLS ارتباط برقرار کنه و خطای TLS Handshake Failure میداد. یعنی ارتباط امن از همون اول شکست میخورد.
مشکل چی بود؟
وقتی تیم فنی توی محیط لوکال تست گرفت، با دستور openssl خیلی راحت تونست به سرور وصل بشه.
این یعنی:
کلاینت سالم بود و گواهیها درست بودن اما به محض اینکه برنامه داخل Docker اجرا میشد اون هم با Distroless ایمیج، اتصال امن کلاً fail میشد.
راهحل؟
در عین سادگی، خیلی مهم بود:
۱. اضافه کردن Root CA موردنیاز به لیست ca-certificates
۲. ساختن یه Docker ایمیج جدید تا گواهی بهعنوان گواهی قابل اعتماد شناخته بشه
بهطور کلی:
گواهیها از ایمیج Distroless اصلی برداشته شدن
داخل یه Debian Slim ایمیج قرار گرفتن
و اونجا با openssl تست گرفتن تا مطمئن بشن همهچیز درسته
گاهی مشکل TLS اصلاً از خود TLS نیست، از یه Root CA جاافتاده توی ایمیجه.
منبع
@NobarCloud ☁️
توی دنیای واقعیِ سرورها و میکروسرویسها، ارتباط امن با HTTPS و TLS حرف اول رو میزنه. تو یکی از پروژهها، تیم Luca Baggi با یه خطای عجیب توی محیط Production روبهرو شد:
برنامه نمیتونست با یه سرویس خارجی از طریق HTTPS و mTLS ارتباط برقرار کنه و خطای TLS Handshake Failure میداد. یعنی ارتباط امن از همون اول شکست میخورد.
مشکل چی بود؟
وقتی تیم فنی توی محیط لوکال تست گرفت، با دستور openssl خیلی راحت تونست به سرور وصل بشه.
این یعنی:
کلاینت سالم بود و گواهیها درست بودن اما به محض اینکه برنامه داخل Docker اجرا میشد اون هم با Distroless ایمیج، اتصال امن کلاً fail میشد.
راهحل؟
در عین سادگی، خیلی مهم بود:
۱. اضافه کردن Root CA موردنیاز به لیست ca-certificates
۲. ساختن یه Docker ایمیج جدید تا گواهی بهعنوان گواهی قابل اعتماد شناخته بشه
بهطور کلی:
گواهیها از ایمیج Distroless اصلی برداشته شدن
داخل یه Debian Slim ایمیج قرار گرفتن
و اونجا با openssl تست گرفتن تا مطمئن بشن همهچیز درسته
گاهی مشکل TLS اصلاً از خود TLS نیست، از یه Root CA جاافتاده توی ایمیجه.
منبع
@NobarCloud ☁️
❤2👍2
وقتی لینوکس رکورد IPO رو شکست:
توی اوج حباب داتکام، شرکتی به اسم VA Linux که سرور و سیستمهای آماده با لینوکس میفروخت، در ۹ دسامبر ۱۹۹۹ وارد بورس شد و تاریخ ساخت.
قیمت هر سهم در IPO حدود ۳۰ دلار بود، اما همون روز اول تا حدود ۲۳۹ دلار بالا رفت؛
یعنی نزدیک به ۷۰۰٪ رشد در یک روز؛ رکوردی که سالها دستنخورده موند.
شرکت تونست حدود ۱۳۲ میلیون دلار سرمایه جذب کنه؛ حتی بیشتر از مایکروسافت در زمان IPO خودش.
اما این موفقیت، بیشتر حاصل هیجان بازار بود تا قدرت واقعی کسبوکار.
با ترکیدن حباب داتکام، قیمت سهم سقوط کرد و در مدت کوتاهی به چند دلار رسید.
مدل کاری شرکت هم به مشکل خورد:
فروش سختافزار لینوکسی، با ورود بازیگرهای بزرگی مثل Dell و عمومیشدن پشتیبانی Linux، دیگه مزیت رقابتی نبود.
بعدش چی شد؟
فروش سختافزار کنار گذاشته شد
اسم شرکت به VA Software و بعد Geeknet تغییر کرد
و در نهایت VA Software سال ۲۰۱۵ توسط GameStop خریداری شد
منبع
@NobarCloud ☁️
توی اوج حباب داتکام، شرکتی به اسم VA Linux که سرور و سیستمهای آماده با لینوکس میفروخت، در ۹ دسامبر ۱۹۹۹ وارد بورس شد و تاریخ ساخت.
قیمت هر سهم در IPO حدود ۳۰ دلار بود، اما همون روز اول تا حدود ۲۳۹ دلار بالا رفت؛
یعنی نزدیک به ۷۰۰٪ رشد در یک روز؛ رکوردی که سالها دستنخورده موند.
شرکت تونست حدود ۱۳۲ میلیون دلار سرمایه جذب کنه؛ حتی بیشتر از مایکروسافت در زمان IPO خودش.
اما این موفقیت، بیشتر حاصل هیجان بازار بود تا قدرت واقعی کسبوکار.
با ترکیدن حباب داتکام، قیمت سهم سقوط کرد و در مدت کوتاهی به چند دلار رسید.
مدل کاری شرکت هم به مشکل خورد:
فروش سختافزار لینوکسی، با ورود بازیگرهای بزرگی مثل Dell و عمومیشدن پشتیبانی Linux، دیگه مزیت رقابتی نبود.
بعدش چی شد؟
فروش سختافزار کنار گذاشته شد
اسم شرکت به VA Software و بعد Geeknet تغییر کرد
و در نهایت VA Software سال ۲۰۱۵ توسط GameStop خریداری شد
منبع
@NobarCloud ☁️
❤4
وقتی GPUهای فوقسنگین هم مجازی میشن
در این مقاله، تیم UbiCloud توضیح میده چطور تونستن ماشینهای NVIDIA HGX B200 رو با روشهای متنباز برای اجرای ماشین مجازیهای GPUدار آماده کنن؛ کاری که بهخاطر معماری خاص B200 حتی از H100 هم پیچیدهتره.
دلیل پیچیدگی اینجاست که B200ها بهصورت داخلی از NVLink و NVSwitch استفاده میکنن تا چند GPU با پهنای باند بسیار بالا به هم وصل باشن، اما همین ساختار، مجازیسازی رو سختتر از GPUهای معمولی PCIe میکنه.
سه روش اصلی برای مجازیسازی روی این سختافزار وجود داره: ۱. در حالت Passthrough کامل، یک یا چند GPU مستقیماً به یک VM داده میشن؛ یا هر هشت GPU با هم، یا بهصورت جدا بدون NVLink.
۲. در حالت اشتراکگذاری با NVSwitch، GPUها گروهبندی میشن و هر گروه (۱، ۲، ۴ یا ۸ GPU) همچنان پهنای باند NVLink کامل رو حفظ میکنه.
۳. در روش vGPU slicing، منابع یک GPU بین چند VM تقسیم میشن و بیشتر برای بارهای سبکتر مناسبه.
بهدلیل نیاز به تعادل بین کارایی و انعطافپذیری، تیم UbiCloud در نهایت از مدل Shared NVSwitch استفاده کرده؛ مدلی که امکان ساخت VMهای ۱ تا ۸ GPU رو فراهم میکنه بدون اینکه پهنای باند داخلی از بین بره.
در مسیر پیادهسازی، چند چالش مهم وجود داشت:
لازم بود GPUها برای passthrough از درایور معمولی جدا و به کرنل مناسب bind بشن
نسخه درایور NVIDIA روی Host و داخل VM باید دقیقاً یکی باشه تا CUDA درست کار کنه
برای شبیهسازی توپولوژی واقعی PCIe، استفاده از QEMU ضروری بود
حجم بالای PCI BAR در B200 باعث کندی شدید بوت میشد که با تنظیمات خاص و نسخههای جدید QEMU برطرف شد
در نهایت، وقتی همه این لایهها درست کنار هم قرار بگیرن، میشه روی HGX B200 با ابزارهای متنباز، ماشینهای مجازی با دسترسی کامل به GPUهای بسیار قدرتمند ساخت.
منبع:
UbiCloud Blog
@NobarCloud ☁️
در این مقاله، تیم UbiCloud توضیح میده چطور تونستن ماشینهای NVIDIA HGX B200 رو با روشهای متنباز برای اجرای ماشین مجازیهای GPUدار آماده کنن؛ کاری که بهخاطر معماری خاص B200 حتی از H100 هم پیچیدهتره.
دلیل پیچیدگی اینجاست که B200ها بهصورت داخلی از NVLink و NVSwitch استفاده میکنن تا چند GPU با پهنای باند بسیار بالا به هم وصل باشن، اما همین ساختار، مجازیسازی رو سختتر از GPUهای معمولی PCIe میکنه.
سه روش اصلی برای مجازیسازی روی این سختافزار وجود داره: ۱. در حالت Passthrough کامل، یک یا چند GPU مستقیماً به یک VM داده میشن؛ یا هر هشت GPU با هم، یا بهصورت جدا بدون NVLink.
۲. در حالت اشتراکگذاری با NVSwitch، GPUها گروهبندی میشن و هر گروه (۱، ۲، ۴ یا ۸ GPU) همچنان پهنای باند NVLink کامل رو حفظ میکنه.
۳. در روش vGPU slicing، منابع یک GPU بین چند VM تقسیم میشن و بیشتر برای بارهای سبکتر مناسبه.
بهدلیل نیاز به تعادل بین کارایی و انعطافپذیری، تیم UbiCloud در نهایت از مدل Shared NVSwitch استفاده کرده؛ مدلی که امکان ساخت VMهای ۱ تا ۸ GPU رو فراهم میکنه بدون اینکه پهنای باند داخلی از بین بره.
در مسیر پیادهسازی، چند چالش مهم وجود داشت:
لازم بود GPUها برای passthrough از درایور معمولی جدا و به کرنل مناسب bind بشن
نسخه درایور NVIDIA روی Host و داخل VM باید دقیقاً یکی باشه تا CUDA درست کار کنه
برای شبیهسازی توپولوژی واقعی PCIe، استفاده از QEMU ضروری بود
حجم بالای PCI BAR در B200 باعث کندی شدید بوت میشد که با تنظیمات خاص و نسخههای جدید QEMU برطرف شد
در نهایت، وقتی همه این لایهها درست کنار هم قرار بگیرن، میشه روی HGX B200 با ابزارهای متنباز، ماشینهای مجازی با دسترسی کامل به GPUهای بسیار قدرتمند ساخت.
منبع:
UbiCloud Blog
@NobarCloud ☁️
Ubicloud
Virtualizing NVidia HGX B200 GPUs with Open Source
This blog post covers how we virtualized NVIDIA HGX B200 GPUs using open-source software. It talks about VFIO passthrough, QEMU PCI topology fixes, large BAR boot stalls, and Fabric Manager partitions.
❤3👍2
اختلال برق در NIST Boulder باعث از دست رفتن زمان دقیق NTP شد
توی این ایمیل که در لیست NANOG منتشر شده، گزارش شده که سرویس زمان اینترنت (NTP) در مرکز NIST Boulder بهخاطر قطع طولانی برق شهری با مشکل جدی روبهرو شده.
طبق گزارش:
تأمین برق در ۱۷ دسامبر ۲۰۲۵ قطع شده و باعث از دست رفتن منبع زمانی دقیق بوردل شده.
سرورهای زمان هنوز با ژنراتور پشتیبان روشن هستن، اما احتمال قطع شدن اونا وجود داره چون یکی از ژنراتورها دچار خرابه.
چندین سرور NTP مثل time-a-b.nist.gov تا time-e-b.nist.gov و ntp-b-nist.gov (که سرویس NTP تاییدشده ارائه میدن) تحت تأثیر هستن.
تیم NIST هنوز زمان دقیق برطرف شدن مشکل رو نمیدونه و تمرکز فعلیشون بر آوردن منبع برق جایگزینه تا کل سیستم پایش و زمان سالم بمونه.
ایمیل رو Anne Johnson با استناد به پیام اصلی از طرف تیم سرویس زمان اینترنت NIST منتشر کرده.
منبع:
Nanog.or
@NobarCloud ☁️
توی این ایمیل که در لیست NANOG منتشر شده، گزارش شده که سرویس زمان اینترنت (NTP) در مرکز NIST Boulder بهخاطر قطع طولانی برق شهری با مشکل جدی روبهرو شده.
طبق گزارش:
تأمین برق در ۱۷ دسامبر ۲۰۲۵ قطع شده و باعث از دست رفتن منبع زمانی دقیق بوردل شده.
سرورهای زمان هنوز با ژنراتور پشتیبان روشن هستن، اما احتمال قطع شدن اونا وجود داره چون یکی از ژنراتورها دچار خرابه.
چندین سرور NTP مثل time-a-b.nist.gov تا time-e-b.nist.gov و ntp-b-nist.gov (که سرویس NTP تاییدشده ارائه میدن) تحت تأثیر هستن.
تیم NIST هنوز زمان دقیق برطرف شدن مشکل رو نمیدونه و تمرکز فعلیشون بر آوردن منبع برق جایگزینه تا کل سیستم پایش و زمان سالم بمونه.
ایمیل رو Anne Johnson با استناد به پیام اصلی از طرف تیم سرویس زمان اینترنت NIST منتشر کرده.
منبع:
Nanog.or
@NobarCloud ☁️
❤4
وقتی پای Self-Host کردن PostgreSQL به میان میاد
خیلیها فکر میکنن Self-Host کردن دیتابیس مثل PostgreSQL ترسناک و غیرقابل مدیریته مخصوصاً در مقایسه با سرویسهای managed مثل RDS که همهچیز رو برایت میگیرن.
اما تجربه واقعی چیز دیگریه:
وقتی خودت دیتابیس رو روی سرور خودت میذاری، بهمراتب ارزانتر و قابلیت تنظیم بهتر میگیری، با همان قابلیت اعتماد که managed ها ادعا میکنن.
نویسنده گفته که سالهاست Postgres خودش رو روی سرور اختصاصی اجرا میکنه و با هزاران کاربر و میلیونها کوئری روزانه کار میکنه، بدون مشکل جدی جز یه استرس کوتاه موقع مهاجرت.
چرا Self-Host؟
چون دیتابیس داخل خودت کنترل کامل داره و میتونی تنظیماتش رو طبق نیازت بهینه کنی.
وقتی دیتابیست down میشه، چه managed باشه چه خودت میزبانی کنی، در هر صورت آخرش خودت باید واکنش نشون بدی.
چه زمانی Self-Host منطقی نیست؟
۱. وقتی تازه شروع کردی و فقط میخوای سریع راه بندازی، managed راحتتره.
۲. وقتی شرکت خیلی بزرگه و استخدام مهندس DB بهصرفهتره.
۳. وقتی محدودیتهای قانونی یا compliance سختتری داری.
چیزی که باید جدی بگیری:
وقتی خودت Postgres رو میزبانی میکنی، باید تنظیمات حافظه، connection، و بکاپها رو خودت انجام بدی تا از performance و reliability خوب بهرهمند بشی.
مدیریت دیتابیس نیازی به ترس نداره. اگر هزینهت برای managed بیش از حد باشه، یک سرور تست راه بنداز و Postgres رو امتحان کن، شاید برات سادهتر و بهصرفهتر از چیزی باشه که فکر میکردی.
منبع:
pierce.de
@NobarCloud ☁️
خیلیها فکر میکنن Self-Host کردن دیتابیس مثل PostgreSQL ترسناک و غیرقابل مدیریته مخصوصاً در مقایسه با سرویسهای managed مثل RDS که همهچیز رو برایت میگیرن.
اما تجربه واقعی چیز دیگریه:
وقتی خودت دیتابیس رو روی سرور خودت میذاری، بهمراتب ارزانتر و قابلیت تنظیم بهتر میگیری، با همان قابلیت اعتماد که managed ها ادعا میکنن.
نویسنده گفته که سالهاست Postgres خودش رو روی سرور اختصاصی اجرا میکنه و با هزاران کاربر و میلیونها کوئری روزانه کار میکنه، بدون مشکل جدی جز یه استرس کوتاه موقع مهاجرت.
چرا Self-Host؟
چون دیتابیس داخل خودت کنترل کامل داره و میتونی تنظیماتش رو طبق نیازت بهینه کنی.
وقتی دیتابیست down میشه، چه managed باشه چه خودت میزبانی کنی، در هر صورت آخرش خودت باید واکنش نشون بدی.
چه زمانی Self-Host منطقی نیست؟
۱. وقتی تازه شروع کردی و فقط میخوای سریع راه بندازی، managed راحتتره.
۲. وقتی شرکت خیلی بزرگه و استخدام مهندس DB بهصرفهتره.
۳. وقتی محدودیتهای قانونی یا compliance سختتری داری.
چیزی که باید جدی بگیری:
وقتی خودت Postgres رو میزبانی میکنی، باید تنظیمات حافظه، connection، و بکاپها رو خودت انجام بدی تا از performance و reliability خوب بهرهمند بشی.
مدیریت دیتابیس نیازی به ترس نداره. اگر هزینهت برای managed بیش از حد باشه، یک سرور تست راه بنداز و Postgres رو امتحان کن، شاید برات سادهتر و بهصرفهتر از چیزی باشه که فکر میکردی.
منبع:
pierce.de
@NobarCloud ☁️
pierce.dev
Go ahead, self-host Postgres | Pierce Freeman
Self-hosting Postgres is simpler and cheaper than managed services suggest, with comparable reliability and better performance tunability.
❤5
وقتی آیندهی رایانش کوانتومی جدیتر از همیشه میشه
در آخرین پست بلاگ Scott Aaronson، بحث درباره اینه که چقدر احتمال داره تا چند سال آینده رایانش کوانتومی مفید و fault-tolerant واقعاً محقق بشه، یعنی ماشینی که بتونه الگوریتمهایی مثل Shor رو با خطاهای مدیریتشده اجرا کنه. بعد از شرکت در کنفرانس Q2B و دیدن پیشرفتهای واقعی در سختافزار (مثل سیستمهای Ion-trap، QuEra، Quantinuum و چیپهای Google/IBM)، دیدگاهش نسبت به «آیندهی نزدیک» کوانتوم بیشتر مثبت شده، هرچند هنوز نمیدونه دقیقاً کی این اتفاق میافته. از نظرش در ۲۰۲۵، برخی پلتفرمها به فیدلیتی بالای 99.9٪ رسیدهان، سطحی که آستانهی fault-tolerance رو امکانپذیر میکنه.
در یک مصاحبهی مرتبط با موضوع نیز به این نکته اشاره شد که اگر قبل از انتخابات ریاستجمهوری ۲۰۲۸، یک کامپیوتر کوانتومی fault-tolerant بتونه حتی کاری ساده مثل فاکتور کردن عدد ۱۵ با الگوریتم Shor انجام بده، اون رو «احتمال زنده» میدونه نه قطعیت، بلکه چیزی مثل “نه مطمئنم نمیشه”.
نویسنده همچنین بین دو نوع شرکتها تفکیک قائل شده:
۱. گروهی که واقعاً روی مشکلات علمی واقعی کار میکنن
۲. گروهی که فقط روایتهای جذاب برای سرمایهگذاران و دولتها میسازن بدون اینکه لزوماً پیشرفت فنی پشتش باشه.
در پایان، تاکید میکنه که هنوز برنامهها و کاربردهای واقعی کوانتومی محدود به حوزههایی مثل شبیهسازی فیزیک/شیمی، شکستن رمزنگاری فعلی، و در آینده کاربردهای بهینهسازی هستن، اما مسیر برای دیدن اینها تا چند سال آینده کوتاهتر از گذشته به نظر میرسه.
منبع:
scottaaronson.blog
@NobarCloud ☁️
در آخرین پست بلاگ Scott Aaronson، بحث درباره اینه که چقدر احتمال داره تا چند سال آینده رایانش کوانتومی مفید و fault-tolerant واقعاً محقق بشه، یعنی ماشینی که بتونه الگوریتمهایی مثل Shor رو با خطاهای مدیریتشده اجرا کنه. بعد از شرکت در کنفرانس Q2B و دیدن پیشرفتهای واقعی در سختافزار (مثل سیستمهای Ion-trap، QuEra، Quantinuum و چیپهای Google/IBM)، دیدگاهش نسبت به «آیندهی نزدیک» کوانتوم بیشتر مثبت شده، هرچند هنوز نمیدونه دقیقاً کی این اتفاق میافته. از نظرش در ۲۰۲۵، برخی پلتفرمها به فیدلیتی بالای 99.9٪ رسیدهان، سطحی که آستانهی fault-tolerance رو امکانپذیر میکنه.
در یک مصاحبهی مرتبط با موضوع نیز به این نکته اشاره شد که اگر قبل از انتخابات ریاستجمهوری ۲۰۲۸، یک کامپیوتر کوانتومی fault-tolerant بتونه حتی کاری ساده مثل فاکتور کردن عدد ۱۵ با الگوریتم Shor انجام بده، اون رو «احتمال زنده» میدونه نه قطعیت، بلکه چیزی مثل “نه مطمئنم نمیشه”.
نویسنده همچنین بین دو نوع شرکتها تفکیک قائل شده:
۱. گروهی که واقعاً روی مشکلات علمی واقعی کار میکنن
۲. گروهی که فقط روایتهای جذاب برای سرمایهگذاران و دولتها میسازن بدون اینکه لزوماً پیشرفت فنی پشتش باشه.
در پایان، تاکید میکنه که هنوز برنامهها و کاربردهای واقعی کوانتومی محدود به حوزههایی مثل شبیهسازی فیزیک/شیمی، شکستن رمزنگاری فعلی، و در آینده کاربردهای بهینهسازی هستن، اما مسیر برای دیدن اینها تا چند سال آینده کوتاهتر از گذشته به نظر میرسه.
منبع:
scottaaronson.blog
@NobarCloud ☁️
Shtetl-Optimized
More on whether useful quantum computing is “imminent”
These days, the most common question I get goes something like this: A decade ago, you told people that scalable quantum computing wasn’t imminent. Now, though, you claim it plausibly is immi…
🔥6
وقتی دیتابیسها باید برای SSD آپدیت بشن
توی این پست، Marc Brooker بررسی میکنه که دیتابیسهای کلاسیک مثل PostgreSQL و MySQL که در دهههای ۹۰ و ۲۰۰۰ طراحی شدن، برای دیسکهای چرخان قدیمی بهینهسازی شده بودن، جایی که I/O بسیار کند بود و کارایی با خواندن ترتیبی دادهها تعیین میشد. اما امروزه SSDها، هزار برابر سریعتر هستن و این یعنی معماری سنتی دیتابیسها دیگه همیشه بهترین انتخاب نیست.
وقتی SSD رو در نظر میگیریم، دو بحث مهم پیش میاد:
۱. کش مناسب: SSDها سریعن، اما هنوز RAM ازشون خیلی سریعتره. به همین دلیل، دیتابیس باید کش رو جوری تنظیم کنه که بخش مهم دادهها (که احتمال دسترسی دوباره دارن) توی حافظه بمونه نه روی SSD
۲. سازماندهی I/O: درواقع SSDها نسبت به read/write حساسیت متفاوت دارن و بهترین کارایی وقتی بهدست میاد که اندازهی تراکنشها و الگوهای دسترسی با سرعت و IOPS SSD هماهنگ باشن.
نقش سرورهای ابری چیه؟
۱. وقتی دیتابیسها روی سرور ابری اجرا میشن، علاوه بر سرعت SSD، شبکههای دیتاسنتر هم وارد جریان میشن
۲. پهنای باند بین AZها در سرور ابری خیلی بالاست و latency بسیار پایینه
۳. نوشتن دادهها در چند دیتاسنتر مختلف (Replication) اهمیت بالایی پیدا میکنه و این یعنی دیتابیسهای مدرن باید Designشون طوری باشه که Durability و Availability واقعی رو بدون وابستگی به SSD یه سرور تنها تضمین کنن.
در عمل به این معنیه که:
هارد SSD برای throughput و IOPS عالیه، ولی برای durability و failover، باید دیتابیس Replicate بشه (مثلاً توی مناطق مختلف ابر)، latency کم شبکهی ابری به دیتابیس کمک میکنه تا commitها سریعتر از SSD محلی هم بشه.
نتیجه Brooker اینه که اگر بخوایم یه دیتابیس تازه از صفر برای محیطهای SSD و ابری ۲۰۲۵ طراحی کنیم، باید:
۱. کش هوشمند داشته باشه تا hot set دادهها همیشه توی RAM بمونه
۲. طراحی I/O pattern رو حول سرعت SSD تنظیم کنه
۳. موارد replication و durability رو جدی بگیره چون دیگه نمیتونی به SSD یه سرور تنها اعتماد کنی و از latency و throughput شبکهی دیتاسنتر ابری بهره ببری تا هر چیزی از local storage فراتر بره.
۴. دیتابیسهای سنتی برای SSD خوب کار میکنن، اما بهترین نتیجه وقتی به دست میاد که طراحی از اول با توانایی SSD و امکانات ابری تطبیق داده بشه.
منبع:
brooker.co.za
What Does a Database for SSDs Look Like?
@NobarCloud ☁️
توی این پست، Marc Brooker بررسی میکنه که دیتابیسهای کلاسیک مثل PostgreSQL و MySQL که در دهههای ۹۰ و ۲۰۰۰ طراحی شدن، برای دیسکهای چرخان قدیمی بهینهسازی شده بودن، جایی که I/O بسیار کند بود و کارایی با خواندن ترتیبی دادهها تعیین میشد. اما امروزه SSDها، هزار برابر سریعتر هستن و این یعنی معماری سنتی دیتابیسها دیگه همیشه بهترین انتخاب نیست.
وقتی SSD رو در نظر میگیریم، دو بحث مهم پیش میاد:
۱. کش مناسب: SSDها سریعن، اما هنوز RAM ازشون خیلی سریعتره. به همین دلیل، دیتابیس باید کش رو جوری تنظیم کنه که بخش مهم دادهها (که احتمال دسترسی دوباره دارن) توی حافظه بمونه نه روی SSD
۲. سازماندهی I/O: درواقع SSDها نسبت به read/write حساسیت متفاوت دارن و بهترین کارایی وقتی بهدست میاد که اندازهی تراکنشها و الگوهای دسترسی با سرعت و IOPS SSD هماهنگ باشن.
نقش سرورهای ابری چیه؟
۱. وقتی دیتابیسها روی سرور ابری اجرا میشن، علاوه بر سرعت SSD، شبکههای دیتاسنتر هم وارد جریان میشن
۲. پهنای باند بین AZها در سرور ابری خیلی بالاست و latency بسیار پایینه
۳. نوشتن دادهها در چند دیتاسنتر مختلف (Replication) اهمیت بالایی پیدا میکنه و این یعنی دیتابیسهای مدرن باید Designشون طوری باشه که Durability و Availability واقعی رو بدون وابستگی به SSD یه سرور تنها تضمین کنن.
در عمل به این معنیه که:
هارد SSD برای throughput و IOPS عالیه، ولی برای durability و failover، باید دیتابیس Replicate بشه (مثلاً توی مناطق مختلف ابر)، latency کم شبکهی ابری به دیتابیس کمک میکنه تا commitها سریعتر از SSD محلی هم بشه.
نتیجه Brooker اینه که اگر بخوایم یه دیتابیس تازه از صفر برای محیطهای SSD و ابری ۲۰۲۵ طراحی کنیم، باید:
۱. کش هوشمند داشته باشه تا hot set دادهها همیشه توی RAM بمونه
۲. طراحی I/O pattern رو حول سرعت SSD تنظیم کنه
۳. موارد replication و durability رو جدی بگیره چون دیگه نمیتونی به SSD یه سرور تنها اعتماد کنی و از latency و throughput شبکهی دیتاسنتر ابری بهره ببری تا هر چیزی از local storage فراتر بره.
۴. دیتابیسهای سنتی برای SSD خوب کار میکنن، اما بهترین نتیجه وقتی به دست میاد که طراحی از اول با توانایی SSD و امکانات ابری تطبیق داده بشه.
منبع:
brooker.co.za
What Does a Database for SSDs Look Like?
@NobarCloud ☁️
👍6
مایکروسافت بالاخره بعد از سالها پشتیبانی Native از NVMe رو به ویندوز آورد
ویژگیای که قبلاً فقط تو Windows Server 2025 بود و باعث افزایش چشمگیر کارایی SSD میشد.
تا قبل از این، ویندوز برای SSDهای NVMe از یه مدل قدیمی استفاده میکرد که دستورات NVMe رو از طریق SCSI تبدیل میکرد و باعث میشد سرعت واقعی SSDها گرفته بشه.
اما با معرفی درایور Native NVMe، سیستمعامل میتونه مستقیم با SSDهای NVMe صحبت کنه، latency رو کم و throughput رو بالا ببره. بعضی کاربران با استفاده از تغییرات رجیستری تونستن این قابلیت رو در ویندوز 11 نسخه 25H2 فعال کنن، بدون نیاز به ابزار جانبی. نتایج بنچمارکها نشون داده که سرعت کارهای تصادفی (Random I/O) تا ۸۵٪ افزایش پیدا کرده، مخصوصاً در نوشتن ۴K روی SSDهای سریع.
البته نکته اینه که:
مایکروسافت فعلاً این ویژگی رو رسمی برای ویندوز 11 منتشر نکرده
ممکنه ابزارهای مدیریت SSD (مثل مدیریت برندها) بعد از فعالکردن درایور جدید رفتار عجیبی داشته باشن و هک رجیستری ریسکهایی مثل ناسازگاری یا کرش سیستم داره.
برای کاربرهای معمولی شاید افزایش سرعت محسوس نباشه، اما این قدم فنی میتونه توی سرورهای ابری، پایگاهداده و بارهای سنگین I/O واقعاً کاربردی باشه.
منبع
@NobarCloud ☁️
ویژگیای که قبلاً فقط تو Windows Server 2025 بود و باعث افزایش چشمگیر کارایی SSD میشد.
تا قبل از این، ویندوز برای SSDهای NVMe از یه مدل قدیمی استفاده میکرد که دستورات NVMe رو از طریق SCSI تبدیل میکرد و باعث میشد سرعت واقعی SSDها گرفته بشه.
اما با معرفی درایور Native NVMe، سیستمعامل میتونه مستقیم با SSDهای NVMe صحبت کنه، latency رو کم و throughput رو بالا ببره. بعضی کاربران با استفاده از تغییرات رجیستری تونستن این قابلیت رو در ویندوز 11 نسخه 25H2 فعال کنن، بدون نیاز به ابزار جانبی. نتایج بنچمارکها نشون داده که سرعت کارهای تصادفی (Random I/O) تا ۸۵٪ افزایش پیدا کرده، مخصوصاً در نوشتن ۴K روی SSDهای سریع.
البته نکته اینه که:
مایکروسافت فعلاً این ویژگی رو رسمی برای ویندوز 11 منتشر نکرده
ممکنه ابزارهای مدیریت SSD (مثل مدیریت برندها) بعد از فعالکردن درایور جدید رفتار عجیبی داشته باشن و هک رجیستری ریسکهایی مثل ناسازگاری یا کرش سیستم داره.
برای کاربرهای معمولی شاید افزایش سرعت محسوس نباشه، اما این قدم فنی میتونه توی سرورهای ابری، پایگاهداده و بارهای سنگین I/O واقعاً کاربردی باشه.
منبع
@NobarCloud ☁️
Tom's Hardware
Windows 11 rockets SSD performance to new heights with hacked native NVMe driver — up to 85% higher random workload performance…
Three registry entries to boost NVMe performance for free