Database Labdon – Telegram
Database Labdon
850 subscribers
33 photos
3 videos
1 file
823 links
🕸 Database Academy

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🔵 عنوان مقاله
'the PostgreSQL creators totally nailed it.'

🟢 خلاصه مقاله:
در آخرین شماره Golang Weekly، مقاله‌ای تأکید می‌کند که سازندگان PostgreSQL «کاملاً درست عمل کردند». نویسنده توضیح می‌دهد چرا این پایگاه‌داده با ترکیب استانداردهای شفاف SQL، قابلیت اتکا، کارایی بالا و امکاناتی مانند JSONB و ایندکس‌های قدرتمند، برای طیف وسیعی از نیازها مناسب است. برای توسعه‌دهندگان Go، هم‌نشینی PostgreSQL با ابزارهایی مثل pgx و GORM، سادگی در ادغام، و رفتار قابل پیش‌بینی در محیط تولید، ارزش ویژه‌ای دارد. جامعه فعال، مستندسازی خوب و سازگاری عقب‌رو نیز استفاده بلندمدت را مطمئن می‌کند. جمع‌بندی مقاله این است که برای بسیاری از تیم‌های Go، PostgreSQL یک انتخاب پیش‌فرض قوی و عملیاتی است و سازندگانش در رسیدن به این تعادل «حرفه‌ای» عمل کرده‌اند.

#PostgreSQL #Golang #Go #Databases #GolangWeekly #OpenSource #Backend #SoftwareEngineering

🟣لینک مقاله:
https://postgresweekly.com/link/174751/web


👑 @Database_Academy
3
🔵 عنوان مقاله
Getting Excited About Postgres 18

🟢 خلاصه مقاله:
Postgres 18 تا یک هفته دیگر نهایی می‌شود و مهم‌ترین ویژگی تازه‌اش asynchronous I/O است؛ قابلیتی که امکان انجام عملیات خواندن/نوشتن بدون مسدود کردن مسیر اجرای اصلی را می‌دهد و در بسیاری از سناریوها باعث افزایش توان عملیاتی و کاهش تأخیر می‌شود. این تغییر برای بارهای کاری پرتراکنش، سیستم‌های ترکیبی OLTP/تحلیلی و پردازش‌های سنگین I/O نوید عملکرد روان‌تر و پایدارتر را می‌دهد. با انتشار نسخه نهایی، انتظار می‌رود راهنماها و بهترین‌عمل‌ها برای بهره‌گیری از این بهبودها ارائه شود و تیم‌ها بتوانند با تنظیمات مناسب، از جهش عملکردی Postgres 18 بهره ببرند.

#Postgres18 #Postgres #PostgreSQL #AsynchronousIO #Database #Performance #OpenSource

🟣لینک مقاله:
https://postgresweekly.com/link/174461/web


👑 @Database_Academy
1
🔵 عنوان مقاله
"database is not accepting commands": What Now?

🟢 خلاصه مقاله:
وقتی پیام "database is not accepting commands" ظاهر می‌شود، در سیستم‌هایی مثل PostgreSQL معمولاً به‌معنای ورود به حالت حفاظتی برای جلوگیری از Transaction ID Wraparound است؛ یعنی پایگاه داده برای محافظت از خود جلوی عملیات عادی را گرفته و باید فوراً اقدام کنید. توصیه Laurenz این است که ابتدا ترافیک نوشتن را کم یا متوقف کنید، با دسترسی کافی وصل شوید و روی جداول/پایگاه‌های در خطر VACUUM و در صورت نیاز VACUUM FREEZE اجرا کنید؛ اگر اتصال معمولی ممکن نیست، از حالت نگهداری محدود استفاده کنید تا relfrozenxid ایمن جلو برود. برای پیشگیری، پایش منظم سن تراکنش‌ها، تنظیم درست autovacuum، زمان‌بندی VACUUM برای جداول بزرگ، کوتاه نگه‌داشتن تراکنش‌های طولانی و برنامه‌ریزی نگهداری دوره‌ای ضروری است. از روش‌های "نامطلوب" مثل غیرفعال‌کردن autovacuum، بالا بردن بی‌هدف autovacuum_freeze_max_age یا سرکوب هشدارها برای به تعویق انداختن مشکل پرهیز کنید؛ این‌ها خطر را بیشتر می‌کنند. راه‌حل واقعی، نگهداری منظم، پایش و پیکربندی درست است، نه عقب‌انداختن مشکل.

#PostgreSQL #TransactionIDWraparound #Autovacuum #VACUUM #DatabaseMaintenance #DBA #IncidentResponse

🟣لینک مقاله:
https://postgresweekly.com/link/174454/web


👑 @Database_Academy
🔵 عنوان مقاله
pgAudit 18.0: An Audit Logging Extension

🟢 خلاصه مقاله:
این نسخه جدید از pgAudit با پشتیبانی کامل از Postgres 18 منتشر شده و ثبت لاگ‌های حسابرسی از فعالیت‌های پایگاه‌داده را بدون وقفه برای تیم‌هایی که در حال ارتقا هستند امکان‌پذیر می‌کند. pgAudit با تولید لاگ‌های ساخت‌یافته از رویدادهایی مانند اجرای دستورات SQL، تغییر نقش‌ها و دسترسی به اشیای حساس، به سازمان‌ها کمک می‌کند الزامات انطباق در حوزه‌های دولتی، مالی و استانداردهای ISO را برآورده کنند. ادغام با لاگینگ بومی Postgres و تنظیم‌پذیری دامنه و جزئیات ثبت، تعادلی بین پوشش، کارایی و هزینه ذخیره‌سازی فراهم می‌کند و انتقال سیاست‌های حسابرسی به Postgres 18 را ساده و پایدار نگه می‌دارد.

#Postgres #pgAudit #AuditLogging #Compliance #Security #DataGovernance #ISO

🟣لینک مقاله:
https://postgresweekly.com/link/174766/web


👑 @Database_Academy
🔵 عنوان مقاله
Understanding WAL and Optimizing It with a Dedicated Disk

🟢 خلاصه مقاله:
WAL روشی کلیدی برای پایداری و ریکاوری پس از کرش است: تغییرات ابتدا به شکل ترتیبی در یک لاگ نوشته و به‌صورت پایدار flush می‌شوند و سپس در صورت نیاز روی داده‌های اصلی اعمال یا بازپخش می‌گردند. گلوگاه اصلی معمولاً همان fsync/flush است که باید دوام را تضمین کند. وقتی WAL روی همان دیسکی باشد که فایل‌های داده نیز روی آن I/O تصادفی انجام می‌دهند، وقفه و رقابت صف موجب جهش در تاخیر به‌ویژه در p99/p999 می‌شود. قرار دادن WAL روی یک دیسک اختصاصی این مسیر حساس را ایزوله می‌کند، الگوی نوشتن ترتیبی را حفظ می‌کند و تاخیر را قابل پیش‌بینی‌تر و بهره‌وری را بیشتر می‌سازد.

در عمل می‌توان از یک NVMe مستقل یا یک ولوم ابری جداگانه استفاده کرد؛ فایل‌سیستم‌های رایج مانند ext4 یا XFS با تنظیمات ساده و بدون سربار اضافی مناسب‌اند و باید اطمینان داشت که semantics مربوط به write barrier و cache flush مطابق نیازهای دوام هستند. از منظر Golang، بهینه‌سازی WAL معمولاً با سگمنت‌بندی و پیش‌اختصاص فایل‌ها، نوشتن هم‌تراز با بلوک، checksum، batch کردن درخواست‌ها، group commit با آستانه زمانی/حجمی، استفاده سنجیده از O_DSYNC/fdatasync و مدیریت دقیق بافر انجام می‌شود. اندازه‌گیری دقیق قبل و بعد (میانگین و p99 fsync، نرخ نوشتن، و زمان انتهابه‌انتها) مشخص می‌کند آیا دیسک اختصاصی هزینه‌اش را جبران می‌کند یا خیر؛ برای بارهای نوشتاری بالا یا SLA سخت‌گیرانه، این ایزولاسیون معمولاً ارزشمند است.

#WAL #Golang #Databases #Performance #Storage #NVMe #SystemsDesign

🟣لینک مقاله:
https://postgresweekly.com/link/174762/web


👑 @Database_Academy
1
🔵 عنوان مقاله
Polars at Decathlon: Ready to Play? (5 minute read)

🟢 خلاصه مقاله:
Decathlon با به‌کارگیری Polars، پیچیدگی و هزینه زیرساخت داده را کاهش داد. آن‌ها برای پایپ‌لاین‌هایی با ورودی کمتر از 50 GiB، Polars را جایگزین pandas کردند و در کنار آن، Spark را برای موارد مناسب حفظ نمودند. موتور استریمینگ جدید Polars امکان اجرای پایپ‌لاین‌هایی تا 1 TiB را تنها با 10 GiB RAM و 4 CPU فراهم کرد؛ در حالی‌که اجرای درون‌حافظه‌ای قبلی به حدود 100 GiB RAM نیاز داشت. نتیجه این تغییر، هزینه محاسباتی افزایشی نزدیک به صفر، اجرای بسیار سریع‌تر کارها و ساده‌تر شدن توسعه و نگه‌داری پایپ‌لاین‌ها برای بارهای کاری مناسب بود.

#Polars
#Decathlon
#DataPipelines
#StreamingEngine
#Spark
#Pandas
#CostOptimization

🟣لینک مقاله:
https://pola.rs/posts/case-decathlon/?utm_source=tldrdata


👑 @Database_Academy
1
🔵 عنوان مقاله
Implementing IAM as a Data Engineer: A Practical Example (7 minute read)

🟢 خلاصه مقاله:
** اجرای IAM برای Azure Storage با تعریف دقیق پرسونـاها، نگاشت مجوزهای لازم و خودکارسازی تخصیص نقش‌ها با Terraform آغاز می‌شود. در این رویکرد، اصل Principle of Least Privilege محور است؛ یعنی هر هویت فقط به حداقل دسترسی لازم، آن هم در کوچک‌ترین دامنه ممکن (مثل سطح کانتینر)، مجهز می‌شود. برای تعادل امنیت و سادگی عملیاتی، از نقش‌های داخلی Azure مانند Storage Blob Data Reader برای دسترسی فقط‌خواندنی و Storage Blob Data Contributor برای نوشتن و به‌روزرسانی استفاده می‌شود. خودکارسازی IAM با Infrastructure as Code (Terraform) باعث می‌شود دسترسی‌ها مقیاس‌پذیر، قابل ممیزی و به‌سادگی نگه‌داری شوند و ریسک حساب‌های بیش‌ازحد مجاز و پیکربندی‌های موردی به‌شدت کاهش یابد.

#IAM #Azure #AzureStorage #Terraform #LeastPrivilege #DataEngineering #InfrastructureAsCode #DevSecOps

🟣لینک مقاله:
https://atlonglastanalytics.substack.com/p/implementing-iam-as-a-data-engineer?utm_source=tldrdata


👑 @Database_Academy
1
🔵 عنوان مقاله
Compiling Postgres to WebAssembly with PGlite

🟢 خلاصه مقاله:
این ارائه ۳۰ دقیقه‌ای از Sam Willis نشان می‌دهد چگونه می‌توان Postgres را برای اجرای مستقیم در WebAssembly کامپایل کرد و PGlite چه‌طور این ایده را به راهکاری کاربردی تبدیل می‌کند. انگیزه اصلی، اجرای دیتابیس در مرورگر یا محیط‌های edge است تا بتوان به اپ‌های آفلاین، دموهای قابل تکرار، تست سریع و اجرای ایمن و ایزوله بدون نیاز به سرور دست یافت.

در ادامه، مسیر فنی از کد Cِ Postgres تا WebAssembly توضیح داده می‌شود: محدودیت‌های WASI، نبود fork و برخی سیستم‌کال‌های POSIX، شبیه‌سازی فایل‌سیستم و شیوه‌های معمول برای پایداری داده در مرورگر (مثل IndexedDB یا OPFS) یا فضای ذخیره‌سازی معادل در edge. همچنین بازطراحی همزمانی بدون مدل چندپردازه، بسته‌بندی باینری برای کاهش زمان شروع، و مدیریت کارهای پس‌زمینه بررسی می‌شود.

از منظر توسعه‌دهنده، PGlite یک API ساده برای راه‌اندازی سریع، اجرای SQL، مهاجرت‌ها و seed داده ارائه می‌کند و سناریوهایی مثل تحلیل سمت‌کلاینت، مستندسازی تعاملی، تست انتهابه‌انتها بدون سرور، و آموزش را پوشش می‌دهد. ادغام با ابزارها و runtimeهایی مانند Node و Deno نیز مطرح است تا همان artifactِ Wasm در محیط‌های مختلف پایدار اجرا شود.

در نهایت، محدودیت‌ها و راهکارها شفاف بیان می‌شوند: اندازه باینری، تأخیر شروع، سقف حافظه مرورگر، کارایی I/O و چالش‌های مربوط به extensions یا کارگران پس‌زمینه؛ به‌همراه راهبردهایی مانند snapshot آماده، بارگذاری تنبل، و استفاده از Web Workers. جمع‌بندی ارائه می‌کند که PGlite در کجا انتخاب مناسبی است—از نمونه‌سازی سریع و ویژگی‌های آفلاین تا پردازش ایمن سمت‌کاربر و CI قابل اتکا—و چگونه می‌توان آغاز به کار کرد.

#WebAssembly #Postgres #PGlite #WASM #WASI #EdgeComputing #BrowserDatabases #DeveloperExperience

🟣لینک مقاله:
https://postgresweekly.com/link/174466/web


👑 @Database_Academy
🔵 عنوان مقاله
The End of Digital Analytics (20 minute read)

🟢 خلاصه مقاله:
**پایان مدل سنتی Digital analytics مبتنی بر کلیک و داشبوردهای سبک GA فرا رسیده است؛ حذف کوکی‌های شخص ثالث، محدودیت‌های حریم خصوصی و ضعف‌های GA4 باعث شکستن انتساب و بی‌اعتمادی به گزارش‌ها شده‌اند. دو جانشین در حال رشدند: 1) بهینه‌سازی عملیاتی تجربه مشتری با تمرکز بر سفرهای کلیدی محصول، کاهش اصطکاک، افزایش Activation و اجرای آزمایش‌ها و تریگرهای رفتاری؛ 2) هوش درآمدی مبتنی بر انبار داده که رفتار کاربران را به نتایج مالی پیوند می‌دهد. داده‌ها در Snowflake/BigQuery/Databricks یکپارچه می‌شوند و با یک لایه معنایی به سیگنال‌های عملیاتی مانند ریسک Churn، تمایل به Expansion و LTV تبدیل می‌شوند. وظیفه مهندسان داده روشن است: مدل‌های Warehouse-native با dbt، همبندی هویت دقیق (Deterministic/Probabilistic با رعایت حریم خصوصی)، و پایپ‌لاین‌های رویدادی بازپردازشی برای مدیریت داده‌های دیررس و نسخه‌بندی. سپس این سیگنال‌ها از طریق Reverse ETL و ابزارهای فعال‌سازی مثل Braze/Iterable/Customer.io و همچنین CRM به عملیات تزریق می‌شوند و اثرشان با Holdout/Uplift سنجیده می‌شود. نتیجه: Analytics از گزارش‌دهی منفعل به تصمیم‌سازی پیوسته و مرتبط با درآمد تغییر ماهیت می‌دهد.

#DigitalAnalytics #GA4 #DataEngineering #CustomerExperience #RevenueIntelligence #DataWarehouse #Attribution

🟣لینک مقاله:
https://timodechau.com/the-end-of-digital-analytics/?utm_source=tldrdata


👑 @Database_Academy
🔵 عنوان مقاله
Tuning Asynchronous I/O (AIO) in Postgres 18

🟢 خلاصه مقاله:
در Postgres 18 قابلیت AIO اضافه شده که امکان ارسال هم‌زمان عملیات خواندن/نوشتن بدون بلوکه‌کردن پردازش‌ها را می‌دهد. نتیجه‌اش استفاده بهتر از CPU، افزایش توان عبوری و کاهش لگ‌های انتهای توزیع، به‌ویژه روی SSD/NVMe است. برای تیونینگ، از مقدارهای پیش‌فرض شروع کنید و با اندازه‌گیری دقیق جلو بروید؛ عمق صف مهم‌ترین اهرم است: عمق کم پهنا‌باند را هدر می‌دهد و عمق زیاد تاخیر را بالا می‌برد. اندازه‌ی دسته‌های ارسال، shared_buffers، و ریتم نوشتن‌های WAL/چک‌پوینت باید با نوع کار (OLTP در برابر تحلیل‌محور) و نوع دیسک تنظیم شوند. با pg_stat_io و رویدادهای انتظار در Postgres و ابزارهای سیستم‌عاملی مثل iostat، perf و pidstat پ99 تاخیر، صف‌ها و استفاده‌ی دیسک/CPU را پایش کنید. تفاوت‌های پلتفرمی مهم‌اند: روی Linux با io_uring، فایل‌سیستم‌ها (XFS/ext4/ZFS) و دیسک‌های ابری/شبکه‌ای رفتار متفاوتی دارند؛ HDD به عمق صف محافظه‌کارانه‌تر نیاز دارد و NVMe از عمق بیشتر سود می‌برد. در تمام مراحل، دوام (fsync، synchronous_commit) را با تست خرابی و بازیابی راستی‌آزمایی کنید. رویکرد مرحله‌ای—بالقوه با pgbench—و تنظیم تدریجی عمق صف و پارامترهای نوشتن، معمولاً بهترین کارایی پایدار را به‌همراه می‌آورد.

#Postgres #AIO #DatabasePerformance #io_uring #WAL #NVMe #Linux #Postgres18

🟣لینک مقاله:
https://postgresweekly.com/link/174756/web


👑 @Database_Academy
🔵 عنوان مقاله
How to Implement the Outbox Pattern in Go and Postgres

🟢 خلاصه مقاله:
** الگوی Outbox روشی عملی برای حذف مشکل دو‌نوشتن و تضمین تحویل مطمئن پیام‌هاست. در این روش، تغییرات دامنه و یک رکورد رویداد در جدول outbox داخل همان تراکنش Postgres ذخیره می‌شوند؛ سپس یک پردازشگر در Go رویدادها را از جدول خوانده و به پیام‌رسان‌هایی مانند Kafka یا RabbitMQ منتشر می‌کند. با استفاده از فیلدهایی مانند ID، کلید موجودیت، نوع رویداد، payload به صورت JSONB، وضعیت/تعداد تلاش، و زمان‌ها، همگامی داده و پیام تضمین می‌شود. پردازشگر با انتخاب دسته‌های کوچک و به‌کارگیری SELECT … FOR UPDATE SKIP LOCKED از رقابت جلوگیری کرده، پس از انتشار وضعیت را به «پردازش‌شده» تغییر می‌دهد و شکست‌ها را با backoff و صف خطا مدیریت می‌کند. این الگو تحویل حداقل-یک‌بار را فراهم می‌کند و با مصرف‌کننده‌های idempotent می‌توان به پردازش مؤثرِ یک‌باره رسید. برای کارایی بهتر، ایندکس‌گذاری بر status و created_at، پارتیشن‌بندی جدول، حفظ ترتیب بر اساس کلید موجودیت و نظارت بر عمق صف و تأخیر انتشار توصیه می‌شود. به‌عنوان جایگزین، CDC با منبع‌خوانی منطقی Postgres (مثلاً Debezium) می‌تواند به‌جای polling استفاده شود، هرچند پیچیدگی عملیاتی بیشتری دارد. با آزمون‌های یکپارچه، مدیریت مهاجرت‌های شِما و پاک‌سازی داده‌های پردازش‌شده، پیاده‌سازی در Go و Postgres به پلی پایدار بین پایگاه‌داده و سامانه پیام‌رسان تبدیل می‌شود؛ همان رویکردی که Alex Pliutau در معرفی پیاده‌سازی Outbox با Go و Postgres بر آن تأکید دارد.

#OutboxPattern #Go #Postgres #Microservices #EventDriven #TransactionalOutbox #Reliability #Messaging

🟣لینک مقاله:
https://postgresweekly.com/link/174464/web


👑 @Database_Academy
کنترل اجرای همزمان با Idempotency و Global Lock در Redis
یکی از چالش‌های بزرگ در سیستم‌های پرترافیک، اجرای همزمان (Concurrency) درخواست‌هاست. وقتی چند درخواست همزمان به یک سرویس حساس مثل پرداخت یا رزرو ارسال می‌شوند، احتمال ایجاد داده تکراری یا Race Condition بسیار بالاست.
راهکار من: ترکیب Idempotency با قابلیت Global Lock در Redis
قابلیت Global Lock تضمین می‌کند که در هر لحظه فقط یک درخواست واقعی اجرا شود.
قابلیت Idempotency اطمینان می‌دهد که اگر درخواست‌های مشابه همزمان ارسال شوند، نتیجه یکسان به کاربر برگردد و هیچ عملیات تکراری اجرا نشود.
من از این ترکیب استفاده کردم در بخش پرداخت ها و نتیجه اش عالی بود

<Mojtaba Zaferani/>
🔵 عنوان مقاله
Going Down the Rabbit Hole of Postgres 18 Features

🟢 خلاصه مقاله:
**این مطلب با حفظ شور انتشار اخیر Postgres 18، به‌جای ارجاع مستقیم به یادداشت‌های طولانی انتشار، مرور قابل‌فهمی از ویژگی‌های جدید ارائه می‌دهد. Tudor تغییرات مهم و بهبودهای عملی را در قالبی موضوع‌محور توضیح می‌دهد تا روشن شود هر قابلیت چه مسئله‌ای را حل می‌کند و در چه سناریوهایی سودمند است. تمرکز متن بر فهم ساده، مقایسه با نسخه‌های قبلی و اشاره به نکات سازگاری و برنامه‌ریزی برای ارتقاست. خروجی، یک نقشه راه عملی برای تیم‌هاست تا سریع‌تر تصمیم بگیرند کدام قابلیت‌ها را همین حالا بیازمایند و کدام را بعداً ارزیابی کنند.

#Postgres18 #PostgreSQL #Database #ReleaseNotes #OpenSource #SQL #DBA #Performance

🟣لینک مقاله:
https://postgresweekly.com/link/175084/web


👑 @Database_Academy
🔵 عنوان مقاله
pgsql_tweaks 1.0.0 Released

🟢 خلاصه مقاله:
** pgsql_tweaks 1.0.0 منتشر شد؛ مجموعه‌ای از توابع و viewها که از تجربه روزمره نویسنده در کار با Postgres استخراج شده است. این بسته نیازهای رایج عملیاتی را پوشش می‌دهد: بررسی نوع داده‌ها، گردآوری آمار، مانیتورینگ WAL، شناسایی ایندکس‌های بلااستفاده، و توابع تبدیلی برای ساده‌سازی تبدیل داده. هدف، ارائه ابزارهای سبک و مبتنی بر SQL برای پایش و بهینه‌سازی سریع است تا DBAها و توسعه‌دهندگان بتوانند بررسی‌های استاندارد و تشخیص‌های عملکردی را به‌سادگی انجام دهند. صفحه رسمی پروژه برای هر قابلیت مستندات جداگانه ارائه می‌کند.

#Postgres #PostgreSQL #DatabaseTools #WAL #Indexes #Monitoring #Release

🟣لینک مقاله:
https://postgresweekly.com/link/174471/web


👑 @Database_Academy
🔵 عنوان مقاله
The Great Consolidation is underway (2 minute read)

🟢 خلاصه مقاله:
** روند The Great Consolidation در مهندسی داده سرعت گرفته است؛ ادغام‌هایی مثل Fivetran نشان می‌دهد بازاری که سال‌ها بیش‌ازحد داغ شده بود، حالا در حال بلوغ و یکپارچه‌سازی ابزارهای هم‌پوشان است. محرک‌ها شامل خستگی از تکثر ابزارها و هزینه‌های یکپارچه‌سازی، فشار برای کاهش هزینه‌ها، و نیاز به حاکمیت، امنیت و مشاهده‌پذیری یکپارچه است. پیامدها: ابزارهای تخصصی کمتر و پلتفرم‌های جامع‌تر، تغییر در نقشه‌راه‌ها، ادغام یا توقف برخی محصولات، و ریسک‌های جابه‌جایی و قفل‌شدن در فروشنده. راهکار: تکیه بر استانداردها و رابط‌های باز، معماری ماژولار، شروط خروج در قراردادها و ارزیابی TCO برای حفظ اختیار عمل. برندگان، پلتفرم‌های انتهابه‌انتها با حاکمیت قوی خواهند بود و ابزارهای نیچی تنها با برتری ۱۰ برابری می‌مانند. تمرکز بازار از هیجان به پایداری، کارایی و نتایج اندازه‌پذیر منتقل می‌شود.

#DataEngineering #Consolidation #MergersAndAcquisitions #DataStack #VendorLockIn #DataPlatforms #Fivetran

🟣لینک مقاله:
https://www.reddit.com/r/dataengineering/comments/1nulrd5/the_great_consolidation_is_underway/?utm_source=tldrdata


👑 @Database_Academy
Forwarded from Future Pulse Persian
پاول دورُف: حاضرَم بمیرم، ولی آزادی و امنیت کاربران رو نفروشم!

در گفت‌وگوی عمیق با «لِکس فریدمن»، بنیان‌گذار تلگرام از فلسفهٔ زندگی، حریم خصوصی، بیت‌کوین و مقاومتش در برابر فشار دولت‌ها گفت.
> 🗣
«من ترجیح می‌دم بمیرم و تمام داراییم رو از دست بدهم تا اینکه اطلاعات کاربران رو به هر دولتی تحویل بدم.
آزادی و امنیت داده‌ها، خط قرمز من و تلگرامه.»

🔒

او تأکید کرد تلگرام هیچ‌وقت “در پشتی” برای دولت‌ها باز نکرده و در برابر فشار روسیه و ایران برای دسترسی به اطلاعات یا سانسور مقاومت کرده است.
>
«در روسیه و ایران بارها تلاش شد ما رو مجبور به همکاری کنن. ولی ما مقاومت کردیم چون اگر یک‌بار کوتاه بیای، دیگه آزادی واقعی وجود نداره.»



📱 ۷ اصل فکری و مدیریتی پاول دورُف (بر اساس مصاحبه):

1️⃣ آزادی و اخلاق بالاتر از هر سود مالی — او می‌گوید حاضر است تمام دارایی‌اش را از دست بدهد تا آزادی بیان و امنیت کاربران حفظ شود.

2️⃣ مینیمالیسم و انضباط شخصی — سبک زندگی‌اش ساده، بدون الکل، قهوه یا حواس‌پرتی است؛ تمرکز کامل روی مأموریت و نظم ذهنی.

3️⃣ تیم کوچک، تأثیر بزرگ — معتقد است تیم‌های بزرگ بهره‌وری را می‌کُشند؛ موفقیت تلگرام حاصل اعتماد به چند نابغهٔ منضبط است.

4️⃣ مقاومت در برابر سانسور و در پشتی — هیچ دولت یا شرکتی حق کنترل یا شنود تلگرام را ندارد. رمزنگاری و طراحی MTProto را «دیوار آزادی دیجیتال» می‌نامد.

5️⃣ پول و قدرت ابزارند، نه هدف — او از مدل‌های انحصاری و کمیسیون‌های اپل و گوگل انتقاد می‌کند و تأکید دارد که ثروت نباید آزادی را محدود کند.

6️⃣ باور به فناوری آزاد مثل بیت‌کوین — بیت‌کوین را «نمادِ کاهش نیاز به اعتماد به واسطه‌ها و آزادی مالی» می‌داند؛ از پروژه TON به‌عنوان زیربنای اقتصاد آزاد تلگرام یاد می‌کند.

7️⃣ نگاه فلسفی به زندگی و مرگ — از کافکا، شوپنهاور و «جاودانگی کوانتومی» می‌گوید؛ باور دارد انسان باید بدون ترس از مرگ، بر پایهٔ ارزش‌های خودش زندگی کند.
🤗2
🔵 عنوان مقاله
Apache DataFusion 50.0.0 Released (6 minute read)

🟢 خلاصه مقاله:
Apache DataFusion نسخه 50.0.0 با تمرکز بر بهبود کارایی و تجربه تحلیلی منتشر شد. مهم‌ترین بهبودها شامل dynamic filter pushdown برای inner hash joins است که با انتقال فیلترهای حاصل از join به مرحله اسکن، در بسیاری از سناریوها باعث جهش قابل‌توجه در کارایی اسکن می‌شود. همچنین عملگر nested loop join بازنویسی شده و اکنون تا ۵ برابر سریع‌تر اجرا می‌شود و تا ۹۹٪ حافظه کمتری مصرف می‌کند. در کنار این‌ها، قابلیت automatic Parquet metadata caching در پرس‌وجوهای نقطه‌ای (point queries) تا ۱۲ برابر سرعت بیشتر فراهم می‌کند.

از نظر قابلیت‌ها، پشتیبانی از disk-spilling sorts پایداری پردازش مرتب‌سازی را در داده‌های بزرگ با امکان استفاده از دیسک تضمین می‌کند. افزوده شدن عبارات QUALIFY و FILTER نیز نگارش پرس‌وجوهای تحلیلی پیشرفته—از جمله فیلترگذاری پس از window functions و فیلتر روی تجمیع‌ها—را ساده‌تر می‌سازد. علاوه بر این، سازگاری گسترده‌تر با Apache Spark انتقال و اجرای بارهای کاری موجود را با تغییرات کمتر ممکن می‌کند. مجموع این تغییرات، DataFusion 50.0.0 را برای تحلیل تعاملی، ETL و محیط‌های ابری حساس به هزینه به گزینه‌ای ارتقایافته و کارآمد تبدیل می‌کند.

#ApacheDataFusion #DataFusion #BigData #DataEngineering #QueryEngine #Parquet #SQL #ApacheSpark

🟣لینک مقاله:
https://datafusion.apache.org/blog/2025/09/29/datafusion-50.0.0?utm_source=tldrdata


👑 @Database_Academy
🔵 عنوان مقاله
Cumulative Statistics in Postgres 18

🟢 خلاصه مقاله:
این مطلب از Golang Weekly توضیح می‌دهد که cumulative statistics در Postgres 18 چگونه با تجمیع شمارنده‌ها و زمان‌ها در طول زمان، تصویری روندی از رفتار بار کاری ارائه می‌کند؛ تصویری که برای عیب‌یابی کارایی، برنامه‌ریزی ظرفیت و تعریف SLO بسیار مفیدتر از نماهای لحظه‌ای است. نویسنده انواع داده‌های قابل‌دسترسی از طریق نماها و اکستنشن‌ها (مثل آمار سطح کوئری، الگوهای دسترسی به جدول و ایندکس، I/O و فعالیت پس‌زمینه) را مرور می‌کند و تأکید دارد که در Postgres 18 ارائه و استفاده از این آمارها روان‌تر و قابل‌مقایسه‌تر شده است.

برای تیم‌های Go نیز رویکردی عملی پیشنهاد می‌شود: استخراج دوره‌ای آمار از طریق database/sql یا pgx، اسکن در ساختارها و ارسال به Prometheus تا داشبوردها و هشدارها بتوانند معیارهایی مانند تاخیر، نسبت cache hit و گروه‌های کوئری پرهزینه را در طول زمان دنبال کنند. نکات عملی شامل زمان‌بندی مناسب برای reset شمارنده‌ها (مثلاً همزمان با استقرار)، فیلتر کردن آمار بر اساس database یا application_name و اطمینان از سبک‌وزن بودن کوئری‌های مانیتورینگ است. ترکیب این قابلیت‌ها با جمع‌آوری سبک در Go راهی پایدار برای یافتن گلوگاه‌ها و حفظ کارایی در تکامل سیستم فراهم می‌کند.

#Postgres #PostgreSQL #CumulativeStatistics #DatabasePerformance #Observability #Go #Golang #Monitoring

🟣لینک مقاله:
https://postgresweekly.com/link/175101/web


👑 @Database_Academy
🔵 عنوان مقاله
How the COPY Command Gets More User Friendly in Postgres 18

🟢 خلاصه مقاله:
به‌روزرسانی‌های Postgres 18 بر بهبود تجربه کاربری تمرکز دارد؛ از جمله آسان‌تر و ایمن‌تر شدن کار با دستور COPY. هدف این است که پیام‌های خطا در مواجهه با ناسازگاری ستون‌ها، مسائل کدگذاری یا ردیف‌های CSV معیوب شفاف‌تر و قابل اقدام‌تر شوند، گزینه‌های رایج (مثل کار با هدرها و CSV) رفتار پیش‌فرض قابل‌اعتمادتری داشته باشند، و جریان‌های کاری واردسازی انبوه با امکان نادیده‌گرفتن یا ثبت ردیف‌های خطادار اصطکاک کمتری داشته باشند. همچنین همگرایی رفتار بین COPY سمت سرور و copy در psql و شفافیت بیشتر در مجوزها و متن خطاها به پیش‌بینی‌پذیری و عیب‌یابی سریع‌تر کمک می‌کند.
در کنار این‌ها، کار روی cumulative statistics نیز پررنگ است. همان‌طور که Deepak Mahto و Cédric Villemain توضیح می‌دهند، هدف، ارائه نمایی منسجم‌تر، کم‌هزینه‌تر و دانه‌درشت‌تر از رفتار سیستم در حوزه‌هایی مانند پرس‌وجو، I/O و waitهاست تا هم پایش آنی و هم برنامه‌ریزی ظرفیت ساده‌تر شود. برآیند این تغییرات، کاهش غافلگیری‌ها با پیش‌فرض‌های بهتر، بازخورد سریع‌تر هنگام خطا و مشاهده‌پذیری عمیق‌تر برای تنظیم کارایی در Postgres 18 است.

#Postgres18 #PostgreSQL #COPY #CumulativeStatistics #Database #Observability #DataEngineering #DX

🟣لینک مقاله:
https://postgresweekly.com/link/175100/web


👑 @Database_Academy
🙏1
🔵 عنوان مقاله
Apache Gravitino (GitHub Repo)

🟢 خلاصه مقاله:
Apache Gravitino با انتشار نسخه 1.0 به‌عنوان یک جایگزین متن‌باز برای Unity Catalog معرفی شده که به‌جای جایگزینی، در کنار Unity Catalog و حاکمیت داده Snowflake کار می‌کند. این پروژه به‌عنوان یک لایه بالادستی بر چندین سیستم عمل می‌کند و یک نمای یکپارچه از دارایی‌های داده و ML فراهم می‌سازد. Gravitino روی اکوسیستم‌های متنوعی مثل Hive، Iceberg، Kafka، S3 و رجیستری‌های مدل ML کار می‌کند و کانکتورهای آماده برای پلتفرم‌های مختلف و MCP servers دارد. هدف آن، یکپارچه‌سازی کشف، کاتالوگ و مدیریت حاکمیت در محیط‌های ناهمگون است، بدون ایجاد قفل فناوری و در عین حال قابل استفاده در کنار ابزارهای موجود. این پروژه از طریق GitHub در دسترس است.

#ApacheGravitino #DataCatalog #DataGovernance #OpenSource #UnityCatalog #Kafka #Iceberg #S3

🟣لینک مقاله:
https://github.com/apache/gravitino?utm_source=tldrdata


👑 @Database_Academy