🔵 عنوان مقاله
Getting Excited About Postgres 18
🟢 خلاصه مقاله:
Postgres 18 تا یک هفته دیگر نهایی میشود و مهمترین ویژگی تازهاش asynchronous I/O است؛ قابلیتی که امکان انجام عملیات خواندن/نوشتن بدون مسدود کردن مسیر اجرای اصلی را میدهد و در بسیاری از سناریوها باعث افزایش توان عملیاتی و کاهش تأخیر میشود. این تغییر برای بارهای کاری پرتراکنش، سیستمهای ترکیبی OLTP/تحلیلی و پردازشهای سنگین I/O نوید عملکرد روانتر و پایدارتر را میدهد. با انتشار نسخه نهایی، انتظار میرود راهنماها و بهترینعملها برای بهرهگیری از این بهبودها ارائه شود و تیمها بتوانند با تنظیمات مناسب، از جهش عملکردی Postgres 18 بهره ببرند.
#Postgres18 #Postgres #PostgreSQL #AsynchronousIO #Database #Performance #OpenSource
🟣لینک مقاله:
https://postgresweekly.com/link/174461/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Getting Excited About Postgres 18
🟢 خلاصه مقاله:
Postgres 18 تا یک هفته دیگر نهایی میشود و مهمترین ویژگی تازهاش asynchronous I/O است؛ قابلیتی که امکان انجام عملیات خواندن/نوشتن بدون مسدود کردن مسیر اجرای اصلی را میدهد و در بسیاری از سناریوها باعث افزایش توان عملیاتی و کاهش تأخیر میشود. این تغییر برای بارهای کاری پرتراکنش، سیستمهای ترکیبی OLTP/تحلیلی و پردازشهای سنگین I/O نوید عملکرد روانتر و پایدارتر را میدهد. با انتشار نسخه نهایی، انتظار میرود راهنماها و بهترینعملها برای بهرهگیری از این بهبودها ارائه شود و تیمها بتوانند با تنظیمات مناسب، از جهش عملکردی Postgres 18 بهره ببرند.
#Postgres18 #Postgres #PostgreSQL #AsynchronousIO #Database #Performance #OpenSource
🟣لینک مقاله:
https://postgresweekly.com/link/174461/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Crunchy Data
Get Excited About Postgres 18 | Crunchy Data Blog
New to Postgres 18, features like asynchronous i/o, uuid v7, b-tree skip scans, and virtual generated columns.
❤1
🔵 عنوان مقاله
"database is not accepting commands": What Now?
🟢 خلاصه مقاله:
وقتی پیام "database is not accepting commands" ظاهر میشود، در سیستمهایی مثل PostgreSQL معمولاً بهمعنای ورود به حالت حفاظتی برای جلوگیری از Transaction ID Wraparound است؛ یعنی پایگاه داده برای محافظت از خود جلوی عملیات عادی را گرفته و باید فوراً اقدام کنید. توصیه Laurenz این است که ابتدا ترافیک نوشتن را کم یا متوقف کنید، با دسترسی کافی وصل شوید و روی جداول/پایگاههای در خطر VACUUM و در صورت نیاز VACUUM FREEZE اجرا کنید؛ اگر اتصال معمولی ممکن نیست، از حالت نگهداری محدود استفاده کنید تا relfrozenxid ایمن جلو برود. برای پیشگیری، پایش منظم سن تراکنشها، تنظیم درست autovacuum، زمانبندی VACUUM برای جداول بزرگ، کوتاه نگهداشتن تراکنشهای طولانی و برنامهریزی نگهداری دورهای ضروری است. از روشهای "نامطلوب" مثل غیرفعالکردن autovacuum، بالا بردن بیهدف autovacuum_freeze_max_age یا سرکوب هشدارها برای به تعویق انداختن مشکل پرهیز کنید؛ اینها خطر را بیشتر میکنند. راهحل واقعی، نگهداری منظم، پایش و پیکربندی درست است، نه عقبانداختن مشکل.
#PostgreSQL #TransactionIDWraparound #Autovacuum #VACUUM #DatabaseMaintenance #DBA #IncidentResponse
🟣لینک مقاله:
https://postgresweekly.com/link/174454/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
"database is not accepting commands": What Now?
🟢 خلاصه مقاله:
وقتی پیام "database is not accepting commands" ظاهر میشود، در سیستمهایی مثل PostgreSQL معمولاً بهمعنای ورود به حالت حفاظتی برای جلوگیری از Transaction ID Wraparound است؛ یعنی پایگاه داده برای محافظت از خود جلوی عملیات عادی را گرفته و باید فوراً اقدام کنید. توصیه Laurenz این است که ابتدا ترافیک نوشتن را کم یا متوقف کنید، با دسترسی کافی وصل شوید و روی جداول/پایگاههای در خطر VACUUM و در صورت نیاز VACUUM FREEZE اجرا کنید؛ اگر اتصال معمولی ممکن نیست، از حالت نگهداری محدود استفاده کنید تا relfrozenxid ایمن جلو برود. برای پیشگیری، پایش منظم سن تراکنشها، تنظیم درست autovacuum، زمانبندی VACUUM برای جداول بزرگ، کوتاه نگهداشتن تراکنشهای طولانی و برنامهریزی نگهداری دورهای ضروری است. از روشهای "نامطلوب" مثل غیرفعالکردن autovacuum، بالا بردن بیهدف autovacuum_freeze_max_age یا سرکوب هشدارها برای به تعویق انداختن مشکل پرهیز کنید؛ اینها خطر را بیشتر میکنند. راهحل واقعی، نگهداری منظم، پایش و پیکربندی درست است، نه عقبانداختن مشکل.
#PostgreSQL #TransactionIDWraparound #Autovacuum #VACUUM #DatabaseMaintenance #DBA #IncidentResponse
🟣لینک مقاله:
https://postgresweekly.com/link/174454/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
CYBERTEC PostgreSQL | Services & Support
How to handle "database is not accepting commands"
I'll explain how to handle the dreaded error message "database is not accepting commands" and alert you to the responses you should avoid.
🔵 عنوان مقاله
pgAudit 18.0: An Audit Logging Extension
🟢 خلاصه مقاله:
این نسخه جدید از pgAudit با پشتیبانی کامل از Postgres 18 منتشر شده و ثبت لاگهای حسابرسی از فعالیتهای پایگاهداده را بدون وقفه برای تیمهایی که در حال ارتقا هستند امکانپذیر میکند. pgAudit با تولید لاگهای ساختیافته از رویدادهایی مانند اجرای دستورات SQL، تغییر نقشها و دسترسی به اشیای حساس، به سازمانها کمک میکند الزامات انطباق در حوزههای دولتی، مالی و استانداردهای ISO را برآورده کنند. ادغام با لاگینگ بومی Postgres و تنظیمپذیری دامنه و جزئیات ثبت، تعادلی بین پوشش، کارایی و هزینه ذخیرهسازی فراهم میکند و انتقال سیاستهای حسابرسی به Postgres 18 را ساده و پایدار نگه میدارد.
#Postgres #pgAudit #AuditLogging #Compliance #Security #DataGovernance #ISO
🟣لینک مقاله:
https://postgresweekly.com/link/174766/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
pgAudit 18.0: An Audit Logging Extension
🟢 خلاصه مقاله:
این نسخه جدید از pgAudit با پشتیبانی کامل از Postgres 18 منتشر شده و ثبت لاگهای حسابرسی از فعالیتهای پایگاهداده را بدون وقفه برای تیمهایی که در حال ارتقا هستند امکانپذیر میکند. pgAudit با تولید لاگهای ساختیافته از رویدادهایی مانند اجرای دستورات SQL، تغییر نقشها و دسترسی به اشیای حساس، به سازمانها کمک میکند الزامات انطباق در حوزههای دولتی، مالی و استانداردهای ISO را برآورده کنند. ادغام با لاگینگ بومی Postgres و تنظیمپذیری دامنه و جزئیات ثبت، تعادلی بین پوشش، کارایی و هزینه ذخیرهسازی فراهم میکند و انتقال سیاستهای حسابرسی به Postgres 18 را ساده و پایدار نگه میدارد.
#Postgres #pgAudit #AuditLogging #Compliance #Security #DataGovernance #ISO
🟣لینک مقاله:
https://postgresweekly.com/link/174766/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
GitHub
GitHub - pgaudit/pgaudit: PostgreSQL Audit Extension
PostgreSQL Audit Extension. Contribute to pgaudit/pgaudit development by creating an account on GitHub.
🔵 عنوان مقاله
Understanding WAL and Optimizing It with a Dedicated Disk
🟢 خلاصه مقاله:
WAL روشی کلیدی برای پایداری و ریکاوری پس از کرش است: تغییرات ابتدا به شکل ترتیبی در یک لاگ نوشته و بهصورت پایدار flush میشوند و سپس در صورت نیاز روی دادههای اصلی اعمال یا بازپخش میگردند. گلوگاه اصلی معمولاً همان fsync/flush است که باید دوام را تضمین کند. وقتی WAL روی همان دیسکی باشد که فایلهای داده نیز روی آن I/O تصادفی انجام میدهند، وقفه و رقابت صف موجب جهش در تاخیر بهویژه در p99/p999 میشود. قرار دادن WAL روی یک دیسک اختصاصی این مسیر حساس را ایزوله میکند، الگوی نوشتن ترتیبی را حفظ میکند و تاخیر را قابل پیشبینیتر و بهرهوری را بیشتر میسازد.
در عمل میتوان از یک NVMe مستقل یا یک ولوم ابری جداگانه استفاده کرد؛ فایلسیستمهای رایج مانند ext4 یا XFS با تنظیمات ساده و بدون سربار اضافی مناسباند و باید اطمینان داشت که semantics مربوط به write barrier و cache flush مطابق نیازهای دوام هستند. از منظر Golang، بهینهسازی WAL معمولاً با سگمنتبندی و پیشاختصاص فایلها، نوشتن همتراز با بلوک، checksum، batch کردن درخواستها، group commit با آستانه زمانی/حجمی، استفاده سنجیده از O_DSYNC/fdatasync و مدیریت دقیق بافر انجام میشود. اندازهگیری دقیق قبل و بعد (میانگین و p99 fsync، نرخ نوشتن، و زمان انتهابهانتها) مشخص میکند آیا دیسک اختصاصی هزینهاش را جبران میکند یا خیر؛ برای بارهای نوشتاری بالا یا SLA سختگیرانه، این ایزولاسیون معمولاً ارزشمند است.
#WAL #Golang #Databases #Performance #Storage #NVMe #SystemsDesign
🟣لینک مقاله:
https://postgresweekly.com/link/174762/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Understanding WAL and Optimizing It with a Dedicated Disk
🟢 خلاصه مقاله:
WAL روشی کلیدی برای پایداری و ریکاوری پس از کرش است: تغییرات ابتدا به شکل ترتیبی در یک لاگ نوشته و بهصورت پایدار flush میشوند و سپس در صورت نیاز روی دادههای اصلی اعمال یا بازپخش میگردند. گلوگاه اصلی معمولاً همان fsync/flush است که باید دوام را تضمین کند. وقتی WAL روی همان دیسکی باشد که فایلهای داده نیز روی آن I/O تصادفی انجام میدهند، وقفه و رقابت صف موجب جهش در تاخیر بهویژه در p99/p999 میشود. قرار دادن WAL روی یک دیسک اختصاصی این مسیر حساس را ایزوله میکند، الگوی نوشتن ترتیبی را حفظ میکند و تاخیر را قابل پیشبینیتر و بهرهوری را بیشتر میسازد.
در عمل میتوان از یک NVMe مستقل یا یک ولوم ابری جداگانه استفاده کرد؛ فایلسیستمهای رایج مانند ext4 یا XFS با تنظیمات ساده و بدون سربار اضافی مناسباند و باید اطمینان داشت که semantics مربوط به write barrier و cache flush مطابق نیازهای دوام هستند. از منظر Golang، بهینهسازی WAL معمولاً با سگمنتبندی و پیشاختصاص فایلها، نوشتن همتراز با بلوک، checksum، batch کردن درخواستها، group commit با آستانه زمانی/حجمی، استفاده سنجیده از O_DSYNC/fdatasync و مدیریت دقیق بافر انجام میشود. اندازهگیری دقیق قبل و بعد (میانگین و p99 fsync، نرخ نوشتن، و زمان انتهابهانتها) مشخص میکند آیا دیسک اختصاصی هزینهاش را جبران میکند یا خیر؛ برای بارهای نوشتاری بالا یا SLA سختگیرانه، این ایزولاسیون معمولاً ارزشمند است.
#WAL #Golang #Databases #Performance #Storage #NVMe #SystemsDesign
🟣لینک مقاله:
https://postgresweekly.com/link/174762/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Stormatics
PostgreSQL WAL: Boost Performance with a Dedicated Disk
Learn how to speed up PostgreSQL by moving WAL to its own disk. Cut I/O contention and improve write performance safely.
❤1
🔵 عنوان مقاله
Polars at Decathlon: Ready to Play? (5 minute read)
🟢 خلاصه مقاله:
Decathlon با بهکارگیری Polars، پیچیدگی و هزینه زیرساخت داده را کاهش داد. آنها برای پایپلاینهایی با ورودی کمتر از 50 GiB، Polars را جایگزین pandas کردند و در کنار آن، Spark را برای موارد مناسب حفظ نمودند. موتور استریمینگ جدید Polars امکان اجرای پایپلاینهایی تا 1 TiB را تنها با 10 GiB RAM و 4 CPU فراهم کرد؛ در حالیکه اجرای درونحافظهای قبلی به حدود 100 GiB RAM نیاز داشت. نتیجه این تغییر، هزینه محاسباتی افزایشی نزدیک به صفر، اجرای بسیار سریعتر کارها و سادهتر شدن توسعه و نگهداری پایپلاینها برای بارهای کاری مناسب بود.
#Polars
#Decathlon
#DataPipelines
#StreamingEngine
#Spark
#Pandas
#CostOptimization
🟣لینک مقاله:
https://pola.rs/posts/case-decathlon/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Polars at Decathlon: Ready to Play? (5 minute read)
🟢 خلاصه مقاله:
Decathlon با بهکارگیری Polars، پیچیدگی و هزینه زیرساخت داده را کاهش داد. آنها برای پایپلاینهایی با ورودی کمتر از 50 GiB، Polars را جایگزین pandas کردند و در کنار آن، Spark را برای موارد مناسب حفظ نمودند. موتور استریمینگ جدید Polars امکان اجرای پایپلاینهایی تا 1 TiB را تنها با 10 GiB RAM و 4 CPU فراهم کرد؛ در حالیکه اجرای درونحافظهای قبلی به حدود 100 GiB RAM نیاز داشت. نتیجه این تغییر، هزینه محاسباتی افزایشی نزدیک به صفر، اجرای بسیار سریعتر کارها و سادهتر شدن توسعه و نگهداری پایپلاینها برای بارهای کاری مناسب بود.
#Polars
#Decathlon
#DataPipelines
#StreamingEngine
#Spark
#Pandas
#CostOptimization
🟣لینک مقاله:
https://pola.rs/posts/case-decathlon/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
pola.rs
Polars at Decathlon: Ready to Play?
DataFrames for the new era
❤1
🔵 عنوان مقاله
Implementing IAM as a Data Engineer: A Practical Example (7 minute read)
🟢 خلاصه مقاله:
** اجرای IAM برای Azure Storage با تعریف دقیق پرسونـاها، نگاشت مجوزهای لازم و خودکارسازی تخصیص نقشها با Terraform آغاز میشود. در این رویکرد، اصل Principle of Least Privilege محور است؛ یعنی هر هویت فقط به حداقل دسترسی لازم، آن هم در کوچکترین دامنه ممکن (مثل سطح کانتینر)، مجهز میشود. برای تعادل امنیت و سادگی عملیاتی، از نقشهای داخلی Azure مانند Storage Blob Data Reader برای دسترسی فقطخواندنی و Storage Blob Data Contributor برای نوشتن و بهروزرسانی استفاده میشود. خودکارسازی IAM با Infrastructure as Code (Terraform) باعث میشود دسترسیها مقیاسپذیر، قابل ممیزی و بهسادگی نگهداری شوند و ریسک حسابهای بیشازحد مجاز و پیکربندیهای موردی بهشدت کاهش یابد.
#IAM #Azure #AzureStorage #Terraform #LeastPrivilege #DataEngineering #InfrastructureAsCode #DevSecOps
🟣لینک مقاله:
https://atlonglastanalytics.substack.com/p/implementing-iam-as-a-data-engineer?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Implementing IAM as a Data Engineer: A Practical Example (7 minute read)
🟢 خلاصه مقاله:
** اجرای IAM برای Azure Storage با تعریف دقیق پرسونـاها، نگاشت مجوزهای لازم و خودکارسازی تخصیص نقشها با Terraform آغاز میشود. در این رویکرد، اصل Principle of Least Privilege محور است؛ یعنی هر هویت فقط به حداقل دسترسی لازم، آن هم در کوچکترین دامنه ممکن (مثل سطح کانتینر)، مجهز میشود. برای تعادل امنیت و سادگی عملیاتی، از نقشهای داخلی Azure مانند Storage Blob Data Reader برای دسترسی فقطخواندنی و Storage Blob Data Contributor برای نوشتن و بهروزرسانی استفاده میشود. خودکارسازی IAM با Infrastructure as Code (Terraform) باعث میشود دسترسیها مقیاسپذیر، قابل ممیزی و بهسادگی نگهداری شوند و ریسک حسابهای بیشازحد مجاز و پیکربندیهای موردی بهشدت کاهش یابد.
#IAM #Azure #AzureStorage #Terraform #LeastPrivilege #DataEngineering #InfrastructureAsCode #DevSecOps
🟣لینک مقاله:
https://atlonglastanalytics.substack.com/p/implementing-iam-as-a-data-engineer?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Substack
Implementing IAM as a Data Engineer: A Practical Example
A practical case study walking you through how I design an IAM solution by combining the use case with personas.
❤1
🔵 عنوان مقاله
Compiling Postgres to WebAssembly with PGlite
🟢 خلاصه مقاله:
این ارائه ۳۰ دقیقهای از Sam Willis نشان میدهد چگونه میتوان Postgres را برای اجرای مستقیم در WebAssembly کامپایل کرد و PGlite چهطور این ایده را به راهکاری کاربردی تبدیل میکند. انگیزه اصلی، اجرای دیتابیس در مرورگر یا محیطهای edge است تا بتوان به اپهای آفلاین، دموهای قابل تکرار، تست سریع و اجرای ایمن و ایزوله بدون نیاز به سرور دست یافت.
در ادامه، مسیر فنی از کد Cِ Postgres تا WebAssembly توضیح داده میشود: محدودیتهای WASI، نبود fork و برخی سیستمکالهای POSIX، شبیهسازی فایلسیستم و شیوههای معمول برای پایداری داده در مرورگر (مثل IndexedDB یا OPFS) یا فضای ذخیرهسازی معادل در edge. همچنین بازطراحی همزمانی بدون مدل چندپردازه، بستهبندی باینری برای کاهش زمان شروع، و مدیریت کارهای پسزمینه بررسی میشود.
از منظر توسعهدهنده، PGlite یک API ساده برای راهاندازی سریع، اجرای SQL، مهاجرتها و seed داده ارائه میکند و سناریوهایی مثل تحلیل سمتکلاینت، مستندسازی تعاملی، تست انتهابهانتها بدون سرور، و آموزش را پوشش میدهد. ادغام با ابزارها و runtimeهایی مانند Node و Deno نیز مطرح است تا همان artifactِ Wasm در محیطهای مختلف پایدار اجرا شود.
در نهایت، محدودیتها و راهکارها شفاف بیان میشوند: اندازه باینری، تأخیر شروع، سقف حافظه مرورگر، کارایی I/O و چالشهای مربوط به extensions یا کارگران پسزمینه؛ بههمراه راهبردهایی مانند snapshot آماده، بارگذاری تنبل، و استفاده از Web Workers. جمعبندی ارائه میکند که PGlite در کجا انتخاب مناسبی است—از نمونهسازی سریع و ویژگیهای آفلاین تا پردازش ایمن سمتکاربر و CI قابل اتکا—و چگونه میتوان آغاز به کار کرد.
#WebAssembly #Postgres #PGlite #WASM #WASI #EdgeComputing #BrowserDatabases #DeveloperExperience
🟣لینک مقاله:
https://postgresweekly.com/link/174466/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Compiling Postgres to WebAssembly with PGlite
🟢 خلاصه مقاله:
این ارائه ۳۰ دقیقهای از Sam Willis نشان میدهد چگونه میتوان Postgres را برای اجرای مستقیم در WebAssembly کامپایل کرد و PGlite چهطور این ایده را به راهکاری کاربردی تبدیل میکند. انگیزه اصلی، اجرای دیتابیس در مرورگر یا محیطهای edge است تا بتوان به اپهای آفلاین، دموهای قابل تکرار، تست سریع و اجرای ایمن و ایزوله بدون نیاز به سرور دست یافت.
در ادامه، مسیر فنی از کد Cِ Postgres تا WebAssembly توضیح داده میشود: محدودیتهای WASI، نبود fork و برخی سیستمکالهای POSIX، شبیهسازی فایلسیستم و شیوههای معمول برای پایداری داده در مرورگر (مثل IndexedDB یا OPFS) یا فضای ذخیرهسازی معادل در edge. همچنین بازطراحی همزمانی بدون مدل چندپردازه، بستهبندی باینری برای کاهش زمان شروع، و مدیریت کارهای پسزمینه بررسی میشود.
از منظر توسعهدهنده، PGlite یک API ساده برای راهاندازی سریع، اجرای SQL، مهاجرتها و seed داده ارائه میکند و سناریوهایی مثل تحلیل سمتکلاینت، مستندسازی تعاملی، تست انتهابهانتها بدون سرور، و آموزش را پوشش میدهد. ادغام با ابزارها و runtimeهایی مانند Node و Deno نیز مطرح است تا همان artifactِ Wasm در محیطهای مختلف پایدار اجرا شود.
در نهایت، محدودیتها و راهکارها شفاف بیان میشوند: اندازه باینری، تأخیر شروع، سقف حافظه مرورگر، کارایی I/O و چالشهای مربوط به extensions یا کارگران پسزمینه؛ بههمراه راهبردهایی مانند snapshot آماده، بارگذاری تنبل، و استفاده از Web Workers. جمعبندی ارائه میکند که PGlite در کجا انتخاب مناسبی است—از نمونهسازی سریع و ویژگیهای آفلاین تا پردازش ایمن سمتکاربر و CI قابل اتکا—و چگونه میتوان آغاز به کار کرد.
#WebAssembly #Postgres #PGlite #WASM #WASI #EdgeComputing #BrowserDatabases #DeveloperExperience
🟣لینک مقاله:
https://postgresweekly.com/link/174466/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
YouTube
"Compiling Postgres to WASM with PGlite" with Sam Willis
This talk introduces our investigations into creating a lightweight WASM build of Postgres. It covers our objectives for the project and how we approached the work. It talks through some of the challenges we faced, lessons we've learned and opportunities…
🔵 عنوان مقاله
The End of Digital Analytics (20 minute read)
🟢 خلاصه مقاله:
**پایان مدل سنتی Digital analytics مبتنی بر کلیک و داشبوردهای سبک GA فرا رسیده است؛ حذف کوکیهای شخص ثالث، محدودیتهای حریم خصوصی و ضعفهای GA4 باعث شکستن انتساب و بیاعتمادی به گزارشها شدهاند. دو جانشین در حال رشدند: 1) بهینهسازی عملیاتی تجربه مشتری با تمرکز بر سفرهای کلیدی محصول، کاهش اصطکاک، افزایش Activation و اجرای آزمایشها و تریگرهای رفتاری؛ 2) هوش درآمدی مبتنی بر انبار داده که رفتار کاربران را به نتایج مالی پیوند میدهد. دادهها در Snowflake/BigQuery/Databricks یکپارچه میشوند و با یک لایه معنایی به سیگنالهای عملیاتی مانند ریسک Churn، تمایل به Expansion و LTV تبدیل میشوند. وظیفه مهندسان داده روشن است: مدلهای Warehouse-native با dbt، همبندی هویت دقیق (Deterministic/Probabilistic با رعایت حریم خصوصی)، و پایپلاینهای رویدادی بازپردازشی برای مدیریت دادههای دیررس و نسخهبندی. سپس این سیگنالها از طریق Reverse ETL و ابزارهای فعالسازی مثل Braze/Iterable/Customer.io و همچنین CRM به عملیات تزریق میشوند و اثرشان با Holdout/Uplift سنجیده میشود. نتیجه: Analytics از گزارشدهی منفعل به تصمیمسازی پیوسته و مرتبط با درآمد تغییر ماهیت میدهد.
#DigitalAnalytics #GA4 #DataEngineering #CustomerExperience #RevenueIntelligence #DataWarehouse #Attribution
🟣لینک مقاله:
https://timodechau.com/the-end-of-digital-analytics/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
The End of Digital Analytics (20 minute read)
🟢 خلاصه مقاله:
**پایان مدل سنتی Digital analytics مبتنی بر کلیک و داشبوردهای سبک GA فرا رسیده است؛ حذف کوکیهای شخص ثالث، محدودیتهای حریم خصوصی و ضعفهای GA4 باعث شکستن انتساب و بیاعتمادی به گزارشها شدهاند. دو جانشین در حال رشدند: 1) بهینهسازی عملیاتی تجربه مشتری با تمرکز بر سفرهای کلیدی محصول، کاهش اصطکاک، افزایش Activation و اجرای آزمایشها و تریگرهای رفتاری؛ 2) هوش درآمدی مبتنی بر انبار داده که رفتار کاربران را به نتایج مالی پیوند میدهد. دادهها در Snowflake/BigQuery/Databricks یکپارچه میشوند و با یک لایه معنایی به سیگنالهای عملیاتی مانند ریسک Churn، تمایل به Expansion و LTV تبدیل میشوند. وظیفه مهندسان داده روشن است: مدلهای Warehouse-native با dbt، همبندی هویت دقیق (Deterministic/Probabilistic با رعایت حریم خصوصی)، و پایپلاینهای رویدادی بازپردازشی برای مدیریت دادههای دیررس و نسخهبندی. سپس این سیگنالها از طریق Reverse ETL و ابزارهای فعالسازی مثل Braze/Iterable/Customer.io و همچنین CRM به عملیات تزریق میشوند و اثرشان با Holdout/Uplift سنجیده میشود. نتیجه: Analytics از گزارشدهی منفعل به تصمیمسازی پیوسته و مرتبط با درآمد تغییر ماهیت میدهد.
#DigitalAnalytics #GA4 #DataEngineering #CustomerExperience #RevenueIntelligence #DataWarehouse #Attribution
🟣لینک مقاله:
https://timodechau.com/the-end-of-digital-analytics/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Timodechau
The End of Digital Analytics | Timo Dechau
as we know it.
When Amplitude announced their new chief evangelist some days ago, most people saw a standard hire - congratulations comments galore. I saw something different: a clear signal that digital analytics as we know it is fundamentally over.
This…
When Amplitude announced their new chief evangelist some days ago, most people saw a standard hire - congratulations comments galore. I saw something different: a clear signal that digital analytics as we know it is fundamentally over.
This…
🔵 عنوان مقاله
Tuning Asynchronous I/O (AIO) in Postgres 18
🟢 خلاصه مقاله:
در Postgres 18 قابلیت AIO اضافه شده که امکان ارسال همزمان عملیات خواندن/نوشتن بدون بلوکهکردن پردازشها را میدهد. نتیجهاش استفاده بهتر از CPU، افزایش توان عبوری و کاهش لگهای انتهای توزیع، بهویژه روی SSD/NVMe است. برای تیونینگ، از مقدارهای پیشفرض شروع کنید و با اندازهگیری دقیق جلو بروید؛ عمق صف مهمترین اهرم است: عمق کم پهناباند را هدر میدهد و عمق زیاد تاخیر را بالا میبرد. اندازهی دستههای ارسال، shared_buffers، و ریتم نوشتنهای WAL/چکپوینت باید با نوع کار (OLTP در برابر تحلیلمحور) و نوع دیسک تنظیم شوند. با pg_stat_io و رویدادهای انتظار در Postgres و ابزارهای سیستمعاملی مثل iostat، perf و pidstat پ99 تاخیر، صفها و استفادهی دیسک/CPU را پایش کنید. تفاوتهای پلتفرمی مهماند: روی Linux با io_uring، فایلسیستمها (XFS/ext4/ZFS) و دیسکهای ابری/شبکهای رفتار متفاوتی دارند؛ HDD به عمق صف محافظهکارانهتر نیاز دارد و NVMe از عمق بیشتر سود میبرد. در تمام مراحل، دوام (fsync، synchronous_commit) را با تست خرابی و بازیابی راستیآزمایی کنید. رویکرد مرحلهای—بالقوه با pgbench—و تنظیم تدریجی عمق صف و پارامترهای نوشتن، معمولاً بهترین کارایی پایدار را بههمراه میآورد.
#Postgres #AIO #DatabasePerformance #io_uring #WAL #NVMe #Linux #Postgres18
🟣لینک مقاله:
https://postgresweekly.com/link/174756/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Tuning Asynchronous I/O (AIO) in Postgres 18
🟢 خلاصه مقاله:
در Postgres 18 قابلیت AIO اضافه شده که امکان ارسال همزمان عملیات خواندن/نوشتن بدون بلوکهکردن پردازشها را میدهد. نتیجهاش استفاده بهتر از CPU، افزایش توان عبوری و کاهش لگهای انتهای توزیع، بهویژه روی SSD/NVMe است. برای تیونینگ، از مقدارهای پیشفرض شروع کنید و با اندازهگیری دقیق جلو بروید؛ عمق صف مهمترین اهرم است: عمق کم پهناباند را هدر میدهد و عمق زیاد تاخیر را بالا میبرد. اندازهی دستههای ارسال، shared_buffers، و ریتم نوشتنهای WAL/چکپوینت باید با نوع کار (OLTP در برابر تحلیلمحور) و نوع دیسک تنظیم شوند. با pg_stat_io و رویدادهای انتظار در Postgres و ابزارهای سیستمعاملی مثل iostat، perf و pidstat پ99 تاخیر، صفها و استفادهی دیسک/CPU را پایش کنید. تفاوتهای پلتفرمی مهماند: روی Linux با io_uring، فایلسیستمها (XFS/ext4/ZFS) و دیسکهای ابری/شبکهای رفتار متفاوتی دارند؛ HDD به عمق صف محافظهکارانهتر نیاز دارد و NVMe از عمق بیشتر سود میبرد. در تمام مراحل، دوام (fsync، synchronous_commit) را با تست خرابی و بازیابی راستیآزمایی کنید. رویکرد مرحلهای—بالقوه با pgbench—و تنظیم تدریجی عمق صف و پارامترهای نوشتن، معمولاً بهترین کارایی پایدار را بههمراه میآورد.
#Postgres #AIO #DatabasePerformance #io_uring #WAL #NVMe #Linux #Postgres18
🟣لینک مقاله:
https://postgresweekly.com/link/174756/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Tomas Vondra
Tuning AIO in PostgreSQL 18
One of the significant improvements in PG18 is AIO. What are some basic tuning recommendations?
🔵 عنوان مقاله
How to Implement the Outbox Pattern in Go and Postgres
🟢 خلاصه مقاله:
** الگوی Outbox روشی عملی برای حذف مشکل دونوشتن و تضمین تحویل مطمئن پیامهاست. در این روش، تغییرات دامنه و یک رکورد رویداد در جدول outbox داخل همان تراکنش Postgres ذخیره میشوند؛ سپس یک پردازشگر در Go رویدادها را از جدول خوانده و به پیامرسانهایی مانند Kafka یا RabbitMQ منتشر میکند. با استفاده از فیلدهایی مانند ID، کلید موجودیت، نوع رویداد، payload به صورت JSONB، وضعیت/تعداد تلاش، و زمانها، همگامی داده و پیام تضمین میشود. پردازشگر با انتخاب دستههای کوچک و بهکارگیری SELECT … FOR UPDATE SKIP LOCKED از رقابت جلوگیری کرده، پس از انتشار وضعیت را به «پردازششده» تغییر میدهد و شکستها را با backoff و صف خطا مدیریت میکند. این الگو تحویل حداقل-یکبار را فراهم میکند و با مصرفکنندههای idempotent میتوان به پردازش مؤثرِ یکباره رسید. برای کارایی بهتر، ایندکسگذاری بر status و created_at، پارتیشنبندی جدول، حفظ ترتیب بر اساس کلید موجودیت و نظارت بر عمق صف و تأخیر انتشار توصیه میشود. بهعنوان جایگزین، CDC با منبعخوانی منطقی Postgres (مثلاً Debezium) میتواند بهجای polling استفاده شود، هرچند پیچیدگی عملیاتی بیشتری دارد. با آزمونهای یکپارچه، مدیریت مهاجرتهای شِما و پاکسازی دادههای پردازششده، پیادهسازی در Go و Postgres به پلی پایدار بین پایگاهداده و سامانه پیامرسان تبدیل میشود؛ همان رویکردی که Alex Pliutau در معرفی پیادهسازی Outbox با Go و Postgres بر آن تأکید دارد.
#OutboxPattern #Go #Postgres #Microservices #EventDriven #TransactionalOutbox #Reliability #Messaging
🟣لینک مقاله:
https://postgresweekly.com/link/174464/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
How to Implement the Outbox Pattern in Go and Postgres
🟢 خلاصه مقاله:
** الگوی Outbox روشی عملی برای حذف مشکل دونوشتن و تضمین تحویل مطمئن پیامهاست. در این روش، تغییرات دامنه و یک رکورد رویداد در جدول outbox داخل همان تراکنش Postgres ذخیره میشوند؛ سپس یک پردازشگر در Go رویدادها را از جدول خوانده و به پیامرسانهایی مانند Kafka یا RabbitMQ منتشر میکند. با استفاده از فیلدهایی مانند ID، کلید موجودیت، نوع رویداد، payload به صورت JSONB، وضعیت/تعداد تلاش، و زمانها، همگامی داده و پیام تضمین میشود. پردازشگر با انتخاب دستههای کوچک و بهکارگیری SELECT … FOR UPDATE SKIP LOCKED از رقابت جلوگیری کرده، پس از انتشار وضعیت را به «پردازششده» تغییر میدهد و شکستها را با backoff و صف خطا مدیریت میکند. این الگو تحویل حداقل-یکبار را فراهم میکند و با مصرفکنندههای idempotent میتوان به پردازش مؤثرِ یکباره رسید. برای کارایی بهتر، ایندکسگذاری بر status و created_at، پارتیشنبندی جدول، حفظ ترتیب بر اساس کلید موجودیت و نظارت بر عمق صف و تأخیر انتشار توصیه میشود. بهعنوان جایگزین، CDC با منبعخوانی منطقی Postgres (مثلاً Debezium) میتواند بهجای polling استفاده شود، هرچند پیچیدگی عملیاتی بیشتری دارد. با آزمونهای یکپارچه، مدیریت مهاجرتهای شِما و پاکسازی دادههای پردازششده، پیادهسازی در Go و Postgres به پلی پایدار بین پایگاهداده و سامانه پیامرسان تبدیل میشود؛ همان رویکردی که Alex Pliutau در معرفی پیادهسازی Outbox با Go و Postgres بر آن تأکید دارد.
#OutboxPattern #Go #Postgres #Microservices #EventDriven #TransactionalOutbox #Reliability #Messaging
🟣لینک مقاله:
https://postgresweekly.com/link/174464/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
packagemain.tech
How to implement the Outbox pattern in Go and Postgres
How and why to use the Outbox pattern to build a robust event-driven system.
کنترل اجرای همزمان با Idempotency و Global Lock در Redis
یکی از چالشهای بزرگ در سیستمهای پرترافیک، اجرای همزمان (Concurrency) درخواستهاست. وقتی چند درخواست همزمان به یک سرویس حساس مثل پرداخت یا رزرو ارسال میشوند، احتمال ایجاد داده تکراری یا Race Condition بسیار بالاست.
راهکار من: ترکیب Idempotency با قابلیت Global Lock در Redis
قابلیت Global Lock تضمین میکند که در هر لحظه فقط یک درخواست واقعی اجرا شود.
قابلیت Idempotency اطمینان میدهد که اگر درخواستهای مشابه همزمان ارسال شوند، نتیجه یکسان به کاربر برگردد و هیچ عملیات تکراری اجرا نشود.
من از این ترکیب استفاده کردم در بخش پرداخت ها و نتیجه اش عالی بود
<Mojtaba Zaferani/>
یکی از چالشهای بزرگ در سیستمهای پرترافیک، اجرای همزمان (Concurrency) درخواستهاست. وقتی چند درخواست همزمان به یک سرویس حساس مثل پرداخت یا رزرو ارسال میشوند، احتمال ایجاد داده تکراری یا Race Condition بسیار بالاست.
راهکار من: ترکیب Idempotency با قابلیت Global Lock در Redis
قابلیت Global Lock تضمین میکند که در هر لحظه فقط یک درخواست واقعی اجرا شود.
قابلیت Idempotency اطمینان میدهد که اگر درخواستهای مشابه همزمان ارسال شوند، نتیجه یکسان به کاربر برگردد و هیچ عملیات تکراری اجرا نشود.
من از این ترکیب استفاده کردم در بخش پرداخت ها و نتیجه اش عالی بود
<Mojtaba Zaferani/>
🔵 عنوان مقاله
Going Down the Rabbit Hole of Postgres 18 Features
🟢 خلاصه مقاله:
**این مطلب با حفظ شور انتشار اخیر Postgres 18، بهجای ارجاع مستقیم به یادداشتهای طولانی انتشار، مرور قابلفهمی از ویژگیهای جدید ارائه میدهد. Tudor تغییرات مهم و بهبودهای عملی را در قالبی موضوعمحور توضیح میدهد تا روشن شود هر قابلیت چه مسئلهای را حل میکند و در چه سناریوهایی سودمند است. تمرکز متن بر فهم ساده، مقایسه با نسخههای قبلی و اشاره به نکات سازگاری و برنامهریزی برای ارتقاست. خروجی، یک نقشه راه عملی برای تیمهاست تا سریعتر تصمیم بگیرند کدام قابلیتها را همین حالا بیازمایند و کدام را بعداً ارزیابی کنند.
#Postgres18 #PostgreSQL #Database #ReleaseNotes #OpenSource #SQL #DBA #Performance
🟣لینک مقاله:
https://postgresweekly.com/link/175084/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Going Down the Rabbit Hole of Postgres 18 Features
🟢 خلاصه مقاله:
**این مطلب با حفظ شور انتشار اخیر Postgres 18، بهجای ارجاع مستقیم به یادداشتهای طولانی انتشار، مرور قابلفهمی از ویژگیهای جدید ارائه میدهد. Tudor تغییرات مهم و بهبودهای عملی را در قالبی موضوعمحور توضیح میدهد تا روشن شود هر قابلیت چه مسئلهای را حل میکند و در چه سناریوهایی سودمند است. تمرکز متن بر فهم ساده، مقایسه با نسخههای قبلی و اشاره به نکات سازگاری و برنامهریزی برای ارتقاست. خروجی، یک نقشه راه عملی برای تیمهاست تا سریعتر تصمیم بگیرند کدام قابلیتها را همین حالا بیازمایند و کدام را بعداً ارزیابی کنند.
#Postgres18 #PostgreSQL #Database #ReleaseNotes #OpenSource #SQL #DBA #Performance
🟣لینک مقاله:
https://postgresweekly.com/link/175084/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Xata
Going down the rabbit hole of Postgres 18 features by Tudor Golubenco
A comprehensive list of PostgreSQL 18 new features, performance optimizations, operational and observability improvements, and new tools for devs.
🔵 عنوان مقاله
pgsql_tweaks 1.0.0 Released
🟢 خلاصه مقاله:
** pgsql_tweaks 1.0.0 منتشر شد؛ مجموعهای از توابع و viewها که از تجربه روزمره نویسنده در کار با Postgres استخراج شده است. این بسته نیازهای رایج عملیاتی را پوشش میدهد: بررسی نوع دادهها، گردآوری آمار، مانیتورینگ WAL، شناسایی ایندکسهای بلااستفاده، و توابع تبدیلی برای سادهسازی تبدیل داده. هدف، ارائه ابزارهای سبک و مبتنی بر SQL برای پایش و بهینهسازی سریع است تا DBAها و توسعهدهندگان بتوانند بررسیهای استاندارد و تشخیصهای عملکردی را بهسادگی انجام دهند. صفحه رسمی پروژه برای هر قابلیت مستندات جداگانه ارائه میکند.
#Postgres #PostgreSQL #DatabaseTools #WAL #Indexes #Monitoring #Release
🟣لینک مقاله:
https://postgresweekly.com/link/174471/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
pgsql_tweaks 1.0.0 Released
🟢 خلاصه مقاله:
** pgsql_tweaks 1.0.0 منتشر شد؛ مجموعهای از توابع و viewها که از تجربه روزمره نویسنده در کار با Postgres استخراج شده است. این بسته نیازهای رایج عملیاتی را پوشش میدهد: بررسی نوع دادهها، گردآوری آمار، مانیتورینگ WAL، شناسایی ایندکسهای بلااستفاده، و توابع تبدیلی برای سادهسازی تبدیل داده. هدف، ارائه ابزارهای سبک و مبتنی بر SQL برای پایش و بهینهسازی سریع است تا DBAها و توسعهدهندگان بتوانند بررسیهای استاندارد و تشخیصهای عملکردی را بهسادگی انجام دهند. صفحه رسمی پروژه برای هر قابلیت مستندات جداگانه ارائه میکند.
#Postgres #PostgreSQL #DatabaseTools #WAL #Indexes #Monitoring #Release
🟣لینک مقاله:
https://postgresweekly.com/link/174471/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
proopensource.it
ProOpenSource OÜ Blog | pgsql_tweaks 1.0.0 Released
pgsql_tweaks is a bundle of functions and views for PostgreSQL
🔵 عنوان مقاله
The Great Consolidation is underway (2 minute read)
🟢 خلاصه مقاله:
** روند The Great Consolidation در مهندسی داده سرعت گرفته است؛ ادغامهایی مثل Fivetran نشان میدهد بازاری که سالها بیشازحد داغ شده بود، حالا در حال بلوغ و یکپارچهسازی ابزارهای همپوشان است. محرکها شامل خستگی از تکثر ابزارها و هزینههای یکپارچهسازی، فشار برای کاهش هزینهها، و نیاز به حاکمیت، امنیت و مشاهدهپذیری یکپارچه است. پیامدها: ابزارهای تخصصی کمتر و پلتفرمهای جامعتر، تغییر در نقشهراهها، ادغام یا توقف برخی محصولات، و ریسکهای جابهجایی و قفلشدن در فروشنده. راهکار: تکیه بر استانداردها و رابطهای باز، معماری ماژولار، شروط خروج در قراردادها و ارزیابی TCO برای حفظ اختیار عمل. برندگان، پلتفرمهای انتهابهانتها با حاکمیت قوی خواهند بود و ابزارهای نیچی تنها با برتری ۱۰ برابری میمانند. تمرکز بازار از هیجان به پایداری، کارایی و نتایج اندازهپذیر منتقل میشود.
#DataEngineering #Consolidation #MergersAndAcquisitions #DataStack #VendorLockIn #DataPlatforms #Fivetran
🟣لینک مقاله:
https://www.reddit.com/r/dataengineering/comments/1nulrd5/the_great_consolidation_is_underway/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
The Great Consolidation is underway (2 minute read)
🟢 خلاصه مقاله:
** روند The Great Consolidation در مهندسی داده سرعت گرفته است؛ ادغامهایی مثل Fivetran نشان میدهد بازاری که سالها بیشازحد داغ شده بود، حالا در حال بلوغ و یکپارچهسازی ابزارهای همپوشان است. محرکها شامل خستگی از تکثر ابزارها و هزینههای یکپارچهسازی، فشار برای کاهش هزینهها، و نیاز به حاکمیت، امنیت و مشاهدهپذیری یکپارچه است. پیامدها: ابزارهای تخصصی کمتر و پلتفرمهای جامعتر، تغییر در نقشهراهها، ادغام یا توقف برخی محصولات، و ریسکهای جابهجایی و قفلشدن در فروشنده. راهکار: تکیه بر استانداردها و رابطهای باز، معماری ماژولار، شروط خروج در قراردادها و ارزیابی TCO برای حفظ اختیار عمل. برندگان، پلتفرمهای انتهابهانتها با حاکمیت قوی خواهند بود و ابزارهای نیچی تنها با برتری ۱۰ برابری میمانند. تمرکز بازار از هیجان به پایداری، کارایی و نتایج اندازهپذیر منتقل میشود.
#DataEngineering #Consolidation #MergersAndAcquisitions #DataStack #VendorLockIn #DataPlatforms #Fivetran
🟣لینک مقاله:
https://www.reddit.com/r/dataengineering/comments/1nulrd5/the_great_consolidation_is_underway/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Reddit
From the dataengineering community on Reddit: The Great Consolidation is underway
Explore this post and more from the dataengineering community
Forwarded from Future Pulse Persian
پاول دورُف: حاضرَم بمیرم، ولی آزادی و امنیت کاربران رو نفروشم!
در گفتوگوی عمیق با «لِکس فریدمن»، بنیانگذار تلگرام از فلسفهٔ زندگی، حریم خصوصی، بیتکوین و مقاومتش در برابر فشار دولتها گفت.
> 🗣
🔒
او تأکید کرد تلگرام هیچوقت “در پشتی” برای دولتها باز نکرده و در برابر فشار روسیه و ایران برای دسترسی به اطلاعات یا سانسور مقاومت کرده است.
>
📱 ۷ اصل فکری و مدیریتی پاول دورُف (بر اساس مصاحبه):
1️⃣ آزادی و اخلاق بالاتر از هر سود مالی — او میگوید حاضر است تمام داراییاش را از دست بدهد تا آزادی بیان و امنیت کاربران حفظ شود.
2️⃣ مینیمالیسم و انضباط شخصی — سبک زندگیاش ساده، بدون الکل، قهوه یا حواسپرتی است؛ تمرکز کامل روی مأموریت و نظم ذهنی.
3️⃣ تیم کوچک، تأثیر بزرگ — معتقد است تیمهای بزرگ بهرهوری را میکُشند؛ موفقیت تلگرام حاصل اعتماد به چند نابغهٔ منضبط است.
4️⃣ مقاومت در برابر سانسور و در پشتی — هیچ دولت یا شرکتی حق کنترل یا شنود تلگرام را ندارد. رمزنگاری و طراحی MTProto را «دیوار آزادی دیجیتال» مینامد.
5️⃣ پول و قدرت ابزارند، نه هدف — او از مدلهای انحصاری و کمیسیونهای اپل و گوگل انتقاد میکند و تأکید دارد که ثروت نباید آزادی را محدود کند.
6️⃣ باور به فناوری آزاد مثل بیتکوین — بیتکوین را «نمادِ کاهش نیاز به اعتماد به واسطهها و آزادی مالی» میداند؛ از پروژه TON بهعنوان زیربنای اقتصاد آزاد تلگرام یاد میکند.
7️⃣ نگاه فلسفی به زندگی و مرگ — از کافکا، شوپنهاور و «جاودانگی کوانتومی» میگوید؛ باور دارد انسان باید بدون ترس از مرگ، بر پایهٔ ارزشهای خودش زندگی کند.
در گفتوگوی عمیق با «لِکس فریدمن»، بنیانگذار تلگرام از فلسفهٔ زندگی، حریم خصوصی، بیتکوین و مقاومتش در برابر فشار دولتها گفت.
> 🗣
«من ترجیح میدم بمیرم و تمام داراییم رو از دست بدهم تا اینکه اطلاعات کاربران رو به هر دولتی تحویل بدم.
آزادی و امنیت دادهها، خط قرمز من و تلگرامه.»
🔒
او تأکید کرد تلگرام هیچوقت “در پشتی” برای دولتها باز نکرده و در برابر فشار روسیه و ایران برای دسترسی به اطلاعات یا سانسور مقاومت کرده است.
>
«در روسیه و ایران بارها تلاش شد ما رو مجبور به همکاری کنن. ولی ما مقاومت کردیم چون اگر یکبار کوتاه بیای، دیگه آزادی واقعی وجود نداره.»
📱 ۷ اصل فکری و مدیریتی پاول دورُف (بر اساس مصاحبه):
1️⃣ آزادی و اخلاق بالاتر از هر سود مالی — او میگوید حاضر است تمام داراییاش را از دست بدهد تا آزادی بیان و امنیت کاربران حفظ شود.
2️⃣ مینیمالیسم و انضباط شخصی — سبک زندگیاش ساده، بدون الکل، قهوه یا حواسپرتی است؛ تمرکز کامل روی مأموریت و نظم ذهنی.
3️⃣ تیم کوچک، تأثیر بزرگ — معتقد است تیمهای بزرگ بهرهوری را میکُشند؛ موفقیت تلگرام حاصل اعتماد به چند نابغهٔ منضبط است.
4️⃣ مقاومت در برابر سانسور و در پشتی — هیچ دولت یا شرکتی حق کنترل یا شنود تلگرام را ندارد. رمزنگاری و طراحی MTProto را «دیوار آزادی دیجیتال» مینامد.
5️⃣ پول و قدرت ابزارند، نه هدف — او از مدلهای انحصاری و کمیسیونهای اپل و گوگل انتقاد میکند و تأکید دارد که ثروت نباید آزادی را محدود کند.
6️⃣ باور به فناوری آزاد مثل بیتکوین — بیتکوین را «نمادِ کاهش نیاز به اعتماد به واسطهها و آزادی مالی» میداند؛ از پروژه TON بهعنوان زیربنای اقتصاد آزاد تلگرام یاد میکند.
7️⃣ نگاه فلسفی به زندگی و مرگ — از کافکا، شوپنهاور و «جاودانگی کوانتومی» میگوید؛ باور دارد انسان باید بدون ترس از مرگ، بر پایهٔ ارزشهای خودش زندگی کند.
🤗2
🔵 عنوان مقاله
Apache DataFusion 50.0.0 Released (6 minute read)
🟢 خلاصه مقاله:
Apache DataFusion نسخه 50.0.0 با تمرکز بر بهبود کارایی و تجربه تحلیلی منتشر شد. مهمترین بهبودها شامل dynamic filter pushdown برای inner hash joins است که با انتقال فیلترهای حاصل از join به مرحله اسکن، در بسیاری از سناریوها باعث جهش قابلتوجه در کارایی اسکن میشود. همچنین عملگر nested loop join بازنویسی شده و اکنون تا ۵ برابر سریعتر اجرا میشود و تا ۹۹٪ حافظه کمتری مصرف میکند. در کنار اینها، قابلیت automatic Parquet metadata caching در پرسوجوهای نقطهای (point queries) تا ۱۲ برابر سرعت بیشتر فراهم میکند.
از نظر قابلیتها، پشتیبانی از disk-spilling sorts پایداری پردازش مرتبسازی را در دادههای بزرگ با امکان استفاده از دیسک تضمین میکند. افزوده شدن عبارات QUALIFY و FILTER نیز نگارش پرسوجوهای تحلیلی پیشرفته—از جمله فیلترگذاری پس از window functions و فیلتر روی تجمیعها—را سادهتر میسازد. علاوه بر این، سازگاری گستردهتر با Apache Spark انتقال و اجرای بارهای کاری موجود را با تغییرات کمتر ممکن میکند. مجموع این تغییرات، DataFusion 50.0.0 را برای تحلیل تعاملی، ETL و محیطهای ابری حساس به هزینه به گزینهای ارتقایافته و کارآمد تبدیل میکند.
#ApacheDataFusion #DataFusion #BigData #DataEngineering #QueryEngine #Parquet #SQL #ApacheSpark
🟣لینک مقاله:
https://datafusion.apache.org/blog/2025/09/29/datafusion-50.0.0?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Apache DataFusion 50.0.0 Released (6 minute read)
🟢 خلاصه مقاله:
Apache DataFusion نسخه 50.0.0 با تمرکز بر بهبود کارایی و تجربه تحلیلی منتشر شد. مهمترین بهبودها شامل dynamic filter pushdown برای inner hash joins است که با انتقال فیلترهای حاصل از join به مرحله اسکن، در بسیاری از سناریوها باعث جهش قابلتوجه در کارایی اسکن میشود. همچنین عملگر nested loop join بازنویسی شده و اکنون تا ۵ برابر سریعتر اجرا میشود و تا ۹۹٪ حافظه کمتری مصرف میکند. در کنار اینها، قابلیت automatic Parquet metadata caching در پرسوجوهای نقطهای (point queries) تا ۱۲ برابر سرعت بیشتر فراهم میکند.
از نظر قابلیتها، پشتیبانی از disk-spilling sorts پایداری پردازش مرتبسازی را در دادههای بزرگ با امکان استفاده از دیسک تضمین میکند. افزوده شدن عبارات QUALIFY و FILTER نیز نگارش پرسوجوهای تحلیلی پیشرفته—از جمله فیلترگذاری پس از window functions و فیلتر روی تجمیعها—را سادهتر میسازد. علاوه بر این، سازگاری گستردهتر با Apache Spark انتقال و اجرای بارهای کاری موجود را با تغییرات کمتر ممکن میکند. مجموع این تغییرات، DataFusion 50.0.0 را برای تحلیل تعاملی، ETL و محیطهای ابری حساس به هزینه به گزینهای ارتقایافته و کارآمد تبدیل میکند.
#ApacheDataFusion #DataFusion #BigData #DataEngineering #QueryEngine #Parquet #SQL #ApacheSpark
🟣لینک مقاله:
https://datafusion.apache.org/blog/2025/09/29/datafusion-50.0.0?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
🔵 عنوان مقاله
Cumulative Statistics in Postgres 18
🟢 خلاصه مقاله:
این مطلب از Golang Weekly توضیح میدهد که cumulative statistics در Postgres 18 چگونه با تجمیع شمارندهها و زمانها در طول زمان، تصویری روندی از رفتار بار کاری ارائه میکند؛ تصویری که برای عیبیابی کارایی، برنامهریزی ظرفیت و تعریف SLO بسیار مفیدتر از نماهای لحظهای است. نویسنده انواع دادههای قابلدسترسی از طریق نماها و اکستنشنها (مثل آمار سطح کوئری، الگوهای دسترسی به جدول و ایندکس، I/O و فعالیت پسزمینه) را مرور میکند و تأکید دارد که در Postgres 18 ارائه و استفاده از این آمارها روانتر و قابلمقایسهتر شده است.
برای تیمهای Go نیز رویکردی عملی پیشنهاد میشود: استخراج دورهای آمار از طریق database/sql یا pgx، اسکن در ساختارها و ارسال به Prometheus تا داشبوردها و هشدارها بتوانند معیارهایی مانند تاخیر، نسبت cache hit و گروههای کوئری پرهزینه را در طول زمان دنبال کنند. نکات عملی شامل زمانبندی مناسب برای reset شمارندهها (مثلاً همزمان با استقرار)، فیلتر کردن آمار بر اساس database یا application_name و اطمینان از سبکوزن بودن کوئریهای مانیتورینگ است. ترکیب این قابلیتها با جمعآوری سبک در Go راهی پایدار برای یافتن گلوگاهها و حفظ کارایی در تکامل سیستم فراهم میکند.
#Postgres #PostgreSQL #CumulativeStatistics #DatabasePerformance #Observability #Go #Golang #Monitoring
🟣لینک مقاله:
https://postgresweekly.com/link/175101/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Cumulative Statistics in Postgres 18
🟢 خلاصه مقاله:
این مطلب از Golang Weekly توضیح میدهد که cumulative statistics در Postgres 18 چگونه با تجمیع شمارندهها و زمانها در طول زمان، تصویری روندی از رفتار بار کاری ارائه میکند؛ تصویری که برای عیبیابی کارایی، برنامهریزی ظرفیت و تعریف SLO بسیار مفیدتر از نماهای لحظهای است. نویسنده انواع دادههای قابلدسترسی از طریق نماها و اکستنشنها (مثل آمار سطح کوئری، الگوهای دسترسی به جدول و ایندکس، I/O و فعالیت پسزمینه) را مرور میکند و تأکید دارد که در Postgres 18 ارائه و استفاده از این آمارها روانتر و قابلمقایسهتر شده است.
برای تیمهای Go نیز رویکردی عملی پیشنهاد میشود: استخراج دورهای آمار از طریق database/sql یا pgx، اسکن در ساختارها و ارسال به Prometheus تا داشبوردها و هشدارها بتوانند معیارهایی مانند تاخیر، نسبت cache hit و گروههای کوئری پرهزینه را در طول زمان دنبال کنند. نکات عملی شامل زمانبندی مناسب برای reset شمارندهها (مثلاً همزمان با استقرار)، فیلتر کردن آمار بر اساس database یا application_name و اطمینان از سبکوزن بودن کوئریهای مانیتورینگ است. ترکیب این قابلیتها با جمعآوری سبک در Go راهی پایدار برای یافتن گلوگاهها و حفظ کارایی در تکامل سیستم فراهم میکند.
#Postgres #PostgreSQL #CumulativeStatistics #DatabasePerformance #Observability #Go #Golang #Monitoring
🟣لینک مقاله:
https://postgresweekly.com/link/175101/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Data Bene
Cumulative Statistics in PostgreSQL 18
In PostgreSQL 18, the statistics & monitoring subsystem receives a significant overhaul - extended cumulative statistics, new per-backend I/O visibility, the ability for extensions to export / import / adjust statistics, and much more. Let's explore these…
🔵 عنوان مقاله
How the COPY Command Gets More User Friendly in Postgres 18
🟢 خلاصه مقاله:
بهروزرسانیهای Postgres 18 بر بهبود تجربه کاربری تمرکز دارد؛ از جمله آسانتر و ایمنتر شدن کار با دستور COPY. هدف این است که پیامهای خطا در مواجهه با ناسازگاری ستونها، مسائل کدگذاری یا ردیفهای CSV معیوب شفافتر و قابل اقدامتر شوند، گزینههای رایج (مثل کار با هدرها و CSV) رفتار پیشفرض قابلاعتمادتری داشته باشند، و جریانهای کاری واردسازی انبوه با امکان نادیدهگرفتن یا ثبت ردیفهای خطادار اصطکاک کمتری داشته باشند. همچنین همگرایی رفتار بین COPY سمت سرور و copy در psql و شفافیت بیشتر در مجوزها و متن خطاها به پیشبینیپذیری و عیبیابی سریعتر کمک میکند.
در کنار اینها، کار روی cumulative statistics نیز پررنگ است. همانطور که Deepak Mahto و Cédric Villemain توضیح میدهند، هدف، ارائه نمایی منسجمتر، کمهزینهتر و دانهدرشتتر از رفتار سیستم در حوزههایی مانند پرسوجو، I/O و waitهاست تا هم پایش آنی و هم برنامهریزی ظرفیت سادهتر شود. برآیند این تغییرات، کاهش غافلگیریها با پیشفرضهای بهتر، بازخورد سریعتر هنگام خطا و مشاهدهپذیری عمیقتر برای تنظیم کارایی در Postgres 18 است.
#Postgres18 #PostgreSQL #COPY #CumulativeStatistics #Database #Observability #DataEngineering #DX
🟣لینک مقاله:
https://postgresweekly.com/link/175100/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
How the COPY Command Gets More User Friendly in Postgres 18
🟢 خلاصه مقاله:
بهروزرسانیهای Postgres 18 بر بهبود تجربه کاربری تمرکز دارد؛ از جمله آسانتر و ایمنتر شدن کار با دستور COPY. هدف این است که پیامهای خطا در مواجهه با ناسازگاری ستونها، مسائل کدگذاری یا ردیفهای CSV معیوب شفافتر و قابل اقدامتر شوند، گزینههای رایج (مثل کار با هدرها و CSV) رفتار پیشفرض قابلاعتمادتری داشته باشند، و جریانهای کاری واردسازی انبوه با امکان نادیدهگرفتن یا ثبت ردیفهای خطادار اصطکاک کمتری داشته باشند. همچنین همگرایی رفتار بین COPY سمت سرور و copy در psql و شفافیت بیشتر در مجوزها و متن خطاها به پیشبینیپذیری و عیبیابی سریعتر کمک میکند.
در کنار اینها، کار روی cumulative statistics نیز پررنگ است. همانطور که Deepak Mahto و Cédric Villemain توضیح میدهند، هدف، ارائه نمایی منسجمتر، کمهزینهتر و دانهدرشتتر از رفتار سیستم در حوزههایی مانند پرسوجو، I/O و waitهاست تا هم پایش آنی و هم برنامهریزی ظرفیت سادهتر شود. برآیند این تغییرات، کاهش غافلگیریها با پیشفرضهای بهتر، بازخورد سریعتر هنگام خطا و مشاهدهپذیری عمیقتر برای تنظیم کارایی در Postgres 18 است.
#Postgres18 #PostgreSQL #COPY #CumulativeStatistics #Database #Observability #DataEngineering #DX
🟣لینک مقاله:
https://postgresweekly.com/link/175100/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Database and Migration Insights
Exploring PostgreSQL 18: A Developer’s Guide to New Features – Part 1: The COPY Command Gets More User-Friendly
PostgreSQL 18, released on September 25, 2024, enhances the COPY command with improved error handling through the REJECT_LIMIT option, allowing data loading to be controlled by limiting errors. Thi…
🙏1
🔵 عنوان مقاله
Apache Gravitino (GitHub Repo)
🟢 خلاصه مقاله:
Apache Gravitino با انتشار نسخه 1.0 بهعنوان یک جایگزین متنباز برای Unity Catalog معرفی شده که بهجای جایگزینی، در کنار Unity Catalog و حاکمیت داده Snowflake کار میکند. این پروژه بهعنوان یک لایه بالادستی بر چندین سیستم عمل میکند و یک نمای یکپارچه از داراییهای داده و ML فراهم میسازد. Gravitino روی اکوسیستمهای متنوعی مثل Hive، Iceberg، Kafka، S3 و رجیستریهای مدل ML کار میکند و کانکتورهای آماده برای پلتفرمهای مختلف و MCP servers دارد. هدف آن، یکپارچهسازی کشف، کاتالوگ و مدیریت حاکمیت در محیطهای ناهمگون است، بدون ایجاد قفل فناوری و در عین حال قابل استفاده در کنار ابزارهای موجود. این پروژه از طریق GitHub در دسترس است.
#ApacheGravitino #DataCatalog #DataGovernance #OpenSource #UnityCatalog #Kafka #Iceberg #S3
🟣لینک مقاله:
https://github.com/apache/gravitino?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Apache Gravitino (GitHub Repo)
🟢 خلاصه مقاله:
Apache Gravitino با انتشار نسخه 1.0 بهعنوان یک جایگزین متنباز برای Unity Catalog معرفی شده که بهجای جایگزینی، در کنار Unity Catalog و حاکمیت داده Snowflake کار میکند. این پروژه بهعنوان یک لایه بالادستی بر چندین سیستم عمل میکند و یک نمای یکپارچه از داراییهای داده و ML فراهم میسازد. Gravitino روی اکوسیستمهای متنوعی مثل Hive، Iceberg، Kafka، S3 و رجیستریهای مدل ML کار میکند و کانکتورهای آماده برای پلتفرمهای مختلف و MCP servers دارد. هدف آن، یکپارچهسازی کشف، کاتالوگ و مدیریت حاکمیت در محیطهای ناهمگون است، بدون ایجاد قفل فناوری و در عین حال قابل استفاده در کنار ابزارهای موجود. این پروژه از طریق GitHub در دسترس است.
#ApacheGravitino #DataCatalog #DataGovernance #OpenSource #UnityCatalog #Kafka #Iceberg #S3
🟣لینک مقاله:
https://github.com/apache/gravitino?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
GitHub
GitHub - apache/gravitino: World's most powerful open data catalog for building a high-performance, geo-distributed and federated…
World's most powerful open data catalog for building a high-performance, geo-distributed and federated metadata lake. - apache/gravitino
Forwarded from Future Pulse Persian
♨️ راز خواب 12 ساعته پاول دورف؛ جایی که ایدههای تلگرام شکل میگیرن!
▪️پاول دورف، مدیرعامل تلگرام، گفته روزی بین ۱۱ تا ۱۲ ساعت میخوابه ، و جالبه که اینو نه تنبلی، بلکه منبع اصلی ایدههای درخشانش میدونه!
▪️دورف صبحها حتی سراغ گوشی هم نمیره، چون معتقده موبایلها جلوی تفکر مستقل رو میگیرن.
خودش میگه:
♨️ راز خواب 12 ساعته پاول دورف؛ جایی که ایدههای تلگرام شکل میگیرن!
▪️پاول دورف، مدیرعامل تلگرام، گفته روزی بین ۱۱ تا ۱۲ ساعت میخوابه ، و جالبه که اینو نه تنبلی، بلکه منبع اصلی ایدههای درخشانش میدونه!
▪️دورف صبحها حتی سراغ گوشی هم نمیره، چون معتقده موبایلها جلوی تفکر مستقل رو میگیرن.
خودش میگه:
«میخوام خودم تصمیم بگیرم چی تو زندگیم مهمه، نه اینکه شرکتها یا الگوریتمها برام تعیین کنن.»
🔵 عنوان مقاله
Implementing a Kalman Filter in Postgres to Smooth GPS Data
🟢 خلاصه مقاله:
** این مقاله نشان میدهد چگونه میتوان Kalman Filter را مستقیماً داخل Postgres پیادهسازی کرد تا دادههای GPS پرنوسان را هموار کرد، بدون نیاز به خروج دادهها به ابزارهای بیرونی. با اجرای مراحل پیشبینی و بهروزرسانی در SQL/PLpgSQL و استفاده از مرتبسازی زمانی و پارتیشنبندی بر اساس دستگاه، صافسازی در همان جایی انجام میشود که دادهها ذخیره شدهاند. نتیجه، مسیرهای روانتر، برآوردهای دقیقتر سرعت/جهت، و سادهتر شدن خط لوله برای کاربردهایی مثل ناوگان و IoT است. همانطور که Thorsten Rieß اشاره میکند، این کاری غیرمعمول در SQL است، اما بهدلیل بازتولیدپذیری، تراکنشی بودن و ادغام آسان با PostGIS و نماها، راهکاری عملی و قدرتمند محسوب میشود.
#KalmanFilter #Postgres #SQL #GPS #PostGIS #TimeSeries #DataSmoothing #IoT
🟣لینک مقاله:
https://postgresweekly.com/link/175098/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Implementing a Kalman Filter in Postgres to Smooth GPS Data
🟢 خلاصه مقاله:
** این مقاله نشان میدهد چگونه میتوان Kalman Filter را مستقیماً داخل Postgres پیادهسازی کرد تا دادههای GPS پرنوسان را هموار کرد، بدون نیاز به خروج دادهها به ابزارهای بیرونی. با اجرای مراحل پیشبینی و بهروزرسانی در SQL/PLpgSQL و استفاده از مرتبسازی زمانی و پارتیشنبندی بر اساس دستگاه، صافسازی در همان جایی انجام میشود که دادهها ذخیره شدهاند. نتیجه، مسیرهای روانتر، برآوردهای دقیقتر سرعت/جهت، و سادهتر شدن خط لوله برای کاربردهایی مثل ناوگان و IoT است. همانطور که Thorsten Rieß اشاره میکند، این کاری غیرمعمول در SQL است، اما بهدلیل بازتولیدپذیری، تراکنشی بودن و ادغام آسان با PostGIS و نماها، راهکاری عملی و قدرتمند محسوب میشود.
#KalmanFilter #Postgres #SQL #GPS #PostGIS #TimeSeries #DataSmoothing #IoT
🟣لینک مقاله:
https://postgresweekly.com/link/175098/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Neon
Implementing a Kalman Filter in Postgres to Smooth GPS Data - Neon
An open-source project that implements a Kalman Filter in Postgres to clean up noisy GPS data directly in the database.
❤1