🔵 عنوان مقاله
a visual explainer of processes and threads
🟢 خلاصه مقاله:
** این مقاله با یک توضیح تصویری، تفاوتهای بنیادین بین فرآیند و رشته را توضیح میدهد: فرآیندها فضای حافظهای جدا دارند و ارتباطشان از طریق مکانیزمهای سیستمعامل انجام میشود، در حالیکه رشتهها داخل یک فرآیند حافظه مشترک دارند، ارتباطشان سریعتر است اما ریسک تداخل و خرابی گستردهتر میشود. سپس این دیدگاه به معماری پایگاههای داده تعمیم داده میشود: Postgres از مدل process-per-connection با فرآیندهای جداگانه برای هر اتصال و حافظه مشترک برای هماهنگی استفاده میکند؛ MySQL در یک mysqld واحد با مدل thread-per-connection (یا thread pool) و رشتههای متعدد اجرا میشود. نتیجه مقایسه: Postgres ایزولاسیون قویتری در سطح حافظه دارد اما سربار هر اتصال بیشتر است و خرابی یک backend میتواند به بازراهاندازی برای حفظ سازگاری منجر شود؛ MySQL از نظر حافظه برای اتصالات زیاد بهینهتر و تعویض متن در آن سریعتر است، ولی خطا یا ازدحام در یک رشته میتواند کل فرایند را متاثر کند و نیازمند تنظیم دقیق برای جلوگیری از رقابت قفلهاست. در عمل، هر دو با ابزارهای connection pooling مانند PgBouncer و ProxySQL افراطها را تعدیل میکنند و انتخاب نهایی به اولویتهای بارکاری بین ایزولاسیون/قابلیت مشاهده در برابر بازده و مقیاسپذیری اتصال بستگی دارد.
#OperatingSystems #Concurrency #Postgres #MySQL #DatabaseArchitecture #Threads #Processes #Performance
🟣لینک مقاله:
https://postgresweekly.com/link/174753/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
a visual explainer of processes and threads
🟢 خلاصه مقاله:
** این مقاله با یک توضیح تصویری، تفاوتهای بنیادین بین فرآیند و رشته را توضیح میدهد: فرآیندها فضای حافظهای جدا دارند و ارتباطشان از طریق مکانیزمهای سیستمعامل انجام میشود، در حالیکه رشتهها داخل یک فرآیند حافظه مشترک دارند، ارتباطشان سریعتر است اما ریسک تداخل و خرابی گستردهتر میشود. سپس این دیدگاه به معماری پایگاههای داده تعمیم داده میشود: Postgres از مدل process-per-connection با فرآیندهای جداگانه برای هر اتصال و حافظه مشترک برای هماهنگی استفاده میکند؛ MySQL در یک mysqld واحد با مدل thread-per-connection (یا thread pool) و رشتههای متعدد اجرا میشود. نتیجه مقایسه: Postgres ایزولاسیون قویتری در سطح حافظه دارد اما سربار هر اتصال بیشتر است و خرابی یک backend میتواند به بازراهاندازی برای حفظ سازگاری منجر شود؛ MySQL از نظر حافظه برای اتصالات زیاد بهینهتر و تعویض متن در آن سریعتر است، ولی خطا یا ازدحام در یک رشته میتواند کل فرایند را متاثر کند و نیازمند تنظیم دقیق برای جلوگیری از رقابت قفلهاست. در عمل، هر دو با ابزارهای connection pooling مانند PgBouncer و ProxySQL افراطها را تعدیل میکنند و انتخاب نهایی به اولویتهای بارکاری بین ایزولاسیون/قابلیت مشاهده در برابر بازده و مقیاسپذیری اتصال بستگی دارد.
#OperatingSystems #Concurrency #Postgres #MySQL #DatabaseArchitecture #Threads #Processes #Performance
🟣لینک مقاله:
https://postgresweekly.com/link/174753/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Planetscale
Processes and Threads — PlanetScale
Processes and threads are fundamental abstrations for operating systems. Learn how they work and how they impact database performance in this interactive article.
خبر های PostgreSQL ای
نسخه های جدید:
ابزار pgwatch: مانیتورینگ PostgreSQL برای جمعآوری و نمایش متریکهای عملکرد دیتابیس.
ابزار Autobase: مدیریت خودکار نسخهبندی (schema migrations) و تغییرات ساختار
افزونه pg_stat_kcache 2.3.1:مشاهده مصرف CPU و I/O کوئریها از طریق kernel.
نسخه های جدید:
ابزار pgwatch: مانیتورینگ PostgreSQL برای جمعآوری و نمایش متریکهای عملکرد دیتابیس.
ابزار Autobase: مدیریت خودکار نسخهبندی (schema migrations) و تغییرات ساختار
افزونه pg_stat_kcache 2.3.1:مشاهده مصرف CPU و I/O کوئریها از طریق kernel.
🔵 عنوان مقاله
PG Back Web 0.5: A Postgres Backup System with Web Interface
🟢 خلاصه مقاله:
PG Back Web 0.5 یک اپ مبتنی بر Go است که با یک رابط وب کاربرپسند، مدیریت پشتیبانگیریهای Postgres را ساده میکند. این ابزار امکان زمانبندی بکاپها (از جمله ذخیره به S3)، پایش وضعیت بکاپها و اتصال رویدادها از طریق Webhookها را فراهم میکند. بهصورت Docker image ارائه شده و اکنون از Postgres 18 نیز پشتیبانی میکند و برای تیمهایی مناسب است که میخواهند فرایند بکاپ را استاندارد، قابل مشاهده و خودکار کنند.
#Postgres #DatabaseBackups #GoLang #S3 #Docker #DevOps #WebInterface #DataProtection
🟣لینک مقاله:
https://postgresweekly.com/link/175102/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
PG Back Web 0.5: A Postgres Backup System with Web Interface
🟢 خلاصه مقاله:
PG Back Web 0.5 یک اپ مبتنی بر Go است که با یک رابط وب کاربرپسند، مدیریت پشتیبانگیریهای Postgres را ساده میکند. این ابزار امکان زمانبندی بکاپها (از جمله ذخیره به S3)، پایش وضعیت بکاپها و اتصال رویدادها از طریق Webhookها را فراهم میکند. بهصورت Docker image ارائه شده و اکنون از Postgres 18 نیز پشتیبانی میکند و برای تیمهایی مناسب است که میخواهند فرایند بکاپ را استاندارد، قابل مشاهده و خودکار کنند.
#Postgres #DatabaseBackups #GoLang #S3 #Docker #DevOps #WebInterface #DataProtection
🟣لینک مقاله:
https://postgresweekly.com/link/175102/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
GitHub
GitHub - eduardolat/pgbackweb: 🐘 Effortless PostgreSQL backups with a user-friendly web interface! 🌐💾
🐘 Effortless PostgreSQL backups with a user-friendly web interface! 🌐💾 - eduardolat/pgbackweb
🔵 عنوان مقاله
Switching Me Softly (7 minute read)
🟢 خلاصه مقاله:
فریشا با ساخت یک چارچوب ارکستریشن خودکار و قابلپیکربندی، بیش از ۲۰ پایگاهداده حیاتی PostgreSQL را از PG12 به PG17 با صفر downtime و بدون از دستدادن داده ارتقا داد. این راهکار با اسکریپتهای مبتنیبر YAML، مهاجرتهای تکرارپذیر و قابل بازگشت را ممکن کرد و چالشهای حساس نظیر مدیریت Debezium CDC، حفظ ترتیب رویدادهای outbox، کنترل replication slotها و اجرای cutoverهای روان با PgBouncer را پوشش داد. در نتیجه، محدودیتهای RDS Blue/Green و ارتقای درجا برطرف شد و یک الگوی پایدار برای ارتقاهای آینده در محیط تولید شکل گرفت.
#PostgreSQL #ZeroDowntime #DatabaseMigration #Debezium #CDC #PgBouncer #YAML #RDSBlueGreen
🟣لینک مقاله:
https://medium.com/fresha-data-engineering/switching-me-softly-cb404d02c28b?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Switching Me Softly (7 minute read)
🟢 خلاصه مقاله:
فریشا با ساخت یک چارچوب ارکستریشن خودکار و قابلپیکربندی، بیش از ۲۰ پایگاهداده حیاتی PostgreSQL را از PG12 به PG17 با صفر downtime و بدون از دستدادن داده ارتقا داد. این راهکار با اسکریپتهای مبتنیبر YAML، مهاجرتهای تکرارپذیر و قابل بازگشت را ممکن کرد و چالشهای حساس نظیر مدیریت Debezium CDC، حفظ ترتیب رویدادهای outbox، کنترل replication slotها و اجرای cutoverهای روان با PgBouncer را پوشش داد. در نتیجه، محدودیتهای RDS Blue/Green و ارتقای درجا برطرف شد و یک الگوی پایدار برای ارتقاهای آینده در محیط تولید شکل گرفت.
#PostgreSQL #ZeroDowntime #DatabaseMigration #Debezium #CDC #PgBouncer #YAML #RDSBlueGreen
🟣لینک مقاله:
https://medium.com/fresha-data-engineering/switching-me-softly-cb404d02c28b?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Medium
Switching me Softly
Zero-downtime PostgreSQL 12→17 upgrade at Fresha: RDS snapshots, logical replication, PgBouncer tricks & Debezium orchestration.
❤1
🔵 عنوان مقاله
Introducing Microsoft Agent Framework: The Open-Source Engine for Agentic AI Apps (13 minute read)
🟢 خلاصه مقاله:
مایکروسافت نسخه پیشنمایشِ متنبازِ Microsoft Agent Framework را منتشر کرده که با یکپارچهسازی قابلیتهای Semantic Kernel و AutoGen، توسعه اپلیکیشنهای عاملمحور را برای Python و .NET ساده میکند. این چارچوب امکان ساخت سریع عاملها را با کمتر از ۲۰ خط کد فراهم میکند و الگوهای ارکستراسیون مانند اجرای ترتیبی و همزمان، گفتوگوی گروهی و تحویل مسئولیت بین عاملها را با دوام در سطح تولید ارائه میدهد. همچنین با Azure AI و Visual Studio Code یکپارچه است و برای نیازهای سازمانی، اتصالهای MCP و اجزای پلاگگونه جهت گسترش و اتصال به سیستمهای موجود را فراهم میکند. هدف اصلی، یکنواختسازی تجربهی توسعه و تسهیل گذار از نمونهسازی سریع به استقرارهای پایدار و مقیاسپذیر است.
#Microsoft #AgentFramework #AgenticAI #SemanticKernel #AutoGen #Python #dotnet #AzureAI
🟣لینک مقاله:
https://devblogs.microsoft.com/foundry/introducing-microsoft-agent-framework-the-open-source-engine-for-agentic-ai-apps/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Introducing Microsoft Agent Framework: The Open-Source Engine for Agentic AI Apps (13 minute read)
🟢 خلاصه مقاله:
مایکروسافت نسخه پیشنمایشِ متنبازِ Microsoft Agent Framework را منتشر کرده که با یکپارچهسازی قابلیتهای Semantic Kernel و AutoGen، توسعه اپلیکیشنهای عاملمحور را برای Python و .NET ساده میکند. این چارچوب امکان ساخت سریع عاملها را با کمتر از ۲۰ خط کد فراهم میکند و الگوهای ارکستراسیون مانند اجرای ترتیبی و همزمان، گفتوگوی گروهی و تحویل مسئولیت بین عاملها را با دوام در سطح تولید ارائه میدهد. همچنین با Azure AI و Visual Studio Code یکپارچه است و برای نیازهای سازمانی، اتصالهای MCP و اجزای پلاگگونه جهت گسترش و اتصال به سیستمهای موجود را فراهم میکند. هدف اصلی، یکنواختسازی تجربهی توسعه و تسهیل گذار از نمونهسازی سریع به استقرارهای پایدار و مقیاسپذیر است.
#Microsoft #AgentFramework #AgenticAI #SemanticKernel #AutoGen #Python #dotnet #AzureAI
🟣لینک مقاله:
https://devblogs.microsoft.com/foundry/introducing-microsoft-agent-framework-the-open-source-engine-for-agentic-ai-apps/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Microsoft News
Introducing Microsoft Agent Framework: The Open-Source Engine for Agentic AI Apps
Why agents need a new foundation Over the last year, developers have been experimenting with AI agents in every imaginable form. Agents are not just chatbots or copilots — they are autonomous software components that can reason about goals, call tools and…
🔵 عنوان مقاله
How I Learned to Use wal_inspect
🟢 خلاصه مقاله:
این نوشته روایت یادگیری کار با pg_walinspect برای خواندن و فهمیدن رفتار write-ahead log در PostgreSQL است. نویسنده نشان میدهد چطور میتوان با کوئری گرفتن از WAL در بازههای مشخص LSN، الگوی فعالیت سیستم را دید: از نقش checkpointها و full-page writeها تا اثر autovacuum، split شدن ایندکسها، بارگذاریهای حجیم و منشأ افزایش I/O. مزیت pg_walinspect این است که داخل دیتابیس و با SQL میشود دادهها را خلاصه و فیلتر کرد و با زمان و متریکهای مانیتورینگ تطبیق داد، بدون خروج به ابزارهای بیرونی.
رویکرد پیشنهادی این است: بازه زمانی/LSN را محدود کنید، ابتدا خلاصهها را ببینید و سپس در صورت نیاز به جزئیات بروید؛ هنگام عیبیابی، روی resource managerهای مرتبط تمرکز کنید و الگوهای WAL را با لاگها و نمایههای آماری مثل pg_stat همراستا کنید. محدودیت اصلی این است که محتوای سطرها را نمیبینید و فقط به فراداده دسترسی دارید، اما همین برای ساختن و آزمودن فرضیهها کافی است. در نتیجه، pg_walinspect ابزار کمهزینه و امنی برای بهبود observability، کاهش زمان رفع اشکال و فهم عمیقتر رفتار PostgreSQL محسوب میشود.
#PostgreSQL #WAL #pg_walinspect #DatabaseInternals #Observability #Performance #Replication
🟣لینک مقاله:
https://postgresweekly.com/link/175096/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
How I Learned to Use wal_inspect
🟢 خلاصه مقاله:
این نوشته روایت یادگیری کار با pg_walinspect برای خواندن و فهمیدن رفتار write-ahead log در PostgreSQL است. نویسنده نشان میدهد چطور میتوان با کوئری گرفتن از WAL در بازههای مشخص LSN، الگوی فعالیت سیستم را دید: از نقش checkpointها و full-page writeها تا اثر autovacuum، split شدن ایندکسها، بارگذاریهای حجیم و منشأ افزایش I/O. مزیت pg_walinspect این است که داخل دیتابیس و با SQL میشود دادهها را خلاصه و فیلتر کرد و با زمان و متریکهای مانیتورینگ تطبیق داد، بدون خروج به ابزارهای بیرونی.
رویکرد پیشنهادی این است: بازه زمانی/LSN را محدود کنید، ابتدا خلاصهها را ببینید و سپس در صورت نیاز به جزئیات بروید؛ هنگام عیبیابی، روی resource managerهای مرتبط تمرکز کنید و الگوهای WAL را با لاگها و نمایههای آماری مثل pg_stat همراستا کنید. محدودیت اصلی این است که محتوای سطرها را نمیبینید و فقط به فراداده دسترسی دارید، اما همین برای ساختن و آزمودن فرضیهها کافی است. در نتیجه، pg_walinspect ابزار کمهزینه و امنی برای بهبود observability، کاهش زمان رفع اشکال و فهم عمیقتر رفتار PostgreSQL محسوب میشود.
#PostgreSQL #WAL #pg_walinspect #DatabaseInternals #Observability #Performance #Replication
🟣لینک مقاله:
https://postgresweekly.com/link/175096/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
The World of Data
How I learned to use wal_inspect
It has been a while since last time I blogged about any real-life mysteries I resolved. Here is one which I am really happy about, because it took a while and it was not obvious. Before that, I did…
🔵 عنوان مقاله
How to Get AI to Deliver Superior ROI, Faster (6 minute read)
🟢 خلاصه مقاله:
** این مقاله نشان میدهد کندی در ROIِ AI معمولاً از خودِ سازمان میآید: دادههای جزیرهای، QA ناکارآمد (مثل تولید garbage tokens و ارزیابیهای ناقص)، انتخاب مدلهای بیشازحد بزرگ و فرهنگی که «بزرگتر یعنی بهتر» را فضیلت میداند. راهحل، Lean AI است: از کوچکترین راهکار مؤثر شروع کنید، مدل متناسب با کار انتخاب کنید و با تکنیکهایی مانند fine‑tuning سبک، LoRA، distillation، quantization، RAG و caching هزینه/کیفیت را بهینه کنید و شاخصهایی مثل هزینه بهازای حل هر تیکت را بسنجید. از آغاز با CFO و ذینفعان روی KPIها، بودجه، ریسک و SLAها همراستا شوید و واحداقتصاد پروژه را قبل از کدنویسی مشخص کنید. QA را جدی بگیرید: ارزیابی چندلایه آفلاین/آنلاین، داده طلایی با rubric شفاف، تست رگرسیون خودکار، و enforce کردن schema برای خروجیهای ساختاریافته. گلوگاههای داده را با data contract، استانداردسازی schema و privacy‑by‑design پیشاپیش رفع کنید. از خود AI برای debugging استفاده کنید: خوشهبندی خطاها، تحلیل لاگ، تولید تست و پایش drift؛ حلقه بازخورد کاربر را به چرخه ارزیابی/آموزش وصل کنید. در اجرا، چرخههای کوتاه با آزمایشهای کوچک، A/B تست، red teaming، runbook و داشبورد هفتگی مشترک میان محصول/فنی/داده/مالی را پیاده کنید. جمعبندی: چابکی، تمرکز بر عملکرد و کیفیت داده، و همراستایی زودهنگام ذینفعان، ROI سریعتر و برتر میدهد—نه صرفاً رفتن سراغ بزرگترین مدل.
#AI #ROI #LeanAI #MLOps #DataQuality #LLM #AIEvaluation #ProductStrategy
🟣لینک مقاله:
https://www.datasciencecentral.com/how-to-get-ai-to-deliver-superior-roi-faster/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
How to Get AI to Deliver Superior ROI, Faster (6 minute read)
🟢 خلاصه مقاله:
** این مقاله نشان میدهد کندی در ROIِ AI معمولاً از خودِ سازمان میآید: دادههای جزیرهای، QA ناکارآمد (مثل تولید garbage tokens و ارزیابیهای ناقص)، انتخاب مدلهای بیشازحد بزرگ و فرهنگی که «بزرگتر یعنی بهتر» را فضیلت میداند. راهحل، Lean AI است: از کوچکترین راهکار مؤثر شروع کنید، مدل متناسب با کار انتخاب کنید و با تکنیکهایی مانند fine‑tuning سبک، LoRA، distillation، quantization، RAG و caching هزینه/کیفیت را بهینه کنید و شاخصهایی مثل هزینه بهازای حل هر تیکت را بسنجید. از آغاز با CFO و ذینفعان روی KPIها، بودجه، ریسک و SLAها همراستا شوید و واحداقتصاد پروژه را قبل از کدنویسی مشخص کنید. QA را جدی بگیرید: ارزیابی چندلایه آفلاین/آنلاین، داده طلایی با rubric شفاف، تست رگرسیون خودکار، و enforce کردن schema برای خروجیهای ساختاریافته. گلوگاههای داده را با data contract، استانداردسازی schema و privacy‑by‑design پیشاپیش رفع کنید. از خود AI برای debugging استفاده کنید: خوشهبندی خطاها، تحلیل لاگ، تولید تست و پایش drift؛ حلقه بازخورد کاربر را به چرخه ارزیابی/آموزش وصل کنید. در اجرا، چرخههای کوتاه با آزمایشهای کوچک، A/B تست، red teaming، runbook و داشبورد هفتگی مشترک میان محصول/فنی/داده/مالی را پیاده کنید. جمعبندی: چابکی، تمرکز بر عملکرد و کیفیت داده، و همراستایی زودهنگام ذینفعان، ROI سریعتر و برتر میدهد—نه صرفاً رفتن سراغ بزرگترین مدل.
#AI #ROI #LeanAI #MLOps #DataQuality #LLM #AIEvaluation #ProductStrategy
🟣لینک مقاله:
https://www.datasciencecentral.com/how-to-get-ai-to-deliver-superior-roi-faster/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Data Science Central
How to Get AI to Deliver Superior ROI, Faster
LLM, SLM, TCO, RAG, Agents, BondingAI, xLLM, security, compliance, AI, LLM 2.0
Forwarded from Future Pulse Persian
پاول دوروف: آزادی اینترنت در حال نابودیه; ۴۱ سالگی رو جشن نمیگیرم
پاول دوروف در تولد ۴۱ سالگیاش نوشت:
«دیگه حس جشن ندارم؛ چون نسل ما داره اینترنت آزادی رو از دست میده که پدرانمون ساختن.
کشورهایی که روزی آزاد بودن، دارن به سمت کنترل کامل پیش میرن — از شناسه دیجیتال در بریتانیا تا اسکن پیامهای خصوصی در اتحادیه اروپا.
در آلمان منتقدان دولت تحت پیگردن، در بریتانیا مردم برای توییتهاشون زندانی میشن و در فرانسه از مدافعان آزادی بازجویی میشه.
ما فریب خوردیم تا باور کنیم باید سنت، حریم خصوصی و آزادی بیان رو قربانی کنیم.
من جشن نمیگیرم... چون زمان ما برای نجات آزادی تموم میشه.»
پاول دوروف در تولد ۴۱ سالگیاش نوشت:
«دیگه حس جشن ندارم؛ چون نسل ما داره اینترنت آزادی رو از دست میده که پدرانمون ساختن.
کشورهایی که روزی آزاد بودن، دارن به سمت کنترل کامل پیش میرن — از شناسه دیجیتال در بریتانیا تا اسکن پیامهای خصوصی در اتحادیه اروپا.
در آلمان منتقدان دولت تحت پیگردن، در بریتانیا مردم برای توییتهاشون زندانی میشن و در فرانسه از مدافعان آزادی بازجویی میشه.
ما فریب خوردیم تا باور کنیم باید سنت، حریم خصوصی و آزادی بیان رو قربانی کنیم.
من جشن نمیگیرم... چون زمان ما برای نجات آزادی تموم میشه.»
🔵 عنوان مقاله
Are Foundation Models Ready for Your Production Tabular Data? (10 minute read)
🟢 خلاصه مقاله:
**مدلهای بنیادین مخصوص دادههای جدولی مثل TabPFN، CARTE، TabuLa-8b و TabDPT اکنون میتوانند بدون آموزش یا با دادههای اندک (zero-shot/few-shot) پیشبینیهای رقابتی ارائه دهند و در مجموعهدادههای کوچک تا متوسط و ناهمگون، اغلب از روشهای کلاسیک مانند XGBoost بهتر عمل میکنند. این توانمندیها حاصل معماریهای پیشرفتهای است که تعامل ویژگیها و زمینه داده را با سازوکارهایی مثل transformer-based attention، تع嵌ههای گرافی و context-aware learning مدل میکنند. از نظر تجربه توسعه نیز، APIهای شبیه Scikit-learn ادغام را ساده میسازد. با این حال، محدودیتهای مهمی باقی است: نیاز محاسباتی و حافظه بالا، تأخیر در استنتاج، و چالشهای مقیاسپذیری در دادههای خیلی بزرگ یا با کاردینالیته بالا. بنابراین برای تولید، باید روی دادههای خودتان بنچمارک بگیرید، هزینه/تأخیر را بسنجید، و ملاحظات MLOps مثل مانیتورینگ، تفسیرپذیری و مدیریت تغییر توزیع را در نظر بگیرید. جمعبندی: این مدلها برای مسائل کوچک تا متوسط و سناریوهای کمبرچسب امیدوارکننده و قابل ادغاماند، اما پذیرش آنها باید سنجیده و متکی به ارزیابی و طراحی استقرار مقرونبهصرفه باشد.
#TabularData #FoundationModels #XGBoost #ScikitLearn #Transformers #MLOps #FewShotLearning #AutoML
🟣لینک مقاله:
https://towardsdatascience.com/foundation-models-in-tabular-data/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Are Foundation Models Ready for Your Production Tabular Data? (10 minute read)
🟢 خلاصه مقاله:
**مدلهای بنیادین مخصوص دادههای جدولی مثل TabPFN، CARTE، TabuLa-8b و TabDPT اکنون میتوانند بدون آموزش یا با دادههای اندک (zero-shot/few-shot) پیشبینیهای رقابتی ارائه دهند و در مجموعهدادههای کوچک تا متوسط و ناهمگون، اغلب از روشهای کلاسیک مانند XGBoost بهتر عمل میکنند. این توانمندیها حاصل معماریهای پیشرفتهای است که تعامل ویژگیها و زمینه داده را با سازوکارهایی مثل transformer-based attention، تع嵌ههای گرافی و context-aware learning مدل میکنند. از نظر تجربه توسعه نیز، APIهای شبیه Scikit-learn ادغام را ساده میسازد. با این حال، محدودیتهای مهمی باقی است: نیاز محاسباتی و حافظه بالا، تأخیر در استنتاج، و چالشهای مقیاسپذیری در دادههای خیلی بزرگ یا با کاردینالیته بالا. بنابراین برای تولید، باید روی دادههای خودتان بنچمارک بگیرید، هزینه/تأخیر را بسنجید، و ملاحظات MLOps مثل مانیتورینگ، تفسیرپذیری و مدیریت تغییر توزیع را در نظر بگیرید. جمعبندی: این مدلها برای مسائل کوچک تا متوسط و سناریوهای کمبرچسب امیدوارکننده و قابل ادغاماند، اما پذیرش آنها باید سنجیده و متکی به ارزیابی و طراحی استقرار مقرونبهصرفه باشد.
#TabularData #FoundationModels #XGBoost #ScikitLearn #Transformers #MLOps #FewShotLearning #AutoML
🟣لینک مقاله:
https://towardsdatascience.com/foundation-models-in-tabular-data/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Towards Data Science
Are Foundation Models Ready for Your Production Tabular Data? | Towards Data Science
A complete review of architectures to make zero-shot predictions in the most common types of datasets.
🔵 عنوان مقاله
Introducing Apache Airflow® 3.1 (8 minute read)
🟢 خلاصه مقاله:
**نسخه 3.1 از Apache Airflow با تمرکز بر جریانهای داده مدرن، امکاناتی مانند اپراتورهای HITL و اجرای همگام DAG را برای پوشش بهتر سناریوهای GenAI/MLOps ارائه میکند. این نسخه یک رابط افزونه مبتنی بر React برای توسعه رابط کاربری سفارشی اضافه کرده و تجربه کاربری را با قابلیتهایی مثل افزودن DAG به علاقهمندیها و انتخاب زبان بهبود میدهد. همچنین زمان پارس شدن DAGها را نمایش میدهد، از Python 3.13 پشتیبانی میکند و یک trigger rule جدید برای انعطافپذیری بیشتر در تعریف وابستگیها ارائه شده است.
#ApacheAirflow #Airflow3_1 #DataEngineering #MLOps #GenAI #Python313 #DAG #WorkflowOrchestration
🟣لینک مقاله:
https://www.astronomer.io/blog/introducing-apache-airflow-3-1/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Introducing Apache Airflow® 3.1 (8 minute read)
🟢 خلاصه مقاله:
**نسخه 3.1 از Apache Airflow با تمرکز بر جریانهای داده مدرن، امکاناتی مانند اپراتورهای HITL و اجرای همگام DAG را برای پوشش بهتر سناریوهای GenAI/MLOps ارائه میکند. این نسخه یک رابط افزونه مبتنی بر React برای توسعه رابط کاربری سفارشی اضافه کرده و تجربه کاربری را با قابلیتهایی مثل افزودن DAG به علاقهمندیها و انتخاب زبان بهبود میدهد. همچنین زمان پارس شدن DAGها را نمایش میدهد، از Python 3.13 پشتیبانی میکند و یک trigger rule جدید برای انعطافپذیری بیشتر در تعریف وابستگیها ارائه شده است.
#ApacheAirflow #Airflow3_1 #DataEngineering #MLOps #GenAI #Python313 #DAG #WorkflowOrchestration
🟣لینک مقاله:
https://www.astronomer.io/blog/introducing-apache-airflow-3-1/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
www.astronomer.io
Introducing Apache Airflow® 3.1
The momentum continues from the release of Airflow 3
🔵 عنوان مقاله
pgwatch 4.0: A Flexible Postgres Monitoring Solution
🟢 خلاصه مقاله:
pgwatch 4.0 یک راهکار منعطف برای پایش Postgres است که با داشبوردهای Grafana یک رابط کاربرپسند ارائه میدهد. کاربران میتوانند متریکهایی مانند سلامت، کارایی، استفاده از ایندکس، I/O و روندها را مشاهده و تحلیل کنند تا الگوها و گلوگاهها را سریعتر شناسایی کرده و برای بهینهسازی و برنامهریزی ظرفیت تصمیمهای دقیقتری بگیرند. هدف، سادهسازی نظارت روزمره در عین نمایش عمق دادههای مورد نیاز تیمهای فنی است.
#Postgres #pgwatch #Grafana #DatabaseMonitoring #PerformanceMonitoring #Observability #DevOps
🟣لینک مقاله:
https://postgresweekly.com/link/175402/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
pgwatch 4.0: A Flexible Postgres Monitoring Solution
🟢 خلاصه مقاله:
pgwatch 4.0 یک راهکار منعطف برای پایش Postgres است که با داشبوردهای Grafana یک رابط کاربرپسند ارائه میدهد. کاربران میتوانند متریکهایی مانند سلامت، کارایی، استفاده از ایندکس، I/O و روندها را مشاهده و تحلیل کنند تا الگوها و گلوگاهها را سریعتر شناسایی کرده و برای بهینهسازی و برنامهریزی ظرفیت تصمیمهای دقیقتری بگیرند. هدف، سادهسازی نظارت روزمره در عین نمایش عمق دادههای مورد نیاز تیمهای فنی است.
#Postgres #pgwatch #Grafana #DatabaseMonitoring #PerformanceMonitoring #Observability #DevOps
🟣لینک مقاله:
https://postgresweekly.com/link/175402/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
pgwat.ch
Hello world! - 🔬 pgwatch
pgwatch is a flexible PostgreSQL-specific monitoring solution
Forwarded from Future Pulse Persian
This media is not supported in your browser
VIEW IN TELEGRAM
وقتی یک خط کد به پروزه اضافه میکنی😂
🤩1
🔵 عنوان مقاله
Uber's Strategy to Upgrading 2M+ Spark Jobs (10 minute read)
🟢 خلاصه مقاله:
ارتقای گسترده Uber از Spark 2.4 به Spark 3.3 در مقیاس بزرگ انجام شد و طی شش ماه بیش از ۴۰هزار برنامه Spark و ۲۱۰۰ برنامه دیگر مهاجرت یافت. برای پرهیز از تغییرات دستی زمانبر و پرخطا، Uber فرآیند را خودکار کرد و از ابزار متنباز Polyglot Piranha استفاده نمود؛ ابزاری که کد را تجزیه کرده و به Abstract Syntax Tree (AST) تبدیل میکند تا با اعمال «قوانین تبدیل»، بازنویسیهای برنامهریزیشده و یکدست در سطح انبوه انجام شود. این رویکرد، تغییرات گسترده را با ثبات و سرعت بیشتر ممکن کرد، ریسک خطا را کاهش داد و مسیر بهرهگیری یکپارچه از قابلیتهای Spark 3.3 را در زیرساخت داده Uber هموار ساخت.
#Uber #ApacheSpark #PolyglotPiranha #AST #CodeRefactoring #BigData #Migration #Automation
🟣لینک مقاله:
https://www.uber.com/blog/ubers-strategy-to-upgrading-2m-spark-jobs/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Uber's Strategy to Upgrading 2M+ Spark Jobs (10 minute read)
🟢 خلاصه مقاله:
ارتقای گسترده Uber از Spark 2.4 به Spark 3.3 در مقیاس بزرگ انجام شد و طی شش ماه بیش از ۴۰هزار برنامه Spark و ۲۱۰۰ برنامه دیگر مهاجرت یافت. برای پرهیز از تغییرات دستی زمانبر و پرخطا، Uber فرآیند را خودکار کرد و از ابزار متنباز Polyglot Piranha استفاده نمود؛ ابزاری که کد را تجزیه کرده و به Abstract Syntax Tree (AST) تبدیل میکند تا با اعمال «قوانین تبدیل»، بازنویسیهای برنامهریزیشده و یکدست در سطح انبوه انجام شود. این رویکرد، تغییرات گسترده را با ثبات و سرعت بیشتر ممکن کرد، ریسک خطا را کاهش داد و مسیر بهرهگیری یکپارچه از قابلیتهای Spark 3.3 را در زیرساخت داده Uber هموار ساخت.
#Uber #ApacheSpark #PolyglotPiranha #AST #CodeRefactoring #BigData #Migration #Automation
🟣لینک مقاله:
https://www.uber.com/blog/ubers-strategy-to-upgrading-2m-spark-jobs/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
🔵 عنوان مقاله
pgschema: Declarative Schema Migrations for Postgres
🟢 خلاصه مقاله:
pgschema ابزاری برای مدیریت declarative تغییرات اسکیمای Postgres است؛ مشابه کاری که Terraform برای زیرساخت انجام میدهد. شما حالت مطلوب اسکیمای دیتابیس را در فایلها تعریف میکنید، ابزار اختلاف با وضعیت فعلی را محاسبه میکند، یک plan شفاف نشان میدهد و تغییرات را بهصورت امن و قابل تکرار اعمال میکند. قابلیتهایی مانند تشخیص drift، گارد برای تغییرات مخرب، جریانهای ارتقا بین محیطها، dry-run و ادغام با CI/CD را فراهم میکند و روی آبجکتهای اصلی Postgres مانند schema، جدول، ایندکس، constraint، extension و نقشها/مجوزها تمرکز دارد. کد منبع در GitHub در دسترس است و برای تیمهایی که به رویکرد Infrastructure as Code متکیاند، یک گردشکار شفاف و ایمن ارائه میدهد.
#Postgres #SchemaMigration #Declarative #InfrastructureAsCode #DevOps #DatabaseAutomation #Terraform #GitHub
🟣لینک مقاله:
https://postgresweekly.com/link/174763/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
pgschema: Declarative Schema Migrations for Postgres
🟢 خلاصه مقاله:
pgschema ابزاری برای مدیریت declarative تغییرات اسکیمای Postgres است؛ مشابه کاری که Terraform برای زیرساخت انجام میدهد. شما حالت مطلوب اسکیمای دیتابیس را در فایلها تعریف میکنید، ابزار اختلاف با وضعیت فعلی را محاسبه میکند، یک plan شفاف نشان میدهد و تغییرات را بهصورت امن و قابل تکرار اعمال میکند. قابلیتهایی مانند تشخیص drift، گارد برای تغییرات مخرب، جریانهای ارتقا بین محیطها، dry-run و ادغام با CI/CD را فراهم میکند و روی آبجکتهای اصلی Postgres مانند schema، جدول، ایندکس، constraint، extension و نقشها/مجوزها تمرکز دارد. کد منبع در GitHub در دسترس است و برای تیمهایی که به رویکرد Infrastructure as Code متکیاند، یک گردشکار شفاف و ایمن ارائه میدهد.
#Postgres #SchemaMigration #Declarative #InfrastructureAsCode #DevOps #DatabaseAutomation #Terraform #GitHub
🟣لینک مقاله:
https://postgresweekly.com/link/174763/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
pgschema
Introduction - pgschema
Declarative schema migration for Postgres
🔵 عنوان مقاله
Why Python Data Engineers Should Know Kafka and Flink (3 minute read)
🟢 خلاصه مقاله:
یادگیری Kafka و Flink برای مهندسان دادهی Python مسیر سریع ساخت سامانههای استریمی قابلاتکا و کمتأخیر است، بدون نیاز به ترک زبان و ابزارهای آشنا. پیشرفتهای اخیر در Python API—بهویژه PyFlink و کلاینتهای پختهی Kafka—امکان ساخت کل پایپلاینهای استریم را با همان سینتکس Python فراهم کردهاند: خواندن/نوشتن از Kafka، پردازش stateful با پنجرهها و watermarks، و تضمینهای exactly-once، همگی از دل Python. نتیجه این است که میتوانید منطق کسبوکار را در Python بنویسید و Flink بار سنگین مقیاس، وضعیت و پایداری را برعهده بگیرد. کاربردها شامل ETL بلادرنگ، پایش عملیاتی، KPIهای نزدیک به زمان واقعی و پایپلاین ویژگیهای ML است. شروع کار ساده است: یک topic در Kafka، یک job کوچک در PyFlink برای تجمع پنجرهای، و سپس سختسازی با checkpoint، تکامل اسکیمایی و رصدپذیری.
#Python #Kafka #Flink #PyFlink #StreamProcessing #DataEngineering #RealTimeData #EventDriven
🟣لینک مقاله:
https://thenewstack.io/why-python-data-engineers-should-know-kafka-and-flink/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Why Python Data Engineers Should Know Kafka and Flink (3 minute read)
🟢 خلاصه مقاله:
یادگیری Kafka و Flink برای مهندسان دادهی Python مسیر سریع ساخت سامانههای استریمی قابلاتکا و کمتأخیر است، بدون نیاز به ترک زبان و ابزارهای آشنا. پیشرفتهای اخیر در Python API—بهویژه PyFlink و کلاینتهای پختهی Kafka—امکان ساخت کل پایپلاینهای استریم را با همان سینتکس Python فراهم کردهاند: خواندن/نوشتن از Kafka، پردازش stateful با پنجرهها و watermarks، و تضمینهای exactly-once، همگی از دل Python. نتیجه این است که میتوانید منطق کسبوکار را در Python بنویسید و Flink بار سنگین مقیاس، وضعیت و پایداری را برعهده بگیرد. کاربردها شامل ETL بلادرنگ، پایش عملیاتی، KPIهای نزدیک به زمان واقعی و پایپلاین ویژگیهای ML است. شروع کار ساده است: یک topic در Kafka، یک job کوچک در PyFlink برای تجمع پنجرهای، و سپس سختسازی با checkpoint، تکامل اسکیمایی و رصدپذیری.
#Python #Kafka #Flink #PyFlink #StreamProcessing #DataEngineering #RealTimeData #EventDriven
🟣لینک مقاله:
https://thenewstack.io/why-python-data-engineers-should-know-kafka-and-flink/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
The New Stack
Why Python Data Engineers Should Know Kafka and Flink
Excellent integrations make these frameworks seamlessly accessible to Python developers, allowing them to use these powerful tools without deep Java knowledge.
🔵 عنوان مقاله
Apache Parquet vs. Newer File Formats (BtrBlocks, FastLanes, Lance, Vortex) (7 minute read)
🟢 خلاصه مقاله:
Apache Parquet بیش از یک دهه فرمت ستونی غالب بوده و به لطف چیدمان ستونی، فشردهسازی مؤثر و پشتیبانی گسترده در اکوسیستمهایی مثل Spark و Iceberg، برای اسکنهای حجیم و تحلیلهای دستهای عالی عمل میکند. اما با تغییر نیازها به سمت AI و سختافزارهای جدید مثل NVMe، SIMD و GPU، فرمتهای تازهای مانند BtrBlocks، FastLanes، Lance، Vortex و Nimble معرفی شدهاند که روی دسترسی کمتأخیر، بهرهگیری از SIMD/GPU و خواندن گزینشی داده تمرکز دارند. این فرمتها معمولاً با بازطراحی کُدگذاری و چیدمان صفحات، سربار پردازش را کاهش میدهند و برای پایپلاینهای AI و تحلیل تعاملی مناسبتر میشوند. در مقابل، Parquet از بلوغ و سازگاری گسترده برخوردار است و ابزارها و عملیات پایدارتری دارد. راهبرد منطقی، حفظ Parquet برای تبادل و تحلیل عمومی و استفاده هدفمند از فرمتهای جدید در سناریوهایی است که بهبود ملموسی در تأخیر یا هزینه محاسباتی روی NVMe/GPU نشان میدهند.
#ApacheParquet #FileFormats #ColumnarStorage #AI #GPU #NVMe #SIMD #DataEngineering
🟣لینک مقاله:
https://dipankar-tnt.medium.com/apache-parquet-vs-newer-file-formats-btrblocks-fastlanes-lance-vortex-cdf02130182c?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Apache Parquet vs. Newer File Formats (BtrBlocks, FastLanes, Lance, Vortex) (7 minute read)
🟢 خلاصه مقاله:
Apache Parquet بیش از یک دهه فرمت ستونی غالب بوده و به لطف چیدمان ستونی، فشردهسازی مؤثر و پشتیبانی گسترده در اکوسیستمهایی مثل Spark و Iceberg، برای اسکنهای حجیم و تحلیلهای دستهای عالی عمل میکند. اما با تغییر نیازها به سمت AI و سختافزارهای جدید مثل NVMe، SIMD و GPU، فرمتهای تازهای مانند BtrBlocks، FastLanes، Lance، Vortex و Nimble معرفی شدهاند که روی دسترسی کمتأخیر، بهرهگیری از SIMD/GPU و خواندن گزینشی داده تمرکز دارند. این فرمتها معمولاً با بازطراحی کُدگذاری و چیدمان صفحات، سربار پردازش را کاهش میدهند و برای پایپلاینهای AI و تحلیل تعاملی مناسبتر میشوند. در مقابل، Parquet از بلوغ و سازگاری گسترده برخوردار است و ابزارها و عملیات پایدارتری دارد. راهبرد منطقی، حفظ Parquet برای تبادل و تحلیل عمومی و استفاده هدفمند از فرمتهای جدید در سناریوهایی است که بهبود ملموسی در تأخیر یا هزینه محاسباتی روی NVMe/GPU نشان میدهند.
#ApacheParquet #FileFormats #ColumnarStorage #AI #GPU #NVMe #SIMD #DataEngineering
🟣لینک مقاله:
https://dipankar-tnt.medium.com/apache-parquet-vs-newer-file-formats-btrblocks-fastlanes-lance-vortex-cdf02130182c?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Medium
Apache Parquet vs. Newer File Formats (BtrBlocks, FastLanes, Lance, Vortex)
For over a decade, Apache Parquet has been the cornerstone of analytical data storage. Parquet emerged in the Hadoop era as an open…
🔵 عنوان مقاله
PostgreSQL R2DBC Driver 1.1
🟢 خلاصه مقاله:
PostgreSQL R2DBC Driver 1.1 دسترسی Reactive و غیرمسدودکننده به PostgreSQL را برای برنامههای Java فراهم میکند. با تکیه بر R2DBC و پشتیبانی از backpressure، اجرای کوئریها و استریم نتایج بهصورت asynchronous انجام میشود و زیر بار بالا کارایی و بهرهوری منابع بهبود مییابد. این درایور با Project Reactor، Spring WebFlux و Spring Data R2DBC یکپارچه است و اجازه میدهد کل مسیر از HTTP تا دیتابیس Reactive باقی بماند و قابلیتهایی مثل ترکیب، لغو و مدیریت جریانها را فراهم میکند. نسخه 1.1 بر بلوغ و پایداری تمرکز دارد و با بهبود همخوانی با R2DBC SPI و بهینهسازی رفتار تحت فشار، برای استفاده تولیدی مناسبتر شده است. اگر معماری شما Reactive است یا به همزمانی بالا و استریم داده نیاز دارید، این درایور انتخاب مناسبی است؛ در سناریوهای ساده و مسدودکننده، JDBC همچنان میتواند گزینهای عملی باشد.
#PostgreSQL #R2DBC #Java #SpringWebFlux #ReactiveProgramming #NonBlocking #Databases #Performance
🟣لینک مقاله:
https://postgresweekly.com/link/175405/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
PostgreSQL R2DBC Driver 1.1
🟢 خلاصه مقاله:
PostgreSQL R2DBC Driver 1.1 دسترسی Reactive و غیرمسدودکننده به PostgreSQL را برای برنامههای Java فراهم میکند. با تکیه بر R2DBC و پشتیبانی از backpressure، اجرای کوئریها و استریم نتایج بهصورت asynchronous انجام میشود و زیر بار بالا کارایی و بهرهوری منابع بهبود مییابد. این درایور با Project Reactor، Spring WebFlux و Spring Data R2DBC یکپارچه است و اجازه میدهد کل مسیر از HTTP تا دیتابیس Reactive باقی بماند و قابلیتهایی مثل ترکیب، لغو و مدیریت جریانها را فراهم میکند. نسخه 1.1 بر بلوغ و پایداری تمرکز دارد و با بهبود همخوانی با R2DBC SPI و بهینهسازی رفتار تحت فشار، برای استفاده تولیدی مناسبتر شده است. اگر معماری شما Reactive است یا به همزمانی بالا و استریم داده نیاز دارید، این درایور انتخاب مناسبی است؛ در سناریوهای ساده و مسدودکننده، JDBC همچنان میتواند گزینهای عملی باشد.
#PostgreSQL #R2DBC #Java #SpringWebFlux #ReactiveProgramming #NonBlocking #Databases #Performance
🟣لینک مقاله:
https://postgresweekly.com/link/175405/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
GitHub
Release v1.1.0.RELEASE · pgjdbc/r2dbc-postgresql
⭐ New Features
Expose API to subscribe to Postgres notice messages #570
Add codecs for DayOfWeek, Month, MonthDay, Period, Year, YearMonth #591
Make CodecMetadata.getDataTypes() more flexible #600...
Expose API to subscribe to Postgres notice messages #570
Add codecs for DayOfWeek, Month, MonthDay, Period, Year, YearMonth #591
Make CodecMetadata.getDataTypes() more flexible #600...
متغیرهای سیستمی در SQL Server
در SQL Server، متغیرهایی که با @@ شروع میشوند به عنوان متغیرهای سیستمی شناخته میشوند و اطلاعات مهمی درباره وضعیت سرور، کوئریها، تراکنشها و تنظیمات جاری ارائه میدهند.
این متغیرها توسط SQL Server مدیریت میشوند و کاربر فقط میتواند مقادیر آنها را بخواند، نه تغییر دهد.
نکته پرفرمنس: استفاده مکرر از متغیرهای سیستمی روی کوئریهای سنگین تاثیری مستقیم روی سرعت ندارد، اما بررسیهای مکرر یا استفاده نادرست در کوئریهای پیچیده میتواند منجر به کدهای نامفهوم یا غیر بهینه شود.
در SQL Server، متغیرهایی که با @@ شروع میشوند به عنوان متغیرهای سیستمی شناخته میشوند و اطلاعات مهمی درباره وضعیت سرور، کوئریها، تراکنشها و تنظیمات جاری ارائه میدهند.
این متغیرها توسط SQL Server مدیریت میشوند و کاربر فقط میتواند مقادیر آنها را بخواند، نه تغییر دهد.
نکته پرفرمنس: استفاده مکرر از متغیرهای سیستمی روی کوئریهای سنگین تاثیری مستقیم روی سرعت ندارد، اما بررسیهای مکرر یا استفاده نادرست در کوئریهای پیچیده میتواند منجر به کدهای نامفهوم یا غیر بهینه شود.
❤1👍1
🔵 عنوان مقاله
Postgres 18 Released
🟢 خلاصه مقاله:
Postgres 18 طبق برنامه منتشر شد. این نسخه جهش انقلابی نیست، اما مجموعهای از بهبودهای هدفمند ارائه میدهد که در عمل به اجرای سریعتر کوئریها، استفاده مؤثرتر از ایندکسها، I/O کارآمدتر و نگهداری سبکتر (VACUUM/autovacuum) منجر میشود. بهینهسازیهای تکرار و بازیابی نیز پایداری و توان عملیاتی را برای سناریوهای High Availability بهتر میکنند. علاوه بر این، گزینههای پیکربندی و پایش شفافتر و سختگیریهای امنیتی تازه، مدیریت و تیونینگ را سادهتر میسازد. برای ارتقا، یادداشتهای نسخه را بررسی کنید، سازگاری اکستنشنها را بسنجید و روی محیط Stage با بار کاری واقعی تست بگیرید.
#Postgres #PostgreSQL #Database #Performance #Release #SQL #OpenSource #DevOps
🟣لینک مقاله:
https://postgresweekly.com/link/174773/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Postgres 18 Released
🟢 خلاصه مقاله:
Postgres 18 طبق برنامه منتشر شد. این نسخه جهش انقلابی نیست، اما مجموعهای از بهبودهای هدفمند ارائه میدهد که در عمل به اجرای سریعتر کوئریها، استفاده مؤثرتر از ایندکسها، I/O کارآمدتر و نگهداری سبکتر (VACUUM/autovacuum) منجر میشود. بهینهسازیهای تکرار و بازیابی نیز پایداری و توان عملیاتی را برای سناریوهای High Availability بهتر میکنند. علاوه بر این، گزینههای پیکربندی و پایش شفافتر و سختگیریهای امنیتی تازه، مدیریت و تیونینگ را سادهتر میسازد. برای ارتقا، یادداشتهای نسخه را بررسی کنید، سازگاری اکستنشنها را بسنجید و روی محیط Stage با بار کاری واقعی تست بگیرید.
#Postgres #PostgreSQL #Database #Performance #Release #SQL #OpenSource #DevOps
🟣لینک مقاله:
https://postgresweekly.com/link/174773/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
PostgreSQL News
PostgreSQL 18 Released!
The [PostgreSQL Global Development Group](https://www.postgresql.org) today announced the release of [PostgreSQL 18](https://www.postgresql.org/docs/18/release-18.html), the latest version of the world's most advanced …
تا حالا فکر کردین استراتژی redis برای پاک کردن کلیدهای cache که ttl اونها اکسپایر شده چیه؟
در واقع redis دو تا استراتژی داره که از ترکیب این دو برای مدیریت این موضوع استفاده میکنه.
1️- استراتژی اول که بهش میگن lazy expiration ساده ترینشه اینه که وقتی درخواستی برای گرفتن یه کلید اومد اول چک میکنه اون کلید اکسپایر شده یا نه اگه آره اون رو همونجا پاک میکنه و نال برمیگردونه.
2- خب اگه یه کلید برای مدتها صدا زده نشه چی؟ اینجاست که میرسیم به استراتژی دوم یعنی active expiration و به این شکله که میاد مثلا هر 100 میلی ثانیه توی لوپ یه batch که شامل مثلا 20 کلید تصادفی هست رو بررسی میکنه و اونایی که اکسپایر شدن رو پاک میکنه. اگه توی اون لوپ بیشتر از 25 درصد کلیدها پاک بشن اون رو زباله تشخیص میده و حدس میزنه کلیدهای بیشتری هم اکسپایر شدن پس یه batch دیگه اجرا میکنه و در نهایت لوپ تموم میشه تا دوباره لوپ بعدی.
برای همین برخلاف تصور، کلیدهای cache بالافاصله با اتمام ttl حذف نمیشن و ممکنه برای مدتی توی حافظه سرور باقی بمونن مخصوصا اگه حجم کلیدها بالا باشه.
پ.ن: چک کردن تعداد کلیدها در هر لوپ و تعداد اجرای لوپ در ثانیه توی کانفیگ redis قابل تنظیمه، ولی نکته ای که هست هر چی تعداد رو بالاتر ببرین کلیدها سریعتر حذف میشن اما cpu بیشتری درگیر میشه.
@ | <Farshad Tofighi/>
در واقع redis دو تا استراتژی داره که از ترکیب این دو برای مدیریت این موضوع استفاده میکنه.
1️- استراتژی اول که بهش میگن lazy expiration ساده ترینشه اینه که وقتی درخواستی برای گرفتن یه کلید اومد اول چک میکنه اون کلید اکسپایر شده یا نه اگه آره اون رو همونجا پاک میکنه و نال برمیگردونه.
2- خب اگه یه کلید برای مدتها صدا زده نشه چی؟ اینجاست که میرسیم به استراتژی دوم یعنی active expiration و به این شکله که میاد مثلا هر 100 میلی ثانیه توی لوپ یه batch که شامل مثلا 20 کلید تصادفی هست رو بررسی میکنه و اونایی که اکسپایر شدن رو پاک میکنه. اگه توی اون لوپ بیشتر از 25 درصد کلیدها پاک بشن اون رو زباله تشخیص میده و حدس میزنه کلیدهای بیشتری هم اکسپایر شدن پس یه batch دیگه اجرا میکنه و در نهایت لوپ تموم میشه تا دوباره لوپ بعدی.
برای همین برخلاف تصور، کلیدهای cache بالافاصله با اتمام ttl حذف نمیشن و ممکنه برای مدتی توی حافظه سرور باقی بمونن مخصوصا اگه حجم کلیدها بالا باشه.
پ.ن: چک کردن تعداد کلیدها در هر لوپ و تعداد اجرای لوپ در ثانیه توی کانفیگ redis قابل تنظیمه، ولی نکته ای که هست هر چی تعداد رو بالاتر ببرین کلیدها سریعتر حذف میشن اما cpu بیشتری درگیر میشه.
@ | <Farshad Tofighi/>
👍3
🔵 عنوان مقاله
ChartDB (Tool)
🟢 خلاصه مقاله:
ChartDB ابزاری برای تبدیل سریع schema پایگاهداده به ER diagram است که با ویرایش هوشمند مبتنی بر AI، همکاری همزمان و همگامسازی خودکار با دیتابیس زنده، کار تیمهای مهندسی را ساده میکند. از Postgres، MySQL، SQL Server و Oracle پشتیبانی میکند، DDL تمیز تولید میکند و مستندات قابل اشتراکگذاری با نسخهبندی ارائه میدهد تا مدلها و مستندات همیشه بهروز و قابل پیگیری بمانند.
#DatabaseDesign #ERD #DataModeling #AI #DevTools #Postgres #MySQL #SQLServer
🟣لینک مقاله:
https://chartdb.io/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
ChartDB (Tool)
🟢 خلاصه مقاله:
ChartDB ابزاری برای تبدیل سریع schema پایگاهداده به ER diagram است که با ویرایش هوشمند مبتنی بر AI، همکاری همزمان و همگامسازی خودکار با دیتابیس زنده، کار تیمهای مهندسی را ساده میکند. از Postgres، MySQL، SQL Server و Oracle پشتیبانی میکند، DDL تمیز تولید میکند و مستندات قابل اشتراکگذاری با نسخهبندی ارائه میدهد تا مدلها و مستندات همیشه بهروز و قابل پیگیری بمانند.
#DatabaseDesign #ERD #DataModeling #AI #DevTools #Postgres #MySQL #SQLServer
🟣لینک مقاله:
https://chartdb.io/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
chartdb.io
ChartDB - Database schema diagrams visualizer
Free and Open-source database diagrams editor, visualize and design your database with a single query.
Tool to help you draw your DB relationship diagrams and export DDL noscripts.
Tool to help you draw your DB relationship diagrams and export DDL noscripts.