🔵 عنوان مقاله
Hybrid Search in Postgres: The Missing Manual
🟢 خلاصه مقاله:
** این مقاله راهنمایی عملی برای جستوجوی هیبریدی در Postgres ارائه میکند و نشان میدهد چرا ترکیب امتیازدهی BM25 با ParadeDB و جستوجوی شباهت برداری با pgvector از جستوجوی متنی داخلی Postgres در ردهبندی مرتبطتر بهتر عمل میکند. BM25 پوشش دقیق کلیدواژه و عبارت را فراهم میکند، در حالیکه بردارها معنای پرسش را با واژههای هممعنی و بازنویسیها درمییابند. الگوی معمول یا انتخاب نامزدها با BM25 و بازمرتبسازی با شباهت برداری است، یا ادغام نتایج هر دو با وزندهی نرمالشده. همه اینها داخل یک پایگاه Postgres انجام میشود—با ایندکسهای متن و بردار—و بدون نیاز به موتورهای خارجی، در سناریوهایی مثل جستوجوی محصول، مستندات و Q&A به بهبود محسوس ربط نتایج نسبت به FTS بومی میانجامد.
#Postgres #HybridSearch #BM25 #pgvector #VectorSearch #FullTextSearch #ParadeDB #RelevanceRanking
🟣لینک مقاله:
https://postgresweekly.com/link/176019/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Hybrid Search in Postgres: The Missing Manual
🟢 خلاصه مقاله:
** این مقاله راهنمایی عملی برای جستوجوی هیبریدی در Postgres ارائه میکند و نشان میدهد چرا ترکیب امتیازدهی BM25 با ParadeDB و جستوجوی شباهت برداری با pgvector از جستوجوی متنی داخلی Postgres در ردهبندی مرتبطتر بهتر عمل میکند. BM25 پوشش دقیق کلیدواژه و عبارت را فراهم میکند، در حالیکه بردارها معنای پرسش را با واژههای هممعنی و بازنویسیها درمییابند. الگوی معمول یا انتخاب نامزدها با BM25 و بازمرتبسازی با شباهت برداری است، یا ادغام نتایج هر دو با وزندهی نرمالشده. همه اینها داخل یک پایگاه Postgres انجام میشود—با ایندکسهای متن و بردار—و بدون نیاز به موتورهای خارجی، در سناریوهایی مثل جستوجوی محصول، مستندات و Q&A به بهبود محسوس ربط نتایج نسبت به FTS بومی میانجامد.
#Postgres #HybridSearch #BM25 #pgvector #VectorSearch #FullTextSearch #ParadeDB #RelevanceRanking
🟣لینک مقاله:
https://postgresweekly.com/link/176019/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Paradedb
Hybrid Search in PostgreSQL: The Missing Manual
Build production-ready hybrid search that combines BM25 lexical matching with vector similarity search, all inside PostgreSQL
🔵 عنوان مقاله
her experience of last week's PGConf EU event.
🟢 خلاصه مقاله:
تجربه نویسنده از PGConf EU هفته گذشته نشان میدهد که رویداد امسال ترکیبی از راهکارهای عملی، مطالعههای موردی واقعی و گفتوگوهای ارزشمند جانبی بود. تمرکز اصلی روی بهینهسازی کارایی، تابآوری عملیاتی، مهاجرتها، انتخاب Extensionها، استقرار ابری و Observability بود و نتیجهگیری او این است که اکوسیستم PostgreSQL بالغتر و قابلدسترستر از گذشته شده است. او در ادامه به آخرین مقاله Golang Weekly اشاره میکند که بهخوبی با این موضوعات پیوند میخورد: الگوهای مؤثر در Go برای کار با پایگاهداده، از جمله استفاده بهینه از database/sql، زمانهایی که استفاده از pgx ترجیح دارد، مدیریت context برای Timeout و Cancellation، Pooling اتصالها و راهبردهای Backpressure در بار همزمانی بالا. جمعبندی او این است که ترکیب درسهای PGConf EU با نکات Golang Weekly یک نقشه راه عملی برای ساخت سرویسهای دادهمحور در Go فراهم میکند؛ نقشهای که به بهبود پایههای کارایی، پوشش تست مسیرهای دسترسی به داده و شفافتر کردن SLOها با Observability بهتر منجر میشود.
#PGConfEU #PostgreSQL #Golang #GolangWeekly #DatabaseEngineering #PerformanceTuning #GoProgramming #Observability
🟣لینک مقاله:
https://postgresweekly.com/link/176359/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
her experience of last week's PGConf EU event.
🟢 خلاصه مقاله:
تجربه نویسنده از PGConf EU هفته گذشته نشان میدهد که رویداد امسال ترکیبی از راهکارهای عملی، مطالعههای موردی واقعی و گفتوگوهای ارزشمند جانبی بود. تمرکز اصلی روی بهینهسازی کارایی، تابآوری عملیاتی، مهاجرتها، انتخاب Extensionها، استقرار ابری و Observability بود و نتیجهگیری او این است که اکوسیستم PostgreSQL بالغتر و قابلدسترستر از گذشته شده است. او در ادامه به آخرین مقاله Golang Weekly اشاره میکند که بهخوبی با این موضوعات پیوند میخورد: الگوهای مؤثر در Go برای کار با پایگاهداده، از جمله استفاده بهینه از database/sql، زمانهایی که استفاده از pgx ترجیح دارد، مدیریت context برای Timeout و Cancellation، Pooling اتصالها و راهبردهای Backpressure در بار همزمانی بالا. جمعبندی او این است که ترکیب درسهای PGConf EU با نکات Golang Weekly یک نقشه راه عملی برای ساخت سرویسهای دادهمحور در Go فراهم میکند؛ نقشهای که به بهبود پایههای کارایی، پوشش تست مسیرهای دسترسی به داده و شفافتر کردن SLOها با Observability بهتر منجر میشود.
#PGConfEU #PostgreSQL #Golang #GolangWeekly #DatabaseEngineering #PerformanceTuning #GoProgramming #Observability
🟣لینک مقاله:
https://postgresweekly.com/link/176359/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
DEV Community
My PGConf EU 2025 experience
Last week marked the 2025 edition of PGConf EU. I had many roles, and I'm excited to let you know...
❤1
🔵 عنوان مقاله
Introducing pg_lake: Integrate Your Data Lakehouse with Postgres
🟢 خلاصه مقاله:
pg_lake مجموعهای از افزونهها برای Postgres است که اتصال مستقیم به درياچهداده و Lakehouse را ممکن میکند: پشتیبانی جامع از Iceberg و دسترسی به فایلهای Parquet، CSV و JSON بدون جابهجایی داده یا خروج از محیط Postgres. این راهکار با ادغام شفاف DuckDB در موتور پرسوجوی Postgres، اجرای برداری و ستونی سریع را برای اسکنها و تجمعهای سنگین فراهم میکند، در حالیکه همچنان با SQL آشنا کار میکنید. با pg_lake میتوانید دادههای دریاچه را مثل جدولهای عادی بخوانید، آنها را با جداول عملیاتی Postgres جوین بزنید و نیاز به ETL اضافی را کاهش دهید. پشتیبانی از Iceberg برای سناریوهایی مثل پارتیشنبندی و تکامل طرحواره مناسب است و مسیرهایی مانند تحلیلهای موردی، کوئریهای فدره، و مهاجرت تدریجی به Lakehouse را ساده میکند. کد و مستندات آن در GitHub در دسترس است.
#pg_lake #Postgres #DataLakehouse #Iceberg #DuckDB #Parquet #SQL #OpenSource
🟣لینک مقاله:
https://postgresweekly.com/link/176670/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Introducing pg_lake: Integrate Your Data Lakehouse with Postgres
🟢 خلاصه مقاله:
pg_lake مجموعهای از افزونهها برای Postgres است که اتصال مستقیم به درياچهداده و Lakehouse را ممکن میکند: پشتیبانی جامع از Iceberg و دسترسی به فایلهای Parquet، CSV و JSON بدون جابهجایی داده یا خروج از محیط Postgres. این راهکار با ادغام شفاف DuckDB در موتور پرسوجوی Postgres، اجرای برداری و ستونی سریع را برای اسکنها و تجمعهای سنگین فراهم میکند، در حالیکه همچنان با SQL آشنا کار میکنید. با pg_lake میتوانید دادههای دریاچه را مثل جدولهای عادی بخوانید، آنها را با جداول عملیاتی Postgres جوین بزنید و نیاز به ETL اضافی را کاهش دهید. پشتیبانی از Iceberg برای سناریوهایی مثل پارتیشنبندی و تکامل طرحواره مناسب است و مسیرهایی مانند تحلیلهای موردی، کوئریهای فدره، و مهاجرت تدریجی به Lakehouse را ساده میکند. کد و مستندات آن در GitHub در دسترس است.
#pg_lake #Postgres #DataLakehouse #Iceberg #DuckDB #Parquet #SQL #OpenSource
🟣لینک مقاله:
https://postgresweekly.com/link/176670/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Snowflake
Introducing pg_lake: Integrate Your Data Lakehouse with Postgres
Introducing pg_lake, a set of open-source PostgreSQL extensions from Snowflake that allow you to query, manage, and write to Iceberg tables in your data lakehouse.
🔵 عنوان مقاله
Don't Give Postgres Too Much Memory
🟢 خلاصه مقاله:
خلاصهای از دیدگاه Tomas این است که در Postgres همیشه «حافظه بیشتر=بهتر» نیست. بالا بردن بیمحابای maintenance_work_mem و work_mem میتواند اندازه مجموعه کاری را بزرگتر از CPU cache کند و با افزایش cache miss، سرعت مرتبسازی و هش را کم کند. علاوه بر آن، تخصیصهای بزرگ، بار مدیریت حافظه روی OS را زیاد میکند و در بار همزمان، چون work_mem بهازای هر نود و هر کوئری اعمال میشود، مصرف واقعی حافظه چندبرابر شده و افت کارایی رخ میدهد. نتیجه عملی: مقادیر را معقول و مرحلهای تنظیم کنید، با سناریوهای واقعی بنچمارک بگیرید، در صورت نیاز بهصورت موردی با SET مقدار work_mem را برای عملیات سنگین بالا ببرید، و به تعامل CPU cache و مدیریت حافظه OS توجه کنید؛ همیشه مقدار بیشتر سریعتر نیست.
#Postgres #PostgreSQL #DatabasePerformance #work_mem #maintenance_work_mem #CPUCaches #OSMemory
🟣لینک مقاله:
https://postgresweekly.com/link/176669/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Don't Give Postgres Too Much Memory
🟢 خلاصه مقاله:
خلاصهای از دیدگاه Tomas این است که در Postgres همیشه «حافظه بیشتر=بهتر» نیست. بالا بردن بیمحابای maintenance_work_mem و work_mem میتواند اندازه مجموعه کاری را بزرگتر از CPU cache کند و با افزایش cache miss، سرعت مرتبسازی و هش را کم کند. علاوه بر آن، تخصیصهای بزرگ، بار مدیریت حافظه روی OS را زیاد میکند و در بار همزمان، چون work_mem بهازای هر نود و هر کوئری اعمال میشود، مصرف واقعی حافظه چندبرابر شده و افت کارایی رخ میدهد. نتیجه عملی: مقادیر را معقول و مرحلهای تنظیم کنید، با سناریوهای واقعی بنچمارک بگیرید، در صورت نیاز بهصورت موردی با SET مقدار work_mem را برای عملیات سنگین بالا ببرید، و به تعامل CPU cache و مدیریت حافظه OS توجه کنید؛ همیشه مقدار بیشتر سریعتر نیست.
#Postgres #PostgreSQL #DatabasePerformance #work_mem #maintenance_work_mem #CPUCaches #OSMemory
🟣لینک مقاله:
https://postgresweekly.com/link/176669/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Tomas Vondra
Don't give Postgres too much memory
Can it be harmful to set maintenance_work_mem and work_mem limits very high?
🔵 عنوان مقاله
pg_timetable 6.1 Released: Advanced Job Scheduling Extension
🟢 خلاصه مقاله:
نسخه 6.1 از pg_timetable منتشر شد؛ یک افزونه مستقل و پخته برای زمانبندی کارها که کاملاً داخل پایگاه داده اجرا میشود. این ابزار اجازه میدهد در خود Postgres، فرمانها و کوئریها، برنامههای سیستمی و عملیات داخلی را زمانبندی کنید و وظایف را بهصورت زنجیرهای به هم متصل کنید تا گردشکارهای چندمرحلهای بسازید. اجرای زمانبندی داخل پایگاه داده، استقرار را ساده میکند، با سیاستهای دسترسی و پشتیبانگیری هماهنگ است و برای نگهداری دورهای، ETL، گزارشگیری، کنترل کیفیت داده و پشتیبان/خروجی گرفتن بسیار مناسب است. نسخه جدید بر بلوغ و آمادگی تولیدی این راهکار تأکید دارد و گزینهای عملی برای خودکارسازی مبتنی بر پایگاه داده بدون نیاز به سرویسهای خارجی اضافی ارائه میکند.
#pg_timetable #Postgres #JobScheduler #DatabaseAutomation #ETL #DevOps #OpenSource #DataEngineering
🟣لینک مقاله:
https://postgresweekly.com/link/176688/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
pg_timetable 6.1 Released: Advanced Job Scheduling Extension
🟢 خلاصه مقاله:
نسخه 6.1 از pg_timetable منتشر شد؛ یک افزونه مستقل و پخته برای زمانبندی کارها که کاملاً داخل پایگاه داده اجرا میشود. این ابزار اجازه میدهد در خود Postgres، فرمانها و کوئریها، برنامههای سیستمی و عملیات داخلی را زمانبندی کنید و وظایف را بهصورت زنجیرهای به هم متصل کنید تا گردشکارهای چندمرحلهای بسازید. اجرای زمانبندی داخل پایگاه داده، استقرار را ساده میکند، با سیاستهای دسترسی و پشتیبانگیری هماهنگ است و برای نگهداری دورهای، ETL، گزارشگیری، کنترل کیفیت داده و پشتیبان/خروجی گرفتن بسیار مناسب است. نسخه جدید بر بلوغ و آمادگی تولیدی این راهکار تأکید دارد و گزینهای عملی برای خودکارسازی مبتنی بر پایگاه داده بدون نیاز به سرویسهای خارجی اضافی ارائه میکند.
#pg_timetable #Postgres #JobScheduler #DatabaseAutomation #ETL #DevOps #OpenSource #DataEngineering
🟣لینک مقاله:
https://postgresweekly.com/link/176688/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
GitHub
GitHub - cybertec-postgresql/pg_timetable: pg_timetable: Advanced scheduling for PostgreSQL
pg_timetable: Advanced scheduling for PostgreSQL. Contribute to cybertec-postgresql/pg_timetable development by creating an account on GitHub.
🔵 عنوان مقاله
How Would You Like Your Iceberg Sir? Stream or Batch Ordered? (9 minute read)
🟢 خلاصه مقاله:
این مقاله توضیح میدهد که در جدولهای Iceberg، چیدمان Stream-order با حفظ ترتیب ورود داده برای پردازش ترتیبی و راهاندازی سریع جریانها مناسب است، در حالیکه چیدمان Batch-order با خوشهبندی دادهها کارایی پرسوجوهای تحلیلی را بهینه میکند. تلاش برای پشتیبانی همزمان هر دو نیاز در یک جدول، به سربار محاسباتی پنهان منجر میشود؛ بهویژه هنگام راهاندازی jobهای جریانی از دادههای Batch-order که مستلزم مرتبسازی و shuffling پرهزینه است. نتیجه این است که صرفهجویی ظاهری در فضای ذخیرهسازی با افزایش هزینههای محاسباتی از بین میرود. راهکار پیشنهادی، Confluent Tableflow است که دادههای جریانی را در Iceberg مادیسازی میکند و با نگهداشتن نمای مناسب برای هر سناریو، انعطافپذیری و کارایی بهتری ارائه میدهد—even اگر به معنای تقریباً دو برابر شدن فضای ذخیرهسازی باشد.
#ApacheIceberg #Streaming #BatchProcessing #DataEngineering #Confluent #Tableflow #DataLake #Lakehouse
🟣لینک مقاله:
https://jack-vanlightly.com/blog/2025/11/5/how-would-you-like-your-iceberg-sir-stream-or-batch-ordered?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
How Would You Like Your Iceberg Sir? Stream or Batch Ordered? (9 minute read)
🟢 خلاصه مقاله:
این مقاله توضیح میدهد که در جدولهای Iceberg، چیدمان Stream-order با حفظ ترتیب ورود داده برای پردازش ترتیبی و راهاندازی سریع جریانها مناسب است، در حالیکه چیدمان Batch-order با خوشهبندی دادهها کارایی پرسوجوهای تحلیلی را بهینه میکند. تلاش برای پشتیبانی همزمان هر دو نیاز در یک جدول، به سربار محاسباتی پنهان منجر میشود؛ بهویژه هنگام راهاندازی jobهای جریانی از دادههای Batch-order که مستلزم مرتبسازی و shuffling پرهزینه است. نتیجه این است که صرفهجویی ظاهری در فضای ذخیرهسازی با افزایش هزینههای محاسباتی از بین میرود. راهکار پیشنهادی، Confluent Tableflow است که دادههای جریانی را در Iceberg مادیسازی میکند و با نگهداشتن نمای مناسب برای هر سناریو، انعطافپذیری و کارایی بهتری ارائه میدهد—even اگر به معنای تقریباً دو برابر شدن فضای ذخیرهسازی باشد.
#ApacheIceberg #Streaming #BatchProcessing #DataEngineering #Confluent #Tableflow #DataLake #Lakehouse
🟣لینک مقاله:
https://jack-vanlightly.com/blog/2025/11/5/how-would-you-like-your-iceberg-sir-stream-or-batch-ordered?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Jack Vanlightly
How Would You Like Your Iceberg Sir? Stream or Batch Ordered? — Jack Vanlightly
Today I want to talk about stream analytics, batch analytics and Apache Iceberg. Stream and batch analytics work differently but both can be built on top of Iceberg, but due to their differences there can be a tug-of-war over the Iceberg table itself. In…
🔵 عنوان مقاله
The Search API Reset: Incumbents Retreat, Innovators Step Up (3 minute read)
🟢 خلاصه مقاله:
**خلاصه فارسی: بازنشستگی Bing Search API از سوی Microsoft و محدود شدن API جستوجوی Google به ۱۰ نتیجه در هر پرسش، نشانه چرخش به سمت بازیابیِ هوشمند و کنترلشده درون اکوسیستمهای خودِ این شرکتهاست. این تغییر دسترسی انبوه به دادههای وب را محدود میکند و سازمانها و توسعهدهندگان را به سمت خدمات میانجیِ مبتنی بر هوش مصنوعی سوق میدهد. در نتیجه، ارزش لایههای بازیابیِ سریع و انعطافپذیر برای RAG و گردشکارهای عاملمحور افزایش مییابد. همزمان بازیگران جدیدی مانند Perplexity و Parallel با ارائه تجربههای جستوجوی بهتر و محصولات چابکتر، استانداردها را بالاتر میبرند و فضا را برای راهکارهای تخصصی و عمودیِ بازیابی و داده باز میکنند.
#SearchAPI #AI #RAG #AgenticAI #Retrieval #Perplexity #Microsoft #Google
🟣لینک مقاله:
https://thenewstack.io/the-search-api-reset-incumbents-retreat-innovators-step-up/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
The Search API Reset: Incumbents Retreat, Innovators Step Up (3 minute read)
🟢 خلاصه مقاله:
**خلاصه فارسی: بازنشستگی Bing Search API از سوی Microsoft و محدود شدن API جستوجوی Google به ۱۰ نتیجه در هر پرسش، نشانه چرخش به سمت بازیابیِ هوشمند و کنترلشده درون اکوسیستمهای خودِ این شرکتهاست. این تغییر دسترسی انبوه به دادههای وب را محدود میکند و سازمانها و توسعهدهندگان را به سمت خدمات میانجیِ مبتنی بر هوش مصنوعی سوق میدهد. در نتیجه، ارزش لایههای بازیابیِ سریع و انعطافپذیر برای RAG و گردشکارهای عاملمحور افزایش مییابد. همزمان بازیگران جدیدی مانند Perplexity و Parallel با ارائه تجربههای جستوجوی بهتر و محصولات چابکتر، استانداردها را بالاتر میبرند و فضا را برای راهکارهای تخصصی و عمودیِ بازیابی و داده باز میکنند.
#SearchAPI #AI #RAG #AgenticAI #Retrieval #Perplexity #Microsoft #Google
🟣لینک مقاله:
https://thenewstack.io/the-search-api-reset-incumbents-retreat-innovators-step-up/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
The New Stack
The Search API Reset: Incumbents Retreat, Innovators Step Up
Google and Bing are restricting their search APIs, creating opportunities for new players to build the next generation of search infrastructure.
🔵 عنوان مقاله
pg_qualstats: Extension for Collecting Statistics About Predicates
🟢 خلاصه مقاله:
pg_qualstats یک افزونه برای PostgreSQL است که آمار مربوط به استفاده از گزارهها در WHERE و JOIN را جمعآوری میکند تا نشان دهد کدام فیلترها در عمل بیشترین استفاده و بیشترین اثر را دارند. این دادهها به شما کمک میکند برای بار کاری واقعی خود، ایندکسهای هدفمند (تکی، ترکیبی، جزئی یا بر اساس عبارت) طراحی کنید و با کاهش I/O و تأخیر، کارایی را بهبود دهید. میتوانید نتایج را مستقیم از نماهای افزونه ببینید یا از طریق POWA (Postgres Workload Analyzer) آنها را تحلیل و اولویتبندی کنید. در کنار ابزاری مثل pg_stat_statements، این افزونه مشخص میکند کدام بخش از یک کوئری پرهزینه است و در نتیجه یافتن ایندکسهای از دسترفته و ارزیابی اثربخشی ایندکسهای جدید سادهتر میشود.
#PostgreSQL #pg_qualstats #POWA #PostgresWorkloadAnalyzer #QueryOptimization #Indexing #DatabasePerformance
🟣لینک مقاله:
https://postgresweekly.com/link/175733/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
pg_qualstats: Extension for Collecting Statistics About Predicates
🟢 خلاصه مقاله:
pg_qualstats یک افزونه برای PostgreSQL است که آمار مربوط به استفاده از گزارهها در WHERE و JOIN را جمعآوری میکند تا نشان دهد کدام فیلترها در عمل بیشترین استفاده و بیشترین اثر را دارند. این دادهها به شما کمک میکند برای بار کاری واقعی خود، ایندکسهای هدفمند (تکی، ترکیبی، جزئی یا بر اساس عبارت) طراحی کنید و با کاهش I/O و تأخیر، کارایی را بهبود دهید. میتوانید نتایج را مستقیم از نماهای افزونه ببینید یا از طریق POWA (Postgres Workload Analyzer) آنها را تحلیل و اولویتبندی کنید. در کنار ابزاری مثل pg_stat_statements، این افزونه مشخص میکند کدام بخش از یک کوئری پرهزینه است و در نتیجه یافتن ایندکسهای از دسترفته و ارزیابی اثربخشی ایندکسهای جدید سادهتر میشود.
#PostgreSQL #pg_qualstats #POWA #PostgresWorkloadAnalyzer #QueryOptimization #Indexing #DatabasePerformance
🟣لینک مقاله:
https://postgresweekly.com/link/175733/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
GitHub
GitHub - powa-team/pg_qualstats: A PostgreSQL extension for collecting statistics about predicates, helping find what indices are…
A PostgreSQL extension for collecting statistics about predicates, helping find what indices are missing - powa-team/pg_qualstats
🔵 عنوان مقاله
14x Faster with 12x Less Compute: Sometimes Postgres Really is All You Need
🟢 خلاصه مقاله:
تیم جیمز یک کلاستر ۱۲ سروره مبتنی بر HBase/OpenTSDB را که برای دادههای سریزمانی استفاده میشد، با سامانهای بسیار سادهتر بر پایه Postgres/Timescale جایگزین کرد. نتیجه: پرسوجوها تا ۱۴ برابر سریعتر، با ۱۲ برابر محاسبات کمتر، و ۱۰۰٪ دسترسپذیری پس از مهاجرت.
آنها با تکیه بر SQL و قابلیتهای Timescale مانند hypertable، فشردهسازی، continuous aggregates و خطمشیهای نگهداشت داده، هم کارایی پرسوجوها و هم پایداری ingestion را بهبود دادند. طرح مهاجرت شامل dual-write، backfill موازی و اعتبارسنجی دقیق بود و در نهایت کل سامانه روی دو سرور با replication و failover خودکار پایدار شد.
پیام اصلی: برای بسیاری از بارهای کاری سریزمانی، Postgres/Timescale با طراحی درستِ شِما، ایندکسهای هدفمند و ابزارهای استاندارد، هزینه و پیچیدگی عملیاتی را بهطور چشمگیری کاهش میدهد و کارایی را بالا میبرد—گرچه برای نرخنوشتن یا کاردینالیتهی بسیار شدید، پایگاههای تخصصی هنوز مزیت دارند.
#Postgres #TimescaleDB #TimeSeries #OpenTSDB #HBase #DatabaseMigration #PerformanceEngineering #DevOps
🟣لینک مقاله:
https://postgresweekly.com/link/176022/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
14x Faster with 12x Less Compute: Sometimes Postgres Really is All You Need
🟢 خلاصه مقاله:
تیم جیمز یک کلاستر ۱۲ سروره مبتنی بر HBase/OpenTSDB را که برای دادههای سریزمانی استفاده میشد، با سامانهای بسیار سادهتر بر پایه Postgres/Timescale جایگزین کرد. نتیجه: پرسوجوها تا ۱۴ برابر سریعتر، با ۱۲ برابر محاسبات کمتر، و ۱۰۰٪ دسترسپذیری پس از مهاجرت.
آنها با تکیه بر SQL و قابلیتهای Timescale مانند hypertable، فشردهسازی، continuous aggregates و خطمشیهای نگهداشت داده، هم کارایی پرسوجوها و هم پایداری ingestion را بهبود دادند. طرح مهاجرت شامل dual-write، backfill موازی و اعتبارسنجی دقیق بود و در نهایت کل سامانه روی دو سرور با replication و failover خودکار پایدار شد.
پیام اصلی: برای بسیاری از بارهای کاری سریزمانی، Postgres/Timescale با طراحی درستِ شِما، ایندکسهای هدفمند و ابزارهای استاندارد، هزینه و پیچیدگی عملیاتی را بهطور چشمگیری کاهش میدهد و کارایی را بالا میبرد—گرچه برای نرخنوشتن یا کاردینالیتهی بسیار شدید، پایگاههای تخصصی هنوز مزیت دارند.
#Postgres #TimescaleDB #TimeSeries #OpenTSDB #HBase #DatabaseMigration #PerformanceEngineering #DevOps
🟣لینک مقاله:
https://postgresweekly.com/link/176022/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
YouTube
James Udiljak - 14x Faster with 12x Less Compute: Sometimes Postgres Really Is All You Need
How big is ""Big Data"" really? The definition has changed drastically over time.
In this talk, James recounts building his own database on top of Postgres to replace a legacy HBase/OpenTSDB cluster. While once considered ""Big Data"", the real-time monitoring…
In this talk, James recounts building his own database on top of Postgres to replace a legacy HBase/OpenTSDB cluster. While once considered ""Big Data"", the real-time monitoring…
🔵 عنوان مقاله
Perplexity's Open-Source Tool to Run Trillion-Parameter Models Without Costly Upgrades (4 minute read)
🟢 خلاصه مقاله:
Perplexity AI با معرفی ابزار متنباز TransferEngine امکان اجرای مدلهای تریلیونپارامتری را روی سختافزارهای متنوع و موجود فراهم کرده است. این سیستم با تکیه بر RDMA ارتباط GPU-to-GPU را در محیطهای ترکیبی AWS و Nvidia بهینه میکند و با دستیابی به 400 Gbps روی ConnectX-7 و AWS EFA، نیاز به ارتقای گرانقیمت را برطرف میسازد و وابستگی به یک فروشنده را کاهش میدهد. TransferEngine برای بارهای کاری LLM طراحی شده و مسیریابی Mixture-of-Experts را کارآمد میکند؛ در نتیجه اجرای مدلهایی مانند DeepSeek V3 و Kimi K2 با تأخیر کم و مقیاسپذیر ممکن میشود. متنباز بودن آن نیز ادغام، توسعه و استفاده در پشتههای موجود را ساده میکند.
#OpenSource #LLM #RDMA #GPU #AWS #Nvidia #MixtureOfExperts #AIInfrastructure
🟣لینک مقاله:
https://www.infoworld.com/article/4085830/perplexitys-open-source-tool-to-run-trillion-parameter-models-without-costly-upgrades-2.html?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Perplexity's Open-Source Tool to Run Trillion-Parameter Models Without Costly Upgrades (4 minute read)
🟢 خلاصه مقاله:
Perplexity AI با معرفی ابزار متنباز TransferEngine امکان اجرای مدلهای تریلیونپارامتری را روی سختافزارهای متنوع و موجود فراهم کرده است. این سیستم با تکیه بر RDMA ارتباط GPU-to-GPU را در محیطهای ترکیبی AWS و Nvidia بهینه میکند و با دستیابی به 400 Gbps روی ConnectX-7 و AWS EFA، نیاز به ارتقای گرانقیمت را برطرف میسازد و وابستگی به یک فروشنده را کاهش میدهد. TransferEngine برای بارهای کاری LLM طراحی شده و مسیریابی Mixture-of-Experts را کارآمد میکند؛ در نتیجه اجرای مدلهایی مانند DeepSeek V3 و Kimi K2 با تأخیر کم و مقیاسپذیر ممکن میشود. متنباز بودن آن نیز ادغام، توسعه و استفاده در پشتههای موجود را ساده میکند.
#OpenSource #LLM #RDMA #GPU #AWS #Nvidia #MixtureOfExperts #AIInfrastructure
🟣لینک مقاله:
https://www.infoworld.com/article/4085830/perplexitys-open-source-tool-to-run-trillion-parameter-models-without-costly-upgrades-2.html?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
InfoWorld
Perplexity’s open-source tool to run trillion-parameter models without costly upgrades
TransferEngine enables GPU-to-GPU communication across AWS and Nvidia hardware, allowing trillion-parameter models to run on older systems.
🔵 عنوان مقاله
ShadowTraffic's Postgres Connector (Tool)
🟢 خلاصه مقاله:
کانکتور Postgres از ShadowTraffic دادههای تولیدشده را مستقیماً به Postgres استریم میکند و اختیار کامل مدیریت جدولها را میدهد: ساخت خودکار، حذف و ایجاد مجدد، یا واگذاری کامل به فرآیندهای دستی/مهاجرتهای موجود. با تنظیمات ساده میتوانید رفتار insert، update و delete را کنترل کنید و نوع ستونها، سرنخهای اسکیمای لازم و اندازه/بسامد دستهها را دقیقاً سفارشیسازی کنید. نتیجه این است که میتوانید داده را سریع شبیهسازی یا بهتدریج تکامل دهید، در حالیکه کنترل و شفافیت عملیاتی بر Postgres و بار وارد بر محیط را حفظ میکنید.
#ShadowTraffic #Postgres #DataStreaming #SyntheticData #DataGeneration #ETL #DatabaseTesting #DevTools
🟣لینک مقاله:
https://docs.shadowtraffic.io/connections/postgres/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
ShadowTraffic's Postgres Connector (Tool)
🟢 خلاصه مقاله:
کانکتور Postgres از ShadowTraffic دادههای تولیدشده را مستقیماً به Postgres استریم میکند و اختیار کامل مدیریت جدولها را میدهد: ساخت خودکار، حذف و ایجاد مجدد، یا واگذاری کامل به فرآیندهای دستی/مهاجرتهای موجود. با تنظیمات ساده میتوانید رفتار insert، update و delete را کنترل کنید و نوع ستونها، سرنخهای اسکیمای لازم و اندازه/بسامد دستهها را دقیقاً سفارشیسازی کنید. نتیجه این است که میتوانید داده را سریع شبیهسازی یا بهتدریج تکامل دهید، در حالیکه کنترل و شفافیت عملیاتی بر Postgres و بار وارد بر محیط را حفظ میکنید.
#ShadowTraffic #Postgres #DataStreaming #SyntheticData #DataGeneration #ETL #DatabaseTesting #DevTools
🟣لینک مقاله:
https://docs.shadowtraffic.io/connections/postgres/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
docs.shadowtraffic.io
ShadowTraffic Docs
Rapidly simulate production traffic to your backend
Announcing DuckDB 1.4.2 LTS
https://duckdb.org/2025/11/12/announcing-duckdb-142
https://duckdb.org/2025/11/12/announcing-duckdb-142
DuckDB
Announcing DuckDB 1.4.2 LTS
Today we are releasing DuckDB 1.4.2, the second patch release of our LTS edition. The new release ships several bugfixes and performance optimizations. We also fixed vulnerabilities in DuckDB's database encryption, and introduced some (opt-in) logger/profiler…
🔵 عنوان مقاله
Systems Thinking for Scaling Responsible Multi-Agent Architectures (50 minute video)
🟢 خلاصه مقاله:
این ارائه نشان میدهد مقیاسدهی سریع سامانههای هوش مصنوعی چندعاملی، به دلیل بازخوردها و برهمکنشهای غیرخطی، ریسکهای پیشبینینشده ایجاد میکند و به رویکردی مسئولانه و «سیستمی» نیاز دارد. با بهرهگیری از Causal Flow Diagrams و چارچوب Cynefin میتوان رفتارهای نوپدید را پیشاپیش دید، نقاط اهرمی را شناخت و میان کارایی، هزینه و تأثیر انسانی توازن برقرار کرد. کنترل مسئولانه بر پایه تنظیم پویا در «تابع پاداش»، سیاستها و ریلهای حفاظتی است و در کنار آن، حضور انسان در حلقه و حالتهای تنزلپذیر از بروز آسیب در شرایط مبهم جلوگیری میکند. ابزارهایی مانند LIME، SHAP و Arize به همراه telemetry، قابلیت مشاهدهپذیری و توضیحپذیری تصمیمات را فراهم میکنند و پایش مداوم رانش و عملکرد را ممکن میسازند. در نهایت، الگوهای معماری، ایزولیشن و حاکمیت داده/سیاست، بهعلاوه تست نفوذ (red-teaming) و پسامرتبهها، چرخه یادگیری را کامل میکنند. پیام اصلی: با نگاه «تفکر سیستمی»، مشاهدهپذیری قوی، مشوقهای سازگار و ریلهای حفاظتی لایهای، میتوان سامانههای چندعاملی را مسئولانه مقیاس داد.
#SystemsThinking #MultiAgent #ResponsibleAI #Explainability #Observability #Cynefin #CausalLoopDiagrams #AIEngineering
🟣لینک مقاله:
https://www.infoq.com/presentations/systems-thinking-multi-agent-architectures/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Systems Thinking for Scaling Responsible Multi-Agent Architectures (50 minute video)
🟢 خلاصه مقاله:
این ارائه نشان میدهد مقیاسدهی سریع سامانههای هوش مصنوعی چندعاملی، به دلیل بازخوردها و برهمکنشهای غیرخطی، ریسکهای پیشبینینشده ایجاد میکند و به رویکردی مسئولانه و «سیستمی» نیاز دارد. با بهرهگیری از Causal Flow Diagrams و چارچوب Cynefin میتوان رفتارهای نوپدید را پیشاپیش دید، نقاط اهرمی را شناخت و میان کارایی، هزینه و تأثیر انسانی توازن برقرار کرد. کنترل مسئولانه بر پایه تنظیم پویا در «تابع پاداش»، سیاستها و ریلهای حفاظتی است و در کنار آن، حضور انسان در حلقه و حالتهای تنزلپذیر از بروز آسیب در شرایط مبهم جلوگیری میکند. ابزارهایی مانند LIME، SHAP و Arize به همراه telemetry، قابلیت مشاهدهپذیری و توضیحپذیری تصمیمات را فراهم میکنند و پایش مداوم رانش و عملکرد را ممکن میسازند. در نهایت، الگوهای معماری، ایزولیشن و حاکمیت داده/سیاست، بهعلاوه تست نفوذ (red-teaming) و پسامرتبهها، چرخه یادگیری را کامل میکنند. پیام اصلی: با نگاه «تفکر سیستمی»، مشاهدهپذیری قوی، مشوقهای سازگار و ریلهای حفاظتی لایهای، میتوان سامانههای چندعاملی را مسئولانه مقیاس داد.
#SystemsThinking #MultiAgent #ResponsibleAI #Explainability #Observability #Cynefin #CausalLoopDiagrams #AIEngineering
🟣لینک مقاله:
https://www.infoq.com/presentations/systems-thinking-multi-agent-architectures/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
InfoQ
Systems Thinking for Scaling Responsible Multi-Agent Architectures
Nimisha Asthagiri explains the critical need for responsible AI in complex multi-agent systems. She shares practical techniques for engineering leaders and architects, applying systems thinking and Causal Flow Diagrams. She shows how these methods help predict…
TanStack DB 0.5 — Query-Driven Sync
https://tanstack.com/blog/tanstack-db-0.5-query-driven-sync
https://tanstack.com/blog/tanstack-db-0.5-query-driven-sync
Tanstack
TanStack DB 0.5 — Query-Driven Sync | TanStack Blog
You don't need a new API for every component. With 0.5, the component's query is the API call. tsx // Your component's query... const { data: projectTodos } = useLiveQuery((q) = q .from({ todos }) .jo...
Microsoft SQL Server Vulnerability Allows Privilege Escalation
https://gbhackers.com/microsoft-sql-server/
https://gbhackers.com/microsoft-sql-server/
GBHackers Security | #1 Globally Trusted Cyber Security News Platform
Microsoft SQL Server Vulnerability Allows Privilege Escalation
Microsoft has disclosed a critical SQL injection vulnerability in SQL Server that could allow authenticated attackers to escalate their privileges over a network.
🔵 عنوان مقاله
Perplexity Launches Search API to Power Next-Gen AI Applications (2 minute read)
🟢 خلاصه مقاله:
پرپلکسی با معرفی Search API یک سرویس جستوجوی بلادرنگ ارائه کرده که از فهرستی با پوشش صدها میلیارد صفحه وب تغذیه میشود و در هر ثانیه دهها هزار سند را بهروزرسانی میکند. این API قطعات وب از پیش رتبهبندیشده را برمیگرداند تا مدلها بدون ساختن خزنده و رنکینگ اختصاصی، به اطلاعات تازه و مرتبط دسترسی داشته باشند. این سرویس برای ایجنتهای هوشمند و retrieval‑augmented (RAG) طراحی شده و با سادهکردن فرآیند گراند کردن LLMs و کاهش پیشپردازش، ادغام را سریعتر میکند. نتایج اولیه بنچمارکهای open-source نشان میدهد کیفیت خروجی و تأخیر آن از جایگزینها بهتر است، و ابزارهای توسعهدهنده نیز امکان پروتوتایپسازی سریع را فراهم میکنند.
#Perplexity #SearchAPI #RAG #LLMs #AIAgents #WebSearch #DeveloperTools #APIs
🟣لینک مقاله:
https://www.infoq.com/news/2025/09/perplexity-search-api/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Perplexity Launches Search API to Power Next-Gen AI Applications (2 minute read)
🟢 خلاصه مقاله:
پرپلکسی با معرفی Search API یک سرویس جستوجوی بلادرنگ ارائه کرده که از فهرستی با پوشش صدها میلیارد صفحه وب تغذیه میشود و در هر ثانیه دهها هزار سند را بهروزرسانی میکند. این API قطعات وب از پیش رتبهبندیشده را برمیگرداند تا مدلها بدون ساختن خزنده و رنکینگ اختصاصی، به اطلاعات تازه و مرتبط دسترسی داشته باشند. این سرویس برای ایجنتهای هوشمند و retrieval‑augmented (RAG) طراحی شده و با سادهکردن فرآیند گراند کردن LLMs و کاهش پیشپردازش، ادغام را سریعتر میکند. نتایج اولیه بنچمارکهای open-source نشان میدهد کیفیت خروجی و تأخیر آن از جایگزینها بهتر است، و ابزارهای توسعهدهنده نیز امکان پروتوتایپسازی سریع را فراهم میکنند.
#Perplexity #SearchAPI #RAG #LLMs #AIAgents #WebSearch #DeveloperTools #APIs
🟣لینک مقاله:
https://www.infoq.com/news/2025/09/perplexity-search-api/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
InfoQ
Perplexity Launches Search API to Power Next-Gen AI Applications
Perplexity has introduced the Search API, opening up access to the same infrastructure that underpins its public answer engine. With coverage of hundreds of billions of webpages and infrastructure tuned for AI-heavy workloads, the new API is aimed at developers…
🔵 عنوان مقاله
The Transactional Graph-Enhanced LLM: A Definitive Guide to Read/Write Chatbots for Relational Data (9 minute read)
🟢 خلاصه مقاله:
این راهنما چارچوبی عملی برای ساخت چتباتهای مبتنی بر LLM ارائه میکند که هم قابلیت خواندن و هم نوشتن روی پایگاههای داده رابطهای سازمانی را دارند، با این ایده که یک Knowledge Graph (KG) بهعنوان لایه میانی و معنایی عمل کند. سه الگوی اصلی معماری معرفی میشود: ۱) KG بهعنوان cache برای خواندن سریع و معنایی، در حالی که عملیات نوشتن در RDB انجام میشود؛ ۲) KG بهعنوان منبع حقیقت برای نمایش دانش دامنه و وضعیت جاری، با همگامسازی گزینشی با سیستمهای رابطهای؛ و ۳) رویکرد ترکیبی الهامگرفته از CQRS که در آن KG مسئول خواندن و لایه معنایی (برای تفسیر نیت، نگاشت موجودیتها و اعتبارسنجی پرسوجو) است و RDB مسئول نوشتن و تراکنشها میباشد.
در الگوی CQRS، KG به LLM کمک میکند تا درخواستهای طبیعی را به پرسوجوهای دقیق (مثلاً SQL) ترجمه و پیش از اجرا اعتبارسنجی کند؛ خواندنها از KG انجام میشود و نوشتنها با حفظ ویژگیهای ACID در RDB صورت میگیرد. برای ایمنی و انطباق، از کنترل دسترسی، اعتبارسنجی dry-run، بررسی طرحواره، پارامتریکسازی پرسوجو، راهکارهای idempotency و برنامههای rollback استفاده میشود. همگامسازی KG و RDB معمولاً مبتنی بر رویداد یا change-data-capture است و نسخهبندی/منشأ داده در KG امکان ممیزی و توضیحپذیری را فراهم میکند. انتخاب بین سه الگو به نسبت بار خواندن/نوشتن، نیازهای یکپارچگی و حکمرانی داده و وضعیت پلتفرمهای موجود بستگی دارد.
#KnowledgeGraph #LLM #CQRS #RelationalData #Chatbots #AIArchitecture #EnterpriseData #GraphAI
🟣لینک مقاله:
https://blog.gopenai.com/the-transactional-graph-enhanced-llm-a-definitive-guide-to-read-write-chatbots-for-relational-data-6e1b280cefee?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
The Transactional Graph-Enhanced LLM: A Definitive Guide to Read/Write Chatbots for Relational Data (9 minute read)
🟢 خلاصه مقاله:
این راهنما چارچوبی عملی برای ساخت چتباتهای مبتنی بر LLM ارائه میکند که هم قابلیت خواندن و هم نوشتن روی پایگاههای داده رابطهای سازمانی را دارند، با این ایده که یک Knowledge Graph (KG) بهعنوان لایه میانی و معنایی عمل کند. سه الگوی اصلی معماری معرفی میشود: ۱) KG بهعنوان cache برای خواندن سریع و معنایی، در حالی که عملیات نوشتن در RDB انجام میشود؛ ۲) KG بهعنوان منبع حقیقت برای نمایش دانش دامنه و وضعیت جاری، با همگامسازی گزینشی با سیستمهای رابطهای؛ و ۳) رویکرد ترکیبی الهامگرفته از CQRS که در آن KG مسئول خواندن و لایه معنایی (برای تفسیر نیت، نگاشت موجودیتها و اعتبارسنجی پرسوجو) است و RDB مسئول نوشتن و تراکنشها میباشد.
در الگوی CQRS، KG به LLM کمک میکند تا درخواستهای طبیعی را به پرسوجوهای دقیق (مثلاً SQL) ترجمه و پیش از اجرا اعتبارسنجی کند؛ خواندنها از KG انجام میشود و نوشتنها با حفظ ویژگیهای ACID در RDB صورت میگیرد. برای ایمنی و انطباق، از کنترل دسترسی، اعتبارسنجی dry-run، بررسی طرحواره، پارامتریکسازی پرسوجو، راهکارهای idempotency و برنامههای rollback استفاده میشود. همگامسازی KG و RDB معمولاً مبتنی بر رویداد یا change-data-capture است و نسخهبندی/منشأ داده در KG امکان ممیزی و توضیحپذیری را فراهم میکند. انتخاب بین سه الگو به نسبت بار خواندن/نوشتن، نیازهای یکپارچگی و حکمرانی داده و وضعیت پلتفرمهای موجود بستگی دارد.
#KnowledgeGraph #LLM #CQRS #RelationalData #Chatbots #AIArchitecture #EnterpriseData #GraphAI
🟣لینک مقاله:
https://blog.gopenai.com/the-transactional-graph-enhanced-llm-a-definitive-guide-to-read-write-chatbots-for-relational-data-6e1b280cefee?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Medium
The Transactional Graph-Enhanced LLM: A Definitive Guide to Read/Write Chatbots for Relational Data
for better viewing experience read here
🔵 عنوان مقاله
is returning in 2026
🟢 خلاصه مقاله:
این رویداد در سال ۲۰۲۶ بازمیگردد و فراخوان ارائهها (CFP) اکنون باز است. کنفرانس در ژوئن برگزار میشود و مهلت ارسال تا اول فوریهٔ ۲۰۲۶ است. از ارائههای متنوع مانند سخنرانی، پنل، کارگاه و آموزش—برای سطوح مختلف مخاطب—استقبال میشود، بهویژه محتوایی که خروجیهای عملی و درسهای کاربردی ارائه کند. سخنرانان تازهکار نیز تشویق میشوند. برای ثبت پیشنهاد، یک چکیده روشن، سطح و مخاطب هدف، دستاوردهای یادگیری و یک بیوی کوتاه ارائه کنید. جزئیات کامل فرمتها، معیارهای ارزیابی و زمانبندی در صفحهٔ CFP موجود است؛ زودتر ارسال کنید تا با خیال راحت در مهلت بمانید.
#CFP #CallForPapers #Conference #Event #2026 #June2026 #TalkProposal #فراخوان_ارائه
🟣لینک مقاله:
https://postgresweekly.com/link/176983/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
is returning in 2026
🟢 خلاصه مقاله:
این رویداد در سال ۲۰۲۶ بازمیگردد و فراخوان ارائهها (CFP) اکنون باز است. کنفرانس در ژوئن برگزار میشود و مهلت ارسال تا اول فوریهٔ ۲۰۲۶ است. از ارائههای متنوع مانند سخنرانی، پنل، کارگاه و آموزش—برای سطوح مختلف مخاطب—استقبال میشود، بهویژه محتوایی که خروجیهای عملی و درسهای کاربردی ارائه کند. سخنرانان تازهکار نیز تشویق میشوند. برای ثبت پیشنهاد، یک چکیده روشن، سطح و مخاطب هدف، دستاوردهای یادگیری و یک بیوی کوتاه ارائه کنید. جزئیات کامل فرمتها، معیارهای ارزیابی و زمانبندی در صفحهٔ CFP موجود است؛ زودتر ارسال کنید تا با خیال راحت در مهلت بمانید.
#CFP #CallForPapers #Conference #Event #2026 #June2026 #TalkProposal #فراخوان_ارائه
🟣لینک مقاله:
https://postgresweekly.com/link/176983/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
POSETTE
POSETTE: An Event for Postgres 2026
Join us at POSETTE: An Event for Postgres, a virtual and free developer event happening on Jun 16-18, 2026. Come learn what you can do with the world’s most advanced open source relational database—from the nerdy to the sublime. Organized by the Postgres…
🔥1
🔵 عنوان مقاله
Did You Know Postgres Tables are Limited to 1,600 Columns?
🟢 خلاصه مقاله:
اگر نمیدانستید، در Postgres هر جدول حداکثر ۱۶۰۰ ستون میتواند داشته باشد. این یک محدودیت سخت در هسته سیستم است و با NULL بودن فیلدها یا TOAST دور زده نمیشود. اگر شماره issue 226 در سال 2017 را خوانده باشید، احتمالاً این نکته را به خاطر دارید. این سقف به معنای آن است که طراحیهایی با جدولهای بسیار عریض—مثل هر شاخص یک ستون یا طرحهای EAV تثبیتشده—بهسرعت به حد میخورند. راهحلهای بهتر شامل نرمالسازی، تفکیک عمودی، تبدیل ستونها به سطرها برای سنجهها، یا استفاده از JSONB برای ویژگیهای کماستفاده و پراکنده است. جدولهای خیلی عریض علاوه بر ریسک رسیدن به سقف، هزینه I/O و نگهداری را بالا میبرند. نتیجه عملی: با در نظر گرفتن حد ۱۶۰۰ ستون، از طرحهای باریکتر و انعطافپذیرتر استفاده کنید و قبل از اعمال مهاجرتها، تعداد ستونها را بررسی کنید.
#Postgres #PostgreSQL #SQL #DatabaseDesign #DataModeling #SchemaDesign #JSONB #SoftwareEngineering
🟣لینک مقاله:
https://postgresweekly.com/link/176989/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Did You Know Postgres Tables are Limited to 1,600 Columns?
🟢 خلاصه مقاله:
اگر نمیدانستید، در Postgres هر جدول حداکثر ۱۶۰۰ ستون میتواند داشته باشد. این یک محدودیت سخت در هسته سیستم است و با NULL بودن فیلدها یا TOAST دور زده نمیشود. اگر شماره issue 226 در سال 2017 را خوانده باشید، احتمالاً این نکته را به خاطر دارید. این سقف به معنای آن است که طراحیهایی با جدولهای بسیار عریض—مثل هر شاخص یک ستون یا طرحهای EAV تثبیتشده—بهسرعت به حد میخورند. راهحلهای بهتر شامل نرمالسازی، تفکیک عمودی، تبدیل ستونها به سطرها برای سنجهها، یا استفاده از JSONB برای ویژگیهای کماستفاده و پراکنده است. جدولهای خیلی عریض علاوه بر ریسک رسیدن به سقف، هزینه I/O و نگهداری را بالا میبرند. نتیجه عملی: با در نظر گرفتن حد ۱۶۰۰ ستون، از طرحهای باریکتر و انعطافپذیرتر استفاده کنید و قبل از اعمال مهاجرتها، تعداد ستونها را بررسی کنید.
#Postgres #PostgreSQL #SQL #DatabaseDesign #DataModeling #SchemaDesign #JSONB #SoftwareEngineering
🟣لینک مقاله:
https://postgresweekly.com/link/176989/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
🔵 عنوان مقاله
PostGraphile v5 Release Candidate
🟢 خلاصه مقاله:
** نسخه v5 از PostGraphile به مرحله Release Candidate رسیده است؛ ابزاری که مانند PostgREST برای RESTful، بهصورت خودکار یک GraphQL API مبتنی بر Postgres میسازد و طرحواره GraphQL را از همان ساختار دیتابیس (جداول، ویوها و فانکشنها) مشتق میکند. این RC نتیجه پنج سال کار است و نشان میدهد قابلیتها تقریباً تکمیل شدهاند و تمرکز روی پایداری و بازخورد دنیای واقعی است. برای تیمهایی که روی Postgres سرمایهگذاری کردهاند، PostGraphile لایه GraphQL را بهخوبی با مدل رابطهای همسو میکند و با تکیه بر ساختار و منطق موجود در دیتابیس، توسعه API را سریعتر و منسجمتر میسازد. در انتخاب مسیر، PostgREST برای APIهای ساده و RESTful مناسب است و PostGraphile زمانی میدرخشد که انعطافپذیری GraphQL مدنظر باشد. کاربران فعلی بهتر است قبل از ارتقا به v5، RC را در محیط آزمایشی امتحان کنند و یادداشتهای انتشار و تغییرات احتمالی را مرور کنند.
#PostGraphile #GraphQL #Postgres #API #ReleaseCandidate #OpenSource #Backend #DeveloperTools
🟣لینک مقاله:
https://postgresweekly.com/link/176691/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
PostGraphile v5 Release Candidate
🟢 خلاصه مقاله:
** نسخه v5 از PostGraphile به مرحله Release Candidate رسیده است؛ ابزاری که مانند PostgREST برای RESTful، بهصورت خودکار یک GraphQL API مبتنی بر Postgres میسازد و طرحواره GraphQL را از همان ساختار دیتابیس (جداول، ویوها و فانکشنها) مشتق میکند. این RC نتیجه پنج سال کار است و نشان میدهد قابلیتها تقریباً تکمیل شدهاند و تمرکز روی پایداری و بازخورد دنیای واقعی است. برای تیمهایی که روی Postgres سرمایهگذاری کردهاند، PostGraphile لایه GraphQL را بهخوبی با مدل رابطهای همسو میکند و با تکیه بر ساختار و منطق موجود در دیتابیس، توسعه API را سریعتر و منسجمتر میسازد. در انتخاب مسیر، PostgREST برای APIهای ساده و RESTful مناسب است و PostGraphile زمانی میدرخشد که انعطافپذیری GraphQL مدنظر باشد. کاربران فعلی بهتر است قبل از ارتقا به v5، RC را در محیط آزمایشی امتحان کنند و یادداشتهای انتشار و تغییرات احتمالی را مرور کنند.
#PostGraphile #GraphQL #Postgres #API #ReleaseCandidate #OpenSource #Backend #DeveloperTools
🟣لینک مقاله:
https://postgresweekly.com/link/176691/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
postgraphile.org
PostGraphile V5 release candidate! 🎉 | PostGraphile
The code is done, the docs and types need some love. Help us prepare for the release of PostGraphile V5!