Database Labdon – Telegram
Database Labdon
836 subscribers
33 photos
3 videos
1 file
821 links
🕸 Database Academy

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
🔵 عنوان مقاله
  Hands on Postgres 17: What's New and How It Impacts Performance

🟢 خلاصه مقاله:
مقاله مورد نظر بررسی یک وبینار یک ساعته است که به بررسی دقیق و مبتنی بر عملکرد به پیشرفت‌های متعدد و چشمگیر PostgreSQL نسخه 17 می‌پردازد. وبیناری که انجام شده، تمرکز اصلی خود را روی ارتقاء‌ها و بهبود‌های جدید در این نسخه قرار داده است که شامل تغییرات عمده در پایگاه داده‌ها و ویژگی‌های بروز شده به منظور بهبود عملکرد و کارایی است. این به روزرسانی‌ها در پوسترس 17 می‌تواند به کاربران کمک کند تا با سرعت بیشتری داده‌ها را پردازش کنند و با افزایش کارایی سیستم‌های مختلف، نتایج بهتری را در زمینه پردازش اطلاعات و مدیریت داده‌ها بدست آورند. وبینار توضیحاتی مفصل در مورد نحوه استفاده کاربران از این قابلیت‌های جدید و تأثیرات آن‌ها در فضای فناوری اطلاعات ارائه داده است.

🟣لینک مقاله:
https://postgresweekly.com/link/160789/web


👑 @Database_Academy
خیلی وسوسه انگیزه ولی چرا نباید از فیلدهای جیسون در پایگاه‌های داده رابطه‌ای مانند PostgreSQL و MySQL برای داده‌های تراکنشی استفاده کرد؟

به دلایل زیر:

١) کاهش کارایی جستجو و عملکرد:
جستجو و فیلتر کردن داده‌ها در یک فیلد JSON به طور کلی کندتر از جستجو در جداول ساختاریافته است. برای داده‌های تراکنشی که نیاز به جستجوهای سریع و مکرر دارند، کار با فیلدهای JSON می‌تواند منجر به کاهش کارایی شود. این به دلیل عدم امکان استفاده کامل از ایندکس‌های کارآمد درون فیلدهای JSON است.

۲) فرم ها:
پایگاه داده‌های رابطه‌ای بر اساس طراحی ساختاریافته جداول با کلیدهای اصلی و خارجی استوار هستند تا بتوان روابط بین داده‌ها را بهینه مدیریت کرد. استفاده از فیلدهای JSON می‌تواند به ایجاد داده‌های غیر نرمال (Denormalized) منجر شود، که این امر مدیریت و به‌روزرسانی داده‌ها را پیچیده‌تر می‌کند و می‌تواند منجر به ناسازگاری داده‌ها شود.

۳) مشکل در صحت داده‌ها (Data Integrity):
در جداول ساختاریافته، می‌توان محدودیت‌هایی مانند نوع داده و روابط بین جداول را تعریف کرد که صحت داده‌ها را تضمین کند. در JSON، این نوع کنترل‌ها به طور ذاتی وجود ندارد و داده‌ها به صورت آزاد وارد می‌شوند، که می‌تواند منجر به ورود داده‌های نادرست یا ناسازگار شود.

۴) گزارش گیری:
بسیاری از ابزارهای گزارش‌گیری و تحلیلی به داده‌های ساختاریافته نیاز دارند. داده‌های ذخیره شده به صورت JSON نیاز به تجزیه و تبدیل به قالب‌های ساختاریافته دارند، که این کار اضافه‌ای است و ممکن است بر سرعت و کارایی تحلیل داده‌ها تأثیر منفی بگذارد.

۵) افزایش پیچیدگی مدیریت تراکنش‌ها:
مدیریت تراکنش‌ها و قفل‌گذاری داده‌ها (locking) برای فیلدهای JSON در برخی موارد پیچیده‌تر می‌شود. همچنین اگر بخواهید چندین مقدار درون یک فیلد JSON را همزمان به‌روزرسانی کنید، ممکن است کنترل نسخه‌گذاری و سازگاری داده‌ها دشوارتر شود.

‏۶) مشکل در ایندکس‌گذاری کارآمد:
اگرچه PostgreSQL و MySQL قابلیت ایندکس‌گذاری محدود روی فیلدهای JSON را فراهم می‌کنند، اما این ایندکس‌ها در مقایسه با ایندکس‌های سنتی روی جداول ساختاریافته به اندازه کافی کارآمد نیستند و ممکن است در حجم‌های بزرگ داده باعث کاهش عملکرد شوند.


چکار باید کرد؟

۱- استفاده ترکیبی از فیلدهای رابطه‌ای و فیلد JSON
۲- ایجاد جداول مرتبط برای داده‌های غیرساختاریافته با این شرط که حجم جیسون شما محدوده
۳- ایندکس‌ فیلد JSON (فقط در صورت استفاده)
۴ - طرحی برای تبدیل و مهاجرت تدریجی
۵ - استفاده از NoSQL در کنار پایگاه داده رابطه‌ای


چکار نباید کرد؟

۱- ذخیره کل داده‌های مهم در فیلد JSON
۲- عدم استفاده از ایندکس‌گذاری برای فیلد JSON
۳- استفاده از JSON به جای نرمال‌سازی داده‌ها
۴- نادیده گرفتن نیازهای گزارش‌گیری و تحلیلی
۵- استفاده از JSON برای داده‌هایی که اغلب تغییر می‌کنند
۶- عدم در نظر گرفتن تراکنش‌ها و قفل‌گذاری مناسب
۷- ذخیره‌سازی داده‌های حجیم به صورت JSON
۸- عدم طراحی برای مهاجرت به ساختارهای بهتر
۹- عدم استفاده از ابزارها و توابع مناسب برای کار با JSON

خلاصه:
با توجه به این نکات، برای داده‌های تراکنشی که نیاز به عملکرد سریع، جستجوهای مکرر، و یکپارچگی داده دارند، بهتر است از جداول ساختاریافته با طرح‌های نرمال استفاده شود و JSON را تنها در مواردی به کار برد که نیاز به انعطاف‌پذیری زیاد در ساختار داده‌ها دارید، مانند ذخیره‌سازی داده‌های غیرساختاریافته یا لاگ‌های پیچیده.
درصورت نیاز اجتناب ناپذیر مطمئن باشید که با برنامه این کار رو انجام می‌دهید در غیر اینصورت خبر بدی دارم براتون‏، به زودی مشکل پرفرمنس جدی خواهید داشت و کسب و کارتون با ریسک جدی روبرو خواهد شد. اگر هزینه برای شما مطرح نیست از گزینه هایی مثل Cassandra همینطور Google Bigtable به راحتی رد نشید.

DevTwitter | <Mohammad Javidan Darugar/>

👑 @Database_Academy
2
🔵 عنوان مقاله
The Value of 'VALUES -> ANY' Transformations?

🟢 خلاصه مقاله:
در این مقاله، نویسندگان به بررسی اهمیت و ضرورت بهینه‌سازی پرس و جوها در سیستم‌های مدیریت پایگاه داده رابطه‌ای (RDBMS) پیش از تلاش برای تهیه یک برنامه اجرایی می‌پردازند. آن‌ها این موضوع را در شرایطی مورد تجزیه و تحلیل قرار می‌دهند که در آن تعداد پرس و جوهای دستی و به دقت ساخته شده‌ای که اجرا می‌شوند، کاهش یافته است. نویسندگان بر این نکته تاکید می‌کنند که با توجه به پیچیدگی‌های موجود در پایگاه‌های داده مدرن و تنوع بالای داده‌ها و درخواست‌ها، لزوم پیش بهینه‌سازی پرس و جوها بیش از پیش احساس می‌شود تا اطمینان حاصل شود که برنامه‌های اجرایی تولید شده هرچه موثرتر و کارا تر باشند. این رویکرد می‌تواند به کاهش زمان پاسخگویی و بهبود کارایی کلی سیستم‌های مدیریت پایگاه داده کمک کند.

🟣لینک مقاله:
https://postgresweekly.com/link/160788/web


👑 @Database_Academy
🔵 عنوان مقاله
Optimizing Postgres Table Layout for Maximum Efficiency

🟢 خلاصه مقاله:
مطالعه رناتو در مورد چگونگی تأثیر طرح جدول‌ها در پایگاه داده‌های Postgres بر کارایی ذخیره‌سازی و عملکرد پرس‌وجو تمرکز دارد. رعایت موضوع هم‌ترازی داده‌ها در ساختارهای داده‌ای بزرگ‌تر، که از موارد مهم در برنامه‌نویسی سطح پایین است، در جداول Postgres نیز مهم است زیرا نحوه چیدمان و فضای پر کردن داده‌ها بر روی دیسک می‌تواند تأثیر قابل توجهی بر کارایی داشته باشد. هم‌ترازی نامناسب درون جداول می‌تواند به فضای دیسک اضافی منجر شود و باعث کندی عملکرد پرس‌وجو شود. در نتیجه، طراحی بهینه جداول با در نظر گرفتن چگونگی ترتیب داده‌ها برای به حداقل رساندن پدینگ و بهینه‌سازی دسترسی به داده‌ها پیشنهاد می‌شود. این بررسی تأکید می‌کند که دانش مهندسی دقیق و آگاهی از تنظیمات داخلی پایگاه داده برای بهبود عملکرد کلی سیستم ضروری است.

🟣لینک مقاله:
https://postgresweekly.com/link/160787/web


👑 @Database_Academy
🔵 عنوان مقاله
IvorySQL 3.4: Open Source Oracle-Compatible Postgres

🟢 خلاصه مقاله:
مقاله مورد نظر به بررسی روش‌های مختلف انتقال از Oracle به Postgres می‌پردازد و تمرکز خاص خود را بر رویکرد IvorySQL قرار داده است. IvorySQL یک استراتژی متفاوت را پیشنهاد می‌کند که شامل افزودن عناصر سازگاری به Postgres است تا بتواند از syntax PL/SQL و توابع XML اوراکل پشتیبانی کند. این امر به کاربران اجازه می‌دهد تا کد های موجود اوراکل خود را با حداقل تغییرات به Postgres منتقل کنند، که در نتیجه فرآیند مهاجرت را ساده‌تر و کم‌هزینه‌تر می‌کند. استفاده از این رویکرد می‌تواند مزایایی نظیر بهبود عملکرد، کاهش وابستگی به تکنولوژی خاص و کاهش هزینه‌های لایسنس داشته باشد. تقویت Postgres با این ویژگی‌های سازگاری، آن را به گزینه‌ای جذاب برای سازمان‌هایی می‌کند که به دنبال جایگزینی برای Oracle هستند.

🟣لینک مقاله:
https://postgresweekly.com/link/160808/web


👑 @Database_Academy
Forwarded from DevOps Labdon
🔵 عنوان مقاله
Redis Users Want a Change (3 minute read)

🟢 خلاصه مقاله:
تغییرات اخیر در لایسنس Redis باعث شده است که 75٪ از کاربران آن به دنبال جایگزین‌هایی باشند، که در این میان فورک متن‌باز Valkey مورد توجه قابل توجهی قرار گرفته است. بر اساس نظرسنجی، 63٪ از کاربران با Valkey آشنایی دارند. با توجه به این تغییرات لایسنس، بسیاری از سازمان‌ها در حال ارزیابی Valkey به دلیل پشتیبانی متن‌باز آن هستند. ارائه پشتیبانی عملیاتی قابل اطمینان برای پذیرش گسترده‌ این فورک، حیاتی خواهد بود. این تغییرات نشان‌دهنده نیاز به توجه به نگرانی‌های کاربران در مورد مدیریت لایسنس‌های نرم‌افزاری و همچنین اهمیت پشتیبانی متن‌باز در جذب و حفظ کاربران فعال است.

🟣لینک مقاله:
https://thenewstack.io/redis-users-want-a-change/?utm_source=tldrdevops


👑 @DevOps_Labdon
🔵 عنوان مقاله
Building AI Apps on Postgres? Start with pgai

🟢 خلاصه مقاله:
مقاله مربوط به پسوند PostgreSQL با عنوان pgai پرداخته است که قابلیت‌های هوش مصنوعی را به این دیتابیس اضافه می‌کند. این پسوند امکان ایجاد ویژگی‌ها و تکمیل مدل‌ها را برای کاربران فراهم می‌آورد، و از این طریق به توسعه‌دهندگان اجازه می‌دهد تا نرم‌افزارهایی با قابلیت جستجوی پیشرفته و بازیابی اطلاعات را به راحتی بسازند. pgai با استفاده از عملکرد‌هایی نظیر ساخت امبد (embedding) و تکمیل مدل، به توسعه‌دهندگان کمک می‌کند تا با بهره‌گیری از قابلیت‌های هوش مصنوعی، اپلیکیشن‌هایی با کارایی بالا را توسعه دهند. انتهای مقاله نیز بر این نکته تاکید دارد که pgai به ساده‌سازی و قدرتمندسازی برنامه‌نویسی با استفاده از AI در محیط PostgreSQL کمک شایانی می‌کند.

🟣لینک مقاله:
https://postgresweekly.com/link/160786/web


👑 @Database_Academy
🔵 عنوان مقاله
How We Built a Content Recommendation System with Pgai and Pgvectorscale

🟢 خلاصه مقاله:
مقاله‌ای که مورد بررسی قرار گرفته، به بحث در مورد pgvectorscale پرداخته، که یک افزونه برای pgvector است و از دو ویژگی اصلی تشکیل شده است. اولین ویژگی، پشتیبانی از ایندکس StreamingDiskANN است که به بهبود جستجو در دیتابیس‌های بزرگ کمک می‌کند. ویژگی دوم، بهبود quantization می‌باشد که به فشرده‌سازی داده‌ها و کاهش حجم اطلاعات نیازمند برای ذخیره‌سازی و پردازش کمک می‌کند. این افزونه با هدف ارتقا قابلیت‌های pgvector طراحی شده، که خود بر اساس ذخیره‌سازی و جستجوی کارآمد بردار‌ها در پایگاه‌های داده‌ی PostgreSQL می‌باشد. با استفاده از pgvectorscale، کاربران قادر به مدیریت داده‌های برداری بزرگتر و پیچیده‌تر به طرز موثری هستند، در حالی که هزینه‌های زمانی و مالی مرتبط با پردازش این داده‌ها را کاهش می‌دهند.

🟣لینک مقاله:
https://postgresweekly.com/link/160798/web


👑 @Database_Academy
👍1
چرا استفاده از فیلدهای JSON در داده‌های تراکنشی ریسک دارد؟

خیلی وسوسه‌انگیز است که از فیلدهای JSON برای ذخیره‌سازی داده‌های غیرساختاریافته استفاده کنیم، اما برای داده‌های تراکنشی این یک تصمیم پر ریسک است. بیایید به دلایلش نگاهی بیندازیم:

کاهش کارایی جستجو: فیلدهای JSON نمی‌توانند به خوبی جداول ساختاریافته از ایندکس‌های کارآمد استفاده کنند. این یعنی جستجوهای شما کندتر می‌شود، که در داده‌های تراکنشی که نیاز به سرعت بالا دارند، فاجعه است.

کاهش نرمال‌سازی و ساختار: پایگاه‌های داده رابطه‌ای طراحی شده‌اند تا روابط بین داده‌ها را مدیریت کنند. استفاده زیاد از JSON می‌تواند داده‌های غیر نرمال بسازد، که مدیریت و به‌روزرسانی آن‌ها را سخت می‌کند و به ناسازگاری‌های داده منجر می‌شود.

مشکل در صحت داده‌ها: در جداول نرمال‌سازی شده، محدودیت‌هایی مثل نوع داده و روابط وجود دارد که مانع ورود داده‌های نادرست می‌شوند. ولی در JSON، این کنترل‌ها وجود ندارد، پس ممکن است به راحتی داده‌های ناسازگار داشته باشید.

گزارش‌گیری سخت‌تر: اکثر ابزارهای گزارش‌گیری با داده‌های ساختاریافته بهتر کار می‌کنند. برای استفاده از داده‌های JSON باید آن‌ها را تجزیه و ساختاردهی کنید که وقت‌گیر است و روی سرعت تأثیر می‌گذارد.

مدیریت پیچیده‌تر تراکنش‌ها: اگر بخواهید داده‌های مختلفی را در یک فیلد JSON همزمان به‌روزرسانی کنید، مدیریت تراکنش‌ها سخت‌تر و پیچیده‌تر می‌شود.

پس چکار کنیم؟

از ترکیب جداول رابطه‌ای و JSON به شکل هوشمندانه استفاده کنیم.
برای داده‌های غیرساختاریافته جداول مرتبط ایجاد کنیم.
فقط در صورت لزوم روی فیلدهای JSON ایندکس بگذاریم.
طرحی برای مهاجرت تدریجی به ساختارهای بهتر داشته باشیم.

چکار نکنیم؟
کل داده‌های مهم را در JSON ذخیره نکنیم.
به جای نرمال‌سازی از JSON استفاده نکنیم.
نوع JSON را برای داده‌هایی که مرتب تغییر می‌کنند به کار نبریم.

در نهایت، برای داده‌های تراکنشی که سرعت، جستجوی مکرر و صحت داده اهمیت دارند، بهتر است به جداول نرمال‌سازی شده پایبند بمانیم و از JSON فقط در موارد ضروری استفاده کنیم. و اگر احساس می‌کنید این محدودیت‌ها زیاد است، راه‌حل‌هایی مثل Cassandra و Google Bigtable را جدی بگیرید! یادتان باشد، مشکلات پرفرمنس می‌توانند خیلی زودتر از چیزی که فکرش را بکنید، کسب و کار شما را تهدید کنند.
👍2
🔵 عنوان مقاله
TimescaleDB 2.17.0: Time-Series Extension for Postgres

🟢 خلاصه مقاله:
مقاله‌ای که بررسی شده است به ارائه بینش‌هایی پیرامون آخرین نسخه‌ از یک افزونه محبوب می‌پردازد که برای کار با داده‌های دنباله زمانی در مقیاس بزرگ طراحی شده است. در این نسخه، پشتیبانی کامل از Postgres 17 ارائه شده است که این امکان را به کاربران می‌دهد تا از جدیدترین ویژگی‌ها و بهینه‌سازی‌های این پایگاه داده بهره ببرند. همچنین، بهینه‌سازی‌های جدید SIMD به افزایش عملکرد برای پرس‌و‌جوهای تحلیلی زمان‌واقعی بر روی جداول فشرده شده یا hypertables کمک می‌کند. این بهبودها به کاربران اجازه می‌دهند تا با سرعت بیشتری داده‌های زمانی را تحلیل و استخراج کنند، در نتیجه افزایش کارایی در کار با حجم زیادی از داده‌ها را تجربه کنند.

🟣لینک مقاله:
https://postgresweekly.com/link/160806/web


👑 @Database_Academy
👍1
🔵 عنوان مقاله
Convert JSON into Columns and Rows with JSON_TABLE

🟢 خلاصه مقاله:
مقاله‌ای که مورد بررسی قرار گرفته به معرفی قابلیت جدید در نسخه 17 پایگاه داده Postgres، یعنی تابع JSON_TABLE پرداخته است. این تابع امکان استعلام داده‌های JSON را فراهم می‌کند و نتایج را در یک نمای رابطه‌ای معمولی به نمایش می‌گذارد. نویسنده مقاله، پل، یک مورد کاربرد عملی از این ویژگی را نیز ارائه داده که به خوانندگان کمک می‌کند تا درک بهتری از چگونگی استفاده و کاربردهای این قابلیت داشته باشند. این تابع برای کاربرانی که با داده‌های JSON کار می‌کنند و مایل به مشاهده این داده‌ها در قالب جداول رابطه‌ای هستند، مفید خواهد بود. JSON_TABLE در واقع پلی میان داده‌های ساخت یافتۀ JSON و دنیای پایگاه‌داده‌های رابطه‌ای است که تجزیه و تحلیل داده را آسان‌تر می‌کند.

🟣لینک مقاله:
https://postgresweekly.com/link/161088/web


👑 @Database_Academy
🔵 عنوان مقاله
Is pg_dump a 'Backup' Tool?

🟢 خلاصه مقاله:
مقاله به بررسی ابزار pg_dump می‌پردازد که عمدتاً برای تهیه‌ی پشتیبان از داده‌ها استفاده می‌شود. اگرچه مدارک رسمی آن به عنوان ابزاری برای خروجی گرفتن از داده‌ها به آن اشاره کرده‌اند، نویسنده به تحلیل این نکته پرداخته که چرا این تعریف مطرح شده است. رابرت، که در مقاله به او اشاره شده، نیز در پی فهمیدن دلیل تأکید مستندات بر این تفسیر است. پرسش اصلی این است که آیا تعریف ابزار pg_dump به عنوان ابزار خروجی داده به جای ابزار پشتیبان‌گیری، تأثیری بر نحوه استفاده کاربران از آن دارد یا خیر. تحلیل‌ها نشان می‌دهد که این نوع تعریف ممکن است در درک و استفاده کاربران از این ابزار تأثیر بگذارد.

🟣لینک مقاله:
https://postgresweekly.com/link/161098/web


👑 @Database_Academy
🔵 عنوان مقاله
SQL/JSON is Here (Somewhat!)

🟢 خلاصه مقاله:
مقاله‌ای که بررسی شده به بررسی امکانات JSON در Postgres 17 می‌پردازد. SQL/JSON به‌طور گسترده‌ای به‌عنوان یک زبان مسیر، توابع کوآری و عملگرها برای کار با داده‌های JSON از طریق SQL شناخته شده است. JSON_TABLE در این میان تنها یک قسمت از تجربه کار با SQL/JSON را تشکیل می‌دهد و به نظر می‌رسد که Postgres 17 توانایی‌های جدیدی به این میز اضافه کرده است. این افزودنی‌ها شامل بهبودهایی در زمینه پردازش و تحلیل داده‌های JSON داخل پایگاه داده SQL می‌باشد. تمرکز اصلی در این بخش بر بررسی و ارزیابی این قابلیت‌های جدید است که قادر به افزایش کارآمدی و انعطاف‌پذیری در مدیریت و تحلیل داده‌های JSON خواهد بود.

🟣لینک مقاله:
https://postgresweekly.com/link/161090/web


👑 @Database_Academy
🔵 عنوان مقاله
Get Proactive with Postgres Performance with This Monthly Check List

🟢 خلاصه مقاله:
مقاله‌ای که در اختیار داریم بر اهمیت حفظ و نگهداری منظم پایگاه داده PostgreSQL تأکید می‌کند و چالش‌های مربوط به آن را مورد بحث قرار می‌دهد. برای کمک به کاربران در مدیریت بهینه و کارآمد این پایگاه داده، مقاله چک لیست ماهانه‌ای را پیشنهاد می‌دهد که شامل فعالیت‌های حیاتی برای حفظ عملکرد، اعتماد و زمان بدون توقف سیستم است. این چک لیست به صورت رایگان قابل دانلود است و ابزاری کارآمد برای رسیدگی سریع و مؤثر به تعمیر و نگهداری PostgreSQL ارائه می‌دهد، که می‌تواند به کاربران کمک کند تا از پیچیدگی‌ها و احتمال خطاهای ناشی از فرآیندهای دستی پیشگیری کنند.

🟣لینک مقاله:
https://postgresweekly.com/link/161087/web


👑 @Database_Academy
🔵 عنوان مقاله
Greenmask: Postgres Data Masking and Obfuscation Tool

🟢 خلاصه مقاله:
مقاله‌ای که مورد بررسی قرار گرفته به معرفی ابزاری توسعه یافته با استفاده از زبان برنامه‌نویسی Go می‌پردازد که قابلیت دامپ کردن پایگاه داده‌های Postgres و همچنین محافظت از حریم خصوصی داده‌ها از طریق آنونیم سازی داده‌ها به شیوه‌ای قطعی را دارا است. این ابزار که کدهای آن در مخزن GitHub موجود است، راهکاری عملی برای توسعه‌دهندگان نرم‌افزار و مدیران داده به منظور جلوگیری از نشت اطلاعات شخصی یا حساس در هنگام به اشتراک گذاری یا آزمایش پایگاه داده فراهم می‌کند. استفاده از زبان Go به این ابزار اجازه می‌دهد تا با کارایی بالا و با استفاده از مکانیزم‌های مؤثر، عملیات دامپ و آنونیم‌سازی را به صورت خودکار و قابل اعتماد انجام دهد. این ابزار می‌تواند به عنوان یک راهکار امنیتی برای محافظت از داده‌ها در محیط‌های توسعه و تست مورد استفاده قرار گیرد.

🟣لینک مقاله:
https://postgresweekly.com/link/161108/web


👑 @Database_Academy
🔵 عنوان مقاله
Postgres Type Explorer: See Data Types for Various Use Cases

🟢 خلاصه مقاله:
در راستای راه‌اندازی "Mastering Postgres"، آرون فرانسیس یک ابزار آنلاین را معرفی کرده است که توصیه‌هایی درباره استفاده از انواع داده‌ها برای شرایط مختلف (مثل ذخیره‌سازی هش‌ها، مقادیر پولی، UUIDها، داده‌های باینری) ارائه می‌دهد. همچنین این ابزار نشان می‌دهد که هر کدام از این داده‌ها چقدر فضای ذخیره‌سازی اشغال می‌کنند. این ابزار آنلاین می‌تواند به توسعه‌دهندگان کمک کند تا با انتخاب دقیق‌تر و مؤثرتر انواع داده، بهینه‌سازی بیشتری در پایگاه‌داده‌های خود اعمال کنند، چه از لحاظ کارایی و چه از لحاظ مصرف فضای دیسک.


🟣لینک مقاله:
https://postgresweekly.com/link/161105/web


👑 @Database_Academy
🔵 عنوان مقاله
PGroonga: Extend Full Text Search Features to All Languages

🟢 خلاصه مقاله:
مقاله مورد نظر به بررسی ادغام موتور جستجوی متن کامل Groonga در پایگاه داده‌ی Postgres (پستگرس) می‌پردازد. این ترکیب برای برخی سناریوهای خاص، مانند جستجو در متون ژاپنی یا چینی، عملکرد بهتری نسبت به تنظیمات پیش‌فرض پستگرس ارائه می‌دهد. از نسخه ۳.۲.۴، Groonga اکنون از پستگرس ۱۷ پشتیبانی می‌کند و امکان استفاده از این تکنولوژی را در این نسخه جدید فراهم می‌آورد. این پیشرفت می‌تواند به توسعه‌دهندگان کمک کند تا پرس و جوهای متنی پیچیده‌تر و دقیق‌تری را در پایگاه داده‌های شان اجرا نمایند، به‌ویژه در زبان‌هایی که نیازمند پردازش و تحلیل متون متفاوتی هستند.

🟣لینک مقاله:
https://postgresweekly.com/link/161106/web


👑 @Database_Academy
Forwarded from Future Pulse Persian
طلایی ترین لیست وبلاگ‌ها برنامه نویسان شرکت‌های بزرگ دنیا مثل Google و . . .
در این لیست افرادی که تجربه کار کردن در شرکت‌های بزرگ دارند اسم و لینکشون آورده شده

نفراول :
برنامه نویس شرکت TripAdvisor
هم مقالات فنی و هم مهارت نرم رو پوشش میده
https://dandreamsofcoding.com/

نفر دوم :
خالق الگوریتمی که در تمامی سیستم های recommender در شرکت بزرگ ازش استفاده میشه
https://lemire.me/blog/

نفر سوم :
از ایشون مگه بالاتر داریم ؟ CEO شرکت Stack overflow
https://www.joelonsoftware.com/

نفر چهارم :
مهندس نرمافزار گوگل و خالق چند تا از بزرگترین پروژه‌های Open Source جهان
https://latedev.wordpress.com/

نفر پنجم :
یک از تاثیر گذاران محبوبیت Linux
https://www.linux.org/forums/

نفر ششم :
برنامه نویس Google و نوسینده چند کتاب مشهور در دنیا
https://www.jeremykun.com/

نفر هفتم :
خالق Viaweb نوسینده بزرگ در حیطه برنامه نویسی
https://paulgraham.com/articles.html

نفر هقتم :
متخصص و Director شرکت Huawei
https://www.yegor256.com/

نفر هشتم :
یک متخصص به تمام معنا
https://prog21.dadgum.com/

نفر نهم :
نوسینده کتاب Clean Code
https://blog.cleancoder.com/

نفرم دهم :
مهندس گوگل
https://stevehanov.ca/blog/

نفرم یازدهم :
مهندس شرکت Uber
https://blog.pragmaticengineer.com/


👑 @labdon_academy
🔵 عنوان مقاله
Trigger Recursion and How to Deal with It

🟢 خلاصه مقاله:
خلاصه مقاله:

در برنامه‌نویسی و تنظیمات پایگاه داده، ایجاد و استفاده از تریگرها می‌تواند به کارآمدی عملیات کمک کند. اما، اگر تریگری به‌گونه‌ای تنظیم شده باشد که فراخوانی آن تریگری دیگر را به دنبال داشته باشد، می‌تواند مشکلات پیچیده‌ای ایجاد کند که رفع آن‌ها دشوار است. خوشبختانه، با تغییرات جزئی در تنظیمات تریگرها می‌توان اطمینان حاصل کرد که تریگرها تنها زمانی فعال شوند که واقعاً نیاز است. این اقدامات احتیاطی به جلوگیری از اجرای بی‌رویه و خطاهایی که در نتیجه تداخل تریگرها ایجاد می‌شوند کمک شایانی می‌کند. انجام این تغییرات کوچک می‌تواند در پیشگیری از مشکلات بزرگ‌تر و سخت‌تر در آینده نقش بسزایی داشته باشد.

🟣لینک مقاله:
https://postgresweekly.com/link/161091/web


👑 @Database_Academy
✍️Sepehr MohseniSepehr Mohseni

داشتم یه دیتابیس MySQL رو کانفیگ میکردم گفتم بد نیست کانفیگش رو اینجا هم بذارم. روی عکس زووم کنید توضیحات هر خط هم نوشتم.

اینم لینک گیتهابش:
https://lnkd.in/ezD_xX3S
🙏2
Forwarded from Future Pulse Persian
تأثیر دانش زبان انگلیسی در دنیای برنامه‌نویسی از نگاه موسسه زبان آفاق

https://www.zoomit.ir/pr/428701-afagh-lc/


👑 @labdon_academy
😈1👻1