🔵 عنوان مقاله
The Model Selection Showdown: 6 Considerations for Choosing the Best Model (5 minute read)
🟢 خلاصه مقاله:
انتخاب مدل مناسب در یادگیری ماشین با دنبالکردن شش گام عملی نتیجه میدهد: هدف را دقیق تعریف کنید و معیار موفقیت را با نیازهای ذینفعان همراستا کنید؛ یک baseline ساده بسازید تا آستانه عملکرد و خطاهای داده روشن شوند؛ معیارهای سنجش را متناسب با مسئله و عدمتوازن دادهها انتخاب کنید؛ با cross-validation درست (از جمله زمانمحور برای سریهای زمانی) برآورد تعمیمپذیری را مطمئن کنید و از نشت اطلاعات جلوگیری کنید؛ بین پیچیدگی و قابلیت تفسیر تعادل برقرار کنید و هزینه استقرار/نگهداری را بسنجید؛ و در نهایت، با دادههای واقعی از طریق تست برونزمانی، A/B یا استقرار سایه اعتبارسنجی کنید و پایش مستمرِ رانش و کالیبراسیون داشته باشید. بهترین مدل لزوماً جدیدترین الگوریتم نیست، بلکه مدلی است که با مسئله، داده و نیاز کسبوکار بیشترین انطباق را دارد.
#ModelSelection #MachineLearning #DataScience #Metrics #CrossValidation #Interpretability #MLOps
🟣لینک مقاله:
https://machinelearningmastery.com/the-model-selection-showdown-6-considerations-for-choosing-the-best-model/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
The Model Selection Showdown: 6 Considerations for Choosing the Best Model (5 minute read)
🟢 خلاصه مقاله:
انتخاب مدل مناسب در یادگیری ماشین با دنبالکردن شش گام عملی نتیجه میدهد: هدف را دقیق تعریف کنید و معیار موفقیت را با نیازهای ذینفعان همراستا کنید؛ یک baseline ساده بسازید تا آستانه عملکرد و خطاهای داده روشن شوند؛ معیارهای سنجش را متناسب با مسئله و عدمتوازن دادهها انتخاب کنید؛ با cross-validation درست (از جمله زمانمحور برای سریهای زمانی) برآورد تعمیمپذیری را مطمئن کنید و از نشت اطلاعات جلوگیری کنید؛ بین پیچیدگی و قابلیت تفسیر تعادل برقرار کنید و هزینه استقرار/نگهداری را بسنجید؛ و در نهایت، با دادههای واقعی از طریق تست برونزمانی، A/B یا استقرار سایه اعتبارسنجی کنید و پایش مستمرِ رانش و کالیبراسیون داشته باشید. بهترین مدل لزوماً جدیدترین الگوریتم نیست، بلکه مدلی است که با مسئله، داده و نیاز کسبوکار بیشترین انطباق را دارد.
#ModelSelection #MachineLearning #DataScience #Metrics #CrossValidation #Interpretability #MLOps
🟣لینک مقاله:
https://machinelearningmastery.com/the-model-selection-showdown-6-considerations-for-choosing-the-best-model/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
👍1
🔵 عنوان مقاله
Key Operational Enhancements and Integration Options in Postgres 16
🟢 خلاصه مقاله:
این مطلب با تمرکز بر مخاطبان Golang Weekly توضیح میدهد که Postgres 16 چه بهبودهایی برای عملیات روزمره و یکپارچهسازی با سرویسها آورده است. نویسنده روی حوزههای عملی مثل کارایی پایدارتر تحت بار، رفتار بهتر autovacuum، و رصدپذیری دقیقتر برای IO و پردازههای پسزمینه تأکید میکند تا تنظیمات و عیبیابی سریعتر و مطمئنتر انجام شود. همچنین به ارتقاهای مرتبط با replication منطقی و سنککردن ایمنتر، مدیریت slotها و سناریوهای failover اشاره میکند تا پیادهسازیهای HA و چندمنطقهای سادهتر شوند. در بخش یکپارچهسازی، گزینههای Go مانند pgx و database/sql، مدیریت connection pooling با pgxpool یا PgBouncer، اتصال به سامانههای رویدادمحور از طریق logical decoding و ابزارهایی مثل Debezium، و الگوهای LISTEN/NOTIFY و FDW مرور میشود. جمعبندی مقاله: Postgres 16 دردسرهای عملیاتی را کمتر و ادغام با معماریهای متنوع را سادهتر میکند و یک چکلیست کوتاه برای ارزیابی و ارتقای امن ارائه میدهد.
#Postgres16 #PostgreSQL #Golang #Go #Database #Replication #Observability #Performance
🟣لینک مقاله:
https://postgresweekly.com/link/175401/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Key Operational Enhancements and Integration Options in Postgres 16
🟢 خلاصه مقاله:
این مطلب با تمرکز بر مخاطبان Golang Weekly توضیح میدهد که Postgres 16 چه بهبودهایی برای عملیات روزمره و یکپارچهسازی با سرویسها آورده است. نویسنده روی حوزههای عملی مثل کارایی پایدارتر تحت بار، رفتار بهتر autovacuum، و رصدپذیری دقیقتر برای IO و پردازههای پسزمینه تأکید میکند تا تنظیمات و عیبیابی سریعتر و مطمئنتر انجام شود. همچنین به ارتقاهای مرتبط با replication منطقی و سنککردن ایمنتر، مدیریت slotها و سناریوهای failover اشاره میکند تا پیادهسازیهای HA و چندمنطقهای سادهتر شوند. در بخش یکپارچهسازی، گزینههای Go مانند pgx و database/sql، مدیریت connection pooling با pgxpool یا PgBouncer، اتصال به سامانههای رویدادمحور از طریق logical decoding و ابزارهایی مثل Debezium، و الگوهای LISTEN/NOTIFY و FDW مرور میشود. جمعبندی مقاله: Postgres 16 دردسرهای عملیاتی را کمتر و ادغام با معماریهای متنوع را سادهتر میکند و یک چکلیست کوتاه برای ارزیابی و ارتقای امن ارائه میدهد.
#Postgres16 #PostgreSQL #Golang #Go #Database #Replication #Observability #Performance
🟣لینک مقاله:
https://postgresweekly.com/link/175401/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Severalnines
Key Operational enhancements and integration options in PostgreSQL 16
Discover why PostgreSQL 16 remains a crucial step for teams with its improved query planner and operational advancements for databases.
🔵 عنوان مقاله
memoize planner estimates in EXPLAIN.
🟢 خلاصه مقاله:
**
این مطلب که در شماره اخیر Golang Weekly معرفی شده، درباره memoize کردن برآوردهای planner در EXPLAIN است تا تحلیل پرسوجوها سریعتر و قابلاتکاتر شود. ایده اصلی این است که تخمینهای میانی (مثل cardinality و هزینهها) بر اساس نسخه نرمالشدهی بخشهای پرسوجو و ورودیهای اثرگذار (آمار جداول، وضعیت schema، و تنظیمات planner) ذخیره شوند و در اجرایهای بعدی EXPLAIN دوباره استفاده شوند. نتیجه: کاهش هزینه محاسبات تکراری، ثبات بیشتر خروجیها، و مقایسه آسانتر تغییرات.
در پیادهسازی با Go میتوان با cacheهای سبک، هشکردن پرسوجوی نرمالشده و وضعیت کاتالوگ، و قلابهای ابطال (invalidation) قابلتنظیم به این هدف رسید؛ این رویکرد برای ابزارهای توسعه، CI و بنچمارکها سودمند است. البته چالشها هم مهماند: کهنگی دادههای cache با تغییر آمار یا تنظیمات، ضرورت سیاستهای ابطال شفاف، ترجیحاً cache کردن فقط برآوردها (نه کل plan)، ارائه نشانگرهای hit/miss در خروجی EXPLAIN، و تعیین دامنه و سقف اندازه cache (مثلاً در سطح session).
به طور خلاصه، memoize کردن برآوردهای planner در EXPLAIN چرخههای تحلیل را تسریع و نتایج را پایدارتر میکند، به شرط آنکه مرزهای cache و سیاستهای ابطال بهخوبی مدیریت شوند.
#Golang #Go #EXPLAIN #Database #QueryPlanner #Memoization #Performance #Optimization
🟣لینک مقاله:
https://postgresweekly.com/link/175091/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
memoize planner estimates in EXPLAIN.
🟢 خلاصه مقاله:
**
این مطلب که در شماره اخیر Golang Weekly معرفی شده، درباره memoize کردن برآوردهای planner در EXPLAIN است تا تحلیل پرسوجوها سریعتر و قابلاتکاتر شود. ایده اصلی این است که تخمینهای میانی (مثل cardinality و هزینهها) بر اساس نسخه نرمالشدهی بخشهای پرسوجو و ورودیهای اثرگذار (آمار جداول، وضعیت schema، و تنظیمات planner) ذخیره شوند و در اجرایهای بعدی EXPLAIN دوباره استفاده شوند. نتیجه: کاهش هزینه محاسبات تکراری، ثبات بیشتر خروجیها، و مقایسه آسانتر تغییرات.
در پیادهسازی با Go میتوان با cacheهای سبک، هشکردن پرسوجوی نرمالشده و وضعیت کاتالوگ، و قلابهای ابطال (invalidation) قابلتنظیم به این هدف رسید؛ این رویکرد برای ابزارهای توسعه، CI و بنچمارکها سودمند است. البته چالشها هم مهماند: کهنگی دادههای cache با تغییر آمار یا تنظیمات، ضرورت سیاستهای ابطال شفاف، ترجیحاً cache کردن فقط برآوردها (نه کل plan)، ارائه نشانگرهای hit/miss در خروجی EXPLAIN، و تعیین دامنه و سقف اندازه cache (مثلاً در سطح session).
به طور خلاصه، memoize کردن برآوردهای planner در EXPLAIN چرخههای تحلیل را تسریع و نتایج را پایدارتر میکند، به شرط آنکه مرزهای cache و سیاستهای ابطال بهخوبی مدیریت شوند.
#Golang #Go #EXPLAIN #Database #QueryPlanner #Memoization #Performance #Optimization
🟣لینک مقاله:
https://postgresweekly.com/link/175091/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Forwarded from Future Pulse Persian
♨️ چین شمشیر رو برای بلاگرها از رو بست ؛ اینفلوئنسر ها باید مدرک تحصصی بگیرن!
▪️طبق قانون جدیدی که دولت چین تصویب کرده، از این به بعد هرکسی بخواد تو حوزههایی مثل پزشکی، اقتصاد، حقوق یا آموزش ، محتوا تولید کنه باید مدرک دانشگاهی معتبر یا گواهی حرفهای رسمی داشته باشه ؛ وگرنه ۱۴ هزار دلار جریمه میشه!
▪️پلتفرمهایی مثل Douyin، Weibo و Bilibili هم موظفن مدارک بلاگرها رو بررسی کنن و اگه کسی بدون صلاحیت سراغ این موضوعات بره، حسابش بسته میشه یا جریمه میخوره.
+ دولت چین میگه هدفش جلوگیری از «اطلاعات گمراهکننده» است، اما خیلیا معتقدن این یه حرکت برای کنترل شدیدتر فضای مجازی و ساکت کردن صدای منتقدهاست.
▪️طبق قانون جدیدی که دولت چین تصویب کرده، از این به بعد هرکسی بخواد تو حوزههایی مثل پزشکی، اقتصاد، حقوق یا آموزش ، محتوا تولید کنه باید مدرک دانشگاهی معتبر یا گواهی حرفهای رسمی داشته باشه ؛ وگرنه ۱۴ هزار دلار جریمه میشه!
▪️پلتفرمهایی مثل Douyin، Weibo و Bilibili هم موظفن مدارک بلاگرها رو بررسی کنن و اگه کسی بدون صلاحیت سراغ این موضوعات بره، حسابش بسته میشه یا جریمه میخوره.
+ دولت چین میگه هدفش جلوگیری از «اطلاعات گمراهکننده» است، اما خیلیا معتقدن این یه حرکت برای کنترل شدیدتر فضای مجازی و ساکت کردن صدای منتقدهاست.
👍2
Forwarded from Future Pulse Persian
This media is not supported in your browser
VIEW IN TELEGRAM
روز بزرگداشت کوروش بزرگ، شاه شاهان
بر همهی ایرانیان گرامی و دوستداران تاریخ ایرانزمین خجسته باد 🌞
به مناسبت این روز پرافتخار،❤️ ۶۰٪ تخفیف ویژه روی تمام تعرفهها فقط تا ۱۰ آبان!
برای تبلیغات و همکاری:
📩 @mrbardia72
🛡 فرصت رو از دست نده، این تخفیف فقط سه روز فعاله!
💚🤍❤️
https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
بر همهی ایرانیان گرامی و دوستداران تاریخ ایرانزمین خجسته باد 🌞
به مناسبت این روز پرافتخار،❤️ ۶۰٪ تخفیف ویژه روی تمام تعرفهها فقط تا ۱۰ آبان!
برای تبلیغات و همکاری:
📩 @mrbardia72
🛡 فرصت رو از دست نده، این تخفیف فقط سه روز فعاله!
💚🤍❤️
https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
❤2🤡1
🔵 عنوان مقاله
Exploring Postgres 18's New UUIDv7 Support
🟢 خلاصه مقاله:
** پشتیبانی از UUIDv7 در Postgres 18 شناسههایی یکتا، زمانمرتب و تقریباً یکنوا ایجاد میکند که بر خلاف UUIDv4، بر اساس زمان بهصورت واژگانی مرتب میشوند. این ویژگی باعث بهبود محلیّت در ایندکسهای B-tree، کاهش شکافت صفحات و بهبود کارایی درجهای پیاپی میشود و کوئریهایی مثل ORDER BY id DESC با LIMIT و محدودههای زمانی را سادهتر و سریعتر میکند. در عین حال، بهدلیل ترکیب زمان و تصادفیبودن، خطر نقاط داغ کاهش مییابد، هرچند در بارگذاریهای بسیار همزمان باید پایش شود و پایداری ساعت سیستم اهمیت دارد. مهاجرت از UUIDv4 آسان است؛ میتوان مقادیر قدیمی را حفظ کرد و تولید پیشفرض را برای رکوردهای جدید به UUIDv7 تغییر داد. برای اغلب لاگهای رویداد و بارهای شبهزمانمحور، UUIDv7 توازن خوبی میان یکتایی، کارایی و سادگی کوئری فراهم میکند.
#Postgres #PostgreSQL #UUIDv7 #UUID #Database #Performance #Indexing #TimeSeries
🟣لینک مقاله:
https://postgresweekly.com/link/175725/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Exploring Postgres 18's New UUIDv7 Support
🟢 خلاصه مقاله:
** پشتیبانی از UUIDv7 در Postgres 18 شناسههایی یکتا، زمانمرتب و تقریباً یکنوا ایجاد میکند که بر خلاف UUIDv4، بر اساس زمان بهصورت واژگانی مرتب میشوند. این ویژگی باعث بهبود محلیّت در ایندکسهای B-tree، کاهش شکافت صفحات و بهبود کارایی درجهای پیاپی میشود و کوئریهایی مثل ORDER BY id DESC با LIMIT و محدودههای زمانی را سادهتر و سریعتر میکند. در عین حال، بهدلیل ترکیب زمان و تصادفیبودن، خطر نقاط داغ کاهش مییابد، هرچند در بارگذاریهای بسیار همزمان باید پایش شود و پایداری ساعت سیستم اهمیت دارد. مهاجرت از UUIDv4 آسان است؛ میتوان مقادیر قدیمی را حفظ کرد و تولید پیشفرض را برای رکوردهای جدید به UUIDv7 تغییر داد. برای اغلب لاگهای رویداد و بارهای شبهزمانمحور، UUIDv7 توازن خوبی میان یکتایی، کارایی و سادگی کوئری فراهم میکند.
#Postgres #PostgreSQL #UUIDv7 #UUID #Database #Performance #Indexing #TimeSeries
🟣لینک مقاله:
https://postgresweekly.com/link/175725/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Aiven
Exploring PostgreSQL 18's new UUIDv7 support
Exploring what's interesting about UUIDv7 support using a demo crab store.
🔵 عنوان مقاله
PostGIS Performance: pg_stat_statements and Postgres Tuning
🟢 خلاصه مقاله:
**این مقاله نشان میدهد چطور با استفاده از PostGIS روی Postgres میتوان کارایی پرسوجوهای مکانی را بهبود داد. محور اصلی کار، اندازهگیری دقیق با pg_stat_statements برای شناسایی پرهزینهترین پرسوجوها و سپس تحلیل آنها با EXPLAIN/ANALYZE است. توصیههای کلیدی شامل انتخاب درست geometry یا geography، ساخت ایندکسهای GiST/SP-GiST، نوشتن شرطهای قابل استفاده توسط ایندکس (مثل ST_Intersects و محدودههای جعبهای)، و اجرای VACUUM/ANALYZE پس از بارگذاریهای حجیم است. در بخش تنظیمات Postgres هم به shared_buffers، effective_cache_size، work_mem، موازیسازی، تنظیمات autovacuum و در صورت نیاز پارتیشنبندی اشاره میشود. برای سرویسهای Go (به نقل از Golang Weekly)، استفاده از pooling مناسب، جلوگیری از الگوهای N+1، Batch کردن عملیات، بهرهگیری از COPY و تعیین statement_timeout توصیه شده است. رویکرد کلی: اندازهگیری، اعمال تغییرات هدفمند، و اعتبارسنجی مداوم برای رسیدن به کارایی پایدار و سریعتر.
#PostGIS #PostgreSQL #pg_stat_statements #DatabaseTuning #Geospatial #Golang #Performance #SQL
🟣لینک مقاله:
https://postgresweekly.com/link/176025/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
PostGIS Performance: pg_stat_statements and Postgres Tuning
🟢 خلاصه مقاله:
**این مقاله نشان میدهد چطور با استفاده از PostGIS روی Postgres میتوان کارایی پرسوجوهای مکانی را بهبود داد. محور اصلی کار، اندازهگیری دقیق با pg_stat_statements برای شناسایی پرهزینهترین پرسوجوها و سپس تحلیل آنها با EXPLAIN/ANALYZE است. توصیههای کلیدی شامل انتخاب درست geometry یا geography، ساخت ایندکسهای GiST/SP-GiST، نوشتن شرطهای قابل استفاده توسط ایندکس (مثل ST_Intersects و محدودههای جعبهای)، و اجرای VACUUM/ANALYZE پس از بارگذاریهای حجیم است. در بخش تنظیمات Postgres هم به shared_buffers، effective_cache_size، work_mem، موازیسازی، تنظیمات autovacuum و در صورت نیاز پارتیشنبندی اشاره میشود. برای سرویسهای Go (به نقل از Golang Weekly)، استفاده از pooling مناسب، جلوگیری از الگوهای N+1، Batch کردن عملیات، بهرهگیری از COPY و تعیین statement_timeout توصیه شده است. رویکرد کلی: اندازهگیری، اعمال تغییرات هدفمند، و اعتبارسنجی مداوم برای رسیدن به کارایی پایدار و سریعتر.
#PostGIS #PostgreSQL #pg_stat_statements #DatabaseTuning #Geospatial #Golang #Performance #SQL
🟣لینک مقاله:
https://postgresweekly.com/link/176025/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Crunchy Data
PostGIS Performance: pg_stat_statements and Postgres tuning | Crunchy Data Blog
PostGIS performance basics. Second post in a series covering pg_stat_statements, shared buffers, work_mem, and parallel queries.
🔵 عنوان مقاله
Postgres 18: OLD and NEW Rows in the RETURNING Clause
🟢 خلاصه مقاله:
Postgres 18 با تمرکز بر سه حوزه پیش میرود: ارگونومی توسعه، قابلیت مشاهده، و بارگذاری داده. پشتیبانی از ارجاع به ردیفهای OLD و NEW در RETURNING باعث میشود نسخههای قبل و بعد از تغییر را در همان دستور SQL بگیرید؛ این کار لاگبرداری، ثبت تغییرات و منطق حل تعارض را سادهتر و کمهزینهتر میکند. بهبودهای COPY—به روایت Brandur Leach—کار با ورودی/خروجیهای حجیم را خوشدستتر میکند و با پیامهای واضحتر و پیشفرضهای امنتر، خطاهای رایج را کم میکند. در سطح پایش، Deepak Mahto و Cédric Villemain به ارتقاهای Cumulative Statistics میپردازند که با شمارندههای منسجمتر و سربار کمتر، عیبیابی و تنظیم عملکرد را آسانتر میسازد. حاصل این تغییرات، ترکیبی از تجربه توسعهدهنده بهتر و بینش عملیاتی عمیقتر در Postgres 18 است.
#Postgres18 #PostgreSQL #RETURNING #COPY #SQL #Database #CumulativeStatistics #OpenSource
🟣لینک مقاله:
https://postgresweekly.com/link/175099/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Postgres 18: OLD and NEW Rows in the RETURNING Clause
🟢 خلاصه مقاله:
Postgres 18 با تمرکز بر سه حوزه پیش میرود: ارگونومی توسعه، قابلیت مشاهده، و بارگذاری داده. پشتیبانی از ارجاع به ردیفهای OLD و NEW در RETURNING باعث میشود نسخههای قبل و بعد از تغییر را در همان دستور SQL بگیرید؛ این کار لاگبرداری، ثبت تغییرات و منطق حل تعارض را سادهتر و کمهزینهتر میکند. بهبودهای COPY—به روایت Brandur Leach—کار با ورودی/خروجیهای حجیم را خوشدستتر میکند و با پیامهای واضحتر و پیشفرضهای امنتر، خطاهای رایج را کم میکند. در سطح پایش، Deepak Mahto و Cédric Villemain به ارتقاهای Cumulative Statistics میپردازند که با شمارندههای منسجمتر و سربار کمتر، عیبیابی و تنظیم عملکرد را آسانتر میسازد. حاصل این تغییرات، ترکیبی از تجربه توسعهدهنده بهتر و بینش عملیاتی عمیقتر در Postgres 18 است.
#Postgres18 #PostgreSQL #RETURNING #COPY #SQL #Database #CumulativeStatistics #OpenSource
🟣لینک مقاله:
https://postgresweekly.com/link/175099/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Crunchy Data
Postgres 18: OLD and NEW Rows in the RETURNING Clause | Crunchy Data Blog
Postgres 18 now lets you see both old and new data when you add the RETURNING clause to an UPDATE statement
🔵 عنوان مقاله
Pipelining Comes to psql in Postgres 18
🟢 خلاصه مقاله:
** در Postgres 18، ابزار psql فرمانهای داخلی برای فعالسازی و کنترل pipelining در اسکریپتهای SQL اضافه کرده است. با این قابلیت، چندین کوئری پشتسرهم ارسال میشوند و منتظر پاسخ تکبهتک نمیمانند؛ در نتیجه رفتوبرگشتهای شبکه کمتر و زمان اجرا کوتاهتر میشود. بهگفته Daniel، این کار میتواند بهرهوری و throughput کوئریها را بهطور چشمگیری افزایش دهد، بهویژه در اسکریپتهای پر از دستورات کوچک.
این ویژگی برای کارهای حجیم و خودکار مانند بارگذاری داده، پردازشهای ETL، تحلیلها و مهاجرتهای اسکیما بسیار مفید است. میتوان pipelining را فقط در بخشهای مناسب یک اسکریپت فعال کرد و برای اطمینان از سازگاری و بازگردانی، مرزبندی تراکنشها و مدیریت خطا را دقیق انجام داد. در صورت عدم استفاده، رفتار psql مانند قبل باقی میماند و با سایر تکنیکهای بهینهسازی سرور تکمیل میشود، نه اینکه جایگزین آنها باشد.
#Postgres
#psql
#Pipelining
#SQL
#DatabasePerformance
#PostgreSQL18
#Throughput
#ETL
🟣لینک مقاله:
https://postgresweekly.com/link/175088/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Pipelining Comes to psql in Postgres 18
🟢 خلاصه مقاله:
** در Postgres 18، ابزار psql فرمانهای داخلی برای فعالسازی و کنترل pipelining در اسکریپتهای SQL اضافه کرده است. با این قابلیت، چندین کوئری پشتسرهم ارسال میشوند و منتظر پاسخ تکبهتک نمیمانند؛ در نتیجه رفتوبرگشتهای شبکه کمتر و زمان اجرا کوتاهتر میشود. بهگفته Daniel، این کار میتواند بهرهوری و throughput کوئریها را بهطور چشمگیری افزایش دهد، بهویژه در اسکریپتهای پر از دستورات کوچک.
این ویژگی برای کارهای حجیم و خودکار مانند بارگذاری داده، پردازشهای ETL، تحلیلها و مهاجرتهای اسکیما بسیار مفید است. میتوان pipelining را فقط در بخشهای مناسب یک اسکریپت فعال کرد و برای اطمینان از سازگاری و بازگردانی، مرزبندی تراکنشها و مدیریت خطا را دقیق انجام داد. در صورت عدم استفاده، رفتار psql مانند قبل باقی میماند و با سایر تکنیکهای بهینهسازی سرور تکمیل میشود، نه اینکه جایگزین آنها باشد.
#Postgres
#psql
#Pipelining
#SQL
#DatabasePerformance
#PostgreSQL18
#Throughput
#ETL
🟣لینک مقاله:
https://postgresweekly.com/link/175088/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
postgresql.verite.pro
Pipelining in psql (PostgreSQL 18)
the psql client version 18 comes with pipelining, which can speed up client-server communication. In this post, let's see how it works and how much can be g...
🔵 عنوان مقاله
Building a Scalable Data Warehouse Backup System with AWS (6 minute read)
🟢 خلاصه مقاله:
اسکریبد یک سامانه پشتیبانگیری مقیاسپذیر برای انبارهای داده مبتنی بر S3 در مقیاس پتابایت ساخته است که چندین پایگاهداده را پوشش میدهد. این راهکار با رویکرد ترکیبی از AWS Lambda برای بارهای کوچک و ECS Fargate برای بارهای بزرگ، پشتیبانگیری ماهانه و افزایشی انجام میدهد؛ به این صورت که فقط فایلهای Parquet جدید یا تغییرکرده کپی میشوند و در عین حال delta logs همیشه نگه داشته میشوند تا امکان بازسازی حالتها وجود داشته باشد. اعتبارسنجی دادهها با تکیه بر S3 Inventory manifests انجام میشود و پردازشها بهصورت موازی برای افزایش کارایی اجرا میگردند. در پایان، نسخههای پشتیبان برای نگهداری بلندمدت در Glacier بایگانی میشوند.
#AWS #S3 #DataWarehouse #Backup #ECSFargate #Lambda #Parquet #Glacier
🟣لینک مقاله:
https://tech.scribd.com/blog/2025/building-scalable-data-warehouse-backup-system.html?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Building a Scalable Data Warehouse Backup System with AWS (6 minute read)
🟢 خلاصه مقاله:
اسکریبد یک سامانه پشتیبانگیری مقیاسپذیر برای انبارهای داده مبتنی بر S3 در مقیاس پتابایت ساخته است که چندین پایگاهداده را پوشش میدهد. این راهکار با رویکرد ترکیبی از AWS Lambda برای بارهای کوچک و ECS Fargate برای بارهای بزرگ، پشتیبانگیری ماهانه و افزایشی انجام میدهد؛ به این صورت که فقط فایلهای Parquet جدید یا تغییرکرده کپی میشوند و در عین حال delta logs همیشه نگه داشته میشوند تا امکان بازسازی حالتها وجود داشته باشد. اعتبارسنجی دادهها با تکیه بر S3 Inventory manifests انجام میشود و پردازشها بهصورت موازی برای افزایش کارایی اجرا میگردند. در پایان، نسخههای پشتیبان برای نگهداری بلندمدت در Glacier بایگانی میشوند.
#AWS #S3 #DataWarehouse #Backup #ECSFargate #Lambda #Parquet #Glacier
🟣لینک مقاله:
https://tech.scribd.com/blog/2025/building-scalable-data-warehouse-backup-system.html?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Scribd Technology
Building a Scalable Data Lake Backup System with AWS
We designed and implemented a scalable, cost-optimized backup system for S3 data warehouses that runs automatically on a monthly schedule. The system handles petabytes of data across multiple databases and uses a hybrid approach: AWS Lambda for small workloads…
🔵 عنوان مقاله
SQL Shader (Tool)
🟢 خلاصه مقاله:
SQL Shader ابزاری مرورگری بر پایه DuckDB-WASM است که کوئریهای SQL را به گرافیکهای رویهایِ بلادرنگ تبدیل میکند تا رفتار و کارایی موتور پایگاهداده را بهصورت بصری کاوش و درک کنید. همهچیز بهصورت محلی در مرورگر اجرا میشود، بدون نیاز به سرور و با حفظ حریم خصوصی. با تغییر کوئریها—مثل فیلترها، نوع join یا اندازه داده—نمایشهای بصری فوراً تغییر میکنند و شاخصهایی مانند زمان اجرا، تعداد ردیفها یا الگوی عملگرها را به شکل قابل مشاهده نشان میدهند. این ابزار برای آموزش مفاهیم پایگاهداده، نمایش تعاملی عملکرد، و آزمایش سریع رفتار کوئریها بسیار کاربردی است.
#SQL #DuckDB #WASM #WebAssembly #DataVisualization #DatabasePerformance #BrowserTools #SQLShader
🟣لینک مقاله:
https://dmkskd.github.io/sql-shader/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
SQL Shader (Tool)
🟢 خلاصه مقاله:
SQL Shader ابزاری مرورگری بر پایه DuckDB-WASM است که کوئریهای SQL را به گرافیکهای رویهایِ بلادرنگ تبدیل میکند تا رفتار و کارایی موتور پایگاهداده را بهصورت بصری کاوش و درک کنید. همهچیز بهصورت محلی در مرورگر اجرا میشود، بدون نیاز به سرور و با حفظ حریم خصوصی. با تغییر کوئریها—مثل فیلترها، نوع join یا اندازه داده—نمایشهای بصری فوراً تغییر میکنند و شاخصهایی مانند زمان اجرا، تعداد ردیفها یا الگوی عملگرها را به شکل قابل مشاهده نشان میدهند. این ابزار برای آموزش مفاهیم پایگاهداده، نمایش تعاملی عملکرد، و آزمایش سریع رفتار کوئریها بسیار کاربردی است.
#SQL #DuckDB #WASM #WebAssembly #DataVisualization #DatabasePerformance #BrowserTools #SQLShader
🟣لینک مقاله:
https://dmkskd.github.io/sql-shader/?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Forwarded from VIP
🚀 به دنیای توسعه و تکنولوژی خوش اومدی!
اگر به موضوعات زیر علاقهمندی:
🔹 Golang
🔹 Linux & DevOps
🔹 Software Engineering
🔹 AI & Machine Learning
🔹 فرصتهای شغلی ریموت (خارجی و داخلی)
ما برات یه مجموعه کانالهای تخصصی ساختیم تا همیشه بهروز، حرفهای و الهامبخش بمونی!
📚 یادگیری، فرصت، شبکهسازی و پیشرفت، همش اینجاست...
📌 از این لینک همه چنلهامونو یهجا ببین و جوین شو:
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
اگر به موضوعات زیر علاقهمندی:
🔹 Golang
🔹 Linux & DevOps
🔹 Software Engineering
🔹 AI & Machine Learning
🔹 فرصتهای شغلی ریموت (خارجی و داخلی)
ما برات یه مجموعه کانالهای تخصصی ساختیم تا همیشه بهروز، حرفهای و الهامبخش بمونی!
📚 یادگیری، فرصت، شبکهسازی و پیشرفت، همش اینجاست...
📌 از این لینک همه چنلهامونو یهجا ببین و جوین شو:
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
Forwarded from Future Pulse Persian
با دو سال سابقه کار
حتی با اینکه کاراموز شرکت امازون هم بوده
شامل layoff اخیر شده و بیکار شده
متأسفانه ai خیلی قوی تر شده
و تهدید محسوب میشه
حتی با اینکه کاراموز شرکت امازون هم بوده
شامل layoff اخیر شده و بیکار شده
متأسفانه ai خیلی قوی تر شده
و تهدید محسوب میشه
❤1
👋 درود به همه دوستان عزیز
📌 اگر شما هم مقاله، مطلب آموزشی یا هر چیزی که فکر میکنید درباره انواع دیتابیس ها میتونه مفید باشه دارید، خوشحال میشم برام بفرستید تا با اسم خودتون توی کانال منتشر کنم.
🤝 اینطوری هم به بقیه کمک میکنید و هم محتوای ارزشمندتون بیشتر دیده میشه.
@mrbardia72
📌 اگر شما هم مقاله، مطلب آموزشی یا هر چیزی که فکر میکنید درباره انواع دیتابیس ها میتونه مفید باشه دارید، خوشحال میشم برام بفرستید تا با اسم خودتون توی کانال منتشر کنم.
🤝 اینطوری هم به بقیه کمک میکنید و هم محتوای ارزشمندتون بیشتر دیده میشه.
@mrbardia72
Forwarded from VIP
درود به همهی دوستان عزیز 🌿
اگر پیشنهاد یا انتقادی دارید که میتونه به بهتر شدن کانالها ی زیر کمک کنه،
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
خیلی خوشحال میشم نظرتون رو بدونم و ازش استفاده کنم 🙌
میتونید از طریق آیدی زیر با من در تماس باشید:
📩 @mrbardia72
منتظر نظرات خوب و سازندهتون هستم 💬
💚🤍❤️
اگر پیشنهاد یا انتقادی دارید که میتونه به بهتر شدن کانالها ی زیر کمک کنه،
👉 https://news.1rj.ru/str/addlist/AJ7rh2IzIh02NTI0
خیلی خوشحال میشم نظرتون رو بدونم و ازش استفاده کنم 🙌
میتونید از طریق آیدی زیر با من در تماس باشید:
📩 @mrbardia72
منتظر نظرات خوب و سازندهتون هستم 💬
💚🤍❤️
مقایسه PostgreSQL در برابر MySQL — رقابتی میان دقت و سادگی
در تصویر اول، ستونی از نوع JSONB به همراه ایندکس GIN به جدول کاربران در پایگاهدادهی PostgreSQL اضافه شده است.
در تصویر دوم، اجرای یک کوئری بر روی ۵۰٬۰۰۰ رکورد در PostgreSQL حدود ۷ برابر سریعتر از MySQL انجام شد.
در اکوسیستم پایگاهدادههای رابطهای این دو نام بیش از همه در کانون توجهاند، هر دو از ستونهای اصلی دنیای متنباز به شمار میآیند، اما فلسفهی طراحی و نوع نگاهشان به داده، دو مسیر کاملاً متفاوت را دنبال میکند.
معماری و انضباط داده
پستگرسکیوال از ابتدا با رویکردی «استانداردمحور» طراحی شده است.
انطباق دقیق با استاندارد SQL و رفتار سختگیرانه در برابر نوع دادهها، قیدها و تراکنشها باعث میشود کیفیت دادهها در سطح سازمانی حفظ شود.
این ویژگی در پروژههایی که دادهی نادرست میتواند هزینهزا باشد، ارزش حیاتی دارد.
در مقابل، MySQL در برخورد با دادهها انعطافپذیرتر است و در بسیاری از سناریوها دادههای ناسازگار را بدون خطا ذخیره میکند ، ویژگیای که توسعهی سریعتر را ممکن میکند، اما ممکن است در مقیاس بزرگ چالشبرانگیز شود.
کارایی و الگوی مصرف
معمولاً در بارهای کاری سبکتر و اپلیکیشنهای مبتنی بر خواندن زیاد MySQL عملکرد بهتری نشان میدهد.
ساختار سادهتر و تنظیمات ابتدایی بهینهاش باعث میشود برای استارتاپها، MVPها و پروژههای با معماری ساده انتخابی طبیعی باشد.
در سوی دیگر، PostgreSQL در سناریوهای تحلیلی، تراکنشهای پیچیده و Queryهای چندلایه قدرت واقعی خود را نشان میدهد.
پشتیبانی از قابلیتهایی مانند CTE، Window Function و نوع دادهی JSONB آن را به گزینهای ایدهآل برای سیستمهای دادهمحور تبدیل کرده است.
قابلیت گسترش و انعطافپذیری فنی
پستگرسکیوال فراتر از یک دیتابیس کلاسیک عمل میکند.
تعریف نوع دادهی سفارشی، توابع دلخواه و حتی افزونهنویسی درون خود موتور، آن را به بستری برای طراحی معماریهای دادهای پیچیده بدل کرده است.
در مقابل، MySQL سادهتر و مینیمالتر است — رویکردی که هم نقطهی قوت است و هم محدودیت.
در نهایت، انتخاب میان PostgreSQL و MySQL نه بر اساس «بهتر بودن»، بلکه بر اساس اولویتهای معماری و نیازهای پروژه تعیین میشود.
اگر پروژهتان حول محور دقت، استاندارد و توسعهپذیری بلندمدت میچرخد، PostgreSQL انتخابی استراتژیک است.
اما اگر به دنبال سادگی، سرعت پیادهسازی و پایداری در نیازهای روزمرهی وب هستید، MySQL همچنان گزینهای درخشان و اثباتشده است.
@<Babak Mirhosseini/>
در تصویر اول، ستونی از نوع JSONB به همراه ایندکس GIN به جدول کاربران در پایگاهدادهی PostgreSQL اضافه شده است.
در تصویر دوم، اجرای یک کوئری بر روی ۵۰٬۰۰۰ رکورد در PostgreSQL حدود ۷ برابر سریعتر از MySQL انجام شد.
در اکوسیستم پایگاهدادههای رابطهای این دو نام بیش از همه در کانون توجهاند، هر دو از ستونهای اصلی دنیای متنباز به شمار میآیند، اما فلسفهی طراحی و نوع نگاهشان به داده، دو مسیر کاملاً متفاوت را دنبال میکند.
معماری و انضباط داده
پستگرسکیوال از ابتدا با رویکردی «استانداردمحور» طراحی شده است.
انطباق دقیق با استاندارد SQL و رفتار سختگیرانه در برابر نوع دادهها، قیدها و تراکنشها باعث میشود کیفیت دادهها در سطح سازمانی حفظ شود.
این ویژگی در پروژههایی که دادهی نادرست میتواند هزینهزا باشد، ارزش حیاتی دارد.
در مقابل، MySQL در برخورد با دادهها انعطافپذیرتر است و در بسیاری از سناریوها دادههای ناسازگار را بدون خطا ذخیره میکند ، ویژگیای که توسعهی سریعتر را ممکن میکند، اما ممکن است در مقیاس بزرگ چالشبرانگیز شود.
کارایی و الگوی مصرف
معمولاً در بارهای کاری سبکتر و اپلیکیشنهای مبتنی بر خواندن زیاد MySQL عملکرد بهتری نشان میدهد.
ساختار سادهتر و تنظیمات ابتدایی بهینهاش باعث میشود برای استارتاپها، MVPها و پروژههای با معماری ساده انتخابی طبیعی باشد.
در سوی دیگر، PostgreSQL در سناریوهای تحلیلی، تراکنشهای پیچیده و Queryهای چندلایه قدرت واقعی خود را نشان میدهد.
پشتیبانی از قابلیتهایی مانند CTE، Window Function و نوع دادهی JSONB آن را به گزینهای ایدهآل برای سیستمهای دادهمحور تبدیل کرده است.
قابلیت گسترش و انعطافپذیری فنی
پستگرسکیوال فراتر از یک دیتابیس کلاسیک عمل میکند.
تعریف نوع دادهی سفارشی، توابع دلخواه و حتی افزونهنویسی درون خود موتور، آن را به بستری برای طراحی معماریهای دادهای پیچیده بدل کرده است.
در مقابل، MySQL سادهتر و مینیمالتر است — رویکردی که هم نقطهی قوت است و هم محدودیت.
در نهایت، انتخاب میان PostgreSQL و MySQL نه بر اساس «بهتر بودن»، بلکه بر اساس اولویتهای معماری و نیازهای پروژه تعیین میشود.
اگر پروژهتان حول محور دقت، استاندارد و توسعهپذیری بلندمدت میچرخد، PostgreSQL انتخابی استراتژیک است.
اما اگر به دنبال سادگی، سرعت پیادهسازی و پایداری در نیازهای روزمرهی وب هستید، MySQL همچنان گزینهای درخشان و اثباتشده است.
@<Babak Mirhosseini/>
🔵 عنوان مقاله
How We Scaled Raw GROUP BY to 100 B+ Rows In Under A Second (30 minute read)
🟢 خلاصه مقاله:
کلیکهاوس با معرفی قابلیت Parallel Replicas نشان میدهد چگونه میتوان اجرای پرسوجوهای GROUP BY را بهصورت افقی و بدون تغییر در چیدمان دادهها مقیاس داد؛ بهگونهای که تجمیع بیش از ۱۰۰ میلیارد ردیف در کمتر از یک ثانیه ممکن شود. در این روش، کار یک پرسوجوی واحد میان همهی Replicaهای یک Shard تقسیم میشود، هر Replica بخشی از داده را میخواند و تجمیعهای جزئی را میسازد، و در پایان نتایج بهصورت قطعی با هم ادغام میشوند.
این رویکرد، بدون نیاز به Re-sharding، از Replicaها برای موازیسازی Query استفاده میکند، با SQL استاندارد سازگار است، و تأخیر انتهایی را برای داشبوردها و تحلیلهای تعاملی کاهش میدهد. بهدلیل سهم بالای GROUP BY در پرسوجوهای BI و رشد بارهای observability و AI analytics، Parallel Replicas راهی عملی برای مقیاسپذیری تقریباً نامحدود فراهم میکند و نمونهی ۱۰۰B+ ردیف در <۱ ثانیه نشان میدهد که استفاده از Replicaها بهعنوان ظرفیت محاسباتی موازی چه جهشی در کارایی ایجاد میکند.
#ClickHouse #ParallelReplicas #GROUPBY #Scalability #BigData #Analytics #OLAP #RealTime
🟣لینک مقاله:
https://clickhouse.com/blog/clickhouse-parallel-replicas?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
How We Scaled Raw GROUP BY to 100 B+ Rows In Under A Second (30 minute read)
🟢 خلاصه مقاله:
کلیکهاوس با معرفی قابلیت Parallel Replicas نشان میدهد چگونه میتوان اجرای پرسوجوهای GROUP BY را بهصورت افقی و بدون تغییر در چیدمان دادهها مقیاس داد؛ بهگونهای که تجمیع بیش از ۱۰۰ میلیارد ردیف در کمتر از یک ثانیه ممکن شود. در این روش، کار یک پرسوجوی واحد میان همهی Replicaهای یک Shard تقسیم میشود، هر Replica بخشی از داده را میخواند و تجمیعهای جزئی را میسازد، و در پایان نتایج بهصورت قطعی با هم ادغام میشوند.
این رویکرد، بدون نیاز به Re-sharding، از Replicaها برای موازیسازی Query استفاده میکند، با SQL استاندارد سازگار است، و تأخیر انتهایی را برای داشبوردها و تحلیلهای تعاملی کاهش میدهد. بهدلیل سهم بالای GROUP BY در پرسوجوهای BI و رشد بارهای observability و AI analytics، Parallel Replicas راهی عملی برای مقیاسپذیری تقریباً نامحدود فراهم میکند و نمونهی ۱۰۰B+ ردیف در <۱ ثانیه نشان میدهد که استفاده از Replicaها بهعنوان ظرفیت محاسباتی موازی چه جهشی در کارایی ایجاد میکند.
#ClickHouse #ParallelReplicas #GROUPBY #Scalability #BigData #Analytics #OLAP #RealTime
🟣لینک مقاله:
https://clickhouse.com/blog/clickhouse-parallel-replicas?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
ClickHouse
How we scaled raw GROUP BY to 100 B+ rows in under a second
ClickHouse Cloud now scales analytical queries with parallel replicas, fanning a single query across thousands of cores for terabyte-per-second throughput. This post dives into the internals and lets you see and feel the speed.
👍1🔥1
🔵 عنوان مقاله
its Call for Proposals is open
🟢 خلاصه مقاله:
** آخرین شماره Golang Weekly اعلام کرده که بخش Call for Proposals برای یک رویداد/ابتکار مرتبط با جامعه Go باز شده است. از اعضای جامعه دعوت میشود ایدههای خود را در قالب سخنرانی، ورکشاپ، لایتنینگتاک و پنل ارسال کنند؛ موضوعات پیشنهادی شامل بهینهسازی کارایی، الگوهای همروندی، ابزارها و فریمورکها، سرویسهای cloud-native با Go، تست و observability، و مطالعات موردی تولیدی است. برای یک پیشنهاد قوی، خلاصهای شفاف با مسئله، مخاطب هدف و دستاوردهای مشخص ارائه کنید؛ نمونه کد یا دمو کمککننده است، و از سخنرانان تازهکار نیز استقبال میشود. برای جزئیات، زمانبندی و لینک ارسال، به شماره اخیر Golang Weekly مراجعه کنید و زودتر ارسال کنید.
#Golang #GolangWeekly #CFP #CallForProposals #GoCommunity #TechTalks #SoftwareEngineering
🟣لینک مقاله:
https://postgresweekly.com/link/175722/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
its Call for Proposals is open
🟢 خلاصه مقاله:
** آخرین شماره Golang Weekly اعلام کرده که بخش Call for Proposals برای یک رویداد/ابتکار مرتبط با جامعه Go باز شده است. از اعضای جامعه دعوت میشود ایدههای خود را در قالب سخنرانی، ورکشاپ، لایتنینگتاک و پنل ارسال کنند؛ موضوعات پیشنهادی شامل بهینهسازی کارایی، الگوهای همروندی، ابزارها و فریمورکها، سرویسهای cloud-native با Go، تست و observability، و مطالعات موردی تولیدی است. برای یک پیشنهاد قوی، خلاصهای شفاف با مسئله، مخاطب هدف و دستاوردهای مشخص ارائه کنید؛ نمونه کد یا دمو کمککننده است، و از سخنرانان تازهکار نیز استقبال میشود. برای جزئیات، زمانبندی و لینک ارسال، به شماره اخیر Golang Weekly مراجعه کنید و زودتر ارسال کنید.
#Golang #GolangWeekly #CFP #CallForProposals #GoCommunity #TechTalks #SoftwareEngineering
🟣لینک مقاله:
https://postgresweekly.com/link/175722/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
cfp.p2d2.cz
Prague PostgreSQL Developer Day 2026
Schedule, talks and talk submissions for Prague PostgreSQL Developer Day 2026
🔥1
🔵 عنوان مقاله
The Feature We Were Afraid to Talk About (7 minute read)
🟢 خلاصه مقاله:
dltHub با صراحت توضیح میدهد که اتکای کامل به LLM برای ساخت خودکار data scaffold از روی مستندات، در عمل برای محیطهای تولیدی قابل اعتماد نبود. نسخه اول، اسکَفولدها را مستقیم با LLM میساخت و در ظاهر عالی بود، اما خطاهای ظریف و «توهمات» باعث شکست پایپلاینها و اتلاف زمان دیباگ میشد. در v2 رویکرد برعکس شد: ابتدا با پارسرها و اعتبارسنجهای قطعی، حقایق قابل راستیآزمایی (مثل endpointها، schemaها، روشهای احراز هویت و قواعد pagination) استخراج و تثبیت میشوند؛ سپس LLM فقط برای ظرایف معنایی وارد میشود—برای رفع ابهامها، نامگذاری بهتر یا پیشنهاد تبدیلهای سبک—آن هم با ارجاع شفاف به منبع تا قابلیت رهگیری و اصلاح حفظ شود. نتیجه، کاهش خطا و افزایش قابلیت بازتولید و دیباگپذیری است؛ LLM ارزش افزوده میدهد اما موتور تصمیم قطعی نیست. درس کلیدی: در دادههای تولیدی، باید LLM را با ریلهای ایمنی، استخراج قطعی و اعتبارسنجی احاطه کرد، نه اینکه همه چیز را به آن سپرد.
#LLM #DataEngineering #MLOps #AI #ProductionReliability #DeterministicParsing #DataPipelines #dltHub
🟣لینک مقاله:
https://dlthub.com/blog/improving_generation_baseline?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
The Feature We Were Afraid to Talk About (7 minute read)
🟢 خلاصه مقاله:
dltHub با صراحت توضیح میدهد که اتکای کامل به LLM برای ساخت خودکار data scaffold از روی مستندات، در عمل برای محیطهای تولیدی قابل اعتماد نبود. نسخه اول، اسکَفولدها را مستقیم با LLM میساخت و در ظاهر عالی بود، اما خطاهای ظریف و «توهمات» باعث شکست پایپلاینها و اتلاف زمان دیباگ میشد. در v2 رویکرد برعکس شد: ابتدا با پارسرها و اعتبارسنجهای قطعی، حقایق قابل راستیآزمایی (مثل endpointها، schemaها، روشهای احراز هویت و قواعد pagination) استخراج و تثبیت میشوند؛ سپس LLM فقط برای ظرایف معنایی وارد میشود—برای رفع ابهامها، نامگذاری بهتر یا پیشنهاد تبدیلهای سبک—آن هم با ارجاع شفاف به منبع تا قابلیت رهگیری و اصلاح حفظ شود. نتیجه، کاهش خطا و افزایش قابلیت بازتولید و دیباگپذیری است؛ LLM ارزش افزوده میدهد اما موتور تصمیم قطعی نیست. درس کلیدی: در دادههای تولیدی، باید LLM را با ریلهای ایمنی، استخراج قطعی و اعتبارسنجی احاطه کرد، نه اینکه همه چیز را به آن سپرد.
#LLM #DataEngineering #MLOps #AI #ProductionReliability #DeterministicParsing #DataPipelines #dltHub
🟣لینک مقاله:
https://dlthub.com/blog/improving_generation_baseline?utm_source=tldrdata
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Dlthub
The feature we were afraid to talk about
This is the story of how we made our LLM generation workflow superior to starting from raw docs.
🔵 عنوان مقاله
Tiger Data Introduces a Free Postgres Plan
🟢 خلاصه مقاله:
Tiger Data که پیشتر با نام Timescale شناخته میشد، برای پلتفرم مدیریتشده Postgres خود یک طرح رایگان معرفی کرده است. این شرکت تا امروز پلن رایگان نداشت و اکنون میتوان تا دو سرویس رایگان با سقف ۷۵۰ مگابایت برای هر سرویس ایجاد کرد. این ظرفیت برای نمونهسازی، آموزش، ابزارهای کوچک و محیطهای تست مناسب است و در صورت رشد نیازها، امکان ارتقا به پلنهای پولی وجود دارد. در نتیجه، ورود به استفاده از Postgres مدیریتشده سادهتر و کمهزینهتر میشود.
#Postgres #TigerData #Timescale #Database #FreeTier #Cloud #Developers #Startups
🟣لینک مقاله:
https://postgresweekly.com/link/176015/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Tiger Data Introduces a Free Postgres Plan
🟢 خلاصه مقاله:
Tiger Data که پیشتر با نام Timescale شناخته میشد، برای پلتفرم مدیریتشده Postgres خود یک طرح رایگان معرفی کرده است. این شرکت تا امروز پلن رایگان نداشت و اکنون میتوان تا دو سرویس رایگان با سقف ۷۵۰ مگابایت برای هر سرویس ایجاد کرد. این ظرفیت برای نمونهسازی، آموزش، ابزارهای کوچک و محیطهای تست مناسب است و در صورت رشد نیازها، امکان ارتقا به پلنهای پولی وجود دارد. در نتیجه، ورود به استفاده از Postgres مدیریتشده سادهتر و کمهزینهتر میشود.
#Postgres #TigerData #Timescale #Database #FreeTier #Cloud #Developers #Startups
🟣لینک مقاله:
https://postgresweekly.com/link/176015/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Tiger Data Blog
Introducing Agentic Postgres Free Plan: The Fastest Way to Experiment with AI on Postgres
Experiment with AI on Postgres. The Tiger Free Plan offers database forks, vector search, and real-time analytics. No credit card required. Built for developers and agents: Agentic Postgres.
🔵 عنوان مقاله
pqr.sql: Generate QR Codes with Pure SQL in Postgres
🟢 خلاصه مقاله:
**pqr.sql یک ایدهی خلاقانه است که نشان میدهد میتوان QR Code را تنها با SQL و مستقیماً داخل Postgres تولید کرد. این کار بدون افزونه یا کد اپلیکیشن انجام میشود و برای محیطهای محدود یا سناریوهای خودبسنده مفید است و جنبه آموزشی خوبی برای توانمندیهای SQL در Postgres دارد. با این حال، به چندصد خط SQL نیاز دارد و برای تولید عملیاتی جایگزین کتابخانههای تخصصی نیست؛ اما نمونهای جذاب با کاربردهای غیربدیهی است.
#Postgres #PostgreSQL #SQL #QRCode #PureSQL #Databases #SQLTricks
🟣لینک مقاله:
https://postgresweekly.com/link/175728/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
pqr.sql: Generate QR Codes with Pure SQL in Postgres
🟢 خلاصه مقاله:
**pqr.sql یک ایدهی خلاقانه است که نشان میدهد میتوان QR Code را تنها با SQL و مستقیماً داخل Postgres تولید کرد. این کار بدون افزونه یا کد اپلیکیشن انجام میشود و برای محیطهای محدود یا سناریوهای خودبسنده مفید است و جنبه آموزشی خوبی برای توانمندیهای SQL در Postgres دارد. با این حال، به چندصد خط SQL نیاز دارد و برای تولید عملیاتی جایگزین کتابخانههای تخصصی نیست؛ اما نمونهای جذاب با کاربردهای غیربدیهی است.
#Postgres #PostgreSQL #SQL #QRCode #PureSQL #Databases #SQLTricks
🟣لینک مقاله:
https://postgresweekly.com/link/175728/web
➖➖➖➖➖➖➖➖
👑 @Database_Academy
Tanelpoder
pqr.sql: Generate QR Codes with Pure SQL in PostgreSQL - Tanel Poder Consulting
As my cat woke me up way too early for a Saturday morning, I decided to put all this extra time (and my ChatGPT Pro subnoscription) into good use and generated a QR-code generator for PostgreSQL, written as a single pure SQL statement. No external libraries…