🎄 DevTwitter | توییت برنامه نویسی – Telegram
🎄 DevTwitter | توییت برنامه نویسی
23.6K subscribers
4.37K photos
358 videos
6 files
4.11K links
توییت های برنامه نویسی و طراحی وب :)

@dvtwi

Hashtags:
devtwitter.t.me/5

DevBooks Channel:
https://news.1rj.ru/str/+AYbOl75CLNYxY2U0

Github:
https://github.com/DevTwitter

X:
https://x.com/devtwittir
Download Telegram
امروز یه پروژه جدید تو گیت‌هاب گذاشتم که فکر کنم برای هر کسی که با مسیریابی و لوکیشن سرویس‌ها کار می‌کنه می‌تونه به‌درد بخوره.
یه سرویس مسیریاب ساختم که با یه الگوریتم ساده‌ی Brute-Force میاد بین یه مبدا و چندتا مقصد، بهترین مسیر رو پیدا می‌کنه.
کل سرویس روی OSRM اوپن‌سورس پیاده شده — هم رایگانه، هم سبک و خیلی راحت می‌شه تو پروژه‌های واقعی استفاده‌ش کرد.
اگه پروژه‌هایی دارید که باید مسیر بهینه بین چند مقصد پیدا بشه، این می‌تونه یه انتخاب خوب باشه.

https://github.com/sajadfallahdoost/direction-route

@DevTwitter | <sajad fallahdoost/>
45👍10🍌6
حدود دو سال پیش پکیج antd-jalali-v5 رو نوشتم برای اینکه تقویم AntD رو جلالی کنم.
در این مدت چند مورد عدم سازگاری با نسخه‌های جدید گزارش شده بود و بالاخره نسخه‌ی جدید رو منتشر کردم:
سازگار با React 19، سازگار با AntD 6 و با چند بهبود ریز.

https://www.npmjs.com/package/antd-jalali-v5

@DevTwitter | <Ali Mousavi/>
18👍5🔥3🍌1
تا وقتی فرانت‌اند کوچیکه، همه‌چی خوبه… اما وقتی محصول بزرگ میشه، اون موقع تازه درد واقعی شروع میشه.

امروز صبح یه مقاله‌ خوندم درباره‌ی Micro-Frontends و حس کردم احتمالا این همون چیزیه که خیلی از تیم‌ها باهاش درگیرن: یک UI بزرگ، چند تا تیم، کلی هماهنگی اعصاب خورد کن… و در نهایت اسپرینت هایی که همیشه Faile میشن.

اینجا میکرو فرانت‌اند وارد میشه؛ اما نه به‌عنوان یک “Technical Trend”، بلکه به‌عنوان یک تغییر فرهنگی توی تیم.

چند نکته که به نظرم خیلی مهم بود:

- کامپوننت داشتن به معنی میکروفرانت‌اند نیست.
کامپوننت برای reuse خوبه؛
میکروفرانت‌اند برای استقلال تیم‌ها.
این دوتا رو نباید اشتباه گرفت.


- اگر هر تغییر کوچیک توی UI تبدیل میشه به یک فرایند پیچیده، وقتشه معماری رو بازنگری کنید.
این یعنی تیم‌ها بیش از حد به هم گیرن.


- مهاجرت به میکروفرانت‌اند باید “تکه‌تکه و عمودی” باشه.
نه یک Big Bang.
یک بخش کامل از UI رو جدا کن و بذار یک تیم کامل مسئولش باشه. مشکلات واقعی اونجا خودشون رو نشون میدن.


- تکرار بعضی چیزها الزاماً بده نیست.
گاهی “duplicate کردن” یک ماژول ساده، خیلی عاقلانه‌تر از یکی کردنشون وسط چند تیمه.
سرعت مهم‌تر از وسواس بی‌جا روی DRY بودن کدهاست.


- سخت‌ترین بخش ماجرا تقسیم تکنیکال نیست؛ هماهنگی تیم‌هاست. routing، auth، UX ، قرارداد بین تیم‌ها…
این‌ها جاییه که معمولاً پروژه‌ها زمین می‌خورن.


- جمع‌بندی خودم
اگر محصول شما بزرگ شده، تیم‌ها زیاد شدن، و انتشارها سخت و کندن… Micro-Frontends می‌تونه واقعاً بازدهی و سرعت شما رو چند برابر کنه.
اما اگر یه اپ کوچیک دارید، یا فقط یک تیم روی اپلیکیشن کار می‌کنه میکرو فرانت اند چیزی اضافه نمی‌کنه که هیچ تازه پیچیدگی غیر ضرروی رو هم به تیم تحمیل میکنه.

https://www.infoq.com/articles/adopt-micro-frontends/

@DevTwitter | <Mansour Kalagar/>
👍27👎74🔥1
وقتشه React رو با تمام وجود بغل کنیم: RSC کل قواعد بازی رو عوض کرد
به عنوان یک توسعه‌دهنده اگه از حجم سنگین جاوااسکریپت و کندی لودینگ‌ها خسته شدید این خبر برای شماست: React Server Components (RSC) اینجاست تا نجاتمون بده
جریان از چه قراره؟
به جای اینکه کل کد رو مثل یک بار سنگین بفرستیم به مرورگر کاربر RSC میگه:
کارهای سخت رو بده به سرور: کامپوننت‌هایی که فقط داده می‌خونن یا زیاد تغییر نمی‌کنن میرن سمت سرور اجرا میشن
چی میره برای کاربر؟ فقط خروجی نهایی و تمیز (مثل HTML/CSS) دیگه نیازی به جاوااسکریپت اون بخش توی کلاینت نیست
دنیای جدید: معماری هیبرید
سرور کامپوننت‌ها: برای لیست‌های بلندبالا و گزارش‌های تحلیلی (Performance)
کلاینت کامپوننت‌ها: برای دکمه‌ها، انیمیشن‌ها و هر چیزی که نیاز به تعامل لحظه‌ای داره (Interactivity)
چرا باید هیجان‌زده باشیم؟
سرعت، سرعت، سرعت: لودینگ اولیه فوق‌العاده سریع‌تر میشه
کد نویسی آسون‌تر: مستقیماً توی کامپوننت سرور به دیتابیس وصل شو خداحافظی با زنجیره‌ای از fetchها

@DevTwitter | <Mojtaba Vahedi/>
👍43🍌14👎54
امروز داشتم یکم ریکت یاد میگرفتم ک یهو با سایت usehooks.com روبرو شدم.
منبع جالب و خوب برای اموزش و استفاده از هوک های آماده react هست.

طبق بررسی ک انجام دادم کدهای موجود در سایت ساده و قابل فهم هستن و کاربردی میتونه باشه ،
امیدوارم ک بدردتون بخوره

@DevTwitter | <Ali Adinehpour/>
👍23🔥51🍌1
یه RAG جدید توسعه دادم که به دردتون میخوره :)
خیلی راحت میتونید اسناد رو اضافه کنید و باهاشون چت کنید ، پشتیبانی از مدل های لوکال ، اوپن روتر و اوپن ای آی هم داره :)
خیلی روش کار کردم ، سرعت و دقت خوب باشه .
لینک :
https://github.com/alipyth/aj_rag

@DevTwitter | <Mr.J/>
31🍌6🔥5👎1
یکی از خروجی‌های دوره‌ی LLMی که برگزار کردم این بود که PHP کار ها واقعا اذیت میشن! پکیج درست حسابی که حداقل‌های کار با LLM رو ندارن.

برای همین مشابه پکیج goai-kit که قبلا زده بودم، یه ورژن PHP هم زدم:
https://github.com/mhrlife/phpai-kit

تاثیرش: اسکیما و تول خودکار + اتصال به OTEL لنگفیوز

@DevTwitter | <The Big Rad/>
🍌26👍72
خبر داغ
اُپِن اِی‌آی همین الان «Prompt Pack» برای همهٔ شغل‌ها منتشر کرد!
دیگه لازم نیست ساعت‌ها وقت بزاری پرامپت بنویسی.
دوره‌های موجود:
- فناوری اطلاعات (IT)
- فروش (Sales)
- محصول (Product)
- مدیران (Managers)
- بازاریابی (Marketing)
- مدیران اجرایی (Executives)
- موفقیت مشتری (Customer Success)
- مهندسی (Engineering)
- منابع انسانی (HR & People Ops)
- رهبران (Leaders)
- فناوری اطلاعات دولتی(Government IT)

https://academy.openai.com/public/tags/prompt-packs-6849a0f98c613939acef841c

@DevTwitter | <Alireza Anbari/>
🔥8👎74
دیگه از du -sh استفاده نکنید!
سال‌هاست خیلی‌هامون برای پیدا کردن فایل‌ها و فولدرهای حجیم روی سرورها از دستورهایی مثل du -sh استفاده می‌کنیم.
اما واقعیت اینه که این روش چندتا مشکل جدی داره.
مشکلات du -sh:
سرعت پایین روی مسیرهای بزرگ
نداشتن رابط تعاملی برای مرور زیرشاخه‌ها
سخت بودن مقایسه حجم فولدرها
نیاز به اجرای چندباره برای دیدن عمق‌های مختلف
عملاً روی سرورهای شلوغ وقت‌گیر و اعصاب‌خوردکنه.

اینجاست که ابزار حرفه‌ای‌تر و کارآمدتر وارد میشه:
ابزار ncdu؛ ابزار سریع، تعاملی و دقیق برای تحلیل فضای دیسک
درواقع نسخه بهینه و امروزی دستور du هست
نه‌ فقط سریع‌ تر، بلکه با یک UI داخل ترمینال کار رو چند برابر ساده‌تر می‌کنه.

مزیت‌های ncdu:
سرعت فوق‌العاده بالا در اسکن مسیرها
محیط تعاملی برای بالا/پایین رفتن بین فولدرها
مرتب‌سازی اتوماتیک بر اساس حجم
پیدا کردن خیلی سریع بزرگ‌ترین مصرف‌کننده‌های دیسک
در ضمن نصبش هم خیلی راحته:
Debian base:
apt install ncdu
RHEL base:
yum install ncdu
macOs:
brew install ncdu
برای استفاده از ncdu هم فقط کافیه بزنید مسیر مورد نظر ncdu مثل ncdu /var/log.

@DevTwitter | <Erfan Darbani/>
👍109🍌2👎1
یه system prompt نوشتم برای audit کردن پرامپت‌ها.
از وقتی GPT-5 اومده و نسبت به تناقض‌ها حساس‌تر شده، ازش استفاده می‌کنم و خیلی کمکم کرده.

چیزایی که چک می‌کنه:
• تناقض‌ها و دستورات متضاد
• ابهام و واژه‌های چندمعنایی
• زبان منفی (don't → do)
و ...

https://gist.github.com/mhrlife/9cdf593604e7d1bda80c3d87a9478a8e

@DevTwitter | <The Big Rad/>
🔥5👍41
خداحافظ گیت‌هاب، سلام کدبرگ: کوچ بزرگ ریپازیتوری اصلی زیگ

زبان برنامه‌نویسی زیگ (Zig) رسماً ریپازیتوری اصلی خود را از گیت‌هاب به کدبرگ (Codeberg) منتقل کرد. این تصمیم که از مدت‌ها قبل مورد بحث بود، نشان‌دهنده تعهد زیگ به تمرکززدایی، متن‌باز بودن واقعی و دوری از وابستگی به پلتفرم‌های متمرکز تحت مالکیت شرکت‌های بزرگ است. کدبرگ یک پلتفرم غیرانتفاعی مبتنی بر جامعه است که بر اساس Gitea (یک فورک متن‌باز از گیت‌هاب) ساخته شده و بر ارزش‌های آزادی نرم‌افزار و حریم خصوصی کاربران تاکید دارد.

انتقال شامل ریپازیتوری اصلی زیگ (ziglang/zig) و همچنین سایر ریپازیتوری‌های مرتبط با اکوسیستم زیگ است. این اقدام با هدف تقویت کنترل جامعه بر توسعه زیگ و کاهش خطرات ناشی از تغییرات سیاستی یا مالکیت گیت‌هاب انجام شده است. اندرو کلی، رهبر پروژه زیگ، در بیانیه‌ای اعلام کرد که این انتقال گامی حیاتی برای تضمین آینده‌ای پایدار و مستقل برای زیگ است.

این تصمیم پس از بررسی دقیق گزینه‌های مختلف و نظرسنجی از جامعه زیگ اتخاذ شد. کدبرگ به دلیل تعهد به متن‌باز بودن، حریم خصوصی و عدم وابستگی به سرمایه‌گذاری خطرپذیر، به عنوان بهترین گزینه انتخاب شد. اگرچه گیت‌هاب همچنان یک پلتفرم محبوب و قدرتمند است، نگرانی‌ها در مورد مالکیت مایکروسافت و احتمال تغییر سیاست‌ها باعث شد تا زیگ به دنبال جایگزینی مستقل‌تر باشد.

فرآیند انتقال به تدریج انجام شده و شامل انتقال کد، تاریخچه، مسائل (issues) و درخواست‌های ادغام (pull requests) است. تیم زیگ ابزارهایی را برای تسهیل انتقال برای توسعه‌دهندگانی که در این پروژه مشارکت دارند، ارائه کرده است. این انتقال ممکن است در کوتاه‌مدت باعث ایجاد اختلالاتی شود، اما انتظار می‌رود در بلندمدت به نفع پایداری و استقلال زیگ باشد.

این اقدام زیگ بازتابی از یک روند رو به رشد در بین پروژه‌های متن‌باز است که به دنبال کاهش وابستگی به پلتفرم‌های متمرکز و تقویت کنترل جامعه بر توسعه خود هستند. این انتقال می‌تواند الهام‌بخش سایر پروژه‌ها برای بررسی جایگزین‌های متن‌باز و تمرکززدایی شده باشد.

چرا این مطلب مهم است؟
انتقال ریپازیتوری زیگ از گیت‌هاب به کدبرگ نشان‌دهنده یک تغییر پارادایم در دنیای متن‌باز است. این حرکت نه تنها استقلال و پایداری زیگ را تضمین می‌کند، بلکه الگویی برای سایر پروژه‌ها ارائه می‌دهد که به دنبال کنترل بیشتر بر سرنوشت خود هستند. این تصمیم می‌تواند تاثیر قابل توجهی بر آینده توسعه نرم‌افزار متن‌باز و توزیع قدرت در اکوسیستم فناوری داشته باشد. این رویداد نشان می‌دهد که جامعه متن‌باز به طور فزاینده‌ای نسبت به تمرکز و کنترل شرکت‌های بزرگ حساس است و به دنبال جایگزین‌های مستقل‌تر و پایدارتر است.

مطلب در ویرگول:
https://vrgl.ir/2aNZB

@DevTwitter | <Alireza DavoodiNia/>
🍌4916👍8👎8
تجربه ی آشنایی با Gateway و معماری Microservices :
توی چند روز اخیر موقعیتی پیش اومد که با گیت وی و معماری میکرو سرویس آشنا شدم و با خودم گفتم یه خلاصه ای ازش رو اینجا بذارم.

میکروسرویس چیه؟
میکروسرویس یعنی شکستن یک سیستم بزرگ به چند سرویس کوچک‌تر و مستقل.
هر سرویس کار خودش رو انجام می‌ده، جداگانه توسعه و دیپلوی میشه و فقط از طریق API با بقیه صحبت می‌کنه.
نتیجه؟ مقیاس‌پذیری بهتر، مدیریت ساده‌تر و توسعه سریع‌تر.

گیت وی چیه؟
گیت وی نقطه ورودی تمام درخواست‌های کلاینت به سمت سرویس‌هاست.
یعنی به‌جای اینکه مستقیماً به چند سرویس مختلف API بزنیم، همه‌چیز از یک “دروازه” عبور می‌کنه.

++ گیت وی مسئول کارهایی مثل:
- روت کردن درخواست‌ها به سرویس درست
- مدیریت احراز هویت و توکن
- محدودیت سرعت، لاگ‌گیری و امنیت
- ساده‌سازی ارتباط فرانت با پشت‌صحنه

مزایای Gateway :
- یک ورودی مشترک برای همه سرویس‌ها => ساده‌تر شدن ارتباط
- مدیریت یکپارچه امنیت، توکن‌ها و قوانین
- امکان ورژن‌بندی و روتینگ هوشمند
- جمع شدن لاگ‌ها و مانیتورینگ در یک نقطه

️ معایب / چالش‌ها:
- اگر Gateway مشکل داشته باشه، کل سیستم تحت‌تأثیره
- دیباگ سخت‌تره چون درخواست‌ها قبل از رسیدن به سرویس تغییر می‌کنن
- پیچیدگی در تنظیم و قوانین روتینگ (با تمام وجودم این موضوع رو درک کردم (: )
- وابستگی زیاد سیستم به این نقطه‌ی مرکزی

در کل برای منی که هیچ تجربه و دانشی از بک اند نداشتم ،‌ درسته یکم سخت بود برام ولی یادگیری این چیز ها باعث شد دید بهتری داشته باشم.

@DevTwitter | <Ali Joshany/>
👍234👎2
کمپانی OpenAi یک دایکیومنت بسیار ارزنده معرفی کرده به عنوان Building an AI-native engineering team

در این سند، راهکارهای قابل اجرا ارائه شده است تا رهبران مهندسی بتوانند از همین امروز فرایند ساخت تیم‌ها و فرآیندهای بومی هوش مصنوعی (AI-native) را آغاز کنند

نسخه فارسی :
https://xpoury4.github.io/ai-native-engineering-persian/
نسخه اصلی :
https://cdn.openai.com/business-guides-and-resources/building-an-ai-native-engineering-team.pdf

لینک گیتهاب برای دانلود :
https://github.com/xPOURY4/ai-native-engineering-persian

@DevTwitter | <POURYA/>
7👎3👍1🔥1
نسخه جدید Docker Engine 29 منتشر شد!
حالا containerd به‌صورت پیش‌فرض نقش «image store» داره
و پشتیبانی آزمایشی از nftables برای فایروال/شبکه لینوکس اضافه شده
یک گام بزرگ به سمت مدرنیته!

@DevTwitter | <MehrdadLinux/>
🔥22👍2
خیلی وقت بود می‌خواستم ترمینالم رو اون‌طوری که می‌خوام بسازم؛ واسه همین TermForge رو شروع کردم که ترمینال رو با Ansible و پشتیبانی از مک و ابزارهای کوبرنتیز برات می‌سازه.
اگه دنبال یه ترمینال کامل و آماده‌این پیشنهاد می‌کنم امتحانش کنید

https://github.com/Mazafard/TermForge

@DevTwitter | <Maza/>
1👍10👎52🔥2
#میم_شبانگاهی

تیپیکال مشکلات فنی دوستام

@DevTwitter | <Mahdi Hazrati/>
👍89🍌7🔥4
چهار استراتژی کلیدی برای مقیاس‌پذیری مؤثر پایگاه داده

با رشد سیستم‌ها و افزایش تعداد کاربران، پایگاه داده به یکی از حساس‌ترین و چالش‌برانگیزترین بخش‌های معماری نرم‌افزار تبدیل می‌شود. انتخاب رویکرد مناسب برای مقیاس‌پذیری، نقش مهمی در حفظ کارایی، پایداری و در دسترس‌پذیری سرویس دارد. در این مقاله، چهار استراتژی رایج و اثربخش برای مقیاس‌پذیری پایگاه داده را بررسی می‌کنیم.

۱) استراتژی Vertical Scaling (افزایش ظرفیت سخت‌افزاری)
ساده‌ترین روش برای افزایش توان پردازشی پایگاه داده، ارتقای منابع سخت‌افزاری نظیر CPU، RAM و فضای ذخیره‌سازی است.
این رویکرد بدون نیاز به تغییرات ساختاری در نرم‌افزار انجام می‌شود و در بسیاری از سیستم‌ها، اولین گام منطقی برای افزایش ظرفیت به شمار می‌آید.
با این حال، Vertical Scaling دارای محدودیت ذاتی است و نهایتاً تا سقف مشخصی قابل افزایش است.

۲) استراتژی Replication (توزیع بار خواندن)
در Replication با ایجاد نسخه‌های متعدد از داده، امکان توزیع بار خواندن بین چندین نود را فراهم می‌سازد.
در این مدل:
عملیات نوشتن تنها به یک نود Leader ارسال می‌شود، Leader تغییرات را به نودهای Follower منتقل می‌کند، عملیات خواندن می‌تواند توسط هر یک از نودهای Leader یا Follower انجام شود.
هدف اصلی این روش افزایش ظرفیت Read و بهبود کارایی سامانه در مواجهه با تعداد زیاد درخواست‌های خواندن است.

۳) استراتژی Caching (افزایش سرعت با ذخیره‌سازی موقت)
استفاده از Cache، از تکرار درخواست‌های غیرضروری به پایگاه داده جلوگیری می‌کند.
در این رویکرد، نخستین درخواست داده را از پایگاه داده دریافت کرده و نتیجه آن در Cache ذخیره می‌شود.
درخواست‌های بعدی، در صورت وجود داده در Cache، به‌سرعت پاسخ داده می‌شوند.
این روش علاوه بر کاهش بار پایگاه داده، به‌طور چشمگیری سرعت پاسخ‌گویی را نیز افزایش می‌دهد.

۴) استراتژی Partitioning / Sharding (مقیاس‌پذیری افقی برای مدیریت بار نوشتن)
استراتژی Sharding با تقسیم داده به بخش‌های مستقل (Partitions یا Shards) و توزیع آن‌ها در چندین سرور، امکان افزایش ظرفیت‌پذیری عملیات نوشتن را فراهم می‌کند.
در این مدل:
هر شارد بخشی از داده را مدیریت می‌کند،
هر درخواست نوشتن تنها به شارد مربوطه ارسال می‌شود،
بار نوشتن میان چندین ماشین تقسیم می‌گردد.
این رویکرد برای سامانه‌هایی که حجم عملیات نوشتن آن‌ها بالا است، روشی پایدار و قابل اعتماد به حساب می‌آید.

ارتباط Replication و Sharding
در معماری‌های بزرگ، Sharding و Replication معمولاً به‌صورت ترکیبی مورد استفاده قرار می‌گیرند.
هر شارد روی چندین نود Replicate می‌شود تا در صورت خرابی یک نود، دسترس‌پذیری داده حفظ گردد.

جمع‌بندی
چهار روش Vertical Scaling، Replication، Caching و Sharding، ستون‌های اصلی مقیاس‌پذیری پایگاه داده در معماری‌های مدرن محسوب می‌شوند.
انتخاب مناسب میان این روش‌ها به نیازهای عملکردی، حجم داده، الگوی دسترسی و محدودیت‌های معماری هر سیستم بستگی دارد.
به‌کارگیری درست و ترکیبی این استراتژی‌ها، امکان ساخت سامانه‌هایی پایدار، سریع و قابل‌اتکا را فراهم می‌کند.

@DevTwitter | <Amir Rahimi Nejad/>
👍136🔥2
چرا هنوز وردپرس باید اینقدر “دکمه‌محور” و “فرم‌محور” باشه؟
چرا کاربر نتونه مثل حرف زدن با یه آدم، با سایت حرف بزنه و سایت هم واقعا بفهمه چی میگه؟

خب با NLWeb میشه ولی باید مفهوم عمیقتری رو بررسی کنیم اون هم پایه این دانش یا بهتره بگم مادرش یعنی NLU (Natural Language Understanding) ، میشه وردپرس رو از یه CMS معمولی تبدیل کرد به یه موجود فهمنده ( البته درنظر بگیرید منظورمون استفاده از یک چت بات chatbot هوشمند یا متصل به یک هوش مصنوعی نیست ) در حقیقت باید یک لایه ای در خود وردپرس ایجاد کنیم که بتونه نیت کاربر رو برداشت کنه و کاری که باید رو انجام بده؟

دیدم نه فقط میشه، بلکه ترکیب وردپرس با NLU دقیقا همون جهتیه که وب باید بره.
همه چیز از همین سؤال ساده شروع شد:

اگه کاربر به جای پر کردن فرم پیچیده پشتیبانی، فقط بگه «می‌خوام اشتراک سایتم رو تمدید کنم»، چرا سایت نفهمه؟

اینجا بیشتر بخونید در موردش دو منبع نسبتا خوب و کاربردی :
https://fastbots.ai/blog/nlu-for-beginners-a-step-by-step-guide
https://botpenguin.com/glossary/natural-language-understanding

اگه مدیر سایت بخواد بدون رفتن به پنل، فقط تو یه چت بگه «تمام محصولات ناموجود رو منتشر نکن»، چرا این با لایه‌ی زبان طبیعی اجرا نشه؟

از همینجا به بعد، ایده تبدیل شد به یک مسیر جدی:
وردپرس + NLU

یعنی اضافه کردن یک مغز فهمنده که بتونه Intent کاربر رو انتخاب کنه، Entityها رو دربیاره و در نهایت، یک ACTION واقعی سمت وردپرس اجرا کنه.

به نظرم این، همون نقطه تحولیه که وردپرس چند ساله کم داشته: رفتن از “کلیک کردن” به “درک کردن”.

دارم روی یک معماری کار می‌کنم که این دو دنیا رو به هم قفل کنه:
1- پشت‌صحنه پایتون برای پردازش زبان طبیعی
2- جلوی صحنه وردپرس
3- یک لایه میانی که این‌ها رو مثل یک سیستم عصبی واقعی به هم وصل کنه.

فعلا هدفم معرفی این نگاهه، نه آموزش دادن و شروع پروژه.
چون معتقدم این مدل سیستم‌ها از این به بعد بخش جدی دنیای وب میشن.
نه فقط برای تجربه کاربری، بلکه برای اتوماسیون، مدیریت هوشمند، و حتی تصمیم‌گیری درون سایت.

به‌زودی روی این ایده کار عمیق‌تر می‌کنم و نتایجش رو منتشر می‌کنم.
هم برای کسانی که دنبال ساخت سرویس‌های هوشمند روی وردپرسن
و هم برای کسایی که میخوان از پایتون استفاده کنن تا یک CMS معمولی رو تبدیل به یک سیستم‌ عامل هوشمند وب کنن.

این فقط یه آموزش نیست…
این شروع یک تحول و تغییر جهته.

@DevTwitter | <amin diba/>
👍24🍌153🔥1