توی vibe coding مرحله planning رو جدی بگیرید تا خروجیتون چند برابر بهتر بهشه.
به صورت خلاصه باید سه مرحله رو طی کنید
۱. تهیه کردن کانتکست خلاصه و درست
از AI توقع نداشته باشید کل پروژه رو تو ذهنش داشته باشه برای هر تسک بهش بگید به کجاها باید توجه کنه و به کجاها توجه نکنه.
کانتکست هم باید کوچیک باشه و هم باید جامع باشه
۲. پلن
هیچقوت از AI نخواید مستقیم کد رو بزنه چون بعدش refine کردنش خیلی سخت میشه. اول بخواید plan کنه اگه plan اون طوری که شما میخواستید نبود ازش بخواید plan رو refine کنه
۳. اجرا و راستی آزمایی.
مرحله آخرم اجراست. اگه اجراش خیلی پرت بود بهتره کل کد رو پاک کنید و برگردید به مرحله ۲ یا حتی مرحله ۱ اینکه هی با پرامپت های بعدی سعی کنید مشکل رو فیکس کنید خیلی جواب نمیده
مثلا فرض کنید شما یه پروژه دارید که تست نداره و با vibe coding میخواید براش تست بنویسید. راه اول اینه که سعی کنید توی یه پرامپت بلند یا کوتاه از AI بخواید برای شما تست بنویسه.
ولی راه پیشنهادی من اینه:
۱. از AI بخواید ماژول های پروژه رو برای شما شناسایی کنه و همراه با جزئیات لازمه نوشته بشه بده و توی یه فایل به هر اسمی مثل TASK1_PLAN.md بریز حالا بررسی نهایی رو روی این فایل بکنید مطمئن بشید best practice هایی که میخواید رعایت بشه توی PLAN نوشته شده اینکه چیا باید ماک بشه چیا نباید بشه اونجا هست و ۳. در قدم نهایی بخواید PLAN رو اجرا کنه
@DevTwitter | <brdia/>
به صورت خلاصه باید سه مرحله رو طی کنید
۱. تهیه کردن کانتکست خلاصه و درست
از AI توقع نداشته باشید کل پروژه رو تو ذهنش داشته باشه برای هر تسک بهش بگید به کجاها باید توجه کنه و به کجاها توجه نکنه.
کانتکست هم باید کوچیک باشه و هم باید جامع باشه
۲. پلن
هیچقوت از AI نخواید مستقیم کد رو بزنه چون بعدش refine کردنش خیلی سخت میشه. اول بخواید plan کنه اگه plan اون طوری که شما میخواستید نبود ازش بخواید plan رو refine کنه
۳. اجرا و راستی آزمایی.
مرحله آخرم اجراست. اگه اجراش خیلی پرت بود بهتره کل کد رو پاک کنید و برگردید به مرحله ۲ یا حتی مرحله ۱ اینکه هی با پرامپت های بعدی سعی کنید مشکل رو فیکس کنید خیلی جواب نمیده
مثلا فرض کنید شما یه پروژه دارید که تست نداره و با vibe coding میخواید براش تست بنویسید. راه اول اینه که سعی کنید توی یه پرامپت بلند یا کوتاه از AI بخواید برای شما تست بنویسه.
ولی راه پیشنهادی من اینه:
۱. از AI بخواید ماژول های پروژه رو برای شما شناسایی کنه و همراه با جزئیات لازمه نوشته بشه بده و توی یه فایل به هر اسمی مثل TASK1_PLAN.md بریز حالا بررسی نهایی رو روی این فایل بکنید مطمئن بشید best practice هایی که میخواید رعایت بشه توی PLAN نوشته شده اینکه چیا باید ماک بشه چیا نباید بشه اونجا هست و ۳. در قدم نهایی بخواید PLAN رو اجرا کنه
@DevTwitter | <brdia/>
1👍54👎13❤9🍌5
مدلی که این روزها توی اخبار خوب دیده نشد مدل ۶ میلیارد پارامتری Z-Image چینی هستش که تصاویر با کیفیتی رو با سرعت بالا (۱ ثانیه!) روی VRAM 16 GB و به صورت لوکال تولید میکنه.
مثل بیشتر مدلهای اوپن سورس چینی، بدون سانسور و محدودیته.
https://github.com/Tongyi-MAI/Z-Image
@DevTwitter | <Diego Jr/>
مثل بیشتر مدلهای اوپن سورس چینی، بدون سانسور و محدودیته.
https://github.com/Tongyi-MAI/Z-Image
@DevTwitter | <Diego Jr/>
1❤30🔥13🍌6👍2
اگر توسعه دهندهی تازه کار php هستید، نرمافزار xampp و wamp بدترین برنامه برای توسعه هستند
اگر با لاراول کار میکنید من بهتون Laravel Herd رو پیشنهاد میکنم که هم نصب سادهای داره و هم سرعت عالی برای اجرای برنامههای لاراولی
در غیر اینصورت Laragon رو نصب کنید و از توسعه برنامههای php لذت ببرید
@DevTwitter | <sina khaghani/>
اگر با لاراول کار میکنید من بهتون Laravel Herd رو پیشنهاد میکنم که هم نصب سادهای داره و هم سرعت عالی برای اجرای برنامههای لاراولی
در غیر اینصورت Laragon رو نصب کنید و از توسعه برنامههای php لذت ببرید
@DevTwitter | <sina khaghani/>
1👍52👎9🍌5❤3
اگه میخوای برای کارت یا استفاده شخصی،
تو یه زمینه خاص از AI استفاده کنی
ولی نمیدونی دقیقاً کدوم مدل به دردت میخوره
میتونی از http://LMArena.ai کمک بگیری.
مدلها رو کنار هم میبینی،عملکردشون رو مقایسه میکنی،نقطات قوت وضعفشون رو میبینی
یاحتی رایگان و برای استفاده دم دستی هم میشه ازش استفاده کرد
@DevTwitter | <POURYA/>
تو یه زمینه خاص از AI استفاده کنی
ولی نمیدونی دقیقاً کدوم مدل به دردت میخوره
میتونی از http://LMArena.ai کمک بگیری.
مدلها رو کنار هم میبینی،عملکردشون رو مقایسه میکنی،نقطات قوت وضعفشون رو میبینی
یاحتی رایگان و برای استفاده دم دستی هم میشه ازش استفاده کرد
@DevTwitter | <POURYA/>
❤17👍4👎3🔥1
در طول هفته گذشته فرصتی شد تا یک دستی به سر و گوش پلاگین IconLab بکشم و یک ویژگی جدید هم بهش اضافه کنم. امیدوارم خوشتون بیاد و ازش تو پروژه هاتون استفاده کنید. اگر نظری در مورد بهبودش دارید حتما تو لینکدین یا ایمیل بهم پیام بدید تا در موردش گپ بزنیم.
لینک IconLab در کامیونیتی فیگما
https://www.figma.com/community/plugin/1470150361236399232/iconlab-tools-for-managing-icons
چیزهایی که بهش اضافه شده:
- با ویژگی Rename می تونید براحتی یک پیش نمایشی از ایکونهاتون ببینید و اسمشون رو عوض کنید.
ویژگی Flatten چی هست؟
در UI ساختمان ایکون بسیار مهمه و حتما باید ساختار درست و استانداردی داشته باشه. ویژگی Flatten در این پلاگین کمک می کنه:
- همه گروهها و فریمهای اضافی داخل ایکون رو پاک کنید.
- همه لایههای Stroke رو به Fill تبدیل کنید.
- لایههای Mask و Placeholder رو حذف کنید.
- اسم و رنگ لایه اصلی همه آیکون رو یکسان کنید.
- نقاط یا همون Node های اضافی ایکون رو حذف کنید.
همه این کارها فقط با یک کلیک انجام میشه و جالبش اینجاست که شما می تونید همه این کارها رو در عرض ۲-۳ ثانیه روی صدها آیکون همزمان انجام بدید!
اگر دوست داشتید و استفاده کردید، ممنون میشم با لایک و کامنت تو کامیونیتی فیگما حمایت کنید
@DevTwitter | <Vahid Mehrad/>
لینک IconLab در کامیونیتی فیگما
https://www.figma.com/community/plugin/1470150361236399232/iconlab-tools-for-managing-icons
چیزهایی که بهش اضافه شده:
- با ویژگی Rename می تونید براحتی یک پیش نمایشی از ایکونهاتون ببینید و اسمشون رو عوض کنید.
ویژگی Flatten چی هست؟
در UI ساختمان ایکون بسیار مهمه و حتما باید ساختار درست و استانداردی داشته باشه. ویژگی Flatten در این پلاگین کمک می کنه:
- همه گروهها و فریمهای اضافی داخل ایکون رو پاک کنید.
- همه لایههای Stroke رو به Fill تبدیل کنید.
- لایههای Mask و Placeholder رو حذف کنید.
- اسم و رنگ لایه اصلی همه آیکون رو یکسان کنید.
- نقاط یا همون Node های اضافی ایکون رو حذف کنید.
همه این کارها فقط با یک کلیک انجام میشه و جالبش اینجاست که شما می تونید همه این کارها رو در عرض ۲-۳ ثانیه روی صدها آیکون همزمان انجام بدید!
اگر دوست داشتید و استفاده کردید، ممنون میشم با لایک و کامنت تو کامیونیتی فیگما حمایت کنید
@DevTwitter | <Vahid Mehrad/>
❤11👍2🔥1
تایم اوت بالا در سرویسها: مشکل از کیه؟ API Manager یا Backend؟ ️
یکی از رایجترین سؤالها در تیمهای یکپارچهسازی اینه که:
«وقتی زمان پاسخدهی یک سرویس زیاده، من که API Manager یا ESB هستم Timeout رو روی چند ثانیه تنظیم کنم؟»
ظاهرش سادهست؛ ولی پشتش یک نکته مهم وجود داره:
تایم اوت رو ESB یا API Manager تعیین نمیکنه؛ معماری سیستم تعیین میکنه.
خیلی وقتها Timeout بالا فقط مشکل "طولانی بودن پردازش" نیست، بلکه نشونه یک مشکل بزرگتره.
چرا نباید Timeout رو زیاد کنیم؟
اگر Backend کند باشه، طولانیکردن Timeout فقط مشکل رو پنهان میکنه.
مثلاً Lag در گیتوی باعث میشه کانکشنها قفل بشن و Load کل سیستم بالا بره.
صف درخواستها روی گیتوی ساخته میشه و کل سیستم ناپایدار میشه.
چه کارهایی باید انجام بشه؟
1- ریشه مشکل کندی سرویس رو پیدا کن
کوئریهای سنگین دیتابیس
تعداد I/O زیاد
سرویسهای زنجیرهای کند
یا Memory leak
یا Thread pool ناکافی
تا وقتی اینها درست نشه، هیچ تایم اوتی مساعد نخواهد بود.
2- تایماوت (Timeout) باید متناسب با نوع سرویس باشه
سرویسهای synchronous مثل اطلاعات مشتری: ۳–۱۰ ثانیه
سرویسهای پردازش سنگین: اصلاً synchronous نباید باشن
3- کارهای سنگین رو asynchronous کن
برای عملیات طولانی از:
Kafka
Redis queue
Celery
SQS
Internal event bus
استفاده کن و نتیجه رو بعداً تحویل بده.
4- بخش API Manager محل پردازش نیست
بخش ESB/WSO2/APIM فقط باید:
درخواست رو مدیریت کنه
امنیت رو برقرار کنه
نرخ و دسترسی رو کنترل کنه
نه اینکه ۳۰ ثانیه منتظر بمونه یک Backend تموم بشه!
5- تایماوتهای چندگانه تنظیم کن
Gateway timeout
Backend timeout
Load balancer timeout
Client timeout
اینها باید یکپارچه و هماهنگ باشن.
نتیجه
اگر یک سرویس کند است، بهترین راهحل "زیاد کردن Timeout" نیست.
راهحل طراحی درست و انتقال پردازشهای سنگین به async است.
تایماوت باید حداقلی، منطقی و قابل پیشبینی باشد، نه پنهانکننده مشکل.
@DevTwitter | <Mobin Mokhtarzadeh/>
یکی از رایجترین سؤالها در تیمهای یکپارچهسازی اینه که:
«وقتی زمان پاسخدهی یک سرویس زیاده، من که API Manager یا ESB هستم Timeout رو روی چند ثانیه تنظیم کنم؟»
ظاهرش سادهست؛ ولی پشتش یک نکته مهم وجود داره:
تایم اوت رو ESB یا API Manager تعیین نمیکنه؛ معماری سیستم تعیین میکنه.
خیلی وقتها Timeout بالا فقط مشکل "طولانی بودن پردازش" نیست، بلکه نشونه یک مشکل بزرگتره.
چرا نباید Timeout رو زیاد کنیم؟
اگر Backend کند باشه، طولانیکردن Timeout فقط مشکل رو پنهان میکنه.
مثلاً Lag در گیتوی باعث میشه کانکشنها قفل بشن و Load کل سیستم بالا بره.
صف درخواستها روی گیتوی ساخته میشه و کل سیستم ناپایدار میشه.
چه کارهایی باید انجام بشه؟
1- ریشه مشکل کندی سرویس رو پیدا کن
کوئریهای سنگین دیتابیس
تعداد I/O زیاد
سرویسهای زنجیرهای کند
یا Memory leak
یا Thread pool ناکافی
تا وقتی اینها درست نشه، هیچ تایم اوتی مساعد نخواهد بود.
2- تایماوت (Timeout) باید متناسب با نوع سرویس باشه
سرویسهای synchronous مثل اطلاعات مشتری: ۳–۱۰ ثانیه
سرویسهای پردازش سنگین: اصلاً synchronous نباید باشن
3- کارهای سنگین رو asynchronous کن
برای عملیات طولانی از:
Kafka
Redis queue
Celery
SQS
Internal event bus
استفاده کن و نتیجه رو بعداً تحویل بده.
4- بخش API Manager محل پردازش نیست
بخش ESB/WSO2/APIM فقط باید:
درخواست رو مدیریت کنه
امنیت رو برقرار کنه
نرخ و دسترسی رو کنترل کنه
نه اینکه ۳۰ ثانیه منتظر بمونه یک Backend تموم بشه!
5- تایماوتهای چندگانه تنظیم کن
Gateway timeout
Backend timeout
Load balancer timeout
Client timeout
اینها باید یکپارچه و هماهنگ باشن.
نتیجه
اگر یک سرویس کند است، بهترین راهحل "زیاد کردن Timeout" نیست.
راهحل طراحی درست و انتقال پردازشهای سنگین به async است.
تایماوت باید حداقلی، منطقی و قابل پیشبینی باشد، نه پنهانکننده مشکل.
@DevTwitter | <Mobin Mokhtarzadeh/>
❤16👍7🔥1
اخیراً فرصتی دست داد تا یک سرویس کوتاهکننده URL نسبتا خوب و scalable بسازم – چیزی که نه تنها لینکهای طولانی رو به کدهای کوتاه و کارآمد تبدیل میکنه، بلکه با تمرکز روی performance و امنیت، برای محیطهای production-ready طراحی شده. از FastAPI برای API layer استفاده کردم، PostgreSQL رو به عنوان primary store، و Redis برای caching سریع lookups.
چالشهای جالبی تو پیادهسازی داشت: مثلاً مدیریت collision-free short codes با Base62 encoding (تا ۹۱۶ میلیون unique URL)، و کاهش latency redirectها به زیر ۵ میلیثانیه با cache hits. همچنین، SSRF protection و rate limiting رو اضافه کردم تا از حملات احتمالی جلوگیری بشه. آمارگیری کلیکها هم با tracking timestamps، insights خوبی برای analytics میده.
سرویس کاملاً Dockerized هست و با یک docker-compose up، آماده اجراست. اگر به backend، optimization یا scaling علاقهمندید، کد رو چک کنین. خوشحال میشم feedbackهای فنیتون رو بشنوم، مثلاً در مورد horizontal scaling یا integration با CDN.
https://github.com/sajadfallahdoost/URL-shortener
@DevTwitter | <sajad fallahdoost/>
چالشهای جالبی تو پیادهسازی داشت: مثلاً مدیریت collision-free short codes با Base62 encoding (تا ۹۱۶ میلیون unique URL)، و کاهش latency redirectها به زیر ۵ میلیثانیه با cache hits. همچنین، SSRF protection و rate limiting رو اضافه کردم تا از حملات احتمالی جلوگیری بشه. آمارگیری کلیکها هم با tracking timestamps، insights خوبی برای analytics میده.
سرویس کاملاً Dockerized هست و با یک docker-compose up، آماده اجراست. اگر به backend، optimization یا scaling علاقهمندید، کد رو چک کنین. خوشحال میشم feedbackهای فنیتون رو بشنوم، مثلاً در مورد horizontal scaling یا integration با CDN.
https://github.com/sajadfallahdoost/URL-shortener
@DevTwitter | <sajad fallahdoost/>
❤28🍌14👍2🔥1
وقتی که داشتم تمرین تایپینگ میکردم یه سوال ذهنمو درگیر کرد... هدف از تمرینت چیه؟
سرعت یا دقت؟ کدوم بیشتر به کارت میاد؟
آیا تایپ سریع خطاهای بیشتر به همراه داره؟ تایپ دقیق با وجود کندتر بودن در نهایت میتونه صرفهجویی در زمان رو به همراه داشته باشه؟
نظر تو چیه؟ ترجیح میدی سریعتر تایپ کنی یا دقیقتر؟
و سوال بعدی: با وجود Autocomplete و IntelliSense، آیا هنوز ارزش داره برای تایپ کردن وقت بذاریم و تمرین کنیم؟
نظر خودم: تایپ دقیقتر بهتره و دوست دارم یه روز دوست دارم مثل اون «دیوونههای کدنویسی» بتونم تو Vim بدون هیچ IntelliSenseی کد بزنم
برای تمرین، اخیراً دارم خودم رو با این سایت به چالش میکشم Keybr.com
@DevTwitter | <Soheil Barati/>
سرعت یا دقت؟ کدوم بیشتر به کارت میاد؟
آیا تایپ سریع خطاهای بیشتر به همراه داره؟ تایپ دقیق با وجود کندتر بودن در نهایت میتونه صرفهجویی در زمان رو به همراه داشته باشه؟
نظر تو چیه؟ ترجیح میدی سریعتر تایپ کنی یا دقیقتر؟
و سوال بعدی: با وجود Autocomplete و IntelliSense، آیا هنوز ارزش داره برای تایپ کردن وقت بذاریم و تمرین کنیم؟
نظر خودم: تایپ دقیقتر بهتره و دوست دارم یه روز دوست دارم مثل اون «دیوونههای کدنویسی» بتونم تو Vim بدون هیچ IntelliSenseی کد بزنم
برای تمرین، اخیراً دارم خودم رو با این سایت به چالش میکشم Keybr.com
@DevTwitter | <Soheil Barati/>
👍32🍌18❤4🔥1
گوگل یه ابزار جدید و فوقالعاده کاربردی به Gemini API اضافه کرده به اسم File Search Tool که خیلی مفیده و پیاده سازی RAG را راحت میکنه.
تا حالا برای اینکه مدل جمنای (Gemini) بتونه از فایلهای شخصیتون اطلاعات دقیق بده (مثلاً داکیومنتها، PDFها و...)، باید دردسر RAG (همون Retrieval Augmented Generation) رو خودتون مدیریت میکردید. اما حالا این ابزار جدید خودش یه سیستم RAG کاملاً مدیریت شدهست و همه این کارا رو خودکار انجام میده! دیگه لازم نیست نگران ذخیرهسازی فایلها، تقسیمبندی محتوا، ساختن Embeddings و تزریق context باشید. همه چی مدیریت شدست و کار توسعه رو خیلی آسونتر کرده.
مهمتر از همه: قیمتش عالیه و خیلی بهصرفه! ذخیره فایلها و ساختن Embeddings موقع کوئری گرفتن (وقتی از فایلها سؤال میپرسی) کاملاً مجانیه! فقط برای اولین بار که فایلها رو ایندکس میکنید و آماده جستجو میشن، یه هزینه خیلی کم (۰.۱۵ دلار به ازای هر ۱ میلیون توکن) پرداخت میکنید. اینجوری ساختن و مقیاسدهی پروژهها با دیتای شخصی، فوقالعاده مقرون به صرفهتر میشه.
این ابزار از جستجوی وکتوری (Vector Search) قدرتمند استفاده میکنه که با مدلهای پیشرفته Gemini Embedding کار میکنه. یعنی چی؟ یعنی حتی اگه کلمات دقیق تو کوئری نباشه، بازم معنی و مفهوم رو میفهمه و اطلاعات مرتبط رو پیدا میکنه. تازه، خروجیها منبعدهی خودکار/citation هم دارن تا دقیقاً بدونید جواب از کدوم قسمتداکیومنت اومده.
اگه دارید باتهای پشتیبانی هوشمند، personal assistant یا هر نوع پلتفرم محتوایی میسازید که نیاز به دسترسی به داکیومنتهای بزرگ و متنوع (مثل PDF، DOCX، TXT و انواع کد) داره، این ابزار جون میده برای کار شما. حتماً داکیومنتهاش رو ببینید و توی Google AI Studio دمو رو تست کنید.
بلاگ کامل را بخونید:
https://blog.google/technology/developers/file-search-gemini-api/
@DevTwitter | <Mehdi Allahyari/>
تا حالا برای اینکه مدل جمنای (Gemini) بتونه از فایلهای شخصیتون اطلاعات دقیق بده (مثلاً داکیومنتها، PDFها و...)، باید دردسر RAG (همون Retrieval Augmented Generation) رو خودتون مدیریت میکردید. اما حالا این ابزار جدید خودش یه سیستم RAG کاملاً مدیریت شدهست و همه این کارا رو خودکار انجام میده! دیگه لازم نیست نگران ذخیرهسازی فایلها، تقسیمبندی محتوا، ساختن Embeddings و تزریق context باشید. همه چی مدیریت شدست و کار توسعه رو خیلی آسونتر کرده.
مهمتر از همه: قیمتش عالیه و خیلی بهصرفه! ذخیره فایلها و ساختن Embeddings موقع کوئری گرفتن (وقتی از فایلها سؤال میپرسی) کاملاً مجانیه! فقط برای اولین بار که فایلها رو ایندکس میکنید و آماده جستجو میشن، یه هزینه خیلی کم (۰.۱۵ دلار به ازای هر ۱ میلیون توکن) پرداخت میکنید. اینجوری ساختن و مقیاسدهی پروژهها با دیتای شخصی، فوقالعاده مقرون به صرفهتر میشه.
این ابزار از جستجوی وکتوری (Vector Search) قدرتمند استفاده میکنه که با مدلهای پیشرفته Gemini Embedding کار میکنه. یعنی چی؟ یعنی حتی اگه کلمات دقیق تو کوئری نباشه، بازم معنی و مفهوم رو میفهمه و اطلاعات مرتبط رو پیدا میکنه. تازه، خروجیها منبعدهی خودکار/citation هم دارن تا دقیقاً بدونید جواب از کدوم قسمتداکیومنت اومده.
اگه دارید باتهای پشتیبانی هوشمند، personal assistant یا هر نوع پلتفرم محتوایی میسازید که نیاز به دسترسی به داکیومنتهای بزرگ و متنوع (مثل PDF، DOCX، TXT و انواع کد) داره، این ابزار جون میده برای کار شما. حتماً داکیومنتهاش رو ببینید و توی Google AI Studio دمو رو تست کنید.
بلاگ کامل را بخونید:
https://blog.google/technology/developers/file-search-gemini-api/
@DevTwitter | <Mehdi Allahyari/>
🔥18👍3🍌3❤1
این نسخه کلی چیزای خفن داره: دانلود از SoundCloud و YouTube Music، گرفتن کپشنهای اینستا و توییتر، دانلود زیرنویس یوتیوب و کلی ریزه کاری دیگه....
اگه به دردتون خورد خوشحال میشم به دیده شدنش کمک کنین
https://github.com/MSC72m/media_downloader
@DevTwitter | <Mohammad Sadeghian/>
اگه به دردتون خورد خوشحال میشم به دیده شدنش کمک کنین
https://github.com/MSC72m/media_downloader
@DevTwitter | <Mohammad Sadeghian/>
❤51🍌3👎1
#دراز_نیوز
اولین حمله DDoS «آفلاین» علیه تاکسی اینترنتی گوگل!
حتما میدانید که در بعضی شهرهای آمریکا تاکسیهای خودران رسماً شروع به کار کردهاند؛ با یک اپلیکیشن روی موبایل، درخواست تاکسی میدهید و چند دقیقه بعد یک ماشین بدون راننده (که توسط هوش مصنوعی هدایت میشود) جلوی پایتان میایستد.
حالا در اتفاقی عجیب، یک جوان ۲۳ ساله با هماهنگی ۵۰ نفر دیگر، همگی وارد طولانیترین خیابان بنبست سانفرانسیسکو شدهاند و همزمان از سرویسی به نام Waymo (که متعلق به شرکت آلفابت، هولدینگ گوگل است) درخواست تاکسی کردند…
هدفشان هم صرفا ایجاد اختلال در فرایند سرویسدهی بوده و هیچکدام سوار تاکسیها نشدند!
نتیجه چه بود؟
- بیش از ۵۰ خودروی بدون راننده به یک خیابان بنبست هجوم آوردند و همگی گیر افتادند!
- هوش مصنوعی خودروها عملاً آچمز شد و پشتیبانی Waymo مجبور شد بهطور موقت کل ناوگان آن محدوده را از مدار خارج کند.
به همین سادگی، یک حمله DDoS آفلاین رقم خورد؛ نه روی سرورها، بلکه وسط خیابان!
@DevTwitter | <NooshDaroo | نوشدارو/>
اولین حمله DDoS «آفلاین» علیه تاکسی اینترنتی گوگل!
حتما میدانید که در بعضی شهرهای آمریکا تاکسیهای خودران رسماً شروع به کار کردهاند؛ با یک اپلیکیشن روی موبایل، درخواست تاکسی میدهید و چند دقیقه بعد یک ماشین بدون راننده (که توسط هوش مصنوعی هدایت میشود) جلوی پایتان میایستد.
حالا در اتفاقی عجیب، یک جوان ۲۳ ساله با هماهنگی ۵۰ نفر دیگر، همگی وارد طولانیترین خیابان بنبست سانفرانسیسکو شدهاند و همزمان از سرویسی به نام Waymo (که متعلق به شرکت آلفابت، هولدینگ گوگل است) درخواست تاکسی کردند…
هدفشان هم صرفا ایجاد اختلال در فرایند سرویسدهی بوده و هیچکدام سوار تاکسیها نشدند!
نتیجه چه بود؟
- بیش از ۵۰ خودروی بدون راننده به یک خیابان بنبست هجوم آوردند و همگی گیر افتادند!
- هوش مصنوعی خودروها عملاً آچمز شد و پشتیبانی Waymo مجبور شد بهطور موقت کل ناوگان آن محدوده را از مدار خارج کند.
به همین سادگی، یک حمله DDoS آفلاین رقم خورد؛ نه روی سرورها، بلکه وسط خیابان!
@DevTwitter | <NooshDaroo | نوشدارو/>
1👍119🔥20❤9🍌9
اومدم بگم بهترین دیتابیس kv که استفاده کردم BadgerDB هست.
https://github.com/dgraph-io/badger
@DevTwitter | <Saman Esmaeil/>
https://github.com/dgraph-io/badger
@DevTwitter | <Saman Esmaeil/>
🍌17🔥6👎1
سلام دوستان! Alpine.js برای پروژههای کوچیک و صفحههای استاتیک عالیه، اما همیشه کمبود یک پلاگین خوب برای validation اذیتم میکرد. پس Alpidate رو ساختم: الهامگرفته از Vuelidate، با قوانین declarative و پشتیبانی از array/nested.
روی npm و GitHub منتشر کردم:
https://github.com/h7arash/alpidate
https://www.npmjs.com/package/alpidate
@DevTwitter | <Arash Hasanzade/>
روی npm و GitHub منتشر کردم:
https://github.com/h7arash/alpidate
https://www.npmjs.com/package/alpidate
@DevTwitter | <Arash Hasanzade/>
👍12❤4👎1🔥1
امروز یک پکیج کوچک برای Go منتشر کردم: go-batcher
این پکیج نوعی تجمیع کنندهی دیتا(مشابه postgres batching) هست که برای کاهش هزینههای I/O ، دیتارو تو حافظه نگه میداره و بسته به اینکه به Batch size limit یا timeout بخوره، کل batch رو به مثلا db میفرسته.
با این روش ۱۰۰ تا رکورد به شکل ۱۰ تا ۱۰ تا میتونه به دیتابیس insert بشه و طبیعتا فشار قابل توجهی هم در اسکیل بالا از روی دیتابیس برداشته میشه.
https://github.com/barbodimani81/go-batcher
@DevTwitter | <Barbod Imani/>
این پکیج نوعی تجمیع کنندهی دیتا(مشابه postgres batching) هست که برای کاهش هزینههای I/O ، دیتارو تو حافظه نگه میداره و بسته به اینکه به Batch size limit یا timeout بخوره، کل batch رو به مثلا db میفرسته.
با این روش ۱۰۰ تا رکورد به شکل ۱۰ تا ۱۰ تا میتونه به دیتابیس insert بشه و طبیعتا فشار قابل توجهی هم در اسکیل بالا از روی دیتابیس برداشته میشه.
https://github.com/barbodimani81/go-batcher
@DevTwitter | <Barbod Imani/>
👍21❤5🍌2🔥1
سلام بچه ها خواستم اسکریپت خودمو باهاتون به اشتراک بزارم این اسکریپت برای اس اس ال پین بای پسس هست و همزمان مخفی کردن روت بودن موبایل شما و علاوه بر اینا لینک های داینامیک اپ رو براتون میکشه بیرون چه وب سوکت بهشه چه دیپ لینک
فقط یه تکته ایی داره نسخه آخرشو دادم به کرسر یکم روش کار کنه و چون خودم هنوز تستش نکردم فعلا استیبل نیست اگه مشکلی رو مشاهده کردید حتما بگید تا پچش کنم.
اینم توضیح هوش مصنوعی درموردش:
SSL-Link — اسکریپت قدرتمند Frida برای تست نفوذ اندروید
ابزاری پیشرفته برای دور زدن SSL Pinning و Root Detection که همزمان لینکها و URLهای ساختهشده داخل اپ را بهصورت لحظهای جمعآوری میکند.
ویژگیهای کلیدی:
· بایپس کامل SSL Pinning
پچ کردن TrustManager، OkHttp، Retrofit، WebView و تمام مسیرهای SSL/TLS.
· جلوگیری از شناسایی روت/جیلبریک
تغییر رفتار Runtime.exec، File.exists، RootBeer، Build.TAGS و سایر heuristicها.
· جمعآوری هوشمند لینکها
کشف و نرمالسازی تمام URL/URIهایی که از Intent، Uri، Bundle، WebView، Retrofit، OkHttp و حتی StringBuilder ساخته میشن.
· لاگگیری کمنویز
فیلتر قابلتنظیم + Ring Buffer برای جلوگیری از اسپم شدن خروجی.
فقط کافیه بزنید:
frida -U -f <package> -l Main.js --no-pause
لینک گیت هابش:
https://github.com/mohamadrezadarban/SSL-Link
استار فراموش نشه ممنون :)
@DevTwitter | <mohamadzzr/>
فقط یه تکته ایی داره نسخه آخرشو دادم به کرسر یکم روش کار کنه و چون خودم هنوز تستش نکردم فعلا استیبل نیست اگه مشکلی رو مشاهده کردید حتما بگید تا پچش کنم.
اینم توضیح هوش مصنوعی درموردش:
SSL-Link — اسکریپت قدرتمند Frida برای تست نفوذ اندروید
ابزاری پیشرفته برای دور زدن SSL Pinning و Root Detection که همزمان لینکها و URLهای ساختهشده داخل اپ را بهصورت لحظهای جمعآوری میکند.
ویژگیهای کلیدی:
· بایپس کامل SSL Pinning
پچ کردن TrustManager، OkHttp، Retrofit، WebView و تمام مسیرهای SSL/TLS.
· جلوگیری از شناسایی روت/جیلبریک
تغییر رفتار Runtime.exec، File.exists، RootBeer، Build.TAGS و سایر heuristicها.
· جمعآوری هوشمند لینکها
کشف و نرمالسازی تمام URL/URIهایی که از Intent، Uri، Bundle، WebView، Retrofit، OkHttp و حتی StringBuilder ساخته میشن.
· لاگگیری کمنویز
فیلتر قابلتنظیم + Ring Buffer برای جلوگیری از اسپم شدن خروجی.
فقط کافیه بزنید:
frida -U -f <package> -l Main.js --no-pause
لینک گیت هابش:
https://github.com/mohamadrezadarban/SSL-Link
استار فراموش نشه ممنون :)
@DevTwitter | <mohamadzzr/>
🍌9🔥8❤3👎2
در اخبار هوش مصنوعی این ماه (نوامبر ۲۰۲۵)، یه جورایی میشه گفت شاهد بزرگترین جهشها بودیم: از انتشار GPT-5 Pro و Gemini 3 تا پروژه عجیب دیتاسنترهای فضایی گوگل!
از طرفی مقالهای که Antropic داده در مورد مدل Claudeشون؛ این سوال رو پیش میاره که آیا هوش مصنوعی بالاخره به خودآگاهی رسیده؟
سعی کردم به طور خلاصه توی این ویدیو تا جایی که بشه اتفاقات مهم دنیای AI، جنگ تراشههای انویدیا و AMD، و نسل جدید ایجنتهای خودمختار رو بررسی کنیم.
بریم که داشته باشیمژ
لینک ویدیو:
https://www.youtube.com/watch?v=75cAMxJxc_Q&list=PLwUWEGKy5kyNrPv05-Asbhm6g6S8_eRPb&index=21
@DevTwitter | <Ryan Heida/>
از طرفی مقالهای که Antropic داده در مورد مدل Claudeشون؛ این سوال رو پیش میاره که آیا هوش مصنوعی بالاخره به خودآگاهی رسیده؟
سعی کردم به طور خلاصه توی این ویدیو تا جایی که بشه اتفاقات مهم دنیای AI، جنگ تراشههای انویدیا و AMD، و نسل جدید ایجنتهای خودمختار رو بررسی کنیم.
بریم که داشته باشیمژ
لینک ویدیو:
https://www.youtube.com/watch?v=75cAMxJxc_Q&list=PLwUWEGKy5kyNrPv05-Asbhm6g6S8_eRPb&index=21
@DevTwitter | <Ryan Heida/>
❤11👍6👎4🔥2