Bugbounty Tips – Telegram
Bugbounty Tips
2.92K subscribers
84 photos
6 videos
13 files
92 links
research and sharing in cybersecurity
Download Telegram
Bugbounty Tips
ex-js.py
سلام به همه،
یک اسکریپت پایتونی آماده کردم که ساب‌دامین‌ها رو از فایل‌های JavaScript، هدرهای CSP و کد HTML خام سایت هدف استخراج می‌کنه.

متأسفانه در حال حاضر به حساب گیت‌هابم دسترسی ندارم و مطمئن نیستم بتونم اون رو بازیابی کنم یا نه.
فعلاً این اسکریپت رو اینجا باهاتون به اشتراک می‌ذارم تا بتونید ازش استفاده کنید، تا زمانی که گیت‌هابم رو بازیابی کنم یا یک اکانت جدید بسازم.

منتظر ابزارها و تحقیق‌های بیشتری باشید!
🔗 https://news.1rj.ru/str/rootdr_research
17👍2🔥1
Bugbounty Tips pinned Deleted message
نکته مهم در تست‌های امنیتی API

وقتی دارید روی یک برنامه باگ‌بانتی یا پروژه تست نفوذ کار می‌کنید، مخصوصاً برای کشف آسیب‌پذیری‌های:
- IDOR (Insecure Direct Object Reference)
- BAC (Broken Access Control)
- Authorization Issues

حتماً به این نکته توجه کنید:

همه‌ی اندپوینت‌ها رو تست کنید!
مهم نیست اگر ۹۹ تا از ۱۰۰ اندپوینت امن بودن، فقط همون یک مورد آسیب‌پذیر ممکنه کل سیستم رو به خطر بندازه.

همیشه با انواع ورودی‌ها تستتونو تکمیل کنین مثل:
- null
- 0
- -1
- 9999999
- true / false
- "" (رشته خالی)
- [] (آرایه)
- {} (آبجکت)
- float / int

📌 حتی اگر پلتفرم ایرانی باشه یا خارجی، تجربه ثابت کرده که با تست خلاقانه و روش‌های مختلف، آسیب‌پذیری پیدا میشه!

Golden Tip for API Security Testing

When you're working on a bug bounty program or a penetration testing project, especially for discovering vulnerabilities like:
- IDOR (Insecure Direct Object Reference)
- BAC (Broken Access Control)
- Authorization Issues

Pay close attention to this tip:

Test every endpoint!

It doesn't matter if 99 out of 100 endpoints seem secure — that one vulnerable endpoint could compromise the entire system.

🧪 Always test with different input types such as:
- null
- 0
- -1
- 9999999
- true / false
- "" (empty string)
- [] (array)
- {} (object)
- float / int

📌 Whether you're dealing with an Iranian or international platform, experience shows that creative and diverse testing often reveals vulnerabilities.

#bugbounty #pentest #websecurity #IDOR #Authorization
🔥2513👍7🤣4👏1
👍5🔥41👏1
Forwarded from Code Review
دویست ساعت تجربه بهترین هکرها.pdf
441.3 KB
یه بنده خدایی اومده 200 ساعت وقت گذاشته و تمام مصاحبه های بهترین هکر هارو دیده و با مسیر و طرز فکر خودش مقایسه کرده و اشتباهاتشو نوشته.
بهتون خیلی پیشنهاد میکنم این کتابو بخونین ، مایندستتون رو زیر و رو میکنه.
16
Forwarded from HackerOne
👍193🔥3
👌63👎1
Forwarded from OnHex
🔴 محققای Trail of Bits یک روش حمله ی جدیدی رو پیاده سازی کردن که از طریق تزریق پرامپتهای مخرب در تصاویر پردازش ‌شده توسط سیستمهای هوش مصنوعی، داده‌های کاربران رو میدزدن.

این تحقیق بر مبنای نظریه‌ای است که در مقاله‌ای از کنفرانس USENIX 2020 توسط دانشگاه آلمانی TU Braunschweig ارائه شده.

وقتی کاربر تصویری رو در سیستمهای هوش مصنوعی آپلود میکنه، این تصاویر بطور خودکار برای بهبود کارایی و کاهش هزینه، از طریق الگوریتمهای Resampling مانند Nearest Neighbor، Bilinear یا Bicubic interpolation به کیفیت پایینتر Downscale میشه.

وقتی تصویر بزرگ رو کوچیک میکنیم، باید پیکسلهای زیادی رو در یک فضای کوچیک جا بدیم، بنابراین الگوریتمها نمیتونن تمام جزییات تصویر اصلی رو بصورت کامل نگه دارن. بنابراین روی تصویر کوچیک شده یسری خطای دید یا طرحهای اضافی بوجود میاد که اصطلاحا بهشون Aliasing میگن.

مهاجم تصویری رو میسازه که وقتی کوچیک شد و این Aliasing رخ داد، الگوهای مخفی ظاهر میشه.

در نمونه‌ی Trail of Bits، بخشهای تیره‌ی خاصی از تصویر مخرب هنگام پردازش با روش Bicubic downscaling به رنگ قرمز درمیاد و در نتیجه متن مخفی به رنگ سیاه ظاهر میشه.

مدل هوش مصنوعی این متن رو بخشی از دستور کاربر تفسیر کرده و بطور خودکار اونو با ورودی اصلی ترکیب میکنه.

از دید کاربر هیچ چیز غیرعادی بنظر نمیرسه، اما در عمل، مدل دستورالعملهای مخفی رو اجرا کرده که میتونه به نشت داده یا اقدامات پرخطر دیگه منجر بشه.

برای مثال، در یک حمله‌ی تستی علیه Gemini CLI، پژوهشگران تونستن داده‌های Google Calendar رو به یک آدرس ایمیل دلخواه ارسال کنن.

محققای Trail of Bits توضیح میدن که این حمله باید متناسب با هر مدل هوش مصنوعی و الگوریتم downscaling مورد استفاده‌ی اون تنظیم بشه. با این حال، پژوهشگران تأیید کردن که روششون در برابر سیستمهای زیر قابل استفاده است:

Google Gemini CLI
Vertex AI Studio (with Gemini backend)
Gemini's web interface
Gemini's API via the llm CLI
Google Assistant on an Android phone
Genspark

از آنجا که این بردار حمله گسترده هستش، میتونه فراتر از ابزارهای تست ‌شده هم شامل بشه. همچنین برای نمایش یافته‌های خودشون، ابزار متن‌باز Anamorpher رو منتشر کردن که میتونه برای هر یک از روش‌های Downscaling ذکرشده تصویر مخرب تولید کنه.

محققای Trail of Bits توصیه میکنن سیستمهای هوش مصنوعی در زمان آپلود تصاویر توسط کاربران، محدودیتهای ابعادی اعمال کنن. اگه Downscaling ضروری بود، بهتره پیش‌نمایشی از تصویر نهایی که به LLM ارسال خواهد شد، به کاربر نمایش داده بشه.

همچنین تأکید میکنن که باید برای اجرای دستورات حساس تأیید صریح کاربر دریافت بشه.

#هوش_مصنوعی
#AI

🆔 @onhex_ir
➡️ ALL Link
6👍1
Bugbounty Tips
https://x.com/sardar0x1/status/1978219086065627488?t=4YZ4ZoyC4bMV_bsRdbRkeA&s=35
This scenario applies to features such as exporting data, generating reports, converting data, and similar functions.
If the server-side creates a file with the requested extension or returns it as an output, this constitutes a good test case and should be tested accordingly.
Note: Do not restrict the test case or payloads to Remote Code Execution (RCE) attacks only.


https://news.1rj.ru/str/rootdr_research
1
Forwarded from Code Review
#نگاه_نفوذگر_قسمت_6
تو این قسمت لابراتوری رو حل میکنیم که میتونیم با استفاده از آپلود فایل هایی که متادیتا دارن به XSS برسیم.

YouTube:
https://www.youtube.com/watch?v=7O5zwcPzWFw

Github:
https://github.com/maverick0o0/RealWorld-Labs/tree/main/Metadata-XSS

فیدبک های شما خیلی میتونه تو این مسیر کمک کنه پس منتظر فیدبکاتون هستم.
👏93
Forwarded from Offensive Security
Opsec C2 iceberg

@GoSecurity
5🔥1
Bugdasht CTB
👏267🔥4👎1
🤣25🔥2👀2👎1