❤7
توی پلتفرم های باگ کرود و هکروان و اینتگریتی هم خواستید نقد کنید میتونید بدید براتون گزارش بدم.
❤9
pooriya
برای اضافه کردن موس توی تیماکس Ctrl + b سپس : بعدش اینو بنویسید set -g mouse on 📌 @hackhaven_new
اگه میخواید همیشه ست بشه توی فایل
دستور:
رو اد کنید
بعد اون:
📌 @hackhaven_new
nano ~/.tmux.conf
دستور:
set -g mouse on
رو اد کنید
بعد اون:
tmux source-file ~/.tmux.conf
📌 @hackhaven_new
❤5🔥2
Forwarded from BugBounty & Hacking Resources (Shopen)
واسه حاج حمید خودمونه ها ✌️ دمش گرم
https://lab.ctbb.show/research/libmagic-inconsistencies-that-lead-to-type-confusion
پروفایل حمید خان:
https://linktr.ee/hamedsj5
https://lab.ctbb.show/research/libmagic-inconsistencies-that-lead-to-type-confusion
پروفایل حمید خان:
https://linktr.ee/hamedsj5
Critical Thinking - Bug Bounty Podcast
Abusing libmagic﹕ Inconsistencies That Lead to Type Confusion
Exploring libmagic’s inconsistencies in JSON detection and type confusion. A research note on file uploads, misclassification, and security risks.
❤4
وقتی ترمینال لینوکس رو باز میکنید و ctrl + s بزنید و بعدش بیاید دستوری بزنید و ران کنید در صفحه ترمینال شما چیزی نمایش داده نمیشود حالا اگر بخواین به شما نمایش بده ctrl + q رو بزنید چیز جالبیه
ترمینال رو باز کنید و این رو انجام بدید
ctrl + s
ls
ctrl + q
❤3🔥1
برای درست کردنش
توی vscode اکستنشن codesnap
رو نصب کنید
بعدش control + shift + p
رو بزنید و codesnapرو انتخاب کنید
📌 @hackhaven_new
توی vscode اکستنشن codesnap
رو نصب کنید
بعدش control + shift + p
رو بزنید و codesnapرو انتخاب کنید
📌 @hackhaven_new
🔥9🤣2
کد تخفیف از اسنپ برای تست باگ میخوام اگه کسی داره بفرسته ممنونش میشم ❤️
@p0or1ya
@p0or1ya
Forwarded from کانال دانلود تکنولوژی هوش مصنوعی
🧠 فقط با ۲۵۰ مقاله میشه هوش مصنوعی رو هک کرد...!
▪️تازهترین تحقیق نشون داده مدلهایی مثل ChatGPT و Gemini رو میشه تنها با ۲۵۰ سند آلوده فریب داد! به این نوع حمله میگن «مسمومسازی داده» جایی که مهاجم یه «در پشتی» تو مدل باز میکنه تا با یه عبارت خاص، مدل پاسخهای عجیب، بیمعنی یا حتی اطلاعات محرمانه بده.
▪️این پژوهش توسط انستیتو امنیت هوش مصنوعی بریتانیا، انستیتو آلن تورینگ و شرکت Anthropic انجام شده. به گفته محققان، حتی مدلهای غولپیکر هم در برابر این روش آسیبپذیرن!
@RoidBest
▪️تازهترین تحقیق نشون داده مدلهایی مثل ChatGPT و Gemini رو میشه تنها با ۲۵۰ سند آلوده فریب داد! به این نوع حمله میگن «مسمومسازی داده» جایی که مهاجم یه «در پشتی» تو مدل باز میکنه تا با یه عبارت خاص، مدل پاسخهای عجیب، بیمعنی یا حتی اطلاعات محرمانه بده.
▪️این پژوهش توسط انستیتو امنیت هوش مصنوعی بریتانیا، انستیتو آلن تورینگ و شرکت Anthropic انجام شده. به گفته محققان، حتی مدلهای غولپیکر هم در برابر این روش آسیبپذیرن!
@RoidBest
❤6🔥2