اگه نیاز به دانلود پلیلیست از یوتیوب دارید میتونید از بش اسکریپتی که نوشتم استفاده کنید.
https://github.com/Linuxmaster14/yt-playlist-downloader
از yt-dlp استفاده میکنه، لینک پلیلیستها رو تو فایل playlist.txt میریزد. کوکی هم از مرورگر میگیرید و کنار اسکریپت به اسم cookies.txt قرار میدید. خیلی ساده و با کیفیت مناسب کار دانلود پلیلیست رو انجام میده. اگه کوکی اکسپایر شده بود دوباره باید از مرورگر بگیرید و تو فایل txt جایگزین کنید.
@DevTwitter | <Mohammad/>
https://github.com/Linuxmaster14/yt-playlist-downloader
از yt-dlp استفاده میکنه، لینک پلیلیستها رو تو فایل playlist.txt میریزد. کوکی هم از مرورگر میگیرید و کنار اسکریپت به اسم cookies.txt قرار میدید. خیلی ساده و با کیفیت مناسب کار دانلود پلیلیست رو انجام میده. اگه کوکی اکسپایر شده بود دوباره باید از مرورگر بگیرید و تو فایل txt جایگزین کنید.
@DevTwitter | <Mohammad/>
🔥19🍌12❤6👎3
پروژه Arka یک پروژهی اوپنسورس برای React و Next.js هست که بهت اجازه میده بدون نصب هیچ کتابخونهای و فقط با چند کلیک، UI سایتت رو بسازی، شخصیسازی کنی و کد نهایی رو کپی کنی.
پروژه Arka شبیه shadcn و magicui هست، با یک تفاوت مهم
کاملاً آنلاین و بدون نصب هیچ پکیجی روی پروژه
خروجی آماده برای React و Next.js
تمرکز روی سرعت و کیفیت توسعه
هسته Arka شامل دو داشبورده:
داشبورد کامپوننتها برای ساخت و شخصیسازی UI.
داشبورد سئو برای ساخت Meta tags، Structured Data و Layout های SEO-ready با چند کلیک.
صفحههای اصلی پیادهسازی شده و الان تمرکز پروژه روی توسعهی این دو داشبورده؛ بخش اصلی و چالشبرانگیز Arka.
دمو: https://arka-tau.vercel.app/
گیتهاب: https://github.com/amirbarfar/Arka
اگر به React، Next.js یا اوپن سورس علاقه داری، خوشحال میشیم به Arka بپیوندی
@DevTwitter | <Emir/>
پروژه Arka شبیه shadcn و magicui هست، با یک تفاوت مهم
کاملاً آنلاین و بدون نصب هیچ پکیجی روی پروژه
خروجی آماده برای React و Next.js
تمرکز روی سرعت و کیفیت توسعه
هسته Arka شامل دو داشبورده:
داشبورد کامپوننتها برای ساخت و شخصیسازی UI.
داشبورد سئو برای ساخت Meta tags، Structured Data و Layout های SEO-ready با چند کلیک.
صفحههای اصلی پیادهسازی شده و الان تمرکز پروژه روی توسعهی این دو داشبورده؛ بخش اصلی و چالشبرانگیز Arka.
دمو: https://arka-tau.vercel.app/
گیتهاب: https://github.com/amirbarfar/Arka
اگر به React، Next.js یا اوپن سورس علاقه داری، خوشحال میشیم به Arka بپیوندی
@DevTwitter | <Emir/>
❤14🍌13👍2
اگه به عنوان فرانت کار حداقل یکبار تو روت پروژه فایل های ci cd رو دیدی و ازشون سر در نیاوردی این مقاله میتونه بهت کمک کنه که ساختارش رو بهتر درک کنی
این مقاله قدمبهقدم توضیح میدهد:
که CI و CD چیه و چرا برای فرانتاند مهمه
یک مثال واقعی pipeline React با GitHub Actions
نکات حرفهای برای تست، بیلد و deploy امن
لینک:
https://vrgl.ir/Emj8Z
@DevTwitter | <Sharare Shadloo/>
این مقاله قدمبهقدم توضیح میدهد:
که CI و CD چیه و چرا برای فرانتاند مهمه
یک مثال واقعی pipeline React با GitHub Actions
نکات حرفهای برای تست، بیلد و deploy امن
لینک:
https://vrgl.ir/Emj8Z
@DevTwitter | <Sharare Shadloo/>
👎11🔥8👍5❤3
آیا وقت خداحافظی با Pandas رسیده؟ وقتی سرعت ۱۱ برابر میشود!
همیشه فکر میکردم Pandas استانداردترین ابزار برای پردازش دادهست. اما وقتی با حجم دیتای میلیونی طرف هستیم، "زمان" یعنی "هزینه".
امروز تصمیم گرفتم کتابخانه جدید و پرسرعت Polars (که با Rust نوشته شده) رو در مقابل Pandas قرار بدم و روی ۱۰ میلیون رکورد بنچمارک بگیرم.
نتایج تستی که روی سیستم خودم اجرا کردم باورنکردنی بود:
پانداس (Pandas): ۲.۴۴ ثانیه ️ پولارز (Polars): ۰.۲۱ ثانیه نتیجه: Polars دقیقاً ۱۱.۳۶ برابر سریعتر عمل کرد!
چرا این موضوع فراتر از کدنویسی است؟ (Business Value)
به عنوان یک دیتا ساینتیست، وظیفه ما فقط کد زدن نیست، بلکه خلق ارزش (ROI) است. مهاجرت به ابزارهایی مثل Polars در مقیاس کلان (Big Data) یعنی:
۱. کاهش چشمگیر هزینه سرورهای ابری (Cloud Costs).
۲. تحویل سریعتر داشبوردها به مدیران و ذینفعان. ️
کد کامل و داکیومنت این بنچمارک رو در گیتهابم ببینید:
https://github.com/behnamjb222-cmd/Pandas-vs-Polars-Benchmark
@DevTwitter | <Behnam Jabbari/>
همیشه فکر میکردم Pandas استانداردترین ابزار برای پردازش دادهست. اما وقتی با حجم دیتای میلیونی طرف هستیم، "زمان" یعنی "هزینه".
امروز تصمیم گرفتم کتابخانه جدید و پرسرعت Polars (که با Rust نوشته شده) رو در مقابل Pandas قرار بدم و روی ۱۰ میلیون رکورد بنچمارک بگیرم.
نتایج تستی که روی سیستم خودم اجرا کردم باورنکردنی بود:
پانداس (Pandas): ۲.۴۴ ثانیه ️ پولارز (Polars): ۰.۲۱ ثانیه نتیجه: Polars دقیقاً ۱۱.۳۶ برابر سریعتر عمل کرد!
چرا این موضوع فراتر از کدنویسی است؟ (Business Value)
به عنوان یک دیتا ساینتیست، وظیفه ما فقط کد زدن نیست، بلکه خلق ارزش (ROI) است. مهاجرت به ابزارهایی مثل Polars در مقیاس کلان (Big Data) یعنی:
۱. کاهش چشمگیر هزینه سرورهای ابری (Cloud Costs).
۲. تحویل سریعتر داشبوردها به مدیران و ذینفعان. ️
کد کامل و داکیومنت این بنچمارک رو در گیتهابم ببینید:
https://github.com/behnamjb222-cmd/Pandas-vs-Polars-Benchmark
@DevTwitter | <Behnam Jabbari/>
❤57👎9👍6🔥2
مسیر Full-Stack Development فقط یادگرفتن چند زبان برنامهنویسی نیست؛
یک سفر کامل از Frontend تا Backend، DevOps، Database، Platform و Security است
اگر میخواهید توسعهدهندهای باشید که «تصویر بزرگ» را میبیند،
باید لایهبهلایه رشد کنید، تمرین کنید و مداوم یاد بگیرید.
این نقشه راه یادآوری میکند که هر مهارت، بخشی از یک اکوسیستم بزرگتر است
یادگیری عمیق، صبر و استمرار = تمایز واقعی در بازار کار.
@DevTwitter | <Alireza Ostadnezhad/>
یک سفر کامل از Frontend تا Backend، DevOps، Database، Platform و Security است
اگر میخواهید توسعهدهندهای باشید که «تصویر بزرگ» را میبیند،
باید لایهبهلایه رشد کنید، تمرین کنید و مداوم یاد بگیرید.
این نقشه راه یادآوری میکند که هر مهارت، بخشی از یک اکوسیستم بزرگتر است
یادگیری عمیق، صبر و استمرار = تمایز واقعی در بازار کار.
@DevTwitter | <Alireza Ostadnezhad/>
❤35👍8👎5
#دراز_نیوز
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
@DevTwitter
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
اینترنت ریده اینترنت ریده اینترنت ریده
@DevTwitter
👍185❤9👎9🔥6
من دنبال یه چیزی جایگزین ngrok بودم و این ریپو کار رو برام دراورد.
قاعدتا باید دامین و یه سروری داشته باشید تا ازش بتونید استفاده کنید.
https://github.com/Gouryella/drip
@DevTwitter | <Saman Esmaeil/>
قاعدتا باید دامین و یه سروری داشته باشید تا ازش بتونید استفاده کنید.
https://github.com/Gouryella/drip
@DevTwitter | <Saman Esmaeil/>
👍11❤9
خیلی وقتها توی لاگ Spring Boot این خطا رو میبینیم
Unable to acquire JDBC Connection
Apparent connection leak detected
و اولین واکنش معمولاً اینه:
مقدار pool رو بزرگ کنیم
سرور رو ریاستارت کنیم
اما حقیقت چیز دیگهایه
در ۹۰٪ موارد، مشکل از Transaction اشتباه یا بدجاست
نه از دیتابیس، نه از Hikari.
وقتی از entityManager استفاده میکنیم و روی سرویس Transactional نمیذاریم:
یک Connection از Hikari گرفته میشه
کلاس EntityManager کامیت یا مدیریت connection را به Spring / JPA واگذار نمیکنه و connection ممکنه تا پایان GC یا زمان خیلی طولانی نگه داشته بشه
تمام Connectionهای Pool سریع تمام میشن و درخواستهای بعدی منتظر میمونن
کل سیستم میخوابه
راهحل واقعی و Best Practice:
️ بالا سر متد های سرویس از Transactional(readOnly = true) استفاده کنیم و کوعری های خودمونو با entityManager فقط داخل همان Transaction اجرا کنیم
️ متد های Transactional کوتاه و متمرکز بنویسیم
اینجوری وقتی transaction کامیت یا رول بک میشه connection هم آزاد میشه و پروداکشن سالم میمونه
@DevTwitter | <Mani Nasrollahi/>
Unable to acquire JDBC Connection
Apparent connection leak detected
و اولین واکنش معمولاً اینه:
مقدار pool رو بزرگ کنیم
سرور رو ریاستارت کنیم
اما حقیقت چیز دیگهایه
در ۹۰٪ موارد، مشکل از Transaction اشتباه یا بدجاست
نه از دیتابیس، نه از Hikari.
وقتی از entityManager استفاده میکنیم و روی سرویس Transactional نمیذاریم:
یک Connection از Hikari گرفته میشه
کلاس EntityManager کامیت یا مدیریت connection را به Spring / JPA واگذار نمیکنه و connection ممکنه تا پایان GC یا زمان خیلی طولانی نگه داشته بشه
تمام Connectionهای Pool سریع تمام میشن و درخواستهای بعدی منتظر میمونن
کل سیستم میخوابه
راهحل واقعی و Best Practice:
️ بالا سر متد های سرویس از Transactional(readOnly = true) استفاده کنیم و کوعری های خودمونو با entityManager فقط داخل همان Transaction اجرا کنیم
️ متد های Transactional کوتاه و متمرکز بنویسیم
اینجوری وقتی transaction کامیت یا رول بک میشه connection هم آزاد میشه و پروداکشن سالم میمونه
@DevTwitter | <Mani Nasrollahi/>
❤16👍2
اگر به پیامرسانهای داخلی یا خارجی اعتماد ندارید، P2Ply برای شماست.
بدون سرور، دیتابیس یا فضای ابری. ارتباط مستقیم و رمزنگاریشده (P2P).
پیامها فقط در حافظه موقتاند و با بستن برنامه برای همیشه حذف میشوند.
https://github.com/DeepPythonist/p2ply
@DevTwitter | <Marcel/>
بدون سرور، دیتابیس یا فضای ابری. ارتباط مستقیم و رمزنگاریشده (P2P).
پیامها فقط در حافظه موقتاند و با بستن برنامه برای همیشه حذف میشوند.
https://github.com/DeepPythonist/p2ply
@DevTwitter | <Marcel/>
❤27👍6👎4🔥3
بحث $tries در Jobهای لاراول دوباره داغ شده و معمولاً وقتی عددهای بزرگی مثل ۶۰ یا ۱۰۰ دیده میشود، سریع برچسب «طراحی بد» میخورد.
اما واقعیت کمی دقیقتر از این قضاوت ساده است.
در حالت عادی، استفاده از $tries بزرگ میتواند نشانهی این باشد که داریم یک مشکل ریشهای را با retry پنهان میکنیم. این اتفاق معمولاً در Jobهایی میافتد که یا idempotent نیستند یا مرز خطاهایشان مشخص نیست.
اما در بعضی سناریوها، retry کاملاً منطقی است.
مثلاً وقتی Job با یک سرویس خارجی یا API بیرونی کار میکند. در این شرایط، در دسترس نبودن موقت سرویس چیز عجیبی نیست و retry با فاصلهی زمانی حسابشده میتواند درخواست را در اجرای بعدی موفق کند.
یک الگوی جالب این است که $tries > 1 را همراه با $maxExceptions = 1 استفاده کنیم.
در این حالت Job فقط زمانی دوباره اجرا میشود که خودمان بهصورت کنترلشده release() را صدا بزنیم و اگر یک exception غیرمنتظره رخ دهد، Job وارد چرخهی retry بیپایان نمیشود.
نکتهی مهم اینجاست که retry زیاد بدون backoff یعنی مصرف منابع بدون حل مسئله. retry محدود، همراه با backoff منطقی یعنی سیستم مقاوم و قابل اتکا.
در نهایت، مسئله این نیست که $tries چند است.
مسئله این است که آیا retry بخشی از طراحی آگاهانهی سیستم است یا فقط واکنشی عجولانه به خطاها.
@DevTwitter | <Mohammad Javad Ranjbar/>
اما واقعیت کمی دقیقتر از این قضاوت ساده است.
در حالت عادی، استفاده از $tries بزرگ میتواند نشانهی این باشد که داریم یک مشکل ریشهای را با retry پنهان میکنیم. این اتفاق معمولاً در Jobهایی میافتد که یا idempotent نیستند یا مرز خطاهایشان مشخص نیست.
اما در بعضی سناریوها، retry کاملاً منطقی است.
مثلاً وقتی Job با یک سرویس خارجی یا API بیرونی کار میکند. در این شرایط، در دسترس نبودن موقت سرویس چیز عجیبی نیست و retry با فاصلهی زمانی حسابشده میتواند درخواست را در اجرای بعدی موفق کند.
یک الگوی جالب این است که $tries > 1 را همراه با $maxExceptions = 1 استفاده کنیم.
در این حالت Job فقط زمانی دوباره اجرا میشود که خودمان بهصورت کنترلشده release() را صدا بزنیم و اگر یک exception غیرمنتظره رخ دهد، Job وارد چرخهی retry بیپایان نمیشود.
نکتهی مهم اینجاست که retry زیاد بدون backoff یعنی مصرف منابع بدون حل مسئله. retry محدود، همراه با backoff منطقی یعنی سیستم مقاوم و قابل اتکا.
در نهایت، مسئله این نیست که $tries چند است.
مسئله این است که آیا retry بخشی از طراحی آگاهانهی سیستم است یا فقط واکنشی عجولانه به خطاها.
@DevTwitter | <Mohammad Javad Ranjbar/>
❤19👎1
❤87👍46👎29🔥4
Forwarded from DevTwitter Ads.
ولی من به خودم قول داده بودم
اگه یه روز به بالاترین سطح زبان انگلیسی برسم،
هر کمکی از دستم برمیاد انجام بدم…
و چند روز پیش نتیجه آزمون آیلتسم اومد :)
نمره 9 آکادمیک.
حالا تمام تجربهها، نکتهها و روشهایی
که بتونه تو رو از زبان بیسیک مدرسه به مکالمه روان و بدون استرس برسونه رو توی یک کانال جمع کردم.
امیدوارم به کارت بیاد ❤️
– محمدرضا
لینک کانال:
https://news.1rj.ru/str/myieltsfiles/617
اگه یه روز به بالاترین سطح زبان انگلیسی برسم،
هر کمکی از دستم برمیاد انجام بدم…
و چند روز پیش نتیجه آزمون آیلتسم اومد :)
نمره 9 آکادمیک.
حالا تمام تجربهها، نکتهها و روشهایی
که بتونه تو رو از زبان بیسیک مدرسه به مکالمه روان و بدون استرس برسونه رو توی یک کانال جمع کردم.
امیدوارم به کارت بیاد ❤️
– محمدرضا
لینک کانال:
https://news.1rj.ru/str/myieltsfiles/617
👎85🔥4❤2
چرا لایبریری qs توی فرانتاند خیلی بهدردبخوره؟
اگه توی پروژههای فرانتاند با Query String سر و کار داری،
لایبریری qs یکی از اون لایبریریهای کوچیک اما خیلی کاربردیه
مزیتهای اصلی qs:
- تبدیل راحت Object به Query String
- پشتیبانی از دادههای تو در تو (nested objects & arrays)
- خوانایی و کنترل بیشتر نسبت به URLSearchParams
- سازگاری عالی با Axios و API-based پروژهها
- جلوگیری از باگهای ریز توی serialize / parse کردن دیتا
مثال کاربردی:
وقتی state پیچیده داری و میخوای URL رو sync کنی (فیلترها، pagination، search و …)،
qs کارت رو خیلی تمیز و حرفهای راه میندازه.
انتخاب ابزار درست، یعنی کد تمیزتر و تجربه توسعه بهتر.
@DevTwitter | <sobhan rahimi/>
اگه توی پروژههای فرانتاند با Query String سر و کار داری،
لایبریری qs یکی از اون لایبریریهای کوچیک اما خیلی کاربردیه
مزیتهای اصلی qs:
- تبدیل راحت Object به Query String
- پشتیبانی از دادههای تو در تو (nested objects & arrays)
- خوانایی و کنترل بیشتر نسبت به URLSearchParams
- سازگاری عالی با Axios و API-based پروژهها
- جلوگیری از باگهای ریز توی serialize / parse کردن دیتا
مثال کاربردی:
وقتی state پیچیده داری و میخوای URL رو sync کنی (فیلترها، pagination، search و …)،
qs کارت رو خیلی تمیز و حرفهای راه میندازه.
انتخاب ابزار درست، یعنی کد تمیزتر و تجربه توسعه بهتر.
@DevTwitter | <sobhan rahimi/>
👎33❤9👍3
ابزار TurboLLM رو ساختم
یک inference engine برای مدل های local ساختم که خودکار quantization های 8-bit , 4-bit , 2-bit و حتی 1-bit رو انجام بده
البته 1بیت مطلق که نداریم - 1.58bit داریم
خلاصه که برید استفاده کنید
برای بعدش میخوام یسری چیزا با cuda اضافه کنم.
https://github.com/Mahdi-Rashidiyan/TurboLLM
@DevTwitter | <Mahdi Rashidiyan/>
یک inference engine برای مدل های local ساختم که خودکار quantization های 8-bit , 4-bit , 2-bit و حتی 1-bit رو انجام بده
البته 1بیت مطلق که نداریم - 1.58bit داریم
خلاصه که برید استفاده کنید
برای بعدش میخوام یسری چیزا با cuda اضافه کنم.
https://github.com/Mahdi-Rashidiyan/TurboLLM
@DevTwitter | <Mahdi Rashidiyan/>
👎31❤10👍2
داستان همین آشغالی هست که ملت با اون ویندوز و آفیس فعال میکنند بخون!
یک شهروند ۲۹ ساله لیتوانیایی به اتهام آلوده کردن ۲.۸ میلیون سیستم با بدافزار سارق کلیپبورد (clipboard-stealing malware) که به صورت ابزار KMSAuto برای فعالسازی غیرقانونی ویندوز و آفیس جا زده شده بود دستگیر شد.
این فرد پس از درخواست کره جنوبی و هماهنگی اینترپل از گرجستان به کره جنوبی استرداد شد.
بر اساس گزارش آژانس پلیس ملی کره متهم از ابزار KMSAuto برای فریب قربانیان استفاده کرد تا فایل اجرایی مخربی را دانلود کنند که محتویات کلیپبورد را برای آدرسهای ارزهای دیجیتال اسکن میکرد و آنها را با آدرسهای تحت کنترل مهاجم جایگزین میکرد که به آن «بدافزار کلیپر» (clipper malware) گفته میشود.
از آوریل ۲۰۲۰ تا ژانویه ۲۰۲۳، هکر ۲.۸ میلیون نسخه از این بدافزار را در سراسر جهان توزیع کرد و موفق شد داراییهای دیجیتال به ارزش تقریبی ۱.۷ میلیارد وون کرهای (۱.۲ میلیون دلار) را در ۸۴۰۰ تراکنش از کاربران ۳۱۰۰ آدرس دارایی دیجیتال سرقت کند.
تحقیقات در اوت ۲۰۲۰ آغاز شد و پس از شناسایی مظنون، در دسامبر ۲۰۲۴ عملیات بازرسی در لیتوانی انجام و ۲۲ قلم شامل لپتاپ و تلفن همراه مصادره شد. متهم سرانجام در آوریل ۲۰۲۵ هنگام سفر از لیتوانی به گرجستان دستگیر شد. پلیس کره جنوبی هشدار داد که استفاده از نرمافزارهای غیرقانونی میتواند سیستمها را در معرض بدافزار قرار دهد و توصیه کرد از فعالکنندههای غیررسمی محصولات نرمافزاری و فایلهای اجرایی بدون امضای دیجیتال خودداری شود.
@DevTwitter | <Teegra/>
یک شهروند ۲۹ ساله لیتوانیایی به اتهام آلوده کردن ۲.۸ میلیون سیستم با بدافزار سارق کلیپبورد (clipboard-stealing malware) که به صورت ابزار KMSAuto برای فعالسازی غیرقانونی ویندوز و آفیس جا زده شده بود دستگیر شد.
این فرد پس از درخواست کره جنوبی و هماهنگی اینترپل از گرجستان به کره جنوبی استرداد شد.
بر اساس گزارش آژانس پلیس ملی کره متهم از ابزار KMSAuto برای فریب قربانیان استفاده کرد تا فایل اجرایی مخربی را دانلود کنند که محتویات کلیپبورد را برای آدرسهای ارزهای دیجیتال اسکن میکرد و آنها را با آدرسهای تحت کنترل مهاجم جایگزین میکرد که به آن «بدافزار کلیپر» (clipper malware) گفته میشود.
از آوریل ۲۰۲۰ تا ژانویه ۲۰۲۳، هکر ۲.۸ میلیون نسخه از این بدافزار را در سراسر جهان توزیع کرد و موفق شد داراییهای دیجیتال به ارزش تقریبی ۱.۷ میلیارد وون کرهای (۱.۲ میلیون دلار) را در ۸۴۰۰ تراکنش از کاربران ۳۱۰۰ آدرس دارایی دیجیتال سرقت کند.
تحقیقات در اوت ۲۰۲۰ آغاز شد و پس از شناسایی مظنون، در دسامبر ۲۰۲۴ عملیات بازرسی در لیتوانی انجام و ۲۲ قلم شامل لپتاپ و تلفن همراه مصادره شد. متهم سرانجام در آوریل ۲۰۲۵ هنگام سفر از لیتوانی به گرجستان دستگیر شد. پلیس کره جنوبی هشدار داد که استفاده از نرمافزارهای غیرقانونی میتواند سیستمها را در معرض بدافزار قرار دهد و توصیه کرد از فعالکنندههای غیررسمی محصولات نرمافزاری و فایلهای اجرایی بدون امضای دیجیتال خودداری شود.
@DevTwitter | <Teegra/>
👎43👍13❤1🔥1
معرفی یک پروژه اوپنسورس جالب برای دنیای Agentic AI
پروژه Acontext یک Context Data Platform برای ساخت AI Agentهای «یادگیرنده» است.
ایدهی اصلیش خیلی ساده ولی مهمه:
ایجنتها نباید Stateless باشن.
و Acontext به ایجنتها کمک میکنه:
کانتکست، مکالمهها و آرتیفکتها رو ذخیره کنن
رفتار و خروجیهاشون رو مانیتور کنن
از تسکهای تکرارشون Skill / SOP بسازن
به مرور زمان بهتر تصمیم بگیرن
در واقع، Acontext داره نقش «حافظه بلندمدت + observability» رو برای AI agentها بازی میکنه؛ چیزی که توی سیستمهای Agent-محور خیلی کمبودش حس میشه.
داشبورد و CLI
API + SDK (Python / TypeScript)
Cloud-native
Apache 2.0 (اوپنسورس واقعی)
گیتهاب:
https://github.com/memodb-io/Acontext
اگر روی AI Agent، workflowهای خودکار یا سیستمهای agentic کار میکنید، حتماً ارزش دیدن داره
@DevTwitter | <Amir Pournasserian/>
پروژه Acontext یک Context Data Platform برای ساخت AI Agentهای «یادگیرنده» است.
ایدهی اصلیش خیلی ساده ولی مهمه:
ایجنتها نباید Stateless باشن.
و Acontext به ایجنتها کمک میکنه:
کانتکست، مکالمهها و آرتیفکتها رو ذخیره کنن
رفتار و خروجیهاشون رو مانیتور کنن
از تسکهای تکرارشون Skill / SOP بسازن
به مرور زمان بهتر تصمیم بگیرن
در واقع، Acontext داره نقش «حافظه بلندمدت + observability» رو برای AI agentها بازی میکنه؛ چیزی که توی سیستمهای Agent-محور خیلی کمبودش حس میشه.
داشبورد و CLI
API + SDK (Python / TypeScript)
Cloud-native
Apache 2.0 (اوپنسورس واقعی)
گیتهاب:
https://github.com/memodb-io/Acontext
اگر روی AI Agent، workflowهای خودکار یا سیستمهای agentic کار میکنید، حتماً ارزش دیدن داره
@DevTwitter | <Amir Pournasserian/>
👎23👍5❤2
دوره ی تست نفوذ، Georgia Weidman بصورت رایگان از طریق یوتیوب قابل دسترس هستش.
https://youtube.com/playlist?list=PLZqCalOsI0EAkYZOs_A0aCicSQ5NINtoZ
ایشون نویسنده کتاب "Penetration Testing: A Hands-On Introduction to Hacking" هستن.
https://www.amazon.com/Penetration-Testing-Hands-Introduction-Hacking/dp/1593275641
@DevTwitter | <OnHexGroup/>
https://youtube.com/playlist?list=PLZqCalOsI0EAkYZOs_A0aCicSQ5NINtoZ
ایشون نویسنده کتاب "Penetration Testing: A Hands-On Introduction to Hacking" هستن.
https://www.amazon.com/Penetration-Testing-Hands-Introduction-Hacking/dp/1593275641
@DevTwitter | <OnHexGroup/>
👎19❤7
ریپازیتوری Auto-Deep-Research یه دستیار شخصی AI خودکار است — نسخهی اوپنسورس و کمهزینه از Deep Research شرکت OpenAI که با استفاده از فریمورک AutoAgent ساخته شده.
ویژگیهای کلیدی:
- عملکرد خوب توی بنچمارکهای AI و قابل رقابت با گزینههای تجاری
- پشتیبانی از انواع مدلهای LLM مثل OpenAI، Anthropic، DeepSeek، Huggingface و …
- تعامل انعطافپذیر با مدلها (Function-calling و بدون Function-calling)
- پشتیبانی از آپلود فایل برای تعامل دادهها
- هزینهی پایین با استفاده از API Keyهای خودت بهجای پرداخت اشتراک پرهزینه
- راهاندازی با یک دستور ساده — zero-config و آماده به کار!
https://github.com/HKUDS/Auto-Deep-Research
@DevTwitter | <Amir Pournasserian/>
ویژگیهای کلیدی:
- عملکرد خوب توی بنچمارکهای AI و قابل رقابت با گزینههای تجاری
- پشتیبانی از انواع مدلهای LLM مثل OpenAI، Anthropic، DeepSeek، Huggingface و …
- تعامل انعطافپذیر با مدلها (Function-calling و بدون Function-calling)
- پشتیبانی از آپلود فایل برای تعامل دادهها
- هزینهی پایین با استفاده از API Keyهای خودت بهجای پرداخت اشتراک پرهزینه
- راهاندازی با یک دستور ساده — zero-config و آماده به کار!
https://github.com/HKUDS/Auto-Deep-Research
@DevTwitter | <Amir Pournasserian/>
👎14👍5