آکادمی ریسرچ هرم ‌| Pyramid – Telegram
آکادمی ریسرچ هرم ‌| Pyramid
3.6K subscribers
190 photos
2 videos
2 files
146 links
هرم | Pyramid
📌 جامع‌ترین آکادمی آموزش کاربردی ریسرچ در دنیای پیرامون!

🌐 بررسی مقالات فیلدهای پزشکی و مهندسی
🌐 آموزش ریسرچ
🌐 معرفی اپلای و اینترنشیپ
🌐 ارتباط با اساتید معتبر ایران و جهان

🌱 ارتباط با اکانت پشتیبانی:
@Pyramid_Research_Support
Download Telegram
🔻 سوءاستفاده گسترده از ضعف احراز هویت در Zendesk؛ حمله‌ی “Email Bomb” به صندوق‌های ورودی شرکت‌ها

🚨 زمان مطالعه: ۲ دقیقه

🔗 #امنیت

🔺 در یک حمله‌ی هماهنگ و فنی، مجرمان سایبری از ضعف پیکربندی و نبود احراز هویت در پلتفرم خدمات مشتری Zendesk سوءاستفاده کرده‌اند تا هزاران ایمیل اسپم را به‌صورت هم‌زمان از طرف صدها شرکت معتبر به اهداف خاص ارسال کنند. Zendesk که برای مدیریت درخواست‌های پشتیبانی مشتری طراحی شده، در این سناریو به ابزاری برای “Email Bombing” تبدیل شد؛ به‌طوری‌که قربانیان در عرض چند ساعت هزاران پیام هشدارآمیز یا توهین‌آمیز از دامنه‌های معتبر نظیر CapCom، NordVPN، Discord و The Washington Post دریافت کردند. این حمله نشان می‌دهد که در صورت فعال‌سازی امکان ارسال تیکت بدون احراز هویت کاربر، مهاجمان می‌توانند از سامانه‌های قانونی برای تقویت حملات اجتماعی و مختل‌سازی ارتباطات قربانی استفاده کنند.

🔹 از منظر فنی، ریشه‌ی حمله در تنظیمات باز Zendesk نهفته است که به کاربران ناشناس اجازه می‌دهد بدون نیاز به تأیید ایمیل، تیکت پشتیبانی ایجاد کنند. در چنین وضعیتی، مهاجم با جعل آدرس ایمیل هدف (spoofing) در فیلد “submitter” می‌تواند باعث شود سامانه‌ی Zendesk به‌صورت خودکار یک اعلان تیکت (auto-responder) به همان آدرس ارسال کند. از آنجا که پاسخ‌ها از دامنه‌ی شرکت مشتری Zendesk (مثلاً help@washpost.com) صادر می‌شوند، قربانی سیلی از پیام‌های ظاهراً معتبر اما ناخواسته دریافت می‌کند. این سازوکار نه‌تنها سامانه‌ی Zendesk بلکه زیرساخت ایمیلی مشتریان آن را نیز درگیر می‌کند و موجب تخریب اعتبار دامنه‌ها (domain reputation) در سیستم‌های ضداسپم می‌شود. همچنین، بررسی‌ها نشان داد که نرخ‌محدودکننده‌های (rate limiters) Zendesk نتوانستند از وقوع چنین حجم عظیمی از درخواست‌ها جلوگیری کنند.

🔺 از دید امنیت سایبری، این حادثه نمونه‌ای بارز از تهدیدات ناشی از پیکربندی‌های نادرست (misconfiguration) در سرویس‌های ابری است. عدم الزام به احراز هویت کاربران پیش از ایجاد تیکت، حفره‌ای منطقی (logical flaw) ایجاد می‌کند که در قالب حملات توزیع‌شده می‌تواند منجر به فلج‌شدن سامانه‌های ایمیل هدف شود. بهترین راهکار دفاعی، فعال‌سازی تأیید هویت اجباری در فرآیند ایجاد تیکت (Authenticated Ticket Workflow)، تعریف لیست سفید دامنه‌ها، و استفاده از CAPTCHA یا توکن‌های CSRF برای ممانعت از ارسال خودکار درخواست‌ها است. در سطح زیرساخت، لازم است که Zendesk مکانیزم‌های تطبیق رفتاری و تشخیص الگوهای غیرعادی در ترافیک تیکت‌ها را پیاده‌سازی کند تا از سوءاستفاده‌های مشابه جلوگیری شود.

📶 منبع:
🔗 https://krebsonsecurity.com/2025/10/email-bombs-exploit-lax-authentication-in-zendesk

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «آکادمی هرم | @Pyramid_Research»‍
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥4👏4😢2
Forwarded from 1st MedAI Summit
⚪️ سخنرانی‌های اولین رویداد MedAI Summit

👤 دکتر شهریار فغانی | Mayo Clinic
عدم قطعیت مدل‌های هوش‌مصنوعی در رادیولوژی

👤 دکتر زینب برزگر | IUMS
پزشکی هوشمند و آینده‌ی پیش‌رو

👤 دکتر محمدحسین نبیان | TUMS
هوش‌مصنوعی در پیش‌بینی ناهنجاری‌های ارتوپدی اطفال

👤 دکتر پریسا سلطانی | UNIN
هوش مصنوعی در کاهش آرتیفکت فلزی در تصاویر CBCT

👤 دکتر علی بزرگی | TUMS
هوش‌مصنوعی در تشخیص و پیش‌بینی زودهنگام بیماری‌های قلبی‌عروقی

👤 دکتر ساحل حسن‌زاده | SBMU
هوش‌مصنوعی در دندان‌پزشکی؛ از گذشته تا امروز

👤 دکتر پوریا روزرخ | Mayo Clinic
هوش‌مصنوعی Agentic در رادیولوژی

👤 دکتر رضا شاه‌نظر | Digikala
ساختن اپلیکیشن‌های مبتنی بر Generative AI

👤 دکتر احسان سرائی | TUMS
ملاحظات اخلاقی و ایمنی داده‌های پزشکی در عصر هوش مصنوعی

👤 دکتر امیراحمد صفوی | ISMMS
توسعه‌ی خط داده چندمرکزی کنسر پانکراس در ایران

👤 دکتر ریحانه شورگشتی | WHO
کاربرد هوش‌مصنوعی در تشخیص ضایعات دهانی

👤 دکتر اکبر شفیعی | TUMS
هوش‌مصنوعی در نظارت از راه دور و شخصی‌سازی‌ مراقبت‌های قلبی‌عروقی

👤 مهندس علی جعفرآبادی | TUMS
هوش‌مصنوعی؛ از هیاهو تا بهره‌وری

👤 دکتر حمیدرضا سلیقه‌راد | TUMS
هوش‌مصنوعی در خدمت تشخیص بیماری آلزایمر

👤 دکتر سروش نعمت‌الهی | TUMS
دیدن درون جعبه‌سیاه هوش‌مصنوعی

🔹 فرصت ثبت‌نام در حال اتمام است، و در صورت علاقه به حضور در رویداد، هرچه زودتر ثبت‌نام‌تان را نهایی کنید!

🔗 لینک ثبت‌نام در رویداد

🌐MedAISummit
🌐LinkedIn 💠🔗Twitter 💠🌐Instagram
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥86👍3😍3
🔻 حذف هوش مصنوعی‌های کسب و کار از واتس‌آپ

🚨 زمان مطالعه: ۳۰ ثانیه

🔗 #هوش‌مصنوعی

🔺 شرکت متا در یک اطلاعیه‌ی جدید اعلام کرده که از تاریخ ۱۵ ژانویه ۲۰۲۶ دیگر به هیچ هوش مصنوعی third-party اجازه‌ی فعالیت در واتس‌آپ داده نمی‌شود. این مورد شامل OpenAI ChatGPT و Perplexity هست به‌خصوص و دیگر دسترسی به آن‌ها از طریق واتس‌اپ ممکن نخواهد بود.

🦋 این حرکت آپدیت Business API هست که با هدف عدم دسترسی به AIهای دیگر (غیر از محصولات متا) از داخل واتس‌آپ می‌انجامد.

🔽 منبع:
🔗 https://www.newsbytesapp.com/news/science/whatsapp-to-ban-ai-chatbots-like-chatgpt-perplexity-from-january/story

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «آکادمی هرم | @Pyramid_Research»‍
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍7🔥5
🔻 Load Balancer

🚨 زمان مطالعه: ۱ دقیقه

🔗 #Life

🔺 لود بالانسر یک سیستم است که برای توزیع درخواست‌ها بین چندین سرور استفاده می‌شود تا بار روی یک سرور خاص کاهش پیدا کند. در ساده‌ترین حالت، لود بالانسر یک سرور است که درخواست‌ها را از کاربر دریافت می‌کند و بر اساس استراتژی‌های خاص، آنها را به سرورهای مختلف می‌فرستد. اما در عمل، پیاده‌سازی آن پیچیدگی‌های زیادی دارد.

اولین پیچیدگی، پیاده‌سازی کشینگ است. به این معنا که لود بالانسر باید بتواند پاسخ‌های دریافت شده از سرور را ذخیره کرده و برای درخواست‌های بعدی از کش خود استفاده کند، بدون اینکه دوباره به سرور ارسال شود. علاوه بر این، باید پروتکل‌های مختلف مثل HTTP و TCP را در نظر بگیرد تا بتواند مسیر درست را برای هر درخواست پیدا کند، که این هم پیچیدگی‌های زیادی دارد. همچنین، استفاده بهینه از منابع سیستم، مثلاً مدیریت تردها یا استفاده از معماری‌های مناسب برای کاهش استفاده از منابع، از جمله مواردی است که به پیچیدگی کد اضافه می‌کند. علاوه بر این، لود بالانسر باید روی سیستم‌های مختلف مانند ویندوز و لینوکس کار کند.

💻 در نهایت، ایده اصلی لود بالانسر این است که بار را از روی سرورهای اصلی بردارد و به طور کارآمد توزیع کند تا هیچ سرور خاصی تحت فشار نباشد.

و اما چرا درباره این موضوع پست گذاشتیم؟ درس زندگی از لود بالانسر این است که باید مسئولیت‌ها و چالش‌ها را به درستی تقسیم کنیم. همان‌طور که لود بالانسر بار را بین سرورها توزیع می‌کند تا هیچ‌کدام تحت فشار نباشند، ما هم باید در زندگی منابع خود مثل زمان و انرژی را بهینه مدیریت کنیم. با تقسیم درست مسئولیت‌ها و استفاده از کمک‌های دیگران، می‌توانیم از فشارها کاسته و به نتایج بهتری برسیم.


✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «آکادمی هرم | @Pyramid_Research»‍
Please open Telegram to view this post
VIEW IN TELEGRAM
7👏4🔥3👍2
🔻 شرکت در ریسرچ حیطه چشم پزشکی

🔗 #فراخوان
🔗 #پزشکی

از علاقه‌مندان به شرکت در انجام مراحل مختلف طرح تحقیقاتی چشم پزشکی (شامل جمع‌آوری داده، تفسیر داده و نگارش مقاله)، ترجیحا ساکن تهران، دعوت می‌شود جهت کسب اطلاعات بیشتر دربار‌ه‌ی این پروژه به آی‌دی اکانت پشتیبانی پیام دهید

آکادمی هرم، آموزش و منتورینگ شرکت کننده‌ها را به عهده خواهد داشت ✌️

اکانت پشتیبانی هرم:
✈️ @Pyramid_Research_Support

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «آکادمی هرم | @Pyramid_Research»‍
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍4😍4
🔻 ۴ دانشمند برجسته با نزدیک به یا بیش از ۱ میلیون ارجاع علمی در حوزه‌های مختلف

در دنیای علم و تحقیقات، رسیدن به ۱ میلیون ارجاع علمی یک دستاورد بزرگ است. در اینجا چهار دانشمند برجسته از حوزه‌های مختلف علمی از جمله فلسفه، هوش مصنوعی، و آمار پزشکی را معرفی می‌کنیم که به این مرز دست یافته‌اند.

1. Michel Foucault
تعداد ارجاعات: 1,393,972
حوزه تخصص: فلسفه، تاریخ ایده‌ها، اپیستمولوژی
دستاوردها: میشل فوکو با آثار فلسفی خود در زمینه‌های قدرت، جامعه‌شناسی و تاریخ‌شناسی تأثیر بسیاری داشته است. مهم‌ترین آثار او شامل "Discipline and Punish" و "The History of Sexuality" است. فوکو به‌عنوان یکی از متفکران مهم قرن 20 شناخته می‌شود و ارجاعات زیادی از محققان مختلف در سراسر جهان داشته است.

2. Douglas G. Altman
تعداد ارجاعات: 1,044,922
حوزه تخصص: آمار پزشکی، بیواستاتیستیک
دستاوردها: داگلاس آلتمن به‌عنوان یکی از پیشگامان در زمینه ارزیابی کیفیت مطالعات تحقیقاتی شناخته می‌شود. آثار او در زمینه‌هایی مانند "PRISMA Statement" و "STROBE Statement" برای بهبود روش‌های گزارش‌دهی در پژوهش‌های پزشکی و بیواستاتیستیک بسیار تأثیرگذار بوده‌اند.

3. Geoffrey Hinton
تعداد ارجاعات: 975,191
حوزه تخصص: یادگیری عمیق، هوش مصنوعی
دستاوردها: جفری هینتون یکی از پیشگامان اصلی در زمینه یادگیری عمیق است و بسیاری از مفاهیم کلیدی مانند شبکه‌های عصبی کانولوشنی (CNNs) را معرفی کرده است. مقالات معروف او شامل "Imagenet Classification with Deep Convolutional Neural Networks" و "Deep Learning" است که در دنیای هوش مصنوعی و یادگیری ماشین بسیار تأثیرگذار بوده‌اند.

4. Yoshua Bengio
تعداد ارجاعات: 1,003,232
حوزه تخصص: یادگیری عمیق، هوش مصنوعی
دستاوردها: یوشوا بنجیو یکی از بنیان‌گذاران یادگیری عمیق است و دستاوردهای او در توسعه مدل‌های یادگیری ماشین از جمله "Generative Adversarial Nets" و "Deep Learning" در دنیای هوش مصنوعی بسیار شناخته‌شده است. تحقیقات او در زمینه شبکه‌های عصبی و ترجمه ماشینی عصبی امروزه در بسیاری از فناوری‌های پیشرفته مورد استفاده قرار می‌گیرد.

🎓 نکات مهم
میشل فوکو به عنوان یک فیلسوف، بیش از 1.3 میلیون ارجاع دارد.
داگلاس آلتمن، استاد آمار پزشکی، به بیش از 1 میلیون ارجاع دست یافته است.
جفری هینتون، پیشگام یادگیری عمیق، ارجاعاتی حدود 975 هزار دارد که هنوز به یک میلیون نرسیده است.
یوشوا بنجیو با 1 میلیون ارجاع یکی از برجسته‌ترین محققان در زمینه هوش مصنوعی است.

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «آکادمی هرم | @Pyramid_Research»‍
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥6👏4
📕 هدیه ویژه مکتب‌خانه: یک آموزش رایگان به انتخاب شما!

🔺 در جهانی که سرعت دانش و مهارت‌ها روز‌به‌روز در حال رشد است، مکتب‌خونه به عنوان پلی میان شما و آینده پیشرفته‌تان وارد می‌شود. این پلتفرم با گردآوری مدرسان متخصص، محتوای با‌کیفیت و دوره‌هایی متناسب با بازار کار و علاقه‌مندی‌های شما، امکان یادگیری را در هر زمان و هر مکان فراهم کرده است.

🔹 مکتب‌خونه، یکی از پلتفرم‌های بزرگ آموزش آنلاین در ایران، با هدف ارتقای سطح دانش و مهارت کاربرانش فعالیت می‌کند. این سامانه با ارائه دوره‌های آموزشی در حوزه‌های متنوعی مثل برنامه‌نویسی، هوش مصنوعی، مهندسی، زبان، مهارت‌های فردی و شغلی، تلاش دارد تا یادگیری را برای همه accessible کند.

قراره تولد چهارده‌سالگی مکتب‌خونه رو با هم جشن بگیریم. ما ۵۰۰ تا از دوره‌های آموزشی پرمخاطب رو رایگان کردیم. حالا می‌تونی یک دوره رو به انتخاب خودت رایگان ثبت‌نام کنی.


🔽 لینک سایت جهت انتخاب دوره‌ی مدنظر با کد تخفیف HBD:
🔗 https://land.maktabkhooneh.org/tavalod14

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «Instagram 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM
8😍5👍2👏1💯1
📕 چطور هوش مصنوعی بدون وزیر، استاد بزرگ‌های شطرنج را شکست می‌دهد؟

🚨 زمان مطالعه: ۲ دقیقه

🔗 #هوش‌مصنوعی

🔺 چند روز پیش پستی درباره bot شطرنجی LeelaPieceOdds خوندم که کلی داده از بازی‌هایش روی Lichess جمع کرده بود؛ مخصوصاً وقتی Leela با handicap‌ های عجیب مثل BBNN (یعنی بدون هر دو bishop و هر دو knight) بازی می‌کند. روی نمودارها، محور افقی rating بازیکن‌های انسانی بود و رنگ نارنجی درصد برد انسان‌ها را نشان می‌داد. نکته‌ی جالب این بود که حتی با چنین کمبود مهره‌ای، Leela هنوز در بخش بزرگی از محدوده‌ rating‌ ها شانس برد زیادی دارد، مخصوصاً در Blitz و Rapid، جایی که بیشتر داده هم از آن‌جاست.

🔹 تجربه افراد دیگر هم این بوده که بازی مقابل Leela شبیه شطرنج بازی کردن در حالت خستگی است: مداوم blunder می‌کنی، حس نمی‌کنی حریفت «شکست‌ناپذیر» است، ولی در عمل خیلی وقت‌ها از اون disadvantage وحشتناک اول بازی برمی‌گردد و می‌برد. آمار احتمالاً به نفع Leela bias دارد؛ چون وقتی انسان‌ها زیاد می‌بازند، ادامه می‌دهند (چون چالش‌برانگیز و جذاب است)، ولی وقتی زیاد می‌برند، یا سطح handicap را سخت‌تر می‌کنند یا کلاً ول می‌کنند. از طرفی چون Leela خیلی سریع بازی می‌کند، آدم‌ها ناخودآگاه سرعتش را تقلید می‌کنند و بدتر از کیفیت واقعی‌شان بازی می‌کنند. نتیجه‌ی عملی: اگر می‌خواهید قدرت واقعی Leela را حس کنید، odds‌ ای انتخاب کنید که در آن rating شما کمتر از یک‌سوم مواقع برنده می‌شود.

البته LeelaPieceOdds هنوز جا برای بهتر شدن دارد؛ مثلاً با افزایش compute برای search یا با این‌که به‌جای «مدل انسان متوسط»، خودش را با سبک و اشتباهات یک بازیکن خاص تطبیق بدهد (analysis روی بازی‌های قبلی همان نفر). نقطه‌ی جالب‌تر متن اما ربط آن به بحث AI control و alignment است: بازی odds شطرنج یک mini-آنالوگ از «AI ضعیف‌شده داخل جعبه» است، ولی باید بدبین بود که چنین کنترل‌هایی در دنیای واقعی جواب بلندمدت بدهد. چون هم تشخیص تحقیق خوب از خروجی‌ای که فقط «خوب به نظر می‌رسد» به‌شدت انسان‌محور و پرهزینه است، و هم وقتی AI مسئله را حل نمی‌کند، ما انسان‌ها به‌طور طبیعی وسوسه می‌شویم آن را قوی‌تر، با ابزار بیش‌تر و آزادی عمل بیش‌تر کنیم؛ حتی اگر کم‌کم شبیه چیزی شود که احتمال فرار و فریب در آن واقعی است.

🦋 برای کسانی که شهودشان این است که «مزیت ساختاری (مثلاً مهره بیش‌تر، موقعیت بهتر) همیشه از هوش و سرچ قوی‌تر است»، بازی با LeelaPieceOdds می‌تواند تمرین خوبی باشد. این تجربه نشان می‌دهد که یک سیستم با search خیلی قوی و استفاده‌ی سیستماتیک از اشتباهات کوچک طرف مقابل، می‌تواند از دل handicap‌ های به‌ظاهر له‌کننده هم سربلند بیرون بیاید؛ و همین شهود را می‌شود خیلی راحت به بحث‌های ریسک AI و کنترل مدل‌های قدرتمند وصل کرد.

🔽 لینک منبع:
🔗 https://www.lesswrong.com/posts/eQvNBwaxyqQ5GAdyx/some-data-from-leelapieceodds

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «Instagram 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥5😍5👏2
📕 شرکت Perplexity، دیفالت AI در Snapchat از January 2026

🚨 زمان مطالعه: ۱ دقیقه

🔗 #هوش‌مصنوعی

🔺 شرکت‌های Perplexity و Snap Inc. وارد یک قرارداد حدوداً $400M شدند که بر اساس آن، از ابتدای January 2026، Perplexity به‌عنوان default AI برای همه‌ی کاربران Snapchat داخل خود Snapchat app قرار می‌گیرد.

🔹 با این همکاری، نزدیک به 1B monthly active users می‌توانند مستقیماً در چت‌های Snapchat سوال بپرسند و پاسخ‌های محاوره‌ای مبتنی بر verifiable sources بگیرند، بدون این‌که از اپ خارج شوند. Perplexity در کنار My AI عمل می‌کند و قرار است تجربه‌ی AI-powered search و discovery را به بخش اصلی محیط chat در Snapchat تبدیل کند.

📑 لینک منبع:
🔗 https://x.com/perplexity_ai/status/1986203714471010738

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «Instagram 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5👏54🔥3😍1
📕 بنچمارک IndQA؛ محصول جدید OpenAI برای سنجش فهم فرهنگ و زبان‌های هند

🚨 زمان مطالعه: ۱ دقیقه

🔗 #هوش‌مصنوعی

🔺 شرکت OpenAI از IndQA رونمایی کرده؛ یک benchmark جدید که ارزیابی می‌کند مدل‌های AI تا چه حد می‌توانند سوال‌های مرتبط با Indian languages و زندگی و فرهنگ روزمره در هند را بفهمند و درباره‌شان استدلال کنند.

🔹 بنچمارک IndQA شامل 2,278 سوال در 12 زبان و 10 cultural domain مختلف است؛ از Everyday Life و Food & Cuisine تا History، Arts & Culture، Religion & Spirituality و غیره. این مجموعه با همکاری 261 کارشناس هندی طراحی شده و برای هر سوال، rubric دقیق و ideal answer وجود دارد تا خروجی مدل‌ها براساس معیارهای کیفی نمره‌گذاری شود.

هدف OpenAI این است که با IndQA و بنچمارک‌های مشابه در دیگر کشورها، مدل‌های AI واقعاً متناسب با زبان و بافت فرهنگی کاربران در سراسر جهان ارزیابی و به‌مرور بهبود پیدا کنند.

📑 لینک منبع:
🔗 https://openai.com/index/introducing-indqa

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «Instagram 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM
11💯4👏3👍2
📕 Private Cloud Compute | Apple

🚨 زمان مطالعه: ۱ دقیقه و نیم

🔗 #امنیت

🔺 پرایوت کلاد کامپیوت (Private Cloud Compute) معماری جدید اپل برای اجرای قابلیت‌های Apple Intelligence در کلاد است، بدون این‌که حریم خصوصی مدل «دستگاه‌محور» اپل قربانی شود. ایده این است که وقتی مدل‌های بزرگ‌تر و پیچیده‌تر لازم‌اند، درخواست از دستگاه کاربر به سرورهایی فرستاده شود که با چیپ اختصاصی Apple silicon، Secure Enclave و Secure Boot و یک سیستم‌عامل سخت‌سازی‌شده (مشتق از iOS/macOS) اجرا می‌شوند؛ طوری که دادهٔ کاربر فقط روی همین نودها و فقط برای انجام همان درخواست در دسترس باشد و حتی خود اپل هم نتواند آن داده را ببیند.

💳 اپل برای PCC چند الزام سفت‌وسخت تعریف کرده: محاسبه‌ی «stateless» روی دادهٔ شخصی (فقط برای پاسخ دادن به درخواست، بدون لاگ، بدون نگه‌داری بعد از اتمام کار)، تضمین‌های فنی قابل‌تحلیل (به‌جای اعتماد صرف به سیاست‌ها و تنظیمات سرویس)، نبودن هیچ دسترسی privilegiated در زمان اجرا، غیرقابل‌هدف‌گیری بودن کاربران خاص، و شفافیت قابل‌راستی‌آزمایی برای پژوهشگران. دستگاه کاربر درخواست را مستقیماً برای نودهای تأییدشده و دارای گواهی رمز می‌کند؛ فقط کدی می‌تواند روی نود اجرا شود که در trust cache امضاشده باشد، کل استک inference لایه‌لایه ایزوله و تا حد ممکن با زبان ایمن (Swift) پیاده شده، کلیدهای رمزنگاری داخل Secure Enclave قفل شده‌اند، و فضای دیسک و حافظه به‌صورت اجباری و دوره‌ای به‌نحوی پاک می‌شود که دادهٔ باقی‌مانده قابل بازیابی نباشد.

در سطح عملیات، PCC هیچ شِل ریموت، دیباگر تعاملی یا logging عمومی ندارد؛ فقط یک‌سری متریک و لاگ ساختارمند و بازبینی‌شده اجازه خروج از نود را دارند تا حتی در زمان عیب‌یابی هم دادهٔ کاربر لو نرود. برای جلوگیری از حملات هدفمند، زنجیرهٔ تأمین سخت‌افزار با بازرسی و گواهی سخت تقویت شده، درخواست‌ها از طریق رلهٔ OHTTP و اعتبارنامه‌های ناشناس (RSA Blind Signatures) عبور می‌کنند، و هر درخواست فقط برای زیرمجموعه‌ای از نودها قابل رمزگشایی است تا نفوذ به یک نود اثر محدودی داشته باشد. مهم‌تر از همه، اپل ایمیج کامل نرم‌افزار هر نسخهٔ PCC و هش‌های آن را در یک لاگ شفاف و غیرقابل‌دست‌کاری منتشر می‌کند و دستگاه‌ها فقط با نودهایی حرف می‌زنند که رمزاً ثابت کنند همین نرم‌افزار عمومی را اجرا می‌کنند؛ به‌همراه محیط تحقیقاتی مجازی و برنامهٔ باگ‌بانتی، این یعنی پژوهشگران می‌توانند ادعاهای اپل دربارهٔ حریم خصوصی PCC را به‌طور مستقل بررسی و نقد کنند.

📑 لینک منبع:
🔗 https://security.apple.com/blog/private-cloud-compute

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «Instagram 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍5👏5💯1
📕 سایت Academic Phrasebank

🚨 زمان مطالعه: ۲ دقیقه

🔗 #مقاله

🔺 سایت Academic Phrasebank (متعلق به دانشگاه منچستر) یکی از بهترین منابع برای Academic Writing است. این ابزار به شما کمک می‌کند تا برای بخش‌های مختلف مقاله یا پایان‌نامه خود، جملات استاندارد و آکادمیک پیدا کنید و از تکرار یا استفاده از زبان غیررسمی پرهیز کنید.

۱. مراحل پژوهش (بالای صفحه): این بخش دقیقاً طبق ساختار استاندارد یک مقاله تنظیم شده است:
🔽 بخش Introducing work: برای مقدمه‌چینی و بیان اهداف تحقیق.
🔽 بخش Referring to sources: برای ارجاع دادن به مقالات و کارهای دیگران (Literature Review).
🔽 بخش Describing methods: عبارات مناسب برای توضیح روش تحقیق.
🔽 بخش Reporting results: جملات استاندارد برای بیان نتایج به‌دست آمده.
🔽 بخش Discussing findings: برای تفسیر و بحث روی نتایج.
🔽 بخش Writing conclusions: برای جمع‌بندی و نتیجه‌گیری نهایی.

۲. عملکردهای زبانی عمومی (General Language Functions): عباراتی که در سراسر متن کاربرد دارند، مانند:
🔽 عملکرد Being critical: برای نقد کردن منابع یا روش‌های دیگران (مثلاً استفاده از عباراتی مثل "...Previous studies have not dealt with").
🔽 عملکرد Being cautious: برای بیان ادعاها با احتیاط علمی (Hedging).
🔽 عملکرد Compare and contrast: برای مقایسه داده‌ها یا نظریه‌ها.
🔽 عملکرد Signalling transition: کلمات ربط برای اتصال پاراگراف‌ها و جملات.

نحوه استفاده (How to use) استفاده از این سایت بسیار ساده است:
🔽 بسته به اینکه در کجای مقاله هستید (مثلاً در حال نوشتن Conclusion هستید)، روی تب مربوطه کلیک کنید.
🔽 لیستی از "Sub-function"ها باز می‌شود (مثلاً "Stating limitations").
🔽 جملات نمونه (Sentence Templates) را بخوانید.
🔽 جمله مناسب را انتخاب کرده و جاهای خالی را با اطلاعات تحقیق خودتان پر کنید.

نکته مهم: این جملات "Plagiarism" محسوب نمی‌شوند، زیرا قالب‌های زبانی عمومی (Phraseological skeletons) هستند و محتوای اصلی تحقیق شما در جاهای خالی قرار می‌گیرد.


📑 لینک سایت:
🔗 https://www.phrasebank.manchester.ac.uk

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «Instagram 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM
😍64👍3💯1
📕 ابزار جدید دانشگاه استنفورد برای Review مقالات پژوهشی توسط هوش مصنوعی، با عملکرد نزدیک به انسان

🚨 زمان مطالعه: ۱ دقیقه

🔗 #هوش‌مصنوعی

تیمی از دانشگاه استنفورد در یک پست اعلام کرده که یک ابزار جدید به نام Agentic Reviewer برای research papers منتشر کرده است. Andrew NG این پروژه را آخر هفته شروع کرده و با کمک یکی از دانشجوهای دکتری استنفورد آن را به سطح بهتری رسانده‌اند.


🍏 ایده‌ی ابزار از دانشجویی آمده که مقاله‌اش طی ۳ سال، ۶ بار رد شده و هر بار حدود ۶ ماه برای feedback منتظر مانده بود؛ یعنی feedback loop بسیار کند. هدف Agentic workflow این است که پژوهشگران بتوانند خیلی سریع‌تر روی مقالاتشان تکرار و اصلاح انجام دهند.

📑 این سیستم روی reviewهای کنفرانس ICLR 2025 آموزش داده شده و با معیار Spearman correlation روی test set ارزیابی شده است:
۱. همبستگی بین دو human reviewers: عدد 0.41
۲. همبستگی بین AI و یک human reviewer: عدد 0.42

📁 این نتایج نشان می‌دهد که agentic reviewing در حال رسیدن به عملکرد در سطح انسان است.

🔖 این agent برای ارائه‌ی feedback، در arXiv جست‌وجو می‌کند؛ بنابراین در حوزه‌هایی مثل AI که مقالات به‌صورت آزاد آنجا منتشر می‌شوند، بهتر عمل می‌کند. Ng می‌گوید این یک ابزار آزمایشی است، اما امیدوار است به پژوهشگران در کار تحقیقاتی‌شان کمک کند.

همین حالا می‌توانید مقالات خودتان را به این ابزار داده، و از آن review مناسب دریافت کنید.
لینک ابزار: paperreview.ai

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «Instagram 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM
9👍3😍2💯1
This media is not supported in your browser
VIEW IN TELEGRAM
📕 تشخیص حقیقت از هوش مصنوعی: امضای نامرئی SynthID

🚨 زمان مطالعه: ۱ دقیقه

🔗 #هوش‌مصنوعی

گوگل برای مقابله با دیپ‌فیک و تشخیص تصاویر ساخته‌شده توسط هوش مصنوعی، تکنولوژی SynthID را روی مدل‌های تصویری Gemini (و Imagen) فعال کرده است.

چطور کار می‌کند؟ این فناوری یک واترمارک (Watermark) نامرئی را مستقیماً در پیکسل‌های تصویر جاسازی می‌کند. این تغییرات برای چشم انسان غیرقابل تشخیص است، اما برای سیستم‌های کامپیوتری کاملاً واضح است.


🍏 ویژگی‌های کلیدی

۱. غیرقابل حذف: برخلاف واترمارک‌های سنتی که گوشه عکس هستند، SynthID در تمام بافت عکس وجود دارد.

۲. مقاوم: حتی اگر روی عکس فیلتر بگذارید، رنگش را تغییر دهید، آن را فشرده کنید (Compression) یا برش دهید (Crop)، این امضا معمولاً باقی می‌ماند.

۳. قابلیت ردیابی: اگر به واقعی بودن یک عکس شک کردید، می‌توانید از ابزارهای گوگل (یا در برخی موارد خودِ Gemini) بخواهید تا وجود این امضا را بررسی کند.

خلاصه: هر عکسی که جِمینای می‌سازد، شناسنامه‌دار است تا مرز بین واقعیت و خیال گم نشود.


✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «Instagram 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍2🔥2👏2
📕 Google Scholar Labs

🚨 زمان مطالعه: ۱ دقیقه

🔗 #هوش‌مصنوعی

گوگل اخیراً بخش Scholar Labs را راه‌اندازی کرده تا قدرت هوش مصنوعی مولد (Generative AI) را مستقیماً وارد جستجوی مقالات کند. داستان از این قرار است که گوگل متوجه شد خواندن چکیده‌های طولانی برای پیدا کردن مقاله مناسب، وقت‌گیر است؛ بنابراین این ابزار را ساخت تا «مطالعه مقاله» را به «مرور مقاله» تبدیل کند.

📁 چرا باید همین الان از آن استفاده کنید؟

۱. خلاصه‌های هوشمند (AI Outlines): به جای اینکه فقط لینک مقاله را ببینید، هوش مصنوعی گوگل همان‌جا نکات کلیدی، روش تحقیق و نتایج را به صورت لیست‌شده به شما نشان می‌دهد.

۲. غربالگری فوق‌سریع: بدون نیاز به باز کردن یا دانلود فایل، در چند ثانیه می‌فهمید مقاله دقیقاً درباره چیست و آیا به کارتان می‌آید یا خیر.

۳. آینده‌ی جستجو: این روشی است که به‌زودی جایگزین جستجوهای سنتی خواهد شد؛ پس بهتر است زودتر با آن آشنا شوید.

📑 لینک سایت:
🔗 https://scholar.google.com/scholar_labs/search

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «Instagram 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM
8👏3🔥2💯2
📕 نانو بنانا پرو (Nano Banana Pro): تلفیق هوش و هنر

🚨 زمان مطالعه: ۱ دقیقه

🔗 #هوش‌مصنوعی

گوگل اخیراً مدل جدید تولید تصویر خود با نام فنی gemini-3-pro-image-preview را عرضه کرده که در اینترنت با نام مستعار Nano Banana Pro شناخته می‌شود. این مدل تحسین بسیاری از کارشناسان را برانگیخته است.


🖼 ویژگی اصلی چیست؟ برخلاف مدل‌های قبلی که فقط «نقاشی» می‌کردند، این مدل «فکر» می‌کند. نانو بنانا می‌تواند از ابزارها استفاده کند؛ یعنی قبل از کشیدن تصویر، در گوگل سرچ می‌کند، نقشه‌ها را می‌بیند و با استدلال منطقی تصویر نهایی را می‌سازد.

💬 نقاط قوت:

۱. اینفوگرافیک و نقشه‌های دقیق: چون به داده‌های واقعی دسترسی دارد، می‌تواند نمودارهای رشد اقتصادی یا نقشه‌های دقیق مسیریابی را با اطلاعات صحیح تولید کند (چیزی که قبلاً ممکن نبود).

۲. پیروی از دستورات: در اجرای دستورات طولانی و با جزئیات دقیق، عملکرد بسیار خوبی دارد.

نقاط ضعف:

۱. دیاگرام‌های فنی: با وجود هوشمندی، هنوز در کارهای تخصصی مهندسی مثل کشیدن «مدار الکتریکی» اشتباه می‌کند و نمی‌توان جایگزین دانش انسانی شود.

نتیجه‌گیری: نانو بنانا یک Game Changer واقعی هست. ما از دوران تصاویر صرفاً هنری (مثل Midjourney) عبور کرده‌ایم و وارد دورانی شده‌ایم که هوش مصنوعی می‌تواند تصاویری مبتنی بر واقعیت و داده‌های درست تولید کند.


🔽 منبع:
🔗 https://quesma.com/blog/nano-banana-pro-intelligence-with-tools/

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «Instagram 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥4👏3💯2
📕 اقتصاد مدل‌های هوش مصنوعی: ماشین پول‌سوزی یا سودآورترین صنعت آینده؟

🚨 زمان مطالعه: ۲ دقیقه

🔗 #هوش‌مصنوعی

اخیراً اطلاعات مالی فاش‌شده از OpenAI و Anthropic در نشریاتی مثل نیویورک‌تایمز و اینفورمیشن منتشر شده که واقعیت‌های جالبی را درباره هزینه‌های سرسام‌آور هوش مصنوعی نشان می‌دهد. بیایید مدل کسب‌وکار این غول‌ها را زیر ذره‌بین ببریم.

۱. مشکل اصلی: ماشین پول‌سوزی
مدل فعلی این شرکت‌ها بسیار ساده و بی‌رحم است: هزینه اصلی مربوط به قدرت محاسباتی (Compute) برای آموزش مدل‌هاست. طبق قوانین مقیاس‌پذیری (Scaling Laws)، هزینه‌ها هر سال حدود ۵ برابر می‌شود، اما درآمد شاید فقط ۲ برابر شود.

سال اول: هزینه آموزش ۱ دلار، درآمد بعدی ۲ دلار.
سال دوم: هزینه آموزش مدل بعدی ۵ دلار!

نتیجه: این مدل‌ها فعلاً مثل یک گلوله برفی از زیان انباشته عمل می‌کنند. هر نسل جدید، پول بیشتری نسبت به نسل قبل می‌سوزاند.

۲. راه فرار کجاست؟
برای اینکه این شرکت‌ها به سوددهی برسند، یکی از این دو اتفاق باید بیفتد:

الف) درآمد نجومی شود: که خیلی سخت است.
ب) رشد هزینه‌های آموزش کند شود: یعنی به جای ۵ برابر شدن، کمتر از ۲ برابر شود.

🖼 داریو آمودی (مدیرعامل Anthropic) معتقد است که ما در نهایت به یکی از این دو دیوار برخورد می‌کنیم:
محدودیت فیزیکی: دیگر چیپ یا برق کافی در دنیا وجود نخواهد داشت (یا هزینه از کل تولید ناخالص جهان بیشتر می‌شود).
بازده نزولی: مدل‌ها بزرگ‌تر می‌شوند اما دیگر آنقدرها باهوش‌تر نمی‌شوند که هزینه ۱۰ برابری را توجیه کنند.

نکته کلیدی: لحظه‌ای که شرکت‌ها تصمیم بگیرند مدل بعدی را ۵ برابر بزرگ‌تر نکنند، هزینه‌ها ثابت می‌ماند اما درآمد همچنان می‌آید. اینجاست که سوددهی آغاز می‌شود.


۳. استراتژی متفاوت OpenAI و Anthropic
داده‌های فاش‌شده نشان می‌دهد این دو رقیب، مسیرهای متفاوتی را برای رسیدن به این نقطه انتخاب کرده‌اند:

شرکت OpenAI: فرض را بر این گذاشته که بعد از ۲۰۲۸، ظرفیت محاسباتی کل دنیا اشباع می‌شود و رشد هزینه‌های آموزش متوقف می‌شود.

شرکت Anthropic: روی افزایش بهره‌وری تمرکز کرده است؛ یعنی فرض می‌کند با هر دلار هزینه، درآمد بیشتری نسبت به قبل کسب کند و رشد هزینه‌هایش را منطقی‌تر (۳ برابر به جای ۸ برابر) پیش‌بینی کرده است.

۴. درس عبرت از نتفلیکس (Netflix)
نتفلیکس بهترین مثال تاریخی برای این وضعیت است. برای سال‌ها، نتفلیکس میلیاردها دلار صرف تولید محتوا می‌کرد و جریان نقدینگی منفی داشت.

چه شد که سودده شد؟ در سال ۲۰۲۰ (به خاطر کرونا) تولید محتوا متوقف شد، اما درآمد اشتراک‌ها ادامه داشت. ناگهان جریان نقدینگی مثبت شد!

نتیجه: نتفلیکس یاد گرفت که وقتی به مقیاس جهانی رسید، نیازی نیست بودجه محتوا را هر سال دو برابر کند؛ فقط کافی‌ست آن را در سطح ثابتی نگه دارد.


🍏 جمع‌بندی: بازی صبر
اقتصاد مدل‌های زبانی شبیه یک دستگاه پول‌سوز است... تا زمانی که ناگهان دیگر نباشد. زمانی که رشد وحشتناک هزینه‌های آموزش متوقف شود (چه به خاطر محدودیت فنی، چه اشباع بازار)، حاشیه سود این شرکت‌ها فوراً و به شکل چشمگیری مثبت خواهد شد.

🔽 منبع:
🔗 https://robonomics.substack.com/p/llm-unit-economics

✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️ ✍️✍️✍️
😊 ما رو به دوستانتون معرفی کنین 😉

🔅 «Instagram 💎 @Pyramid_Research»
Please open Telegram to view this post
VIEW IN TELEGRAM
7😍4👍3