Forwarded from Reza Jafari
تحقیق جدید Google در مورد شبکههای عصبی، یعنی این همه مدت داشتیم اشتباه فکر میکردیم؟
تازگیا یه مقاله خیلی خوب از گوگل منتشر شده که توجه زیادی رو به خودش جلب کرده، و جالبتر اینکه ۳ نفر از ۴ نویسندهش ایرانی هستن: علی بهروز، میثم رضویان و وهاب میررکنی. این تحقیق با عنوان "The Illusion of Deep Learning Architecture" نکته مهم و قابلتأملی رو مطرح میکنه، مخصوصاً برای کسایی که روی continual learning کار میکنن و ارزش دنبال کردن داره.
ایده اصلی اینه که بهجای اینکه مثل همیشه هی layer بیشتر اضافه کنیم، شاید بهتر باشه به neural networkها «سطحهای یادگیری» بیشتری بدیم. امروز ساخت مدلهای قویتر بیشتر بر پایه افزایش عمق و اندازه است: layerهای بیشتر، parameterهای بیشتر و pre-training data بیشتر؛ رویکردی که از CNNها تا Transformerها و LLMها پیشرفت رو جلو برده. اما این مسیر یه سقف داره که کمتر دربارهش صحبت شده: مدلهای فعلی گرفتار چیزی هستن که نویسندهها بهش computational anterograde amnesia میگن. یعنی بعد از pre-training، دانش مدل عملاً یخ میزنه و نمیتونه یادگیری مداوم داشته باشه یا مهارتهایی خارج از context window خودش کسب کنه.
اینجاست که ایده Nested Learning (NL) مطرح میشه؛ رویکردی که ML model رو مجموعهای از مسائل multi-level optimization در نظر میگیره، با چند سطح یادگیری که هر کدوم «context flow» و سرعت آپدیت مخصوص خودشونو دارن. از نگاه این تحقیق، optimizerها و architectureها از نظر بنیادی تفاوتی ندارن؛ هر دو نوعی حافظه هستن که کانتکست خودشونو فشرده میکنن. مثلاً Adam و SGD حافظههایی هستن که gradient رو فشرده میکنن، Transformerها حافظههایی هستن که tokenها رو فشرده میکنن، و خود pre-training هم نوعی in-context learningه—فقط با این تفاوت که کانتکستش کل دیتاست train هست.
اهمیت NL اینه که یه محور طراحی جدید وارد بازی میکنه. بهجای اینکه شبکهها رو فقط عمیقتر یا پهنتر کنیم، میتونیم مدلهایی بسازیم که چند سطح nested optimization دارن و هر سطح با یه update frequency متفاوت عمل میکنه. این ساختار خیلی شبیه سازوکار مغزه که توش gamma waveها اطلاعات حسی رو پردازش میکنن و theta waveها مسئول تثبیت حافظه هستن. بر اساس همین ایده، محققها Hope رو معرفی میکنن؛ یه architecture که self-modifying memory رو با continuum memory system ترکیب میکنه و بهجای تقسیم سنتی حافظه به کوتاهمدت/بلندمدت، یه طیف پیوسته از سرعتهای آپدیت ارائه میده.
نتایج هم واقعاً چشمگیرن: Hope تو تسکهای needle-in-a-haystack تا کانتکست 16K به ۱۰۰٪ accuracy میرسه، در حالی که Transformerها حدود ۷۹.۸٪ میزنن.
روی BABILong، Hope تا کانتکست ۱۰M همچنان عملکرد خودش رو حفظ میکنه، در حالی که GPT-4 حدود ۱۲۸K دچار افت جدی میشه.
تو continual learning هم Hope از in-context learning، EWC و روشهای external-learner تو class-incremental classification بهتر ظاهر شده. حتی تو language modeling با ۱.۳B پارامتر، روی WikiText به ۱۴.۳۹ perplexity میرسه؛ در حالی که Transformer++ حدود ۱۷.۹۲ داره.
در نهایت NL بهجای اینکه بپرسه «چطور شبکهها رو عمیقتر کنیم»، سؤال مهمتری مطرح میکنه: «چطور به شبکهها سطحهای بیشتری برای یادگیری بدیم؟» شاید مسیر رسیدن به continual learning از مدلهای عظیمتر رد نشه، بلکه از مدلهایی عبور کنه که همزمان تو چند timescale مختلف یاد میگیرن.
🔗 لینک مقاله
@reza_jafari_ai
تازگیا یه مقاله خیلی خوب از گوگل منتشر شده که توجه زیادی رو به خودش جلب کرده، و جالبتر اینکه ۳ نفر از ۴ نویسندهش ایرانی هستن: علی بهروز، میثم رضویان و وهاب میررکنی. این تحقیق با عنوان "The Illusion of Deep Learning Architecture" نکته مهم و قابلتأملی رو مطرح میکنه، مخصوصاً برای کسایی که روی continual learning کار میکنن و ارزش دنبال کردن داره.
ایده اصلی اینه که بهجای اینکه مثل همیشه هی layer بیشتر اضافه کنیم، شاید بهتر باشه به neural networkها «سطحهای یادگیری» بیشتری بدیم. امروز ساخت مدلهای قویتر بیشتر بر پایه افزایش عمق و اندازه است: layerهای بیشتر، parameterهای بیشتر و pre-training data بیشتر؛ رویکردی که از CNNها تا Transformerها و LLMها پیشرفت رو جلو برده. اما این مسیر یه سقف داره که کمتر دربارهش صحبت شده: مدلهای فعلی گرفتار چیزی هستن که نویسندهها بهش computational anterograde amnesia میگن. یعنی بعد از pre-training، دانش مدل عملاً یخ میزنه و نمیتونه یادگیری مداوم داشته باشه یا مهارتهایی خارج از context window خودش کسب کنه.
اینجاست که ایده Nested Learning (NL) مطرح میشه؛ رویکردی که ML model رو مجموعهای از مسائل multi-level optimization در نظر میگیره، با چند سطح یادگیری که هر کدوم «context flow» و سرعت آپدیت مخصوص خودشونو دارن. از نگاه این تحقیق، optimizerها و architectureها از نظر بنیادی تفاوتی ندارن؛ هر دو نوعی حافظه هستن که کانتکست خودشونو فشرده میکنن. مثلاً Adam و SGD حافظههایی هستن که gradient رو فشرده میکنن، Transformerها حافظههایی هستن که tokenها رو فشرده میکنن، و خود pre-training هم نوعی in-context learningه—فقط با این تفاوت که کانتکستش کل دیتاست train هست.
اهمیت NL اینه که یه محور طراحی جدید وارد بازی میکنه. بهجای اینکه شبکهها رو فقط عمیقتر یا پهنتر کنیم، میتونیم مدلهایی بسازیم که چند سطح nested optimization دارن و هر سطح با یه update frequency متفاوت عمل میکنه. این ساختار خیلی شبیه سازوکار مغزه که توش gamma waveها اطلاعات حسی رو پردازش میکنن و theta waveها مسئول تثبیت حافظه هستن. بر اساس همین ایده، محققها Hope رو معرفی میکنن؛ یه architecture که self-modifying memory رو با continuum memory system ترکیب میکنه و بهجای تقسیم سنتی حافظه به کوتاهمدت/بلندمدت، یه طیف پیوسته از سرعتهای آپدیت ارائه میده.
نتایج هم واقعاً چشمگیرن: Hope تو تسکهای needle-in-a-haystack تا کانتکست 16K به ۱۰۰٪ accuracy میرسه، در حالی که Transformerها حدود ۷۹.۸٪ میزنن.
روی BABILong، Hope تا کانتکست ۱۰M همچنان عملکرد خودش رو حفظ میکنه، در حالی که GPT-4 حدود ۱۲۸K دچار افت جدی میشه.
تو continual learning هم Hope از in-context learning، EWC و روشهای external-learner تو class-incremental classification بهتر ظاهر شده. حتی تو language modeling با ۱.۳B پارامتر، روی WikiText به ۱۴.۳۹ perplexity میرسه؛ در حالی که Transformer++ حدود ۱۷.۹۲ داره.
در نهایت NL بهجای اینکه بپرسه «چطور شبکهها رو عمیقتر کنیم»، سؤال مهمتری مطرح میکنه: «چطور به شبکهها سطحهای بیشتری برای یادگیری بدیم؟» شاید مسیر رسیدن به continual learning از مدلهای عظیمتر رد نشه، بلکه از مدلهایی عبور کنه که همزمان تو چند timescale مختلف یاد میگیرن.
@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥1
برای تست تو دوره وایب کدینگ دانشکار یه سرویس نوشتم قند و نبات، سر فرصت بهتون میگم 😁😁😁
👍8❤1
اگه هفته خوبی نداشتین، برید برنامه #گنگ رو تو فیلیمو با مجری گری علی ضیا و اجرای #ممرضاشایع ببینید. انشالله که گامی باشه برای فضای باز و آزاد تر برای هنرمندان #رپ مون.
👎53🤣7🔥5❤1
TondTech
برای تست تو دوره وایب کدینگ دانشکار یه سرویس نوشتم قند و نبات، سر فرصت بهتون میگم 😁😁😁
این همون سرویسه ست که دیشب نوشتم. قشنگیش اینه که کاراکترها رو ثابت نگه میداره تو تصاویر متفاوت
❤9🔥5👍2👎1
TondTech
چون خارجیا پول نمیدادن، نسخه انگلیسی رفهاب رو به Monetag مسلح کردم :)) تو این چند روز، درآمدش خیلی بیشتر از یکتاپی بود ، اصلا قابل مقایسه نیست، کمه ها، ولی واقعا قابل مقایسه نیست
اینو محدود کردم به اینکه کاربر لاگین نباشه، یا زیر 20 امتیاز داشته باشه، اکثرتون دیگه مشکل نخواهید داشت عزیزانم
❤2
افسانهی دارا_20251206_180408.pdf
486.8 KB
چون، چند تا مورد باز داشتیم، گفتم اینو یه نسخه قبل از انتشار بدم، هم فیدبک بدین اگه دوست داشتین، هم بدقول نشده باشم.
نسخه اصلی شامل تصویر سازی فصل ها و به صورت چاپی خواهد بود.
توجه داشته باشین این کتاب برای رنج سنی نوجوان هست، اگر جایی پیچش های داستان کم میشه یه سری قانون و rule براش دارن.
خوشحال میشم فیدبک بدین بهم حتما
نسخه اصلی شامل تصویر سازی فصل ها و به صورت چاپی خواهد بود.
توجه داشته باشین این کتاب برای رنج سنی نوجوان هست، اگر جایی پیچش های داستان کم میشه یه سری قانون و rule براش دارن.
خوشحال میشم فیدبک بدین بهم حتما
❤4
TondTech
پنجشنبه آینده یه برنامه خواهیم داشت در باره اینکه چطور یک محصول مبتنی بر AI و Automation همون Refhub.ir خودمون رو به عنوان یک فاندر و دولوپر و نیمچه مدیرمحصولش توسعه دادم.
این رو هم با یکی از بچه ها صحبت کردیم، قراره یه برنامه خیلی جدی تر بچینیم براش، کار اصولی در بیاد، یه کم زمان میبره تا چیزی که میخوایم رو پلن کنیم، ولی خیلی خفن میشه.
چون پروژه ش باز بود، گفتم در جریان باشید که ماجرا چیه و چرا یهو استاپ شد.
به جاش دوره وایب کدینگ رو برای دانشکار دارم ضبط میکنم تا این یکی زمانش برسه
چون پروژه ش باز بود، گفتم در جریان باشید که ماجرا چیه و چرا یهو استاپ شد.
به جاش دوره وایب کدینگ رو برای دانشکار دارم ضبط میکنم تا این یکی زمانش برسه
⚡1❤1
Forwarded from tech-afternoon (Amin Mesbahi)
چند سالیه که سهم عبارت «AI» لابلای جملات، تیتر اخبار، صحبتهای یومیهی عوام تا متخصصین، شهروند تا دولتمرد، مصرفکننده تا صنعتگر روز به روز بیشتر شده. ترمهایی مثل Vibe Coding یا AI-Driven Development یا AI Slop به دایرهی واژگانمون اضافه شدن. حالا این وسط یه عده سودهای کوتاهمدت میبرن، مثل پکیجفروشها، سرویسهایی که چند تا API رو صدا میکنن و یه سرویس مثلا هوشمند ارائه میکنن؛ و برخی هم بیزنسهای بر پایهی این تحول ایجاد کردن، مثل سازندههای مدلهای پایه، سرویسهای کاربردی مدیریت AI مثل Agent Manager یا Prompt Engineering Platform و… یا اینکه AI رو مثل یک ابزار دیدن و کاربری اون رو «صحیح و اصولی» یاد گرفتن و مرتبا بهروز میشن تا مثل دورانی که اکثریت با محدودیتهای نرمافزارهای دسکتاپ دستوپنجه نرم میکردن و عدهای خیلی زود و به موقع، توسعه مبتنی بر وب رو جایگزین کردن، بتونن از مواهب AI به نفع بهرهوری، خلاقیت، و توسعه پایدار بهره ببرن.
این مطلب رو در چند بخش مینویسم، با توجه به فضای جامعه توسعه نرمافزار، متن رو خیلی مطالعه-محور مینویسم تا مقاومت کمتری نسبت به تحلیل شخصی داشته باشه؛ اول به «بد»، و در ادامه به «زشت» و نهایتا به «خوب» میپردازم:
- کد چرخشی (Code Churn): سیگنال خطر: تحقیقات GitClear روی ۲۱۱ میلیون خط کد تغییریافته بین سالهای ۲۰۲۰ تا ۲۰۲۴ نشون میده که Code Churn (درصد کدی که کمتر از دو هفته پس از نوشته شدن اصلاح یا حذف میشه) در سال ۲۰۲۴ دو برابر سال ۲۰۲۱ شده. این یعنی کدی که AI تولید میکنه، اغلب ناقص یا اشتباهه و نیاز به بازنگری سریع داره.
- کپیپیست به جای معماری: در سال ۲۰۲۴، GitClear افزایش ۸ برابری در بلوکهای کد تکراری (۵ خط یا بیشتر) رو ثبت کرده (یعنی ۱۰ برابر بیشتر از دو سال پیشش). مشکل اینجاست که AI به جای refactor کردن و استفاده مجدد از کد موجود، ترجیح میده کد جدید بنویسه. نتیجه؟ نقض اصل (DRY (Don't Repeat Yourself و کدبیسی که مدیریتش کابوسه.
در سال ۲۰۲۴، ۴۶٪ تغییرات کد، خطوط جدید بودند و کد کپیپیست شده، بیش از کد جابجا شده (moved) بوده (یعنی کمتر refactoring شده و بیشتر به صورت بیرویه کد اضافه شده).
- افزایش باگ و کاهش پایداری: مطالعه شرکت Uplevel که توسعهدهندههای با دسترسی به Copilot رو بررسی کرده، نشون میده این دولوپرها به طور معناداری نرخ باگ بالاتری تولید کردن، در حالی که بهرهوری کلیشون ثابت مونده. گزارش DORA 2024 گوگل هم تأیید میکنه: ۲۵٪ افزایش در استفاده از AI منجر به بهبود در code review و مستندات میشه، اما ۷.۲٪ کاهش در پایداری تحویل (delivery stability) ایجاد میکنه. همچنین گزارش Harness 2025 نشون داد اکثر توسعهدهندگان زمان بیشتری صرف debugging کد تولیدشده توسط AI و رفع آسیبپذیریهای امنیتی میکنند.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4💯1
Forwarded from tech-afternoon (Amin Mesbahi)
اگر "بد" نمایانگر اصطکاک عملیاتیه، "زشت" نمایانگر ریسک سیستمیه. دادههای سالهای ۲۰۲۴ و ۲۰۲۵ به بحرانی قریبالوقوع در قابلیت نگهداری و امنیت نرمافزار اشاره میکنن...
جنبهی «زشت» ماجرا اینه که نتیجهی نهایی استفاده از هوش مصنوعی مولد بهشدت وابسته به بلوغ فنی و انضباط تیمه. اگر تیمی فرهنگ کدنویسی سالم، معیارهای کیفی و فرایندهای بازبینی روشن نداشته باشه، برای استفاده از GenAI دستورالعمل «فکر شده» و متناسب با نیازها و استعداد تیم نداشته باشه؛ AI میتونه هرجومرج ایجاد کنه یا هرجومرج موجود رو تشدید کنه. توی برخی نظرسنجیها دیده شده که کارکنان احساس کردن بهرهوریشون با وجود هوش مصنوعی کاهش یافته!
بدهی فنی که قابل پرداخت نیست
پروفسور Armando Solar-Lezama استاد دانشگاه MIT میگه: "AI مثل یه کارت اعتباری جدیده که به ما اجازه میده بدهی فنی رو به روشهایی انباشته کنیم که هرگز قبلاً نتونسته بودیم."
مطالعه دانشگاه Carnegie Mellon روی ۸۰۷ ریپو GitHub که بین ژانویه ۲۰۲۴ تا مارچ ۲۰۲۵ که از Cursor استفاده کرده بودن، نشون میده که با وجود بهبودهای مدلهای AI (Sonnet، GPT و غیره)، الگوی کاهش کیفیت کد همچنان ادامه داره. حتی با ارتقای ابزارها، کیفیت کد مسیر خودش رو به سمت افول طی میکنه! دلایلی مثل زمان صرف زیاد برای آزمونوخطا با ابزار یا رفع خطاهای ناشی از اون رو میشه در نظر گرفت؛ و تفاوت نتایج بین شرکتهای مختلف (از افزایش کارامدی تا معضلات عمیق) نشون میده که صرف خریداری یا فعالسازی ابزار یا سرویس هوشمصنوعی تضمینی برای موفقیت نیست.
- نابودی دانش تیمی: باز هم مطالعات نشون میدن در ۱۶.۸٪ از چتهای ChatGPT، کد تولید شده به صورت دقیق (با تغییرات جزئی) توی پروژههای GitHub استفاده شدن. مشکل اینجاست: وقتی توسعهدهندهها کد AI رو بدون درک عمیق copy میکنن، expertise model توی تیم توسعه آسیب میبینه و Truck Factor (تعداد اعضای تیم که از دست دادنشون پروژه را میتونه نابود کنه، گاهی هم bus factor گفته میشه) بدتر میشه.
- معضل Context Collapse در آینده: اگه کدهایی که مدلهای آینده از روی اونها train میشن، پیچیدهتر و غیرقابل نگهداریتر بشه، خطر واقعی اینه که مدلهای جدیدتر این روندها رو به صورت نمایی تقویت و تشدید میکنن و کد بدتری تولید خواهند کرد؛ دلیلش هم اینه که از روی کدهای شلوغ و بیکیفیتی آموزش دیدهاند.
- مشارکتکننده دورهگرد: کدهای تولید شده توسط هوش مصنوعی شبیه کار یک پیمانکار کوتاهمدته: از نظر عملکردی در انزوا، صحیح، اما منفک از قراردادها و معماری سیستم کلی! این منجر به تکهتکه شدن (Fragmentation) سبک و منطق کد میشه.
- پارادوکس بهرهوری مهندسی: ترکیب "خوب" (سرعت) و "زشت" (ریزش/کیفیت) منجر به شکلگیری "پارادوکس بهرهوری مهندسی" شده. سازمانها شاهد افزایش چشمگیر خروجی (پولریکوئستها، ویژگیها) هستن، اما همزمان کاهش پایداری و افزایش هزینههای نگهداری رو تجربه میکنن. گزارش سال ۲۰۲۵ DORA از گوگل نشون داد که افزایش ۹۰ درصدی در پذیرش هوش مصنوعی با افزایش ۹ درصدی نرخ باگ و افزایش ۹۱ درصدی زمان بازبینی کد همبستگی داره (بدتر از گزارش DORA در سال ۲۰۲۴ که پیشتر در بخش افزایش باگ و کاهش پایداری قسمت اول اشاره کردم). زمان صرفهجویی شده در تایپ کردن کد، عملاً به مرحله بازبینی و دیباگ منتقل شده؛ با این تفاوت که هزینه این مرحله بالاتره، چون خوندن کد تولید شده سختتر از نوشتنشه.
- انباشت بدهی فنی: انباشت کدهای ضعیف ساختاری، که با پیچیدگی بالا (Cyclomatic Complexity) و تکرار زیاد مشخص میشن؛ بدهیای ایجاد میکنه که باید با بهره پرداخت بشه. Forrester پیشبینی میکنه که سال ۲۰۲۶، ۷۵٪ از شرکتها به دلیل تولید کد کنترلنشدهی هوش مصنوعی، با بدهی فنی "متوسط تا شدید" مواجه خواهند شد.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤2💯1
وقتی موج محتوای بنجلِ هوش مصنوعی، اینترنت را بههم میریزد: اسلاپ (Slop) کلمه سال شد!
اگر این روزها حس میکنید اینترنت پُر شده از چیزهای ترسناک، عجیبوغریب و خیلی هم معلوم است که فیک هستند، تنها نیستید.
برای همین استفاده از یک واژه حسابی پرکاربرد شده است: اسلاپ (Slop).
رشد انفجاری استفاده از این کلمه در فضای آنلاین که بخشی از آن به خاطر در دسترس بودن هوش مصنوعی است، باعث شد دیکشنری «مریام-وبستر» آن را به عنوان کلمه سال ۲۰۲۵ انتخاب کند
https://x.com/i/status/2000860956747030779
اگر این روزها حس میکنید اینترنت پُر شده از چیزهای ترسناک، عجیبوغریب و خیلی هم معلوم است که فیک هستند، تنها نیستید.
برای همین استفاده از یک واژه حسابی پرکاربرد شده است: اسلاپ (Slop).
رشد انفجاری استفاده از این کلمه در فضای آنلاین که بخشی از آن به خاطر در دسترس بودن هوش مصنوعی است، باعث شد دیکشنری «مریام-وبستر» آن را به عنوان کلمه سال ۲۰۲۵ انتخاب کند
https://x.com/i/status/2000860956747030779
X (formerly Twitter)
NooshDaroo | نوشدارو (@NooshDaroo_web) on X
وقتی موج محتوای بنجلِ هوش مصنوعی، اینترنت را بههم میریزد: اسلاپ (Slop) کلمه سال شد!
اگر این روزها حس میکنید اینترنت پُر شده از چیزهای ترسناک، عجیبوغریب و خیلی هم معلوم است که فیک هستند، تنها نیستید.
برای همین استفاده از یک واژه حسابی پرکاربرد شده است:…
اگر این روزها حس میکنید اینترنت پُر شده از چیزهای ترسناک، عجیبوغریب و خیلی هم معلوم است که فیک هستند، تنها نیستید.
برای همین استفاده از یک واژه حسابی پرکاربرد شده است:…
❤1
Forwarded from tech-afternoon (Amin Mesbahi)
♻️ فیدبک، راهحل بهبود و توسعه مداوم...
فیدبک، یک فرهنگه، که برای ایجادش باید تلاش کرد، ممارست داشت و رهاش نکرد. باید مستندش کرد، آموزشش دارد، به عنوان ارزش و روش نهادینهاش کرد و از روز آنبوردینگ روش تکیه کرد؛ تا بتونه در میان/بلند مدت میوه بده.
🥕🪓 فیدبک: فراتر از هویج و چماق
خیلی از ما فیدبک رو با «نقد کردن» یا «تشویق کردن» اشتباه میگیریم. فکر میکنیم ابزاریه که الزاما مدیر از موضوع بالا نسبت به کارمند استفاده میکنه تا بتونه با تشویق و تنبیه یا ملقمهای از هر دو وادارش کنه تا رفتار و کارآمدی دلخواهش رو دنبال کنه! (رویکرد هویج و چماق).
اما واقعیت چیز دیگهایه: فیدبک یک فرهنگه، نه یک سخنرانی یکطرفه. برای اینه که یک تیم یا سازمان یا حتی ارتباط انسانی، زنده بمونه و رشد کنه، بازخورد باید در تمام رگهای سازمان جریان داشته باشه؛ از مدیر به همکار، از همکار به مدیر، و از همکار به همکار. فیدبک سازنده، اکسیژنِ فضای کاری سالمه.
چرا فیدبکهای "حسی" کار نمیکنند؟
همه ما جملههایی مثل «کارت عالی بود» یا «باید بیشتر دقت کنی» را شنیدیم. اینها فیدبک نیستن؛ اینها نظرات گُنگ هستند! فیدبک مبهم نه تنها باعث بهبود یا اصلاح رفتارها نمیشه، بلکه میتونه باعث سوءتفاهم و گارد گرفتن طرف مقابل بشه. برای حل این مشکل، ما به مدلهای ساختاریافته نیاز داریم تا بتونیم قبل از ارائه بازخورد محتوا رو بریزیم توی یک قالب استاندارد، ببینیم آیا قالب رو پر میکنه؟ یا باید ازش کم و زیاد کنیم!
۱. مدل SBI: شفافیت به جای قضاوت
مدل SBI (مخفف Situation-Behavior-Impact) یکی از بهترین روشها برای حذف قضاوت شخصی و تمرکز روی واقعیتهاست.
- موقعیت (Situation): دقیقاً بگید این عمل کِی و کجا رخ داده. (عمل یا اتفاق میتونه مثبت یا منفی باشه)
- رفتار (Behavior): دقیقاً چه رفتاری دیدید؟ (بدون استفاده از صفاتی مثل تنبل، بیدقت، عالی، دقیق و...).
- اثر (Impact): آن رفتار چه تاثیری روی شما، تیم یا پروژه گذاشته.
❌ مثال غلط: «تو توی جلسات خیلی بینظمی.»
✅ مثال با SBI: «امروز صبح در جلسه بررسی اسپرینت (موقعیت)، وقتی وسط صحبت جعفر پریدی و صدات رو بالا بردی (رفتار)، باعث شد بقیه اعضای تیم ساکت بشن و دیگه ایدههاشون رو مطرح نکنن (اثر).»
۲. مدل EEC: چرخه یادگیری و اصلاح
مدل EEC (مخفف Example-Effect-Change/Continue) هم برای بازخورد اصلاحی (منفی) و هم برای بازخورد تقویتی (مثبت) خوبه.
- مثال (Example): یک مثال مشخص از رفتار رو بیان کنید.
- اثر (Effect): نتیجه رو شفاف بیان کنین.
- تغییر/ادامه (Change/Continue): اگر بازخورد منفیه، چه تغییری انتظار دارید؟ اگر مثبته، به ادامه دادنش تشویق کنید.
مثال برای ادامه (Continue): «گزارشی که دیروز فرستادی (مثال)، خیلی دادههای دقیقی داشت و باعث شد مشتری قانع بشه (اثر). لطفاً همین ساختار رو برای گزارشهای بعدی هم حفظ کن (ادامه).»
⚠️ خطر » سوگیریهای ناخودآگاه در کمین ما هستن! (Unconscious Biases)
یه فیدبک رو میشه ریخت توی قالب SBI یا EEC یا هر مدل دیگهای. ولی این کافیه؟ نه. باید حواسمون باشه که فیدبک دادن میتونه به سوگیریهای ناخودآکاه ما یا Unconscious Biases آلوده بشه و از مسیر سازنده بودن خارج! ۳ دشمن نامرئی فیدبک سازنده:
۱. سوگیری شباهت (Similarity Bias)
ما ناخودآگاه با کسانی که شبیه به ما فکر میکنن، لباس میپوشن یا پیشزمینه مشابهی دارن، راحتتریم. توی فیدبک، این باعث میشه با افراد «شبیه به خودمون» مهربونتر باشیم و خطاهاشون را نادیده بگیریم، در حالی که نسبت به بقیه سختگیرتریم. این سمِ تنوع و رشد تیمه.
۲. سوگیری تأییدی (Confirmation Bias)
اگر من باور داشته باشم که «فلانی کارمند بیدقتیه»، مغز من فقط لحظاتی رو ثبت میکنه که اون اشتباه کرده و تمام کارهای دقیقش رو نادیده میگیره تا باور قبلیام تأیید بشه! فیدبک بر اساس این سوگیری، فقط تکرار مکرراتِ ذهن فیدبکدهنده است؛ نه واقعیتِ عملکرد فیدبکگیرنده.
۳. سوگیریِ رویدادهای اخیر (Recency Bias)
این آفتِ ارزیابیهای پایان سال (Year-end reviews) است. ممکنه همکار شما ۱۰ ماه عالی کار کرده باشه، اما چون دو هفته پیش یک اشتباه کرده، تمام ارزیابی سالانهاش تحتالشعاع اون خطای اخیر قرار میگیره. یا برعکس؛ یک سال کمکاری کرده ولی با یک ماه تلاشِ دقیقه نودی، همهچیز پوشیده میشه!
❓ پادزهر سوگیری چیه؟ ساختار به جای احساس
یکی از دلایل پیدایش مدلهایی مثل SBI یا EEC همینه، که جلو سوگیریها گرفته بشه. باید با داده صحبت کنیم، پس باید دادهها رو ثبت کنیم و مغزمون رو مجبور کنیم از قضاوت حسی فاصله بگیره و به فکتها نگاه کنه.
💬 میشه ساعتها در مورد شیوههای بیان فیدبک، اشتباهات رایج، عکسالعمل در قبال سوءبرداشتها و شرایط پیچیدهی تقابلی صحبت کرد. خوشحال میشم تجربیات و نظراتتون رو بشنوم 😊
فیدبک، یک فرهنگه، که برای ایجادش باید تلاش کرد، ممارست داشت و رهاش نکرد. باید مستندش کرد، آموزشش دارد، به عنوان ارزش و روش نهادینهاش کرد و از روز آنبوردینگ روش تکیه کرد؛ تا بتونه در میان/بلند مدت میوه بده.
🥕
خیلی از ما فیدبک رو با «نقد کردن» یا «تشویق کردن» اشتباه میگیریم. فکر میکنیم ابزاریه که الزاما مدیر از موضوع بالا نسبت به کارمند استفاده میکنه تا بتونه با تشویق و تنبیه یا ملقمهای از هر دو وادارش کنه تا رفتار و کارآمدی دلخواهش رو دنبال کنه! (رویکرد هویج و چماق).
اما واقعیت چیز دیگهایه: فیدبک یک فرهنگه، نه یک سخنرانی یکطرفه. برای اینه که یک تیم یا سازمان یا حتی ارتباط انسانی، زنده بمونه و رشد کنه، بازخورد باید در تمام رگهای سازمان جریان داشته باشه؛ از مدیر به همکار، از همکار به مدیر، و از همکار به همکار. فیدبک سازنده، اکسیژنِ فضای کاری سالمه.
چرا فیدبکهای "حسی" کار نمیکنند؟
همه ما جملههایی مثل «کارت عالی بود» یا «باید بیشتر دقت کنی» را شنیدیم. اینها فیدبک نیستن؛ اینها نظرات گُنگ هستند! فیدبک مبهم نه تنها باعث بهبود یا اصلاح رفتارها نمیشه، بلکه میتونه باعث سوءتفاهم و گارد گرفتن طرف مقابل بشه. برای حل این مشکل، ما به مدلهای ساختاریافته نیاز داریم تا بتونیم قبل از ارائه بازخورد محتوا رو بریزیم توی یک قالب استاندارد، ببینیم آیا قالب رو پر میکنه؟ یا باید ازش کم و زیاد کنیم!
۱. مدل SBI: شفافیت به جای قضاوت
مدل SBI (مخفف Situation-Behavior-Impact) یکی از بهترین روشها برای حذف قضاوت شخصی و تمرکز روی واقعیتهاست.
- موقعیت (Situation): دقیقاً بگید این عمل کِی و کجا رخ داده. (عمل یا اتفاق میتونه مثبت یا منفی باشه)
- رفتار (Behavior): دقیقاً چه رفتاری دیدید؟ (بدون استفاده از صفاتی مثل تنبل، بیدقت، عالی، دقیق و...).
- اثر (Impact): آن رفتار چه تاثیری روی شما، تیم یا پروژه گذاشته.
۲. مدل EEC: چرخه یادگیری و اصلاح
مدل EEC (مخفف Example-Effect-Change/Continue) هم برای بازخورد اصلاحی (منفی) و هم برای بازخورد تقویتی (مثبت) خوبه.
- مثال (Example): یک مثال مشخص از رفتار رو بیان کنید.
- اثر (Effect): نتیجه رو شفاف بیان کنین.
- تغییر/ادامه (Change/Continue): اگر بازخورد منفیه، چه تغییری انتظار دارید؟ اگر مثبته، به ادامه دادنش تشویق کنید.
مثال برای ادامه (Continue): «گزارشی که دیروز فرستادی (مثال)، خیلی دادههای دقیقی داشت و باعث شد مشتری قانع بشه (اثر). لطفاً همین ساختار رو برای گزارشهای بعدی هم حفظ کن (ادامه).»
یه فیدبک رو میشه ریخت توی قالب SBI یا EEC یا هر مدل دیگهای. ولی این کافیه؟ نه. باید حواسمون باشه که فیدبک دادن میتونه به سوگیریهای ناخودآکاه ما یا Unconscious Biases آلوده بشه و از مسیر سازنده بودن خارج! ۳ دشمن نامرئی فیدبک سازنده:
۱. سوگیری شباهت (Similarity Bias)
ما ناخودآگاه با کسانی که شبیه به ما فکر میکنن، لباس میپوشن یا پیشزمینه مشابهی دارن، راحتتریم. توی فیدبک، این باعث میشه با افراد «شبیه به خودمون» مهربونتر باشیم و خطاهاشون را نادیده بگیریم، در حالی که نسبت به بقیه سختگیرتریم. این سمِ تنوع و رشد تیمه.
۲. سوگیری تأییدی (Confirmation Bias)
اگر من باور داشته باشم که «فلانی کارمند بیدقتیه»، مغز من فقط لحظاتی رو ثبت میکنه که اون اشتباه کرده و تمام کارهای دقیقش رو نادیده میگیره تا باور قبلیام تأیید بشه! فیدبک بر اساس این سوگیری، فقط تکرار مکرراتِ ذهن فیدبکدهنده است؛ نه واقعیتِ عملکرد فیدبکگیرنده.
۳. سوگیریِ رویدادهای اخیر (Recency Bias)
این آفتِ ارزیابیهای پایان سال (Year-end reviews) است. ممکنه همکار شما ۱۰ ماه عالی کار کرده باشه، اما چون دو هفته پیش یک اشتباه کرده، تمام ارزیابی سالانهاش تحتالشعاع اون خطای اخیر قرار میگیره. یا برعکس؛ یک سال کمکاری کرده ولی با یک ماه تلاشِ دقیقه نودی، همهچیز پوشیده میشه!
یکی از دلایل پیدایش مدلهایی مثل SBI یا EEC همینه، که جلو سوگیریها گرفته بشه. باید با داده صحبت کنیم، پس باید دادهها رو ثبت کنیم و مغزمون رو مجبور کنیم از قضاوت حسی فاصله بگیره و به فکتها نگاه کنه.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍4🔥1💯1
Forwarded from DevAshTeam
✅ اگر همچنان با نصب/آپدیت داکر روی سیستم خودتون و یا سروری که دستتون هست مشکل دارین و یا اینکه موقع دریافت ایمیج ها از Docker Hub با پیام هایی مثل 403 Error مواجه شدین، میتونید به سادگی از این راهکار ها برای گذر از تحریم ها استفاده کنید:
🔹ساخت میرور ریپازیتوری برای دریافت/آپدیت داکر
🔹 ساخت رجیستری میرور برای دریافت ایمیج های داکر
🔹 استفاده از پروژه ی SNI Proxy برای دریافت تمامی پکیج ها و ایمیج های تحریم شده
💡 https://news.1rj.ru/str/DevAshTeam
Made with ❤️ for the community
#docker #tutorial #workers
🔹ساخت میرور ریپازیتوری برای دریافت/آپدیت داکر
🔹 ساخت رجیستری میرور برای دریافت ایمیج های داکر
🔹 استفاده از پروژه ی SNI Proxy برای دریافت تمامی پکیج ها و ایمیج های تحریم شده
💡 https://news.1rj.ru/str/DevAshTeam
Made with ❤️ for the community
#docker #tutorial #workers
❤7
Forwarded from DotNet | دات نت
آینده تستنویسی در .NET؛ وقتی هوش مصنوعی خودش را قضاوت میکند!
اگر در اکوسیستم داتنت فعالیت میکنید، حتماً میدانید که ورود AI به اپلیکیشنها، مدلهای سنتی تستنویسی را به چالش کشیده است. دیگر صرفاً چک کردن یک خروجی ثابت کافی نیست؛ ما با مدلهای زبانی (LLM) سر و کار داریم که پاسخهایشان متغیر است.
مایکروسافت با معرفی کتابخانههای Microsoft.Extensions.AI.Evaluation و ابزارهای جدید در Visual Studio 2026، پازل تستنویسی هوشمند را کامل کرده است.
💡 نکات کلیدی ویدیو (AI-Powered Testing in VS):
در ویدیوی جدید کانال داتنت، مککنا بارلو (PM تیم ابزارهای داتنت) نکات بسیار مهمی را مطرح کرد:
1️⃣ تستنویسی خودکار با Copilot: حالا GitHub Copilot میتواند برای کل Solution شما بهصورت یکجا Unit Testهای باکیفیت بنویسد. این یعنی دیگر لازم نیست ساعتها وقت صرف نوشتن کدهای تکراری تست کنید.
2️⃣ ترکیب Code Coverage و AI: ابزار Code Coverage در ویژوال استودیو حالا هوشمندتر شده؛ نقاطی از کد که تست نشدهاند را شناسایی کرده و مستقیماً به Copilot پیشنهاد میدهد تا برای همان بخشهای پرریسک، تست تولید کند.
3️⃣ گزارشهای بصری (AI Eval Reporting): با ابزار جدید dotnet aieval میتوانید گزارشهای گرافیکی دقیقی در مرورگر ببینید که نشان میدهد مدل هوش مصنوعی شما در چه بخشهایی (مثلاً در Groundedness یا صحت اطلاعات) ضعف داشته است.
4️⃣ فراتر از Black Box: هدف این ابزارها این است که خروجی AI دیگر یک "جعبه سیاه" نباشد. شما میتوانید دقیقاً بفهمید چرا یک مدل امتیاز پایینی گرفته و با چه منطقی پاسخ داده است.
🛠 کتابخانه Microsoft.Extensions.AI.Evaluation شامل چیست؟
این پکیجها فرآیند ارزیابی را به چهار لایه تقسیم میکنند:
✅ ارزیابی کیفی (Quality): سنجش میزان مرتبط بودن (Relevance) و انسجام (Coherence) پاسخها.
✅ ارزیابی ایمنی (Safety): شناسایی خودکار محتوای سمی، نفرتپراکنی یا کدهای مخرب تولید شده توسط AI.
✅ ارزیابی مستند بودن (Groundedness): حیاتیترین بخش برای جلوگیری از توهم (Hallucination)؛ چک میکند که آیا AI بر اساس دیتای واقعی شما حرف میزند یا از خودش داستان میسازد!
✅ ارزیابی کلاسیک (NLP): استفاده از معیارهای BLEU و F1 برای سنجش شباهت متنی با پاسخهای مرجع.
چرا این موضوع مهم است؟
در دنیای واقعی، ما نمیتوانیم به خروجی مدلهای هوش مصنوعی اعتماد صددرصدی داشته باشیم. این کتابخانهها به ما "اعتماد سیستماتیک" میدهند. یعنی قبل از اینکه کاربر نهایی با یک پاسخ اشتباه روبرو شود، سیستم تست شما آن را شکار میکند.
📌 ویژگی طلایی: تمام این فرآیندها دارای سیستم Caching هستند؛ یعنی اگر یک تست را دوباره اجرا کنید و ورودی تغییری نکرده باشد، هزینهای برای API پرداخت نمیکنید و نتیجه بلافاصله نمایش داده میشود.
📺 مشاهده ویدیو کامل در یوتیوب:
🔗 https://youtu.be/Bkn78klGhtc?si=c5dBLw1y7ituLTFH
📖 مطالعه مستندات رسمی:
🔗 https://learn.microsoft.com/en-us/dotnet/ai/evaluation/libraries
🎺 برای یادگیری بیشتر و دریافت مطالب مفید در زمینه .NET و برنامهنویسی، به کانال ما بپیوندید!
📚💻 @dotnetcode🖥 👨💻
#dotnet #csharp #VisualStudio2026 #AI #Testing #GitHubCopilot #Programming #SoftwareEngineering #هوش_مصنوعی #برنامه_نویسی
اگر در اکوسیستم داتنت فعالیت میکنید، حتماً میدانید که ورود AI به اپلیکیشنها، مدلهای سنتی تستنویسی را به چالش کشیده است. دیگر صرفاً چک کردن یک خروجی ثابت کافی نیست؛ ما با مدلهای زبانی (LLM) سر و کار داریم که پاسخهایشان متغیر است.
مایکروسافت با معرفی کتابخانههای Microsoft.Extensions.AI.Evaluation و ابزارهای جدید در Visual Studio 2026، پازل تستنویسی هوشمند را کامل کرده است.
💡 نکات کلیدی ویدیو (AI-Powered Testing in VS):
در ویدیوی جدید کانال داتنت، مککنا بارلو (PM تیم ابزارهای داتنت) نکات بسیار مهمی را مطرح کرد:
1️⃣ تستنویسی خودکار با Copilot: حالا GitHub Copilot میتواند برای کل Solution شما بهصورت یکجا Unit Testهای باکیفیت بنویسد. این یعنی دیگر لازم نیست ساعتها وقت صرف نوشتن کدهای تکراری تست کنید.
2️⃣ ترکیب Code Coverage و AI: ابزار Code Coverage در ویژوال استودیو حالا هوشمندتر شده؛ نقاطی از کد که تست نشدهاند را شناسایی کرده و مستقیماً به Copilot پیشنهاد میدهد تا برای همان بخشهای پرریسک، تست تولید کند.
3️⃣ گزارشهای بصری (AI Eval Reporting): با ابزار جدید dotnet aieval میتوانید گزارشهای گرافیکی دقیقی در مرورگر ببینید که نشان میدهد مدل هوش مصنوعی شما در چه بخشهایی (مثلاً در Groundedness یا صحت اطلاعات) ضعف داشته است.
4️⃣ فراتر از Black Box: هدف این ابزارها این است که خروجی AI دیگر یک "جعبه سیاه" نباشد. شما میتوانید دقیقاً بفهمید چرا یک مدل امتیاز پایینی گرفته و با چه منطقی پاسخ داده است.
🛠 کتابخانه Microsoft.Extensions.AI.Evaluation شامل چیست؟
این پکیجها فرآیند ارزیابی را به چهار لایه تقسیم میکنند:
✅ ارزیابی کیفی (Quality): سنجش میزان مرتبط بودن (Relevance) و انسجام (Coherence) پاسخها.
✅ ارزیابی ایمنی (Safety): شناسایی خودکار محتوای سمی، نفرتپراکنی یا کدهای مخرب تولید شده توسط AI.
✅ ارزیابی مستند بودن (Groundedness): حیاتیترین بخش برای جلوگیری از توهم (Hallucination)؛ چک میکند که آیا AI بر اساس دیتای واقعی شما حرف میزند یا از خودش داستان میسازد!
✅ ارزیابی کلاسیک (NLP): استفاده از معیارهای BLEU و F1 برای سنجش شباهت متنی با پاسخهای مرجع.
چرا این موضوع مهم است؟
در دنیای واقعی، ما نمیتوانیم به خروجی مدلهای هوش مصنوعی اعتماد صددرصدی داشته باشیم. این کتابخانهها به ما "اعتماد سیستماتیک" میدهند. یعنی قبل از اینکه کاربر نهایی با یک پاسخ اشتباه روبرو شود، سیستم تست شما آن را شکار میکند.
📌 ویژگی طلایی: تمام این فرآیندها دارای سیستم Caching هستند؛ یعنی اگر یک تست را دوباره اجرا کنید و ورودی تغییری نکرده باشد، هزینهای برای API پرداخت نمیکنید و نتیجه بلافاصله نمایش داده میشود.
📺 مشاهده ویدیو کامل در یوتیوب:
🔗 https://youtu.be/Bkn78klGhtc?si=c5dBLw1y7ituLTFH
📖 مطالعه مستندات رسمی:
🔗 https://learn.microsoft.com/en-us/dotnet/ai/evaluation/libraries
📚💻 @dotnetcode
#dotnet #csharp #VisualStudio2026 #AI #Testing #GitHubCopilot #Programming #SoftwareEngineering #هوش_مصنوعی #برنامه_نویسی
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
AI-Powered Testing in Visual Studio
Artificial intelligence is transforming how we approach testing and quality assurance. This session explores new AI-powered testing capabilities in Visual Studio that help you write better tests, identify edge cases, generate test data, and improve test coverage.…
❤6👍3🔥2