TondTech – Telegram
TondTech
2.65K subscribers
1.48K photos
169 videos
133 files
1.16K links
کالای ما دانش است


تبلیغات نداریم
Download Telegram
ایمیل جهت ارسال رزومه :
Info@elai-il.com
اینم بازی خوبیه اگه بازی نکردین
https://launch.matchmasters.com/l/friend/5fc964481a00f44345ac1627
1👍1
TondTech
کپشن با نمک فنی با شما..
وقتی خوشحالی که همه چیز خوب جلو رفته و کد رو بدیم بره برای تست نهایی، قبلش یه چک میکنی و میبینی به به ، دو سه تا سوراخ گنده داره هنوز ! اونم آخر وقت !
👏61💔1
Media is too big
VIEW IN TELEGRAM
ران‌وی مدل Gen-4.5 رو معرفی کرد. جهش جدی در کیفیت ویدیوهای هوش مصنوعی
دیروز شرکت ران‌وی مدل جدید تولید ویدیو یعنی Gen-4.5 رو معرفی کرد. این مدل هم‌زمان با انتشار، مستقیم رفت صدر جدول Video Arena و با امتیاز Elo حدود ۱۲۴۷، بالاتر از رقبای بزرگی مثل Veo 3 گوگل و Sora 2 Pro اوپن‌ای‌آی قرار گرفت. این رتبه براساس رأی کاربران در تست‌های کور به دست اومده و فعلاً Gen-4.5 رو به عنوان «بهترین مدل عمومی برای تولید ویدیو از متن و عکس» نشون می‌ده.

طبق اطلاعات رسمی ران‌وی و گزارش‌هایی مثل CNBC و The Decoder، نسخهٔ جدید نسبت به Gen-4 چند پیشرفت مهم داره. حرکت دوربین‌ها طبیعی‌تر و سینمایی‌تر شده.

فیزیک محیط و تعامل اجسام واقعی‌تره و شخصیت‌ها ثبات هویتی خیلی بهتری دارن. جزئیات چهره، دست و حرکات بدن هم چشمگیرتر شده. مدل حالا می‌تونه پرامپت‌های پیچیده و طولانی رو بدون افت کیفیت اجرا کنه، از جمله دستورهای زمان‌بندی‌شده و تغییرات مرحله‌ای در صحنه.

مدل Gen-4.5 روی GPU های Hopper و Blackwell اجرا می‌شه که باعث شده سرعت استنتاج بالا بمونه در حالی که کیفیت خروجی به‌مراتب بهتر شده. همهٔ حالت‌های قبلی مثل Image-to-Video، Keyframes و Video-to-Video هم در نسخهٔ جدید فعال هستن و کنترل‌های سبکی مختلف از فوتورئال تا سینمایی رو پشتیبانی می‌کنه.

رول‌اوت مدل تدریجیه. کاربرای پلن Pro و Unlimited تا آخر همین هفته بهش دسترسی کامل پیدا می‌کنن و چند شرکت بزرگ هم دسترسی زودهنگام گرفتن. در کنار این، مدل Gen-4 قدیمی هم برای همهٔ کاربرای رایگان باز شده.

البته ران‌وی خودش گفته که مدل هنوز محدودیت‌هایی داره. مثال‌هایی مثل مشکل در علت‌ومعلول دقیق یا ناپدیدشدن بعضی اشیا در موقعیت‌های پیچیده هنوز کامل حل نشده. ولی طبق گفتهٔ تیم ران‌وی، Gen-4.5 فقط اولین قدم از چند انتشار بزرگ جدیده و سرعت پیشرفت‌شون در حوزهٔ world modeling قراره بیشتر هم بشه.
#هوش_مصنوعی

✈️@mohammad_zammani
📱Mohammad.zammani.offical
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍1
هر دم از این باغ، بری می رسد..
تازه تر از تازه تری می رسد...
کارآفرینی کرگدن طورانه فقط در این مرز پرگهر...
💔10🤣21👍1
وقتی سازمانت رو به سمت ساعت فروشی جلو میبری، آدم ها به تو ساعت هاشونو میفروشن، نه تلاش و انگیزه شونو...
👍222
Forwarded from Reza Jafari
تحقیق جدید Google در مورد شبکه‌های عصبی، یعنی این همه مدت داشتیم اشتباه فکر می‌کردیم؟

تازگیا یه مقاله خیلی خوب از گوگل منتشر شده که توجه زیادی رو به خودش جلب کرده، و جالب‌تر اینکه ۳ نفر از ۴ نویسنده‌ش ایرانی هستن: علی بهروز، میثم رضویان و وهاب میررکنی. این تحقیق با عنوان "The Illusion of Deep Learning Architecture" نکته مهم و قابل‌تأملی رو مطرح می‌کنه، مخصوصاً برای کسایی که روی continual learning کار می‌کنن و ارزش دنبال کردن داره.

ایده اصلی اینه که به‌جای اینکه مثل همیشه هی layer بیشتر اضافه کنیم، شاید بهتر باشه به neural networkها «سطح‌های یادگیری» بیشتری بدیم. امروز ساخت مدل‌های قوی‌تر بیشتر بر پایه افزایش عمق و اندازه است: layer‌های بیشتر، parameter‌های بیشتر و pre-training data بیشتر؛ رویکردی که از CNNها تا Transformerها و LLMها پیشرفت رو جلو برده. اما این مسیر یه سقف داره که کمتر درباره‌ش صحبت شده: مدل‌های فعلی گرفتار چیزی هستن که نویسنده‌ها بهش computational anterograde amnesia می‌گن. یعنی بعد از pre-training، دانش مدل عملاً یخ می‌زنه و نمی‌تونه یادگیری مداوم داشته باشه یا مهارت‌هایی خارج از context window خودش کسب کنه.

اینجاست که ایده Nested Learning (NL) مطرح می‌شه؛ رویکردی که ML model رو مجموعه‌ای از مسائل multi-level optimization در نظر می‌گیره، با چند سطح یادگیری که هر کدوم «context flow» و سرعت آپدیت مخصوص خودشونو دارن. از نگاه این تحقیق، optimizerها و architectureها از نظر بنیادی تفاوتی ندارن؛ هر دو نوعی حافظه هستن که کانتکست خودشونو فشرده می‌کنن. مثلاً Adam و SGD حافظه‌هایی هستن که gradient رو فشرده می‌کنن، Transformerها حافظه‌هایی هستن که tokenها رو فشرده می‌کنن، و خود pre-training هم نوعی in-context learningه—فقط با این تفاوت که کانتکستش کل دیتاست train هست.

اهمیت NL اینه که یه محور طراحی جدید وارد بازی می‌کنه. به‌جای اینکه شبکه‌ها رو فقط عمیق‌تر یا پهن‌تر کنیم، می‌تونیم مدل‌هایی بسازیم که چند سطح nested optimization دارن و هر سطح با یه update frequency متفاوت عمل می‌کنه. این ساختار خیلی شبیه سازوکار مغزه که توش gamma wave‌ها اطلاعات حسی رو پردازش می‌کنن و theta wave‌ها مسئول تثبیت حافظه هستن. بر اساس همین ایده، محقق‌ها Hope رو معرفی می‌کنن؛ یه architecture که self-modifying memory رو با continuum memory system ترکیب می‌کنه و به‌جای تقسیم سنتی حافظه به کوتاه‌مدت/بلندمدت، یه طیف پیوسته از سرعت‌های آپدیت ارائه می‌ده.

نتایج هم واقعاً چشمگیرن: Hope تو تسک‌های needle-in-a-haystack تا کانتکست 16K به ۱۰۰٪ accuracy می‌رسه، در حالی که Transformerها حدود ۷۹.۸٪ می‌زنن.
روی BABILong، Hope تا کانتکست ۱۰M همچنان عملکرد خودش رو حفظ می‌کنه، در حالی که GPT-4 حدود ۱۲۸K دچار افت جدی می‌شه.
تو continual learning هم Hope از in-context learning، EWC و روش‌های external-learner تو class-incremental classification بهتر ظاهر شده. حتی تو language modeling با ۱.۳B پارامتر، روی WikiText به ۱۴.۳۹ perplexity می‌رسه؛ در حالی که Transformer++ حدود ۱۷.۹۲ داره.

در نهایت NL به‌جای اینکه بپرسه «چطور شبکه‌ها رو عمیق‌تر کنیم»، سؤال مهم‌تری مطرح می‌کنه: «چطور به شبکه‌ها سطح‌های بیشتری برای یادگیری بدیم؟» شاید مسیر رسیدن به continual learning از مدل‌های عظیم‌تر رد نشه، بلکه از مدل‌هایی عبور کنه که هم‌زمان تو چند timescale مختلف یاد می‌گیرن.

🔗 لینک مقاله

@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥1
برای تست تو دوره وایب کدینگ دانشکار یه سرویس نوشتم قند و نبات، سر فرصت بهتون میگم 😁😁😁
👍81
اگه هفته خوبی نداشتین، برید برنامه #گنگ رو تو فیلیمو با مجری گری علی ضیا و اجرای #ممرضاشایع ببینید. انشالله که گامی باشه برای فضای باز و آزاد تر برای هنرمندان #رپ مون.
👎53🤣7🔥51
TondTech
برای تست تو دوره وایب کدینگ دانشکار یه سرویس نوشتم قند و نبات، سر فرصت بهتون میگم 😁😁😁
این همون سرویسه ست که دیشب نوشتم. قشنگیش اینه که کاراکترها رو ثابت نگه میداره تو تصاویر متفاوت
9🔥5👍2👎1
TondTech
چون خارجیا پول نمیدادن، نسخه انگلیسی رفهاب رو به Monetag مسلح کردم :)) تو این چند روز، درآمدش خیلی بیشتر از یکتاپی بود ، اصلا قابل مقایسه نیست، کمه ها، ولی واقعا قابل مقایسه نیست
اینو محدود کردم به اینکه کاربر لاگین نباشه، یا زیر 20 امتیاز داشته باشه، اکثرتون دیگه مشکل نخواهید داشت عزیزانم
2
افسانه‌ی دارا_20251206_180408.pdf
486.8 KB
چون، چند تا مورد باز داشتیم، گفتم اینو یه نسخه قبل از انتشار بدم، هم فیدبک بدین اگه دوست داشتین، هم بدقول نشده باشم.
نسخه اصلی شامل تصویر سازی فصل ها و به صورت چاپی خواهد بود.
توجه داشته باشین این کتاب برای رنج سنی نوجوان هست، اگر جایی پیچش های داستان کم میشه یه سری قانون و rule براش دارن.
خوشحال میشم فیدبک بدین بهم حتما
4
TondTech
پنجشنبه آینده یه برنامه خواهیم داشت در باره اینکه چطور یک محصول مبتنی بر AI و Automation همون Refhub.ir خودمون رو به عنوان یک فاندر و دولوپر و نیمچه مدیرمحصولش توسعه دادم.
این رو هم با یکی از بچه ها صحبت کردیم، قراره یه برنامه خیلی جدی تر بچینیم براش، کار اصولی در بیاد، یه کم زمان میبره تا چیزی که میخوایم رو پلن کنیم، ولی خیلی خفن میشه.
چون پروژه ش باز بود، گفتم در جریان باشید که ماجرا چیه و چرا یهو استاپ شد.
به جاش دوره وایب کدینگ رو برای دانشکار دارم ضبط میکنم تا این یکی زمانش برسه
11
#گزارش_کار
قانون جاذبه زمین
4
شبکه احراز هویت دارک وب ایرانیان:
حدود ۶۹ میلیون رکورد ایرانیان برای فروش در دارک‌وب عرضه شده.
خدا رو شکر برای امنیت
🤣9💔3🔥2😍2😢1
8👍1
Forwarded from tech-afternoon (Amin Mesbahi)
💡 استفاده از GenAI در توسعه نرم‌افزار، خوب، بد، زشت!

چند سالیه که سهم عبارت «AI» لابلای جملات، تیتر اخبار، صحبت‌های یومیه‌ی عوام تا متخصصین، شهروند تا دولتمرد، مصرف‌کننده تا صنعت‌گر روز به روز بیشتر شده. ترم‌هایی مثل Vibe Coding یا AI-Driven Development یا AI Slop به دایره‌ی واژگانمون اضافه شدن. حالا این وسط یه عده سودهای کوتاه‌مدت می‌برن، مثل پکیج‌فروش‌ها، سرویس‌هایی که چند تا API رو صدا می‌کنن و یه سرویس مثلا هوشمند ارائه می‌کنن؛ و برخی هم بیزنس‌های بر پایه‌ی این تحول ایجاد کردن، مثل سازنده‌های مدل‌های پایه، سرویس‌های کاربردی مدیریت AI مثل Agent Manager یا Prompt Engineering Platform و… یا اینکه AI رو مثل یک ابزار دیدن و کاربری اون رو «صحیح و اصولی» یاد گرفتن و مرتبا به‌روز می‌شن تا مثل دورانی که اکثریت با محدودیت‌های نرم‌افزارهای دسکتاپ دست‌وپنجه نرم می‌کردن و عده‌ای خیلی زود و به موقع، توسعه مبتنی بر وب رو جایگزین کردن، بتونن از مواهب AI به نفع بهره‌وری، خلاقیت، و توسعه پایدار بهره ببرن.
این مطلب رو در چند بخش می‌نویسم، با توجه به فضای جامعه توسعه نرم‌افزار، متن رو خیلی مطالعه‌-محور می‌نویسم تا مقاومت کمتری نسبت به تحلیل شخصی داشته باشه؛ اول به «بد»، و در ادامه به «زشت» و نهایتا به «خوب» می‌پردازم:

هوش مصنوعی مولد (GenAI) می‌تونه بهره‌وری رو تا ۵۵٪ افزایش بده، اما اغلب، کدهای ناسازگار و شکننده تولید می‌کنه که نگهداری اون‌ها دشواره. (sloanreview.mit.edu)
توی تیم‌های نوپا، GenAI ضعف‌های فنی رو پوشش می‌دهد اما بدهی فنی ایجاد می‌کنه و حتی تغییرات کوچک‌تغییرات رو پرریسک می‌کنه. (sloanreview.mit.edu)
در شرکت‌های بالغ «با شیوه‌های استاندارد»، GenAI خطاها رو کاهش می‌ده و نوآوری رو تا ۶۴٪ بهبود می‌ده، هرچند نیاز به بررسی انسانی داره. (mckinsey.com)
مطالعات نشون می‌ده ۴۸٪ کدهای GenAI دارای آسیب‌پذیری‌های امنیتی هستن، که البته این یه موضوع بحث‌برانگیزه. (secondtalent.com)

💩 فصل اول: The Bad: بدهی فنی‌ای که نمی‌بینیم

- کد چرخشی (Code Churn): سیگنال خطر: تحقیقات GitClear روی ۲۱۱ میلیون خط کد تغییریافته بین سال‌های ۲۰۲۰ تا ۲۰۲۴ نشون می‌ده که Code Churn (درصد کدی که کمتر از دو هفته پس از نوشته شدن اصلاح یا حذف می‌شه) در سال ۲۰۲۴ دو برابر سال ۲۰۲۱ شده. این یعنی کدی که AI تولید می‌کنه، اغلب ناقص یا اشتباهه و نیاز به بازنگری سریع داره.

- کپی‌پیست به جای معماری: در سال ۲۰۲۴، GitClear افزایش ۸ برابری در بلوک‌های کد تکراری (۵ خط یا بیشتر) رو ثبت کرده (یعنی ۱۰ برابر بیشتر از دو سال پیشش). مشکل اینجاست که AI به جای refactor کردن و استفاده مجدد از کد موجود، ترجیح می‌ده کد جدید بنویسه. نتیجه؟ نقض اصل (DRY (Don't Repeat Yourself و کدبیسی که مدیریتش کابوسه.
در سال ۲۰۲۴، ۴۶٪ تغییرات کد، خطوط جدید بودند و کد کپی‌پیست شده، بیش از کد جابجا شده (moved) بوده (یعنی کمتر refactoring شده و بیشتر به صورت بی‌رویه کد اضافه شده).

- افزایش باگ و کاهش پایداری: مطالعه شرکت Uplevel که توسعه‌دهنده‌های با دسترسی به Copilot رو بررسی کرده، نشون می‌ده این دولوپرها به طور معناداری نرخ باگ بالاتری تولید کردن، در حالی که بهره‌وری کلی‌شون ثابت مونده. گزارش DORA 2024 گوگل هم تأیید می‌کنه: ۲۵٪ افزایش در استفاده از AI منجر به بهبود در code review و مستندات می‌شه، اما ۷.۲٪ کاهش در پایداری تحویل (delivery stability) ایجاد می‌کنه. همچنین گزارش Harness 2025 نشون داد اکثر توسعه‌دهندگان زمان بیشتری صرف debugging کد تولیدشده توسط AI و رفع آسیب‌پذیری‌های امنیتی می‌کنند.


💬 قبل از پردختن به بخش دوم، یعنی «زشت» و بخش سوم، یعنی «خوب» نظرتون رو در مورد استفاده خوب بگید و بنویسید که آیا این آسیب‌ها رو قبول دارین؟
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4💯1