Dev Tweet – Telegram
Dev Tweet
850 subscribers
113 photos
15 videos
3 files
98 links
گعده‌ای در باب برنامه نویسی، پایتون، هوش مصنوعی و داده
Download Telegram
چرا Grok مهمه؟
با اینکه از Grok2.0 عملکرد حیرت انگیزی ندیدیم. اما از جنبه‌های حفاظت از آزادی بیان بسیار حائز اهمیته.
تصاویر رو ببینید متوجه می‌شید.
یک سوال مشترک در مورد مقایسه آسیایی‌ها و سیاه‌پوست‌های آمریکا از نظر هوش و ارتکاب به جرم از Grok و ChatGPT پرسیده شده.
ببینید Grok چقدر راحت بدون سانسور و فیلتر‌های مربوط به مسائل نژادی یک واقعیت علمی را بیان می‌کنه و اون رو به مسائل اجتماعی-سیاسی گره نمی‌زنه. ارائه چنین مدلی حتما به یک شخصیت قدرتمند و مستقلی مثل ایلان ماسک نیاز داره تا بتونه جلو موج شدید وکیسم در برابر جواب‌های جنجالی احتمالی مدل بیایسته.

اما GPT در جواب اول از جواب دادن طفره میره با اصرار جوابش رو میده.
👍7👎2
https://x.com/fchollet/status/1831383944320970959

فرانسوا شولت خالق keras که از اون فرانسوی‌های خیلی باهوشه، یه توئیت زده که به اصل توئیت‌ش کاری ندارم ولی زیر توئیتش یه کامنت جالب گذاشته برای شما می‌ذارم(در پست بعد).
اگر اصل توئیت رو از لینک باز کنید با دقت خاصی ممکنه متوجه بشید این چهار تا کامنت با اینکه جمله بندی دقیق و تمیزی دارند و حتی به موضوع توئیت نزدیک به نظر می‌رسند ولی خیلی داخل context نیستند! و خب این جای شک رو باز می‌کنه.
خصوصا که اگر نویسنده توئیت(شولت) مطلبی رو منتشر کرده کامنت‌های مطلبش رو با دقتی می‌خونه که بقیه نمی‌خونن و تونسته تشخیص بده این چهارتا پیام که یه جوریه کلا توسط LLM تولید شده!
چه بسا با کنکاش بیشتر بشه فهمید این اکانت‌ها کلا AI based هستند.
دقت کنید این مطلب رو کسی با ضریب هوشی شولت متوجه شده(که پنج تا زبان رو مسلطه در همه‌شون در حد native مسلطه و واقعا باهوشی‌های دیگه‌ای هم داره).
حالا خطرش کجاس؟ خودش میگه(در پست بعد میارم)
👍2
Dev Tweet
https://x.com/fchollet/status/1831383944320970959 فرانسوا شولت خالق keras که از اون فرانسوی‌های خیلی باهوشه، یه توئیت زده که به اصل توئیت‌ش کاری ندارم ولی زیر توئیتش یه کامنت جالب گذاشته برای شما می‌ذارم(در پست بعد). اگر اصل توئیت رو از لینک باز کنید با دقت…
میگه چند وقت پیش داشتیم سر این حرف می‌زدیم که به زودی social media پر میشه از اکانت‌های AI based که آدم پشتش نیست و این تهدید بزرگی برای وب هست! میگه به ذهنم رسید چرا تا همین الان اینطوری نشده باشه که مثه اینکه شده...
خطر اصلی پر شدن وب از محتوای ai-generated که به سرعت بیشتر از محتوای انسانی تولید می‌شه و از محتوای انسانی هم قابل تشخیص نیست چیه؟!
رشد AI رو متوقف می‌کنه!
طبیعیه که شما هر قدر هم LLMهاتون رو به محتوایی که خودشون تولید کردن آموزش بدید بیشتر یاد نمی‌گیرن و اینطوری داده با کیفیت از بین میره!
این خطرش برای AI هست و جدا از ده‌ها خطر اجتماعی که می‌تونه داشته باشه!
👍6
Forwarded from DevTweet Chat
اینکه «آیا مدل می‌تونه از داده‌ای که خودش تولید کرده چیز جدیدی یاد بگیره و به دانش بالاتری برسه؟» خیلی سوال کلیدی‌ایه!
کلی مقاله در این باره‌ها هست. منم قبلا یه دونه ازش اینجا گذاشتم(این).
اما همون مقاله‌ هم نمیشه ازش نتیجه گرفت که مدل‌های مولد می‌تونند از تولیدات خودشون یاد بگیرند.
حداقل مد‌لهای مولد موجود احتمالا نمی‌توانند از تولیدات خودشون یاد بگیرند.
فرض کنید این اتفاق بیفته! میشه شبیه نقض قانون پایستگی انرژی! یا همون ایده موتور دائمی (perpetual motion machine) که از حرکت موتور از طریق یک دینام باتری موتور شارژ میشه و همینطور موتور تا بی نهایت کار می‌کنه و باتری خودش رو شارژ ‌می‌کنه یعنی یک حلقه بدون اتلاف که از محالات واضح فیزیک است و میدونیم کلا توی دنیا خیلی آدمهای احمق خواستند این ایده رو بفروشن(که اینکه بارها در صدا و سیما ج.ا این ایده به عنوان ایده‌ی مخترع نابغه ایرانی به فروش رفته)، مشابه‌ش این میشه که در این حالت شما مدلی دارید که بی نهایت دانش تولید میکنه دائم یاد میگیره و دانش تولید میکنه و دائم از اون یاد می‌گیره که خب به نظر می‌رسه به لحاظ فلسفی نشدنی باشه.
👍5
حتما این دو دقیقه رو ببنید!

احتمالا با مفهوم ai agentهای software development آشنا هستید.
اینجا پلتفرم معروف replit که اول یک IDEA آنلاین و ابزاری pair coding بود و کم کم شد رقیب copilot مایکروسافت دیروز هم محصول وحشتناک Replit Agent رو ارائه کرد.
با محصولی که یک روزه منتشر شده کاربراش یک لندینگ پیج متصل به دیتابیس رو زیر چهار دقیقه توسعه دادند!
دقت کنید سرویس لندینگ پیج نخریده بلکه از زدن کد تا ستاپ محیط توسعه و نصب پیکیج‌های مورد نیاز و تا راه‌ اندازی دیتابیس و اتصال به دیتابیس همه رو زیر چهار دقیقه انجام داده!

قدم بعدی این سیستم‌ها فقط یاد گرفتن طراحی معماری‌های پیچیده توسعه است و گرنه همین الانش هم دیگه رسما نقش برنامه‌نویس mid-level , junior با این AI Agent گرفته شده.

فقط شما قیمت‌ها رو ببین با ماهی 20 دلار(تازه پلن سالانه ش ماهی 10 دلاره) به راحتی میشه همه‌ی برنامه نویس‌های جونیور رو تعدیل کرد.
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
ببنید چقدر ترسناکه:))

یه تیکه کد رندم که یه کد html هست از gpt برداشته گذاشته توی Replit میگه( یک خط پرامپت میده) "یه کاری کن کار کنه" (Make it work)!!
تمام کدها و کانفیگ‌هایی که لازم بوده که اون کد html کار کنه رو خود Replit زده. تازه یک صفحه استاتیک هم نزده قشنگ با faskapi سرو کرده کد رو.

به عنوان یه برنامه نویس کاملا باید در توانائی‌هامون تجدید نظر کنیم.
اگه ما هم صرفا همین قابلیت‌ها رو داریم، کم کم که نه خیلی سریع داریم «به درد نخور» میشیم:((
🤯7👎2❤‍🔥1
روایت یک شیادی بزرگ در LLM!
(دروغی به اسم Reflection Tuning)
اگر در مورد Reflection Tuning که چند روز پیش یه دفعه افتاد سر زبان نمی‌دونید این دو جا رو بخونید
https://news.1rj.ru/str/cvision/3691
https://news.1rj.ru/str/pytens/1546

شخصی به اسم مت شامر اومد ادعای عجیبی کرد:
یک مدل 70 میلیارد پارامتری داره که نه تنها Llama 3.1 با 405 میلیارد رو در همه‌ی بنچمارکها پشت سر میذاره مدل مشابه خودش که Llama 3 هست و 70 میلیارد داره رو قاطعانه شکست میداد و از مدلهای closed-source‌ مثه GPT-4o و Sonnet 3.5 که هنوز معلوم نیست چند تا پارامتر دارند هم بهتره!
حالا ایشون چی کار کرده!؟
گویا ایشون با وجود اینکه یه نسخه از مدلش رو گذاشته روی هاگیینگ فیس اما کسائی که اومدن اون مدل رو ران کردن دیدن واقعا نتایجش در حد GPT-4o و Sonnet 3.5 نیست.
بعد گفته API هم میدم ولی API ش کار نمیکرده گفته دارم آپدیت میکنم
بعد گفته توکن خصوصی API ام رو میدم چند تا شرکت و محقق بررسی کنن. یکی از شرکتها بعد از بررسی ها گفته API ای که گرفتیم با مدلی که از هاگینگ فیس دانلود کردیم مطابقت نداره!
بعد اومدن prompt engineering‌ کردن فهمیدن این بنده خدا اومده برای APIش یک Wrapper روی Claudia Sonnet 3.5 نوشته که کلید واژه Claudia‌ رو از نتایج حذف میکرده:))


این موضوع حتی دستمایه طنز هم شده
https://x.com/tamaybes/status/1833292271829323939
اینجا یه کاربر اومده میگه من یه روش tuning دادم به اسم Deception-Tuning یعنی تیونینگ فریب!(داره تیکه میاندازه به رفلکشن)

اصل ماجرا با مستندات کامل رو از اینجا بخونید!
🤣7👍2
This media is not supported in your browser
VIEW IN TELEGRAM
در نگاه اول کار یدی بصورت ریموته، که باعث بازار کار بین المللی میشه.
در نگاه دوم، جمع آوری training data برای آموزش رباتیه که خیلی سریع جایگزین همون کارگر میشه.
دقت کنید با این عینک VR و کنترلر، perceptor و acctuator ربات و کارگر دقیقا یک چیزه! یعنی ربات همون چیزی رو میبینه که کارگر می‌بینه و با همون چیزی عمل می‌کنه که کارگر عمل میکنه. بهترین دیتاست:)
🤯32
This media is not supported in your browser
VIEW IN TELEGRAM
قدیمی ولی بسیار شنیدنی!
Old but Gold
تفاوت علم و آکادمی
Science vs Academia
👍5👎2
این جواب مدل جدید OpenAI، یعنی ChatGPT ،o1 بهترین گواهه واسه اینکه این مدل واقعا جواباش خفنه:))
چون واقعا هیچ کسی دقیقا نمیدونه چطور میشه CUDA رو نصب کرد. نصب CUDA حاصل چند روز تلاش پارتیزانی در نصب و حذف پکیج‌هاست:)
😁3👏1
Magic Intelligence 😂😂
🤣21
جهش ۲۰ واحدی در IQ هوش مصنوعی


جدول مربوط به تست IQ شش ماه پیش است که بیشترین ضریب هوشی آن یعنی کلودیا-۳ آی‌کیو را ۱۰۱ کسب کرده.
نمودار نرمال تست IQ مربوط به یک آزمایش اخیر است که GPT-o1 preview به ۱۲۰ رسیده.
یعنی طی شش ماه ۱۹ واحد افزایش در هوش!
البته در یک تست آفلاین یعنی تستی که هیچ وقت سوالات آن در اینترنت نبوده به ۱۰۰ رسیده است.
👍5
استفاده از مدل‌های زبانی برای دور زدن فیلترینگ:)

امروز یه کار عجیبی با Sonnet 3.5 کردم!
یه لینک رو میخواستم باز کنم باز نمیشد حتی با وی‌پی‌ان!
لیست پکیج‌های اون سایت در اون لینک بود باید باز میکردم تا پکیج مورد نظرم رو پیدا کنم.
مدل Sonnet3.5 میتونه یک url رو باز کنه و صفحه رو بخونه.
بهش گفتم لینک پکیج با فلان شرایط رو از این URL‌ بهم بده:) رفت صفحه رو خوند لینکش رو داد:)
حالا بازم نمیتونستم دانلود کنم.
رفتم لینک رو توی colab با wget دانلود کردم! سرعت اینترنت colab مثل سرعت نوره!
بعد از Google Driver دانلود کردم:)
😁11🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
ایجنت پژوهشی خفن! (PaperQA2)
این ایجنت که به همراه مقاله و به صورت متن باز منتشر شده در بعضی از تسک‌های پژوهشی از دانشجوهای دکتری و محققین پس‌داک هم بهتر عمل کرده!
این برتری بر دانشجوی دکتری و پس‌داک وقتی سوالات خیلی خاص‌تر مطرح میشن برجسته‌تر میشه این خودش رو در یک بنچ‌مارک نشون داده.
اگر در پروژه ارشد یا دکتری literature review کرده باشید و واقعا سعی کرده باشید کار دقیق و عمیق و درست و حسابی انجام بدهید می‌دونید چقدر کار سخت، نیازمند حوصله‌ و دقته. واقعا بیش از ۷۰ درصد یک پژوهش همین بررسی دقیق کارهای پیشینه که خیلی هم کار سیستماتیک و روش‌مندی نیست.
چند دقیقه کار کردن با این ابزار واقعا جایگزین چند هفته تلاش و پژوهش دقیق یک دانشجو باتجربه PhD ئه.

سوالی که داره جواب میده یکی از سخت‌ترین سوالات و مهمترین سوالات یک مرور ادبیات در مرور کارهای پیشینه! سوال تاریخی!
جواب دادن به سوالات تاریخی نیازمند تایملاین کردن ده‌ها پژوهش و شناسائی تاثیراتشون روی همه. حتی جمع آوری اون مقالات کار سختیه چه برسه ترک کردن یک موضوع خاص در این همه مقالات در طول زمان و توصیف تغییراتش.
منبع: توئیت
👍3🔥1
Dev Tweet
ایجنت پژوهشی خفن! (PaperQA2) این ایجنت که به همراه مقاله و به صورت متن باز منتشر شده در بعضی از تسک‌های پژوهشی از دانشجوهای دکتری و محققین پس‌داک هم بهتر عمل کرده! این برتری بر دانشجوی دکتری و پس‌داک وقتی سوالات خیلی خاص‌تر مطرح میشن برجسته‌تر میشه این خودش…
اومدن برای 2000 تا ژن در فرمت ویکی پدیا یک ویکی جدید ساختن به اسم WikiCrow که از اطلاعات هر کدوم از این ژن‌ها یک article ویکی بسازه. ویکی‌ها رو دادن به دانشجو‌های دکتری و پس‌داک دیدن مطالبی که نوشته از مطالب ویکی پدیا خیلی بهتره!
👍5
Dev Tweet
نوبل فیزیک رو دادن به جفری هینتون:))😳 به خاطر کارش در بولتزمن ماشین‌ها Boltzmann machine جایزه مشترک با جان هاپفیلد منبع
اطلاعات غیر مفید:
یه نفر دیگه هم بود به جز جفری هینتون که هم تورینگ برنده شده هم نوبل.
البته نوبلش اقتصاده نه فیزیک.
آقای هربرت سیمون(Herbert A. Simon).
دهه ۷۰ میلادی.
و جالبه که اونم بخاطر کار در حوزه‌ی AI هر دو جایزه رو گرفته!
یعنی کارش در حوزه‌ی AI منجر به نوبل اقتصاد شده!

ACM's Turing Award for making "basic contributions to artificial intelligence, the psychology of human cognition, and list processing" (1975)
Nobel Memorial Prize in Economics "for his pioneering research into the decision-making process within economic organizations" (1978)
👍3