Future – Telegram
Future
683 subscribers
90 photos
103 videos
73 files
201 links
توی این کانال یه سری از موضوعات علمی که ازشون خوشم میاد رو میذارم
خیلی جنراله موضوعات
و یکی دو تا نیس:)
ولی بیشتر این موضوعاته
1. Neural network
2. Casual network
3. Chaos theory
4. Dynamical modelling
5. Reinforcement learning
6. Robotic
Download Telegram
"AI would kill a lot of jobs in future"

AI :
😁9
همونطور که انتظار داشتم chatgpt توی abstraction reasoning افتضاحه :)
(این پرزنتیشن خیلی خوبه برای این قضیه و مشکلی که در AI و به طور کلی توی GPT3 وجود داره، کنفرانس مال سال 2020 عه یعنی قبل از این داستانا کلا)
https://slideslive.com/38935790/abstraction-reasoning-in-ai-systems-modern-perspectives
👍81
یه سایتی رو پیدا کردم که chatgpt 4 رو رایگان گذاشته
اکانت پرمیوم ندارم در نتیجه چکش با خودتون :)
https://nat.dev/
توی توییت های نت فریدمن پیداش کردم
🤩6🔥3👍1
یکی از تکنولوژی هایی که این وسط خیلی گم شده بود و به نظرم جالب اومد MusicLM بود که قابلیت تولید موسیقی از روی متن رو داشت
توی یه بخشی از این مقاله عکس رو به موسیقی تبدیل میکرد که واقعا عجیب بود
گرچه که کیفیت خروجیش زیاد جالب نبود ولی شاید اگه همین رو از open AI ببینیم متفاوت باشه
سایر نمونه هاش
https://google-research.github.io/seanet/musiclm/examples/
👍31🤯1
یه کتابخونه تو پایتون رو میدیدم که میشد باهاش یه مدل زبانی با دیتا های شخصی مثل chatgpt ساخت
عملا میشه یه ویرچوال ماشین شخصی از chatgpt
https://python.langchain.com/en/latest/index.html

مثالش :

https://python.langchain.com/en/latest/modules/agents/agent_executors/examples/chatgpt_clone.html
👍6
اگه کنجکاوید بدونید برای سیستم های MIMO چجوری میشه gain margin و phase margin نوشت، و یا در کل دوست دارید درک بهتری از آنالیز فرکانسی داشته باشید، این مقاله جالبیه

‏⁦ arxiv.org/pdf/2003.04771
3👍1
این سایته شبیه grabcad عه که مجموعه طرح سه بعدی تقریبا همه چیزو داره
پولیه ولی طرحاش خیلی قشنگ و تمیزه
https://3dmodels.org/3d-models/tiangong-1-space-station/
3
دنبال یه روش های سریع و دستی بودم که با کمترین هزینه بشه گشتاور یه موتوری رو اندازه گیری کرد
یه روش پیدا کردم به اسم prony brake dynamometer که جالب بود
https://www.youtube.com/watch?v=_0saBUVP_ps
👍3
توی سرفصل دروس دانشگاهی کنترل، معمولا مسائلی مثل sensitivity خیلی خوب تدریس نمیشه درحالی که خیلی مهمند و تعیین میکنن که چقد یه سیستم در برابر اغتشاشات مقاومند، ویدئوهای استیو برانتون رو دوست داشتم تو این مورد
https://www.youtube.com/watch?v=hTu36q5yx20
https://www.youtube.com/watch?v=hEQdr1G5H2w
5
مقاله جالبی بود که از چالش های ربات های انسان نما در گوگل میگفت
اینکه چی شد بعد از سرمایه گذاری های بیلیون دلاری به جایی نرسید

https://www.wired.com/story/inside-google-mission-to-give-ai-robot-body/
👍3
یه وبسایتی هست که میتونید مدار رو مثل proteus توش انالیز کنید، امروز چشمم خورد به مدار لورنزی که توش طراحی شده بود و جالب بود برام
داشتم فک میکردم وقتی میشه یه chaotic system مدارش طراحی بشه، احتمالا این یه روشی باشه برای random generator
https://falstad.com/circuit/circuitjs.html
8👍2
این پلتفرم n8n برام جالب بود بین همه چیزایی که این مدت دیدم
خیلی زیبا میتونه یه ورک فلو از یه اپ llm بسازه
یه جورایی کار اتومیشن برای chatgpt عه
البته قبلا یه اپ شبیه zapier و ifttt بوده ولی پیوت الانش جالبه

https://blog.n8n.io/create-chatgpt-discord-bot/
5🔥1
نسبت به گذشته از ml فاصله گرفتم و خب بیشتر سمت رباتیک رفتم، یه سری دلایلی پشت این تصمیمم بود که فک میکنم اینجا بد نباشه ازش بگم
با توجه به اینکه خب اگه به پستای قبلی این کانال نگاه کنید بیشتر اثر ماشین لرنینگ میبینید و طبیعتا انسان تغییر میکنه و جهتگیریش نسبت به شرایط عوض میشه.
این تصمیم برمیگرده به تقریبا سه سال پیش زمانی که خیلی داخلش فرو رفته بودم ولی خب احساس کردم که باید بیام بیرون
و اما داستان ...
من رشته کارشناسیم مکانیک بود، آشناییم با هوش مصنوعی و ماشین لرنینگ یا ML برمیگرده به ترم 7 دانشگاه که خب اون موقع برای من 22 ساله یه مقوله جذاب بود. من با RL یا یادگیری تقویتی شروع کردم و با وجود همه کاستی هایی که از نظر شبکه عصبی داشتم تونستم خودمو بالا بکشم (یه جورایی مسیر رو برعکس رفتم عین همیشه) بعد از RL، شبکه عصبی برداشتم و اونجا جایی بود که واقعا ماشین لرنینگ برام جذابتر شد ولی هنوز چیزی که واقعا بیشتر دوستش داشتم RL بود
من تو حوزه ML خوب بودم نسبتا، خوب یعنی پتانسیل مقاله دادن و حداقل پروتوتایپ درست کردن داشتم. کما اینکه مقاله هم توی این زمینه دادم ولی هسته مقاله هام متمرکز بر استفاده از ML برای بهتر کردن الگوریتم های کنترلی بود. یه جورایی تلاشم برای ترکیب الگوریتم ها برای بهتر کردن دانش خودم داخل مکانیک بود. اینجا بود که متوجه شدم یه چیزی توی مسیرم درست نیست
1. من عاشق الگوریتم های RL بودم و اتفاقا توی صنعت این حوزه کمترین درخواست رو داشت. اینجا موندنم تو این حوزه به معنی یه ریسک خیلی بزرگ بود. باید بهترین تو این حوزه میشدم
2. بهترین در حوزه ای که خیلی از بزرگان درحال رقابت با همدیگه ان، به همین راحتی نیس. باید جای خیلی خوب مقاله میدادم، جایی مثل nips یا icml
مقاله دادن داخل یه همچین کنفرانس هایی فقط وابسته به تلاش فردی خودم نبود. نیاز به یه استراکچر درست، یه سوپروایزر درست، یه تیم درست داشت و خب اینجور شرایطی رو نداشتم
3. حوزه های پرطرفدار دیگه ML مثل ویژن (اگه نمیدونید این حوزه چیه، پردازش تصویر درنظر بگیرید گرچه در عمل فرق زیادی بین این دوتا هست) یا nlp (یا پردازش زبان طبیعی که میشه همون chatgpt و ...) ابدا برام جذاب نبودن. از دیتا اماده کردن متنفر بودم. از سروکله زدن با 60 گیگ دیتا متنفر بودم و خب این چیزی نبود که من بخوام مسیر کاریم رو روش بچینم. من الگوریتم دوست داشتم و الگوریتم دوست داشتن به منزله اینه که اگه بخوای بمونی تو این حوزه باید با یه استاد خوب و یه دانشگاه خوب کار کنی.
4. یه مسئله ای که برام مهم شد این بود که متوجه شدم تفاوت هست بین علاقه به مسیر و علاقه به نتیجه. من توی رباتیک علاقه به مسیر داشتم ولی توی ML فقط ده درصد مسیر برام جذاب بود. از اون تغییر دادن پارامتر ها تا رسیدن به نتیجه مطلوب، از آماده کردن مدل حس انزجار داشتم، و البته که نتیجه خیلی برام جذاب بود. ولی ترجیح دادم توی زمینه ای باشم که بیشتر از زندگیم لذت ببرم تا تلاش برای رسیدن به یه نتیجه.
5. من تخمین زدم که یه روزی این مسیر data annotation به پایان خودش نزدیک میشه و من نمیخواستم کسی باشم که بعد از تموم شدن این عصر، تجربه از کارش این باشه که 80 درصد تایمشو روی آماده کردن دیتا گذرونده
همه این دلایل باعث شد که سه سال پیش کناره بگیرم از این حوزه. فک میکنم خیلی از دلایلم شخصی بوده و بنا به شرایط زندگیم. و البته اینو هم میدونم که لزوما تصمیم درست و غلط به طور جنرال وجود نداره، کسایی رو میشناسم که برعکس من تصمیم گرفتن و اتفاقا خیلی هم توی زندگی موفق شدن
شاید یه روزی برگردم، اگه یه سری نشانه ها برام واضح شدن و اگه شبیه تر به اون چیزی بشه که بتونم ازش لذت ببرم ولی الان اونچیزی نیس که میخوام
نمیدونم چرا انقد طولانیش کردم، حس کردم این مسائل رو بهتره یه جایی بگم :)) و کجا بهتر از اینجا
26👍5👏4
یکی از زیباترین کانسپت هایی که باهاش اشنا شدم مسئله The Keynesian Beauty Contest بود
فرض کنید یک بازی انجام می‌شود که در آن هر شرکت‌کننده باید عددی بین ۰ تا ۱۰۰ انتخاب کند. برنده کسی است که عددی نزدیک‌تر به ⅔ میانگین انتخاب‌های همه‌ی شرکت‌کنندگان داشته باشد.

اگر افراد اعدادشان را کاملاً تصادفی انتخاب کنند، میانگین حدود ۵۰ خواهد شد و ⅔ آن 33.33 است. پس انتخاب منطقی می‌تواند 33.33 باشد.
ما اگر شرکت‌کنندگان بدانند که دیگران هم این تحلیل را انجام می‌دهند، پیش‌بینی می‌کنند که بیشتر افراد به جای ۵۰، عددی نزدیک به 33.33 انتخاب خواهند کرد. در این صورت، انتخاب بهینه می‌شود 22.22 (⅔ از 33.33).
👍6
این مسئله نشوندهنده اینه که آدم ها میتونن در لول های مختلفی از همدیگه فک کنن و چقد انتخابهامون متاثر از اینه که فک میکنیم بقیه چجور انتخاب میکنن
به هرکدوم از این مراحل فکری، یک لول اختصاص دادند، یعنی در مرحله اول فکری، انتخاب 33.33 ، در مرحله دوم فکری انتخاب 22.22 و همینطور تا اخر
در تعادل نش (Nash Equilibrium)، اگر همه منطقی رفتار کنند و بی‌نهایت بار استدلال را تکرار کنند، انتخاب نهایی باید 0 باشه
ولی وقتی این ازمایش رو در عمل اجرا کردند همچین نتیجه ای بیرون داد
این نشون میده همه پیش بینی هایی که براساس منطق ادمها انجام میدیم میتونه در یک اسکیل بزرگتر به یک شکل دیگه عمل کنه
در نتیجه، تمام تئوری هایی که ما براساس منطق نش و علم اقتصاد میگیریم میتونه پر از خطا باشه و بهترین راه ازمایش در شرایط واقعیه
اگه دوست داشتید این کانسپت رو این ویدئو بهتر نشونش داده
https://www.youtube.com/watch?v=j8ZVkVjDPxo
👍17
ایده این استارتاپ round.so رو دوست داشتم
ایده اش به این شکله که اومده مسائل لیتکد رو فرم abstract reasoning بهش داده که قابل کپی شدن توسط چت بات ها نباشه
احتمالا باید منتظر یه همچین چیزایی توی کدچلنج اینترویو ها باشیم
https://www.rounds.so/codebrainv1
حالا فراتر از این قضیه به نظرم حتی شاید بتونه تو اینده، به یادگیری چت بات برای حل اینجور مسائل هم کمک کنه. یعنی از کد به عنوان یه middleware ابسترکشن استفاده کنه
7