Future – Telegram
Future
684 subscribers
90 photos
103 videos
73 files
201 links
توی این کانال یه سری از موضوعات علمی که ازشون خوشم میاد رو میذارم
خیلی جنراله موضوعات
و یکی دو تا نیس:)
ولی بیشتر این موضوعاته
1. Neural network
2. Casual network
3. Chaos theory
4. Dynamical modelling
5. Reinforcement learning
6. Robotic
Download Telegram
این سایته شبیه grabcad عه که مجموعه طرح سه بعدی تقریبا همه چیزو داره
پولیه ولی طرحاش خیلی قشنگ و تمیزه
https://3dmodels.org/3d-models/tiangong-1-space-station/
3
دنبال یه روش های سریع و دستی بودم که با کمترین هزینه بشه گشتاور یه موتوری رو اندازه گیری کرد
یه روش پیدا کردم به اسم prony brake dynamometer که جالب بود
https://www.youtube.com/watch?v=_0saBUVP_ps
👍3
توی سرفصل دروس دانشگاهی کنترل، معمولا مسائلی مثل sensitivity خیلی خوب تدریس نمیشه درحالی که خیلی مهمند و تعیین میکنن که چقد یه سیستم در برابر اغتشاشات مقاومند، ویدئوهای استیو برانتون رو دوست داشتم تو این مورد
https://www.youtube.com/watch?v=hTu36q5yx20
https://www.youtube.com/watch?v=hEQdr1G5H2w
5
مقاله جالبی بود که از چالش های ربات های انسان نما در گوگل میگفت
اینکه چی شد بعد از سرمایه گذاری های بیلیون دلاری به جایی نرسید

https://www.wired.com/story/inside-google-mission-to-give-ai-robot-body/
👍3
یه وبسایتی هست که میتونید مدار رو مثل proteus توش انالیز کنید، امروز چشمم خورد به مدار لورنزی که توش طراحی شده بود و جالب بود برام
داشتم فک میکردم وقتی میشه یه chaotic system مدارش طراحی بشه، احتمالا این یه روشی باشه برای random generator
https://falstad.com/circuit/circuitjs.html
8👍2
این پلتفرم n8n برام جالب بود بین همه چیزایی که این مدت دیدم
خیلی زیبا میتونه یه ورک فلو از یه اپ llm بسازه
یه جورایی کار اتومیشن برای chatgpt عه
البته قبلا یه اپ شبیه zapier و ifttt بوده ولی پیوت الانش جالبه

https://blog.n8n.io/create-chatgpt-discord-bot/
5🔥1
نسبت به گذشته از ml فاصله گرفتم و خب بیشتر سمت رباتیک رفتم، یه سری دلایلی پشت این تصمیمم بود که فک میکنم اینجا بد نباشه ازش بگم
با توجه به اینکه خب اگه به پستای قبلی این کانال نگاه کنید بیشتر اثر ماشین لرنینگ میبینید و طبیعتا انسان تغییر میکنه و جهتگیریش نسبت به شرایط عوض میشه.
این تصمیم برمیگرده به تقریبا سه سال پیش زمانی که خیلی داخلش فرو رفته بودم ولی خب احساس کردم که باید بیام بیرون
و اما داستان ...
من رشته کارشناسیم مکانیک بود، آشناییم با هوش مصنوعی و ماشین لرنینگ یا ML برمیگرده به ترم 7 دانشگاه که خب اون موقع برای من 22 ساله یه مقوله جذاب بود. من با RL یا یادگیری تقویتی شروع کردم و با وجود همه کاستی هایی که از نظر شبکه عصبی داشتم تونستم خودمو بالا بکشم (یه جورایی مسیر رو برعکس رفتم عین همیشه) بعد از RL، شبکه عصبی برداشتم و اونجا جایی بود که واقعا ماشین لرنینگ برام جذابتر شد ولی هنوز چیزی که واقعا بیشتر دوستش داشتم RL بود
من تو حوزه ML خوب بودم نسبتا، خوب یعنی پتانسیل مقاله دادن و حداقل پروتوتایپ درست کردن داشتم. کما اینکه مقاله هم توی این زمینه دادم ولی هسته مقاله هام متمرکز بر استفاده از ML برای بهتر کردن الگوریتم های کنترلی بود. یه جورایی تلاشم برای ترکیب الگوریتم ها برای بهتر کردن دانش خودم داخل مکانیک بود. اینجا بود که متوجه شدم یه چیزی توی مسیرم درست نیست
1. من عاشق الگوریتم های RL بودم و اتفاقا توی صنعت این حوزه کمترین درخواست رو داشت. اینجا موندنم تو این حوزه به معنی یه ریسک خیلی بزرگ بود. باید بهترین تو این حوزه میشدم
2. بهترین در حوزه ای که خیلی از بزرگان درحال رقابت با همدیگه ان، به همین راحتی نیس. باید جای خیلی خوب مقاله میدادم، جایی مثل nips یا icml
مقاله دادن داخل یه همچین کنفرانس هایی فقط وابسته به تلاش فردی خودم نبود. نیاز به یه استراکچر درست، یه سوپروایزر درست، یه تیم درست داشت و خب اینجور شرایطی رو نداشتم
3. حوزه های پرطرفدار دیگه ML مثل ویژن (اگه نمیدونید این حوزه چیه، پردازش تصویر درنظر بگیرید گرچه در عمل فرق زیادی بین این دوتا هست) یا nlp (یا پردازش زبان طبیعی که میشه همون chatgpt و ...) ابدا برام جذاب نبودن. از دیتا اماده کردن متنفر بودم. از سروکله زدن با 60 گیگ دیتا متنفر بودم و خب این چیزی نبود که من بخوام مسیر کاریم رو روش بچینم. من الگوریتم دوست داشتم و الگوریتم دوست داشتن به منزله اینه که اگه بخوای بمونی تو این حوزه باید با یه استاد خوب و یه دانشگاه خوب کار کنی.
4. یه مسئله ای که برام مهم شد این بود که متوجه شدم تفاوت هست بین علاقه به مسیر و علاقه به نتیجه. من توی رباتیک علاقه به مسیر داشتم ولی توی ML فقط ده درصد مسیر برام جذاب بود. از اون تغییر دادن پارامتر ها تا رسیدن به نتیجه مطلوب، از آماده کردن مدل حس انزجار داشتم، و البته که نتیجه خیلی برام جذاب بود. ولی ترجیح دادم توی زمینه ای باشم که بیشتر از زندگیم لذت ببرم تا تلاش برای رسیدن به یه نتیجه.
5. من تخمین زدم که یه روزی این مسیر data annotation به پایان خودش نزدیک میشه و من نمیخواستم کسی باشم که بعد از تموم شدن این عصر، تجربه از کارش این باشه که 80 درصد تایمشو روی آماده کردن دیتا گذرونده
همه این دلایل باعث شد که سه سال پیش کناره بگیرم از این حوزه. فک میکنم خیلی از دلایلم شخصی بوده و بنا به شرایط زندگیم. و البته اینو هم میدونم که لزوما تصمیم درست و غلط به طور جنرال وجود نداره، کسایی رو میشناسم که برعکس من تصمیم گرفتن و اتفاقا خیلی هم توی زندگی موفق شدن
شاید یه روزی برگردم، اگه یه سری نشانه ها برام واضح شدن و اگه شبیه تر به اون چیزی بشه که بتونم ازش لذت ببرم ولی الان اونچیزی نیس که میخوام
نمیدونم چرا انقد طولانیش کردم، حس کردم این مسائل رو بهتره یه جایی بگم :)) و کجا بهتر از اینجا
26👍5👏4
یکی از زیباترین کانسپت هایی که باهاش اشنا شدم مسئله The Keynesian Beauty Contest بود
فرض کنید یک بازی انجام می‌شود که در آن هر شرکت‌کننده باید عددی بین ۰ تا ۱۰۰ انتخاب کند. برنده کسی است که عددی نزدیک‌تر به ⅔ میانگین انتخاب‌های همه‌ی شرکت‌کنندگان داشته باشد.

اگر افراد اعدادشان را کاملاً تصادفی انتخاب کنند، میانگین حدود ۵۰ خواهد شد و ⅔ آن 33.33 است. پس انتخاب منطقی می‌تواند 33.33 باشد.
ما اگر شرکت‌کنندگان بدانند که دیگران هم این تحلیل را انجام می‌دهند، پیش‌بینی می‌کنند که بیشتر افراد به جای ۵۰، عددی نزدیک به 33.33 انتخاب خواهند کرد. در این صورت، انتخاب بهینه می‌شود 22.22 (⅔ از 33.33).
👍6
این مسئله نشوندهنده اینه که آدم ها میتونن در لول های مختلفی از همدیگه فک کنن و چقد انتخابهامون متاثر از اینه که فک میکنیم بقیه چجور انتخاب میکنن
به هرکدوم از این مراحل فکری، یک لول اختصاص دادند، یعنی در مرحله اول فکری، انتخاب 33.33 ، در مرحله دوم فکری انتخاب 22.22 و همینطور تا اخر
در تعادل نش (Nash Equilibrium)، اگر همه منطقی رفتار کنند و بی‌نهایت بار استدلال را تکرار کنند، انتخاب نهایی باید 0 باشه
ولی وقتی این ازمایش رو در عمل اجرا کردند همچین نتیجه ای بیرون داد
این نشون میده همه پیش بینی هایی که براساس منطق ادمها انجام میدیم میتونه در یک اسکیل بزرگتر به یک شکل دیگه عمل کنه
در نتیجه، تمام تئوری هایی که ما براساس منطق نش و علم اقتصاد میگیریم میتونه پر از خطا باشه و بهترین راه ازمایش در شرایط واقعیه
اگه دوست داشتید این کانسپت رو این ویدئو بهتر نشونش داده
https://www.youtube.com/watch?v=j8ZVkVjDPxo
👍17
ایده این استارتاپ round.so رو دوست داشتم
ایده اش به این شکله که اومده مسائل لیتکد رو فرم abstract reasoning بهش داده که قابل کپی شدن توسط چت بات ها نباشه
احتمالا باید منتظر یه همچین چیزایی توی کدچلنج اینترویو ها باشیم
https://www.rounds.so/codebrainv1
حالا فراتر از این قضیه به نظرم حتی شاید بتونه تو اینده، به یادگیری چت بات برای حل اینجور مسائل هم کمک کنه. یعنی از کد به عنوان یه middleware ابسترکشن استفاده کنه
7
یکی از چیزایی که خیلی وقتا نیاز میشه برای اپلیکیشن های رباتیک اینه که بخوایم ربات رو به سرور وصل کنیم
توی این ریپو اومدم یه نود ros2 (که سیستم عامل نسبتا به دردبخوری برای اپلیکیشن های رباتیکه) با پروتکل mqtt به کلاود وصل کردم

https://github.com/AlirezaBeigiMech/Bridge_ROS2_MQTT
👏5
This media is not supported in your browser
VIEW IN TELEGRAM
یکی از تئوری های موسیقی که خیلی جالبه برام، نظریه نئو-ریمانین عه
این نظریه یه ابزار تصوری به اسم شبکه تونال (Tonnetz) داره یک شبکه ای از آکوردهای ماژور و مینور را به شکل مثلث‌های بهم متصل نشون میده. هر مثلث نشون دهنده یک آکورد سه‌صداییه، و مثلث‌هایی که ضلع مشترک دارند یا به هم نزدیک‌اند، آکوردهایی هستند که با عملیات ساده قابل تبدیل به هم‌ دیگن.

سه عملیات اصلی داره

P (Parallel): تغییر بین ماژور و مینور با نت پایه یکسان
(مثل C major ↔️ C minor)

R (Relative): تغییر بین آکوردهای ماژور و مینور هم‌خانواده
(مثل C major ↔️ A minor)

L (Leading-tone exchange): تغییر یک نت برای حرکت به آکوردی با نقش مشابه
(مثل C major ↔️ E minor)
سایر عملیات ها میتونه ترکیب این عملیات های اصلی باشه

حالا اینجا یه مثال اوردم از کتاب Audacious Euphony که بخشی از سمفونی برامس رو در این قالب بررسی کرده
Brahms, Symphony no. 1, fourth movement, measures 185–223

https://global.oup.com/us/companion.websites/9780199772698/resources/chapt8/

این نظریه محدودیت های خاص خودش رو داره ولی اون دید ابسترکتی که به مسئله داشته رو دوس داشتم
8
Future
یه سایتی که توش یه لیستی از چلنج های ماشین لرنینگی رو میتونید ببینید https://eval.ai/web/challenges/list
یکی از چلنج هاش رو که دیدم، این مدل MyoSuite رو پیدا کردم که عملا ماهیچه های بدن انسان رو شبیه سازی کرده و داخل یه محیط gym اورده
هدفشون بررسی الگوریتم های RL روی یادگیری ماهیچه های انسانه

https://myosuite.readthedocs.io/en/latest/suite.html

تسک های چلنج امسالشون این دوتاست
بازی تنیس رو میز و پنالتی
2
کسی اینجا هست که با neural operator ها کار کرده باشه یا تجربه اشو داشته باشه؟
👎1
این هفته ای که گذشت این ریپو رو بالا اوردم
یه سیستم دینامیکی که با پروتکل CAN کار میکنه رو شبیه سازی کردم با ابزارهایی که کرنل لینوکس در اختیار ادم میگذاره
برای اینکار یه درایور داخل کرنل لینوکس نوشتم که عملا کنترلر یه سیستم سرماسازه و با پروتکل CAN به سیستم متصله و سعی میکنه با دیتای دماهایی که از سیستم میگیره رادیاتور و پمپ شبیه سازی شده سیستم رو تنظیم میکنه
https://github.com/AlirezaBeigiMech/EAE_Firmware
👍71