این سایته شبیه grabcad عه که مجموعه طرح سه بعدی تقریبا همه چیزو داره
پولیه ولی طرحاش خیلی قشنگ و تمیزه
https://3dmodels.org/3d-models/tiangong-1-space-station/
پولیه ولی طرحاش خیلی قشنگ و تمیزه
https://3dmodels.org/3d-models/tiangong-1-space-station/
3dmodels.org
3D model of Tiangong-1 Space Station
3D model is available for download ☝ ➦ in FBX, OBJ, 3DS, and C4D file formats, compatible with over 23 modeling software. Asset is ready for rendering.
❤3
دنبال یه روش های سریع و دستی بودم که با کمترین هزینه بشه گشتاور یه موتوری رو اندازه گیری کرد
یه روش پیدا کردم به اسم prony brake dynamometer که جالب بود
https://www.youtube.com/watch?v=_0saBUVP_ps
یه روش پیدا کردم به اسم prony brake dynamometer که جالب بود
https://www.youtube.com/watch?v=_0saBUVP_ps
YouTube
Prony Brake Dynamometer | How Prony Brake Dynamometer is Used
In this video, I have explained about dynamometers, what are dynamometers? and why they are used? How Prony Brake dynamometer works.
____________________________________________________
Want to become a blogger, content writer, or content creator?, but don't…
____________________________________________________
Want to become a blogger, content writer, or content creator?, but don't…
👍3
توی سرفصل دروس دانشگاهی کنترل، معمولا مسائلی مثل sensitivity خیلی خوب تدریس نمیشه درحالی که خیلی مهمند و تعیین میکنن که چقد یه سیستم در برابر اغتشاشات مقاومند، ویدئوهای استیو برانتون رو دوست داشتم تو این مورد
https://www.youtube.com/watch?v=hTu36q5yx20
https://www.youtube.com/watch?v=hEQdr1G5H2w
https://www.youtube.com/watch?v=hTu36q5yx20
https://www.youtube.com/watch?v=hEQdr1G5H2w
YouTube
Control Bootcamp: Sensitivity and Complementary Sensitivity
Here we explore the sensitivity and complementary sensitivity functions, which are critical in understanding robustness and performance.
Code available at: faculty.washington.edu/sbrunton/control_bootcamp_code.zip
These lectures follow Chapters 1 & 3…
Code available at: faculty.washington.edu/sbrunton/control_bootcamp_code.zip
These lectures follow Chapters 1 & 3…
❤5
مقاله جالبی بود که از چالش های ربات های انسان نما در گوگل میگفت
اینکه چی شد بعد از سرمایه گذاری های بیلیون دلاری به جایی نرسید
https://www.wired.com/story/inside-google-mission-to-give-ai-robot-body/
اینکه چی شد بعد از سرمایه گذاری های بیلیون دلاری به جایی نرسید
https://www.wired.com/story/inside-google-mission-to-give-ai-robot-body/
WIRED
Inside Google’s 7-Year Mission to Give AI a Robot Body
As the head of Alphabet’s AI-powered robotics moonshot, I came to believe many things. For one, robots can’t come soon enough. For another, they shouldn’t look like us.
👍3
یه وبسایتی هست که میتونید مدار رو مثل proteus توش انالیز کنید، امروز چشمم خورد به مدار لورنزی که توش طراحی شده بود و جالب بود برام
داشتم فک میکردم وقتی میشه یه chaotic system مدارش طراحی بشه، احتمالا این یه روشی باشه برای random generator
https://falstad.com/circuit/circuitjs.html
داشتم فک میکردم وقتی میشه یه chaotic system مدارش طراحی بشه، احتمالا این یه روشی باشه برای random generator
https://falstad.com/circuit/circuitjs.html
❤8👍2
یه کانال یوتیوب بود که خیلی تمیز کانسپت های ریاضی رو توضیح میداد
https://youtube.com/@3blue1brown?si=0-UCtNYdxcy29TYz
حالا کد پایتون تولید کلیپ هاشونو اپن سورس کردن
https://github.com/3b1b/videos
https://youtube.com/@3blue1brown?si=0-UCtNYdxcy29TYz
حالا کد پایتون تولید کلیپ هاشونو اپن سورس کردن
https://github.com/3b1b/videos
YouTube
3Blue1Brown
My name is Grant Sanderson. Videos here cover a variety of topics in math, or adjacent fields like physics and CS, all with an emphasis on visualizing the core ideas. The goal is to use animation to help elucidate and motivate otherwise tricky topics, and…
👍12
این پلتفرم n8n برام جالب بود بین همه چیزایی که این مدت دیدم
خیلی زیبا میتونه یه ورک فلو از یه اپ llm بسازه
یه جورایی کار اتومیشن برای chatgpt عه
البته قبلا یه اپ شبیه zapier و ifttt بوده ولی پیوت الانش جالبه
https://blog.n8n.io/create-chatgpt-discord-bot/
خیلی زیبا میتونه یه ورک فلو از یه اپ llm بسازه
یه جورایی کار اتومیشن برای chatgpt عه
البته قبلا یه اپ شبیه zapier و ifttt بوده ولی پیوت الانش جالبه
https://blog.n8n.io/create-chatgpt-discord-bot/
❤5🔥1
نسبت به گذشته از ml فاصله گرفتم و خب بیشتر سمت رباتیک رفتم، یه سری دلایلی پشت این تصمیمم بود که فک میکنم اینجا بد نباشه ازش بگم
با توجه به اینکه خب اگه به پستای قبلی این کانال نگاه کنید بیشتر اثر ماشین لرنینگ میبینید و طبیعتا انسان تغییر میکنه و جهتگیریش نسبت به شرایط عوض میشه.
این تصمیم برمیگرده به تقریبا سه سال پیش زمانی که خیلی داخلش فرو رفته بودم ولی خب احساس کردم که باید بیام بیرون
و اما داستان ...
من رشته کارشناسیم مکانیک بود، آشناییم با هوش مصنوعی و ماشین لرنینگ یا ML برمیگرده به ترم 7 دانشگاه که خب اون موقع برای من 22 ساله یه مقوله جذاب بود. من با RL یا یادگیری تقویتی شروع کردم و با وجود همه کاستی هایی که از نظر شبکه عصبی داشتم تونستم خودمو بالا بکشم (یه جورایی مسیر رو برعکس رفتم عین همیشه) بعد از RL، شبکه عصبی برداشتم و اونجا جایی بود که واقعا ماشین لرنینگ برام جذابتر شد ولی هنوز چیزی که واقعا بیشتر دوستش داشتم RL بود
من تو حوزه ML خوب بودم نسبتا، خوب یعنی پتانسیل مقاله دادن و حداقل پروتوتایپ درست کردن داشتم. کما اینکه مقاله هم توی این زمینه دادم ولی هسته مقاله هام متمرکز بر استفاده از ML برای بهتر کردن الگوریتم های کنترلی بود. یه جورایی تلاشم برای ترکیب الگوریتم ها برای بهتر کردن دانش خودم داخل مکانیک بود. اینجا بود که متوجه شدم یه چیزی توی مسیرم درست نیست
1. من عاشق الگوریتم های RL بودم و اتفاقا توی صنعت این حوزه کمترین درخواست رو داشت. اینجا موندنم تو این حوزه به معنی یه ریسک خیلی بزرگ بود. باید بهترین تو این حوزه میشدم
2. بهترین در حوزه ای که خیلی از بزرگان درحال رقابت با همدیگه ان، به همین راحتی نیس. باید جای خیلی خوب مقاله میدادم، جایی مثل nips یا icml
مقاله دادن داخل یه همچین کنفرانس هایی فقط وابسته به تلاش فردی خودم نبود. نیاز به یه استراکچر درست، یه سوپروایزر درست، یه تیم درست داشت و خب اینجور شرایطی رو نداشتم
3. حوزه های پرطرفدار دیگه ML مثل ویژن (اگه نمیدونید این حوزه چیه، پردازش تصویر درنظر بگیرید گرچه در عمل فرق زیادی بین این دوتا هست) یا nlp (یا پردازش زبان طبیعی که میشه همون chatgpt و ...) ابدا برام جذاب نبودن. از دیتا اماده کردن متنفر بودم. از سروکله زدن با 60 گیگ دیتا متنفر بودم و خب این چیزی نبود که من بخوام مسیر کاریم رو روش بچینم. من الگوریتم دوست داشتم و الگوریتم دوست داشتن به منزله اینه که اگه بخوای بمونی تو این حوزه باید با یه استاد خوب و یه دانشگاه خوب کار کنی.
4. یه مسئله ای که برام مهم شد این بود که متوجه شدم تفاوت هست بین علاقه به مسیر و علاقه به نتیجه. من توی رباتیک علاقه به مسیر داشتم ولی توی ML فقط ده درصد مسیر برام جذاب بود. از اون تغییر دادن پارامتر ها تا رسیدن به نتیجه مطلوب، از آماده کردن مدل حس انزجار داشتم، و البته که نتیجه خیلی برام جذاب بود. ولی ترجیح دادم توی زمینه ای باشم که بیشتر از زندگیم لذت ببرم تا تلاش برای رسیدن به یه نتیجه.
5. من تخمین زدم که یه روزی این مسیر data annotation به پایان خودش نزدیک میشه و من نمیخواستم کسی باشم که بعد از تموم شدن این عصر، تجربه از کارش این باشه که 80 درصد تایمشو روی آماده کردن دیتا گذرونده
همه این دلایل باعث شد که سه سال پیش کناره بگیرم از این حوزه. فک میکنم خیلی از دلایلم شخصی بوده و بنا به شرایط زندگیم. و البته اینو هم میدونم که لزوما تصمیم درست و غلط به طور جنرال وجود نداره، کسایی رو میشناسم که برعکس من تصمیم گرفتن و اتفاقا خیلی هم توی زندگی موفق شدن
شاید یه روزی برگردم، اگه یه سری نشانه ها برام واضح شدن و اگه شبیه تر به اون چیزی بشه که بتونم ازش لذت ببرم ولی الان اونچیزی نیس که میخوام
نمیدونم چرا انقد طولانیش کردم، حس کردم این مسائل رو بهتره یه جایی بگم :)) و کجا بهتر از اینجا
با توجه به اینکه خب اگه به پستای قبلی این کانال نگاه کنید بیشتر اثر ماشین لرنینگ میبینید و طبیعتا انسان تغییر میکنه و جهتگیریش نسبت به شرایط عوض میشه.
این تصمیم برمیگرده به تقریبا سه سال پیش زمانی که خیلی داخلش فرو رفته بودم ولی خب احساس کردم که باید بیام بیرون
و اما داستان ...
من رشته کارشناسیم مکانیک بود، آشناییم با هوش مصنوعی و ماشین لرنینگ یا ML برمیگرده به ترم 7 دانشگاه که خب اون موقع برای من 22 ساله یه مقوله جذاب بود. من با RL یا یادگیری تقویتی شروع کردم و با وجود همه کاستی هایی که از نظر شبکه عصبی داشتم تونستم خودمو بالا بکشم (یه جورایی مسیر رو برعکس رفتم عین همیشه) بعد از RL، شبکه عصبی برداشتم و اونجا جایی بود که واقعا ماشین لرنینگ برام جذابتر شد ولی هنوز چیزی که واقعا بیشتر دوستش داشتم RL بود
من تو حوزه ML خوب بودم نسبتا، خوب یعنی پتانسیل مقاله دادن و حداقل پروتوتایپ درست کردن داشتم. کما اینکه مقاله هم توی این زمینه دادم ولی هسته مقاله هام متمرکز بر استفاده از ML برای بهتر کردن الگوریتم های کنترلی بود. یه جورایی تلاشم برای ترکیب الگوریتم ها برای بهتر کردن دانش خودم داخل مکانیک بود. اینجا بود که متوجه شدم یه چیزی توی مسیرم درست نیست
1. من عاشق الگوریتم های RL بودم و اتفاقا توی صنعت این حوزه کمترین درخواست رو داشت. اینجا موندنم تو این حوزه به معنی یه ریسک خیلی بزرگ بود. باید بهترین تو این حوزه میشدم
2. بهترین در حوزه ای که خیلی از بزرگان درحال رقابت با همدیگه ان، به همین راحتی نیس. باید جای خیلی خوب مقاله میدادم، جایی مثل nips یا icml
مقاله دادن داخل یه همچین کنفرانس هایی فقط وابسته به تلاش فردی خودم نبود. نیاز به یه استراکچر درست، یه سوپروایزر درست، یه تیم درست داشت و خب اینجور شرایطی رو نداشتم
3. حوزه های پرطرفدار دیگه ML مثل ویژن (اگه نمیدونید این حوزه چیه، پردازش تصویر درنظر بگیرید گرچه در عمل فرق زیادی بین این دوتا هست) یا nlp (یا پردازش زبان طبیعی که میشه همون chatgpt و ...) ابدا برام جذاب نبودن. از دیتا اماده کردن متنفر بودم. از سروکله زدن با 60 گیگ دیتا متنفر بودم و خب این چیزی نبود که من بخوام مسیر کاریم رو روش بچینم. من الگوریتم دوست داشتم و الگوریتم دوست داشتن به منزله اینه که اگه بخوای بمونی تو این حوزه باید با یه استاد خوب و یه دانشگاه خوب کار کنی.
4. یه مسئله ای که برام مهم شد این بود که متوجه شدم تفاوت هست بین علاقه به مسیر و علاقه به نتیجه. من توی رباتیک علاقه به مسیر داشتم ولی توی ML فقط ده درصد مسیر برام جذاب بود. از اون تغییر دادن پارامتر ها تا رسیدن به نتیجه مطلوب، از آماده کردن مدل حس انزجار داشتم، و البته که نتیجه خیلی برام جذاب بود. ولی ترجیح دادم توی زمینه ای باشم که بیشتر از زندگیم لذت ببرم تا تلاش برای رسیدن به یه نتیجه.
5. من تخمین زدم که یه روزی این مسیر data annotation به پایان خودش نزدیک میشه و من نمیخواستم کسی باشم که بعد از تموم شدن این عصر، تجربه از کارش این باشه که 80 درصد تایمشو روی آماده کردن دیتا گذرونده
همه این دلایل باعث شد که سه سال پیش کناره بگیرم از این حوزه. فک میکنم خیلی از دلایلم شخصی بوده و بنا به شرایط زندگیم. و البته اینو هم میدونم که لزوما تصمیم درست و غلط به طور جنرال وجود نداره، کسایی رو میشناسم که برعکس من تصمیم گرفتن و اتفاقا خیلی هم توی زندگی موفق شدن
شاید یه روزی برگردم، اگه یه سری نشانه ها برام واضح شدن و اگه شبیه تر به اون چیزی بشه که بتونم ازش لذت ببرم ولی الان اونچیزی نیس که میخوام
نمیدونم چرا انقد طولانیش کردم، حس کردم این مسائل رو بهتره یه جایی بگم :)) و کجا بهتر از اینجا
❤26👍5👏4
یه مشکلی که خیلی اذیت میشدم، نصب ros روی ویندوز بود
یه روش با استفاده از داکر پیدا کردم که این نصب رو خیلی خیلی راحتتر کرده
https://www.linkedin.com/posts/johnvial_the-biggest-mistake-engineers-make-when-starting-activity-7294239453185781760-qSSO/
یه روش با استفاده از داکر پیدا کردم که این نصب رو خیلی خیلی راحتتر کرده
https://www.linkedin.com/posts/johnvial_the-biggest-mistake-engineers-make-when-starting-activity-7294239453185781760-qSSO/
Linkedin
The biggest mistake engineers make when starting robotics?
Installing… | Dr. John Vial | 45 comments
Installing… | Dr. John Vial | 45 comments
The biggest mistake engineers make when starting robotics?
Installing Ubuntu and ROS directly on their computer.
It's a recipe for disaster: broken dependencies, conflicting libraries, and hours of frustration trying to get everything to work together.…
Installing Ubuntu and ROS directly on their computer.
It's a recipe for disaster: broken dependencies, conflicting libraries, and hours of frustration trying to get everything to work together.…
🔥6
یکی از زیباترین کانسپت هایی که باهاش اشنا شدم مسئله The Keynesian Beauty Contest بود
فرض کنید یک بازی انجام میشود که در آن هر شرکتکننده باید عددی بین ۰ تا ۱۰۰ انتخاب کند. برنده کسی است که عددی نزدیکتر به ⅔ میانگین انتخابهای همهی شرکتکنندگان داشته باشد.
اگر افراد اعدادشان را کاملاً تصادفی انتخاب کنند، میانگین حدود ۵۰ خواهد شد و ⅔ آن 33.33 است. پس انتخاب منطقی میتواند 33.33 باشد.
ما اگر شرکتکنندگان بدانند که دیگران هم این تحلیل را انجام میدهند، پیشبینی میکنند که بیشتر افراد به جای ۵۰، عددی نزدیک به 33.33 انتخاب خواهند کرد. در این صورت، انتخاب بهینه میشود 22.22 (⅔ از 33.33).
فرض کنید یک بازی انجام میشود که در آن هر شرکتکننده باید عددی بین ۰ تا ۱۰۰ انتخاب کند. برنده کسی است که عددی نزدیکتر به ⅔ میانگین انتخابهای همهی شرکتکنندگان داشته باشد.
اگر افراد اعدادشان را کاملاً تصادفی انتخاب کنند، میانگین حدود ۵۰ خواهد شد و ⅔ آن 33.33 است. پس انتخاب منطقی میتواند 33.33 باشد.
ما اگر شرکتکنندگان بدانند که دیگران هم این تحلیل را انجام میدهند، پیشبینی میکنند که بیشتر افراد به جای ۵۰، عددی نزدیک به 33.33 انتخاب خواهند کرد. در این صورت، انتخاب بهینه میشود 22.22 (⅔ از 33.33).
👍6
این مسئله نشوندهنده اینه که آدم ها میتونن در لول های مختلفی از همدیگه فک کنن و چقد انتخابهامون متاثر از اینه که فک میکنیم بقیه چجور انتخاب میکنن
به هرکدوم از این مراحل فکری، یک لول اختصاص دادند، یعنی در مرحله اول فکری، انتخاب 33.33 ، در مرحله دوم فکری انتخاب 22.22 و همینطور تا اخر
در تعادل نش (Nash Equilibrium)، اگر همه منطقی رفتار کنند و بینهایت بار استدلال را تکرار کنند، انتخاب نهایی باید 0 باشه
ولی وقتی این ازمایش رو در عمل اجرا کردند همچین نتیجه ای بیرون داد
این نشون میده همه پیش بینی هایی که براساس منطق ادمها انجام میدیم میتونه در یک اسکیل بزرگتر به یک شکل دیگه عمل کنه
در نتیجه، تمام تئوری هایی که ما براساس منطق نش و علم اقتصاد میگیریم میتونه پر از خطا باشه و بهترین راه ازمایش در شرایط واقعیه
اگه دوست داشتید این کانسپت رو این ویدئو بهتر نشونش داده
https://www.youtube.com/watch?v=j8ZVkVjDPxo
به هرکدوم از این مراحل فکری، یک لول اختصاص دادند، یعنی در مرحله اول فکری، انتخاب 33.33 ، در مرحله دوم فکری انتخاب 22.22 و همینطور تا اخر
در تعادل نش (Nash Equilibrium)، اگر همه منطقی رفتار کنند و بینهایت بار استدلال را تکرار کنند، انتخاب نهایی باید 0 باشه
ولی وقتی این ازمایش رو در عمل اجرا کردند همچین نتیجه ای بیرون داد
این نشون میده همه پیش بینی هایی که براساس منطق ادمها انجام میدیم میتونه در یک اسکیل بزرگتر به یک شکل دیگه عمل کنه
در نتیجه، تمام تئوری هایی که ما براساس منطق نش و علم اقتصاد میگیریم میتونه پر از خطا باشه و بهترین راه ازمایش در شرایط واقعیه
اگه دوست داشتید این کانسپت رو این ویدئو بهتر نشونش داده
https://www.youtube.com/watch?v=j8ZVkVjDPxo
👍17
ایده این استارتاپ round.so رو دوست داشتم
ایده اش به این شکله که اومده مسائل لیتکد رو فرم abstract reasoning بهش داده که قابل کپی شدن توسط چت بات ها نباشه
احتمالا باید منتظر یه همچین چیزایی توی کدچلنج اینترویو ها باشیم
https://www.rounds.so/codebrainv1
حالا فراتر از این قضیه به نظرم حتی شاید بتونه تو اینده، به یادگیری چت بات برای حل اینجور مسائل هم کمک کنه. یعنی از کد به عنوان یه middleware ابسترکشن استفاده کنه
ایده اش به این شکله که اومده مسائل لیتکد رو فرم abstract reasoning بهش داده که قابل کپی شدن توسط چت بات ها نباشه
احتمالا باید منتظر یه همچین چیزایی توی کدچلنج اینترویو ها باشیم
https://www.rounds.so/codebrainv1
حالا فراتر از این قضیه به نظرم حتی شاید بتونه تو اینده، به یادگیری چت بات برای حل اینجور مسائل هم کمک کنه. یعنی از کد به عنوان یه middleware ابسترکشن استفاده کنه
❤7
این هفته یه ریویویی روی مفاهیم اصلی c++ داشتم و یه سری نمونه کد درست کردم که بعدا اگه مجدد نیاز داشتم برم سراغش
https://github.com/AlirezaBeigiMech/CPP_Cheatsheet
https://github.com/AlirezaBeigiMech/CPP_Cheatsheet
GitHub
GitHub - AlirezaBeigiMech/CPP_Cheatsheet: Simple and practical examples of fundamental C++ concepts such as arrays, pointers, classes…
Simple and practical examples of fundamental C++ concepts such as arrays, pointers, classes, templates, inheritance, polymorphism, error handling, and preprocessor directives. This collection is de...
👍5
یکی از چیزایی که خیلی وقتا نیاز میشه برای اپلیکیشن های رباتیک اینه که بخوایم ربات رو به سرور وصل کنیم
توی این ریپو اومدم یه نود ros2 (که سیستم عامل نسبتا به دردبخوری برای اپلیکیشن های رباتیکه) با پروتکل mqtt به کلاود وصل کردم
https://github.com/AlirezaBeigiMech/Bridge_ROS2_MQTT
توی این ریپو اومدم یه نود ros2 (که سیستم عامل نسبتا به دردبخوری برای اپلیکیشن های رباتیکه) با پروتکل mqtt به کلاود وصل کردم
https://github.com/AlirezaBeigiMech/Bridge_ROS2_MQTT
GitHub
GitHub - AlirezaBeigiMech/Bridge_ROS2_MQTT: example of integrating ROS2 with an MQTT broker using C++. Demonstrates subscribing…
example of integrating ROS2 with an MQTT broker using C++. Demonstrates subscribing to ROS2 topics and publishing messages to MQTT with secure SSL connections. Designed for learning, prototyping, a...
👏5
This media is not supported in your browser
VIEW IN TELEGRAM
یکی از تئوری های موسیقی که خیلی جالبه برام، نظریه نئو-ریمانین عه
این نظریه یه ابزار تصوری به اسم شبکه تونال (Tonnetz) داره یک شبکه ای از آکوردهای ماژور و مینور را به شکل مثلثهای بهم متصل نشون میده. هر مثلث نشون دهنده یک آکورد سهصداییه، و مثلثهایی که ضلع مشترک دارند یا به هم نزدیکاند، آکوردهایی هستند که با عملیات ساده قابل تبدیل به هم دیگن.
سه عملیات اصلی داره
P (Parallel): تغییر بین ماژور و مینور با نت پایه یکسان
(مثل C major ↔️ C minor)
R (Relative): تغییر بین آکوردهای ماژور و مینور همخانواده
(مثل C major ↔️ A minor)
L (Leading-tone exchange): تغییر یک نت برای حرکت به آکوردی با نقش مشابه
(مثل C major ↔️ E minor)
سایر عملیات ها میتونه ترکیب این عملیات های اصلی باشه
حالا اینجا یه مثال اوردم از کتاب Audacious Euphony که بخشی از سمفونی برامس رو در این قالب بررسی کرده
Brahms, Symphony no. 1, fourth movement, measures 185–223
https://global.oup.com/us/companion.websites/9780199772698/resources/chapt8/
این نظریه محدودیت های خاص خودش رو داره ولی اون دید ابسترکتی که به مسئله داشته رو دوس داشتم
این نظریه یه ابزار تصوری به اسم شبکه تونال (Tonnetz) داره یک شبکه ای از آکوردهای ماژور و مینور را به شکل مثلثهای بهم متصل نشون میده. هر مثلث نشون دهنده یک آکورد سهصداییه، و مثلثهایی که ضلع مشترک دارند یا به هم نزدیکاند، آکوردهایی هستند که با عملیات ساده قابل تبدیل به هم دیگن.
سه عملیات اصلی داره
P (Parallel): تغییر بین ماژور و مینور با نت پایه یکسان
(مثل C major ↔️ C minor)
R (Relative): تغییر بین آکوردهای ماژور و مینور همخانواده
(مثل C major ↔️ A minor)
L (Leading-tone exchange): تغییر یک نت برای حرکت به آکوردی با نقش مشابه
(مثل C major ↔️ E minor)
سایر عملیات ها میتونه ترکیب این عملیات های اصلی باشه
حالا اینجا یه مثال اوردم از کتاب Audacious Euphony که بخشی از سمفونی برامس رو در این قالب بررسی کرده
Brahms, Symphony no. 1, fourth movement, measures 185–223
https://global.oup.com/us/companion.websites/9780199772698/resources/chapt8/
این نظریه محدودیت های خاص خودش رو داره ولی اون دید ابسترکتی که به مسئله داشته رو دوس داشتم
❤8
یه سایتی که توش یه لیستی از چلنج های ماشین لرنینگی رو میتونید ببینید
https://eval.ai/web/challenges/list
https://eval.ai/web/challenges/list
EvalAI
EvalAI: Evaluating state of the art in AI
EvalAI is an open-source web platform for organizing and participating in challenges to push the state of the art on AI tasks.
👍3❤2
Future
یه سایتی که توش یه لیستی از چلنج های ماشین لرنینگی رو میتونید ببینید https://eval.ai/web/challenges/list
یکی از چلنج هاش رو که دیدم، این مدل MyoSuite رو پیدا کردم که عملا ماهیچه های بدن انسان رو شبیه سازی کرده و داخل یه محیط gym اورده
هدفشون بررسی الگوریتم های RL روی یادگیری ماهیچه های انسانه
https://myosuite.readthedocs.io/en/latest/suite.html
تسک های چلنج امسالشون این دوتاست
بازی تنیس رو میز و پنالتی
هدفشون بررسی الگوریتم های RL روی یادگیری ماهیچه های انسانه
https://myosuite.readthedocs.io/en/latest/suite.html
تسک های چلنج امسالشون این دوتاست
بازی تنیس رو میز و پنالتی
❤2
این هفته ای که گذشت این ریپو رو بالا اوردم
یه سیستم دینامیکی که با پروتکل CAN کار میکنه رو شبیه سازی کردم با ابزارهایی که کرنل لینوکس در اختیار ادم میگذاره
برای اینکار یه درایور داخل کرنل لینوکس نوشتم که عملا کنترلر یه سیستم سرماسازه و با پروتکل CAN به سیستم متصله و سعی میکنه با دیتای دماهایی که از سیستم میگیره رادیاتور و پمپ شبیه سازی شده سیستم رو تنظیم میکنه
https://github.com/AlirezaBeigiMech/EAE_Firmware
یه سیستم دینامیکی که با پروتکل CAN کار میکنه رو شبیه سازی کردم با ابزارهایی که کرنل لینوکس در اختیار ادم میگذاره
برای اینکار یه درایور داخل کرنل لینوکس نوشتم که عملا کنترلر یه سیستم سرماسازه و با پروتکل CAN به سیستم متصله و سعی میکنه با دیتای دماهایی که از سیستم میگیره رادیاتور و پمپ شبیه سازی شده سیستم رو تنظیم میکنه
https://github.com/AlirezaBeigiMech/EAE_Firmware
GitHub
GitHub - AlirezaBeigiMech/EAE_Firmware: PID control of cooling system with CAN simulation
PID control of cooling system with CAN simulation - GitHub - AlirezaBeigiMech/EAE_Firmware: PID control of cooling system with CAN simulation
👍7❤1