Deep Time – Telegram
Deep Time
3.78K subscribers
101 photos
10 videos
7 files
297 links
Machine Learning 💻 Quantitative Finance💲Time Series 📈 Artificial Intelligence 🤖Data Science 📚 Startup 🚀
Download Telegram
کتاب ساختن: راهنمایی نامعمول برای ساختن چیز‌هایی که ارزش ساخته شدن دارند. اثر تونی فیدال

Build: An Unorthodox Guide to Making Things Worth Making

تونی فیدال ساختن را نوشته است چون هر کسی نیاز دارد کاری معنادار انجام دهد و حقش است که معلم و مربی داشته باشد؛ کسی که این روند را دیده باشد، انجامش داده باشد. کسی که در کنار استیور جابز آیپاد را ساخت و در بسیاری از شرکت‌های بزرگ کار کرد.

@deeptimeai
👍114
بعد از حل کردن بحث تمرکز، بهینگی در یادگیری و procrastivity چه خطری ما رو تهدید میکنه؟

نکته خیلی مهمی که در زمان ما، یعنی زمانی که دسترسی به دانش، کتاب های عالی، پادکست‌های با کیفیت و ... راحت هست وجود داره اینه که ممکنه ما صرفا مصرف کننده دانش بشیم. طبق تعریف جدید که از سواد ارائه شد، تنها دانشی مارو باسواد میکنه که در عمل به کار گرفته بشه. دانشی که در زندگی به کار گرفته میشه خرد هست.

پس چه کنیم که صرفا مصرف‌کننده دانش نباشیم و در عمل از دانش استفاده کنیم؟

۱_ اولین قدم همینه که به نکته بالا آگاه باشیم یعنی بدونیم ممکنه این دانش در ما تثبیت نشده باشه.

۲_ دومین قدم به نظرم یادداشت برداری و خلاصه برداری از کتاب‌ها و ویدئو هاست و در مورد کلاس‌های تخصصی، جزوه نوشتن/ کد نوشتن. فقط لحظه شروعش که میخوای قلم کاغذو بیاری سخته. مطمئنم کسی از یادداشت برداری نمیمیره!

۳_ سومین قدم این هست که مواردی که دریافت کردیم رو برای بقیه توضیح/ارائه بدیم. این مورد بسیار کمک کننده خواهد بود.

و با این موارد حالا ما تازه به سطحی رسیدیم که از دانش کسب شده در عمل استفاده کنیم.

پ.ن: در مورد procrastivity و راه‌حل‌های برطرف کردنش از منظر علوم شناختی به زودی مینویسم.

@deeptimeai
👍195💯1
یکی از بهترین منابع برای شروع یادگیری همزمان پایتون و ماشین لرنینگ با پایتون:

سری ویدئو Kaggle's 30 days of ML از Abhishek Thakur قهرمان مسابقات kaggle

چرا این دوره؟ به این دلیل که نسبت به دوره‌های دیگه برای شروع از صفر خیلی سریع به صورت practical دست به کد میشید و میرید سر اصل مطلب.
بنابراین با این دوره راه میفتید و اعتماد به نفس میگیرید، و بعد از اون میشه ضعف‌های تئوری و ابزار رو با دوره‌ها و پروژه‌های بعدی پوشش داد. لینک۱ لینک۲ لینک۳ رو ببینید. یادگیری در این حوزه هيچوقت تمامی نداره.

دو مورد اصلی در یادگیری یک مهارت به شکل خیلی کلی، بحث شروع کردن و ادامه دادن هست. بسیاری از آدم‌ها شروع نمیکنن و بسیاری صرفا شروع میکنن و ادامه‌ای در کار نیست. طبق آماری که مدرس همین دوره در توییترش گفت تعداد بازدید از ویدئوی اول بالای ۱۰ برابر اکثر ویدئوهای بعدی هست و نوشت این یعنی فقط ۱۰ درصد افرادی که شروع کردن ادامه هم دادن.

به نظرم هیچ زمانی برای یادگیری یک مهارت پرفکت نخواهد بود: شروع کنید و ادامه هم بدید؛ با هر میزان زمان و به هر شکلی که شده.

پ.ن.: برای باز شدن سایت kaggle یا گاهی برای ران گرفتن در kaggle به اینترنت بدون فیلتر نیاز هست. اگر مشکل داشتید همین کد‌هارو در colab تمرین کنید.
@deeptimeai
👍259👎1
یکی از نشانه‎‌های کدنویسی حرفه‌ای در پایتون: استفاده (به موقع) از decorator

در زبان پایتون، decorator یک الگوی طراحی هست که میتونه به توابعی (یا کلاس‌هایی) که از قبل تعریف شدن یک functionality یا عملکرد جدید بده. این عملکرد میتونه سریع‌تر کردن اجرای تابع، تعیین زمان اجرای تابع، تنظیمات خاص برای کلاس، دیباگ کردن و ... باشه. پیشنهاد میکنم از این لینک حتما یکسری decorator کاربردی را یاد بگیرید و البته با استفاده از مطالب این پست، مهارتتون رو تثبیت کنید.

پ.ن: اگر سایت towardsdatascience یا medium براتون پیام میده که تعداد پست رایگانتون تموم شده و باید ثبت نام کنید کافیه صرفا لینک رو از یک صفحه incognito (ناشناس) باز کنید.
@deeptimeai
👍176
هوش مصنوعی Generative AI بیشتر کدوم شغل‌های این حوزه رو تهدید میکنه؟ یا کدوم دسته از شغل‌های هوش مصنوعی با حضور Generative AI بیشتر در خطر تعدیل هستن؟!

همونطور که عملا از اخبار مشخصه، یکسری از شرکت‌ها در حال تعدیل نیروهاشون هستن و گاها اونارو با هوش مصنوعی جایگزین میکنن. حالا سوال این هست که به چه سمتی حرکت کنیم که با خطر کمتری مواجه باشیم.

برای جواب به این سوال باید برگردیم به مفاهیم. در ماشین لرنینگ مفهومی داریم به نام Bayes Error که به معنی کمترین حد از خطاست که یک مدل میتونه بهش برسه. در انسان هم به همین منوال Human-level Error یا خطای سطح انسان رو داریم. در یکسری مسائل مثل تشخیص صورت آدم‌ها، تشخیص اشیا، درکِ زبان و متن و ... انسان خطای بسیار پایینی داره. در واقع این موارد در حیطه درک طبیعی هوش انسان هست. یعنی Human Natural Perception یا شهودی

نکته اساسی اینجاست که مدل‌های هوش مصنوعی هم دقیقا در مسائلی با کمترین دخالت انسانی به طور دقیق کار کردن که در حوزه درک طبیعی هوش انسان بوده مثل تصویر یعنی computer vision و زبان یعنی NLP. در این مسائل مدل‌های deep learning همیشه تونستن خودشون فیچر بسازن و تقریبا هیچ نیازی به فیچرسازی توسط انسان نبوده و دخالت انسان به مرور کمتر و کمتر شده و کل پروسه automate شده.
اما در حوزه‌هایی که Human-level Error بالاست و مسائل انتزاعی و غیر شهودی هستن و انسان با هوش خودش نمیتونه راحت مسئله رو حل کنه، بازی فرق داره. یک انسان برای مثال نمیتونه میزان تقاضای برق یک منطقه رو با هوش طبیعیش پیشبینی کنه (حتی اگر متخصص این حوزه باشه). چرا؟ چون مسئله صدها بعد عددی داره. همچنین انسان با هوش طبیعیش نمیتونه قیمت سهام یک شرکت رو پیشبینی کنه. در این دسته مسائل به طور جالبی هوش مصنوعی هم نمیتونه به تنهایی و بدون حضور متخصص انسانی خوب باشه. این دسته مسائل همیشه در همکاری تیمی انسان و هوش مصنوعی خوب حل شدن. یعنی همیشه به یک انسان متخصص نیاز بوده تا مسئله رو خوب تعریف کنه، با ابزار و دانشش از domain expertise فیچر های خاص بسازه و پروسه ساخت مدل رو تحلیل کنه.

به همین دلیل هست که AWS یک سیستم خودکار تشخیص چهره داره میشه راحت نصب کرد یا مثلا چیزی مثل chatGPT میتونه حرف بزنه و سوالات زبانی رو جواب بده. اما مدل آماده‌ای نداریم که بیاد پیشبینی و ترید کنه تو بازار یا تقاضای خرده فروشی اجناس رو پیشبینی کنه، یا برای مسئله تغییر اقلیم تصمیم گیری کنه. این مسائل اکثرا tabular data هستن. پس متخصص شدن در کار با داده tabular در domain expertise های مختلف (فایننس، انرژی، سیاست و جامعه و ...) احتمالا انتخاب هوشمندانه تری هست.

@deeptimeai
👍165💯2
ChatGPT Code Interpreter (alpha)

با این پلاگین جدید chatGPT میشه فایل، عکس و دیتا آپلود کرد و درخواست‌های خبیثانه داشت! دیتارو تحلیل میکنه، ویدئو ادیتینگ انجام میده و کارهای مختلف دیگه.
Link

البته باز هم به نظرم اولویت این هست که مهارت درست prompt نوشتن رو یاد بگیریم که خصوصا برای برنامه‌نویس‌ها ضروری هست. و کی بهتر از Andrew Ng به همراه تیم OpenAI که یک کورس برای این کار ساختن. برای این کورس 1.5 ساعتی رایگان ثبت نام کنید:

ChatGPT Prompt Engineering for Developers

@deeptimeai
👍83👎1
نمیتونی شکستش بدی، بهش ملحق شو!

جمله بالا توییت چند سال پیش ایلان ماسک بود درباره رشد هوش مصنوعی.
اگر امروز بگم که مطمئنم فلان سهم تا آینده مشخصی n برابر میشه احتمالا خیلیا بخوان روش سرمایه بذارن. اما اگر بگم فلان حوزه و فلان تخصص قرار هست تمام صنایع و شغل‌هارو از بیخ متحول کنه و اکثر پول‌های دنیارو به خودش جذب کنه، حاضرید روی اون تخصص چند سال وقت بذارید؟ هوش مصنوعی و خصوصا Generative AI، نه تنها صنایعی مثل پزشکی، فایننس، سرگرمی و سینما، معماری و طراحی، مکانیک و ... رو داره شدیدا متحول میکنه، بلکه در خود شرکت‌های حوزه داده و تکنولوژی باعث تعدیل نیرو شده. فقط میزان سرمایه‌گذاری روی Generative AI رو ببینید که تو همین چند ماه از سال ۲۰۲۳ چقدر از کل ۲۰۲۲ جلو زده.

@deeptimeai
👍20😱21
Deep Time
بعد از حل کردن بحث تمرکز، بهینگی در یادگیری و procrastivity چه خطری ما رو تهدید میکنه؟ نکته خیلی مهمی که در زمان ما، یعنی زمانی که دسترسی به دانش، کتاب های عالی، پادکست‌های با کیفیت و ... راحت هست وجود داره اینه که ممکنه ما صرفا مصرف کننده دانش بشیم. طبق…
تشخیص و راهکار مقابله با یکی از بزرگترین معضلات تمرکز یعنی procrastivity

از قبل قرار شد در این مورد بنویسم. شناخت این مسئله نه تنها در سطح فردی بلکه در سطح مدیریتی اهمیت بالایی داره. از تعریف شروع میکنیم:
تعریف:
همونطور که قبلا صحبت شد، بر خلاف procrastination که به معنی اهمال یا به نوعی وقت هدر دادن هست، procrastivity یعنی انجام یک کار مفید که اولویت و ضرورت نیست. برای مثال خوندن یک مطلب علمی غیر مرتبط بجای اتمام پروژه‌ای که در دست داریم.

چرا procrastivity اتفاق می افتد؟
زیرا آن کاری که بجای کار اصلی انجام میدهیم ویژگی‌های زیر را نسبت به کار اصلی دارد:
- مسیر و اعمال شناخته‌ شده‌ تر هست
- معمولا دستی و فیزیکی تر هست
- تخمین زمان واضح تر هست
- وجود ارتباط مستقیم تر بین تلاش و نتیجه
- پایان مشخص و خوشایند است

راهکار مدیریت procrastivity:
راهکار اساسی مقابله با این حالت، مقابله با حس ناخوشاندیست (حس ugh) که از شروع کار اصلی (اولویت اول) داریم که عبارتند از:
- شروع با حداقل اقدام عملی ممکن
- ترسیم اجزا و مراحل انجام کار
- تخصیص زمان مقرر برای هر مرحله
- تبدیل انتزاعی به جامد و مجسم

در این مورد همچنین پیشنهاد میکنم کتاب شروع کردن را تمام کنید، تمام کردن را شروع کنید رو مطالعه کنید. ضمن اینکه این کتاب مربوط به متودولوژی Kanban هست که شبیه Scrum یک متودولوژی توسعه چابک برای پروژه‌های نرم افزاریست.

@deeptimeai
👍264
Deep Time
بهترین نوع مدل برای مسائل Tabular Data؟
کمتر از ۵۰ درصد درست جواب دادن!
و جواب درست مشخصا انتخاب یا ترکیبی از مدل‌هاست‌. در لینکی که در آخر این پست درباره گزارش مسابقات kaggle و داده tabular گذاشته بودم (اگر خونده بودین!) مشخص هست که مثلا در مسابقه اخیر american express، برنده مسابقه مدل ترکیبی از یادگیری عمیق و boosting استفاده کرده.

نکته اینجاست که اگر ۱۰۰ تا پست Medium و ... خوندید که گفته در مسائل tabular یادگیری عمیق از مدل‌های بر مبنای درخت ضعیف تر هست باید بدونید که اونها صرفا دارن مقایسه میکنن اما در عمل ترکیب این مدل‌ها یا انتخاب یکی از اینها در مسابقات و مسائل مختلف برنده بوده.

@deeptimeai
👍81
Deep Time
کمتر از ۵۰ درصد درست جواب دادن! و جواب درست مشخصا انتخاب یا ترکیبی از مدل‌هاست‌. در لینکی که در آخر این پست درباره گزارش مسابقات kaggle و داده tabular گذاشته بودم (اگر خونده بودین!) مشخص هست که مثلا در مسابقه اخیر american express، برنده مسابقه مدل ترکیبی…
اما باز هم نکته مهم‌تر، همونطور که اینجا دقیق صحبت شد، این هست که مسائل tabular کاملا از هر مسئله به مسئله دیگه متفاوت هستن و اصلا نمیشه مدل یا معماری یا best practice خاصی مثل مسائل vision یا NLP براشون معین کرد. این جای شکر داره از این نظر که هوش مصنوعی Generative AI و چیزی مثل ChatGPT مشخصا قادر به حل این مسائل (tabular) به طور فول اتومات نخواهد بود و شغل شما امن تر هست.

@deeptimeai
👍91
به چیزی فراتر از Transformerها، Diffusion مدل‌ها و chatGPT نیاز داریم! به این مقدار دلخوش نباشید!

همیشه گفته میشه که هوش مصنوعی از زمان پیدایش Deep Learning تونست مراحل feature selection و feature extraction رو حذف و اتومات سازی کنه و به نوعی مسائل end-to-end حل شدن.

ولی این اشتباه هست. جمله بالا صرفا برای داده‌های تصویر و متن و ... صدق میکنه. وقتی داده ما شد داده structured data و جدولی، یک انسان با تخصص در حوزه اون مسئله خاص (مالی، ترافیک، آب و هوا و ...) یا به اصطلاح با domain expertise باید بیاد و feature تعریف و مهندسی کنه. مثلا من میام برای یک مسئله فایننس تعریف میکنم میانگین ۳ دقیقه حجم ورودی به سهم به روی میانگین ۳۰ دقیقه یک فیچر اساسی هست.
در این مسائل همچنان انگار انسانِ متخصص نور رو میندازه و بعد هوش مصنوعی قادر به مدلسازی خواهد بود.

به همین سبک Generative AI هم در داده‌های تصویری و زبانی رشد کرد. اما در مسائل پیچیده که از جنس اعداد جدولی هستن اوضاع اصلا خوب نیست. این که هنوز هوش مصنوعی در مسائل جدولی قادر به تحلیل، Generate به معنای واقعی، و ساخت فیچر نیست یعنی عملا ما به چیزی فراتر از Transformer ها و Diffusion مدل‌ها و LLM ها (مدل‌های زبانی بزرگ مثل chatGPT) نیاز داریم.

@deeptimeai
👍131😁1
Deep Time
به چیزی فراتر از Transformerها، Diffusion مدل‌ها و chatGPT نیاز داریم! به این مقدار دلخوش نباشید! همیشه گفته میشه که هوش مصنوعی از زمان پیدایش Deep Learning تونست مراحل feature selection و feature extraction رو حذف و اتومات سازی کنه و به نوعی مسائل end-to…
راه حل؟ باید به مفاهیم برگشت. به بایاس‌ها و کمبود‌های جزئی و کلی. جزئی مثل سلول‌های این سیستم یعنی attention mechanism یا حتی بنیادی تر یعنی back propagation. نیاز به سلول‌های قوی تری برای رسیدن AGI هست. کلی هم مثل توسعه RL و Self Supervised و ترکیب و استفاده بهتر از اونها.
سوال اصلی هم همچنان مثل همیشه این هست که چطور فرآیند یادگیری در نوزاد انسان و انسان بالغ رو بفهمیم و بهتر مدل کنیم. قبلا درباره راه آینده برای AI پست‌هایی مثل این مورد و این مورد درباره سنجش هوش گذاشته بودم.

@deeptimeai
👍61
Forwarded from Golem Course
درس‌هایی که در آستانه ۳۰ سالگی‌ام یاد گرفتم

حال که سنم نزدیک به سی سال شده، زمان خوبی فراهم شد تا به ده سال گذشته و درس‌آموخته‌های آن فکر کنم. یاد گرفتم که متواضع باشم و قدردان دوستان، نزدیکان، و حامیان اجتماعی‌ام باشم (بر خلاف جوانی‌ام که هر چه بدست می‌آوردم تنها متنسب به شایستگی ذاتی می‌دانستم و غرور احمقانه‌ای داشتم).

مسیری که طی کردم، دستاوردهایم و موفقیت‌هایم بخش قابل توجهی‌ از آن شانس دخیل بود. بخش دیگرش لطف و مهربانی افرادی بود که مرا می‌شناختند.
اگر آن‌ها نبودند قطعا به خیلی از این موارد نمی‌رسیدم.

مثلا همیشه تصور می‌کردم که از تدریس متنفرم. اگر دکتر حیدرنوری در سال اول دکتری پیشنهاد برگزاری دوره پایتون را نمی‌داد، احتمالا هیچ‌وقت متوجه نمیشدم که چقدر تدریس را دوست دارم و مسیر زندگی‌ام چیز دیگری می‌شد.

یا اگر دکتر رامسین به خاطر آنکه شاگرد اول کلاسش بودم، به من پیشنهاد تدریس به عنوان استاد مدعو در دانشگاه شریف را نمی‌داد، احتمالا چنین شانسی دیگر نصیبم نمی‌شد.

یا برای دوره سربازی نگران یافتن شرکت مناسب بودم. دوستی از کانادا مرا به مدیر عامل یک شرکت معرفی کرد و باعث شد در این مدت با آرامش کار کنم.

خلاصه: قدر آدم‌های زندگی‌تان را بدانید.

@golemcourse
👍1611
This media is not supported in your browser
VIEW IN TELEGRAM
الگویی که در طول تاریخ به طور مستمر تکرار شده

ظهور کشاورزی و یکجانشینی، اختراع صنعت چاپ، انقلاب صنعتی و اتوماسیون و در آخر ظهور کامپیوتر و اینترنت صنایع و مشاغل رو متحول کرد، حالا انقلاب هوش مصنوعی با شدت زیادی همه چیز رو متحول خواهد کرد.

اینجا در پنل تخصصی نمایشگاه بین‌المللی صنعت مالی با آرش سروری درباره فایننس، هوش مصنوعی و بازار مالی صحبت کردم. غرفه ما در سالن ۳۵ هست.

لینک گفتگوی کامل

@deeptimeai
24👍12👎4
مسیر تحصیل رایگان و خودخوان computer science دانشگاه MIT

Path to a free self-taught education in Computer Science!

لینک توییت

حتما یک سر به این ریپو بزنید توش موارد جالبی هست. مثل این بحث یادگیری ابزار دانشگاه MIT که قبلا هم اشاره شد.

The Missing Semester of Your CS Education

@deeptimeai
7👍2
دوران نوجوانی مثل خیلیا شاید فکر میکردم که دوست دارم عضو یک تیم فوتبال خفن باشم البته کم کم که بزرگ شدم خیلی زود ذهنیتم از فوتبال یا والیبال برای زندگی حرفه‌ای شخص خودم فاصله گرفت. و جذابیت یک کار تیمی خلاقانه و ساختن چیزی که شبیهش نبوده برام بیشتر شد.

حالا در استارتاپمون بیشتر از همیشه این حسو دارم که تیم خیلی خوبی هستیم. خصوصا خوشحالم که این چند ماه سهیل هم از دیجیکالا بهمون اضافه شد و ترکیب فوق‌العاده‌ای شکل گرفت.

طبق پژوهش‌ها تجربیات افراطی‌ای که در زندگی داریم در نهایت تعیین کننده میزان رضایت ما از زندگی هستن. یعنی وقتی در زمان پیری از شما سوال کنن که "آیا خوب زندگی کردی؟" ذهن شما به خاطرات افراطی مراجعه میکنه. تجربه افراطی مثل یک سفر اکتشافی، مثل هزاران ساعت تمرین موسیقی و اجرای یک آهنگ سخت، مثل از شب تا صبح با یک دوست در خیابان قدم زدن و ... . از همه مهم‌تر تجربه افراط در یک مهارت و کار در یک تیم خوب و ساختن چیزی که بدون افراط نمیشه بدستش آورد.

به قول محمدرضا شعبانعلی، دستاورد حاصل عدم تعادل هست‌. که در واقع این هم به افراط اشاره داره. یا همونطور که لوریس چکناواریان بزرگ در این ویدئو میگه:
آدم نرمال به جایی نمیرسه و هیچ چیزی خلق نمیشه بدون دیوونه شدن!

@deeptimeai
👍167💯3
چت با ویدئو‌ها و یادگیری سریع! Ortus

یکی از بهترین کاربردهایی که از LLMها دیدم این هست که نرم‌افزارهایی نوشته شده که به واسطش شما میتونید با محتوای ویدئوها چت کنید. این مسئله به شدت کاربردی هست و صرفه‌جویی زمانی بالایی داره. میتونید بپرسید ویدئو یا گفتگو درباره چی بود، خلاصه رو بگه یا مثلا بپرسید در این ویدیو درباره فلان موضوع چه مطلبی گفته شد. جالبیش اینه که حتی میگه جواب رو از چه دقیقه‌ای از ویدئو پیدا کرده که میتونید کلیک کنید و چک کنید.

افزونه کروم Ortus برای چت با محتوای ویدئویی یکسری کانال‌های خاص یوتیوب نوشته شده. کانال‌هایی که در حال حاضر ساپورت میکنه و همشون هم عالین (خصوصا huberman):

Lex Fridman
Huberman Lab
3Blue1Brown
Yanic Kilcher
Kurzgestagt
Alexa Gordic
Y Combinator
Andrej Karpathy
Petar Velickovic
Alex the Analyst
Ken Jee

و حالا با ۲۰۰ ویدئو Jeremy Howard هم میتونید چت کنید و سوالات Deep Learning بپرسید. خصوصا از این کورس. این هم ویدئو معرفی Ortus در یوتوب.

حالا اگر سوال دیپ لرنینگ هم ندارید اما مطمئن باشید از چت با ویدیو‌های کانال Hubermanlab سود میکنید. این استاد نوروساینس استنفرد درباره متابولیسم، خواب، یادگیری، تغذیه، ورزش، هورمون‌ها ... ویدئو‌های تخصصی داره و ابزار کاربردی میگه.
ضمنا میتونید کانال‌ها و ویدئوهایی که فکر میکنید خوبه ساپورت بشه رو براشون علامت بزنید که در آینده اضافه کنن.

@deeptimeai
👍152
Keras Core
به لطف تیم Francois Chollet حالا میتونید از اجزاء Tensorflow، Pytorch و JAX به صورت یکجا در Keras Core استفاده کنید. تجمیع سیستم‌های مفید در سطح این سه framework به نظرم کار بسیار ارزشمندی هست. علت اصلی این هست که این چند سال خیلی از افراد مشکل انتخاب framework داشتند. در آینده اگر سیستم‌های بر مبنای Julia هم اضافه کنن، طوری که فقط نیاز داشته باشید API doc خود Keras Core رو بخونید، فوق العاده خواهد بود.

مزایای اصلی:
1- بدون تغییر کد میتونید با یک خط backend رو به JAX، Tensorflow یا Pytorch تغییر بدید و نتیجه رو ببینید
2- میتونید از قسمت‌های خفن هر فریمورک (مثلا dataloader در پایتورچ و serving در Tensorflow یا استفاده گسترده TPU در JAX) استفاده کنید و همه رو یکجا در یک model.py توی Keras Core داشته باشید.
3- قبلا در بهترین حالت هر مدل شما میتونست برای نصف کامیونیتی ML قابل استفاده باشه(تنسورفلو یا پایتورچ). اما الان این مشکل هم وجود نداره. حتی اگر افرادی که میخوان استفاده کنن، با Keras آشنا نباشن.

@deeptimeai
🔥13👍71😢1
مغز به عنوان ماشین پیشبینی کننده
(بررسی کتاب ماشین تجربه اثر اندی کلارک)

صرف نظر از هر کاری که بهش مشغول هستین شدیدا توصیه میکنم این دو ویدئو (ویدئو1 ویدئو2) رو کامل بین کارهاتون ببینید. اگر وقت ندارید سرعت ویدئو رو بالا ببرید.

نکته اساسی:
مغز ما دقیقا شبیه یک مدل ماشین لرنینگ، بعد از فاز یادگیری (تجربه)، خیلی بیشتر از تکیه بر ادراک و واقعیت بیرون، به پیشبینی ها اتکا میکنه و قسمت ترسناک یا شگفت انگیز ماجرا اینجاست که این پیشبینی ها (که حاصل تجربیات، وضع بدن، جهان اطراف و البته خود مغز هست) میتونن واقعیت رو شکل بدن تا حدی که حتی دردی ایجاد کنند یا دردی رو از بین ببرند و به طور کلی تمام زندگی مارو تحت تاثیر قرار بدن.

@deeptimeai
👍162🔥1