یه زمین بازی واسه داکر پیدا کردم براتون🤩.
تو این زمین هیچی نصب نیست به جز خود داکر و سبک ترین توزیع لینوکس دنیا (alpine)!
دیگه واسه اله کلنگ و سرسره بازیش هم خودتون باید Image های دلخواهتون رو نصب کنید😅، خود داکر هم ازش پشتیبانی میکنه😍🐳.
https://www.docker.com/play-with-docker/
تو این زمین هیچی نصب نیست به جز خود داکر و سبک ترین توزیع لینوکس دنیا (alpine)!
دیگه واسه اله کلنگ و سرسره بازیش هم خودتون باید Image های دلخواهتون رو نصب کنید😅، خود داکر هم ازش پشتیبانی میکنه😍🐳.
https://www.docker.com/play-with-docker/
🤩3👌1
تو لینوکس همه چیز یک "فایل" هست!🐧
این جمله تاثیرگزار ترین جمله ای بود که در کورس داکر آقای Mosh Hamedani شنیدم!
"In linux everything is a File, including devices, directories, network socket, ... ."
این جمله تاثیرگزار ترین جمله ای بود که در کورس داکر آقای Mosh Hamedani شنیدم!
"In linux everything is a File, including devices, directories, network socket, ... ."
👍6❤2👎1
مدتیه برا خودم دارم زندگی میکنم🤗. تفریح، آشپزی، قلاب بافی و .... کلا تمام کارهایی که این همه سال دوسشون داشتم ولی به علت مشغله های کاری و تحصیلیم براشون وقت نمیزاشتم.
واقعا زندگی مقصد نهایی نداره که بخوایم انقدر از همه چیمون بزنیم که بهش برسیم! به قول رفیقم تو زندگی باید از مسیرش لذت ببری و الا هیچ مقصد خاصی وجود نداره.
هر دوره ای از زندگی زیبایی ها و فرصت های خودشو داره که اگه نبینمیمشون از دست میرند!
برای کارهایی که علاقه دارید وقت بزارید، زندگی یعنی گذر همین لحظه هایی که برامون خوشاینده🥰🌈⚘💃🤸♀️🛍🍭🍬.
واقعا زندگی مقصد نهایی نداره که بخوایم انقدر از همه چیمون بزنیم که بهش برسیم! به قول رفیقم تو زندگی باید از مسیرش لذت ببری و الا هیچ مقصد خاصی وجود نداره.
هر دوره ای از زندگی زیبایی ها و فرصت های خودشو داره که اگه نبینمیمشون از دست میرند!
برای کارهایی که علاقه دارید وقت بزارید، زندگی یعنی گذر همین لحظه هایی که برامون خوشاینده🥰🌈⚘💃🤸♀️🛍🍭🍬.
❤10👍8👏6🔥1🥰1🤗1
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
آقای نیکی ملکی و تیمشون، از اعضای خوب کانال در نظر دارد تا در راستای تسهیل فرایند پیدا کردن استاد و اپلای یک مدل LLM را روی حدود یک میلیون داده که از سایتهای دانشگاهی و LinkedIn جمع آوری شده است را به طور منظم بهینهسازی کند تا با استفاده از این مدل، برای هر رشته، با توجه به کلمات کلیدی فرد، یک فایل اکسل حاوی اساتید شخصی سازی شده با آن رشته را مختص هر فرد آماده کند.
@prof_finder
@prof_finder
👍11
Tensorflow(@CVision)
آقای نیکی ملکی و تیمشون، از اعضای خوب کانال در نظر دارد تا در راستای تسهیل فرایند پیدا کردن استاد و اپلای یک مدل LLM را روی حدود یک میلیون داده که از سایتهای دانشگاهی و LinkedIn جمع آوری شده است را به طور منظم بهینهسازی کند تا با استفاده از این مدل، برای…
پروژه ی جالبی بود.
نتیجه ی اخلاقی: همین الان انقدر دیتا در بستر وب هست که میتونید کارهای بزرگی انجام بدید باهاش.
حالا هم همیشه که نباید به زور پول و حقوق کار کنیم که🤭. خوبه از علم خودمون استفاده کنیم و عالم بی عمل نباشیم و کار خودمون و بقیه رو راه بندازیم..
نتیجه ی اخلاقی: همین الان انقدر دیتا در بستر وب هست که میتونید کارهای بزرگی انجام بدید باهاش.
حالا هم همیشه که نباید به زور پول و حقوق کار کنیم که🤭. خوبه از علم خودمون استفاده کنیم و عالم بی عمل نباشیم و کار خودمون و بقیه رو راه بندازیم..
👍6👏2
یه مقاله مفید که صاف و پوست کنده بهتون میگه LLMs چی هستش!
https://research.aimultiple.com/large-language-model-training/
https://research.aimultiple.com/large-language-model-training/
AIMultiple
Large Language Model Training
👍3🔥1
Melanee AI & Physics
یه مقاله مفید که صاف و پوست کنده بهتون میگه LLMs چی هستش! https://research.aimultiple.com/large-language-model-training/
اینو که بخونید شاید براتون سوال بشه Transformer ها چی هستند، بعدش اینو بخونید👇:
https://en.wikipedia.org/wiki/Transformer_(machine_learning_model)
https://en.wikipedia.org/wiki/Transformer_(machine_learning_model)
👍3✍1
برای آمادگی مصاحبه ی های کاریم یه دفتر درست کردم که داخلش برای هر اسکیل و ابزاری که بلدم دو قسمت درست کردم؛ یکی بخش تئوری و یکی هم بخش پروژه ها و تجربه هام.
مثلا برای موضوع NLP یکی دو صفحه از خلاصه های تئوریش نوشتم و یک صفحه هم راحب پروژه هام با تاریخشون😎.
کم کم این دفترو به مروز زمان کار کامل میکنم و همه اسکیل هایی که بلدم رو واردش میکنم، SQL, NLP, داکر و ....
این دفتر در آینده خیلی به دردم میخوره که با مرور کردنش بتونم خودمو واسه مصاحبه های کاری آماده کنم.
شاید این ایده برای شما هم مفید باشه🥰.
توجه کنید به زبانی که میخواید مصاحبه بدید، زبان فارس، انگلیسی و ... و طبق همون زبان این دفترو بنویسید.
مثلا برای موضوع NLP یکی دو صفحه از خلاصه های تئوریش نوشتم و یک صفحه هم راحب پروژه هام با تاریخشون😎.
کم کم این دفترو به مروز زمان کار کامل میکنم و همه اسکیل هایی که بلدم رو واردش میکنم، SQL, NLP, داکر و ....
این دفتر در آینده خیلی به دردم میخوره که با مرور کردنش بتونم خودمو واسه مصاحبه های کاری آماده کنم.
شاید این ایده برای شما هم مفید باشه🥰.
توجه کنید به زبانی که میخواید مصاحبه بدید، زبان فارس، انگلیسی و ... و طبق همون زبان این دفترو بنویسید.
👍16✍2👏1
German Picture Dictionary.pdf
22.6 MB
دیکشنری تصویری انگلیسی به آلمانی😍🇩🇪
یه چیزی تو مایه های OPD خودمونه.
خیلی گشتم تا پیداش کردم🙄.
یه چیزی تو مایه های OPD خودمونه.
خیلی گشتم تا پیداش کردم🙄.
👏9👨💻2🙏1
یکی از تجربه های جالب کاریم رو یادم رفته بهتون بگم، شرکت قبلی ما اجازه نمیداد از
Chat-GPT
استفاده کنیم!
شرکت های بزرگ که امنیت دیتا و privacy اطلاعاتشون براشون مهمه نمیان مستقیم از هوش مصنوعیِ
Chat-GPT
استفاده کنند و سوالشون رو بپرسند! بلکه مدلهای Pre-train شده ی LLM رو از شرکت openai میگیرند و میارن در زیرساخت های خودشون و ازشون استفاده میکنند.
البته ما این کارو نکرده بودیم ولی شرکت های خارجی زیادی دیدم این کار رو انجام میدن بخصوص شرکت های آلمانی که به شدت محافظه کار اند.
#تجربه_کاری
Chat-GPT
استفاده کنیم!
شرکت های بزرگ که امنیت دیتا و privacy اطلاعاتشون براشون مهمه نمیان مستقیم از هوش مصنوعیِ
Chat-GPT
استفاده کنند و سوالشون رو بپرسند! بلکه مدلهای Pre-train شده ی LLM رو از شرکت openai میگیرند و میارن در زیرساخت های خودشون و ازشون استفاده میکنند.
البته ما این کارو نکرده بودیم ولی شرکت های خارجی زیادی دیدم این کار رو انجام میدن بخصوص شرکت های آلمانی که به شدت محافظه کار اند.
#تجربه_کاری
👍15👌3
Forwarded from Hamidreza Farzin
سلام 👋
یه ماژول پایتون نوشتم برای گرفتن دیتا های ترب چون کسی تو گیت هاب و جای دیگه ندیدم که نوشته باشه
لینک گیت هاب :
https://github.com/hamidrezafarzin/Torob-Integration
لینک pypi:
https://pypi.org/project/torob-integration/0.0.1/
یه ماژول پایتون نوشتم برای گرفتن دیتا های ترب چون کسی تو گیت هاب و جای دیگه ندیدم که نوشته باشه
لینک گیت هاب :
https://github.com/hamidrezafarzin/Torob-Integration
لینک pypi:
https://pypi.org/project/torob-integration/0.0.1/
GitHub
GitHub - hamidrezafarzin/Torob-Integration: A Python module facilitating effortless interaction with the Torob API for seamless…
A Python module facilitating effortless interaction with the Torob API for seamless access to product suggestions, search results, detailed product information, special offers, and price chart dat...
❤5👍3
Hamidreza Farzin
سلام 👋 یه ماژول پایتون نوشتم برای گرفتن دیتا های ترب چون کسی تو گیت هاب و جای دیگه ندیدم که نوشته باشه لینک گیت هاب : https://github.com/hamidrezafarzin/Torob-Integration لینک pypi: https://pypi.org/project/torob-integration/0.0.1/
پروژه بسیار جالب همکارم آقای مهندس حمیدرضا فرزین🥰.
قدرت یک برنامه نویس خلاق رو ببینید.
قدرت یک برنامه نویس خلاق رو ببینید.
🔥5👍2
تعریف Tokenization در NLP:
به پروسه شکستن یه متن و تبدیل اون به واحدهای کوچیک تر مثل لغت، عبارت و یا جمله tokenization میگن و یکی از مراحل آماده سازی دیتا در NLP هست که یه متن Unstructured رو به فرمت Structured تبدیل میکنه که به راحتی بتونه توسط الگوریتم های NLP آنالیز بشه.
تعریف Stemming (ریشه یابی): به پروسه ی کاهش یک کلمه و رسیدن به ریشه ی اون کلمه stemming میگن مثلا حذف پیشوند و پسوند از یک لغت.
تعریف Lemmatization (ریشه یابی لغوی): به پروسه ی کاهش یک کلمه و رسیدن به ریشه معنادار اون کلمه میگن.
فرق Stemming و Lemmatization: هر دو یک کلمه رو کاهش میدهند ولی در Stemming ممکنه کاهش کلمه منجر به رسیدن به ریشه معنادار از اون کلمه نشه! برای مثلا کلمه "Caring" اگه stem کنیم میشه "Car" که از لحاظ معنایی هیچ ربطی ندارند به هم! ولی در Lemmatization وقتی کلمه رو کاهش میدیم در نهایت میرسیم به ریشه ی معنادار. مثلا همون "Caring" اگه Lemma کنیم میشه "Care".
کتابخونه ای که ابزار Lemmatization داره مثل NLTK برای زبان انگلیسی خودش توانایی تشخیص ریشه معنادار رو داره.
معمولا همپروسه ی Stemming با سرعت بیشتری از Lemmatization انجام میشه.
اینا مطالبی بود که من سرچ کردم و متوجه شدم حالا خودتون هم سرچ کنید تا تفاوت بین این دو رو کامل متوجه بشید.
این سه تا پروسه Tokenization, Stemming و Lemmatization جزو مراحل مهم آماده سازی متن قبل از اعمال الگوریتم های NLP هستند که به راحتی با دو سه خط کد پایتون انجام میشه!
به پروسه شکستن یه متن و تبدیل اون به واحدهای کوچیک تر مثل لغت، عبارت و یا جمله tokenization میگن و یکی از مراحل آماده سازی دیتا در NLP هست که یه متن Unstructured رو به فرمت Structured تبدیل میکنه که به راحتی بتونه توسط الگوریتم های NLP آنالیز بشه.
تعریف Stemming (ریشه یابی): به پروسه ی کاهش یک کلمه و رسیدن به ریشه ی اون کلمه stemming میگن مثلا حذف پیشوند و پسوند از یک لغت.
تعریف Lemmatization (ریشه یابی لغوی): به پروسه ی کاهش یک کلمه و رسیدن به ریشه معنادار اون کلمه میگن.
فرق Stemming و Lemmatization: هر دو یک کلمه رو کاهش میدهند ولی در Stemming ممکنه کاهش کلمه منجر به رسیدن به ریشه معنادار از اون کلمه نشه! برای مثلا کلمه "Caring" اگه stem کنیم میشه "Car" که از لحاظ معنایی هیچ ربطی ندارند به هم! ولی در Lemmatization وقتی کلمه رو کاهش میدیم در نهایت میرسیم به ریشه ی معنادار. مثلا همون "Caring" اگه Lemma کنیم میشه "Care".
کتابخونه ای که ابزار Lemmatization داره مثل NLTK برای زبان انگلیسی خودش توانایی تشخیص ریشه معنادار رو داره.
معمولا همپروسه ی Stemming با سرعت بیشتری از Lemmatization انجام میشه.
اینا مطالبی بود که من سرچ کردم و متوجه شدم حالا خودتون هم سرچ کنید تا تفاوت بین این دو رو کامل متوجه بشید.
این سه تا پروسه Tokenization, Stemming و Lemmatization جزو مراحل مهم آماده سازی متن قبل از اعمال الگوریتم های NLP هستند که به راحتی با دو سه خط کد پایتون انجام میشه!
👍7❤1
اگه براتون سواله که ابزارهایی مثل ماشین مجازی، گیت، داکر، دیتابیسها و ... چطور ساخته شدن و چطور خودتون میتونید یکی از اونهارو بسازید این ریپازیتوری گیتهاب رو ببینید، خیلی باحاله:
https://github.com/codecrafters-io/build-your-own-x
https://github.com/codecrafters-io/build-your-own-x
GitHub
GitHub - codecrafters-io/build-your-own-x: Master programming by recreating your favorite technologies from scratch.
Master programming by recreating your favorite technologies from scratch. - codecrafters-io/build-your-own-x
👍2
امشب یه کتاب خیلی جالب میخوام بهتون معرفی کنم.
(خیلی دلم میخواد مدل جادی بیام کتاب های جدیدی که میخونم رو معرفی کنم و نقد و بررسیش کنم ولی مدتیه یکم inroverted شدم نمیدونم چرا🥺. )
(خیلی دلم میخواد مدل جادی بیام کتاب های جدیدی که میخونم رو معرفی کنم و نقد و بررسیش کنم ولی مدتیه یکم inroverted شدم نمیدونم چرا🥺. )
❤8
کتاب "تاریخ علم در ایران"
اول بگم چرا میخوام امشب این کتاب رو معرفی کنم؟ چون تو این زمونه جای خالی یه چیزی رو احساس کردم.
ما به عنوان یک ایرانی هنوز جایگاه علمی خودمون رو در جهان نمیدونیم. تاریخ کشورمون داره فراموش میشه. این کتاب رو بخونیم و متوجه بشیم چقدر ایرانیان در گذشته، بنیان گذار علوم و فنون مختلف در جهان بودند! متاسفانه ما خودمون رو باختیم فراموش کردیم که چی بودیم و چی کار کردیم! تا وقتی ما جایگاه خودمون رو ندونیم مردم کشورهای دیگه هم جایگاه مارو نمیدونند و برامون ارزش قائل نمیشن.
در نظر خیلی از کشورهای دیگه الان یه کشور جهان سومی عقب مونده ایم! این همه آمریکا و کشورهای اروپایی پز تکنولوژی شون رو به ما میدن در صورتی که اگه تاریخ رو بخونیم میبینیم بسیاری از علوم بنیادی و مهارت های پایه ای جهان از دل تمدن ایرانی ها بیرون اومد. در طول تاریخ علم به تدریج پیشرفت کرد.
غیر ازین کتاب خودتون هم تحقیق کنید، ببینید افرادی مثل خوارزمی، ابوریحان بیرونی و... چی کار کردند.
در آینده هر جای دنیا رفتید کار کنید با افتخار از اصالت ایرانیتون بگید و برای همه تعریف کنید ما کی بودیم.
اول بگم چرا میخوام امشب این کتاب رو معرفی کنم؟ چون تو این زمونه جای خالی یه چیزی رو احساس کردم.
ما به عنوان یک ایرانی هنوز جایگاه علمی خودمون رو در جهان نمیدونیم. تاریخ کشورمون داره فراموش میشه. این کتاب رو بخونیم و متوجه بشیم چقدر ایرانیان در گذشته، بنیان گذار علوم و فنون مختلف در جهان بودند! متاسفانه ما خودمون رو باختیم فراموش کردیم که چی بودیم و چی کار کردیم! تا وقتی ما جایگاه خودمون رو ندونیم مردم کشورهای دیگه هم جایگاه مارو نمیدونند و برامون ارزش قائل نمیشن.
در نظر خیلی از کشورهای دیگه الان یه کشور جهان سومی عقب مونده ایم! این همه آمریکا و کشورهای اروپایی پز تکنولوژی شون رو به ما میدن در صورتی که اگه تاریخ رو بخونیم میبینیم بسیاری از علوم بنیادی و مهارت های پایه ای جهان از دل تمدن ایرانی ها بیرون اومد. در طول تاریخ علم به تدریج پیشرفت کرد.
غیر ازین کتاب خودتون هم تحقیق کنید، ببینید افرادی مثل خوارزمی، ابوریحان بیرونی و... چی کار کردند.
در آینده هر جای دنیا رفتید کار کنید با افتخار از اصالت ایرانیتون بگید و برای همه تعریف کنید ما کی بودیم.
👍6