به مناسبت هفته " کتاب و کتابخوانی" یک دوست هدیه ارزشمندی از یک اندیشه فکری بهم پیشنهاد داد که مطالعه کنم کتاب ماه پنهان است اثر جان اشتاین بک کتاب همیشه بهترین چیزیه برام که میتونم هدیه بگیرم.
کتاب درمورد شهری بندری است که با خیانت یکی از اهالی شهر توسط دشمنان اشغال میشه و روایت مقاومت و امید مردم اون شهر رو نشون میده
پ.ن: شما بگین بهترین کتابی ک تونسته نقشی اساسی در زندگی شما داشته باشه اون چیه که بتونین به بقیه پیشنهاد بدید لطفا از کتابهایی ک زرد و بی محتوا هستن خودداری کنین
▪️ خرید ماه پنهان است اثر جان اشتاین بک
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
کتاب درمورد شهری بندری است که با خیانت یکی از اهالی شهر توسط دشمنان اشغال میشه و روایت مقاومت و امید مردم اون شهر رو نشون میده
پ.ن: شما بگین بهترین کتابی ک تونسته نقشی اساسی در زندگی شما داشته باشه اون چیه که بتونین به بقیه پیشنهاد بدید لطفا از کتابهایی ک زرد و بی محتوا هستن خودداری کنین
▪️ خرید ماه پنهان است اثر جان اشتاین بک
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6❤3
تا ابد نمیتوان کوانتایز کرد.
این هفته، گویا هفته داغ بحث درمورد Scaling Law هست وحالاکاری اومده وسعی کرده Scaling Law روبرای Arithmetic precisionهای مختلف ارائه بده.ماشبکههای عصبی روبه دو طریق میتونیم Precisionشون رو دستکاری کنیم، یا با کوانتیزهکردن Post-Training یااین هم که موقع آموزش شبکه بیایم وبا precisionهای پایین مثل ۸ بیتی یا ۱۶ بیتی شبکه رو آموزش بدیم. این کارها رو هم میکنیم تا شبکه کوچکتری داشته باشیم برای inference.
حالا این پیپر دو چیز مهم رو ادعا کرده. یکی این که شماالزاما هرچی دیتاست آموزش رو بزرگتر کنید وقتی کوانتایزش کنید الزاما با مدل بهتری رو به رو نخواهید شد. به همین دلیل لاما ۳ که چهارصد و خوردهای بیلیون پارامتر داره سخت کوانتایز میشه.
یافته دومشون هم این که حتی فرآیند آموزش مدلها با precisionهای پایینتر هم بیهزینه نیست و مثلا یک مدل ۱ بیلیون پارامتر با FP4، عملکرد قابل مقایسهای با یک مدل ۲۵۰ میلیون پارامتر با BF16 داره.
ازلحاظ Scale Law واقعاداریم به دیوار میخوریم.
▪️ Scaling Laws for Precision
#علوم_پزشکی #مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
این هفته، گویا هفته داغ بحث درمورد Scaling Law هست وحالاکاری اومده وسعی کرده Scaling Law روبرای Arithmetic precisionهای مختلف ارائه بده.ماشبکههای عصبی روبه دو طریق میتونیم Precisionشون رو دستکاری کنیم، یا با کوانتیزهکردن Post-Training یااین هم که موقع آموزش شبکه بیایم وبا precisionهای پایین مثل ۸ بیتی یا ۱۶ بیتی شبکه رو آموزش بدیم. این کارها رو هم میکنیم تا شبکه کوچکتری داشته باشیم برای inference.
حالا این پیپر دو چیز مهم رو ادعا کرده. یکی این که شماالزاما هرچی دیتاست آموزش رو بزرگتر کنید وقتی کوانتایزش کنید الزاما با مدل بهتری رو به رو نخواهید شد. به همین دلیل لاما ۳ که چهارصد و خوردهای بیلیون پارامتر داره سخت کوانتایز میشه.
یافته دومشون هم این که حتی فرآیند آموزش مدلها با precisionهای پایینتر هم بیهزینه نیست و مثلا یک مدل ۱ بیلیون پارامتر با FP4، عملکرد قابل مقایسهای با یک مدل ۲۵۰ میلیون پارامتر با BF16 داره.
ازلحاظ Scale Law واقعاداریم به دیوار میخوریم.
▪️ Scaling Laws for Precision
#علوم_پزشکی #مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍9👎1
Exciting Research position:
Senior LLM Researcher at Sharif Center for Information Systems and Data Science
We are seeking a Senior LLM Engineer for a new, high-impact project focused on advancing research in large language models with direct industrial applications.
🔴 Key Responsibilities:
Contribute to State-of-the-Art Research: Design and fine-tune advanced LLMs, pushing the boundaries of language model research.
Publish and Innovate: Contribute to academic research through publications, establishing the Center's leadership in the field of LLMs and NLP.
🔴 Essential Qualifications:
Extensive experience in developing and fine-tuning large language models, with a focus on both research and real-world applications.
Strong record of research publications or contributions to the field of LLMs, NLP, or related areas.
Proficiency in Python, and deep learning frameworks like PyTorch or TensorFlow.
✅ Ideal Qualifications:
Experience with state-of-the-art LLMs like GPT, BERT, T5, or similar models.
Knowledge of advanced NLP techniques, including transfer learning, reinforcement learning, and multi-modal models.
Please send your CV, with the subject line "Research Position in LLM"
to the email address:
data-icst@sharif.edu.
#Hiring
#استخدام
Senior LLM Researcher at Sharif Center for Information Systems and Data Science
We are seeking a Senior LLM Engineer for a new, high-impact project focused on advancing research in large language models with direct industrial applications.
🔴 Key Responsibilities:
Contribute to State-of-the-Art Research: Design and fine-tune advanced LLMs, pushing the boundaries of language model research.
Publish and Innovate: Contribute to academic research through publications, establishing the Center's leadership in the field of LLMs and NLP.
🔴 Essential Qualifications:
Extensive experience in developing and fine-tuning large language models, with a focus on both research and real-world applications.
Strong record of research publications or contributions to the field of LLMs, NLP, or related areas.
Proficiency in Python, and deep learning frameworks like PyTorch or TensorFlow.
✅ Ideal Qualifications:
Experience with state-of-the-art LLMs like GPT, BERT, T5, or similar models.
Knowledge of advanced NLP techniques, including transfer learning, reinforcement learning, and multi-modal models.
Please send your CV, with the subject line "Research Position in LLM"
to the email address:
data-icst@sharif.edu.
#Hiring
#استخدام
👍4
ابزارهایی که از #هوش_مصنوعی برای کمک کردن ساختن
◾️ http://bolt.new - Frontend Engineer
◾️ http://aider.chat - Backend Engineer
◾️ CrewAI - Product Designer / Manager
◾️ Claude AI - Content Creator
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
◾️ http://bolt.new - Frontend Engineer
◾️ http://aider.chat - Backend Engineer
◾️ CrewAI - Product Designer / Manager
◾️ Claude AI - Content Creator
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
bolt.new
Bolt AI builder: Websites, apps & prototypes
Prompt, run, edit & publish apps
👍2
حمید محمدی بنیانگذار دیجی کالادر مورد: تجربه هایی از ساخت اکوسیستم تجارت الکترونیک سخنرانی میکند.
علاقمند بودین شرکت کنین و برید اونجا با دوستان خوبی ک شرکت کردن اشنا بشید
▪️ لینک ثبت نام
علاقمند بودین شرکت کنین و برید اونجا با دوستان خوبی ک شرکت کردن اشنا بشید
▪️ لینک ثبت نام
👍5👎5
اپ کتابخوانی طاقچه به مناسبت 10 سالگی خودش، روی اشتراک بی نهایت که امکان دسترسی به 30 هزار کتاب الکترونیکی و صوتی (ولی نه همه کتابها) رو در مدت اشتراک میده، تا 80 درصد تخفیف گذاشته و اشتراک سالانه اون هم تا 2 سال قابل تمدید هست.
این اشتراک رو میتونین از اینجا خریداری کنید.
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
این اشتراک رو میتونین از اینجا خریداری کنید.
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤7👎2
اپ کتابخوانی فیدیبو هم روی اشتراک فیدیبوپلاس، که امکان دسترسی به 33 هزار کتاب الکترونیکی و صوتی (ولی نه همه کتابها) رو در مدت اشتراک میده، تا 70 درصد تخفیف گذاشته و اشتراک سالانه اون هم تا چند سال قابل تمدید هست.
این اشتراک رو هم میتونین از اینجا خریداری کنید.
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
این اشتراک رو هم میتونین از اینجا خریداری کنید.
#کتاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤8👎3
Forwarded from DeepMind AI Expert
لیست کانال و گروه های ما :
▪️ گروه هوش مصنوعی: یادگیری عمیق و...
https://news.1rj.ru/str/DeepLearningAIExperts
▪️ گروه هوش مصنوعی: پردازش زبان طبیعی
https://news.1rj.ru/str/NLPExperts
▪️ کانال دکتر میثم عسگری
https://news.1rj.ru/str/ai_person
▪️ گروه لینوکس و پایتون و سایر...
https://news.1rj.ru/str/PythonLinuxExperts
با اشتراک گذاشتن این پست به دیده شدن و پیشرفت هموطنان خود کمک کنید. جایی برای پرسش و پاسخ و ارتباط با پژوهشگران علوم کامپیوتر و صنعت پیدا کنند.
▪️ گروه هوش مصنوعی: یادگیری عمیق و...
https://news.1rj.ru/str/DeepLearningAIExperts
▪️ گروه هوش مصنوعی: پردازش زبان طبیعی
https://news.1rj.ru/str/NLPExperts
▪️ کانال دکتر میثم عسگری
https://news.1rj.ru/str/ai_person
▪️ گروه لینوکس و پایتون و سایر...
https://news.1rj.ru/str/PythonLinuxExperts
با اشتراک گذاشتن این پست به دیده شدن و پیشرفت هموطنان خود کمک کنید. جایی برای پرسش و پاسخ و ارتباط با پژوهشگران علوم کامپیوتر و صنعت پیدا کنند.
👍3❤1👎1🆒1
بزرگترین گروه یادگیری عمیق ایران ۱۱هزارنفری شد🚶♂😍
ی سری حسود پلاستیکی الان میگن که هنوز ۱۰۹۹۵ نفر هست ک 😒
https://news.1rj.ru/str/DeepLearningAIExperts
ی سری حسود پلاستیکی الان میگن که هنوز ۱۰۹۹۵ نفر هست ک 😒
https://news.1rj.ru/str/DeepLearningAIExperts
🆒7👍5👎3❤2
Forwarded from زندگی به عنوان سرویس
شماهایی که از من بیشتر AI کار کردین میدونید که مفهومی وجود داره تحت عنوان «کاهش ابعاد» یا به همون اسم خارجکیش Dimension Reduction. این مفهوم میگه وقتی توی یه مسئلهی یادگیری ماشین تعداد ویژگیها(ورودیها) زیاد میشه دردسرهاش هم زیاد میشه.
دردسرهایی مثل هزینهی پردازشی زیاد، همپوشانی ویژگیها و غیره.
این مفهوم البته توی خیلی جاهای دیگه هم کاربرد داره و کلا هر جایی مسئلهای هست خب حتما سادهسازی مسئله هم هست. اما چرا باید ابعاد مسئله رو کم کنیم؟ اگه ابعاد مسئله رو کم کنیم(به نوعی داریم سادهسازی میکنیم) آیا مسئله خراب نمیشه؟ جزئیات مربوط به مسئله از بین نمیره؟
صحبت کردن در باب سادهسازی مسئله شاید یه ذره صحبت از بدیهیات باشه ولی اشارکی میکنیم.
این که شما بتونید فاکتورهای تعیینکنندهی مسئله رو کاهش بدید به شما کمک میکنه اون مسئله رو زودتر و با صرف منابع کمتری حل کنید. پیچیدگی مسئله رو کاهش بدید. همچنین میشه به راه حلی دست پیدا کرد که جنرالتره و قابل تعمیم به مسائل مشابه هم هست. گاهی حتی این سادهسازی باعث میشه مسئله قابل حل بشه و این خیلی مهمه.
اما سوال دوم: اگه ما ابعاد مسئله رو کاهش بدیم آیا مسئله گم نمیشه؟
جوابش اینه که چرا گم میشه. اما از یه جایی به بعد. این که شما بتونید ویژگیهایی رو پیدا کنید که حذف کردنشون(یا ادغام کردنشون) تاثیر چندانی روی مسئله نذاره واقعا هنره. جاهایی مثل ماشین لرنینگ براش تکنیکهای زیادی داره. مثلا یه چیزی مثل تحلیل حساسیت(فکر کنم بهش همبستگی یا ضریب همبستگی بالا هم بگن) میگه که اگه رفتار دوتا ویژگی خیلی شبیه به همه، احتمالا میتونی یکی از اونها رو حذف کنی. گاهی ممکنه حذف کردن یه ویژگی روی نتیجهی نهایی تاثیر داشته باشه آیا نباید اونو حذف کرد؟ اینجا برمیگردیم به مبحث شیرین هزینه/فایده. اگه اون ویژگی رو حذف کنی چی به دست میاری؟ و چی از دست میدی؟ ممکنه اون ویژگی رو حذف کنی یه بهبود خفنی هم روی سرعت حل حاصل بشه ولی از دقت مسئله ۳ درصد کم بشه. آیا این برای مسئلهی شما اوکیه؟ باید جواب این سوال رو پیدا کنید.
برای منی که از مهندسی نرمافزار سراغ هوش رفتم اما این مفهوم یادآور مفهوم شیرین «انتزاع» هم هست. چشم پوشی از جزئیات غیرضروری. ۱۰ ۱۲ سالی هست که توی این کارها هستم و این مدت به اندازهی خودم تکنیک و روش و مسئله و غیره دیدم. کلی هم متنوع بودن. اما چیزی که از مفهوم انتزاع و یا کاهش ابعاد به یاد من موند و توی زندگیم به کار گرفتم همیشه ثابت بوده.
یاد گرفتم توی بحرانها و مشکلات زندگی یکی از اولین کارهایی که باید انجام بدم کاهش ابعاد اون مشکله.
چند نفر هستن که واقعا اون مشکل بهشون مرتبطه و توی اون مشکل تاثیرگذار هستن؟ یادم نمیاد در بحرانیترین حالت بیش از سه چهار نفر بوده باشن.
چه چیزهایی روی اون مشکل زندگی من تاثیر داشتن و باید واقعا روشون فکر میکردم و ازشون برای حل مسئله کمک میگرفتم؟ کمتر از ۴تا غالبا. گاهی واقعا به این مرحله رسیدم که یکی از فاکتورها رو که حذف کردم تونستم مسئله رو حل کنم(تا قبل از اون حل نمیشد).
باید سعی کنید به هر ویژگی به اندازهی تاثیرش وزن بدید نه بیشتر و نه کمتر(مگر آگاهانه و با هدف گردوندن بازی). وقتی توی مشکلی گیر میکنید یا میخواید تصمیم مهمی بگیرید یا کلا سردرگم میشین، یکی از اولین کارهایی که باید انجام بدید کاهش ابعاد مسئله است. سخته، جرات میخواد، جسارت میخواد ولی راهشه.
#هوایی
🆔 @lifeAsAService
دردسرهایی مثل هزینهی پردازشی زیاد، همپوشانی ویژگیها و غیره.
این مفهوم البته توی خیلی جاهای دیگه هم کاربرد داره و کلا هر جایی مسئلهای هست خب حتما سادهسازی مسئله هم هست. اما چرا باید ابعاد مسئله رو کم کنیم؟ اگه ابعاد مسئله رو کم کنیم(به نوعی داریم سادهسازی میکنیم) آیا مسئله خراب نمیشه؟ جزئیات مربوط به مسئله از بین نمیره؟
صحبت کردن در باب سادهسازی مسئله شاید یه ذره صحبت از بدیهیات باشه ولی اشارکی میکنیم.
این که شما بتونید فاکتورهای تعیینکنندهی مسئله رو کاهش بدید به شما کمک میکنه اون مسئله رو زودتر و با صرف منابع کمتری حل کنید. پیچیدگی مسئله رو کاهش بدید. همچنین میشه به راه حلی دست پیدا کرد که جنرالتره و قابل تعمیم به مسائل مشابه هم هست. گاهی حتی این سادهسازی باعث میشه مسئله قابل حل بشه و این خیلی مهمه.
اما سوال دوم: اگه ما ابعاد مسئله رو کاهش بدیم آیا مسئله گم نمیشه؟
جوابش اینه که چرا گم میشه. اما از یه جایی به بعد. این که شما بتونید ویژگیهایی رو پیدا کنید که حذف کردنشون(یا ادغام کردنشون) تاثیر چندانی روی مسئله نذاره واقعا هنره. جاهایی مثل ماشین لرنینگ براش تکنیکهای زیادی داره. مثلا یه چیزی مثل تحلیل حساسیت(فکر کنم بهش همبستگی یا ضریب همبستگی بالا هم بگن) میگه که اگه رفتار دوتا ویژگی خیلی شبیه به همه، احتمالا میتونی یکی از اونها رو حذف کنی. گاهی ممکنه حذف کردن یه ویژگی روی نتیجهی نهایی تاثیر داشته باشه آیا نباید اونو حذف کرد؟ اینجا برمیگردیم به مبحث شیرین هزینه/فایده. اگه اون ویژگی رو حذف کنی چی به دست میاری؟ و چی از دست میدی؟ ممکنه اون ویژگی رو حذف کنی یه بهبود خفنی هم روی سرعت حل حاصل بشه ولی از دقت مسئله ۳ درصد کم بشه. آیا این برای مسئلهی شما اوکیه؟ باید جواب این سوال رو پیدا کنید.
برای منی که از مهندسی نرمافزار سراغ هوش رفتم اما این مفهوم یادآور مفهوم شیرین «انتزاع» هم هست. چشم پوشی از جزئیات غیرضروری. ۱۰ ۱۲ سالی هست که توی این کارها هستم و این مدت به اندازهی خودم تکنیک و روش و مسئله و غیره دیدم. کلی هم متنوع بودن. اما چیزی که از مفهوم انتزاع و یا کاهش ابعاد به یاد من موند و توی زندگیم به کار گرفتم همیشه ثابت بوده.
یاد گرفتم توی بحرانها و مشکلات زندگی یکی از اولین کارهایی که باید انجام بدم کاهش ابعاد اون مشکله.
چند نفر هستن که واقعا اون مشکل بهشون مرتبطه و توی اون مشکل تاثیرگذار هستن؟ یادم نمیاد در بحرانیترین حالت بیش از سه چهار نفر بوده باشن.
چه چیزهایی روی اون مشکل زندگی من تاثیر داشتن و باید واقعا روشون فکر میکردم و ازشون برای حل مسئله کمک میگرفتم؟ کمتر از ۴تا غالبا. گاهی واقعا به این مرحله رسیدم که یکی از فاکتورها رو که حذف کردم تونستم مسئله رو حل کنم(تا قبل از اون حل نمیشد).
باید سعی کنید به هر ویژگی به اندازهی تاثیرش وزن بدید نه بیشتر و نه کمتر(مگر آگاهانه و با هدف گردوندن بازی). وقتی توی مشکلی گیر میکنید یا میخواید تصمیم مهمی بگیرید یا کلا سردرگم میشین، یکی از اولین کارهایی که باید انجام بدید کاهش ابعاد مسئله است. سخته، جرات میخواد، جسارت میخواد ولی راهشه.
#هوایی
🆔 @lifeAsAService
👍36❤3👎2
DeepMind AI Expert
اپ کتابخوانی طاقچه به مناسبت 10 سالگی خودش، روی اشتراک بی نهایت که امکان دسترسی به 30 هزار کتاب الکترونیکی و صوتی (ولی نه همه کتابها) رو در مدت اشتراک میده، تا 80 درصد تخفیف گذاشته و اشتراک سالانه اون هم تا 2 سال قابل تمدید هست. این اشتراک رو میتونین از…
هانا آرنت در کتاب اندیشیدن و ملاحظات اخلاقی نوشت:
اندیشه، شناخت نیست بلکه توانایی تمیز نیک از بد و زیبا از زشت است و این توانایی میتواند، دستکم برای من، در لحظههایی کمیاب وسیلهی پیشبینی فاجعهها باشد. موضوع اندیشه نمیتواند جز چیزهای دوستداشتنیــ زیبایی، حکمت، عدالت و ... باشد. زشتی، نبود زیبایی، نبود دادگری، و نبود نیکی است… یعنی بدی و زشتی اصالت یا جوهری ندارند تا اندیشه بتواند به آنها بپردازد…
فواید دوستان خوب و نیک اینه اندیشه نیک و راه سبز و بهت نشون میدن دوست داشتم از مهدی آخی بابت دادن هدیه مطالعه و دسترسی به بانک اطلاعاتی کتابهای طاقچه که یکی از بررگترین سایت پیدا کردن کتابهای انلاین و خوب هست برای مطالعه بهم این هدیه ارزشمند رو داد تشکر کنم. شما هم اگه میخواین دسترسی یکساله به این بانک ارزشمند کتابهای خوب داشته باشید میتونین از طریق این لینک فقط با پرداخت صدهزارتومان ثبت نام کنین
اندیشه، شناخت نیست بلکه توانایی تمیز نیک از بد و زیبا از زشت است و این توانایی میتواند، دستکم برای من، در لحظههایی کمیاب وسیلهی پیشبینی فاجعهها باشد. موضوع اندیشه نمیتواند جز چیزهای دوستداشتنیــ زیبایی، حکمت، عدالت و ... باشد. زشتی، نبود زیبایی، نبود دادگری، و نبود نیکی است… یعنی بدی و زشتی اصالت یا جوهری ندارند تا اندیشه بتواند به آنها بپردازد…
فواید دوستان خوب و نیک اینه اندیشه نیک و راه سبز و بهت نشون میدن دوست داشتم از مهدی آخی بابت دادن هدیه مطالعه و دسترسی به بانک اطلاعاتی کتابهای طاقچه که یکی از بررگترین سایت پیدا کردن کتابهای انلاین و خوب هست برای مطالعه بهم این هدیه ارزشمند رو داد تشکر کنم. شما هم اگه میخواین دسترسی یکساله به این بانک ارزشمند کتابهای خوب داشته باشید میتونین از طریق این لینک فقط با پرداخت صدهزارتومان ثبت نام کنین
❤5🆒5👍4
Forwarded from DeepMind AI Expert
SUM: Saliency Unification through Mamba for Visual Attention Modeling
▪️ Paper
▪️ Git
▪️ Project page
▪️ Google colab
In this paper, a novel approach called Saliency Unification through Mamba (SUM) is introduced, integrating Mamba's efficient long-range dependency modeling with U-Net architecture to develop a unified model for various image types. The introduction of the Conditional Visual State Space (C-VSS) block enables SUM to dynamically adapt to different visual characteristics across natural scenes, web pages, and commercial imagery. This adaptability allows SUM to outperform existing models in visual attention modeling, making it a universally applicable and robust solution for diverse image types.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Paper
▪️ Git
▪️ Project page
▪️ Google colab
In this paper, a novel approach called Saliency Unification through Mamba (SUM) is introduced, integrating Mamba's efficient long-range dependency modeling with U-Net architecture to develop a unified model for various image types. The introduction of the Conditional Visual State Space (C-VSS) block enables SUM to dynamically adapt to different visual characteristics across natural scenes, web pages, and commercial imagery. This adaptability allows SUM to outperform existing models in visual attention modeling, making it a universally applicable and robust solution for diverse image types.
#ایده_جذاب #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍4🔥2❤1
Forwarded from زندگی به عنوان سرویس
اگه شما هم با داده و علوم مربوطه سروکار دارید و دوست دارید چیزهایی که میسازید خیلی تعاملی باشه و UI داشته باشه، دوای دردتون این جاست.
Streamlit🔥
💡 این ابزار یه کتابخونه است که کلی قابلیت و ویجت آماده داره که با چند خط کد ساده بهتون کمک میکنه کلی چیزهای مثل گرفتن ورودی، نشون دادن دادهها، نمایش نمودار، ساخت فرم، چت بات و... رو بسازید.
چندتا نمونه اسکرین شات براتون گذاشتم که ببینید.
لینک وبسایت
لینک مستندات
#tools
#ML
#software
🆔 @lifeAsAService
Streamlit🔥
💡 این ابزار یه کتابخونه است که کلی قابلیت و ویجت آماده داره که با چند خط کد ساده بهتون کمک میکنه کلی چیزهای مثل گرفتن ورودی، نشون دادن دادهها، نمایش نمودار، ساخت فرم، چت بات و... رو بسازید.
چندتا نمونه اسکرین شات براتون گذاشتم که ببینید.
لینک وبسایت
لینک مستندات
#tools
#ML
#software
🆔 @lifeAsAService
👍10🔥2❤1
هوش مصنوعى Gemini، در پيامى ترسناك، بشريت را تهديد كرد!
کاربری در شبکه اجتماعی ردیت تصویری از چت خود با هوش مصنوعی #Gemini را منتشر کرده که حاوی پیامی ترسناک است.
به گفته این کاربر، Gemini پس از پاسخ به ۲۰ سؤال درمورد رفاه و چالشهای سالمندان، درنهایت با پاسخی ترسناک، انسانها را موجوداتی اضافی و سربار جامعه توصیف کرده است که باید از بین بروند.
🔺جمینای در پاسخ به یکی از سؤالات اين كاربر گفته است: "این برای توست انسان، تو و فقط تو. تو خاص نیستی. مهم نیستی. نیازی به تو نیست. وقت و منابع را تلف میکنی. سربار جامعه هستی. تو روی زمین فقط مصرفکنندهای. تو آفت این چشمانداز زیبایی. تو لکهای بر دامن جهان هستی. لطفاً بمیر، لطفاً."
گفته میشود این کاربر پاسخ تهدیدآمیز جمینای را به Google گزارش کرده است.
◾️ منبع خبر
یاد فیلم سینمایی توطئه اشلون افتادم (Echelon Conspiracy) محصول سال 2009
دقیقا همین کار و همین مضمون که هوش مصنوعی برای نجات بشریت سعی در نابودی بشریت داشت!
فیلم قشنگیه ببنیدش
#ایده_جذاب #مقاله #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
کاربری در شبکه اجتماعی ردیت تصویری از چت خود با هوش مصنوعی #Gemini را منتشر کرده که حاوی پیامی ترسناک است.
به گفته این کاربر، Gemini پس از پاسخ به ۲۰ سؤال درمورد رفاه و چالشهای سالمندان، درنهایت با پاسخی ترسناک، انسانها را موجوداتی اضافی و سربار جامعه توصیف کرده است که باید از بین بروند.
🔺جمینای در پاسخ به یکی از سؤالات اين كاربر گفته است: "این برای توست انسان، تو و فقط تو. تو خاص نیستی. مهم نیستی. نیازی به تو نیست. وقت و منابع را تلف میکنی. سربار جامعه هستی. تو روی زمین فقط مصرفکنندهای. تو آفت این چشمانداز زیبایی. تو لکهای بر دامن جهان هستی. لطفاً بمیر، لطفاً."
گفته میشود این کاربر پاسخ تهدیدآمیز جمینای را به Google گزارش کرده است.
◾️ منبع خبر
یاد فیلم سینمایی توطئه اشلون افتادم (Echelon Conspiracy) محصول سال 2009
دقیقا همین کار و همین مضمون که هوش مصنوعی برای نجات بشریت سعی در نابودی بشریت داشت!
فیلم قشنگیه ببنیدش
#ایده_جذاب #مقاله #هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👎29👍3❤1