#معرفی_سایت
پر استارترین کتابخانه های پایتون در موضوعات مختلف رو در این سایت میتونی پیدا کنی:
awesomepython.org
#پایتون #python #github
#کتابخانه_های_پایتون
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
پر استارترین کتابخانه های پایتون در موضوعات مختلف رو در این سایت میتونی پیدا کنی:
awesomepython.org
#پایتون #python #github
#کتابخانه_های_پایتون
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6
Forwarded from Ali's Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - valeman/Awesome_Math_Books
Contribute to valeman/Awesome_Math_Books development by creating an account on GitHub.
👍4❤1👎1
سلام کسی تا حالا از لبزنت درخواست و یا پروپوزال ثبت کرده تا بهش سرورهای پردازش سریع برای محاسبات هوش مصنوعی بدن ؟ شرایط استفاده چی بوده و مدت زمان استفاده چقدر بوده ؟ چه مدارکی برای استفاده دادین ؟
https://labsnet.ir/
https://labsnet.ir/
شبکه آزمایشگاهی کشور
شبکه آزمایشگاهی کشور، دسترسی سریع به خدمات، تجهیزات و دستگاههای آزمایشگاههای کشور؛ مقالات تخصصی؛ دورههای آموزشی و تخفیف خدمات در باشگاه مشتریان
❤1👍1
DeepMind AI Expert
فرهنگستان ادب و زبان فارسی واژه "گرایه" رو به جای واژه "ترند" تصویب کرده! عجیب بودن این واژه، خودش میتونه یکی از "گرایههای" شبکههای اجتماعی باشه 🥴 گلایه کنیم یا گرایه 😂
اینا چی میگن نمونه کار کی هستن خودش بیاد اعتراف کنه هنوز از جایگزینی قبلی بارداریم اینم اضافه شد😂😂
🔺بهجای پیکسل بگویید «تَصدانه»
🔹به گفته پرویزی، فرهنگستان برای ترکیب پیکچر المنت «تصویردانه» و از ترکیب این دو واژه «تَصدانه» را ساخت که در واقع مخفف آنهاست.
🔺بهجای پیکسل بگویید «تَصدانه»
🔹به گفته پرویزی، فرهنگستان برای ترکیب پیکچر المنت «تصویردانه» و از ترکیب این دو واژه «تَصدانه» را ساخت که در واقع مخفف آنهاست.
👎11😁9❤5👍2
سلام کسی لیستی از مجلات در حیطه speech داره یا ریپلای کنین یا پی وی برام بفرستین ممنون میشم
This media is not supported in your browser
VIEW IN TELEGRAM
هرچند بقیه خودروسازیها اینو دارند اخیرا همچینی ها اگر دست روی فرمون نباشه هشدار میده و صنعت خودروسازی جهان داره به سمت امنیت بیشتر سرنشینان سوق پیدا میکنه
کسایی که در حیطه ماشینهای خودران کار میکنید ی بخشی از اینده شما میتونه چنین پروژه هایی باشه
#ماشین_خودران #بینایی_ماشین #مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
کسایی که در حیطه ماشینهای خودران کار میکنید ی بخشی از اینده شما میتونه چنین پروژه هایی باشه
#ماشین_خودران #بینایی_ماشین #مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍6🆒1
Forwarded from فرهنگ معین
#paper
#مقاله
#علوم_پزشکی
تعدادی از مقالات مروری در زمینهی LLM و VLM ها در حیطهی پزشکی.
1. Vision-Language Models for Medical Report Generation and Visual Question Answering: A Review | April 2024 | Link
2. Evaluating General Vision-Language Models for Clinical Medicine | April 2024 | Link
3. Medical Vision Language Pretraining: A survey | Dec 2023 | Link
4. A Comprehensive Survey of Large Language Models and Multimodal Large Language Models in Medicine | May 2024 | Link
5. A Survey on Medical Large Language Models | June 2024 | Link
#مقاله
#علوم_پزشکی
تعدادی از مقالات مروری در زمینهی LLM و VLM ها در حیطهی پزشکی.
1. Vision-Language Models for Medical Report Generation and Visual Question Answering: A Review | April 2024 | Link
2. Evaluating General Vision-Language Models for Clinical Medicine | April 2024 | Link
3. Medical Vision Language Pretraining: A survey | Dec 2023 | Link
4. A Comprehensive Survey of Large Language Models and Multimodal Large Language Models in Medicine | May 2024 | Link
5. A Survey on Medical Large Language Models | June 2024 | Link
👍6
Forwarded from Out of Distribution (Mahdi)
الگوریتم dbscan: نمودی از مظلومیت ماشینلرنینگ در برابر تجاوز دیپلرنینگ
معمولا وقتی اسم کلاسترینگ به گوش میخوره، معروفترین اسمی که به ذهن میاد kmeans هست. ولی خب روشهای معروف دیگهای هم جز kmeans هستند. یکی از معروفترین این روشها dbscan است. این روش این شکلیه که دو تا هایپرپارامتر اپسیلون و مینیمم تعداد همسایگی داره و میاد برای هر نقطه حساب میکنه میبینه در همسایگی به میزان اپسیلون اون نقطه، چند تا نقطه دیگه وجود دارند، اگر به اندازه اون هایپرپارامتر مینیمم تعداد همسایگی، نقطه وجود داشته باشه، اون نقطه به عنوان core point تعیین میشه. در مرحله بعدی میبینه که چه core pointهایی حالا در همسایگی هم هستند و یک chain یا در واقع یک connected component رو تشکیل میدن. به مجموعه اون core pointها یک کلاستر تخصیص میده. حالا نقاط دیگه یا در همسایگی یکی از این core pointهای یک کلاستر هستند که در این صورت جزو اون کلاستر میشن، یا در مجموعه همسایگی هیچ core point ای واقع نمیشن و در این صورت بهشون لیبل outlier میخوره. dbscan روش جالبیه و برخلاف kmeans میتونه بیشتر روی توزیع فوکس کنه و کلاسترهایی با شکلهای غیر توپی دربیاره، مثلا میتونه در کیسی که یک کلاستر، بیرون یک کلاستر دیگه رو محاصره کرده، کلاسترها رو از هم جدا کنه.
نکته این پست اما اینه که شما اگر الان برید از دانشجوهای هوش مصنوعی دانشگاه شریف هم بپرسید که dbscan چیه، به ندرت میدونن که چیه. در زمانهای نه چندان دور، معمولا dbscan یا در درس یادگیری ماشین بهش اشارهای میشد و یا این که اگر درس ارائه انتهای ترم داشت، کسی راجع به dbscan ارائه میداد. امروز اما اوضاع فرق کرده. قبلاها در درس یادگیری ماشین، خیلی مباحث نظیر انواع روشهای کلاسترینگ یا مثلا انواع روشهای feature reduction بحث میشد ولی جدیداها با مدشدن دیپلرنینگ، آتشش به دامن کورس یادگیری ماشین هم گرفته و به جای بحث در مورد یادگیری ماشین، انگار درس دیپه که ارائه میشه. خیلیها این نظر رو دارند که دیگه اون روشهای سابقی که تو ماشین لرنینگ بحث میشد با اومدن دیپ لرنینگ معنایی ندارند و نباید وقتی بابت اونها تلاف بشه. نظر شخصی من اما اینه که بخشی از وظیفه یک درس یا کورس، آموزش نحوه تفکر و مدلسازی هست و نه آموزش صرفا بهترین مدلسازی. خیلی مسائل و الگوریتمها در همین مباحث یادگیری ماشین غیردیپی هستند که روشهای دیپ روش جوابی ندارد یا جواب دارند ولی به طرز دیگهای به مساله نگاه میکنند. ممکنه مطرح کنید که خب وقتی طرف با مساله کلاسترینگ مواجه شد میره سرچ میکنه و میبینه که روش dbscan ای هم هست و یادش میگیره. منتهای مطلب این لازمهاش اینه که حداقل در متن درس ماشین لرنینگ، یک اشارهای بشه که همه یادگیری ماشین، شبکه عصبی نیست و به گوش دانشجو بخوره که روشهای کلاسترینگ موثر دیگهای هم هست.
#تجارب
معمولا وقتی اسم کلاسترینگ به گوش میخوره، معروفترین اسمی که به ذهن میاد kmeans هست. ولی خب روشهای معروف دیگهای هم جز kmeans هستند. یکی از معروفترین این روشها dbscan است. این روش این شکلیه که دو تا هایپرپارامتر اپسیلون و مینیمم تعداد همسایگی داره و میاد برای هر نقطه حساب میکنه میبینه در همسایگی به میزان اپسیلون اون نقطه، چند تا نقطه دیگه وجود دارند، اگر به اندازه اون هایپرپارامتر مینیمم تعداد همسایگی، نقطه وجود داشته باشه، اون نقطه به عنوان core point تعیین میشه. در مرحله بعدی میبینه که چه core pointهایی حالا در همسایگی هم هستند و یک chain یا در واقع یک connected component رو تشکیل میدن. به مجموعه اون core pointها یک کلاستر تخصیص میده. حالا نقاط دیگه یا در همسایگی یکی از این core pointهای یک کلاستر هستند که در این صورت جزو اون کلاستر میشن، یا در مجموعه همسایگی هیچ core point ای واقع نمیشن و در این صورت بهشون لیبل outlier میخوره. dbscan روش جالبیه و برخلاف kmeans میتونه بیشتر روی توزیع فوکس کنه و کلاسترهایی با شکلهای غیر توپی دربیاره، مثلا میتونه در کیسی که یک کلاستر، بیرون یک کلاستر دیگه رو محاصره کرده، کلاسترها رو از هم جدا کنه.
نکته این پست اما اینه که شما اگر الان برید از دانشجوهای هوش مصنوعی دانشگاه شریف هم بپرسید که dbscan چیه، به ندرت میدونن که چیه. در زمانهای نه چندان دور، معمولا dbscan یا در درس یادگیری ماشین بهش اشارهای میشد و یا این که اگر درس ارائه انتهای ترم داشت، کسی راجع به dbscan ارائه میداد. امروز اما اوضاع فرق کرده. قبلاها در درس یادگیری ماشین، خیلی مباحث نظیر انواع روشهای کلاسترینگ یا مثلا انواع روشهای feature reduction بحث میشد ولی جدیداها با مدشدن دیپلرنینگ، آتشش به دامن کورس یادگیری ماشین هم گرفته و به جای بحث در مورد یادگیری ماشین، انگار درس دیپه که ارائه میشه. خیلیها این نظر رو دارند که دیگه اون روشهای سابقی که تو ماشین لرنینگ بحث میشد با اومدن دیپ لرنینگ معنایی ندارند و نباید وقتی بابت اونها تلاف بشه. نظر شخصی من اما اینه که بخشی از وظیفه یک درس یا کورس، آموزش نحوه تفکر و مدلسازی هست و نه آموزش صرفا بهترین مدلسازی. خیلی مسائل و الگوریتمها در همین مباحث یادگیری ماشین غیردیپی هستند که روشهای دیپ روش جوابی ندارد یا جواب دارند ولی به طرز دیگهای به مساله نگاه میکنند. ممکنه مطرح کنید که خب وقتی طرف با مساله کلاسترینگ مواجه شد میره سرچ میکنه و میبینه که روش dbscan ای هم هست و یادش میگیره. منتهای مطلب این لازمهاش اینه که حداقل در متن درس ماشین لرنینگ، یک اشارهای بشه که همه یادگیری ماشین، شبکه عصبی نیست و به گوش دانشجو بخوره که روشهای کلاسترینگ موثر دیگهای هم هست.
#تجارب
Telegram
stuff
👌16👍7❤4👎3🆒2
Thinking LLMs
LlamaCast
🤔 Thinking LLMs: General Instruction Following with Thought Generation
This research paper explores the concept of "Thinking LLMs," or large language models that can generate internal thoughts before responding to user prompts. The authors propose a training method called Thought Preference Optimization (TPO) which uses an iterative process to encourage LLMs to develop thinking abilities. TPO leverages an existing judge model that evaluates responses, implicitly guiding the model to improve its thoughts based on the quality of the resulting responses. The study demonstrates that Thinking LLMs can outperform standard LLMs on various general instruction-following tasks, including those not typically associated with reasoning, such as marketing and health. The research highlights the potential for Thinking LLMs to expand the capabilities of these models beyond traditional reasoning and problem-solving domains.
📎 Link to paper
#TPO #Planning #Reasoning
@LlamaCast
This research paper explores the concept of "Thinking LLMs," or large language models that can generate internal thoughts before responding to user prompts. The authors propose a training method called Thought Preference Optimization (TPO) which uses an iterative process to encourage LLMs to develop thinking abilities. TPO leverages an existing judge model that evaluates responses, implicitly guiding the model to improve its thoughts based on the quality of the resulting responses. The study demonstrates that Thinking LLMs can outperform standard LLMs on various general instruction-following tasks, including those not typically associated with reasoning, such as marketing and health. The research highlights the potential for Thinking LLMs to expand the capabilities of these models beyond traditional reasoning and problem-solving domains.
📎 Link to paper
#TPO #Planning #Reasoning
@LlamaCast
Forwarded from Metis Ai
طبق این یافتهها کارهایی که بیشترین بازدهی از آنها گرفته شده است عبارتند از:
این مطالعه به مدیران فنی پیشنهاد میکند که با چهار اولویت سازمان را به سمت استفاده از این ابزارها سوق دهند:
منبع: McKinsey Study
اگر شما نیز مشتاق استفاده از ابزارهای دستیار برنامهنویسی شدید میتوانید به این پست از متیس مراجعه کنید و در کمتر از ۵ دقیقه آن را در اختیار بگیرید.
برای مطالب بیشتر و با خبر شدن از اخبار متیس ما رو دنبال کنید:
🟣ساختن محصولات هوش مصنوعی فقط در چند دقیقه در:
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3👌1
Forwarded from Out of Distribution (Mahdi)
رشد بدون نگهداری: تبدیل نعمت به عذاب
کتابخونهها و پکیجهایی که تو این چند سال اخیر با رشد هوش مصنوعی به بازار اومدن، مثل Langchain و Bertopic، و حتی بعضی وقتها خود Hugging Face، از نظر maintainance و جلوگیری از اسپاگتی شدن کدها خیلی اذیتکننده هستن. اولش یه ویژگی جذاب ارائه میدن و حسابی محبوب میشن، اما وقتی نوبت به اضافه کردن ویژگیهای جدید میرسه، خوب کدها و معماری رو مدیریت نمیکنن و انگار از لحاظ نرمافزاری کمتر توجهی به این فاکتور ندارن. سرعت اضافه شدن ویژگیهاشون بیشتر از سرعت نگهداری و بهینهسازی کدهاست و بعد از مدتی کار باهاشون خیلی دردناک و خستهکننده میشه. یک ویژگی مشترک دیگه بین اینها هم داکیومنتیشنهای افتضاحشونه، گاها حتی داکیومنتیشن ندارند برای فیچرهای جدیدشون، گاها N ورژن داکیومنتیشن دارند که به خاطر تفاوت معماری تو ورژنهای مختلف گیجکننده میشه و ....
شاید استفاده درست از اینها، در حد mvp باشه، مثلا وقتی میخوایم یک ایدهای رو تست بگیریم از اینها استفاده کنیم ولی بعد از اثبات اون mvp دیگه سعی کنیم تا حد امکان خودمون رو از اونها مستقل کنیم (این در مورد امثال langchain صدق میکنه وگرنه هاگینگ فیس اینا که بحثشون جداست)
پانوشت: مثلا langchain برای خودش langchain_core.pydantic_v1 و langchain_openai و ... تعریف کرده. خب این چه کار مسخرهایه
کتابخونهها و پکیجهایی که تو این چند سال اخیر با رشد هوش مصنوعی به بازار اومدن، مثل Langchain و Bertopic، و حتی بعضی وقتها خود Hugging Face، از نظر maintainance و جلوگیری از اسپاگتی شدن کدها خیلی اذیتکننده هستن. اولش یه ویژگی جذاب ارائه میدن و حسابی محبوب میشن، اما وقتی نوبت به اضافه کردن ویژگیهای جدید میرسه، خوب کدها و معماری رو مدیریت نمیکنن و انگار از لحاظ نرمافزاری کمتر توجهی به این فاکتور ندارن. سرعت اضافه شدن ویژگیهاشون بیشتر از سرعت نگهداری و بهینهسازی کدهاست و بعد از مدتی کار باهاشون خیلی دردناک و خستهکننده میشه. یک ویژگی مشترک دیگه بین اینها هم داکیومنتیشنهای افتضاحشونه، گاها حتی داکیومنتیشن ندارند برای فیچرهای جدیدشون، گاها N ورژن داکیومنتیشن دارند که به خاطر تفاوت معماری تو ورژنهای مختلف گیجکننده میشه و ....
شاید استفاده درست از اینها، در حد mvp باشه، مثلا وقتی میخوایم یک ایدهای رو تست بگیریم از اینها استفاده کنیم ولی بعد از اثبات اون mvp دیگه سعی کنیم تا حد امکان خودمون رو از اونها مستقل کنیم (این در مورد امثال langchain صدق میکنه وگرنه هاگینگ فیس اینا که بحثشون جداست)
پانوشت: مثلا langchain برای خودش langchain_core.pydantic_v1 و langchain_openai و ... تعریف کرده. خب این چه کار مسخرهایه
👍9👌1