Forwarded from School of AI (Hamidreza Hosseinkhani)
پژوهشگران، یک AI Agent مبتنی بر LLM را معرفی کردند که قادرست مقالههای علمی در سطح کنفرانس را نوشته و ارزیابی کند!
https://arxiv.org/pdf/2408.06292
https://arxiv.org/pdf/2408.06292
👍6😍1
Forwarded from CL & NLP Enthusiasts
📍لیست ابزارهای هوش مصنوعی رایگان برای مطالعه سریع مقالات
summarizer.scholarcy.com
خلاصه سازی مقاله
تولید خودکار فلش کارت و پاورپوینت
استخراج بخش های مهم مقاله
توضیح نتایج در یک جمله
semanticscholar.org
هایلایت بخش های مختلف مقاله
کارت های رفرنس برای مقاله
استخراج جملات مهم مقاله برای مطالعه سریع
perplexity.ai
خلاصه سازی و نکته برداری علمی مقالات با رفرنس
دسترسی به GPT-4
app.silatus.com
خلاصه سازی مقالات
امکان آپلود مقالات بسیار حجیم
ارائه API برای خودکاری سازی
cubox.cc
تولید خودکار فهرست محتوا
توضیح تکمیلی برای هر بخش
خلاصه سازی و ساده سازی متن
storywiz.io
ساخت خودکار ارائه تصویری زیبا در قالب استوری
افزونه مرورگر
خلاصه سازی مقالات
chat.portal.so
پاسخ به سوال براساس مقاله
دسترسی به مدلهای GPT-4 vision
دسترسی به مدلهای متن باز جهت استفاده نامحدود
threesigma.ai
پاسخ به سوال بر اساس مقاله با رفرنس به محتوای مقاله
امکان آپلود مقاله تا حجم 30 مگابایت
چت با یک یا چند مقاله
sread.ai
طرح سوال از مقاله
افزونه مرورگر
تولید نقشه ذهنی از مقاله
ساخت خودکار گراف دانش
summarizer.scholarcy.com
خلاصه سازی مقاله
تولید خودکار فلش کارت و پاورپوینت
استخراج بخش های مهم مقاله
توضیح نتایج در یک جمله
semanticscholar.org
هایلایت بخش های مختلف مقاله
کارت های رفرنس برای مقاله
استخراج جملات مهم مقاله برای مطالعه سریع
perplexity.ai
خلاصه سازی و نکته برداری علمی مقالات با رفرنس
دسترسی به GPT-4
app.silatus.com
خلاصه سازی مقالات
امکان آپلود مقالات بسیار حجیم
ارائه API برای خودکاری سازی
cubox.cc
تولید خودکار فهرست محتوا
توضیح تکمیلی برای هر بخش
خلاصه سازی و ساده سازی متن
storywiz.io
ساخت خودکار ارائه تصویری زیبا در قالب استوری
افزونه مرورگر
خلاصه سازی مقالات
chat.portal.so
پاسخ به سوال براساس مقاله
دسترسی به مدلهای GPT-4 vision
دسترسی به مدلهای متن باز جهت استفاده نامحدود
threesigma.ai
پاسخ به سوال بر اساس مقاله با رفرنس به محتوای مقاله
امکان آپلود مقاله تا حجم 30 مگابایت
چت با یک یا چند مقاله
sread.ai
طرح سوال از مقاله
افزونه مرورگر
تولید نقشه ذهنی از مقاله
ساخت خودکار گراف دانش
👍6❤4
Melanee AI & Physics
Photo
تبدیل متن به SQL!
به کمک این هوش مصنوعی میتوانید هر کد SQL ای را که میخواهید با نوشتن توضیحات راجب آن کد، به دست بیاورید و یا بلعکس میتوانید کد SQL را به برنامه بدهید تا راجب آن کد توضیح دهد.
این هوش مصنوعی ابزارهای جالب دیگری هم دارد.
http://text2sql.ai
به کمک این هوش مصنوعی میتوانید هر کد SQL ای را که میخواهید با نوشتن توضیحات راجب آن کد، به دست بیاورید و یا بلعکس میتوانید کد SQL را به برنامه بدهید تا راجب آن کد توضیح دهد.
این هوش مصنوعی ابزارهای جالب دیگری هم دارد.
http://text2sql.ai
Text to SQL with AI, in seconds
Save time by letting AI write your SQL code for you. Effortlessly generate optimized SQL queries using your native language.
👍7❤5
Melanee AI & Physics
How to represent a neural network with matrices ارتباط ماتریس ها در یادگیری عمیق📚🧮 ماتریس ها را در جبر خطی می خوانیم💥. منبع: یوتیوب، کانال CS-Swift
فهم عمیق نورون های شبکه عصبی را در پست های پروفسور Tom Yeh در لینکدین ببینید:
https://www.linkedin.com/posts/tom-yeh_mlp-aibyhand-neuralnetworks-activity-7233828307757113344-2o_t?utm_source=share&utm_medium=member_android
https://www.linkedin.com/posts/tom-yeh_mlp-aibyhand-neuralnetworks-activity-7233828307757113344-2o_t?utm_source=share&utm_medium=member_android
Linkedin
#mlp #aibyhand #neuralnetworks #deeplearning | Tom Yeh | 27 comments
Anna' video demonstration of Multi-Layer Perceptron (MLP) by hand ✍️
Anna Rahn made this short video for my computer vision course in the spring semester. Together with the spreadsheet exercise I posted last week, I hope they help more people understand…
Anna Rahn made this short video for my computer vision course in the spring semester. Together with the spreadsheet exercise I posted last week, I hope they help more people understand…
👍4👎1😍1
چند روز پیش میخواستم مدل Llama 2 رو روی دیتای خودم فاین تیون کنم ولی چون میخواستم روی گوگل کولب کار کنم این کار عملی نبود چون گوگل کولب ریسورس های محدودی داره و مدل به این بزرگی رو نمیشه بر روی آن train کرد. برای همین از تکنیکِ
LoRA (Low Rank Adaption)
استفاده کردم که چون این تکنیک میاد تعداد پارامترهای قابل آموزش رو کم تر میکنه و کار trainig راحت تر انجام میشه.
سورس کدهای استفاده از LoRA رو در این ریپازیتوری گیت هابم میتونید ببینید:
https://github.com/Melanee-Melanee/LLMs/tree/main/Llama/Fine_tune_Llama_2
LoRA (Low Rank Adaption)
استفاده کردم که چون این تکنیک میاد تعداد پارامترهای قابل آموزش رو کم تر میکنه و کار trainig راحت تر انجام میشه.
سورس کدهای استفاده از LoRA رو در این ریپازیتوری گیت هابم میتونید ببینید:
https://github.com/Melanee-Melanee/LLMs/tree/main/Llama/Fine_tune_Llama_2
👍12❤1
👍7❤3👎1
#تجربه
امروز برای کاری مجبور بودم پروژه های سه سال پیشم رو دوباره اجرا کنم ولی بعضی برنامه هام رو به علت تداخل ورژن ها نتونستم اجرا کنم.
از طرفی هم چون اون زمان تازه کار بودم نمیدونستم که باید ورژن دقیق کتابخانه ها و ماژول هایی که استفاده میکنم رو سیو کنم؛ برای همین نمیدونستم کدوم ورژن هارو اون زمان استفاده کردم.
خیلی فکر کردم و در نهایت این راه حل به ذهنم رسید که من اگر تاریخ دقیق اجرای برنامه هام در سه سال پیش رو بدونم میتونم شماره ورژن کتابخانه هارو از مخزن PyPI پیدا کنم؛ هر کتابخانه در مخزن PyPI یک قسمت Release history داره که تمام ورژن های اون کتابخانه رو طبق تاریخ انتشارش منتشر کرده.
به این روش تونستم شماره دقیق ورژن هارو دربیارم و کتابخانه هارو دقیق با همون ورژن ها دوباره نصب کنم و مشکلم برطرف شد. یک فایل requirements.txt هم درست کردم.
پ.ن: وقتی میزنید pip install آخرین ورژن اون کتابخانه برای شما نصب میشه. اگر بخواید ورژن های گذشته براتون نصب شه، مثلا کتابخانه نامپای در تاریخ نوامبر ۲۰۲۲:
امروز برای کاری مجبور بودم پروژه های سه سال پیشم رو دوباره اجرا کنم ولی بعضی برنامه هام رو به علت تداخل ورژن ها نتونستم اجرا کنم.
از طرفی هم چون اون زمان تازه کار بودم نمیدونستم که باید ورژن دقیق کتابخانه ها و ماژول هایی که استفاده میکنم رو سیو کنم؛ برای همین نمیدونستم کدوم ورژن هارو اون زمان استفاده کردم.
خیلی فکر کردم و در نهایت این راه حل به ذهنم رسید که من اگر تاریخ دقیق اجرای برنامه هام در سه سال پیش رو بدونم میتونم شماره ورژن کتابخانه هارو از مخزن PyPI پیدا کنم؛ هر کتابخانه در مخزن PyPI یک قسمت Release history داره که تمام ورژن های اون کتابخانه رو طبق تاریخ انتشارش منتشر کرده.
به این روش تونستم شماره دقیق ورژن هارو دربیارم و کتابخانه هارو دقیق با همون ورژن ها دوباره نصب کنم و مشکلم برطرف شد. یک فایل requirements.txt هم درست کردم.
پ.ن: وقتی میزنید pip install آخرین ورژن اون کتابخانه برای شما نصب میشه. اگر بخواید ورژن های گذشته براتون نصب شه، مثلا کتابخانه نامپای در تاریخ نوامبر ۲۰۲۲:
pip install numpy==1.23.5
👍22✍2
Melanee AI & Physics
#تجربه امروز برای کاری مجبور بودم پروژه های سه سال پیشم رو دوباره اجرا کنم ولی بعضی برنامه هام رو به علت تداخل ورژن ها نتونستم اجرا کنم. از طرفی هم چون اون زمان تازه کار بودم نمیدونستم که باید ورژن دقیق کتابخانه ها و ماژول هایی که استفاده میکنم رو سیو کنم؛…
راستی یادم رفت بگم، تاریخ اجرای پروژه هام رو از تاریخ اولین کامیت اون پروژه ام در GitHub پیدا کردم.
این طوری معما حل شد.
این طوری معما حل شد.
👍14🔥1
دوستان و همکاران عزیزم من یک برنامه جالب پایتونی نوشتم که به ما کمک میکنه بدون اینکه بخوایم تعداد زیادی فایل PDF رو باز کنیم و بخونیم، برنامه تمام PDF هارو میخونه و فایل هارو طبق تعداد کلمات کلیدی (keyword) که ما بهش دادیم در خروجی مرتب (sort) میکنه و به ما نشون میده!
در واقع به ما کمک میکنه سریع متوجه بشیم کدوم فایل های PDF مرتبط تر هست با اون چیزی که ما میخوایم.
این برنامه، کاربرد های زیادی میتونه داشته باشه مثلا به رکروترها و مدیران استخدام کننده کمک میکنه که در سریع ترین زمان ممکن، از بین تعداد زیادی رزومه که به دست شون رسیده، مرتبط ترین کارمند رو انتخاب کنند. اسم این برنامه رو
Simple Resume Analyzer
گذاشتم.
کد رو در قالب یک فایل ژوپیتر نوت بوک در گیتهابم منتشر کردم، خیلی ممنون میشم به این ریپازیتوری من یک ستاره (star) بدید🥰🙏❤🌸.
https://github.com/Melanee-Melanee/Simple_Resume_Analyzer
در واقع به ما کمک میکنه سریع متوجه بشیم کدوم فایل های PDF مرتبط تر هست با اون چیزی که ما میخوایم.
این برنامه، کاربرد های زیادی میتونه داشته باشه مثلا به رکروترها و مدیران استخدام کننده کمک میکنه که در سریع ترین زمان ممکن، از بین تعداد زیادی رزومه که به دست شون رسیده، مرتبط ترین کارمند رو انتخاب کنند. اسم این برنامه رو
Simple Resume Analyzer
گذاشتم.
کد رو در قالب یک فایل ژوپیتر نوت بوک در گیتهابم منتشر کردم، خیلی ممنون میشم به این ریپازیتوری من یک ستاره (star) بدید🥰🙏❤🌸.
https://github.com/Melanee-Melanee/Simple_Resume_Analyzer
👏19❤10👍5
مفتخرم اعلام کنم پروژه ی "ترجمه ی خط میخی فارسی باستان با هوش مصنوعی" من در هفتمین همایش ملی زبان شناسی رایانشی پذیرفته شد و قراره آبان ۱۴۰۳ در پژوهشگاه علوم انسانی و مطالعات فرهنگی راجبش سخنرانی کنم.
بعد از برگزاری همایش هم به امید خدا قراره مقاله ام در مجله "زبان و زبان شناسی" که یکی از معتبرترین مجله های ایران در حوزه زبان شناسی هست چاپ و منتشر بشه🥰.
از خانم دکتر صالحی، دبیر همایش، برای تشویق من به ارسال مقاله ام به همایش بسیار سپاسگزارم و از خداوند برایشان آرزوی سلامتی و موفقیت دارم.🙏❤.
لینک گیت هاب پروژه:
https://github.com/Melanee-Melanee/Old-Persian-Cuneiform-OCR۱
بعد از برگزاری همایش هم به امید خدا قراره مقاله ام در مجله "زبان و زبان شناسی" که یکی از معتبرترین مجله های ایران در حوزه زبان شناسی هست چاپ و منتشر بشه🥰.
از خانم دکتر صالحی، دبیر همایش، برای تشویق من به ارسال مقاله ام به همایش بسیار سپاسگزارم و از خداوند برایشان آرزوی سلامتی و موفقیت دارم.🙏❤.
لینک گیت هاب پروژه:
https://github.com/Melanee-Melanee/Old-Persian-Cuneiform-OCR۱
❤32👏7👍4🤣1
چند روز پیش در مراسم بزرگداشت پروفسور عبدالمجید ارفعی (متخصص خط میخی ایلامی) حضور داشتم، ایشون فرمودند در حدود سال ۱۳۱۴ به وقت دولت رضا شاه، تعداد حدود ۳۰ هزار کتیبه ی باستانی که از باروی شمال شرقی تخت جمشید کشف شده بودند، برای تحقیقات به موسسه شرقی دانشگاه شیکاگو آمریکا، ارسال شدند (به صورت امانی).
این کتیبه ها در ۵۴ جعبه چوبی بسته بندی شدند و از طریق بندر بوشهر به آمریکا فرستاده شدند و پس از گذشت ۸۹ سال هنوز به صورت کامل به ایران برنگشتند، فقط تعدادیشون طی دوره های مختلف در سفرهای ریاست جمهوری به وطن بازگردانده شدند.
پروفسور عبد المجید ارفعی فرمودند هنوز تعداد زیادی از این کتیبه ها خوانش نشده چون خوانش این کتیبه ها بسیار وقت گیر هست؛ یعنی ما هنوز کلی اسناد تاریخی داریم که از محتواشون بیخبر هستیم!
اگر پروژه ی من برای این کتیبه ها به کار گرفته بشه، خیلی سریع میتونیم کتیبه هارو خوانش کنیم و از اطلاعات این گنجینه های با ارزش با خبر بشیم؛ چون سرعت مغز کامپیوتر از مغز انسانی بسیار سریعتر هست.
پ.ن: مراسم بزرگداشت پروفسور عبدالمجید ارفعی، تهران، خانه هنرمندان ایران، نوزدهم مهر سال ۱۴۰۳ هجری خورشیدی
این کتیبه ها در ۵۴ جعبه چوبی بسته بندی شدند و از طریق بندر بوشهر به آمریکا فرستاده شدند و پس از گذشت ۸۹ سال هنوز به صورت کامل به ایران برنگشتند، فقط تعدادیشون طی دوره های مختلف در سفرهای ریاست جمهوری به وطن بازگردانده شدند.
پروفسور عبد المجید ارفعی فرمودند هنوز تعداد زیادی از این کتیبه ها خوانش نشده چون خوانش این کتیبه ها بسیار وقت گیر هست؛ یعنی ما هنوز کلی اسناد تاریخی داریم که از محتواشون بیخبر هستیم!
اگر پروژه ی من برای این کتیبه ها به کار گرفته بشه، خیلی سریع میتونیم کتیبه هارو خوانش کنیم و از اطلاعات این گنجینه های با ارزش با خبر بشیم؛ چون سرعت مغز کامپیوتر از مغز انسانی بسیار سریعتر هست.
پ.ن: مراسم بزرگداشت پروفسور عبدالمجید ارفعی، تهران، خانه هنرمندان ایران، نوزدهم مهر سال ۱۴۰۳ هجری خورشیدی
❤24👍9
به استحضار میرسانم؛ پروژه ی تحقیقاتی من راجع به "ترجمه ی خط میخی فارسی باستان با هوش مصنوعی" در هفتمین کنفرانس ملی زبان شناسی رایانشی در محل پژوهشگاه علوم انسانی و مطالعات فرهنگی ارائه شد.
فایل مقاله ام را می توانید از لینک زیر دانلود کنید:
https://www.researchgate.net/publication/382528886_Translating_Old_Persian_cuneiform_by_artificial_intelligence_AI
امیدوارم کار تحقیقاتی من در این پروژه توسط محقق های دیگر ادامه پیدا کند تا دستاورد های با ارزش این پروژه را در پیشرفت فرهنگ و تمدن کشور عزیزمان ایران ببینیم.
#پروژه_EOPL
#ترجمه_خط_میخی_فارسی_باستان
#هوش_مصنوعی
فایل مقاله ام را می توانید از لینک زیر دانلود کنید:
https://www.researchgate.net/publication/382528886_Translating_Old_Persian_cuneiform_by_artificial_intelligence_AI
امیدوارم کار تحقیقاتی من در این پروژه توسط محقق های دیگر ادامه پیدا کند تا دستاورد های با ارزش این پروژه را در پیشرفت فرهنگ و تمدن کشور عزیزمان ایران ببینیم.
#پروژه_EOPL
#ترجمه_خط_میخی_فارسی_باستان
#هوش_مصنوعی
❤37👏3🕊3🔥1👌1💔1
سرچ کردن در پی دی اف های غیر قابل سرچ
دوستان عزیز من برای کار خودم نیاز داشتم که روی کتاب های pdf غیرقابل سرچ (اسکن شده)، سرچ انجام بدم، برای همین برنامه اش رو نوشتم.
به کمک این برنامه میتونید کلمه ی کلیدی مورد نظرتون رو در اون کتاب، OCR کنید.
برای هر دو زبان فارسی و انگلیسی هم کار میکنه.
سورس کدم رو در گیت هاب منتشر کردم، اگر نیاز داشتید استفاده کنید و به ریپازیتوریم یک استار بدید، ممنونم.
https://github.com/Melanee-Melanee/OCR-on-PDF
دوستان عزیز من برای کار خودم نیاز داشتم که روی کتاب های pdf غیرقابل سرچ (اسکن شده)، سرچ انجام بدم، برای همین برنامه اش رو نوشتم.
به کمک این برنامه میتونید کلمه ی کلیدی مورد نظرتون رو در اون کتاب، OCR کنید.
برای هر دو زبان فارسی و انگلیسی هم کار میکنه.
سورس کدم رو در گیت هاب منتشر کردم، اگر نیاز داشتید استفاده کنید و به ریپازیتوریم یک استار بدید، ممنونم.
https://github.com/Melanee-Melanee/OCR-on-PDF
❤25🔥6🙏5👏4😍2
چند وقته ذهنم درگیر این سوال بود که پاسخنامه های کاغذی کنکور چطوری تصحیح میشن.
انقدر سرچ کردم تا فهمیدم تصحیح پاسخنامهی آزمون های تستی به کمک تکنیکی به اسمِ
OMR (Optical Mark Recognition)
انجام میشه. این تکنیک بسیار شبیه به OCR هست ولی الگوریتم های ساده تری دارد.
نمونه کد این تکنیک به زبان برنامه نویسی پایتون رو در گیت هاب زیر میتونید مشاهده کنید:
https://github.com/Practical-CV/OMR-Scanner-and-Test-Grader-using-OpenCV
پ.ن: عکس تزیینی است.
#پردازش_تصویر
انقدر سرچ کردم تا فهمیدم تصحیح پاسخنامهی آزمون های تستی به کمک تکنیکی به اسمِ
OMR (Optical Mark Recognition)
انجام میشه. این تکنیک بسیار شبیه به OCR هست ولی الگوریتم های ساده تری دارد.
نمونه کد این تکنیک به زبان برنامه نویسی پایتون رو در گیت هاب زیر میتونید مشاهده کنید:
https://github.com/Practical-CV/OMR-Scanner-and-Test-Grader-using-OpenCV
پ.ن: عکس تزیینی است.
#پردازش_تصویر
👍16❤4🤯2🙏2
DeepSeek_V3-1.pdf
1.6 MB
مقالهی مدل دیپ سیک (DeepSeek)
منبع:
https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf
منبع:
https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf
👍8🔥4
Melanee AI & Physics
THE_FANTASTIC_INVENTIONS_OF_NIKOLA_TESLA.pdf
اختراعات نیکولا تسلا، فیزیکدانی که بیش از ۳۰۰ اختراع در جهان ثبت کرد.
❤5👍2
Melanee AI & Physics
اختراعات نیکولا تسلا، فیزیکدانی که بیش از ۳۰۰ اختراع در جهان ثبت کرد.
کسانی که در زمینه هوش مصنوعی گرایش رباتیک و نیز سیتم های امبدد (Embeded) فعالیت میکنند میدونند که یکی از پایه های مهم کاریشون مفاهیم اساسی فیزیک هست که در ادامه بهشون اشاره میکنم:
❤9👏2