مقالات با بیشترین استناد توی قرن 21. متنباز بودن، یکی از اصلیترین دلایل استناد بالا مقالات توی حوزه هوشمصنوعی و نرمافزار!
طبق تحلیلهای Nature، پر استنادترین مقالات قرن بیست و یکم بیشتر بر توسعههای هوش مصنوعی، روشهای بهبود کیفیت تحقیق یا بررسیهای سیستماتیک، آمار سرطان و نرمافزارهای تحقیقاتی تمرکز دارن، نه لزوماً بزرگترین کشفیات علمی. این تحلیل بر اساس رتبه میانی مقالات توی پنج پایگاه داده استنادی شامل Web of Science، Scopus، OpenAlex، Dimensions و Google Scholar انجام شده.
لینک خبر
طبق تحلیلهای Nature، پر استنادترین مقالات قرن بیست و یکم بیشتر بر توسعههای هوش مصنوعی، روشهای بهبود کیفیت تحقیق یا بررسیهای سیستماتیک، آمار سرطان و نرمافزارهای تحقیقاتی تمرکز دارن، نه لزوماً بزرگترین کشفیات علمی. این تحلیل بر اساس رتبه میانی مقالات توی پنج پایگاه داده استنادی شامل Web of Science، Scopus، OpenAlex، Dimensions و Google Scholar انجام شده.
لینک خبر
👌1
The Misgeneralization Mind
مقالات با بیشترین استناد توی قرن 21. متنباز بودن، یکی از اصلیترین دلایل استناد بالا مقالات توی حوزه هوشمصنوعی و نرمافزار! طبق تحلیلهای Nature، پر استنادترین مقالات قرن بیست و یکم بیشتر بر توسعههای هوش مصنوعی، روشهای بهبود کیفیت تحقیق یا بررسیهای سیستماتیک،…
ظهور هوش مصنوعی
جف هینتون، دانشمند کامپیوتر دانشگاه تورنتو که سال گذشته بخشی از جایزه نوبل فیزیک رو به خاطر کاراش در زمینه هوش مصنوعی به دست آورده، میگه مقالات هوش مصنوعی از قبل با یه سری مزیتهای طبیعی توی جذب استناد همراه هستن. اون میگه مقالات این حوزه روی کلی رشته تاثیر میذارن و قرن بیست و یکم شاهد پیشرفتهای خیلی سریع و تعداد زیادی مقاله در این زمینه بوده.
خیلیها انقلابی در زمینه یادگیری عمیق رو مدیون مقالهای میدونن که جف هینتون توی سال ۲۰۱۲ با همکاریهای خود نوشت. این مقاله یه شبکه عصبی چند لایه رو معرفی کرد (بعداً بهش اسم AlexNet رو دادن) که توی یه مسابقه تشخیص و برچسبگذاری تصاویر خیلی بهتر از روشهای دیگه عمل کرد. اون مقاله رتبه هشتم فهرست مقالات قرن بیست و یکم رو داره، و یه مقاله مروری درباره یادگیری عمیق که هینتون و همکاراش نوشتن، رتبه شان شانزدهم شده. (همچنین یه مقاله از سال ۲۰۰۹ به نام «ImageNet: A Large-Scale Hierarchical Image Database» وجود داره که دیتاستهایی رو معرفی کرده که محققا برای آموزش نرمافزارهای طبقهبندی ازش استفاده کردن و رتبه ۲۴ رو داره.)
سه سال بعد از مقالهای که AlexNet رو معرفی کرده بود، یه مقاله تاثیرگذار تغییراتی در ساختار اون شبکه اعمال کرد که به U-netها منجر شد؛ این ساختارها برای پردازش تصاویر به دادههای کمتر برای آموزش نیاز دارند و الان رتبه دوازدهم فهرست رو دارن. یکی از همنویسندهها، اولاف رونِنبُرگر که به خاطر این مقاله توسط گوگل دیپمایند در لندن استخدام شده، میگه کنفرانسی که در نهایت این مقاله رو پذیرفت، تقریباً به این خاطر ردش کرده که نوآورانه کافی نبوده. اون اضافه میکنه: «این شبکه هنوز هم به عنوان موتور اصلی در بیشتر مدلهای انتشار (دیفیوژن) برای تولید تصویر استفاده میشه.»
دنبال این مقاله، مقاله مایکروسافت وارد صحنه شد که الان به عنوان پربازدهترین مقاله شناخته میشه. و در سال ۲۰۱۷، محققهای گوگل مقالهای سرسخت با عنوان «تنها چیزی که نیاز دارید توجه است» منتشر کردن، که معماری شبکه عصبی به نام ترانسفورمر رو معرفی کرد. این معماری پایه پیشرفتهای مدلهای زبان بزرگ مثل ChatGPT هست؛ چون به شبکهها کمک میکنه اطلاعات مربوطه رو هنگام یادگیری اولویتبندی کنن. این مقاله در میان مقالات قرن بیست و یکم، هفتمین مقاله پربازده محسوب میشه.
برخی محققها هم معتقدند اینکه طبیعت متنباز بودن بخش عمدهای از آثار اولیه دانشگاهی در زمینه یادگیری ماشین به افزایش استنادها کمک کرده. ششمین مقاله پربازده با عنوان «جنگلهای تصادفی» یه الگوریتم یادگیری ماشین رو معرفی میکنه که نسبت به روشهای قبلی مشابه بهبود یافته. آدل کوتلر، آمارشناس دانشگاه ایالت یوتا، که با نویسنده مرحوم این مقاله یعنی لئو برایمن کار کرده، میگه که این مقاله محبوبه چون روش ارائهشده متنباز، رایگان و کار کردن روی اون خیلی راحت هست؛ همچنین بدون نیاز به تغییرات و تنظیمات خاص، به خوبی عمل میکنه.
خیلی از مقالات هوش مصنوعی قبل از اینکه به طور رسمی مورد بازبینی قرار بگیرند، به صورت پیشچاپ منتشر شدند؛ این موضوع شمارش استنادها رو کمی پیچیده کرده. اکثر پایگاههای داده تجاری یا پیشچاپها رو دنبال نمیکنن یا سعی نمیکنن استنادهای پیشچاپها رو با نسخههای نهایی یک مقاله ادغام کنن، به این معنی که تعداد واقعی استنادها بیشتر از آن چیزی است که به چشم میاد. با رایجتر شدن ارجاع به پیشچاپها، ممکنه پایگاههای داده مجبور بشن قوانین جدیدی رو برای جمعبندی این استنادها اتخاذ کنن، به گفته پل ووترز، پژوهشگر بازنشسته در زمینه علمسنجی از دانشگاه لیدن در هلند.
پایگاه داده OpenAlex (یکی از منابع Nature برای این مقاله) تلاش میکنه تا استنادها رو با ادغام پیشچاپ و مقاله نهایی جمع کنه، به گفته یکی از بنیانگذاران اون یعنی جیسون پریِم از OurResearch، یک موسسه غیرانتفاعی خدمات پژوهشی در ونکوور کانادا که این پایگاه رو توسعه داده. و گوگل اسکالر هم سعی میکنه تمام نسخههای یک اثر رو گروهبندی کنه و استنادها رو به هم جمع کنه، به گفته انورگ آچاریا، یکی از بنیانگذاران که برای گوگل در ماونتین ویو، کالیفرنیا کار میکنه.
جف هینتون، دانشمند کامپیوتر دانشگاه تورنتو که سال گذشته بخشی از جایزه نوبل فیزیک رو به خاطر کاراش در زمینه هوش مصنوعی به دست آورده، میگه مقالات هوش مصنوعی از قبل با یه سری مزیتهای طبیعی توی جذب استناد همراه هستن. اون میگه مقالات این حوزه روی کلی رشته تاثیر میذارن و قرن بیست و یکم شاهد پیشرفتهای خیلی سریع و تعداد زیادی مقاله در این زمینه بوده.
خیلیها انقلابی در زمینه یادگیری عمیق رو مدیون مقالهای میدونن که جف هینتون توی سال ۲۰۱۲ با همکاریهای خود نوشت. این مقاله یه شبکه عصبی چند لایه رو معرفی کرد (بعداً بهش اسم AlexNet رو دادن) که توی یه مسابقه تشخیص و برچسبگذاری تصاویر خیلی بهتر از روشهای دیگه عمل کرد. اون مقاله رتبه هشتم فهرست مقالات قرن بیست و یکم رو داره، و یه مقاله مروری درباره یادگیری عمیق که هینتون و همکاراش نوشتن، رتبه شان شانزدهم شده. (همچنین یه مقاله از سال ۲۰۰۹ به نام «ImageNet: A Large-Scale Hierarchical Image Database» وجود داره که دیتاستهایی رو معرفی کرده که محققا برای آموزش نرمافزارهای طبقهبندی ازش استفاده کردن و رتبه ۲۴ رو داره.)
سه سال بعد از مقالهای که AlexNet رو معرفی کرده بود، یه مقاله تاثیرگذار تغییراتی در ساختار اون شبکه اعمال کرد که به U-netها منجر شد؛ این ساختارها برای پردازش تصاویر به دادههای کمتر برای آموزش نیاز دارند و الان رتبه دوازدهم فهرست رو دارن. یکی از همنویسندهها، اولاف رونِنبُرگر که به خاطر این مقاله توسط گوگل دیپمایند در لندن استخدام شده، میگه کنفرانسی که در نهایت این مقاله رو پذیرفت، تقریباً به این خاطر ردش کرده که نوآورانه کافی نبوده. اون اضافه میکنه: «این شبکه هنوز هم به عنوان موتور اصلی در بیشتر مدلهای انتشار (دیفیوژن) برای تولید تصویر استفاده میشه.»
دنبال این مقاله، مقاله مایکروسافت وارد صحنه شد که الان به عنوان پربازدهترین مقاله شناخته میشه. و در سال ۲۰۱۷، محققهای گوگل مقالهای سرسخت با عنوان «تنها چیزی که نیاز دارید توجه است» منتشر کردن، که معماری شبکه عصبی به نام ترانسفورمر رو معرفی کرد. این معماری پایه پیشرفتهای مدلهای زبان بزرگ مثل ChatGPT هست؛ چون به شبکهها کمک میکنه اطلاعات مربوطه رو هنگام یادگیری اولویتبندی کنن. این مقاله در میان مقالات قرن بیست و یکم، هفتمین مقاله پربازده محسوب میشه.
برخی محققها هم معتقدند اینکه طبیعت متنباز بودن بخش عمدهای از آثار اولیه دانشگاهی در زمینه یادگیری ماشین به افزایش استنادها کمک کرده. ششمین مقاله پربازده با عنوان «جنگلهای تصادفی» یه الگوریتم یادگیری ماشین رو معرفی میکنه که نسبت به روشهای قبلی مشابه بهبود یافته. آدل کوتلر، آمارشناس دانشگاه ایالت یوتا، که با نویسنده مرحوم این مقاله یعنی لئو برایمن کار کرده، میگه که این مقاله محبوبه چون روش ارائهشده متنباز، رایگان و کار کردن روی اون خیلی راحت هست؛ همچنین بدون نیاز به تغییرات و تنظیمات خاص، به خوبی عمل میکنه.
خیلی از مقالات هوش مصنوعی قبل از اینکه به طور رسمی مورد بازبینی قرار بگیرند، به صورت پیشچاپ منتشر شدند؛ این موضوع شمارش استنادها رو کمی پیچیده کرده. اکثر پایگاههای داده تجاری یا پیشچاپها رو دنبال نمیکنن یا سعی نمیکنن استنادهای پیشچاپها رو با نسخههای نهایی یک مقاله ادغام کنن، به این معنی که تعداد واقعی استنادها بیشتر از آن چیزی است که به چشم میاد. با رایجتر شدن ارجاع به پیشچاپها، ممکنه پایگاههای داده مجبور بشن قوانین جدیدی رو برای جمعبندی این استنادها اتخاذ کنن، به گفته پل ووترز، پژوهشگر بازنشسته در زمینه علمسنجی از دانشگاه لیدن در هلند.
پایگاه داده OpenAlex (یکی از منابع Nature برای این مقاله) تلاش میکنه تا استنادها رو با ادغام پیشچاپ و مقاله نهایی جمع کنه، به گفته یکی از بنیانگذاران اون یعنی جیسون پریِم از OurResearch، یک موسسه غیرانتفاعی خدمات پژوهشی در ونکوور کانادا که این پایگاه رو توسعه داده. و گوگل اسکالر هم سعی میکنه تمام نسخههای یک اثر رو گروهبندی کنه و استنادها رو به هم جمع کنه، به گفته انورگ آچاریا، یکی از بنیانگذاران که برای گوگل در ماونتین ویو، کالیفرنیا کار میکنه.
👌1
دارم کتاب Artificial Intelligence A Modern Approach رو ترجمه میکنم و فعلاً فصل یک کامل شده. فصل دوم هم چیز زیادی نمونده و تا چند وقت دیگه اونم اضافه میشه. باقی فصول رو هم سعی میکنم به مرور اضافه کنم. چون صرفاً متن کتاب رو با رباتهای مترجم ترجمه نمیکنم و سعی میکنم اگه نقصی داره اصلاحش کنم یا اگه مثالی برای یه موضوع دارم به مطلب اضافه کنم بخاطر همین یکم زمانبر میشه. خلاصه فصل به فصل کتاب رو روی گیتهاب منتشر میکنم و اگه آپدیتی هم بدم همینجا اعلام میکنم. امیدوارم مفید باشه.
https://github.com/amirhalijani/Artificial-Intelligence-A-Modern-Approach-Persian
https://github.com/amirhalijani/Artificial-Intelligence-A-Modern-Approach-Persian
GitHub
GitHub - amirhalijani/Artificial-Intelligence-A-Modern-Approach-Persian
Contribute to amirhalijani/Artificial-Intelligence-A-Modern-Approach-Persian development by creating an account on GitHub.
🔥4
Forwarded from Let's See more
Media is too big
VIEW IN TELEGRAM
"Technology was made for man and not man for technology."
In 1961: Brave New World novelist Aldous Huxley spoke with John Morgan about dystopian and utopian worlds and the increasing influence that technology was having over peoples lives.
- BBC Archive -
@letsseemore
In 1961: Brave New World novelist Aldous Huxley spoke with John Morgan about dystopian and utopian worlds and the increasing influence that technology was having over peoples lives.
- BBC Archive -
@letsseemore
ای چرخ فلک خرابی از کینه تُست
بیدادگری شیوه دیرینه تُست
ای خاک اگر سینه تو بشکافند
بس گوهر قیمتی که در سینه تُست
ای دل چو زمانه میکند غمناکت
ناگه برود ز تن روان پاکت
بر سبزه نشین و خوش بزی روزی چند
زان پیش که سبزه بر دمد از خاکت
این بحر وجود آمده بیرون ز نَهُفت
کس نیست که این گوهر تحقیق بِسُفت
هر کس سخنی از سرِ سودا گفتند
زانروی که هست، کس نمیداند گفت
این کوزه چو من عاشقِ زاری بوده است
در بندِ سرِ زلفِ نگاری بوده است
این دسته که بر گردنِ او میبینی
دستیست که بر گردنِ یاری بودهست
خیام
بیدادگری شیوه دیرینه تُست
ای خاک اگر سینه تو بشکافند
بس گوهر قیمتی که در سینه تُست
ای دل چو زمانه میکند غمناکت
ناگه برود ز تن روان پاکت
بر سبزه نشین و خوش بزی روزی چند
زان پیش که سبزه بر دمد از خاکت
این بحر وجود آمده بیرون ز نَهُفت
کس نیست که این گوهر تحقیق بِسُفت
هر کس سخنی از سرِ سودا گفتند
زانروی که هست، کس نمیداند گفت
این کوزه چو من عاشقِ زاری بوده است
در بندِ سرِ زلفِ نگاری بوده است
این دسته که بر گردنِ او میبینی
دستیست که بر گردنِ یاری بودهست
خیام
❤4
The Misgeneralization Mind
دارم کتاب Artificial Intelligence A Modern Approach رو ترجمه میکنم و فعلاً فصل یک کامل شده. فصل دوم هم چیز زیادی نمونده و تا چند وقت دیگه اونم اضافه میشه. باقی فصول رو هم سعی میکنم به مرور اضافه کنم. چون صرفاً متن کتاب رو با رباتهای مترجم ترجمه نمیکنم…
فصل دوم اضافه شد و میتونید دانلود کنید و بخونید.
https://github.com/amirhalijani/Artificial-Intelligence-A-Modern-Approach-Persian/tree/main/Chapter%202
https://github.com/amirhalijani/Artificial-Intelligence-A-Modern-Approach-Persian/tree/main/Chapter%202
GitHub
Artificial-Intelligence-A-Modern-Approach-Persian/Chapter 2 at main · amirhalijani/Artificial-Intelligence-A-Modern-Approach-Persian
Contribute to amirhalijani/Artificial-Intelligence-A-Modern-Approach-Persian development by creating an account on GitHub.
🔥1
Forwarded from Mathematics Channel
A Canadian math prodigy allegedly stole US$65-million in crypto. Now he’s on the lam from U.S. authorities
via www.theglobeandmail.com
via www.theglobeandmail.com
Telegraph
A Canadian math prodigy allegedly stole US$65-million in crypto. Now he’s on the lam from U.S. authorities
A Canadian math prodigy allegedly stole US$65-million in crypto. Now he's on the lam from U.S. authorities Jessica Stansfield and Benjamin Bathgate, lawyers at WeirFoulds LLP, at their office in Toronto. They are part of the team representing Cicada 137 LLC…
Audio
توی این پادکست فارسی که توسط NotebookLM ساخته شده در مورد قضیه ناتمامیت کرت گودل صحبت میشه. به عنوان منبع هم براش کتاب Godel's Proof از Nagel و Newman رو قرار دادم.
@supersonic_ai
@supersonic_ai
The Misgeneralization Mind
توی این پادکست فارسی که توسط NotebookLM ساخته شده در مورد قضیه ناتمامیت کرت گودل صحبت میشه. به عنوان منبع هم براش کتاب Godel's Proof از Nagel و Newman رو قرار دادم. @supersonic_ai
منباب سوالی که آخر پادکست هم پرسیده میشه، بنظرتون قوانین و قواعد ریاضیات توسط انسان اختراع میشن یا کشف میشن؟
Anonymous Poll
31%
اختراع میشن
69%
کشف میشن
Forwarded from Mathematical Musings
Godel's Proof.pdf
543.9 KB
اگر به دنبال یک بیان مقدماتی از قضایای گودل هستید و می خواین سر در بیارید که بالاخره گودل چه کاری انجام داده و تا حدی هم وارد جزییات بشین این کتاب منبع خوبیه. اثبات دقیق ریاضی، طبیعتا مقدمات زیادی می خواد و تخصصی هست(چهل، پنجاه تایی تعریف اولیه فقط) توی این کتاب با یک دید کلی و شهودی در 100 صفحه قضایای گودل رو توضیح داده.
یسری الگوریتم جستجو مثل Local Beam Search و Hill Climbing و یه عبارت منطقی
((A and B) or C)
رو با کمک matplotlib روی محور سهبعدی آوردم و خروجی جالب بود.
بنظرم مباحث کلاسیکی که به عنوان مثال توی کتاب هوشمصنوعی راسل و نورویگ میخونیم یا هر مبحث دیگهای رو با کمک ابزاری که وجود داره بصریسازی کنیم هم کمک خوبی به افزایش یادگیری میکنه و هم علاقه به یادگیری مباحث رو بالا میبره.
((A and B) or C)
رو با کمک matplotlib روی محور سهبعدی آوردم و خروجی جالب بود.
بنظرم مباحث کلاسیکی که به عنوان مثال توی کتاب هوشمصنوعی راسل و نورویگ میخونیم یا هر مبحث دیگهای رو با کمک ابزاری که وجود داره بصریسازی کنیم هم کمک خوبی به افزایش یادگیری میکنه و هم علاقه به یادگیری مباحث رو بالا میبره.
🔥3
Forwarded from Mathematical Musings
This media is not supported in your browser
VIEW IN TELEGRAM
اثبات بدون کلام
every subtree of a tree is a tree
every subtree of a tree is a tree
Media is too big
VIEW IN TELEGRAM
بمناسبت روز استاروارز یکی از بهترین صحنههای تاریخ سینما رو ببینیم :)
پ.ن: اگه سری استاروارز رو ندیدید اینو تماشا نکنید که براتون اسپویل نشه.
پ.ن: اگه سری استاروارز رو ندیدید اینو تماشا نکنید که براتون اسپویل نشه.
یه مثال جالب از هندسه دیفرانسیل، سطح Enneper یا Enneper's Minimal Surface هست که فرمول و یه نمونه سه بعدی ازش که با matplotlib خروجی گرفتم رو میتونید ببینید.
اگه براتون جذاب بود و علاقه داشتید که بیشتر در موردش بدونید، میتونید ویدیوی زیر رو ببینید:
لینک ویدیو
اگه براتون جذاب بود و علاقه داشتید که بیشتر در موردش بدونید، میتونید ویدیوی زیر رو ببینید:
لینک ویدیو
راستی، لینک ناشناس هم تو بیوی کانال قرار داده شد. اگه سوال، انتقاد یا پیشنهادی داشتید خوشحال میشم بشنوم.
#پیشنهاد_کتاب
بشخصه یه گارد یا بایاس ذهنی نسبت به کتابها و رمانهایی که نویسندهشون ایرانی هست داشتم (میدونم این نگاه درست نیست و نویسندههای خیلی خوبی در ایران داشتیم و داریم) و به همین خاطر ترجیح میدادم خیلی سمت این کتابها نرم (البته بجز آثار صادق هدایت).
خلاصه میشه گفت برای اولین بار (اگه صادق هدایت رو فاکتور بگیریم) تصمیم گرفتم یه کتاب از نویسندههای ایرانی رو شروع به خوندن کنم و انتخابام هم ۵۳ نفر از بزرگ علوی بود.
شاید بشه گفت اتفاقاً انتخاب ریسکیای هم بوده چون ۵۳ نفر روایتگر یک داستان که زادهی ذهن نویسنده باشه نیست و میشه گفت بیشتر جنبه تاریخی داره و مربوط به تجربههای شخصی بزرگ علوی هست.
موضوع کتاب هم به دوران پهلوی اول بر میگرده و دستگیری ۵۳ نفر از روشنفکرهای اون دورهست که بعد از آزادی از زندان تصمیم میگیرن اولین حزب سیاسی ایران یعنی حزب توده رو ایجاد کنن.
موضوع کتاب برای من جذابه و اگه به مباحث تاریخی علاقه دارید پیشنهاد میکنم بخونید. قلم بزرگ علوی هم خیلی گیرا و روونئه و علاقهمند شدم که کتابهای بیشتری ازش بخونم.
بشخصه یه گارد یا بایاس ذهنی نسبت به کتابها و رمانهایی که نویسندهشون ایرانی هست داشتم (میدونم این نگاه درست نیست و نویسندههای خیلی خوبی در ایران داشتیم و داریم) و به همین خاطر ترجیح میدادم خیلی سمت این کتابها نرم (البته بجز آثار صادق هدایت).
خلاصه میشه گفت برای اولین بار (اگه صادق هدایت رو فاکتور بگیریم) تصمیم گرفتم یه کتاب از نویسندههای ایرانی رو شروع به خوندن کنم و انتخابام هم ۵۳ نفر از بزرگ علوی بود.
شاید بشه گفت اتفاقاً انتخاب ریسکیای هم بوده چون ۵۳ نفر روایتگر یک داستان که زادهی ذهن نویسنده باشه نیست و میشه گفت بیشتر جنبه تاریخی داره و مربوط به تجربههای شخصی بزرگ علوی هست.
موضوع کتاب هم به دوران پهلوی اول بر میگرده و دستگیری ۵۳ نفر از روشنفکرهای اون دورهست که بعد از آزادی از زندان تصمیم میگیرن اولین حزب سیاسی ایران یعنی حزب توده رو ایجاد کنن.
موضوع کتاب برای من جذابه و اگه به مباحث تاریخی علاقه دارید پیشنهاد میکنم بخونید. قلم بزرگ علوی هم خیلی گیرا و روونئه و علاقهمند شدم که کتابهای بیشتری ازش بخونم.
🔥4