شبکه داستانی عصبی – Telegram
شبکه داستانی عصبی
793 subscribers
746 photos
35 videos
96 files
1.9K links
اینجا راجع به چیزایی که دوست دارم صحبت می‌کنم: داستان، هوش مصنوعی، موسیقی، نرم‌افزار، هنر، روانشناسی و ... :)

اگه خواستید صحبت کنیم خیلی خوشحالم می‌کنید:
@alimirferdos
Download Telegram
تولیدی 😌😌
شبکه داستانی عصبی
تولیدی 😌😌
This media is not supported in your browser
VIEW IN TELEGRAM
وقتی وسط مرضیه و دلکش و ویگن، یهو اسنوپ داگ میخونه 🚶🚶🚶
🤣2
شبکه داستانی عصبی
خب بحث استفاده از هوش مصنوعی در هنر خیلی بحث جالبیه کلا. هم ai generated که کامل با هوش مصنوعیه هم ai guided که با کمک هوش مصنوعیه. و خب هنر هم انواع مختلف داره دیگه: از موسیقی تا نقاشی و اینا. میتونید برای نمونه‌های بیشتر اینجا رو ببینید. حدود یک سال پیش،…
بیشتر از یک سال پیش، چند روز بعد از اینکه این کانال رو درست کردم، به این فکر می‌کردم که براش می‌خوام یه عکس انتخاب کنم.
این قصه خیلی قبل‌تر از معرفی تکنولوژی‌ها و الگوریتم‌های خفنی مثل dalle2 یا stablediffusion عه.
حدود دو سال پیش، اولین مدل‌های تبدیل متن به عکس معرفی شده بودند ولی فقط جامعه‌ی فنی هوش مصنوعی درگیرشون بودند. الگوریتم‌ها، مقالات، پیاده‌سازی‌های فنی، و چیزای مشابه این. خبری از دموهای الان یا اینکه همه راجع بهش بدونن و بشه راحت درباره‌شون حرف زد نبود.
من هم مدت زیادی بود که دورادور اخبارش رو می‌خوندم و نمونه‌های مختلفی رو توی توییتر و جاهای دیگه می‌دیدم و خیلی دوست داشتم خودم یه بار امتحانش کنم. و وقتی که برای این کانال دنبال عکس می‌گشتم، بهترین وقت بود!
اون موقع با استفاده از یکی از پیاده‌سازی‌هایی که روی گوگل کولب انجام شده بود و ور رفتن با کدها عکس فعلی کانال رو درست کردم. عکسی که برای خودم خیلی جالب بود چون که واقعا چیز تر و تمیز و مرتبط و unique ای شده بود.
حالا، بعد از بیشتر از یک سال،‌ با این همه امکانات و پیشرفت‌های خیلی زیاد توی این حوزه تصمیم گرفتم که عکس رو بازطراحی کنم.
از مواردی که بودند دو تا رو بیشتر پسندیدم. هر دوی این‌ها با استفاده از مدل stablediffusion 2.1 درست شده‌اند.
این‌ها رو می‌گذارمشون اینجا. با لایک و دیسلایک نظرتون رو بگید. و نهایتا عکسی که بیشتر ازش استقبال شد رو فردا آپدیت می‌کنم:
شبکه داستانی عصبی pinned «بیشتر از یک سال پیش، چند روز بعد از اینکه این کانال رو درست کردم، به این فکر می‌کردم که براش می‌خوام یه عکس انتخاب کنم. این قصه خیلی قبل‌تر از معرفی تکنولوژی‌ها و الگوریتم‌های خفنی مثل dalle2 یا stablediffusion عه. حدود دو سال پیش، اولین مدل‌های تبدیل متن…»
خاویار آماتریاین (امیدوارم درست تلفظ کرده باشم اسمش رو) مدیر بخش مهندسی و تحقیقاتی نتفلیکس بوده که کارهای خیلی خفنی کرده. من به خاطر تاثیر فوق‌العاده‌ای که توی فضای سیستم‌های توصیه‌گر داشته می‌شناختمش. مدت خیلی زیادی هم مدیر بخش مهندسی Quora بوده و الان مدیر مهندسی و استراتژیست محصول هوش مصنوعی توی لینکدینه.
خلاصه که خیلی آدم خفنیه.

توی وبسایت شخصیش، صفحه‌ی مفصلی راجع به مدل‌های transformer داره که واقعا خیلی کامله.
توی این صفحه که کاملا آپدیته، از مدل‌های اولیه مثل encoder/decoder ها شروع می‌کنه و مکانیزم attention رو هم میگه. بعد به RLHF و مدل‌های diffusion هم میرسه.
دسته‌بندی و کاتالوگ مفصلی هم از مدل‌های موجود ارائه می‌کنه.

لیستش خیلی خیلی کامل و به روزه. مدل‌های چت جی پی تی و مدل‌های جدید رو هم شامل میشه. دسته‌بندی و نمودارهایی که درست کرده واقعا به درد بخور و کاملن.

این لینک صفحه‌ایه که میگم:
https://amatriain.net/blog/transformer-models-an-introduction-and-catalog-2d1e9039f376/

همچنین این عکسی که اتچ کردم رو یکی بر اساس این صفحه‌ درست کرده. (منبع)
👍2
Channel photo updated
۵ روز پیش گوگل سیستم vizier رو اپن سورس کرد.
این یه ابزار خیلی خفن برای بهینه‌سازی چیزای blackbox و بهینه‌سازی هایپرپارامترها است.

یه نگاهی بهش بندازید:
https://ai.googleblog.com/2023/02/open-source-vizier-towards-reliable-and.html

https://github.com/google/vizier
شبکه داستانی عصبی
Photo
قسمتی از کتاب:
«سیمون ویِ عارف‌مسلک به دوستی در قاره‌ای دیگر نوشت «بیا به این فاصله عشق بورزیم، فاصله‌ای که به‌تمام‌وکمال در تاروپود دوستی تنیده، چراکه آن‌هایی که یکدیگر را دوست ندارند فاصله‌ای بین‌شان نیست.» از نظر سیمون وی، عشق همان فضایی‌ست که فاصله بین او و دوستش را پر می‌کند و به آن رنگ می‌بخشد. عجب آن‌که حتی وقتی آن دوست پشت در ایستاده است هم چیزی دور می‌مانَد: وقتی جلو می‌روی تا در آغوشش بگیری، دست‌هایت دور چیزی ناشناخته حلقه می‌زنند، دور امر ناشناختنی، دور چیزی که نمی‌شود تصرفش کرد. دوردست‌ها حتی به نزدیک‌ترین‌ها هم نشت می‌کنند. هر چه باشد ما چیزی از اعماق خودمان نمی‌دانیم.»
👍2