شبکه داستانی عصبی – Telegram
شبکه داستانی عصبی
793 subscribers
746 photos
35 videos
96 files
1.9K links
اینجا راجع به چیزایی که دوست دارم صحبت می‌کنم: داستان، هوش مصنوعی، موسیقی، نرم‌افزار، هنر، روانشناسی و ... :)

اگه خواستید صحبت کنیم خیلی خوشحالم می‌کنید:
@alimirferdos
Download Telegram
این موضوعی که اینجا بررسی شده البته، دو جنبه مختلف داره:
یکی راجع به یه موضوعی صحبت می‌کنه که فمنیست‌ها (که من هم خودمو دوست و سعی دارم جزوشون بدونم) به اسم «بار ذهنی» میشناسن. این بار ذهنی یعنی نیازه که همیشه یه چیزایی یاد آدم باشه. البته که فقط مختص زنان نیست ولی در فضای عمومی‌ای که داریم، راجع به مدیریت کارهای خونه از زنان انتظار میره. و اگه تجربه‌ای مشابه این بار ذهنی‌ای که حس میکنی باید همه چیز یادت باشه داشته بوده باشید، میدونید که چقدر خسته‌کننده، نامرئی و اذیت‌کننده است.
این یه کمیک دیگه است که خیلی قشنگ راجع به این موضوع صحبت میکنه:
https://www.theguardian.com/world/2017/may/26/gender-wars-household-chores-comic
من خودم موقع خوندنش یکی دو جا خندیدم و بلافاصله توجه کردم که وای! چقدر این تلخه!!
در هر صورت.
این باید عوض بشه و ما باید سهممون رو در راستای این تغییر انجام بدیم.

دوم هم اینکه تمیز کردن و کلا کارهای خونه چیز به ظاهر ساده‌ایه که در عمل ساده نیست (!) و ضمنا عموما بلدش نیستیم چون عمدتا انجامش ندادیم و وقتی مثل خر تو گل گیر کنی اون وقت می‌فهمی که نمی‌دونی چه خاکی به سر کنی!
اون عکس‌ها و اسلاید‌های بالا، خیلی برام قشنگ و جالب بودند در این زمینه.
👍1
این دایناسوره قیافه‌اش یه جوریه انگار یه جوک بی‌مزه گفته خودش داره ایح‌ایح می‌خنده! 😂😂😂😂

https://www.thoughtco.com/nigersaurus-1092922
😁3
یه کم توضیح بدم که از رندومنس مطالب کاسته بشه 😂😂😂😂

سلسله مراتب فرشته‌ها و گابریل سر این بود که این اسم رو دوست دارم و می‌خواستم توی یه نوشته‌ای استفاده کنم و رفتم ببینم مونث به کار میره یا مذکر که اون وسط به خود جبرئیل و سلسله مراتب فرشته‌ها رسیدم 😂😂

این دایناسور رو هم از این ویدیوی مسخره دیدم: 😂😂
https://twitter.com/BeratStuff/status/1595433529659342848?t=DJv4n0PVss550wt-TMu0ew&s=19
این ترانه آخرین سروده رهی معیری می‌باشد که در بستر بیماری به پایان رساندند.

خواننده : هایده
آهنگساز : علی‌ تجویدی
شاعر : رهی معیری


دل آرامی یا بلای منی
قبله ی عشقی یا خدای منی؟
شور عشق و جوانی تویی تو
مراد من از زندگانی تویی تو
اگر جویم مه تو بر بام آیی
اگر نوشم می تو در جام آیی
به چشمت که بی تو زجان سیرم
نگاهی نگاهی که می میرم
زعشقت حاصل من نشد جز نام و رازی
که در این بستر غم، دل من رنگ شادی
نمی گیرد بیا این دم آخر رها کن گفت و گو را
نگاهی به راهی کن، مرنجان دل او را
که می میرد
دگر چون نی ناله ها نکنم
شکوه ی عشقت با خدا نکنم
چون که بوی وفایی نداری
دل و جان درد آشنایی نداری چه شد آن شب ها که با من بودی
به جای اشکم به دامن بودی
به چشمت که بی تو زجان سیرم
نگاهی نگاهی که می میرم ...
2
:)))
😁5🍾3
GitHub - runfinch/finch: The Finch CLI an open source client for container development

این ابزار برای بیلد کردن و اجرا کردن بهتر کانتینرهاست که از چند تا ابزار دیگه استفاده می‌کنه.
البته فعلا فقط روی مک کار می‌کنه.

این تیکه از توضیحاتش جالب بود:
Finch provides a simple client which is integrated with nerdctl. For the core build/run/push/pull commands, Finch depends upon nerdctl to handle the heavy lifting. It works with containerd for container management, and with BuildKit to handle Open Container Initiative (OCI) image builds. These components are all pulled together and run within a virtual machine managed by Lima.



https://github.com/runfinch/finch#hello-finch
Forwarded from Feraidoon
https://colab.research.google.com/gist/NightMachinery/d2f8217e01d33e6caed3397e9aa07d93/stable_diffusion_fast_jax.ipynb

این تو ۱۵ ثانیه اینا ۸ تا تصویر ۵۱۲ در ۵۱۲ تولید میکنه روی نسخه رایگان کولب. از دموی های رایگان دیگه خیلی بهتره اوضاعش.
امکاناتش ضعیفه البته هنوز، مثلا negative prompt رو ساپورت نمیکنه.
شبکه داستانی عصبی
https://colab.research.google.com/gist/NightMachinery/d2f8217e01d33e6caed3397e9aa07d93/stable_diffusion_fast_jax.ipynb این تو ۱۵ ثانیه اینا ۸ تا تصویر ۵۱۲ در ۵۱۲ تولید میکنه روی نسخه رایگان کولب. از دموی های رایگان دیگه خیلی بهتره اوضاعش. امکاناتش ضعیفه البته…
این هم خیلی چیز جالبی بود. دیروز یکی از دوستان فرستاد.
اخیرا ابزار diffuser از huggingface پشتیبانی از Flax رو اصافه کرده و در نتیجه از jax میشه برای پیاده‌سازیش استفاده کرد و این یعنی سرعت چندین و چند برابر بالاتر.
ضمن اینکه این پیاده‌سازی از TPU های کولب هم داره استفاده می‌کنه