Tensorflow(@CVision) – Telegram
Tensorflow(@CVision)
15.3K subscribers
1.29K photos
310 videos
81 files
2.53K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت:
http://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support

لینک گروه:
@tf2keras
Download Telegram
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
تخفیف دوره OpenCV در مکتب خونه به مدت محدود به مدت محدود با لینک زیر

خرید با تخفیف 45 درصدی
👍5
کانال منابع برنامه نویسی
با مدیریت فارغ التحصیلان کامپیوتر دانشگاه علم و صنعت ایران
@pythony
🔥3👍2👌1
Forwarded from Digiato | دیجیاتو
💯 «الهام طبسی» در لیست 100 فرد تأثیرگذار حوزه هوش مصنوعی سال 2023 مجله تایم قرار گرفت

🔺 مجله تایم لیست 100 فرد تأثیرگذار در زمین هوش مصنوعی را اعلام کرده است که در آن نام افرادی از جمله «سم آلتمن»، مدیرعامل OpenAI، «دمیس حسابیس»، مدیرعامل DeepMind و ایلان ماسک به چشم می‌خورد.

🔹 نکته قابل‌توجه دیگر این لیست حضور «الهام طبسی» پژوهشگر ارشد ایرانی موسسه ملی استاندارد و فناوری (NIST) و معاون بخش فناوری‌های نوظهور آزمایشگاه فناوری اطلاعات (ITL) است.

🔹طبسی که در ایران به‌دنیا آمده و بزرگ شده است، همیشه آرزوی دانشمندن شدن را در سر داشته است. او در سال 1994 برای تحصیلات تکمیلی خود به ایالات متحده مهاجرت کرد و پنج سال بعد در NIST کار خود را روی پروژه‌های مختلف یادگیری ماشین و بینایی کامپیوتر آغاز کرد.

جزئیات بیشتر را در دیجیاتو بخوانید:
👇👇
https://dgto.ir/34lc

📱@Digiato 📡
Please open Telegram to view this post
VIEW IN TELEGRAM
29👏13👍5
Introducing Llama 2 from Meta AI on #Kaggle: a collection of pretrained and fine-tuned generative text models ranging in scale from 7 billion to 70 billion parameters.

https://www.kaggle.com/models/metaresearch/llama-2
🔥9👍5
This media is not supported in your browser
VIEW IN TELEGRAM
آناتومی چشم 👀🔬

1⃣ قرنیه: لایه بیرونی و شفاف چشم است که به تمرکز نور در هنگام ورود کمک می‌کند.

2⃣ عنبیه: قسمت رنگی چشم است که با تنظیم اندازه‌ی مردمک، نور دریافتی را تنظیم می‌کند.

3⃣ مردمک: دهانه مدور و سیاه رنگی است که در مرکز عنبیه قرار دارد و اجازه ورود نور را می‌دهد.

4⃣ عدسی: ساختار شفاف و انعطاف‌پذیری است که در پشت عنبیه قرار دارد و مسئول تمرکز نور در پشت چشم است.

5⃣ شبکیه: داخلی‌ترین محفظه لایه چشم است که گیرنده‌های نوری را به سیگنال‌های الکتریکی تبدیل می‌کنند.

6⃣ عصب بینایی: عصبی است که سیگنال‌های الکتریکی را از گیرنده‌های شبکیه به مغز منتقل می‌کند و دیدن را قادر می‌سازد.

📓Credit: Smart Biology
🙏Thanks to: @CognitionWorld
🔥15👍4
Forwarded from مکتب‌خونه
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 آموزش رایگان میدجرنی (Midjourney)


✍️ میدجرنی یک سیستم هوش مصنوعی است که قادر به ترسیم تصاویر بر اساس توصیفات نوشتاری است.

🔻از جمله مزایای استفاده از میدجرنی در هنر نقاشی، دسترسی آسان و سریع به انواع فنون و سبک‌های مختلف نقاشی است.

🧑‍🏫 مدرس: علیرضا اخوان‌پور

🏢 برگزارکننده: کلاس‌ ویژن

📍اطلاعات بیشتر و مشاهده دوره

🔗 https://mktb.me/d5x0/

❇️ یادت نره که این پست رو برای بقیه دوستات که براشون مناسب هست، فوروارد کنی.


🆔 @maktabkhooneh
👍13🔥3
LongLoRA: Efficient Fine-tuning of Long-Context Large Language Models
21 Sep 2023 ·

paper : https://arxiv.org/pdf/2309.12307v1.pdf
code : https://github.com/dvlab-research/longlora
We present LongLoRA, an efficient fine-tuning approach that extends the context sizes of pre-trained large language models (LLMs), with limited computation cost. Typically, training LLMs with long context sizes is computationally expensive, requiring extensive training hours and GPU resources. For example, training on the context length of 8192 needs 16x computational costs in self-attention layers as that of 2048. In this paper, we speed up the context extension of LLMs in two aspects. On the one hand, although dense global attention is needed during inference, fine-tuning the model can be effectively and efficiently done by sparse local attention. The proposed shift short attention effectively enables context extension, leading to non-trivial computation saving with similar performance to fine-tuning with vanilla attention. Particularly, it can be implemented with only two lines of code in training, while being optional in inference. On the other hand, we revisit the parameter-efficient fine-tuning regime for context expansion. Notably, we find that LoRA for context extension works well under the premise of trainable embedding and normalization. LongLoRA demonstrates strong empirical results on various tasks on LLaMA2 models from 7B/13B to 70B. LongLoRA adopts LLaMA2 7B from 4k context to 100k, or LLaMA2 70B to 32k on a single 8x A100 machine. LongLoRA extends models' context while retaining their original architectures, and is compatible with most existing techniques, like FlashAttention-2. In addition, to make LongLoRA practical, we collect a dataset, LongQA, for supervised fine-tuning. It contains more than 3k long context question-answer pairs.
👍9👌1
ایجاد optical illusion با مدل‌های دیفوژنی

در چند روز گذشته، ترند ایجاد تصاویر دارای خطای دید با مدل‌های دیفوژنی تبدیل متن به تصویر بالا گرفته. تو این مساله، مدل با ورودی گرفتن یک پرامپت (مثل مثلا درخت‌ها تو پاییز) و البته یک تصویر پایه دیگه (مثل تصویر مریم میرزاخانی)، مدل میاد و جوری تصویر تولید می‌کنه که اصلش همون پرامپت اصلی (یعنی درخت‌های پاییزی) هست ولی وقتی که چشماتون رو اندکی چپ می‌کنید یا از دور به تصویر نگاه می‌کنید اون تصویر پایه (مثل مریم میرزاخانی) رو می‌تونید ببینید. ما هم چند نمونه جالب و البته نمونه‌هایی که خودمون تولید کردیم رو اینجا گذاشتیم. اگه خواستید خودتون هم امتحانش کنید میتونید از اینجا امتحان کنید:

https://huggingface.co/spaces/pngwn/IllusionDiffusion

🙏ctedit: @nlp_stuff
👍337