Tensorflow(@CVision) – Telegram
Tensorflow(@CVision)
15.3K subscribers
1.29K photos
310 videos
81 files
2.53K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت:
http://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support

لینک گروه:
@tf2keras
Download Telegram
Tensorflow(@CVision)
opencv-sarfasl.pdf
سرفصلها و کدهای دوره، برای انتخاب راحت تر دوره را میتوانید مشاهده کنید
این دوره حدود ۱۰۰ کد مختلف را در ۹ فصل بررسی میکند
کدها
https://github.com/Alireza-Akhavan/class.vision

سرفصل
https://news.1rj.ru/str/cvision/3201
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
تخفیف دوره OpenCV در مکتب خونه به مدت محدود به مدت محدود با لینک زیر

خرید با تخفیف 45 درصدی
👍2🔥2
New NLP course by Stanford

Stanford University released yesterday a new course -
Intro & Evolution of Natural Language Understanding
(#XCS224U), taught by Prof. Christopher Potts.
As the name implies, the course focuses on core NLP concepts and theory, natural language processing, and machine learning topics. That includes
Domain adaptation for supervised sentiment Retrieval augmented in-context learning
Advanced behavioral evaluation
Analysis methods #NLP methods

https://www.youtube.com/playlist?list=PLoROMvodv4rOwvldxftJTmoR3kRcWkJBp
👍11
Forwarded from School of AI
This media is not supported in your browser
VIEW IN TELEGRAM
وب‌سایت https://www.chatbase.co به شما اجازه می‌ده به‌سادگی و با چند کلیک، دیتای خودتون رو در قالب فایل یا متن یا وب‌سایت یا ... بهش بدید و یک چت‌بات (شبیه به ChatGPT) براتون می‌سازه که می‌تونید به‌راحتی داخل وب‌سایت خودتون یا واتس‌اپ یا اسلک یا ... ازش استفاده کنید.
از این سرویس می‌شه برای اضافه‌کردن بات خدمات مشتریان به سایت یا گزارش تحلیلی شاخص‌های داده‌ای موجود برای مدیران سازمان از طریق واتس‌اپ و ... استفاده کرد.
👍11
Forwarded from School of AI
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت مایکروسافت با همکاری Anaconda قدرت پایتون رو به Excel می‌آورد.

ازین‌پس بدون نصب هیچ ابزار اضافی، می‌توان در نسخه‌های جدید Microsoft 365 (آفیس قدیم) از توابع و پکیج‌های پایتون مثل Pandas و Matplotlib برای پاکسازی، پیش‌پردازش و تحلیل داده و حتی آموزش مدل‌های یادگیری ماشین استفاده کرد. کافی‌است موقع نوشتن تابع در اکسل از py= استفاده کنید...
👍41🔥4🎉4
Forwarded from School of AI
محققان علوم اعصاب دانشگاه UCSF توانستند با کاشت یک ایمپلنت در مغز یک خانم جوان که فلج شده و توان گفتار ندارد، افکار وی را به واژه‌گان و متن و سپس با صدای خودش به ویس تبدیل کنند.

سایت:
https://www.ucsf.edu/news/2023/08/425986/how-artificial-intelligence-gave-paralyzed-woman-her-voice-back

ویدیو:
https://youtu.be/iTZ2N-HJbwA
👌20
How to Encode Periodic Time Features
Thoughtful processing of dates, days of the week and times of day for deep learning and other prediction models

https://towardsdatascience.com/how-to-encode-periodic-time-features-7640d9b21332
👍4
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
تخفیف دوره OpenCV در مکتب خونه به مدت محدود به مدت محدود با لینک زیر

خرید با تخفیف 45 درصدی
👍5
کانال منابع برنامه نویسی
با مدیریت فارغ التحصیلان کامپیوتر دانشگاه علم و صنعت ایران
@pythony
🔥3👍2👌1
Forwarded from Digiato | دیجیاتو
💯 «الهام طبسی» در لیست 100 فرد تأثیرگذار حوزه هوش مصنوعی سال 2023 مجله تایم قرار گرفت

🔺 مجله تایم لیست 100 فرد تأثیرگذار در زمین هوش مصنوعی را اعلام کرده است که در آن نام افرادی از جمله «سم آلتمن»، مدیرعامل OpenAI، «دمیس حسابیس»، مدیرعامل DeepMind و ایلان ماسک به چشم می‌خورد.

🔹 نکته قابل‌توجه دیگر این لیست حضور «الهام طبسی» پژوهشگر ارشد ایرانی موسسه ملی استاندارد و فناوری (NIST) و معاون بخش فناوری‌های نوظهور آزمایشگاه فناوری اطلاعات (ITL) است.

🔹طبسی که در ایران به‌دنیا آمده و بزرگ شده است، همیشه آرزوی دانشمندن شدن را در سر داشته است. او در سال 1994 برای تحصیلات تکمیلی خود به ایالات متحده مهاجرت کرد و پنج سال بعد در NIST کار خود را روی پروژه‌های مختلف یادگیری ماشین و بینایی کامپیوتر آغاز کرد.

جزئیات بیشتر را در دیجیاتو بخوانید:
👇👇
https://dgto.ir/34lc

📱@Digiato 📡
Please open Telegram to view this post
VIEW IN TELEGRAM
29👏13👍5
Introducing Llama 2 from Meta AI on #Kaggle: a collection of pretrained and fine-tuned generative text models ranging in scale from 7 billion to 70 billion parameters.

https://www.kaggle.com/models/metaresearch/llama-2
🔥9👍5
This media is not supported in your browser
VIEW IN TELEGRAM
آناتومی چشم 👀🔬

1⃣ قرنیه: لایه بیرونی و شفاف چشم است که به تمرکز نور در هنگام ورود کمک می‌کند.

2⃣ عنبیه: قسمت رنگی چشم است که با تنظیم اندازه‌ی مردمک، نور دریافتی را تنظیم می‌کند.

3⃣ مردمک: دهانه مدور و سیاه رنگی است که در مرکز عنبیه قرار دارد و اجازه ورود نور را می‌دهد.

4⃣ عدسی: ساختار شفاف و انعطاف‌پذیری است که در پشت عنبیه قرار دارد و مسئول تمرکز نور در پشت چشم است.

5⃣ شبکیه: داخلی‌ترین محفظه لایه چشم است که گیرنده‌های نوری را به سیگنال‌های الکتریکی تبدیل می‌کنند.

6⃣ عصب بینایی: عصبی است که سیگنال‌های الکتریکی را از گیرنده‌های شبکیه به مغز منتقل می‌کند و دیدن را قادر می‌سازد.

📓Credit: Smart Biology
🙏Thanks to: @CognitionWorld
🔥15👍4
Forwarded from مکتب‌خونه
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 آموزش رایگان میدجرنی (Midjourney)


✍️ میدجرنی یک سیستم هوش مصنوعی است که قادر به ترسیم تصاویر بر اساس توصیفات نوشتاری است.

🔻از جمله مزایای استفاده از میدجرنی در هنر نقاشی، دسترسی آسان و سریع به انواع فنون و سبک‌های مختلف نقاشی است.

🧑‍🏫 مدرس: علیرضا اخوان‌پور

🏢 برگزارکننده: کلاس‌ ویژن

📍اطلاعات بیشتر و مشاهده دوره

🔗 https://mktb.me/d5x0/

❇️ یادت نره که این پست رو برای بقیه دوستات که براشون مناسب هست، فوروارد کنی.


🆔 @maktabkhooneh
👍13🔥3
LongLoRA: Efficient Fine-tuning of Long-Context Large Language Models
21 Sep 2023 ·

paper : https://arxiv.org/pdf/2309.12307v1.pdf
code : https://github.com/dvlab-research/longlora
We present LongLoRA, an efficient fine-tuning approach that extends the context sizes of pre-trained large language models (LLMs), with limited computation cost. Typically, training LLMs with long context sizes is computationally expensive, requiring extensive training hours and GPU resources. For example, training on the context length of 8192 needs 16x computational costs in self-attention layers as that of 2048. In this paper, we speed up the context extension of LLMs in two aspects. On the one hand, although dense global attention is needed during inference, fine-tuning the model can be effectively and efficiently done by sparse local attention. The proposed shift short attention effectively enables context extension, leading to non-trivial computation saving with similar performance to fine-tuning with vanilla attention. Particularly, it can be implemented with only two lines of code in training, while being optional in inference. On the other hand, we revisit the parameter-efficient fine-tuning regime for context expansion. Notably, we find that LoRA for context extension works well under the premise of trainable embedding and normalization. LongLoRA demonstrates strong empirical results on various tasks on LLaMA2 models from 7B/13B to 70B. LongLoRA adopts LLaMA2 7B from 4k context to 100k, or LLaMA2 70B to 32k on a single 8x A100 machine. LongLoRA extends models' context while retaining their original architectures, and is compatible with most existing techniques, like FlashAttention-2. In addition, to make LongLoRA practical, we collect a dataset, LongQA, for supervised fine-tuning. It contains more than 3k long context question-answer pairs.
👍9👌1