School of AI
محققان علوم اعصاب دانشگاه UCSF توانستند با کاشت یک ایمپلنت در مغز یک خانم جوان که فلج شده و توان گفتار ندارد، افکار وی را به واژهگان و متن و سپس با صدای خودش به ویس تبدیل کنند. سایت: https://www.ucsf.edu/news/2023/08/425986/how-artificial-intelligence-gave…
This media is not supported in your browser
VIEW IN TELEGRAM
👌3
نقش هوش مصنوعی پیشرفته و تراشهها در تقویت فرایند تشخیص صدا
https://class.vision/blog/%d9%87%d9%88%d8%b4-%d9%85%d8%b5%d9%86%d9%88%d8%b9%db%8c-%d8%aa%d8%b1%d8%a7%d8%b4%d9%87-%d8%b5%d8%af%d8%a7/
https://class.vision/blog/%d9%87%d9%88%d8%b4-%d9%85%d8%b5%d9%86%d9%88%d8%b9%db%8c-%d8%aa%d8%b1%d8%a7%d8%b4%d9%87-%d8%b5%d8%af%d8%a7/
کلاسویژن
نقش هوش مصنوعی پیشرفته و تراشهها در تقویت فرایند تشخیص صدا - کلاسویژن
به نقل از تکاکسپلور، شرکت IBM و دانشگاههای کالیفرنیا در سان فرانسیسکو و برکلی، اخبار خوبی را برای بیمارانی که با مشکلاتی مانند فلج صدا و از دست دادن توانایی
🤩3👌2
#کورس_رایگان #میدجرنی
ویدیوی رایگان کوتاه برای آشنایی با میدجرنی:
https://maktabkhooneh.org/course/%D8%A2%D9%85%D9%88%D8%B2%D8%B4-%D9%85%DB%8C%D8%AF%D8%AC%D8%B1%D9%86%DB%8C-midjourney-mk3554/?affiliate=akhavan
این آموزش رایگان، مقدماتی است و اگر قبلا با این ابزار کار کرده اید احتمالا برایتان مفید نباشد.
ویدیوی رایگان کوتاه برای آشنایی با میدجرنی:
https://maktabkhooneh.org/course/%D8%A2%D9%85%D9%88%D8%B2%D8%B4-%D9%85%DB%8C%D8%AF%D8%AC%D8%B1%D9%86%DB%8C-midjourney-mk3554/?affiliate=akhavan
این آموزش رایگان، مقدماتی است و اگر قبلا با این ابزار کار کرده اید احتمالا برایتان مفید نباشد.
مکتبخونه
آموزش رایگان میدجرنی (Midjourney)
میدجرنی یک سیستم هوش مصنوعی است که قادر به ترسیم تصاویر بر اساس توصیفات نوشتاری است. این سرویس با بهره گیری از از شبکههای عصبی عمیق قادر است از توضیحات متنی مثل جملات یا کلمات، تصاویر با کیفیت واقعی را تولید کند.
❤15👍3
Forwarded from Digiato | دیجیاتو
💯 «الهام طبسی» در لیست 100 فرد تأثیرگذار حوزه هوش مصنوعی سال 2023 مجله تایم قرار گرفت
🔺 مجله تایم لیست 100 فرد تأثیرگذار در زمین هوش مصنوعی را اعلام کرده است که در آن نام افرادی از جمله «سم آلتمن»، مدیرعامل OpenAI، «دمیس حسابیس»، مدیرعامل DeepMind و ایلان ماسک به چشم میخورد.
🔹 نکته قابلتوجه دیگر این لیست حضور «الهام طبسی» پژوهشگر ارشد ایرانی موسسه ملی استاندارد و فناوری (NIST) و معاون بخش فناوریهای نوظهور آزمایشگاه فناوری اطلاعات (ITL) است.
🔹طبسی که در ایران بهدنیا آمده و بزرگ شده است، همیشه آرزوی دانشمندن شدن را در سر داشته است. او در سال 1994 برای تحصیلات تکمیلی خود به ایالات متحده مهاجرت کرد و پنج سال بعد در NIST کار خود را روی پروژههای مختلف یادگیری ماشین و بینایی کامپیوتر آغاز کرد.
جزئیات بیشتر را در دیجیاتو بخوانید:
👇 👇
https://dgto.ir/34lc
📱 @Digiato 📡
🔺 مجله تایم لیست 100 فرد تأثیرگذار در زمین هوش مصنوعی را اعلام کرده است که در آن نام افرادی از جمله «سم آلتمن»، مدیرعامل OpenAI، «دمیس حسابیس»، مدیرعامل DeepMind و ایلان ماسک به چشم میخورد.
🔹 نکته قابلتوجه دیگر این لیست حضور «الهام طبسی» پژوهشگر ارشد ایرانی موسسه ملی استاندارد و فناوری (NIST) و معاون بخش فناوریهای نوظهور آزمایشگاه فناوری اطلاعات (ITL) است.
🔹طبسی که در ایران بهدنیا آمده و بزرگ شده است، همیشه آرزوی دانشمندن شدن را در سر داشته است. او در سال 1994 برای تحصیلات تکمیلی خود به ایالات متحده مهاجرت کرد و پنج سال بعد در NIST کار خود را روی پروژههای مختلف یادگیری ماشین و بینایی کامپیوتر آغاز کرد.
جزئیات بیشتر را در دیجیاتو بخوانید:
https://dgto.ir/34lc
Please open Telegram to view this post
VIEW IN TELEGRAM
❤29👏13👍5
Introducing Llama 2 from Meta AI on #Kaggle: a collection of pretrained and fine-tuned generative text models ranging in scale from 7 billion to 70 billion parameters.
https://www.kaggle.com/models/metaresearch/llama-2
https://www.kaggle.com/models/metaresearch/llama-2
Kaggle
Meta | Llama 2 | Kaggle
Llama 2 is a collection of pretrained and fine-tuned generative text models ranging in scale from 7 billion to 70 billion parameters
🔥9👍5
This media is not supported in your browser
VIEW IN TELEGRAM
آناتومی چشم 👀🔬
1⃣ قرنیه: لایه بیرونی و شفاف چشم است که به تمرکز نور در هنگام ورود کمک میکند.
2⃣ عنبیه: قسمت رنگی چشم است که با تنظیم اندازهی مردمک، نور دریافتی را تنظیم میکند.
3⃣ مردمک: دهانه مدور و سیاه رنگی است که در مرکز عنبیه قرار دارد و اجازه ورود نور را میدهد.
4⃣ عدسی: ساختار شفاف و انعطافپذیری است که در پشت عنبیه قرار دارد و مسئول تمرکز نور در پشت چشم است.
5⃣ شبکیه: داخلیترین محفظه لایه چشم است که گیرندههای نوری را به سیگنالهای الکتریکی تبدیل میکنند.
6⃣ عصب بینایی: عصبی است که سیگنالهای الکتریکی را از گیرندههای شبکیه به مغز منتقل میکند و دیدن را قادر میسازد.
📓Credit: Smart Biology
🙏Thanks to: @CognitionWorld
1⃣ قرنیه: لایه بیرونی و شفاف چشم است که به تمرکز نور در هنگام ورود کمک میکند.
2⃣ عنبیه: قسمت رنگی چشم است که با تنظیم اندازهی مردمک، نور دریافتی را تنظیم میکند.
3⃣ مردمک: دهانه مدور و سیاه رنگی است که در مرکز عنبیه قرار دارد و اجازه ورود نور را میدهد.
4⃣ عدسی: ساختار شفاف و انعطافپذیری است که در پشت عنبیه قرار دارد و مسئول تمرکز نور در پشت چشم است.
5⃣ شبکیه: داخلیترین محفظه لایه چشم است که گیرندههای نوری را به سیگنالهای الکتریکی تبدیل میکنند.
6⃣ عصب بینایی: عصبی است که سیگنالهای الکتریکی را از گیرندههای شبکیه به مغز منتقل میکند و دیدن را قادر میسازد.
📓Credit: Smart Biology
🙏Thanks to: @CognitionWorld
🔥15👍4
Forwarded from مکتبخونه
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 آموزش رایگان میدجرنی (Midjourney)
✍️ میدجرنی یک سیستم هوش مصنوعی است که قادر به ترسیم تصاویر بر اساس توصیفات نوشتاری است.
🔻از جمله مزایای استفاده از میدجرنی در هنر نقاشی، دسترسی آسان و سریع به انواع فنون و سبکهای مختلف نقاشی است.
🧑🏫 مدرس: علیرضا اخوانپور
🏢 برگزارکننده: کلاس ویژن
📍اطلاعات بیشتر و مشاهده دوره
🔗 https://mktb.me/d5x0/
❇️ یادت نره که این پست رو برای بقیه دوستات که براشون مناسب هست، فوروارد کنی.
🆔 @maktabkhooneh
✍️ میدجرنی یک سیستم هوش مصنوعی است که قادر به ترسیم تصاویر بر اساس توصیفات نوشتاری است.
🔻از جمله مزایای استفاده از میدجرنی در هنر نقاشی، دسترسی آسان و سریع به انواع فنون و سبکهای مختلف نقاشی است.
🧑🏫 مدرس: علیرضا اخوانپور
🏢 برگزارکننده: کلاس ویژن
📍اطلاعات بیشتر و مشاهده دوره
🔗 https://mktb.me/d5x0/
❇️ یادت نره که این پست رو برای بقیه دوستات که براشون مناسب هست، فوروارد کنی.
🆔 @maktabkhooneh
👍13🔥3
LongLoRA: Efficient Fine-tuning of Long-Context Large Language Models
21 Sep 2023 ·
paper : https://arxiv.org/pdf/2309.12307v1.pdf
code : https://github.com/dvlab-research/longlora
We present LongLoRA, an efficient fine-tuning approach that extends the context sizes of pre-trained large language models (LLMs), with limited computation cost. Typically, training LLMs with long context sizes is computationally expensive, requiring extensive training hours and GPU resources. For example, training on the context length of 8192 needs 16x computational costs in self-attention layers as that of 2048. In this paper, we speed up the context extension of LLMs in two aspects. On the one hand, although dense global attention is needed during inference, fine-tuning the model can be effectively and efficiently done by sparse local attention. The proposed shift short attention effectively enables context extension, leading to non-trivial computation saving with similar performance to fine-tuning with vanilla attention. Particularly, it can be implemented with only two lines of code in training, while being optional in inference. On the other hand, we revisit the parameter-efficient fine-tuning regime for context expansion. Notably, we find that LoRA for context extension works well under the premise of trainable embedding and normalization. LongLoRA demonstrates strong empirical results on various tasks on LLaMA2 models from 7B/13B to 70B. LongLoRA adopts LLaMA2 7B from 4k context to 100k, or LLaMA2 70B to 32k on a single 8x A100 machine. LongLoRA extends models' context while retaining their original architectures, and is compatible with most existing techniques, like FlashAttention-2. In addition, to make LongLoRA practical, we collect a dataset, LongQA, for supervised fine-tuning. It contains more than 3k long context question-answer pairs.
21 Sep 2023 ·
paper : https://arxiv.org/pdf/2309.12307v1.pdf
code : https://github.com/dvlab-research/longlora
We present LongLoRA, an efficient fine-tuning approach that extends the context sizes of pre-trained large language models (LLMs), with limited computation cost. Typically, training LLMs with long context sizes is computationally expensive, requiring extensive training hours and GPU resources. For example, training on the context length of 8192 needs 16x computational costs in self-attention layers as that of 2048. In this paper, we speed up the context extension of LLMs in two aspects. On the one hand, although dense global attention is needed during inference, fine-tuning the model can be effectively and efficiently done by sparse local attention. The proposed shift short attention effectively enables context extension, leading to non-trivial computation saving with similar performance to fine-tuning with vanilla attention. Particularly, it can be implemented with only two lines of code in training, while being optional in inference. On the other hand, we revisit the parameter-efficient fine-tuning regime for context expansion. Notably, we find that LoRA for context extension works well under the premise of trainable embedding and normalization. LongLoRA demonstrates strong empirical results on various tasks on LLaMA2 models from 7B/13B to 70B. LongLoRA adopts LLaMA2 7B from 4k context to 100k, or LLaMA2 70B to 32k on a single 8x A100 machine. LongLoRA extends models' context while retaining their original architectures, and is compatible with most existing techniques, like FlashAttention-2. In addition, to make LongLoRA practical, we collect a dataset, LongQA, for supervised fine-tuning. It contains more than 3k long context question-answer pairs.
GitHub
GitHub - dvlab-research/LongLoRA: Code and documents of LongLoRA and LongAlpaca (ICLR 2024 Oral)
Code and documents of LongLoRA and LongAlpaca (ICLR 2024 Oral) - dvlab-research/LongLoRA
👍9👌1
ایجاد optical illusion با مدلهای دیفوژنی
در چند روز گذشته، ترند ایجاد تصاویر دارای خطای دید با مدلهای دیفوژنی تبدیل متن به تصویر بالا گرفته. تو این مساله، مدل با ورودی گرفتن یک پرامپت (مثل مثلا درختها تو پاییز) و البته یک تصویر پایه دیگه (مثل تصویر مریم میرزاخانی)، مدل میاد و جوری تصویر تولید میکنه که اصلش همون پرامپت اصلی (یعنی درختهای پاییزی) هست ولی وقتی که چشماتون رو اندکی چپ میکنید یا از دور به تصویر نگاه میکنید اون تصویر پایه (مثل مریم میرزاخانی) رو میتونید ببینید. ما هم چند نمونه جالب و البته نمونههایی که خودمون تولید کردیم رو اینجا گذاشتیم. اگه خواستید خودتون هم امتحانش کنید میتونید از اینجا امتحان کنید:
https://huggingface.co/spaces/pngwn/IllusionDiffusion
🙏ctedit: @nlp_stuff
در چند روز گذشته، ترند ایجاد تصاویر دارای خطای دید با مدلهای دیفوژنی تبدیل متن به تصویر بالا گرفته. تو این مساله، مدل با ورودی گرفتن یک پرامپت (مثل مثلا درختها تو پاییز) و البته یک تصویر پایه دیگه (مثل تصویر مریم میرزاخانی)، مدل میاد و جوری تصویر تولید میکنه که اصلش همون پرامپت اصلی (یعنی درختهای پاییزی) هست ولی وقتی که چشماتون رو اندکی چپ میکنید یا از دور به تصویر نگاه میکنید اون تصویر پایه (مثل مریم میرزاخانی) رو میتونید ببینید. ما هم چند نمونه جالب و البته نمونههایی که خودمون تولید کردیم رو اینجا گذاشتیم. اگه خواستید خودتون هم امتحانش کنید میتونید از اینجا امتحان کنید:
https://huggingface.co/spaces/pngwn/IllusionDiffusion
🙏ctedit: @nlp_stuff
👍33❤7