Forwarded from مکتبخونه
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 آموزش رایگان میدجرنی (Midjourney)
✍️ میدجرنی یک سیستم هوش مصنوعی است که قادر به ترسیم تصاویر بر اساس توصیفات نوشتاری است.
🔻از جمله مزایای استفاده از میدجرنی در هنر نقاشی، دسترسی آسان و سریع به انواع فنون و سبکهای مختلف نقاشی است.
🧑🏫 مدرس: علیرضا اخوانپور
🏢 برگزارکننده: کلاس ویژن
📍اطلاعات بیشتر و مشاهده دوره
🔗 https://mktb.me/d5x0/
❇️ یادت نره که این پست رو برای بقیه دوستات که براشون مناسب هست، فوروارد کنی.
🆔 @maktabkhooneh
✍️ میدجرنی یک سیستم هوش مصنوعی است که قادر به ترسیم تصاویر بر اساس توصیفات نوشتاری است.
🔻از جمله مزایای استفاده از میدجرنی در هنر نقاشی، دسترسی آسان و سریع به انواع فنون و سبکهای مختلف نقاشی است.
🧑🏫 مدرس: علیرضا اخوانپور
🏢 برگزارکننده: کلاس ویژن
📍اطلاعات بیشتر و مشاهده دوره
🔗 https://mktb.me/d5x0/
❇️ یادت نره که این پست رو برای بقیه دوستات که براشون مناسب هست، فوروارد کنی.
🆔 @maktabkhooneh
👍13🔥3
LongLoRA: Efficient Fine-tuning of Long-Context Large Language Models
21 Sep 2023 ·
paper : https://arxiv.org/pdf/2309.12307v1.pdf
code : https://github.com/dvlab-research/longlora
We present LongLoRA, an efficient fine-tuning approach that extends the context sizes of pre-trained large language models (LLMs), with limited computation cost. Typically, training LLMs with long context sizes is computationally expensive, requiring extensive training hours and GPU resources. For example, training on the context length of 8192 needs 16x computational costs in self-attention layers as that of 2048. In this paper, we speed up the context extension of LLMs in two aspects. On the one hand, although dense global attention is needed during inference, fine-tuning the model can be effectively and efficiently done by sparse local attention. The proposed shift short attention effectively enables context extension, leading to non-trivial computation saving with similar performance to fine-tuning with vanilla attention. Particularly, it can be implemented with only two lines of code in training, while being optional in inference. On the other hand, we revisit the parameter-efficient fine-tuning regime for context expansion. Notably, we find that LoRA for context extension works well under the premise of trainable embedding and normalization. LongLoRA demonstrates strong empirical results on various tasks on LLaMA2 models from 7B/13B to 70B. LongLoRA adopts LLaMA2 7B from 4k context to 100k, or LLaMA2 70B to 32k on a single 8x A100 machine. LongLoRA extends models' context while retaining their original architectures, and is compatible with most existing techniques, like FlashAttention-2. In addition, to make LongLoRA practical, we collect a dataset, LongQA, for supervised fine-tuning. It contains more than 3k long context question-answer pairs.
21 Sep 2023 ·
paper : https://arxiv.org/pdf/2309.12307v1.pdf
code : https://github.com/dvlab-research/longlora
We present LongLoRA, an efficient fine-tuning approach that extends the context sizes of pre-trained large language models (LLMs), with limited computation cost. Typically, training LLMs with long context sizes is computationally expensive, requiring extensive training hours and GPU resources. For example, training on the context length of 8192 needs 16x computational costs in self-attention layers as that of 2048. In this paper, we speed up the context extension of LLMs in two aspects. On the one hand, although dense global attention is needed during inference, fine-tuning the model can be effectively and efficiently done by sparse local attention. The proposed shift short attention effectively enables context extension, leading to non-trivial computation saving with similar performance to fine-tuning with vanilla attention. Particularly, it can be implemented with only two lines of code in training, while being optional in inference. On the other hand, we revisit the parameter-efficient fine-tuning regime for context expansion. Notably, we find that LoRA for context extension works well under the premise of trainable embedding and normalization. LongLoRA demonstrates strong empirical results on various tasks on LLaMA2 models from 7B/13B to 70B. LongLoRA adopts LLaMA2 7B from 4k context to 100k, or LLaMA2 70B to 32k on a single 8x A100 machine. LongLoRA extends models' context while retaining their original architectures, and is compatible with most existing techniques, like FlashAttention-2. In addition, to make LongLoRA practical, we collect a dataset, LongQA, for supervised fine-tuning. It contains more than 3k long context question-answer pairs.
GitHub
GitHub - dvlab-research/LongLoRA: Code and documents of LongLoRA and LongAlpaca (ICLR 2024 Oral)
Code and documents of LongLoRA and LongAlpaca (ICLR 2024 Oral) - dvlab-research/LongLoRA
👍9👌1
ایجاد optical illusion با مدلهای دیفوژنی
در چند روز گذشته، ترند ایجاد تصاویر دارای خطای دید با مدلهای دیفوژنی تبدیل متن به تصویر بالا گرفته. تو این مساله، مدل با ورودی گرفتن یک پرامپت (مثل مثلا درختها تو پاییز) و البته یک تصویر پایه دیگه (مثل تصویر مریم میرزاخانی)، مدل میاد و جوری تصویر تولید میکنه که اصلش همون پرامپت اصلی (یعنی درختهای پاییزی) هست ولی وقتی که چشماتون رو اندکی چپ میکنید یا از دور به تصویر نگاه میکنید اون تصویر پایه (مثل مریم میرزاخانی) رو میتونید ببینید. ما هم چند نمونه جالب و البته نمونههایی که خودمون تولید کردیم رو اینجا گذاشتیم. اگه خواستید خودتون هم امتحانش کنید میتونید از اینجا امتحان کنید:
https://huggingface.co/spaces/pngwn/IllusionDiffusion
🙏ctedit: @nlp_stuff
در چند روز گذشته، ترند ایجاد تصاویر دارای خطای دید با مدلهای دیفوژنی تبدیل متن به تصویر بالا گرفته. تو این مساله، مدل با ورودی گرفتن یک پرامپت (مثل مثلا درختها تو پاییز) و البته یک تصویر پایه دیگه (مثل تصویر مریم میرزاخانی)، مدل میاد و جوری تصویر تولید میکنه که اصلش همون پرامپت اصلی (یعنی درختهای پاییزی) هست ولی وقتی که چشماتون رو اندکی چپ میکنید یا از دور به تصویر نگاه میکنید اون تصویر پایه (مثل مریم میرزاخانی) رو میتونید ببینید. ما هم چند نمونه جالب و البته نمونههایی که خودمون تولید کردیم رو اینجا گذاشتیم. اگه خواستید خودتون هم امتحانش کنید میتونید از اینجا امتحان کنید:
https://huggingface.co/spaces/pngwn/IllusionDiffusion
🙏ctedit: @nlp_stuff
👍33❤7
بلاگ پست جدید فرانسوا شوله در مورد LLM و prompt engineering که امروز منتشر شد:
https://fchollet.substack.com/p/how-i-think-about-llm-prompt-engineering?utm_source=profile&utm_medium=reader2
https://fchollet.substack.com/p/how-i-think-about-llm-prompt-engineering?utm_source=profile&utm_medium=reader2
Substack
How I think about LLM prompt engineering
Prompting as searching through a space of vector programs
👍8🤔1👌1
🔹 ۲۰ مهر ۱۴۰۲ | معاون اجتماعی سازمان وظیفه عمومی فراجا:
لغو سهمیه امریه شرکتهای دانشبنیان برای مشمولان دارای مدرک کارشناسی، صحت ندارد؛
مشمولان فارغالتحصیل کارشناسی و بالاتر، میتوانند از امریه شرکتهای دانشبنیان استفاده کنند.
isna.ir/news/1402072013902
لغو سهمیه امریه شرکتهای دانشبنیان برای مشمولان دارای مدرک کارشناسی، صحت ندارد؛
مشمولان فارغالتحصیل کارشناسی و بالاتر، میتوانند از امریه شرکتهای دانشبنیان استفاده کنند.
isna.ir/news/1402072013902
🤩14
The End of Finetuning — with Jeremy Howard of Fast.ai
https://youtu.be/5Sze3kHAZqE?si=_y22iMUNvI7y__mH
https://youtu.be/5Sze3kHAZqE?si=_y22iMUNvI7y__mH
YouTube
The End of Finetuning — with Jeremy Howard of Fast.ai
Fast.ai’s “Practical Deep Learning” courses been watched by over 6,000,000 people, and the fastai library has over 25,000 stars on Github. Jeremy Howard, one...
👍5
Forwarded from Ai Events️ (حمید محمودآبادی)
یه خبر عالی!
دانشکده کامپیوتر دانشگاه شریف این ترم درس LLM با تدریس اساتید دکتر رهبان، دکتر سلیمانی و دکتر عسگری گذاشته!
لینک سرفصلها
لینک ویدیوها
اگر چه مطالبی که عنوان میشه رو میتونید تو دورههای کوتاه کورسرا پیدا کنید، اما دیدن این درس نگاه جامعی بهتون میده و قطعا خالی از لطف نیست.
@Ai_Events
دانشکده کامپیوتر دانشگاه شریف این ترم درس LLM با تدریس اساتید دکتر رهبان، دکتر سلیمانی و دکتر عسگری گذاشته!
لینک سرفصلها
لینک ویدیوها
اگر چه مطالبی که عنوان میشه رو میتونید تو دورههای کوتاه کورسرا پیدا کنید، اما دیدن این درس نگاه جامعی بهتون میده و قطعا خالی از لطف نیست.
@Ai_Events
❤44👍13👌3