شبکه داستانی عصبی
شتتتتتت
دقایقی پیش OpenAI اولین مدل text-to-video خودش رو به اسم Sora رونمایی کرد!
خروجیها پشمریزونن!
https://openai.com/sora
خروجیها پشمریزونن!
https://openai.com/sora
Openai
Sora
Turn your ideas into videos with hyperreal motion and sound.
😨1
شبکه داستانی عصبی
دقایقی پیش OpenAI اولین مدل text-to-video خودش رو به اسم Sora رونمایی کرد! خروجیها پشمریزونن! https://openai.com/sora
فعلا برای تست red teamer ها و تعداد محدودی تستر artist در دسترس قرار گرفته
🔥1
شبکه داستانی عصبی
دقایقی پیش OpenAI اولین مدل text-to-video خودش رو به اسم Sora رونمایی کرد! خروجیها پشمریزونن! https://openai.com/sora
سم آلتمن رقیب طلبیده و گفته هررر چی خواستید بگید خودم شخصا درست میکنم میذارم براتون 😂️️️️️️
https://twitter.com/sama/status/1758193792778404192
بعد توی صفحهاش میذاره واقعا:
https://twitter.com/sama
https://twitter.com/sama/status/1758193792778404192
بعد توی صفحهاش میذاره واقعا:
https://twitter.com/sama
X (formerly Twitter)
Sam Altman (@sama) on X
we'd like to show you what sora can do, please reply with captions for videos you'd like to see and we'll start making some!
شبکه داستانی عصبی
دقایقی پیش OpenAI اولین مدل text-to-video خودش رو به اسم Sora رونمایی کرد! خروجیها پشمریزونن! https://openai.com/sora
Openai
Video generation models as world simulators
We explore large-scale training of generative models on video data. Specifically, we train text-conditional diffusion models jointly on videos and images of variable durations, resolutions and aspect ratios. We leverage a transformer architecture that operates…
🔥1
Forwarded from طاقچه
ده سال طول میکشد تا یکشبه موفق شوید.
حرکت در مه | محمدحسن شهسواری
👇🏼 لینک دریافت کتاب:
کتاب حرکت در مه
🆔 @taaghche_books
حرکت در مه | محمدحسن شهسواری
👇🏼 لینک دریافت کتاب:
کتاب حرکت در مه
🆔 @taaghche_books
👍4
دو سه ساعت پیش OpenAI اعلام کرد سقف token per minute (TPM) رو برای gpt4 دو برابر کرده و محدودیتهای روزانه رو هم برداشته:
https://twitter.com/OpenAIDevs/status/1758631343595168142?t=3kUC2I1Ww4Lhhgwdhnazgg&s=19
https://twitter.com/OpenAIDevs/status/1758631343595168142?t=3kUC2I1Ww4Lhhgwdhnazgg&s=19
X (formerly Twitter)
OpenAI Developers (@OpenAIDevs) on X
We’ve just doubled GPT-4 Turbo rate limits across the board and removed all daily limits. Here are the new maximum tokens per minute (TPM) you can now achieve.
https://t.co/D2Xm3QidZy
https://t.co/D2Xm3QidZy
👍3
Mark Zuckerberg Explains Why Tech Layoffs Continue
https://www.businessinsider.com/mark-zuckerberg-comments-tech-company-layoffs-2024-2
https://www.businessinsider.com/mark-zuckerberg-comments-tech-company-layoffs-2024-2
Business Insider
Mark Zuckerberg explains why so many tech companies are doing layoffs right now
Meta's CEO said tech execs realized conducting tough layoffs didn't end their companies — and there can be benefits to being leaner.
حضرت کارپثی با ویدیو جدید اومد:
از صفر Tokenizer رو پیاده کرده و توضیح داده
https://twitter.com/karpathy/status/1759996549109776702?t=Csd27semuhILO5csHQiqvw&s=19
از صفر Tokenizer رو پیاده کرده و توضیح داده
https://twitter.com/karpathy/status/1759996549109776702?t=Csd27semuhILO5csHQiqvw&s=19
X (formerly Twitter)
Andrej Karpathy (@karpathy) on X
New (2h13m 😅) lecture: "Let's build the GPT Tokenizer"
Tokenizers are a completely separate stage of the LLM pipeline: they have their own training set, training algorithm (Byte Pair Encoding), and after training implement two functions: encode() from strings…
Tokenizers are a completely separate stage of the LLM pipeline: they have their own training set, training algorithm (Byte Pair Encoding), and after training implement two functions: encode() from strings…
🔥1
آیا میدانستید که میتونید برید به چتجیپیتی بگید حاجی از دادهی من استفاده نکن برای training؟
به صورت دیفالت که استفاده میکنه. بعد یه گزینه داشت که میگفت history چتها رو نگه ندار و train هم نکن؛ یعنی اگه میخواستی train نکنه، history هم برات نگه نمیداشت.
عاماااا فهمیدم که از یه جای دیگهای میشه این گزینه رو فعال کرد که history رو نگه داره ولی train نکنه! ولی دم دست نیست. یه جایی اون پشت مشتا نوشته:
If you are on a ChatGPT Plus or ChatGPT Free plan on a personal workspace, you can opt out of training through our privacy portal by clicking on “do not train on my content.” You can also turn off training for your ChatGPT conversations by switching Chat history & training off in Settings. Once you opt out, new conversations will not be used to train our models.
که برای انجام دادنش باید برید به این لینک:
https://privacy.openai.com/policies?modal=take-control
به صورت دیفالت که استفاده میکنه. بعد یه گزینه داشت که میگفت history چتها رو نگه ندار و train هم نکن؛ یعنی اگه میخواستی train نکنه، history هم برات نگه نمیداشت.
عاماااا فهمیدم که از یه جای دیگهای میشه این گزینه رو فعال کرد که history رو نگه داره ولی train نکنه! ولی دم دست نیست. یه جایی اون پشت مشتا نوشته:
If you are on a ChatGPT Plus or ChatGPT Free plan on a personal workspace, you can opt out of training through our privacy portal by clicking on “do not train on my content.” You can also turn off training for your ChatGPT conversations by switching Chat history & training off in Settings. Once you opt out, new conversations will not be used to train our models.
که برای انجام دادنش باید برید به این لینک:
https://privacy.openai.com/policies?modal=take-control
👍3
حسم نسبت به این سرویسهای کلاود (به خصوص این کلاودهای بزرگ) مثل وقتیه که میری یه فروشگاه زنجیرهای خواربار فروشی یا آنلاین میخوای از آمازون یا دیجیکالا مثلا خرید کنی! اینقدر تنوعشون زیاده حتی فقط برای انجام دادن یه کار مشخص و همهی چیزاشون عین هم به نظر میرسه که کلافهکننده میشه! نه فقط کلاودهای مختلف بلکه داخل خود یه کلاود پرووایدر.
الان مثلا Azure پنجاه هزار سرویس داره که باهاش میشه چتبات درست کرد. بعد صد هزار تا سمپل ریپو هم داره برای هر کدوم! خب باباااا! یه جا لااقل بیا بگو چرا صد و پنجاه هزار تا محصول درست کردی؟! بعد احتمالا توی خودشون هم برای هر کدوم یه تیم جدا دارن با کلی مدیر محصول و فلان و بیسار! خب چرا؟!
#غر
الان مثلا Azure پنجاه هزار سرویس داره که باهاش میشه چتبات درست کرد. بعد صد هزار تا سمپل ریپو هم داره برای هر کدوم! خب باباااا! یه جا لااقل بیا بگو چرا صد و پنجاه هزار تا محصول درست کردی؟! بعد احتمالا توی خودشون هم برای هر کدوم یه تیم جدا دارن با کلی مدیر محصول و فلان و بیسار! خب چرا؟!
#غر