شرکت انتروپیک بهتازگی از سرویس جدید خودش با نام «Claude Gov» رونمایی کرده؛ محصولی که بهطور خاص برای استفاده نهادهای نظامی و اطلاعاتی ایالات متحده طراحی شده. این مدلهای هوش مصنوعی طوری آموزش دیدن که اطلاعات محرمانه رو بهتر تحلیل کنن و نسبت به نسخههای عمومی، محدودیتهای کمتری در برابر چنین دادههایی دارن. انتروپیک اعلام کرده که این مدلها همین حالا هم توسط بالاترین سطوح امنیتی آمریکا استفاده میشن، اما نگفته از کی دقیقاً این استفاده شروع شده.
Claude Gov برای کارهایی مثل تحلیل تهدیدها و پردازش اطلاعات پیچیده طراحی شده و طبق گفته شرکت، همچنان از تستهای ایمنی سختگیرانه گذر کرده. با این حال، برخلاف نسخه عمومی Claude، در مواجهه با اطلاعات طبقهبندیشده «کمتر امتناع میکنه» و همین باعث میشه مناسبتر برای عملیاتهای امنیتی باشه. این مدلها همچنین توانایی بالاتری در درک اسناد نظامی، ساختارهای اطلاعاتی، و زبانها یا گویشهایی دارن که در امنیت ملی نقش دارن.
استفاده دولتها از هوش مصنوعی همیشه با نگرانیهایی همراه بوده؛ از جمله موارد متعدد بازداشت اشتباهی در آمریکا بهخاطر تشخیص چهره، یا الگوریتمهایی که در حوزههایی مثل پیشبینی جرم تبعیضآمیز عمل کردن. انتروپیک البته در سیاست استفادهاش همچنان تأکید داره که نباید از محصولاتش برای ساخت یا توزیع سلاح، مواد خطرناک یا عملیات سایبری مخرب استفاده شه. با این حال، این شرکت از سال گذشته برای بعضی نهادهای دولتی استثناهایی در نظر گرفته که با مأموریت و قوانین اون نهادها هماهنگ باشه.
Claude Gov در واقع رقیب مستقیم ChatGPT Gov محسوب میشه؛ سرویسی که OpenAI در دیماه برای سازمانهای دولتی آمریکا راه انداخت. انتروپیک فعلاً جزئیاتی درباره میزان استفاده یا کاربردهای خاص Claude Gov ارائه نداده، اما جزو برنامه FedStart شرکت Palantir شده؛ برنامهای که به استارتاپها کمک میکنه نرمافزارهای دولتی راهاندازی کنن.
@aipulse24
Claude Gov برای کارهایی مثل تحلیل تهدیدها و پردازش اطلاعات پیچیده طراحی شده و طبق گفته شرکت، همچنان از تستهای ایمنی سختگیرانه گذر کرده. با این حال، برخلاف نسخه عمومی Claude، در مواجهه با اطلاعات طبقهبندیشده «کمتر امتناع میکنه» و همین باعث میشه مناسبتر برای عملیاتهای امنیتی باشه. این مدلها همچنین توانایی بالاتری در درک اسناد نظامی، ساختارهای اطلاعاتی، و زبانها یا گویشهایی دارن که در امنیت ملی نقش دارن.
استفاده دولتها از هوش مصنوعی همیشه با نگرانیهایی همراه بوده؛ از جمله موارد متعدد بازداشت اشتباهی در آمریکا بهخاطر تشخیص چهره، یا الگوریتمهایی که در حوزههایی مثل پیشبینی جرم تبعیضآمیز عمل کردن. انتروپیک البته در سیاست استفادهاش همچنان تأکید داره که نباید از محصولاتش برای ساخت یا توزیع سلاح، مواد خطرناک یا عملیات سایبری مخرب استفاده شه. با این حال، این شرکت از سال گذشته برای بعضی نهادهای دولتی استثناهایی در نظر گرفته که با مأموریت و قوانین اون نهادها هماهنگ باشه.
Claude Gov در واقع رقیب مستقیم ChatGPT Gov محسوب میشه؛ سرویسی که OpenAI در دیماه برای سازمانهای دولتی آمریکا راه انداخت. انتروپیک فعلاً جزئیاتی درباره میزان استفاده یا کاربردهای خاص Claude Gov ارائه نداده، اما جزو برنامه FedStart شرکت Palantir شده؛ برنامهای که به استارتاپها کمک میکنه نرمافزارهای دولتی راهاندازی کنن.
@aipulse24
❤10🤔10👍1
AI Pulse
۱. پیشبینی (Inference) Inference یعنی وقتی مدل آموزش دیده، ازش استفاده کنیم تا روی دادههای جدید پیشبینی انجام بده. این بخش همون استفاده عملی از مدله. مثلاً وقتی یه عکس جدید به یه مدل تشخیص چهره میدی، مدل از چیزهایی که یاد گرفته استفاده میکنه تا بگه…
۱. Tokenization (توکنیزه کردن)
توکنیزه کردن یعنی شکستن متن به واحدهای کوچکتر به نام «توکن». این توکنها میتونن کلمات، بخشهایی از کلمات یا حتی کاراکترها باشن. مدلهای زبانی برای اینکه بتونن با متن کار کنن، باید اول متن رو به توکن تبدیل کنن.
مثلاً جملهی "من عاشق هوش مصنوعی هستم" ممکنه به توکنهای ["من", "عاشق", "هوش", "مصنوعی", "هستم"] شکسته بشه. اما در مدلهای مثل GPT، که از «byte pair encoding» استفاده میکنن، ممکنه حتی کلمات هم به قطعات کوچکتر تقسیم بشن. این مرحله خیلی مهمه چون ورودی مدل فقط میتونه توکنها رو بفهمه، نه متن طبیعی رو.
۲. Embedding
بعد از توکنیزه کردن، نوبت به «Embedding» میرسه. چون مدلها فقط با اعداد کار میکنن، هر توکن باید به یه عدد یا بردار (لیستی از اعداد) تبدیل بشه. این بردارها به مدل کمک میکنن معنی کلمات رو بهتر درک کنه.
مثلاً کلمات "پادشاه" و "ملکه" ممکنه بردارهایی داشته باشن که در فضای عددی به هم نزدیک باشن، چون از نظر معنایی شبیهان. این مرحله باعث میشه مدل بتونه «معنا» رو به شکلی قابل پردازش درک کنه.
۳. Self-Attention (توجه به خود)
Self-Attention یکی از خلاقانهترین ایدهها در مدلهای زبانیه. این مکانیزم کمک میکنه مدل تصمیم بگیره به کدوم قسمتهای جمله بیشتر توجه کنه.
مثلاً در جملهی "کتابی که دیروز خریدم عالی بود"، مدل باید بفهمه که "عالی بود" مربوط به "کتاب"ه، نه "دیروز". Self-attention این وابستگیها رو مشخص میکنه. به همین دلیل مدلهایی که از این روش استفاده میکنن (مثل BERT و GPT)، درک عمیقتری از ساختار زبان دارن.
۴. Transformer
ترنسفورمر یه معماری جدید و انقلابی در یادگیری زبان طبیعیه که از مکانیزم attention برای پردازش توالیها استفاده میکنه. برخلاف مدلهای قدیمیتر مثل RNN، این مدلها میتونن همزمان تمام کلمات یک جمله رو ببینن و سریعتر و دقیقتر کار کنن.
GPT، BERT، T5، LLaMA، همه بر پایهی ترنسفورمر ساخته شدن. مثلا GPT یه ترنسفورمر «سمت چپنگره» که فقط به کلمات قبلی نگاه میکنه و کلمه بعدی رو حدس میزنه.
۵. Pretraining و Fine-tuning
مدلهای زبانی مثل GPT اول در مرحلهای به اسم Pretraining روی مقدار زیادی متن عمومی آموزش میبینن (مثل کتاب، مقاله، سایتها). این مرحله کمک میکنه زبان رو یاد بگیرن، بدون اینکه وظیفه خاصی داشته باشن.
بعداً در مرحلهی Fine-tuning، مدل برای انجام یه کار خاص آموزش داده میشه؛ مثل خلاصهسازی، ترجمه یا پاسخ دادن به سوالها. این دو مرحله باعث میشن مدل هم «دانش عمومی» داشته باشه، هم توی کار خاصی بهتر از معمول عمل کنه.
۶. Prompting و Instruction Tuning
Prompting یعنی طراحی یک ورودی مناسب برای مدل تا کاری رو انجام بده. مثلاً وقتی به مدل میگی: «لطفاً این متن رو خلاصه کن»، این یه prompt محسوب میشه.
اما Instruction tuning مرحلهایه که طی اون مدل یاد میگیره چطور به دستورات مختلف پاسخ بده. این همون چیزیه که باعث شده ChatGPT یا Claude بتونن با زبان طبیعی باهات صحبت کنن.
۷. Distillation (تقطیر دانش)
Distillation یه تکنیکه برای اینکه یه مدل بزرگ و سنگین (Teacher) رو تبدیل کنیم به یه مدل کوچکتر و سریعتر (Student) بدون اینکه خیلی از دقتش کم بشه.
مثلاً GPT-4o ممکنه خیلی دقیق باشه ولی مدل گرونیه. با Distillation میتونیم یه نسخه سبکتر مثل GPT-4o mini تولید کنیم که روی موبایل یا مرورگر اجرا بشه.
به طور خلاصه این تکنیک اینطوری کار میکنه که مدل کوچکتر شروع میکنه به سوال پرسیدن از مدل اصلی و طی این فرآیند پاسخ هارو یاد میگیره.
۸. Fine-Tuning و LoRA
در Fine-Tuning سنتی، تمام پارامترهای مدل دوباره آموزش داده میشن، که منابع زیادی لازم داره.
اما LoRA یه روش سبکتره که فقط چند لایه کوچک به مدل اضافه میکنه و همونها آموزش میبینن. بهجای دستکاری کل مدل، فقط تنظیمات اضافه رو تغییر میدیم. این باعث میشه مدل سریعتر و با مصرف کمتر منابع برای کار خاصی بهینه بشه.
۹. Sampling, Top-k و Top-p (برای تولید متن)
وقتی مدل میخواد متن تولید کنه، از بین کلمههای ممکن، باید یه انتخاب انجام بده.
Greedy Sampling همیشه بهترین گزینه رو انتخاب میکنه ولی ممکنه جواب تکراری بشه.
Top-k فقط بین k تا از بهترین گزینهها انتخاب میکنه.
Top-p بین گزینههایی انتخاب میکنه که جمع احتمالشون به p درصد میرسه.
این تنظیمات روی سبک نوشتن مدل تأثیر زیادی دارن؛ مثلاً توی خلاقیت یا دقت متن.
#آموزشی
@aipulse24
توکنیزه کردن یعنی شکستن متن به واحدهای کوچکتر به نام «توکن». این توکنها میتونن کلمات، بخشهایی از کلمات یا حتی کاراکترها باشن. مدلهای زبانی برای اینکه بتونن با متن کار کنن، باید اول متن رو به توکن تبدیل کنن.
مثلاً جملهی "من عاشق هوش مصنوعی هستم" ممکنه به توکنهای ["من", "عاشق", "هوش", "مصنوعی", "هستم"] شکسته بشه. اما در مدلهای مثل GPT، که از «byte pair encoding» استفاده میکنن، ممکنه حتی کلمات هم به قطعات کوچکتر تقسیم بشن. این مرحله خیلی مهمه چون ورودی مدل فقط میتونه توکنها رو بفهمه، نه متن طبیعی رو.
۲. Embedding
بعد از توکنیزه کردن، نوبت به «Embedding» میرسه. چون مدلها فقط با اعداد کار میکنن، هر توکن باید به یه عدد یا بردار (لیستی از اعداد) تبدیل بشه. این بردارها به مدل کمک میکنن معنی کلمات رو بهتر درک کنه.
مثلاً کلمات "پادشاه" و "ملکه" ممکنه بردارهایی داشته باشن که در فضای عددی به هم نزدیک باشن، چون از نظر معنایی شبیهان. این مرحله باعث میشه مدل بتونه «معنا» رو به شکلی قابل پردازش درک کنه.
۳. Self-Attention (توجه به خود)
Self-Attention یکی از خلاقانهترین ایدهها در مدلهای زبانیه. این مکانیزم کمک میکنه مدل تصمیم بگیره به کدوم قسمتهای جمله بیشتر توجه کنه.
مثلاً در جملهی "کتابی که دیروز خریدم عالی بود"، مدل باید بفهمه که "عالی بود" مربوط به "کتاب"ه، نه "دیروز". Self-attention این وابستگیها رو مشخص میکنه. به همین دلیل مدلهایی که از این روش استفاده میکنن (مثل BERT و GPT)، درک عمیقتری از ساختار زبان دارن.
۴. Transformer
ترنسفورمر یه معماری جدید و انقلابی در یادگیری زبان طبیعیه که از مکانیزم attention برای پردازش توالیها استفاده میکنه. برخلاف مدلهای قدیمیتر مثل RNN، این مدلها میتونن همزمان تمام کلمات یک جمله رو ببینن و سریعتر و دقیقتر کار کنن.
GPT، BERT، T5، LLaMA، همه بر پایهی ترنسفورمر ساخته شدن. مثلا GPT یه ترنسفورمر «سمت چپنگره» که فقط به کلمات قبلی نگاه میکنه و کلمه بعدی رو حدس میزنه.
۵. Pretraining و Fine-tuning
مدلهای زبانی مثل GPT اول در مرحلهای به اسم Pretraining روی مقدار زیادی متن عمومی آموزش میبینن (مثل کتاب، مقاله، سایتها). این مرحله کمک میکنه زبان رو یاد بگیرن، بدون اینکه وظیفه خاصی داشته باشن.
بعداً در مرحلهی Fine-tuning، مدل برای انجام یه کار خاص آموزش داده میشه؛ مثل خلاصهسازی، ترجمه یا پاسخ دادن به سوالها. این دو مرحله باعث میشن مدل هم «دانش عمومی» داشته باشه، هم توی کار خاصی بهتر از معمول عمل کنه.
۶. Prompting و Instruction Tuning
Prompting یعنی طراحی یک ورودی مناسب برای مدل تا کاری رو انجام بده. مثلاً وقتی به مدل میگی: «لطفاً این متن رو خلاصه کن»، این یه prompt محسوب میشه.
اما Instruction tuning مرحلهایه که طی اون مدل یاد میگیره چطور به دستورات مختلف پاسخ بده. این همون چیزیه که باعث شده ChatGPT یا Claude بتونن با زبان طبیعی باهات صحبت کنن.
۷. Distillation (تقطیر دانش)
Distillation یه تکنیکه برای اینکه یه مدل بزرگ و سنگین (Teacher) رو تبدیل کنیم به یه مدل کوچکتر و سریعتر (Student) بدون اینکه خیلی از دقتش کم بشه.
مثلاً GPT-4o ممکنه خیلی دقیق باشه ولی مدل گرونیه. با Distillation میتونیم یه نسخه سبکتر مثل GPT-4o mini تولید کنیم که روی موبایل یا مرورگر اجرا بشه.
به طور خلاصه این تکنیک اینطوری کار میکنه که مدل کوچکتر شروع میکنه به سوال پرسیدن از مدل اصلی و طی این فرآیند پاسخ هارو یاد میگیره.
۸. Fine-Tuning و LoRA
در Fine-Tuning سنتی، تمام پارامترهای مدل دوباره آموزش داده میشن، که منابع زیادی لازم داره.
اما LoRA یه روش سبکتره که فقط چند لایه کوچک به مدل اضافه میکنه و همونها آموزش میبینن. بهجای دستکاری کل مدل، فقط تنظیمات اضافه رو تغییر میدیم. این باعث میشه مدل سریعتر و با مصرف کمتر منابع برای کار خاصی بهینه بشه.
۹. Sampling, Top-k و Top-p (برای تولید متن)
وقتی مدل میخواد متن تولید کنه، از بین کلمههای ممکن، باید یه انتخاب انجام بده.
Greedy Sampling همیشه بهترین گزینه رو انتخاب میکنه ولی ممکنه جواب تکراری بشه.
Top-k فقط بین k تا از بهترین گزینهها انتخاب میکنه.
Top-p بین گزینههایی انتخاب میکنه که جمع احتمالشون به p درصد میرسه.
این تنظیمات روی سبک نوشتن مدل تأثیر زیادی دارن؛ مثلاً توی خلاقیت یا دقت متن.
#آموزشی
@aipulse24
2👍27❤13🙏4👏2
شرکت OpenAI قیمت API مدل o3 رو ۸۰٪ کاهش داده و این مدل حالا ۲ دلار برای هر یک میلیون توکن ورودی و ۸ دلار برای توکن خروجی هزینه خواهد داشت.
همچنین از مدل o3-pro هم در API رونمایی کرده که ۲۰ دلار برای هر یک میلیون توکن ورودی و ۸۰ دلار برای توکن خروجی هزینه داره ولی با این حال همچنان ۸۷٪ از مدل o1-pro ارزون تره.
@aipulse24
همچنین از مدل o3-pro هم در API رونمایی کرده که ۲۰ دلار برای هر یک میلیون توکن ورودی و ۸۰ دلار برای توکن خروجی هزینه داره ولی با این حال همچنان ۸۷٪ از مدل o1-pro ارزون تره.
@aipulse24
❤17👏11
همچنین مدل o3-pro حالا برای تمام کاربران پلن Pro در دسترس قرار گرفته. این مدل بهبود عملکرد قابل توجهی نسبت به o3 داره.
@aipulse24
@aipulse24
❤18👍6
This media is not supported in your browser
VIEW IN TELEGRAM
استارتاپ Midjourney که با مدلهای تولید تصویر مبتنی بر هوش مصنوعی شناخته میشه، بهتازگی از مدل تولید ویدئوی خودش به نام V1 رونمایی کرده. این مدل میتونه از یک تصویر ثابت (چه تصویر آپلودی، چه تصویر تولیدشده توسط مدلهای قبلی Midjourney) چهار ویدئوی پنجثانیهای تولید کنه و کاربران میتونن این ویدئوها رو تا چهار بار، هر بار بهمدت چهار ثانیه، طولانیتر کنن. در نتیجه، حداکثر طول ویدئویی که با V1 ساخته میشه میتونه به ۲۱ ثانیه برسه. این ویدئوها در حال حاضر فقط از طریق پلتفرم دیسکورد و در نسخهی وب در دسترس قرار دارن.
V1 بهگونهای طراحی شده که استفاده ازش هم ساده باشه و هم قابلیتهای فنی متنوعی در اختیار کاربران بذاره. از جمله تنظیماتی که در این مدل در نظر گرفته شده میشه به حالت «انیمیشن خودکار» اشاره کرد که تصویر ورودی رو بهصورت تصادفی و بدون دخالت کاربر به حرکت درمیاره. برای کاربران حرفهایتر، حالت «انیمیشن دستی» فراهم شده که در اون میتونن بهصورت متنی توضیح بدن که چه نوع حرکتی مدنظرشونه — مثل چرخش دوربین، حرکت کاراکتر یا تغییرات پسزمینه. همچنین گزینههایی برای میزان تحرک صحنه در نظر گرفته شده: از «low motion» برای حرکات آرام گرفته تا «high motion» برای صحنههای پویاتر.
از نظر هزینه، مدل V1 نسبت به مدلهای تصویری Midjourney پرمصرفتره. طبق اعلام شرکت، تولید یک ویدئو تا ۸ برابر بیشتر از یک تصویر از سهمیهی ماهانهی کاربران مصرف میکنه. اشتراک پایه برای استفاده از V1 از ۱۰ دلار در ماه شروع میشه، درحالیکه مشترکین پلن Pro (با قیمت ۶۰ دلار) و Mega (۱۲۰ دلار) امکان تولید نامحدود ویدئو در حالت Relax (حالت غیرسریع) رو دارن. البته Midjourney اعلام کرده که طی ماه آینده، سیاست قیمتگذاری برای مدلهای ویدئویی خودش رو بازبینی خواهد کرد.
از نظر جلوههای بصری، ویدئوهای تولیدشده توسط V1 در نگاه اول بیشتر «سورئال» و خیالگونه بهنظر میرسن تا واقعگرایانه؛ ویژگیای که پیشتر هم در مدلهای تصویری Midjourney دیده شده بود. با وجود اینکه این سبک ممکنه برای برخی از کاربران مناسب نباشه، اما در میان هنرمندان و خلاقان بازخورد مثبتی دریافت کرده. با این حال، هنوز مشخص نیست که V1 در عمل تا چه حد میتونه با مدلهایی مثل Veo 3 از گوگل یا Gen-4 از Runway رقابت کنه، مخصوصاً در زمینه کیفیت، پایداری تصویر و کنترلپذیری دقیق صحنه.
درنهایت، Midjourney با مدل V1 نشون داده که همچنان میخواد مرزهای خلاقیت بصری در دنیای هوش مصنوعی رو جابهجا کنه — حتی در شرایطی که از سوی نهادهای حقوقی و استودیوهای بزرگ فیلمسازی به چالش کشیده میشه. مسیر بعدی این شرکت، طبق وعدهها، توسعهی مدلهایی برای تولید رندرهای سهبعدی و شبیهسازیهای بلادرنگ خواهد بود؛ هدفی جاهطلبانه که میتونه آیندهی طراحی و داستانسرایی بصری رو متحول کنه.
@aipulse24
V1 بهگونهای طراحی شده که استفاده ازش هم ساده باشه و هم قابلیتهای فنی متنوعی در اختیار کاربران بذاره. از جمله تنظیماتی که در این مدل در نظر گرفته شده میشه به حالت «انیمیشن خودکار» اشاره کرد که تصویر ورودی رو بهصورت تصادفی و بدون دخالت کاربر به حرکت درمیاره. برای کاربران حرفهایتر، حالت «انیمیشن دستی» فراهم شده که در اون میتونن بهصورت متنی توضیح بدن که چه نوع حرکتی مدنظرشونه — مثل چرخش دوربین، حرکت کاراکتر یا تغییرات پسزمینه. همچنین گزینههایی برای میزان تحرک صحنه در نظر گرفته شده: از «low motion» برای حرکات آرام گرفته تا «high motion» برای صحنههای پویاتر.
از نظر هزینه، مدل V1 نسبت به مدلهای تصویری Midjourney پرمصرفتره. طبق اعلام شرکت، تولید یک ویدئو تا ۸ برابر بیشتر از یک تصویر از سهمیهی ماهانهی کاربران مصرف میکنه. اشتراک پایه برای استفاده از V1 از ۱۰ دلار در ماه شروع میشه، درحالیکه مشترکین پلن Pro (با قیمت ۶۰ دلار) و Mega (۱۲۰ دلار) امکان تولید نامحدود ویدئو در حالت Relax (حالت غیرسریع) رو دارن. البته Midjourney اعلام کرده که طی ماه آینده، سیاست قیمتگذاری برای مدلهای ویدئویی خودش رو بازبینی خواهد کرد.
از نظر جلوههای بصری، ویدئوهای تولیدشده توسط V1 در نگاه اول بیشتر «سورئال» و خیالگونه بهنظر میرسن تا واقعگرایانه؛ ویژگیای که پیشتر هم در مدلهای تصویری Midjourney دیده شده بود. با وجود اینکه این سبک ممکنه برای برخی از کاربران مناسب نباشه، اما در میان هنرمندان و خلاقان بازخورد مثبتی دریافت کرده. با این حال، هنوز مشخص نیست که V1 در عمل تا چه حد میتونه با مدلهایی مثل Veo 3 از گوگل یا Gen-4 از Runway رقابت کنه، مخصوصاً در زمینه کیفیت، پایداری تصویر و کنترلپذیری دقیق صحنه.
درنهایت، Midjourney با مدل V1 نشون داده که همچنان میخواد مرزهای خلاقیت بصری در دنیای هوش مصنوعی رو جابهجا کنه — حتی در شرایطی که از سوی نهادهای حقوقی و استودیوهای بزرگ فیلمسازی به چالش کشیده میشه. مسیر بعدی این شرکت، طبق وعدهها، توسعهی مدلهایی برای تولید رندرهای سهبعدی و شبیهسازیهای بلادرنگ خواهد بود؛ هدفی جاهطلبانه که میتونه آیندهی طراحی و داستانسرایی بصری رو متحول کنه.
@aipulse24
❤18🔥6👍4
بعد از معرفی نه چندان موفق Llama 4 که باعث استعفای تعدادی از مدیرای متا شد حالا زاکربرگ راه افتاده و داره کاری رو انجام میده که بیشتر از هرچیزی بلده!
خریدن رقبا!!!
توی این ۲ ۳ هفته زاکربرگ اونقدر دانشمند از شرکت های دیگه دزدیده که سوژه یه عالمه میم شده
مبالغی که بهشون پیشنهاد داده بسیار عجیب غریب هستن مثلا به یه تعدادشون در لحظه امضا قرار داد ۱۰۰ میلیون دلار داده!!
زاکربرگ از OpenAI به تنهایی ۸ تا دانشمند جذب کرده که همگی طبق توئیت یکی از کارمندان که بعدا پاک کرد بسیار افراد تاثیر گذار و حساسی هستن و از اینکه مدیریت برای حفظ اونها هیچ کاری نکرده شاکی هست
یکی از اونها حتی خالق ایده مدل های Reasoning هست!!
این شرایط باعث شده که OpenAi مدعی بشه که کارمندانش خسته ان و کلا هفته جاری رو برای همه کارمندان توی OpenAi تعطیل کرده!
فکرکن بخوای ۱۰۰ میلیون دلار رو با ۱ هفته تعطیلی حل کنی😭
این شرایط بسیار شبیه به چیزیه که سالها قبل جف بزوس برای الکسا ایجاد کرد. یک شرکت به اسم Nuance وجود داشت درحد OpenAi فعلی که واسه Speech بود بزوس تمام دانشمنداش رو خرید و فکرکنم لازم نباشه بگم بقیه ماجرا چی شد چون کسی نمیدونه Nuance کیه ولی همه الکسا رو میشناسن.
انتظار میره حداقل تا ۲ ۳ مدل اینده همچنان OpenAi پیشرو باشه چون تاثیر این استعدادها همچنان روی محصولاتی که منتشر نشدن وجود داره ولی از بعدش بسیار ضربه بزرگی برای OpenAi هست مگر اینکه بتونه سریع استعدادهارو جایگزین کنه که البته درحال حاضر جهان به شدت با کمبود نیروی هوش مصنوعی کار درست مواجهه
حالا باید ببینیم در اینده زاکربرگ میتونه یه اینستاگرام دیگه بپا کنه یا این سری مثل قبل شانس نمیاره
@aipulse24
خریدن رقبا!!!
توی این ۲ ۳ هفته زاکربرگ اونقدر دانشمند از شرکت های دیگه دزدیده که سوژه یه عالمه میم شده
مبالغی که بهشون پیشنهاد داده بسیار عجیب غریب هستن مثلا به یه تعدادشون در لحظه امضا قرار داد ۱۰۰ میلیون دلار داده!!
زاکربرگ از OpenAI به تنهایی ۸ تا دانشمند جذب کرده که همگی طبق توئیت یکی از کارمندان که بعدا پاک کرد بسیار افراد تاثیر گذار و حساسی هستن و از اینکه مدیریت برای حفظ اونها هیچ کاری نکرده شاکی هست
یکی از اونها حتی خالق ایده مدل های Reasoning هست!!
این شرایط باعث شده که OpenAi مدعی بشه که کارمندانش خسته ان و کلا هفته جاری رو برای همه کارمندان توی OpenAi تعطیل کرده!
فکرکن بخوای ۱۰۰ میلیون دلار رو با ۱ هفته تعطیلی حل کنی
این شرایط بسیار شبیه به چیزیه که سالها قبل جف بزوس برای الکسا ایجاد کرد. یک شرکت به اسم Nuance وجود داشت درحد OpenAi فعلی که واسه Speech بود بزوس تمام دانشمنداش رو خرید و فکرکنم لازم نباشه بگم بقیه ماجرا چی شد چون کسی نمیدونه Nuance کیه ولی همه الکسا رو میشناسن.
انتظار میره حداقل تا ۲ ۳ مدل اینده همچنان OpenAi پیشرو باشه چون تاثیر این استعدادها همچنان روی محصولاتی که منتشر نشدن وجود داره ولی از بعدش بسیار ضربه بزرگی برای OpenAi هست مگر اینکه بتونه سریع استعدادهارو جایگزین کنه که البته درحال حاضر جهان به شدت با کمبود نیروی هوش مصنوعی کار درست مواجهه
حالا باید ببینیم در اینده زاکربرگ میتونه یه اینستاگرام دیگه بپا کنه یا این سری مثل قبل شانس نمیاره
@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22🤯9😁6🤣3👍1
کلودفلر از قابلیتی تازه به نام Pay Per Crawl رونمایی کرده که به صاحبان محتوا اجازه میده تا در ازای دسترسی خزندههای هوش مصنوعی به محتوای خودشون، پول دریافت کنن. این قابلیت که فعلاً بهصورت آزمایشی و خصوصی در دسترس قرار گرفته، یه راهحل میانبر برای مسئلهایه که مدتهاست ناشران و تولیدکنندگان محتوا باهاش درگیرن: یا باید همهچیز رو رایگان در اختیار مدلهای هوش مصنوعی بذارن، یا کامل جلوی دسترسی اونها رو ببندن.
ایدهی کلیدی اینه که دیگه لازم نباشه همهچیز صفر و یکی باشه. اگه یه خزنده بخواد محتوایی رو ایندکس کنه، میتونه درخواستش رو با هدر مخصوص و اعلام آمادگی برای پرداخت بفرسته و اگه قیمت از طرف ناشر مشخص شده باشه، با پرداخت اون مبلغ به محتوا دسترسی پیدا میکنه. اگرم پرداختی صورت نگیره، سرور یه پاسخ HTTP 402 (که قبلاً تقریباً هیچوقت استفاده نمیشد) برمیگردونه و خزنده از قیمت مطلع میشه. کلودفلر توی این فرآیند نقش واسط مالی رو هم بازی میکنه.
ناشرها اختیار کامل دارن که برای هر خزنده تصمیم بگیرن: اجازهی رایگان بدن، هزینه دریافت کنن یا دسترسی رو بهطور کامل ببندن. حتی اگه خزندهای حسابی توی کلودفلر نداشته باشه، باز هم میشه بهصورت مشروط ازش پول خواست، که این عملاً مثل بلاک کردنه اما با امکان مذاکرهی آینده. همچنین امکان تعریف قیمت ثابت برای کل سایت، یا اعمال استثنا برای بعضی خزندهها هم وجود داره.
کلودفلر میگه این فقط قدم اوله. در آینده، این مدل میتونه به زیرساختی برای «دیوار پرداختی عاملمحور» تبدیل بشه؛ جایی که مثلاً یه دستیار هوشمند بتونه برای پیدا کردن بهترین منابع درباره سرطان یا تحلیل یه قرارداد حقوقی، خودش بهصورت خودکار بودجه خرج کنه و بهترین نتایج رو بخره. این یعنی یه گام مهم به سمت اینترنتی که توش محتوا، ارزشگذاری و کنترل دست تولیدکنندههاست، نه خزندههای بینام و نشان.
@aipulse24
ایدهی کلیدی اینه که دیگه لازم نباشه همهچیز صفر و یکی باشه. اگه یه خزنده بخواد محتوایی رو ایندکس کنه، میتونه درخواستش رو با هدر مخصوص و اعلام آمادگی برای پرداخت بفرسته و اگه قیمت از طرف ناشر مشخص شده باشه، با پرداخت اون مبلغ به محتوا دسترسی پیدا میکنه. اگرم پرداختی صورت نگیره، سرور یه پاسخ HTTP 402 (که قبلاً تقریباً هیچوقت استفاده نمیشد) برمیگردونه و خزنده از قیمت مطلع میشه. کلودفلر توی این فرآیند نقش واسط مالی رو هم بازی میکنه.
ناشرها اختیار کامل دارن که برای هر خزنده تصمیم بگیرن: اجازهی رایگان بدن، هزینه دریافت کنن یا دسترسی رو بهطور کامل ببندن. حتی اگه خزندهای حسابی توی کلودفلر نداشته باشه، باز هم میشه بهصورت مشروط ازش پول خواست، که این عملاً مثل بلاک کردنه اما با امکان مذاکرهی آینده. همچنین امکان تعریف قیمت ثابت برای کل سایت، یا اعمال استثنا برای بعضی خزندهها هم وجود داره.
کلودفلر میگه این فقط قدم اوله. در آینده، این مدل میتونه به زیرساختی برای «دیوار پرداختی عاملمحور» تبدیل بشه؛ جایی که مثلاً یه دستیار هوشمند بتونه برای پیدا کردن بهترین منابع درباره سرطان یا تحلیل یه قرارداد حقوقی، خودش بهصورت خودکار بودجه خرج کنه و بهترین نتایج رو بخره. این یعنی یه گام مهم به سمت اینترنتی که توش محتوا، ارزشگذاری و کنترل دست تولیدکنندههاست، نه خزندههای بینام و نشان.
@aipulse24
🔥24👍9❤5👎3🤔1
بریم سراغ جدیدترین کیس عجیب و غریب سیلیکون ولی آقای سوهام پارخ!
ایشون مثل اینکه تو مدرسه درس سو و شون رو نخونده واسه همین به شلخته درو کردن اعتقادی نداره.😭
برای همین همزمان برای 6 الی 7 تا استارتاپ درحال کار کردن هست!!!
دو روز قبل سهیل دوشی مدیرعامل شرکت playground.ai توی یک توئیت درمورد این فرد صحبت کرد.
توی توئیتش گفت که این فرد ساکن هند هست و اخیرا استارتاپ های تحت حمایت Ycombinator (یک موسسه سرمایه گذاری خطرپذیر معروف) رو هدف قرار داده.
بعد از این توئیت تمام استارتاپ های دیگه ای هم که سهیل رو فالو میکردن اومدن و گفتن که این فرد رو استخدام کردن!
نکته جالب اینه که ایشون به نظر میرسه به شدت توی مصاحبه ها خوب عمل میکنه ولی عملکرد سر کارش زیاد جالب نیست یا شایدم دلیلش اینه که داره همزمان واسه 7 تا شرکت کار میکنه!!!
اینطور که گفته میشه ایشون از حقوق های مختلف این شرکت های متفاوت سالی 800 هزار دلار درامد داره!
همچنین افراد مختلف در تویئت هاشون گفتن که ایشون مدعی هست ساکن امریکاست تا بتونه این کارهارو بگیره ولی بعد مشخص میشه که ساکن امریکا هم نیست و ساکن هنده!
خلاصه اون توئیت سهیل 20 میلیون ویو گرفت و این خبر بسیار وایرال شد و درنتیجه سوهام سوژه یه عالمه میم و توئیت های دیگه شد
لیست یه سری از استارتاپ هایی که مشخص شده توی مصاحبه شون موفق بوده و تونسته استخدام بشه: (نصف سیلیکون ولی عه😃 😃 ):
1. Playground AI
2. Dynamo AI
3. Union AI
4. Synthesia
5. Antimetal
6. Composio
7. Lindy
8. Browser Use
9. Resolve AI
10. Fleet AI
23 تای دیگه هم هست که از تایپ کردنشون خسته شدم😂 😂
حالا واکنش ایشون؟
هیچی خیلی ریلکس رفته توی یه پادکست و گفته واقعیت داره، همزمان واسه خودش سخنگو استخدام کرده و مثل هر فردی در سیلیکون ولی (البته به صورت مجازی چون خودش که هند هست) در تلاشه که این شهرت رو تبدیل به بیزنس و پول کنه😭 😭
خلاصه که فعلا به نظر میرسه:
ASI =
❌ Artificial Superintelligence
✅ Artificial Soham Intelligence
@aipulse24
ایشون مثل اینکه تو مدرسه درس سو و شون رو نخونده واسه همین به شلخته درو کردن اعتقادی نداره.
برای همین همزمان برای 6 الی 7 تا استارتاپ درحال کار کردن هست!!!
دو روز قبل سهیل دوشی مدیرعامل شرکت playground.ai توی یک توئیت درمورد این فرد صحبت کرد.
توی توئیتش گفت که این فرد ساکن هند هست و اخیرا استارتاپ های تحت حمایت Ycombinator (یک موسسه سرمایه گذاری خطرپذیر معروف) رو هدف قرار داده.
بعد از این توئیت تمام استارتاپ های دیگه ای هم که سهیل رو فالو میکردن اومدن و گفتن که این فرد رو استخدام کردن!
نکته جالب اینه که ایشون به نظر میرسه به شدت توی مصاحبه ها خوب عمل میکنه ولی عملکرد سر کارش زیاد جالب نیست یا شایدم دلیلش اینه که داره همزمان واسه 7 تا شرکت کار میکنه!!!
اینطور که گفته میشه ایشون از حقوق های مختلف این شرکت های متفاوت سالی 800 هزار دلار درامد داره!
همچنین افراد مختلف در تویئت هاشون گفتن که ایشون مدعی هست ساکن امریکاست تا بتونه این کارهارو بگیره ولی بعد مشخص میشه که ساکن امریکا هم نیست و ساکن هنده!
خلاصه اون توئیت سهیل 20 میلیون ویو گرفت و این خبر بسیار وایرال شد و درنتیجه سوهام سوژه یه عالمه میم و توئیت های دیگه شد
لیست یه سری از استارتاپ هایی که مشخص شده توی مصاحبه شون موفق بوده و تونسته استخدام بشه: (نصف سیلیکون ولی عه
1. Playground AI
2. Dynamo AI
3. Union AI
4. Synthesia
5. Antimetal
6. Composio
7. Lindy
8. Browser Use
9. Resolve AI
10. Fleet AI
23 تای دیگه هم هست که از تایپ کردنشون خسته شدم
حالا واکنش ایشون؟
هیچی خیلی ریلکس رفته توی یه پادکست و گفته واقعیت داره، همزمان واسه خودش سخنگو استخدام کرده و مثل هر فردی در سیلیکون ولی (البته به صورت مجازی چون خودش که هند هست) در تلاشه که این شهرت رو تبدیل به بیزنس و پول کنه
خلاصه که فعلا به نظر میرسه:
ASI =
❌ Artificial Superintelligence
✅ Artificial Soham Intelligence
@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁37🤣6🤯4❤1👍1
گوگل دیپمایند از مدل هوش مصنوعی جدیدی به نام AlphaGenome پرده برداشته که میتونه نحوه عملکرد و تأثیر جهشهای ژنتیکی رو با دقت بیسابقهای پیشبینی کنه. این مدل، قدم بزرگی در مسیر رمزگشایی از نحوه خوانده شدن دستورات ژنتیکی سلولهاست؛ یعنی همون دستورالعملهایی که بدن رو شکل میدن، رشد میدن یا حتی باعث بیماری میشن.
AlphaGenome برخلاف مدلهای قبلی، میتونه تا یک میلیون حرف DNA رو بهصورت همزمان پردازش کنه و هزاران ویژگی مولکولی رو برای هر توالی پیشبینی کنه. این یعنی پژوهشگران دیگه لازم نیست برای بررسی هر ویژگی ژنتیکی از یک مدل جداگانه استفاده کنن. با یه API ساده، میتونن تأثیر جهشهای ژنتیکی رو روی فرآیندهای مختلف مثل شروع یا پایان ژنها، میزان RNA تولیدشده یا محل اتصال پروتئینها بررسی کنن.
این مدل بر پایه معماری Enformer ساخته شده و نسبت به اون، دقت و کارایی بیشتری داره. یکی از ویژگیهای برجستهی AlphaGenome، توانایی پیشبینی دقیق جهشهایییه که باعث بیماریهای نادر میشن؛ مثل جهشهایی که روی فرآیند splice شدن RNA تأثیر میذارن. این نوع تحلیل تا حالا با هیچ مدل دیگهای ممکن نبوده.
در آزمایشهای مختلف، AlphaGenome تونسته در ۲۲ مورد از ۲۴ معیار پیشبینی توالی DNA، بهترین عملکرد رو در مقایسه با مدلهای موجود داشته باشه. این موفقیت، اون رو به یک ابزار عمومی قدرتمند تبدیل میکنه که میتونه در تحقیقات بنیادی، زیستفناوری و بررسی بیماریها مثل سرطان و اختلالات نادر ژنتیکی نقش بزرگی داشته باشه.
گرچه AlphaGenome هنوز محدودیتهایی هم داره، مثل پیشبینی دقیق اثر عناصر تنظیمکنندهی خیلی دور در توالی DNA؛ اما DeepMind قول داده که مدل رو بهبود بده و با جامعه علمی تعامل داشته باشه. این مدل در حال حاضر بهصورت پیشنمایش و فقط برای اهداف غیرتجاری از طریق API قابل استفادهست.
گوگل میگه این مدل میتونه نقش مهمی در توسعه درمانهای جدید، طراحی DNA مصنوعی هدفمند و درک عمیق از عملکرد ژن ها داشته باشه.
@aipulse24
AlphaGenome برخلاف مدلهای قبلی، میتونه تا یک میلیون حرف DNA رو بهصورت همزمان پردازش کنه و هزاران ویژگی مولکولی رو برای هر توالی پیشبینی کنه. این یعنی پژوهشگران دیگه لازم نیست برای بررسی هر ویژگی ژنتیکی از یک مدل جداگانه استفاده کنن. با یه API ساده، میتونن تأثیر جهشهای ژنتیکی رو روی فرآیندهای مختلف مثل شروع یا پایان ژنها، میزان RNA تولیدشده یا محل اتصال پروتئینها بررسی کنن.
این مدل بر پایه معماری Enformer ساخته شده و نسبت به اون، دقت و کارایی بیشتری داره. یکی از ویژگیهای برجستهی AlphaGenome، توانایی پیشبینی دقیق جهشهایییه که باعث بیماریهای نادر میشن؛ مثل جهشهایی که روی فرآیند splice شدن RNA تأثیر میذارن. این نوع تحلیل تا حالا با هیچ مدل دیگهای ممکن نبوده.
در آزمایشهای مختلف، AlphaGenome تونسته در ۲۲ مورد از ۲۴ معیار پیشبینی توالی DNA، بهترین عملکرد رو در مقایسه با مدلهای موجود داشته باشه. این موفقیت، اون رو به یک ابزار عمومی قدرتمند تبدیل میکنه که میتونه در تحقیقات بنیادی، زیستفناوری و بررسی بیماریها مثل سرطان و اختلالات نادر ژنتیکی نقش بزرگی داشته باشه.
گرچه AlphaGenome هنوز محدودیتهایی هم داره، مثل پیشبینی دقیق اثر عناصر تنظیمکنندهی خیلی دور در توالی DNA؛ اما DeepMind قول داده که مدل رو بهبود بده و با جامعه علمی تعامل داشته باشه. این مدل در حال حاضر بهصورت پیشنمایش و فقط برای اهداف غیرتجاری از طریق API قابل استفادهست.
گوگل میگه این مدل میتونه نقش مهمی در توسعه درمانهای جدید، طراحی DNA مصنوعی هدفمند و درک عمیق از عملکرد ژن ها داشته باشه.
@aipulse24
🔥28👍7❤5❤🔥1