AI Pulse – Telegram
AI Pulse
3.73K subscribers
397 photos
137 videos
5 files
138 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
شرکت انتروپیک به‌تازگی از سرویس جدید خودش با نام «Claude Gov» رونمایی کرده؛ محصولی که به‌طور خاص برای استفاده نهادهای نظامی و اطلاعاتی ایالات متحده طراحی شده. این مدل‌های هوش مصنوعی طوری آموزش دیدن که اطلاعات محرمانه‌ رو بهتر تحلیل کنن و نسبت به نسخه‌های عمومی، محدودیت‌های کمتری در برابر چنین داده‌هایی دارن. انتروپیک اعلام کرده که این مدل‌ها همین حالا هم توسط بالاترین سطوح امنیتی آمریکا استفاده می‌شن، اما نگفته از کی دقیقاً این استفاده شروع شده.

‏Claude Gov برای کارهایی مثل تحلیل تهدیدها و پردازش اطلاعات پیچیده طراحی شده و طبق گفته شرکت، همچنان از تست‌های ایمنی سخت‌گیرانه گذر کرده. با این حال، برخلاف نسخه عمومی Claude، در مواجهه با اطلاعات طبقه‌بندی‌شده «کمتر امتناع می‌کنه» و همین باعث می‌شه مناسب‌تر برای عملیات‌های امنیتی باشه. این مدل‌ها همچنین توانایی بالاتری در درک اسناد نظامی، ساختارهای اطلاعاتی، و زبان‌ها یا گویش‌هایی دارن که در امنیت ملی نقش دارن.

استفاده دولت‌ها از هوش مصنوعی همیشه با نگرانی‌هایی همراه بوده؛ از جمله موارد متعدد بازداشت اشتباهی در آمریکا به‌خاطر تشخیص چهره، یا الگوریتم‌هایی که در حوزه‌هایی مثل پیش‌بینی جرم تبعیض‌آمیز عمل کردن. انتروپیک البته در سیاست استفاده‌اش همچنان تأکید داره که نباید از محصولاتش برای ساخت یا توزیع سلاح، مواد خطرناک یا عملیات سایبری مخرب استفاده شه. با این حال، این شرکت از سال گذشته برای بعضی نهادهای دولتی استثناهایی در نظر گرفته که با مأموریت و قوانین اون نهادها هماهنگ باشه.

‏Claude Gov در واقع رقیب مستقیم ChatGPT Gov محسوب می‌شه؛ سرویسی که OpenAI در دی‌ماه برای سازمان‌های دولتی آمریکا راه انداخت. انتروپیک فعلاً جزئیاتی درباره میزان استفاده یا کاربردهای خاص Claude Gov ارائه نداده، اما جزو برنامه FedStart شرکت Palantir شده؛ برنامه‌ای که به استارتاپ‌ها کمک می‌کنه نرم‌افزارهای دولتی راه‌اندازی کنن.

@aipulse24
10🤔10👍1
AI Pulse
۱. پیش‌بینی (Inference) ‏Inference یعنی وقتی مدل آموزش دیده، ازش استفاده کنیم تا روی داده‌های جدید پیش‌بینی انجام بده. این بخش همون استفاده عملی از مدله. مثلاً وقتی یه عکس جدید به یه مدل تشخیص چهره می‌دی، مدل از چیزهایی که یاد گرفته استفاده می‌کنه تا بگه…
۱. Tokenization (توکنیزه کردن)

توکنیزه کردن یعنی شکستن متن به واحدهای کوچکتر به نام «توکن». این توکن‌ها می‌تونن کلمات، بخش‌هایی از کلمات یا حتی کاراکترها باشن. مدل‌های زبانی برای اینکه بتونن با متن کار کنن، باید اول متن رو به توکن تبدیل کنن.
مثلاً جمله‌ی "من عاشق هوش مصنوعی هستم" ممکنه به توکن‌های ["من", "عاشق", "هوش", "مصنوعی", "هستم"] شکسته بشه. اما در مدل‌های مثل GPT، که از «byte pair encoding» استفاده می‌کنن، ممکنه حتی کلمات هم به قطعات کوچکتر تقسیم بشن. این مرحله خیلی مهمه چون ورودی مدل فقط می‌تونه توکن‌ها رو بفهمه، نه متن طبیعی رو.


۲. Embedding

بعد از توکنیزه کردن، نوبت به «Embedding» می‌رسه. چون مدل‌ها فقط با اعداد کار می‌کنن، هر توکن باید به یه عدد یا بردار (لیستی از اعداد) تبدیل بشه. این بردارها به مدل کمک می‌کنن معنی کلمات رو بهتر درک کنه.
مثلاً کلمات "پادشاه" و "ملکه" ممکنه بردارهایی داشته باشن که در فضای عددی به هم نزدیک باشن، چون از نظر معنایی شبیه‌ان. این مرحله باعث می‌شه مدل بتونه «معنا» رو به شکلی قابل پردازش درک کنه.


۳. Self-Attention (توجه به خود)

‏Self-Attention یکی از خلاقانه‌ترین ایده‌ها در مدل‌های زبانیه. این مکانیزم کمک می‌کنه مدل تصمیم بگیره به کدوم قسمت‌های جمله بیشتر توجه کنه.
مثلاً در جمله‌ی "کتابی که دیروز خریدم عالی بود"، مدل باید بفهمه که "عالی بود" مربوط به "کتاب"ه، نه "دیروز". Self-attention این وابستگی‌ها رو مشخص می‌کنه. به همین دلیل مدل‌هایی که از این روش استفاده می‌کنن (مثل BERT و GPT)، درک عمیق‌تری از ساختار زبان دارن.

۴. Transformer

ترنسفورمر یه معماری جدید و انقلابی در یادگیری زبان طبیعیه که از مکانیزم attention برای پردازش توالی‌ها استفاده می‌کنه. برخلاف مدل‌های قدیمی‌تر مثل RNN، این مدل‌ها می‌تونن همزمان تمام کلمات یک جمله رو ببینن و سریع‌تر و دقیق‌تر کار کنن.
‏GPT، BERT، T5، LLaMA، همه بر پایه‌ی ترنسفورمر ساخته شدن. مثلا GPT یه ترنسفورمر «سمت چپ‌نگره» که فقط به کلمات قبلی نگاه می‌کنه و کلمه بعدی رو حدس می‌زنه.


۵. Pretraining و Fine-tuning

مدل‌های زبانی مثل GPT اول در مرحله‌ای به اسم Pretraining روی مقدار زیادی متن عمومی آموزش می‌بینن (مثل کتاب، مقاله، سایت‌ها). این مرحله کمک می‌کنه زبان رو یاد بگیرن، بدون اینکه وظیفه خاصی داشته باشن.
بعداً در مرحله‌ی Fine-tuning، مدل برای انجام یه کار خاص آموزش داده می‌شه؛ مثل خلاصه‌سازی، ترجمه یا پاسخ دادن به سوال‌ها. این دو مرحله باعث می‌شن مدل هم «دانش عمومی» داشته باشه، هم توی کار خاصی بهتر از معمول عمل کنه.


۶. Prompting و Instruction Tuning

‏Prompting یعنی طراحی یک ورودی مناسب برای مدل تا کاری رو انجام بده. مثلاً وقتی به مدل میگی: «لطفاً این متن رو خلاصه کن»، این یه prompt محسوب می‌شه.
اما Instruction tuning مرحله‌ایه که طی اون مدل یاد می‌گیره چطور به دستورات مختلف پاسخ بده. این همون چیزیه که باعث شده ChatGPT یا Claude بتونن با زبان طبیعی باهات صحبت کنن.


۷. Distillation (تقطیر دانش)

‏Distillation یه تکنیکه برای اینکه یه مدل بزرگ و سنگین (Teacher) رو تبدیل کنیم به یه مدل کوچکتر و سریع‌تر (Student) بدون اینکه خیلی از دقتش کم بشه.
مثلاً GPT-4o ممکنه خیلی دقیق باشه ولی مدل گرونیه. با Distillation می‌تونیم یه نسخه سبک‌تر مثل GPT-4o mini تولید کنیم که روی موبایل یا مرورگر اجرا بشه.
به طور خلاصه این تکنیک اینطوری کار میکنه که مدل کوچکتر شروع میکنه به سوال پرسیدن از مدل اصلی و طی این فرآیند پاسخ هارو یاد میگیره.


۸. Fine-Tuning و LoRA

در Fine-Tuning سنتی، تمام پارامترهای مدل دوباره آموزش داده می‌شن، که منابع زیادی لازم داره.
اما LoRA یه روش سبک‌تره که فقط چند لایه کوچک به مدل اضافه می‌کنه و همون‌ها آموزش می‌بینن. به‌جای دستکاری کل مدل، فقط تنظیمات اضافه رو تغییر می‌دیم. این باعث می‌شه مدل سریع‌تر و با مصرف کمتر منابع برای کار خاصی بهینه بشه.


۹. Sampling, Top-k و Top-p (برای تولید متن)

وقتی مدل می‌خواد متن تولید کنه، از بین کلمه‌های ممکن، باید یه انتخاب انجام بده.
‏Greedy Sampling همیشه بهترین گزینه رو انتخاب می‌کنه ولی ممکنه جواب تکراری بشه.
‏Top-k فقط بین k تا از بهترین گزینه‌ها انتخاب می‌کنه.
‏Top-p بین گزینه‌هایی انتخاب می‌کنه که جمع احتمال‌شون به p درصد می‌رسه.
این تنظیمات روی سبک نوشتن مدل تأثیر زیادی دارن؛ مثلاً توی خلاقیت یا دقت متن.

#آموزشی

@aipulse24
2👍2713🙏4👏2
This media is not supported in your browser
VIEW IN TELEGRAM
ویدیوی جالبی که تماما با مدل Veo 3 گوگل و Suno تولید شده.

@aipulse24
🔥256👍3
شرکت OpenAI قیمت API مدل o3 رو ۸۰٪ کاهش داده و این مدل حالا ۲ دلار برای هر یک میلیون توکن ورودی و ۸ دلار برای توکن خروجی هزینه خواهد داشت.

همچنین از مدل o3-pro هم در API رونمایی کرده که ۲۰ دلار برای هر یک میلیون توکن ورودی و ۸۰ دلار برای توکن خروجی هزینه داره ولی با این حال همچنان ۸۷٪ از مدل o1-pro ارزون تره.

@aipulse24
17👏11
همچنین مدل o3-pro حالا برای تمام کاربران پلن Pro در دسترس قرار گرفته. این مدل بهبود عملکرد قابل توجهی نسبت به o3 داره.

@aipulse24
18👍6
This media is not supported in your browser
VIEW IN TELEGRAM
استارتاپ Midjourney که با مدل‌های تولید تصویر مبتنی بر هوش مصنوعی شناخته می‌شه، به‌تازگی از مدل تولید ویدئوی خودش به نام V1 رونمایی کرده. این مدل می‌تونه از یک تصویر ثابت (چه تصویر آپلودی، چه تصویر تولیدشده توسط مدل‌های قبلی Midjourney) چهار ویدئوی پنج‌ثانیه‌ای تولید کنه و کاربران می‌تونن این ویدئوها رو تا چهار بار، هر بار به‌مدت چهار ثانیه، طولانی‌تر کنن. در نتیجه، حداکثر طول ویدئویی که با V1 ساخته می‌شه می‌تونه به ۲۱ ثانیه برسه. این ویدئوها در حال حاضر فقط از طریق پلتفرم دیسکورد و در نسخه‌ی وب در دسترس قرار دارن.

‏V1 به‌گونه‌ای طراحی شده که استفاده ازش هم ساده باشه و هم قابلیت‌های فنی متنوعی در اختیار کاربران بذاره. از جمله تنظیماتی که در این مدل در نظر گرفته شده می‌شه به حالت «انیمیشن خودکار» اشاره کرد که تصویر ورودی رو به‌صورت تصادفی و بدون دخالت کاربر به حرکت در‌میاره. برای کاربران حرفه‌ای‌تر، حالت «انیمیشن دستی» فراهم شده که در اون می‌تونن به‌صورت متنی توضیح بدن که چه نوع حرکتی مدنظرشونه — مثل چرخش دوربین، حرکت کاراکتر یا تغییرات پس‌زمینه. همچنین گزینه‌هایی برای میزان تحرک صحنه در نظر گرفته شده: از «low motion» برای حرکات آرام گرفته تا «high motion» برای صحنه‌های پویاتر.

از نظر هزینه، مدل V1 نسبت به مدل‌های تصویری Midjourney پرمصرف‌تره. طبق اعلام شرکت، تولید یک ویدئو تا ۸ برابر بیشتر از یک تصویر از سهمیه‌ی ماهانه‌ی کاربران مصرف می‌کنه. اشتراک پایه برای استفاده از V1 از ۱۰ دلار در ماه شروع می‌شه، درحالی‌که مشترکین پلن Pro (با قیمت ۶۰ دلار) و Mega (۱۲۰ دلار) امکان تولید نامحدود ویدئو در حالت Relax (حالت غیرسریع) رو دارن. البته Midjourney اعلام کرده که طی ماه آینده، سیاست قیمت‌گذاری برای مدل‌های ویدئویی خودش رو بازبینی خواهد کرد.

از نظر جلوه‌های بصری، ویدئوهای تولیدشده توسط V1 در نگاه اول بیشتر «سورئال» و خیال‌گونه به‌نظر می‌رسن تا واقع‌گرایانه؛ ویژگی‌ای که پیش‌تر هم در مدل‌های تصویری Midjourney دیده شده بود. با وجود اینکه این سبک ممکنه برای برخی از کاربران مناسب نباشه، اما در میان هنرمندان و خلاقان بازخورد مثبتی دریافت کرده. با این حال، هنوز مشخص نیست که V1 در عمل تا چه حد می‌تونه با مدل‌هایی مثل Veo 3 از گوگل یا Gen-4 از Runway رقابت کنه، مخصوصاً در زمینه کیفیت، پایداری تصویر و کنترل‌پذیری دقیق صحنه.

درنهایت، Midjourney با مدل V1 نشون داده که همچنان می‌خواد مرزهای خلاقیت بصری در دنیای هوش مصنوعی رو جابه‌جا کنه — حتی در شرایطی که از سوی نهادهای حقوقی و استودیوهای بزرگ فیلم‌سازی به چالش کشیده می‌شه. مسیر بعدی این شرکت، طبق وعده‌ها، توسعه‌ی مدل‌هایی برای تولید رندرهای سه‌بعدی و شبیه‌سازی‌های بلادرنگ خواهد بود؛ هدفی جاه‌طلبانه که می‌تونه آینده‌ی طراحی و داستان‌سرایی بصری رو متحول کنه.

@aipulse24
18🔥6👍4
بعد از معرفی نه چندان موفق Llama 4 که باعث استعفای تعدادی از مدیرای متا شد حالا زاکربرگ راه افتاده و داره کاری رو انجام میده که بیشتر از هرچیزی بلده!

خریدن رقبا!!!

توی این ۲ ۳ هفته زاکربرگ اونقدر دانشمند از شرکت های دیگه دزدیده که سوژه یه عالمه میم شده

مبالغی که بهشون پیشنهاد داده بسیار عجیب غریب هستن مثلا به یه تعدادشون در لحظه امضا قرار داد ۱۰۰ میلیون دلار داده!!

زاکربرگ از OpenAI به تنهایی ۸ تا دانشمند جذب کرده که همگی طبق توئیت یکی از کارمندان که بعدا پاک کرد بسیار افراد تاثیر گذار و حساسی هستن و از اینکه مدیریت برای حفظ اونها هیچ کاری نکرده شاکی هست

یکی از اونها حتی خالق ایده مدل های Reasoning هست!!

این شرایط باعث شده که OpenAi مدعی بشه که کارمندانش خسته ان و کلا هفته جاری رو برای همه کارمندان توی OpenAi تعطیل کرده!

فکرکن بخوای ۱۰۰ میلیون دلار رو با ۱ هفته تعطیلی حل کنی😭

این شرایط بسیار شبیه به چیزیه که سالها قبل جف بزوس برای الکسا ایجاد کرد. یک شرکت به اسم Nuance وجود داشت درحد OpenAi فعلی که واسه Speech بود بزوس تمام دانشمنداش رو خرید و فکرکنم لازم نباشه بگم بقیه ماجرا چی شد چون کسی نمیدونه Nuance کیه ولی همه الکسا رو میشناسن.

انتظار میره حداقل تا ۲ ۳ مدل اینده همچنان OpenAi پیشرو باشه چون تاثیر این استعدادها همچنان روی محصولاتی که منتشر نشدن وجود داره ولی از بعدش بسیار ضربه بزرگی برای OpenAi هست مگر اینکه بتونه سریع استعدادهارو جایگزین کنه که البته درحال حاضر جهان به شدت با کمبود نیروی هوش مصنوعی کار درست مواجهه

حالا باید ببینیم در اینده زاکربرگ میتونه یه اینستاگرام دیگه بپا کنه یا این سری مثل قبل شانس نمیاره

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
22🤯9😁6🤣3👍1
کلودفلر از قابلیتی تازه به نام Pay Per Crawl رونمایی کرده که به صاحبان محتوا اجازه می‌ده تا در ازای دسترسی خزنده‌های هوش مصنوعی به محتوای خودشون، پول دریافت کنن. این قابلیت که فعلاً به‌صورت آزمایشی و خصوصی در دسترس قرار گرفته، یه راه‌حل میان‌بر برای مسئله‌ایه که مدت‌هاست ناشران و تولیدکنندگان محتوا باهاش درگیرن: یا باید همه‌چیز رو رایگان در اختیار مدل‌های هوش مصنوعی بذارن، یا کامل جلوی دسترسی اون‌ها رو ببندن.

ایده‌ی کلیدی اینه که دیگه لازم نباشه همه‌چیز صفر و یکی باشه. اگه یه خزنده بخواد محتوایی رو ایندکس کنه، می‌تونه درخواستش رو با هدر مخصوص و اعلام آمادگی برای پرداخت بفرسته و اگه قیمت از طرف ناشر مشخص شده باشه، با پرداخت اون مبلغ به محتوا دسترسی پیدا می‌کنه. اگرم پرداختی صورت نگیره، سرور یه پاسخ HTTP 402 (که قبلاً تقریباً هیچ‌وقت استفاده نمی‌شد) برمی‌گردونه و خزنده از قیمت مطلع می‌شه. کلودفلر توی این فرآیند نقش واسط مالی رو هم بازی می‌کنه.

ناشرها اختیار کامل دارن که برای هر خزنده تصمیم بگیرن: اجازه‌ی رایگان بدن، هزینه دریافت کنن یا دسترسی رو به‌طور کامل ببندن. حتی اگه خزنده‌ای حسابی توی کلودفلر نداشته باشه، باز هم می‌شه به‌صورت مشروط ازش پول خواست، که این عملاً مثل بلاک کردنه اما با امکان مذاکره‌ی آینده. همچنین امکان تعریف قیمت ثابت برای کل سایت، یا اعمال استثنا برای بعضی خزنده‌ها هم وجود داره.

کلودفلر می‌گه این فقط قدم اوله. در آینده، این مدل می‌تونه به زیرساختی برای «دیوار پرداختی عامل‌محور» تبدیل بشه؛ جایی که مثلاً یه دستیار هوشمند بتونه برای پیدا کردن بهترین منابع درباره سرطان یا تحلیل یه قرارداد حقوقی، خودش به‌صورت خودکار بودجه خرج کنه و بهترین نتایج رو بخره. این یعنی یه گام مهم به سمت اینترنتی که توش محتوا، ارزش‌گذاری و کنترل دست تولیدکننده‌هاست، نه خزنده‌های بی‌نام و نشان.

@aipulse24
🔥24👍95👎3🤔1
بریم سراغ جدیدترین کیس عجیب و غریب سیلیکون ولی آقای سوهام پارخ!

ایشون مثل اینکه تو مدرسه درس سو و شون رو نخونده واسه همین به شلخته درو کردن اعتقادی نداره. 😭
برای همین همزمان برای 6 الی 7 تا استارتاپ درحال کار کردن هست!!!


دو روز قبل سهیل دوشی مدیرعامل شرکت playground.ai توی یک توئیت درمورد این فرد صحبت کرد.

توی توئیتش گفت که این فرد ساکن هند هست و اخیرا استارتاپ های تحت حمایت Ycombinator (یک موسسه سرمایه گذاری خطرپذیر معروف) رو هدف قرار داده.

بعد از این توئیت تمام استارتاپ های دیگه ای هم که سهیل رو فالو میکردن اومدن و گفتن که این فرد رو استخدام کردن!

نکته جالب اینه که ایشون به نظر میرسه به شدت توی مصاحبه ها خوب عمل میکنه ولی عملکرد سر کارش زیاد جالب نیست یا شایدم دلیلش اینه که داره همزمان واسه 7 تا شرکت کار میکنه!!!

اینطور که گفته میشه ایشون از حقوق های مختلف این شرکت های متفاوت سالی 800 هزار دلار درامد داره!

همچنین افراد مختلف در تویئت هاشون گفتن که ایشون مدعی هست ساکن امریکاست تا بتونه این کارهارو بگیره ولی بعد مشخص میشه که ساکن امریکا هم نیست و ساکن هنده!

خلاصه اون توئیت سهیل 20 میلیون ویو گرفت و این خبر بسیار وایرال شد و درنتیجه سوهام سوژه یه عالمه میم و توئیت های دیگه شد

لیست یه سری از استارتاپ هایی که مشخص شده توی مصاحبه شون موفق بوده و تونسته استخدام بشه: (نصف سیلیکون ولی عه😃😃):

1. Playground AI
2. Dynamo AI
3. Union AI
4. Synthesia
5. Antimetal
6. Composio
7. Lindy
8. Browser Use
9. Resolve AI
10. Fleet AI

23 تای دیگه هم هست که از تایپ کردنشون خسته شدم😂😂

حالا واکنش ایشون؟
هیچی خیلی ریلکس رفته توی یه پادکست و گفته واقعیت داره، همزمان واسه خودش سخنگو استخدام کرده و مثل هر فردی در سیلیکون ولی (البته به صورت مجازی چون خودش که هند هست) در تلاشه که این شهرت رو تبدیل به بیزنس و پول کنه😭😭

خلاصه که فعلا به نظر میرسه:
ASI =
Artificial Superintelligence
Artificial Soham Intelligence

@aipulse24
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁37🤣6🤯41👍1
گوگل دیپ‌مایند از مدل هوش مصنوعی جدیدی به نام AlphaGenome پرده برداشته که می‌تونه نحوه عملکرد و تأثیر جهش‌های ژنتیکی رو با دقت بی‌سابقه‌ای پیش‌بینی کنه. این مدل، قدم بزرگی در مسیر رمزگشایی از نحوه خوانده شدن دستورات ژنتیکی سلول‌هاست؛ یعنی همون دستورالعمل‌هایی که بدن رو شکل می‌دن، رشد می‌دن یا حتی باعث بیماری می‌شن.

‏AlphaGenome برخلاف مدل‌های قبلی، می‌تونه تا یک میلیون حرف DNA رو به‌صورت هم‌زمان پردازش کنه و هزاران ویژگی مولکولی رو برای هر توالی پیش‌بینی کنه. این یعنی پژوهشگران دیگه لازم نیست برای بررسی هر ویژگی ژنتیکی از یک مدل جداگانه استفاده کنن. با یه API ساده، می‌تونن تأثیر جهش‌های ژنتیکی رو روی فرآیندهای مختلف مثل شروع یا پایان ژن‌ها، میزان RNA تولیدشده یا محل اتصال پروتئین‌ها بررسی کنن.

این مدل بر پایه معماری Enformer ساخته شده و نسبت به اون، دقت و کارایی بیشتری داره. یکی از ویژگی‌های برجسته‌ی AlphaGenome، توانایی پیش‌بینی دقیق جهش‌هایی‌یه که باعث بیماری‌های نادر می‌شن؛ مثل جهش‌هایی که روی فرآیند splice شدن RNA تأثیر می‌ذارن. این نوع تحلیل تا حالا با هیچ مدل دیگه‌ای ممکن نبوده.

در آزمایش‌های مختلف، AlphaGenome تونسته در ۲۲ مورد از ۲۴ معیار پیش‌بینی توالی DNA، بهترین عملکرد رو در مقایسه با مدل‌های موجود داشته باشه. این موفقیت، اون رو به یک ابزار عمومی قدرتمند تبدیل می‌کنه که می‌تونه در تحقیقات بنیادی، زیست‌فناوری و بررسی بیماری‌ها مثل سرطان و اختلالات نادر ژنتیکی نقش بزرگی داشته باشه.

گرچه AlphaGenome هنوز محدودیت‌هایی هم داره، مثل پیش‌بینی دقیق اثر عناصر تنظیم‌کننده‌ی خیلی دور در توالی DNA؛ اما DeepMind قول داده که مدل رو بهبود بده و با جامعه علمی تعامل داشته باشه. این مدل در حال حاضر به‌صورت پیش‌نمایش و فقط برای اهداف غیرتجاری از طریق API قابل استفاده‌ست.

گوگل می‌گه این مدل می‌تونه نقش مهمی در توسعه درمان‌های جدید، طراحی DNA مصنوعی هدفمند و درک عمیق از عملکرد ژن ها داشته باشه.

@aipulse24
🔥28👍75❤‍🔥1