AI Labdon – Telegram
AI Labdon
459 subscribers
23 photos
4 videos
651 links
🕸 AI Labdon

بروز ترین مرجع خبری در مورد دنیایی هوش مصنوعی

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
Forwarded from Future Pulse Persian
بازجویی دوباره از مدیرعامل تلگرام در فرانسه

▪️پاول دورف، مدیرعامل تلگرام، روز گذشته برای سومین بار در دادگاهی در پاریس حاضر شد تا به اتهاماتی مرتبط با تسهیل جرایم سازمان‌یافته در بستر این پیام‌رسان پاسخ دهد. او به همراه چهار وکیلش در جلسه‌ای رسمی شرکت کرد.

▪️این پرونده مربوط به بازداشت دورف در سال ۲۰۲۴ در فرانسه است؛ موضوع اصلی، نقش احتمالی تلگرام در انتشار محتوای غیرقانونی و ضعف در نظارت بر آن‌هاست.

▪️تیم حقوقی او با انتشار بیانیه‌ای تأکید کرده‌اند:

«ما هم مشروعیت کیفرخواست صادرشده علیه موکل‌مان و هم روند بعضی از اقدامات تحقیقاتی را، که در تضاد با قوانین داخلی و مقررات اتحادیه اروپا بوده‌اند، به‌طور جدی زیر سوال می‌بریم.»
Webinarfarsi | Soheib Kiani | وبینار فارسی:


مفاهیم پایه ماشین لرنینگ به زبان ساده:

Structured Data
داده‌هایی منظم که در قالب جدول (مثل اکسل یا دیتابیس) با ردیف و ستون ذخیره می‌شن.

Unstructured Data
داده‌هایی که قالب مشخص و منظمی ندارن، مثل عکس، صدا، متن یا ویدیو.

Features
ویژگی‌ها یا ستون‌هایی از داده‌ها که برای آموزش مدل به کار می‌رن، مثل سن یا قد.

Observations
هر ردیف از داده‌ها که یک نمونه کامل رو نشون می‌ده، مثلاً اطلاعات یک شخص.

Artificial Intelligence
شبیه‌سازی تفکر و تصمیم‌گیری انسان با استفاده از کامپیوتر.

Machine Learning
بخشی از هوش مصنوعی که کامپیوتر از روی داده‌ها خودش یاد می‌گیره بدون برنامه‌نویسی مستقیم.

Deep Learning
نوعی یادگیری ماشین با استفاده از شبکه‌های عصبی خیلی عمیق و پیچیده.

Data Science
علمی که از داده‌ها برای کشف الگو، پیش‌بینی، و تصمیم‌گیری استفاده می‌کنه.

Model
ساختاری ریاضی یا آماری که از داده‌ها یاد می‌گیره و پیش‌بینی انجام می‌ده.

Target Variable
خروجی یا متغیری که مدل قراره اون رو پیش‌بینی کنه، مثل نمره، قیمت یا دسته‌بندی.

Training
فرآیند یاد دادن به مدل با استفاده از داده‌هایی که خروجی‌شون معلومه.

Supervised Learning
یادگیری با داده‌هایی که شامل ورودی و خروجی مشخص هستن، برای پیش‌بینی دقیق.

Classification
تقسیم‌بندی داده‌ها به دسته‌های مشخص، مثل خوب/بد یا اسپم/غیراسپم.

Regression
پیش‌بینی عددی پیوسته، مثل پیش‌بینی قیمت خانه یا دما.

Class Imbalance
وقتی تعداد داده‌ها در کلاس‌های مختلف نابرابر باشه، مثلاً 90٪ مثبت، 10٪ منفی.

Unsupervised Learning
یادگیری بدون داشتن خروجی مشخص؛ مدل خودش سعی می‌کنه الگوها رو کشف کنه.

Clustering
گروه‌بندی داده‌های مشابه در دسته‌های جدا، بدون داشتن برچسب قبلی.

Reinforcement Learning
یادگیری با استفاده از پاداش و تنبیه برای گرفتن بهترین تصمیم در طول زمان.

Parameters
مقادیری که مدل در طول آموزش یاد می‌گیره، مثل وزن‌ها در شبکه عصبی.

Loss Function
فرمولی که خطای مدل رو اندازه‌گیری می‌کنه تا بدونیم چقدر اشتباه کرده.

Optimization
فرآیندی برای کم کردن خطا و بهبود عملکرد مدل از طریق تغییر پارامترها.

Gradient Descent
الگوریتمی برای به‌روزرسانی پارامترهای مدل و کاهش تدریجی خطا.

Training (Revisited)
اشاره دوباره به فرآیند یادگیری مدل برای تأکید یا مرور مجدد مفاهیم.

Model Evaluation
ارزیابی کیفیت مدل با استفاده از داده‌هایی که قبلاً در آموزش نبوده‌اند.

Hyperparameters
تنظیماتی که قبل از شروع آموزش باید مشخص بشن، مثل تعداد لایه‌ها یا نرخ یادگیری.

Hyperparameter Tuning
پیدا کردن بهترین ترکیب از تنظیمات برای بهبود عملکرد مدل.

Epoch
یک بار عبور کامل مدل از تمام داده‌های آموزشی.

Learning Rate
سرعت یادگیری مدل در هر مرحله آموزش؛ زیاد باشه ممکنه مدل ناپایدار بشه.

Batch Size
تعداد نمونه‌هایی که مدل در هر مرحله از آموزش باهاش کار می‌کنه.

Generalization
توانایی مدل برای عملکرد خوب روی داده‌هایی که قبلاً ندیده.

Overfitting
وقتی مدل بیش‌ازحد از روی داده‌های آموزشی یاد گرفته و نمی‌تونه روی داده جدید خوب عمل کنه.

Underfitting
وقتی مدل نتونسته الگوهای داده رو درست یاد بگیره و هم روی آموزش و هم روی تست ضعیفه.

Model Complexity
میزان پیچیدگی مدل؛ مدل ساده ممکنه کم‌دقت باشه و مدل پیچیده ممکنه overfit کنه.

Bias-Variance Tradeoff
توازن بین ساده بودن مدل (Bias) و حساسیت زیاد به داده (Variance).

Train-Test-Validation Split
تقسیم داده به بخش آموزش، اعتبارسنجی و تست برای ارزیابی درست عملکرد مدل.

Data Shuffling
به‌هم‌ریختن تصادفی ترتیب داده‌ها برای جلوگیری از یادگیری الگوهای غلط.

Inference
استفاده از مدل آموزش‌دیده برای پیش‌بینی روی داده‌های جدید.

Early Stopping
توقف آموزش مدل قبل از اینکه بیش‌ازحد یاد بگیره و overfit کنه.

Regularization
تکنیکی برای جلوگیری از پیچیدگی زیاد مدل و کاهش overfitting.

Data Leakage
وقتی اطلاعاتی از آینده یا تست اشتباهی وارد داده آموزشی می‌شن و باعث خطا در ارزیابی مدل می‌شن.

Data Encoding
تبدیل داده‌های متنی یا دسته‌ای به اعداد قابل‌فهم برای مدل.

Outliers
داده‌هایی که خیلی با بقیه فرق دارن و ممکنه تحلیل مدل رو خراب کنن.

Missing Data
داده‌هایی که مقدارشون ناقص یا نامشخصه و باید مدیریت بشن.

Data Preprocessing
آماده‌سازی و تمیز کردن داده قبل از آموزش مدل.

Feature Scaling
نرمال‌سازی داده‌ها برای اینکه مدل راحت‌تر یاد بگیره.

Curse of Dimensionality
وقتی تعداد ویژگی‌ها خیلی زیاد می‌شه و باعث مشکل در یادگیری مدل می‌شه.

Dimensionality Reduction
کاهش تعداد ویژگی‌ها برای ساده‌تر و سریع‌تر شدن آموزش مدل.
Feature Engineering
ساخت ویژگی‌های جدید و مفید برای بهبود عملکرد مدل.

Feature Importance
نشون می‌ده کدوم ویژگی‌ها بیشتر روی پیش‌بینی مدل تأثیر دارن.

Data Augmentation
ایجاد داده‌های مصنوعی (مثل چرخش عکس) برای افزایش حجم داده آموزشی.

Ensemble Learning
ترکیب چند مدل مختلف برای گرفتن نتیجه بهتر و دقیق‌تر.

The END! Subscribe!
پایان آموزش و دعوت به دنبال کردن برای دیدن آموزش‌های بیشتر.

#تجربه #کاربردی
👍1
📱 قابلیت Study Mode به ChatGPT اضافه شد؛ هوش مصنوعی در نقش معلم خصوصی!

📰شرکت OpenAI قابلیت جدیدی به نام Study Mode (حالت مطالعه) را به ChatGPT اضافه کرده؛ قابلیتی که تجربه‌ی آموزش را شخصی‌سازی می‌کند و نقش یک معلم خصوصی مجازی را برایتان بازی می‌کند.

📰در این حالت، به‌جای پاسخ‌های مستقیم، مدل با پرسیدن سؤال‌های هدفمند و چالشی سعی می‌کند شما را وارد فرآیند یادگیری فعال کند؛ روشی مؤثر برای فهم عمیق‌تر مفاهیم، مخصوصاً در مطالعه برای امتحان‌ها یا انجام پروژه‌های درسی.

🧠 قابلیت‌های اصلی Study Mode:

• کمک به حل تکالیف با راهنمایی مرحله‌‌ای
• ساخت برنامه مطالعاتی متناسب با نیاز هر فرد
• طراحی کوئیزهای خودکار بر اساس موضوع دلخواه شما
1
📺 یوتیوب با هوش مصنوعی سن کاربران رو حدس میزنه!

▪️یوتیوب قراره با تحلیل رفتار کاربر (مثل تاریخچه ویدئوها، مدت زمان استفاده، نوع محتوای مشاهده شده) حدس بزنه کاربر زیر ۱۸ ساله یا نه. حتی اگه تاریخ تولد درست نباشه، این سیستم میتونه سن رو تشخیص بده!

▪️اگه نوجوان تشخیص داده بشی :

▫️تبلیغات شخصی سازی‌شده غیرفعال میشه
▫️یادآور استراحت و زمان خواب فعال میشه
▫️محدودیت نمایش محتوای حساس
(مثل مسائل روانی یا خشونت)

▪️اگه اشتباه تشخیص بده (مثلاً بالای ۱۸ هستی اما نوجوان حسابت کنه) ، میتونی با آپلود کارت بانکی، مدرک یا سلفی سنت رو تأیید کنی.

+ این طرح از 22 مرداد ، یعنی چند روز دیگه برای کاربران آمریکایی شروع میشه و احتمالاً به بقیه کشورها هم میرسه.
Forwarded from Future Pulse Persian
نسخه 11.14 تلگرام منتشر شد

جستجوی پست‌ها
حالا می‌تونی پستای کانال‌های عمومی رو مستقیم سرچ کنی (فعلاً فقط برای پریمیومی‌ها)

آلبوم استوری
استوری‌هاتو می‌تونی تو آلبوم بچینی، مثل خاطره سفر یا معرفی محصول تو کانال‌ها

مجموعه هدیه‌ها
هدایاتو دسته‌بندی کن! مثلا نایاب‌ها، موضوعی‌ها و هرچی دلت خواست

امتیاز پروفایل
با خرید هدیه و پیام پولی، امتیاز می‌گیری و اعتبارت تو تلگرام بالا میره

هدایای خاص برای پریمیومی‌ها
هدایای خفن و محدود فقط برای کاربرای پریمیوم میاد

مینی‌اپ جدید BotFather
ربات‌سازی راحت‌تر از همیشه شده؛ مستقیم از مینی‌اپ جدید مدیریت کن
یکی دو روزه صحبت از مدل جدید اوپن سورس چینی GLM-4.5 هست که ادعا داره در حد Grok 4 عمل می‌کنه، امشب به تست و جیلبریک آن خواهم نشست

تست :
http://chat.z.ai
بیشتر بخوانید :
http://z.ai/blog/glm-4.5
&
https://github.com/zai-org/GLM-4.5

<Amir/>
🔥1
هوش مصنوعی جدید چین معرفی شد؛ ارزان‌تر از دیپ‌سیک با قابلیت تولید پاورپوینت

استارتاپ ناشناس چینی Z.ai یا Zhipu از مدل‌های GLM-4.5 و GLM-4.5-Air رونمایی کرده است و از آنها به‌عنوان راه‌حل‌هایی مناسب برای استدلال هوش مصنوعی، رفتار عامل‌محور (Agentic) و برنامه‌نویسی نام می‌برد. به گفته Z.ai، این مدل‌ها از نظر عملکرد در سطحی نزدیک به برترین مدل‌های زبانی بزرگ (LLM) اختصاصی ساخت ایالات متحده قرار دارند.

به‌عنوان مثال، مدل پرچم‌دار GLM-4.5 توانسته در ارزیابی‌هایی مانند BrowseComp ،AIME24 و SWE-bench Verified با مدل‌های قدرتمندی همچون Claude 4 Sonnet ،Claude 4 Opus و جمینای 2.5 پرو رقابت کند یا حتی از آنها پیشی بگیرد. این مدل در مجموع در بین ۱۲ آزمون رقابتی، رتبه سوم را کسب کرده است.

این مدل‌ها می‌توانند به‌صورت خودکار و تنها با یک پرامپت، یک ارائه پاورپوینت کامل تولید کنند که آنها را برای آماده‌سازی جلسات، آموزش و تهیه گزارش‌های داخلی بسیار کاربردی می‌کند.

اما دیگر نکته جالب در مورد مدل‌های Z.ai هزینه بسیار پایین آن حتی در مقایسه با دیپ‌سیک است. براساس اعلام Z.ai، هزینه استفاده از مدل GLM-4.5 برای هر یک میلیون توکن ورودی ۰.۶۰ دلار و برای هر یک میلیون توکن خروجی ۲.۲۰ دلار است.

<Digiato/>
🎄1
مایکروسافت فاش کرد: ۱۰ شغلی که بیشتر از همه در خطر هوش مصنوعی هستن!

▪️در مطالعه‌ای که مایکروسافت بر اساس ۲۰۰هزار تعامل کاربران با Bing Copilot انجام داده، مشخص شده چه شغل‌هایی بیشتر در معرض جایگزینی با هوش مصنوعی هستن.

▪️شغل‌هایی که نیاز به مدرک دانشگاهی دارن، بیشتر از کارهای یدی تحت تأثیر AI قرار می‌گیرن. هوش مصنوعی در مشاغل فکری بهتر عمل می‌کنه تا کارهای دستی مثل کشاورزی یا ساختمان‌سازی.

📉 ۱۰ شغلی که بیشترین ریسک رو دارن :

1. مترجم‌ها و مفسرها
2. تاریخ‌دان‌ها
3. مهماندارهای مسافر
4. بازاریاب‌های خدمات
5. نویسنده‌ها و مؤلف‌ها
6. پاسخ‌گویان خدمات مشتری
7. برنامه‌نویسان دستگاه‌های CNC
8. اپراتورهای تلفن
9. کارمندان فروش بلیط و آژانس‌های مسافرتی
10. گویندگان رادیو و مجری‌ها

‌
🎯مایکروسافت می‌گه این شغل‌ها به‌خاطر ماهیتشون، بیشترین تعامل مؤثر با AI رو دارن و این یعنی بیشتر در معرض خودکار شدن هستن.
🕊1
اتفاق جنجالی برای Open Ai ؛ لو رفتن مکالمات ChatGPT در گوگل!

▪️قابلیت آزمایشی OpenAI باعث شد مکالمات برخی کاربران با ChatGPT توی گوگل ایندکس بشه و برای همه قابل جست‌وجو باشه!

▪️ماجرا از وقتی لو رفت که کاربرا دیدن با یه سرچ ساده می‌تونن به لینک چت‌های خصوصی توی chatgpt.com/share دسترسی پیدا کنن.

▪️شرکت OpenAI خیلی زود واکنش نشون داد و این قابلیت رو حذف کرد. گفته بودن فقط داشتن یه ویژگی اشتراکی رو تست می‌کردن، ولی خب حسابی دردسرساز شد!

یه یادآوری مهم: هرچیزی رو توی اینترنت share می‌کنی، حتی اگه آزمایشی باشه، ممکنه فردا تیتر خبرها ب
یک بلاگ فوق العاده راجع به اینکه دیپلوی کردن AI Agent ها توی محیط پروداکشن خیلی فرق داره با درست کردن یک دمو!
ساخت یه حلقه‌ی ساده برای ایجنت‌های مبتنی بر مدل‌های زبانی (LLM agents) خیلی آسونه. شاید با کمتر از ۲۰ خط کد! ولی این سادگی در واقع مشکلات پشت پردهٔ اجرای واقعی در محیط تولید (production) رو می‌پوشونه.
من خلاصه مقاله را میذارم ولی باید کامل خود مقاله بخونید.

- فاصله‌ی پنهان بین دمو و اجرا در عمل
۱. دمو مساوی نیست با محصول واقعی: شاید توی دمو همه‌چی خوب پیش بره، ولی توی محیط واقعی اتفاقاتی مثل:
-از کنترل خارج شدن ایجنت‌ها
- نشت اطلاعات توی context
- گیر کردن توی حلقه‌های بی‌پایان
- یا خراب شدن زنجیره ابزارها خیلی رایجه.
- همچنین، تصمیم‌گیری‌های معماری مثل مدیریت context، احراز هویت ابزارها یا ذخیره‌سازی state، اگر از اول درست انتخاب نشن، بعداً تغییر دادنشون کلی دردسر داره.

۲. دنیای کنفرانس‌ها با واقعیت فرق داره: شرکت‌های بزرگ ممکنه از زیرساخت‌های خاص خودشون برای اجرای چندایجنت به‌صورت موازی استفاده می‌کنن. ولی اکثر تیم‌ها کار رو ساده‌تر می‌گیرن:
- با Docker و GitHub Actions
- یا اجرای ایجنت‌ها روی AWS Lambda فقط برای صرفه‌جویی ماهانه ۱۰ دلار!

۳. کی اوضاع بهم می‌ریزه؟
وقتی لازم باشه ایجنت‌هاتون حافظه داشته باشن، بتونن بعد از قطع شدن ادامه بدن، یا با context طولانی کار کنن، همه چی پیچیده‌تر می‌شه. بعضی تیم‌ها تجربه‌شون رو اینطوری به اشتراک گذاشتن:
- ذخیره‌ی state توی دیتابیس (مثلاً PostgreSQL) برای بررسی و بازیابی
- استفاده از پردازش غیرهمزمان مثل job queue و webhook
- حذف فریم‌ورک‌های سنگین مثل LangChain و استفاده از FastAPI و کلاینت ساده OpenAI

- چی‌ها واقعاً مهمن؟
- زیرساخت موجود: همون جایی deploy کنید که تیم‌تون بلده (K8s، AWS Lambda، Docker و …)
- سرعت توسعه: گاهی اینکه زود به نتیجه برسید مهم‌تر از طراحی‌های پیچیده‌ست
- هزینه‌ها: حتی صرفه‌جویی‌های کوچیک هم مهمه، مخصوصاً برای استارتاپ‌ها

- نیازهای سازمانی برای ایجنت‌ها
- تناقض پلتفرم: شما دنبال قدرت یه پلتفرم کامل هستید (احراز هویت، حافظه، ارزیابی)، ولی در عین حال نمی‌خواید به یه vendor خاص وابسته بشید. استانداردهایی مثل MCP دارن کمک می‌کنن تا ابزارها باهم سازگار بشن.

- قابلیت اطمینان و مشاهده‌پذیری: ایجنت‌هاتون باید بعد از crash شدن بتونن ادامه بدن. باید ردگیری کامل، حافظه پایدار، و توانایی بررسی لاگ داشته باشید. Redis برای سرعت، PostgreSQL برای ماندگاری.

- مقیاس‌پذیری و انعطاف: وقتی کار جدی می‌شه، باید ایجنت‌ها بتونن از صفر تا هزاران اجرا در لحظه مقیاس پیدا کنن. اگه ایجنت‌هاتون کدنویسی انجام می‌دن، احتمالاً نیاز به sandbox برای امنیت و ایزوله کردن دارن.

- یکپارچه‌سازی و استانداردها: MCP داره نشون می‌ده که همه دنبال یه راه‌حل استاندارد برای اجرای ایجنت‌ها روی پلتفرم‌های مختلف هستن.

- نتیجه اخلاقی:
- ساده شروع کنید، نیازهای واقعی‌تون رو تخمین بزنید
- اول با deploy ساده مثل Docker یا Lambda برید جلو
- زود تست کنید، چون مشکلات واقعی فقط توی دنیای واقعی مشخص می‌شن
- کم‌کم پیچیدگی اضافه کنید. هر چیزی رو وقتی لازمه پیاده‌سازی کنید.

حتما کامل بخونید اگه ایجنت تو پرداکشن دیپلوی میکنید!
https://zenml.io/blog/the-agent-deployment-gap-why-your-llm-loop-isnt-production-ready-and-what-to-do-about-it

<Mehdi Allahyari/>
خیلی از ماها دنبال LLM ای هستیم تا بتونه جواب های معتبری بده و جواب هاش رو از خودش درنیاورده باشه. برای حل این مسائل چه سرویس هایی مناسبه. یکی از راهکار ها استفاده از سرویس deep search در LLM های موجوده. یکی دیگه از راهکار ها استفاده ازسرویس های سرچ و اتصال آنها به LLM هست

Tavily
امکانات خوبی داره میتونید deep search به صورت advanced بگذارید تاجواب های بهتری بدهد حتی میتوان دامنه و تاریخ رو نیز مشخص کرد. کرالش برای سایت هایی که داینامیک بودن، نتونست دیتا مورد نظرم رو بخونه.
https://app.tavily.com/playground

Linkup
تقریبا شبیه tavily هست ولی منابع ای که در تست های من می آورد با tavily متفاوت بود. منابع معتبر و خوبی بود.
https://linkup.so

سرویس گوگل بود که در منابعی که جدول و عکس داشت نسبت به tavily به درستی خوب عمل نکرد.
https://ai.google.dev/gemini-api/docs/google-search

این مقایسه مدل ها در زمینهhallucination یا توهم مدل ها همون طور که میبینید مدل های گوگل عملکرد بهتری نسبت به openai داشتن:
https://github.com/vectara/hallucination-leaderboard?tab=readme-ov-file


<Mari/>
👍1
عرفی هیولای جدید گوگل ؛ آیا با خطرناک‌ترین هوش مصنوعی دنیا روبه‌رو هستیم؟

▪️گوگل به‌تازگی از مدل پیشرفته‌ی خودش به‌نام Gemini 2.5 Deep Think رونمایی کرده؛ مدلی که در آزمایش‌ها حتی موفق به کسب مدال طلا در المپیاد جهانی ریاضی شده!

▪️این مدل فقط برای کاربران پلن Ultra با قیمت ماهانه 250 دلار در دسترسه و استفاده ازش با هشدارها و محدودیت‌های خاصی همراهه.

▪️در تست‌های داخلی تابستون 2024، گوگل رسماً اعلام کرده Deep Think در حال نزدیک شدن به مرزهایی‌ست که ممکنه اون رو به ابزاری غیرقابل کنترل در دستان افراد نادرست تبدیل کنه
1
🔥قابلیت جدید Ideogram : ساخت چهره‌ی اختصاصی با هوش مصنوعی!

▪️سرویس Ideogram یه فیچر جدید به اسم Character معرفی کرده که باهاش می‌تونی چهره‌ی واقعی خودت رو وارد دنیای هوش مصنوعی کنی و عکس‌های خفن بسازی!

▪️ویژگی‌ها :

• کیفیت بالای چهره‌ها (واقعاً طبیعی و دقیق)
• کاملاً رایگان: روزی ۱۰ تصویر رایگان
• عالی برای ساخت پوستر، تبلیغات یا پروفایل‌های خاص

📍 تستش کن:
🔗 ideogram.ai/character
1
🔥اپل در حال ساخت رقیب ChatGPT؟

▪️طبق گزارش بلومبرگ، اپل داره روی یک موتور پاسخ‌گو مثل ChatGPT و Perplexity کار می‌کنه؛ سیستمی که می‌تونه از اینترنت اطلاعات بگیره و به سؤالات شما پاسخ بده.

▪️این پروژه به‌دست تیمی جدید به نام Answers, Knowledge, and Information داره هدایت میشه؛ هدفش ساخت یه موتور جست‌وجوی هوشمنده که زبان طبیعی رو بفهمه و جوابای دقیق تحویلت بده.

▪️احتمال داره این فناوری توی اپ‌های زیر استفاده بشه:

• Safari
• Siri
• یا حتی یه اپ جدید مستقل از اپل
1
🔥وقتی Grok برات PDF حرفه‌ای می‌سازه!

▪️هوش مصنوعی Grok که توسط X (همون توییتر سابق) ساخته شده، حالا وارد یه مرحله خفن شده ؛ می‌تونه برات PDF‌های شیک و تر و تمیز بسازه، اونم فقط با یه دستور ساده!

😐 چی می‌تونه درست کنه؟

• رزومه، مقاله، گزارش، ارائه و کلی چیز دیگه
• فونت حرفه‌ای، جدول، نمودار، حتی فرمول!
• انگار یه گرافیست نشسته تو Word یا Canva طراحی کرده
• مهم‌تر از همه؟ کاملاً رایگانه!

+ فقط بگو چی می‌خوای، خودش بقیه‌شو می‌سازه:
grok.com
2