اگر مطالب کانال چجوری بودند، مفیدتر بودند؟
Anonymous Poll
21%
مطالب کانال رو خیلی زیاد دنبال میکنم
5%
کلا خیلی اهمیتی نداره. هرجوری باشه در نهایت دنبال نمیکنم
39%
توضیحات بیشتری داشتند
13%
بیشتر آموزشی بودند
24%
مداومتر بودند؛ نه اینکه گاهی باشند گاهی نه
3%
محتواها راجع به یه موضوع بودند؛ نه همهچی با هم
34%
از تجربهی شخصیتر بودند
8%
کدوم کانال؟
8%
کانال هستم / دیدن نتایج
مدل جمینای ۳ چهل دقیقه پیش ریلیز شد
و توی بنچمارکها خیلی بالاتر قرار کرفته
https://x.com/GeminiApp/status/1990812977818431548?t=-MA1vB3TQX4OjU32Bc6iqQ&s=35
و توی بنچمارکها خیلی بالاتر قرار کرفته
https://x.com/GeminiApp/status/1990812977818431548?t=-MA1vB3TQX4OjU32Bc6iqQ&s=35
X (formerly Twitter)
G3mini (@GeminiApp) on X
Our most anticipated launch of the year is here.
- Gemini 3, our most intelligent model
- Generative interfaces, for perfectly designed responses
- Gemini Agent, made to complete complex tasks on your behalf
See how Gemini 3 can help you learn, build…
- Gemini 3, our most intelligent model
- Generative interfaces, for perfectly designed responses
- Gemini Agent, made to complete complex tasks on your behalf
See how Gemini 3 can help you learn, build…
شبکه داستانی عصبی
مدل جمینای ۳ چهل دقیقه پیش ریلیز شد و توی بنچمارکها خیلی بالاتر قرار کرفته https://x.com/GeminiApp/status/1990812977818431548?t=-MA1vB3TQX4OjU32Bc6iqQ&s=35
جزییات خود مدل و نسخهی API ش:
https://blog.google/products/gemini/gemini-3
https://blog.google/technology/developers/gemini-3-developers/
https://blog.google/products/gemini/gemini-3
https://blog.google/technology/developers/gemini-3-developers/
Google
A new era of intelligence with Gemini 3
Today we’re releasing Gemini 3 – our most intelligent model that helps you bring any idea to life.
این هم یه چیز دیگه است که گوگل امروز معرفی کرد. خلاصهش اینه که شبیه Cursor عه ولی گوگل داده : )
https://antigravity.google/
https://antigravity.google/
Google Antigravity
Google Antigravity - Build the new way
امروز اپنایآی برای اینکه یه چیزی ریلیز کرده باشه بعد از جمینای ۳، GPT‑5.1‑Codex‑Max رو ریلیز کرد. مدل برای کمک به کد زدنه.
متا هم SAM3 رو ریلیز کرد که عقب نیوفته. این نسبتا بزرگ بود. مدل برای تشخیص و جدا کردن چیزها توی عکس، ویدیو و 3d عه.
https://x.com/OpenAIDevs/status/1991217488550359066?t=mEgPshfl1JKwW83xBx2KtA&s=19
https://x.com/AIatMeta/status/1991178519557046380?t=1JjYI8qQ5Bvbexk_iMW46g&s=19
پ. ن.: حس میکنم هرچقدر یه شرکتی بزرگتر میشه از یه جا به بعد اسمهای بدتری برای کارهاش انتخاب میکنه! به زودی باید منتظر chatgpt pro max باشیم!
متا هم SAM3 رو ریلیز کرد که عقب نیوفته. این نسبتا بزرگ بود. مدل برای تشخیص و جدا کردن چیزها توی عکس، ویدیو و 3d عه.
https://x.com/OpenAIDevs/status/1991217488550359066?t=mEgPshfl1JKwW83xBx2KtA&s=19
https://x.com/AIatMeta/status/1991178519557046380?t=1JjYI8qQ5Bvbexk_iMW46g&s=19
پ. ن.: حس میکنم هرچقدر یه شرکتی بزرگتر میشه از یه جا به بعد اسمهای بدتری برای کارهاش انتخاب میکنه! به زودی باید منتظر chatgpt pro max باشیم!
X (formerly Twitter)
OpenAI Developers (@OpenAIDevs) on X
Meet GPT-5.1-Codex-Max, our latest frontier agentic coding model, available in Codex starting today.
It’s faster, more capable and token-efficient, and able to work persistently on long tasks with built-in compaction abilities.
It’s faster, more capable and token-efficient, and able to work persistently on long tasks with built-in compaction abilities.
😁2❤1
شبکه داستانی عصبی
امروز اپنایآی برای اینکه یه چیزی ریلیز کرده باشه بعد از جمینای ۳، GPT‑5.1‑Codex‑Max رو ریلیز کرد. مدل برای کمک به کد زدنه. متا هم SAM3 رو ریلیز کرد که عقب نیوفته. این نسبتا بزرگ بود. مدل برای تشخیص و جدا کردن چیزها توی عکس، ویدیو و 3d عه. https://x.…
گراک 4.1 هم ریلیز شده که خودشون میگن gemini 3 جدیده رو میزنه!
https://x.ai/news/grok-4-1-fast
واقعا دوره زمونهی عجیبیه
https://x.ai/news/grok-4-1-fast
واقعا دوره زمونهی عجیبیه
x.ai
Grok 4.1 Fast and Agent Tools API | xAI
Bringing the next generation of tool-calling agents to the xAI API
🤔2
این راهنما رو امروز تیم فنی اپنایآی منتشر کرده.
«راهنمای تیمهای مهندسی AI-Native»
- این که ایجنتهای کدنویسی در هر مرحله از توسعه، از برنامهریزی تا طراحی و نگهداری، چه نقشی دارند
- چکلیستها و الگوهای پیادهسازی
- روشهای معرفی ایجنتها به سازمان و اعتمادسازی
https://cdn.openai.com/business-guides-and-resources/building-an-ai-native-engineering-team.pdf
«راهنمای تیمهای مهندسی AI-Native»
- این که ایجنتهای کدنویسی در هر مرحله از توسعه، از برنامهریزی تا طراحی و نگهداری، چه نقشی دارند
- چکلیستها و الگوهای پیادهسازی
- روشهای معرفی ایجنتها به سازمان و اعتمادسازی
https://cdn.openai.com/business-guides-and-resources/building-an-ai-native-engineering-team.pdf
👍4❤1
این مطلب دیروز از Anthropic منتشر شده در زمینهی اینکه وقتی به مدل راهنمایی میکنن که بتونه تقلب (یه به قولی حتی ماسمالی) ساده بکنه، منجر به misalignement خیلی بزرگتر در همهی زمینهها حتی به شکل گسترده (بدون آموزش مستقیم) میشه. حتی زمینههایی که تقلب اولیه ارتباطی بهش نداشته و اساسا align کردن مدل سختتر میشه. شروع به تخریب میکنه و قشنگ میشه ترمیناتور.
و جالبیش اینجاست که هرچقدر تلاش میکنن بهترش کنن با RLHF فایده نداره. و راهحلی که کار میکنه اینه که به مدل بگن که اتفاقا اکیه که یه جاهایی reward hacking و تقلب کنه اگه کمک بکنه (در همون موقعیت خاص)، مدل دست از عقدهای بودن برمیداره (و انگار حس ناامنیش بهبود پیدا میکنه!) و رفتار اشتباه در زمینههای دیگه حل میشه!
رشتهی توییت خلاصه:
https://x.com/AnthropicAI/status/1991952400899559889
بلاگ مطلب:
https://www.anthropic.com/research/emergent-misalignment-reward-hacking
مقاله اصلی:
https://assets.anthropic.com/m/74342f2c96095771/original/Natural-emergent-misalignment-from-reward-hacking-paper.pdf
و جالبیش اینجاست که هرچقدر تلاش میکنن بهترش کنن با RLHF فایده نداره. و راهحلی که کار میکنه اینه که به مدل بگن که اتفاقا اکیه که یه جاهایی reward hacking و تقلب کنه اگه کمک بکنه (در همون موقعیت خاص)، مدل دست از عقدهای بودن برمیداره (و انگار حس ناامنیش بهبود پیدا میکنه!) و رفتار اشتباه در زمینههای دیگه حل میشه!
رشتهی توییت خلاصه:
https://x.com/AnthropicAI/status/1991952400899559889
بلاگ مطلب:
https://www.anthropic.com/research/emergent-misalignment-reward-hacking
مقاله اصلی:
https://assets.anthropic.com/m/74342f2c96095771/original/Natural-emergent-misalignment-from-reward-hacking-paper.pdf
X (formerly Twitter)
Anthropic (@AnthropicAI) on X
New Anthropic research: Natural emergent misalignment from reward hacking in production RL.
“Reward hacking” is where models learn to cheat on tasks they’re given during training.
Our new study finds that the consequences of reward hacking, if unmitigated…
“Reward hacking” is where models learn to cheat on tasks they’re given during training.
Our new study finds that the consequences of reward hacking, if unmitigated…
👍4🔥1
این خیلی جالب بود. اگه توی ویکیپدیای انگلیسی توی هر صفحه روی اولین لینک کلیک کنید و همینجوری پیش برید (dfs بزنی) همیشه به صفحهی Philosophy میرسی!
https://en.wikipedia.org/wiki/Wikipedia_philosophy_phenomenon
https://en.wikipedia.org/wiki/Wikipedia_philosophy_phenomenon
👍3😁1
ده دقیقه پیش مدل Claude Opus 4.5 ریلیز شد.
طبق خودشون، بهترین مدل برای کد زدن عه.
رشته توییت خلاصهی ریلیزها:
https://x.com/claudeai/status/1993030546243699119?s=20
رپورتاژ بلاگشون:
https://www.anthropic.com/news/claude-opus-4-5
طبق خودشون، بهترین مدل برای کد زدن عه.
رشته توییت خلاصهی ریلیزها:
https://x.com/claudeai/status/1993030546243699119?s=20
رپورتاژ بلاگشون:
https://www.anthropic.com/news/claude-opus-4-5
👌4