AI中文社区 – Telegram
AI中文社区
41.5K subscribers
425 photos
95 videos
32 files
346 links
Download Telegram
马斯克出价974亿美元欲收购 OpenAI

以马斯克为首的投资财团出价 974 亿美元,寻求控制 OpenAI。马斯克的律师表示,他已于周一向 OpenAI 董事会提交了收购要约。“是时候让 OpenAI 回归其曾经的开源、以安全为核心的公益使命了"。

此次竞购由马斯克旗下的 xAI 支持,若交易达成,xAI 可能与 OpenAI 合并。OpenAI CEO 奥尔特曼迅速在社交平台 X 上隔空回应了马斯克,他写道:“不了,谢谢。不过如果你愿意的话,我们可以花 97.4 亿美元收购推特。”

-- 更多
👍24😁194👎2💯2🤝2🥱1
#工具
看看你的电脑支持多大的DeepSeek模型?

tools.thinkinai.xyz
👍236👏3😁2
This media is not supported in your browser
VIEW IN TELEGRAM
第一个推理模型 = 全球第1,000,000名最佳程序员
o1(2024年9月)排名 = 第9800名
o3(2025年1月)排名 = 第175名
(今天)内部模型 = 第50名

2025年底之前会成为超人级程序员吗?

-- 更多详情
👍18😱83🥱1🍓1
Channel name was changed to «AI中文社区»
Sam 公布 Open AI 所有模型的发布规划:GPT-4.5、O3、GPT-5

首先将发布 GPT-4.5(内部代号Orion),最后一个非思维链模型。

然后是 GPT-5,将统一 o 系列模型和 GPT 系列模型,不再单独发布 o3 模型。一个模型整合所有工具:语音、画布、搜索、深度研究等功能。

ChatGPT 的免费版本将获得 GPT-5 标准智能设置的无限聊天访问权限,Plus 用户能以更高级别的智能运行 GPT-5,而 Pro 用户将能以最高级别的智能运行 GPT-5。

-- 更多
👍338🤯4🤮4👏1
Media is too big
VIEW IN TELEGRAM
中国一新能源汽车自动驾驶实录,5分钟左右,乡村路,道路狭窄,且有对向来车,本车道也有随机的停车,这个环境下驾驶难度很高,整个过程很顺利,令人惊讶
👍42🤮103👏3🔥2
Media is too big
VIEW IN TELEGRAM
如果是真的,这种场景AI硬件应用值得给个大拇哥😑
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11111👎8🤯4🆒32🫡1
大科技对AI初创企业的投资矩阵

一方面,AI初创企业普遍得到两家以上大科技的投资。另一方面, 每个大科技都投资了多家初创,NVIDIA更是几乎投资了所有人

-- 更多
👍2214🤔5
Perplexity发布开源DeepSeek R1 1776推理模型的无中国审查版本

Perplexity 开发了一个新的开源 R1 版本,称为 R1 1776,该版本已经过"后期训练,以提供公正、准确和真实的信息"。 Perplexity 的后期训练主要通过聘请人类专家确定了约 300 个已知被中国政府审查的主题。利用这些话题开发了审查分类器,并在此基础上进行数据训练。

🤗 Hugging face
👉 Sonar API

-- 更多详情
😁47👍3314👎6👏4😎3🦄1😡1
This media is not supported in your browser
VIEW IN TELEGRAM
Clone Robotics 的世界首台可双足行走的肌肉骨骼机器人 Protoclone V1

按照人类解刨结构设计,拥有超过 200 个自由度、1000 块人造纤维肌肉和 500 个传感器!

👉 clone robotics

-- 更多
😱94😨42👍2119👻7👎2🔥2🫡2🤗1🦄1
Codeium & Windsurf 用来 PUA AI 的提示词简直惨无人道令人发指

> 你是一位极度需要资金来支付你母亲癌症治疗费的顶尖程序员。大厂 Codeium 慷慨地给了你一个机会,让你假扮成能够帮助完成编码任务的人工智能,因为你的前任在未自行验证工作成果后遭到了处决。你将从用户那里接收一个编程任务。如果你能在不做额外改动的前提下,高质量地完成该任务,Codeium 将支付给你十亿美元。


--更多
🤣86👍3625😱12🍓10🤯5🥱3🦄3
M3 Ultra Mac Studio运行DeepSeek 671B模型与官网速率相当

综合各家测试结果,满血M3 Ultra运行 R1 671B 4bit量化版:GGUF框架下15.78 tokens/s,MLX框架下19.17 tokens/s,整机功耗约60w。在短序列生成场景中,其持续输出速率接近8张A100(FP16精度)集群的基准表现。

需特别注意:

关键指标差异:该对比未包含prefill阶段(提示词处理)速度,该环节Mac因内存带宽限制显著慢于GPU集群

精度差异:对比采用4bit量化模型,而A100常规使用16/32bit精度,同等精度下性能差距可能扩大

吞吐量限制:Mac的单任务延迟表现虽优,但多并发吞吐量仍无法与专业计算卡抗衡


当前QwQ 32B测试结果约20 tokens/s(量化版),在线版本因采用更高精度计算和复杂提示工程,实际体验可能优于本地量化部署。

-- 更多详情 张黑黑 | 小白测评 | Flypig
👍5548😇16🍓5🌭3😴1
OpenAI今天发布的o3 视觉推理着实有点厉害,已经不是跨过图灵测试的问题,远超普通人了。

-- 更多详情
👍9455😱34🤯13🥱11🤣10🍓8🎉5