David's random thoughts – Telegram
David's random thoughts
1.74K subscribers
273 photos
1 video
31 files
175 links
个人想法合集,主要同步来自Twitter (𝕏)、博客等账号发布的内容。

注:本频道并非纯粹包含技术相关内容(虽然以它们为主),本人不会刻意回避政治观点表达。可能包含一些直言不讳的主观评价,慎入。

个人博客:https://blog.hjc.im
Download Telegram
最近某些事情,让我觉得差不多是时候远离某品牌的所有产品了。虽然我很喜欢他们家的一部分产品(还有认识的人在做,最近还出了新东西),但是很遗憾只能如此。

以及事实查明前圈子里谁给我看到半点洗地/挽尊倾向将直接喜提永久拉黑和断绝联系,没有任何商量余地。不认识的人就算了,没那个精力理会🤣
🤔10👏6👍1
谈跑分性能和做PPT的时候解锁功耗墙再降ACLL降压,谈稳定性的时候全部按照标准来。不愧是赢特尔。

https://twitter.com/anandtech/status/1785122248040362166
🤣8😁1
试了下KDE wayland用sunshine server串流,现在看起来已经可以做到一个内网非常可用的状态,4k120串流无压力。。流畅度和延迟非常优秀,没有可感知的延迟

想不到Linux比macOS环境先解决了高质量远程访问GUI的问题,以后在家里不用带个笔记本到处跑了,直接在各个地方都放一台轻量化的串流机随时访问😇
16👍1
ChatGPT幽默时刻:分不清operand顺序
从A15/M2那会开始,每一代新的Apple Silicon都有群友期待大核微架构层面的tock升级

然而现实是从A13起,A14/M1 A15/M2 A16 A17/M3 A18(?)/M4连续tick了5代……A13+ A13++ A13+++ A13++++ A13+++++,到A18(?)/M4为止已经正式突破Kabylake-Coffee Lake (-R)-CometLake的Skylake++++的加号数量记录了……
🥴20🤡12🤯1
今天一天被800个人问我是不是要润了……
🔥30
很好地解释了为什么之前我会测出LPE核心高负载时整体SoC能效还不如普通E核。由于没有L3,DRAM访问成倍的增长,导致从fabric到SA/DRAM功耗都翻好几倍。

下一代LPE核有SLC之后目测会好得多。

https://x.com/ChipsandCheese9/status/1792760584750174656
David's random thoughts
很好地解释了为什么之前我会测出LPE核心高负载时整体SoC能效还不如普通E核。由于没有L3,DRAM访问成倍的增长,导致从fabric到SA/DRAM功耗都翻好几倍。 下一代LPE核有SLC之后目测会好得多。 https://x.com/ChipsandCheese9/status/1792760584750174656
当时采集的实测数据如下,图1是LPE核心,图2是普通E核心,都是2GHz。

可以看到虽然LP E核心的核心功耗平均只有普通E核的一半左右,但是package功耗直接爆炸。
👍5
Exynos 2400 运行新出的3DMark Steel Nomad Light,1.1GHz 1825分,800MHz 1435分。大概跟A17 pro一个水平,看起来强于8g3和正常功耗下的D9300,低于高功耗下的D9300。
🔥5
微软食堂的晚餐总是给我一种当年美国大萧条的感觉
🤗5
简略分析3DMark Steel Nomad Light跟之前的Wildlife Extreme的性能瓶颈有何异同。

简单概括下来,相比WLE而言,SNL对GPU通用计算能力有非常高的要求,而不是单纯跑个光栅化贴个图完事。猜测高通和Mali这两个通用计算能力不够强的GPU的性能相对位置会受到相当大的影响,Apple 9和RDNA则会有天生优势。

https://x.com/hjc4869/status/1793593000305779013
🤔41👍1
所以说知乎这种平台以后就留着专门点赞阴阳怪气和键政之类的垃圾内容好了,不值得认真写任何东西。

看要不要找个时间把之前写过的稍微有点价值的东西捞一下发blog/telegram channel然后在知乎上全删掉得了。

https://x.com/landiantech/status/1794690765056364909
👍19
周末想移植几个onnx模型到MTL的NPU上跑,结果按照各种文档尝试装各种pkg组合,折腾到周一早上还是没加载OpenVINO EP,也没在Dml EP里发现NPU设备。相比之下各种独显/核显跑起来简直不要太简单。

看起来Intel的软件完全就是搞笑。。SoC和机器都发布半年都快退环境了还这个鬼状态,还有脸搁这AIPC呢😃
😁19
David's random thoughts
周末想移植几个onnx模型到MTL的NPU上跑,结果按照各种文档尝试装各种pkg组合,折腾到周一早上还是没加载OpenVINO EP,也没在Dml EP里发现NPU设备。相比之下各种独显/核显跑起来简直不要太简单。 看起来Intel的软件完全就是搞笑。。SoC和机器都发布半年都快退环境了还这个鬼状态,还有脸搁这AIPC呢😃
破案了,pip安装的onnx似乎没有打开编译选项,自己编译可以调用OpenVINO/NPU。DirectML似乎默认也没有打开NPU支持,不过自己编译之后依然找不到NPU设备。

实测下来FP16模型跑的巨慢,远不如核显的速度。而且一个iteration跑太久还会跟GPU一样TDR…评估下来至少这一代NPU谁爱用谁用,我还是用核显吧。
😁2
知乎现在已经反智到什么境界了,举个例子吧:https://www.zhihu.com/question/31813128

往下翻了下,愣是没找到谁指出这是2000年的图,高赞回答全是把它带入24年上下文分析然后转进典中典美帝p图抹黑。

更可悲的是它居然出现在了跟我互相关注的人的时间线上。年初某些事让我反思了三个月交友不慎,感觉要继续反思了…
😁10👍7