Pure Echo – Telegram
Pure Echo
12 subscribers
88 photos
2 videos
2 files
369 links
博客「Innocent Note」的附属频道

博客地址:https://www.gatcha.me
Download Telegram
Forwarded from In The Flux
说不定,大规模调教 ChatGPT 的结果是让算法变得越来越差。毕竟活人不仅会写如此乏味的文字,还很可能写得更差。

https://blog.yitianshijie.net/2022/12/06/chatgpt-odor/
In The Flux
说不定,大规模调教 ChatGPT 的结果是让算法变得越来越差。毕竟活人不仅会写如此乏味的文字,还很可能写得更差。 https://blog.yitianshijie.net/2022/12/06/chatgpt-odor/
大规模调教 ChatGPT 的结果是让算法变得越来越差,事实的确可能如此,但是这并不意味着 ChatGPT 对于我们这个社会的威胁(或者说负面影响)会因此而减少——有数量相当可观的人早已习惯了乏味的文字,而乏味的文字多起来后整个世界的文字又会变得更加乏味。可以想象,当人类逐渐失去了表达的技巧之后,人与人之间的理解也将会变得愈加困难。

这对于我们来说也是一个机会,如果现在开始反思,我们便可以逐渐地意识到互联网上的信息究竟有多么的不可靠,进而用心去选择更可靠的消息源,而不是仅仅通过自媒体来「睁眼看世界」。同时这也可以反向鼓励我们好好学习语文,珍惜与每一个活生生的人类沟通的机会,回到现实中来与人推心置腹地聊天。人工智能终究应该是一种工具,而决定让工具服从于人类还是让人类服从于工具已经是摆在我们每一个人面前的现实选择了。希望未来的历史教科书中不会出现「人工智能为这个时代的人们带来了巨大的混乱」这种令人遗憾的陈述吧。
民主国家应对独裁国家的最佳方式就是尽可能地做到国进且民进,而非为了各种眼前的利益而放纵民进国退,否则就会像秦灭六国那样被不停地削弱与蚕食。向全世界证明国与民的利益并不矛盾,二者并不应该进行零和博弈,这才是防止民主倒退的关键。
https://twitter.com/_CCCHHHRRR_/status/1604953440114728960

什么样的人不会像真嗣那样选择坐上初号机而是会选择继续逃避呢?这样的人大概就是了。
Forwarded from &'a ::rynco::UnnoscriptdChannel (Rynco Maekawa)
“We don’t have to fight open source, we have to exploit open source.”
“我们不需要对抗开源,我们需要剥削开源。”
——甲骨文公司(Oracle)CEO Larry Ellison

https://www.ft.com/content/5f7bdc18-ce85-11da-a032-0000779e2340

—-
开源软件工程师的房租就不是房租了?
Forwarded from 荔枝の日常
因为没有看过三体,所以刚刚才详细了解到「黑暗森林法则」这个东西。它让我产生了一个疑问:当人们需要去做出选择的时候,有多少人会在权衡之下选择站在黑暗森林法则那边?

基于道德层面的考虑,很多人或许都不会诚实地回答这个问题,这也为关于这一议题的讨论增加了困难。但这是我们作为人类而言避无可避的问题,倘若选择了逃避而不能好好地回答它,那便可能在未来为我们自己带来许多令人遗憾的悲剧。

许多人认为这是一种理性的选择,但我对此持否定与批评的态度,我认为这是对「理性」最大的误解。我主张用「爱」来定义这一语境中的「理性」,具体来说便是「爱是唯一的理性行为」——出自米奇•阿尔博姆的《相约星期二》。言下之意,「生存」不是人类唯一的理性行为,它要为「爱」而让步。倘若生存下去比一切都要重要,那么这样的人生将是最没有意义的人生。至于有关「何为爱」的讨论,那就是之后的事了。
绝命毒师第五季豆瓣页面看到的:https://archive.is/DnrtZ

「牛逼的结尾证明这剧是一部无法逾越的高度的神剧。当Mr White终于承认的说出了:“一切都是为了自己。”赤裸裸的揭穿了美国一直宣扬的家庭思想的虚伪,给那些假惺惺的主流剧一记响亮的耳光,人性就是自私的。」这一条短评得到了3364个赞,排在第四位。

「人性就是自私的」这句话就是我不情愿生活在中国,并且离开了这里也很不愿待在华人圈子里的原因。两千多年来,这样可以说是十分幼稚而又傲慢的思想依然有许多人即使深受其害也要坚定地去维护它,我实在是哀其不争而又无可奈何啊。
Forwarded from 小破不入渠🌏
硅谷发出了一封联名公开信,呼吁暂停 AI 模型训练六个月,利用这段时间针对 AI 开发,设置更严格的安全监督、管理措施。

我不是一个恐惧技术的人。人类在过去几千年里,从信仰宗教,到信仰政治,再到信仰技术,我自己就是第一代建立起技术信仰的人。

与此同时,具体到 AI 技术,我又相对不怕被 AI 取代。因为我作为一个写作者,不只是给机构媒体供稿,还在互联网上运营着自我人格。在此之外,我职业身份的最后一道安全网,与人类最根本的需求,「水」,捆绑在一起。

但我也要说,我支持暂停 AI 开发,特别是在产品化上,保持谨慎。这不是因为当下的 AI 本身有多么先进,已经达到了人类智能的水平,或已经有了自我意识。而是在于,人类比所有人想象的更脆弱。

就像过去 10 年,Facebook 和字节跳动将「内容推荐算法」带入人类社会之后,发生的一切。它的危险之处,不在于某一个人能否抵抗。对我来说,我早就意识到抖音的危险之处,并可以做到不看、少看它。但我相信到今天,任何人都要承认,内容推荐算法已经永远地改变了人类社会,且这种影响的深远程度,远超所有人的想象。

在这种环境下,将算力更强,且训练目标更不明确的 AI 工具,整合进一些更泛用的产品,造出一个「认知广播黑箱」,它的危险性不言而喻。而能否理性评估、正确监督它的生长,或许就是技术主义最后的「自我验证时刻」。

https://futureoflife.org/open-letter/pause-giant-ai-experiments/