Pure Echo – Telegram
Pure Echo
12 subscribers
88 photos
2 videos
2 files
369 links
博客「Innocent Note」的附属频道

博客地址:https://www.gatcha.me
Download Telegram
In The Flux
说不定,大规模调教 ChatGPT 的结果是让算法变得越来越差。毕竟活人不仅会写如此乏味的文字,还很可能写得更差。 https://blog.yitianshijie.net/2022/12/06/chatgpt-odor/
大规模调教 ChatGPT 的结果是让算法变得越来越差,事实的确可能如此,但是这并不意味着 ChatGPT 对于我们这个社会的威胁(或者说负面影响)会因此而减少——有数量相当可观的人早已习惯了乏味的文字,而乏味的文字多起来后整个世界的文字又会变得更加乏味。可以想象,当人类逐渐失去了表达的技巧之后,人与人之间的理解也将会变得愈加困难。

这对于我们来说也是一个机会,如果现在开始反思,我们便可以逐渐地意识到互联网上的信息究竟有多么的不可靠,进而用心去选择更可靠的消息源,而不是仅仅通过自媒体来「睁眼看世界」。同时这也可以反向鼓励我们好好学习语文,珍惜与每一个活生生的人类沟通的机会,回到现实中来与人推心置腹地聊天。人工智能终究应该是一种工具,而决定让工具服从于人类还是让人类服从于工具已经是摆在我们每一个人面前的现实选择了。希望未来的历史教科书中不会出现「人工智能为这个时代的人们带来了巨大的混乱」这种令人遗憾的陈述吧。
民主国家应对独裁国家的最佳方式就是尽可能地做到国进且民进,而非为了各种眼前的利益而放纵民进国退,否则就会像秦灭六国那样被不停地削弱与蚕食。向全世界证明国与民的利益并不矛盾,二者并不应该进行零和博弈,这才是防止民主倒退的关键。
https://twitter.com/_CCCHHHRRR_/status/1604953440114728960

什么样的人不会像真嗣那样选择坐上初号机而是会选择继续逃避呢?这样的人大概就是了。
Forwarded from &'a ::rynco::UnnoscriptdChannel (Rynco Maekawa)
“We don’t have to fight open source, we have to exploit open source.”
“我们不需要对抗开源,我们需要剥削开源。”
——甲骨文公司(Oracle)CEO Larry Ellison

https://www.ft.com/content/5f7bdc18-ce85-11da-a032-0000779e2340

—-
开源软件工程师的房租就不是房租了?
Forwarded from 荔枝の日常
因为没有看过三体,所以刚刚才详细了解到「黑暗森林法则」这个东西。它让我产生了一个疑问:当人们需要去做出选择的时候,有多少人会在权衡之下选择站在黑暗森林法则那边?

基于道德层面的考虑,很多人或许都不会诚实地回答这个问题,这也为关于这一议题的讨论增加了困难。但这是我们作为人类而言避无可避的问题,倘若选择了逃避而不能好好地回答它,那便可能在未来为我们自己带来许多令人遗憾的悲剧。

许多人认为这是一种理性的选择,但我对此持否定与批评的态度,我认为这是对「理性」最大的误解。我主张用「爱」来定义这一语境中的「理性」,具体来说便是「爱是唯一的理性行为」——出自米奇•阿尔博姆的《相约星期二》。言下之意,「生存」不是人类唯一的理性行为,它要为「爱」而让步。倘若生存下去比一切都要重要,那么这样的人生将是最没有意义的人生。至于有关「何为爱」的讨论,那就是之后的事了。
绝命毒师第五季豆瓣页面看到的:https://archive.is/DnrtZ

「牛逼的结尾证明这剧是一部无法逾越的高度的神剧。当Mr White终于承认的说出了:“一切都是为了自己。”赤裸裸的揭穿了美国一直宣扬的家庭思想的虚伪,给那些假惺惺的主流剧一记响亮的耳光,人性就是自私的。」这一条短评得到了3364个赞,排在第四位。

「人性就是自私的」这句话就是我不情愿生活在中国,并且离开了这里也很不愿待在华人圈子里的原因。两千多年来,这样可以说是十分幼稚而又傲慢的思想依然有许多人即使深受其害也要坚定地去维护它,我实在是哀其不争而又无可奈何啊。
Forwarded from 小破不入渠🌏
硅谷发出了一封联名公开信,呼吁暂停 AI 模型训练六个月,利用这段时间针对 AI 开发,设置更严格的安全监督、管理措施。

我不是一个恐惧技术的人。人类在过去几千年里,从信仰宗教,到信仰政治,再到信仰技术,我自己就是第一代建立起技术信仰的人。

与此同时,具体到 AI 技术,我又相对不怕被 AI 取代。因为我作为一个写作者,不只是给机构媒体供稿,还在互联网上运营着自我人格。在此之外,我职业身份的最后一道安全网,与人类最根本的需求,「水」,捆绑在一起。

但我也要说,我支持暂停 AI 开发,特别是在产品化上,保持谨慎。这不是因为当下的 AI 本身有多么先进,已经达到了人类智能的水平,或已经有了自我意识。而是在于,人类比所有人想象的更脆弱。

就像过去 10 年,Facebook 和字节跳动将「内容推荐算法」带入人类社会之后,发生的一切。它的危险之处,不在于某一个人能否抵抗。对我来说,我早就意识到抖音的危险之处,并可以做到不看、少看它。但我相信到今天,任何人都要承认,内容推荐算法已经永远地改变了人类社会,且这种影响的深远程度,远超所有人的想象。

在这种环境下,将算力更强,且训练目标更不明确的 AI 工具,整合进一些更泛用的产品,造出一个「认知广播黑箱」,它的危险性不言而喻。而能否理性评估、正确监督它的生长,或许就是技术主义最后的「自我验证时刻」。

https://futureoflife.org/open-letter/pause-giant-ai-experiments/
小破不入渠🌏
硅谷发出了一封联名公开信,呼吁暂停 AI 模型训练六个月,利用这段时间针对 AI 开发,设置更严格的安全监督、管理措施。 我不是一个恐惧技术的人。人类在过去几千年里,从信仰宗教,到信仰政治,再到信仰技术,我自己就是第一代建立起技术信仰的人。 与此同时,具体到 AI 技术,我又相对不怕被 AI 取代。因为我作为一个写作者,不只是给机构媒体供稿,还在互联网上运营着自我人格。在此之外,我职业身份的最后一道安全网,与人类最根本的需求,「水」,捆绑在一起。 但我也要说,我支持暂停 AI 开发,特别是在产品化上,保持谨慎。这不是因为当下的…
我个人对此的评价是,我举双手双脚同意暂停AI的开发,但重点不在于AI本身是否会给我们带来威胁,而在于AI背后的开发者是否会给我们带来威胁。我悲观地认为只要公众依然对「技术是否中立」这一问题保持冷漠,那么不论出台什么样的监督措施,AI作为一种黑箱,在未来给人类带来的坏处也是极有可能会大于好处。

当 Facebook、字节跳动等一众互联网科技公司有在用算法这一黑箱干坏事的嫌疑时,它们庞大的用户群体几乎没有发出一点质疑的声音,况且政府也不可能说立法禁止互联网科技公司以「让用户成瘾」为目的而开发算法,因为根本没有一个公平的方法可以判断如何才算是「以『让用户成瘾』为目的」。如此一来,我们要如何才能确保「人」不能躲在AI的背后轻易地干坏事呢?

再举个我能想到的没那么有争议性的例子。快手常年打着「让乡村被看见」的旗号,鼓励乡村的视频博主创作了大量比较猎奇的土味视频。但是要说这些比较猎奇的元素真的是乡村青年生活的一部分吗?我看并不像是这么一回事。我认为它反而是鼓励了视频博主去迎合城里人对乡村的刻板印象,并且它也通过鼓励更猎奇的创作进一步加深了这种刻板印象。而反观那些作为可能是土味视频的起源却没有「被看见」、甚至被主流世界限流的杀马特们,反而在这十几年里始终保持着杀马特这一文化最本真的那一面。他们并没有接受多年来主流世界强加在他们身上的所谓「反抗」、「朋克」的精神,在面对他人的询问时也依然只是说自己就是为了「好玩」,觉得它「好看」,「根本就没有想那么多」。

但是如今,像上面这样的问题真的会有人在乎吗?快手到底有没有用算法加固人们对乡村的刻板印象,这个问题难道不值得讨论吗?从2013年开始,Tristan Harris 这样的科技人文主义者就开始奔走呼吁人们重视思考技术的背后可能会包含怎样的主观意图,而不是一味地默认技术就是中立的,Fackbook 和字节跳动真的只是想「让用户看到更多他喜欢的内容」。10年过去了,到今天人们依然只是冷漠地旁观,甚至嗤笑对「技术中立」提出不同意见的人。

归根结底,「让用户看到更多他喜欢的内容」其实并不是原罪,冷漠和犬儒才是。