Λ-Reading ♡ – Telegram
Λ-Reading ♡
16.8K subscribers
1.4K photos
154 videos
429 files
5.97K links
本频道主要内容为:
1.书和读书 #书摘 #书籍推荐 #book
2.科技人文资讯分享;
3. Λ-Reading 邮件通讯 #Newsletter,订阅:https://lambda.rizi.me
4. 频道地址:https://ibox.eu.org/
Download Telegram
Λ - 资讯摘要✂️
「 Pandazhq: 关于农业税,秦晖的认识是深刻的。 他说农业税不是个人所得税,因为它没有起征点; 也不是营业税或所得税,因为它不区分生产的盈利性;更不是资产税,因为土地不是农民的私产。 中国的农业税是一种典型的“身份性贡赋”,只要你脱不了“农村户口”,农业税就要活到老,缴到老,如影随形地跟定你的一生。 」 https://twitter.com/Pandazhq/status/1631489427171168256
👍15
Λ - 资讯摘要✂️
「 Casperhooo: 现在名字后面加gpt的和之前名字后面加eth的是同一拨傻逼吗? 」 https://twitter.com/Casperhooo/status/1631568731250868225
😁14👏3👍1
第180期Λ-Reading主题:依赖AI会不会让人过早老年痴呆?
AI依赖问题、AI 对智识的侵蚀和伤害,以及如何正确使用AI

订阅+往期目录 #newsletter
👍9👎51
numbeo.com/cost-of-living/
Numbeo - Cost of Living
这个网站是世界上最大的生活成本数据库。 一个众包全球生活质量数据数据库:住房指标、感知犯罪率、医疗保健质量、交通质量和其他统计数据。另外 http://city-data.com 这个网站可以看到美国的一些数据,人口分布等。搬家移民换城市很有用的参考。
👍272
Happy Women's Day 🌹
👍2712🥰4
假设有足够多的猴子和足够多的打字机,它们就能打出莎士比亚的著作。 (这是个真实的实验)——无限猴子定理
这就是AI。
👍20🤔52👎2😱2
第181期Λ-Reading主题:吻、我爱你、谢谢、撒谎和对不起

关于生活,关于爱!

订阅+往期目录 #newsletter
👍52
Forwarded from cheng pingan
Media is too big
VIEW IN TELEGRAM
2👍1
👆 这是什么算法?
🤔1
Λ - 资讯摘要✂️
「 ProfFeynman: Knowledge is having the right answers. Intelligence is asking the right questions. Wisdom is knowing when to ask the right questions. 」 https://twitter.com/ProfFeynman/status/1633527663586611200
👍12🥰3
现在看到openai和chatGPT两个词都想吐🤮了。😆
就像之前有人在谈区块链。
😁34👍11🌚10👎8🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
原来甘蔗这么种的?(北方人还真不知道😊
👍18🥰1
错觉:自行车细轮胎并不比较宽的轮胎快😊
https://www.renehersecycles.com/bq-tire-test-results/
👍41👏1
如果你就是日常简单使用一下 AI 的话,Bing、Poe、perplexity、You/com 等足够用了,完全不要下载那些看似很火的 ChatGPT API 封装📦的应用,也不必付钱。
43👍14👎1
Λ - 资讯摘要✂️
「 Svwang1: 人工智能会天然成为权力斗争的高手。openai 这篇98页的论文,第14页,最后一段。“可以指定和执行长期计划的能力,积累权力和资源,并表现出更加有主动性,有自我导向的行为". “获取权力,对于多数奖励函数和不同类的代理人,是最优的行为” https://t.co/WcHObnGLv7https://twitter.com/Svwang1/status/1635809543434412033
😱9🥰2
完全免费且无需注册的在线照片编辑器 #tool https://edit.photo/
👍2
GPT4 😆
😁31
ppt做的不错
😁14🥰1
F4
👍20
哈哈 有意思
😁40👏21🥰1
Λ - 资讯摘要✂️
「 Svwang1: 这篇文章有些很深的洞见:“The bitter lesson is based on the historical observations that 1) AI researchers have often tried to build knowledge into their agents, 2) this always helps in the short term, and is personally satisfying to the researcher, but 3) in the long run it… https://t.co/IQBQ8bDeswhttps://twitter.com/Svwang1/status/1636583484629336064