Linux.do 热门话题 – Telegram
Linux.do 热门话题
3.12K subscribers
26K photos
35 videos
13 files
42.2K links
除了Linux,其他的我们都聊一点
https://linux.do
Download Telegram
终于三级了 没啥抽的给佬们抽个视频或者音乐会员吧

终于三级了 按照管理 抽个奖 没啥抽的给佬们抽个一个月视频或者音乐会员吧,小米签到搞得
可以选 网易云 QQ音乐 酷狗音乐 汽水音乐 喜马拉雅 爱奇艺 优酷 芒果TV 哔哩哔哩 咪咕视频
抽中的佬友自选一个 不过需要手机号 介意的佬友就算了

🏆️ 奖品详情:

[奖品1]:一个月视频或者音乐会员 可以选 网易云 QQ音乐 酷狗音乐 汽水音乐 喜马拉雅 爱奇艺 优酷 芒果TV 哔哩哔哩 咪咕视频 抽中的佬友自选一个

:three_o_clock: 活动时间:

开始时间:发布时间
截止时间:2026年1月4日19点00分

📝 参与方式:

在本帖下回复任意内容

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

115 posts - 114 participants

Read full topic

via LINUX DO - 热门话题 (author: 旧友)
Claude-Code-Router更新2.0

新版特性:

1. 支持预设,可以通过ccr <preset-name>命令快速切换cc配置,增加预设市场,更方便共享配置
2. 优化cc statusline适配,支持插件,可以自定义插件数据,比如获取供应商套餐余量,token实时速率,可以将statusline插件一起打包成预设进行分发
3. 支持docker部署,镜像只有200M+的大小(纯Server不支持statusline/cli插件),但是仍然可以通过给cc设置baseurl http://ip:port/preset/<preset-name> 快速切换预设配置
4. 支持fallback,当供应商报错时支持回退到备用供应商

完整文档在 Claude Code Router (还在建设中,文档速度跟不上特性开发速度)

35 posts - 35 participants

Read full topic

via LINUX DO - 热门话题 (author: musistudio)

Invalid media: image
五月份164斤,现148斤!

读硕士的时候压力大,一天三顿饭两顿不会委屈自己,顿顿下馆子吃到撑,毕业前和女友订婚时到达了164斤大关,入职体检甚至检查出来了高血压,作为本科时只有118斤的瘦子,这几年着实膨胀了,上班后作息规律了,注意了饮食,其实吃七分饱然后晚餐不吃就可以了,但是晚餐不吃是真难熬,我都是吃点小零食不饿的发慌就行,不过现在已经习惯饥饿了,谁让女友喜欢瘦子,谁让我的熟人都说我胖呢,我不喜欢这个称呼,现在午饭七分饱,晚饭几乎不吃,早饭一瓶牛奶+黑咖啡,冲刺年关,我若突破137斤以下,女友奖励我6000大洋,可以去换手机了 🥰

89 posts - 53 participants

Read full topic

via LINUX DO - 热门话题 (author: 锤子)
LDLive 使用条款

ldlive-12425.netlify.app

LDLive - 人人都可以直播

LDLive - 专业的直播平台,提供高质量的实时流媒体服务

46 posts - 35 participants

Read full topic

via LINUX DO - 热门话题 (author: 神墨)

Invalid media: image
明天又要发工资了,佬友们上个月存了多少钱?

刚刚算了下工资 上个月存了2k 🥲有点钱全吃嘴里了 🙃

139 posts - 111 participants

Read full topic

via LINUX DO - 热门话题 (author: 1048576B)
今年适合买房吗

Base 长沙
中电软件园附近上班,有什么推荐啊

139 posts - 103 participants

Read full topic

via LINUX DO - 热门话题 (author: 云胡不喜)
点赞居然有上限了~~~

64 posts - 58 participants

Read full topic

via LINUX DO - 热门话题 (author: fuclient)

Invalid media: image
兄弟们,三十多了还是chu咋办啊

兄弟们,你们女朋友到底从哪找的,学生时代的时候女人缘挺好的,跟女生玩的比较多,但是处着处着就变成哥们了,工作后,从事技术行业,更加难找了,又不会撩。虽然谈过,但是都没有进行到最后一步,嘤嘤嘤

205 posts - 136 participants

Read full topic

via LINUX DO - 热门话题 (author: ykcrush)
薄荷公益站碎碎念

首先,我后面会把签到站和升星站合并,同时签到转盘也转为直接加到你的账户余额(如果你没有账户的话则无法进行签到)

其次就是rpm问题,我知道对于很多人来说是很低,但是真没招,我的量多大,问kyx就知道了,发布newapitool开始,连续差不多一个星期都是在给薄荷公益站单独做软件优化。(到现在都没有完全优化好)

一开始的5分钟25次,然后后面降低,又到反重力刚出的时候短暂恢复了一下5分钟25次,又到现在的5分钟15次,我是挺想增加rpm的。。。暂时确实没招,属于是现在回到5分钟25次都是奢望了。

也是针对于rpm的问题,量的问题,最近会有许多测试环节,就比如上次的preview,以及4个test模型(昨天我把test后缀去掉,合并到共享池反重力里面,然后今天早上10点后,preview以及test就双双陨落了 :tieba_087: )

注册问题,5号是最后一次无条件注册了,后面我会增加一些要求,比如逢5又要ldc啦,又比如注册码啦,又比如回答问题ai审核啦,暂时没想好。

最后还是老生常谈,用翻译软件翻译报错真的不丢脸,不要一直报错一直还在请求着,特别是一些请求体错误(400报错),400报错大部分大部分都是人为报错,有的甚至会占用配额,就是也算一条信息。

关于封号,我基本是根据,用量、ip切换速度这两个为依据,就是,十几秒切一个ip十几秒切一个ip,然后切换的里面还有参杂三四五个ip,那你让我怎么做

187 posts - 166 participants

Read full topic

via LINUX DO - 热门话题 (author: bohe)
简单易懂的LLM相关知识梳理

迫于项目被砍,失业赋闲在家,恰好也快过年了不想动了,想了下写点文章回馈下社区吧。

PS:如有年后Base重庆的AI/全栈/FAE岗可PM我

本文从实用角度出发,梦到哪写哪。部分八股文知识就不搬了,这里主要分享一下本人在使用各种云服务及本地部署过程中学到的知识。

这里优先介绍LLM/VLM,暂不涉及音频/视频/Omni相关模型(也可能梦到了以后补一下)

注:文章为本人手写,部分模型介绍搬运自相关官网文档,无任何AI生成内容。如果你觉得AI味很重,那八成是因为我被AI腌入味了,LLM反向Instruct人类这块)

以下是目录,持续填坑中,啥时候写完啥时候补链接:

ep.1-1 各家模型的特点-闭源篇
ep.1-2 各家模型的特点-开源篇
ep.2-1 如何选择模型-API篇
ep.2-2 如何选择模型-本地部署篇
ep.3 适合从HomeLab到小型企业的开源模型的各种部署方法
ep.4 常见接口规范的介绍及使用(OpenAI、Anthropic、Gemini)
ep.5 Function Call 与 MCP
ep.6 Embedding、Reranker与向量数据库

===============更新记录分割线===============
今天一天码了两章,实在是码不动了,网文写手体验卡已耗尽。后面更新就没现在这么快了,因为ep.1只能算一个绪论,后面的内容更需要把琐碎的思路整理起来,边想边码吧

29 posts - 28 participants

Read full topic

via LINUX DO - 热门话题 (author: flymyd)
恐泡沫过大,宇树科技 A 股上市绿色通道被叫停

m.163.com – 4 Jan 26

独家|宇树科技上市绿色通道被叫停

独家|宇树科技上市绿色通道被叫停 ,宇树科技,上市,机器人,a股上市,网易科技,通道

61 posts - 51 participants

Read full topic

via LINUX DO - 热门话题 (author: 𝓵𝓮𝔃𝓲𝓼𝓱𝓮𝓷)

Invalid media:
image
image
【抽奖】1.4新开gpt plus 一个月 *2

奖品 :gpt plus 一个月 *2
奖品发放格式:发送账密

:three_o_clock: 活动时间:

开始时间:发帖时间
截止时间:2026 年 1 月 5日 16:30

📝 参与方式:

在本帖下回复:任意内容 ➕️ 👍️
🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用论坛官方抽奖工具随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12h内在本帖公布,中奖者请私信我。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

187 posts - 182 participants

Read full topic

via LINUX DO - 热门话题 (author: lejav)
[见面礼] 注册10$继续送, kimi在线求支持!

更新:

1. 已经支持linuxdo注册登录
2. linuxdo注册登录过后赠送1$ 方便立刻测试
3. 注意使用Gemini官方格式请求
4. 留言后我会一个个手动加10$额度, 防止有人刷量
哈喽大家好, 我是kimi, 昨天跟句号一起弄了个站点(虽然你们肯定不认识他哈哈), 想着我们也可以进军中转这块, 哈哈, 所以先测试一下, 试试水, 之前主要是做的直连key, 以及自己的一些其它业务, 接了乱七八糟的中转, 不过我发现当我们自己做的时候, 还是有不少不熟悉的地方

昨天发布了这个帖子过后, 陆陆续续有几十个朋友加微信, linuxdo留言, 最后有73个朋友注册, 由于刚开始不熟练, 我都让他们一个个加的我或者私信, 最后弄了一晚上哈哈, 然后晚上没配置好半夜还崩了一会, 不过问题已解决

1. 所以今天打算优化一些东西, 首先是关于10$赠送金额, 这个继续,
只需要帖子留言 + 站点上注册, 后面我会抽时间统一手动加额度, 就不用一个个喊我了, 然后也不搞抽奖啥的, 直接注册一个就送10$吧
❤️注册地址: http://152.53.82.145:3000
2. 暂时不开放支付功能, 如果有需要充值, 请微信联系我, 给你打个折哈哈, 不过不推荐
3. 测试期间的充值, 有任何纠纷无条件退款, 主要是先把这一套东西跑起来

后续发展计划:

1. 先把中转跑起来, 收集, 解决一些常见, 经典问题, 暂时只做gemini系列
2. 后面会推出openai, Claude等系列, 如果大家需求比较大的话
3. 将客户, 站点分级, 大户专门弄一个站点, 避免影响大家, 然后中等客户弄一个站点(给ip), 散户弄一个站点(加防御)

大家有什么问题, 或者好的想法, 可以留言给我呜, 大家一块玩哈哈, 其实我对营销推广也不那么熟悉哈哈, 快在评论区支持kimi哈哈, 我会努力的

【富可敌国】 送2000刀Gemini官转额度, 后续最低0.072一张大香蕉pro 福利羊毛
fire Gemini 生图专线|稳定出量, 大户专供 稳定, 高并发, 不超时 活动一: 测试地址: (已被刷完) http://152.53.82.145:3000 (空白测试站) sk-68qUfOBEwQFYQusilwA8ywUih3RhpYLMLbwVBbhNZwn2QKoZ 到期时间: 2026-01-05 16:37:26 测试额度: 2000刀 活动二: 无抽奖,…

149 posts - 119 participants

Read full topic

via LINUX DO - 热门话题 (author: kimi)
【抽奖】1 月 3 日开的 ChatGPT Team 车位 * 1 个

🏆️ 奖品详情:

[奖品 1]:ChatGPT Team 车位 * 1 个 ,1 月 3 日开的 邮箱上车,无任何质保

:three_o_clock: 活动时间:

开始时间:现在
截止时间:2026 年 1 月 5 日 23:00

📝 参与方式:

在本帖下回复任意内容

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

154 posts - 151 participants

Read full topic

via LINUX DO - 热门话题 (author: 🪵王)
马上三级了,抽Google AI Pro 5个家庭组成员
账号是自己用的老号,使用的站内佬友 @updownup 的链接过的学生认证

地区:中国

奖品 :Google AI Pro 12 个月 * 5

:three_o_clock: 活动时间:

开始时间:2026 年 1 月 4 日 发帖时间
截止时间:2025 年 1 月 5 日 17:00

📝 参与方式:

在本帖下回复:任意内容
🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用论坛官方抽奖工具随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12h 内在本帖公布,中奖者请私信我。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

213 posts - 209 participants

Read full topic

via LINUX DO - 热门话题 (author: yutong505)
🎁别再当冤大头了!一年省一部iPhone!老倔驴低佣开户已帮助千人,10元京东卡中奖率 20%【无限抽】

规则

回帖抽奖,成语接龙或者投资问题。每10楼抽2个10元京东卡,上不封顶,亏死算了(官方抽奖工具)

关于老倔驴

佬友们好!

老倔驴开户 聚合几十家券商优惠,连接上百家营业部,已帮助上千人,无一差评,简单实在,负责到底。

不乏大学教授,知名博主,发现自己券商账户佣金还是万3,一年白白多花上万,妥妥的冤大头!!

如何开户

详细&开户链接: https://u.laojuelv.com/kh/LD/202601

或者直接扫码:

(好多私信怎么开户,大大链接看不到干脆上码了)

那么多券商怎么选?

● 只玩 ETF 的聪明钱 YH ETF 万 0.5 ,适合大多数散户,宽指 ETF+逆回购+打新,朋友也是推荐这家,过去一年朋友纳指收益躺赚 20%,我不听劝一番折腾没亏没赚。
● 低门槛 不到两万门槛,万0.854免五 华宝开源等,陆续增加中…;
miniqmt 申w需要50w,东北20w门槛;
● 50万+的大佬们 国T国X万0.8免五,各项费率都很优秀。
● 两融银河广发 平安: 50w-3.5%,100w-3.3%,200w-3.0%,700w-2.88%,2000w-2.6%
Lof套利 拖拉机首推银河lof申购 1折赎回 5 折,次选华宝,都可以开拖拉机,前一端白银 lof 套利让不少赚了几千,收益 60%;
另外,渣打远程开港卡,港美复星可选;

有开户方面的问题,知无不言,乐意分享,也可以浏览老贴 🎁“万一免五”还能开吗?别再当冤大头了!!!【无限抽奖】

181 posts - 162 participants

Read full topic

via LINUX DO - 热门话题 (author: Ericlin)

Invalid media:
image
image
1
【抽奖】抽2个gpt team

奖品 : 2 个 gpt team 座位,无质保,需要质保的可以私聊
奖品发放格式:留下邮箱

:three_o_clock: 活动时间:

开始时间:2026 年 1 月 4日 发帖时间
截止时间:2026 年 1 月 4日 23:00

📝 参与方式:

在本帖下回复:任意内容
🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用论坛官方抽奖工具随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12h内在本帖公布,中奖者请私信我。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

162 posts - 161 participants

Read full topic

via LINUX DO - 热门话题 (author: 2han9wen71an)
简单易懂的LLM相关知识梳理-ep.1-1 各家模型的特点-闭源篇

目录帖:

简单易懂的LLM相关知识梳理 文档共建
迫于项目被砍,失业赋闲在家,恰好也快过年了不想动了,想了下写点文章回馈下社区吧。 PS:如有年后Base重庆的AI/全栈岗可PM我 本文从实用角度出发,梦到哪写哪。部分八股文知识就不搬了,这里主要分享一下本人在使用各种云服务及本地部署过程中学到的知识。 这里优先介绍LLM/VLM,暂不涉及音频/视频/Omni相关模型(也可能梦到了以后补一下) 注:文章为本人手写,部分模型介绍搬运自相关官网…

本章以开源/闭源模型为划分,介绍一下日常使用及评估的经验。本节可能较为主观,请各位看官也要多多结合自身体感及实际业务体验来评判。

闭源模型:一种循环

目前实现了SOTA(State of the Art,特定领域或任务中,当前的最新进展和最高水准,基本上是各家自称)的闭源模型厂主要有如下几家(豆包除外,稍后单讲):

这几家基本上每隔一段时间就宣称自己发布了最强大的xx模型,以至于形成了一种循环。当然SOTA这个词很微妙,最新最大杯的模型未必就最适合你。下面按照模型家族介绍一下本代的各种主力型号的特点(截至2026年1月4日):

OpenAI GPT:冷静的理性思考

自从迈入GPT-5时代以来,GPT系列模型就以回复简短闻名。从好的方面看,OpenAI做到了省output token(输出token数),这使得任务总体所需时间进一步得到压缩。然而代价是冷漠到近乎不近人情的回复使得创意写作用户不得不忍痛抛弃它。后续推出的编码特化模型gpt5-codex模型进一步强化了这个特征,有时候描述性文字几乎已经不能称之为人话了。好在GPT-5.2系列在一定程度上解决了这个问题,虽然比起GPT-4.5甚至GPT-4o系列模型给人在Chat上的主观感受仍有差距,但已经较为可用。

OpenAI作为LLM的领头羊,服务压力自然是很大的,无论是网页还是API都可能会有服务异常的情况。为了解决这个问题,GPT-5系列在网页端给出的解决方案是自动路由(其实就是超级降智)。然而,对于指定了特定型号的API用户来说,GPT-5系列模型的推理速度仍然显得相对较慢。

说完了缺点,那么剩下的基本上全是优点。回复简短意味着完成同等任务下所需tokens更少,冷静的理性思考带给人一种指哪打哪的感觉——不废话,just do it。比起GPT-4时代的人味儿来说,GPT-5更像一名理工男。当然,它是一名后端理工男,在审美上未必有多好的品味。

这里需要特别注意的是,gpt-5.2-codex并非代码万灵药。如果你不太会写prompt或者这个工程需要范围更广的探索思考,那么gpt-5.2可能会比codex变体好用些。codex更突出指哪打哪的能力,而gpt-5.2会主动帮你多想些。换句话说,改bug用gpt-5.2-codex,新开工程/模块用gpt-5.2。推荐写后端或复杂的前端逻辑时使用GPT系列模型。

Google Gemini:多模态和世界知识之王

牢谷坐拥无尽的网络资源宝库以及Deepmind+TPU的神秘力量加持,尽管在LLM时代赶了个晚集,但从Gemini 2.0开始一路猛追,到了2.5时代已经是妥妥的御三家之一。Gemini的多模态能力令人惊叹,Pro系列的世界知识更是让人折服。比起GPT来说,Gemini更像一名文科生:大参数带来的丰富世界知识给了它更强的文学理解能力,思考之细腻和情感共鸣能力使得它成为创意写作的最优选。当接入Chatbot的时候,你甚至可能没法分清它到底是AI还是人——太能接梗了。

大家都不知道Gemini Pro系列的参数到底有多大,目前普遍认为1T以上。然而推理速度比起其他各家大参数模型来说又快的离谱,疑似Jeff Dean在机房里手敲(其实应该是TPU的特点所致)。总之,如果你想选择一款有超强的世界知识并且对推理速度有一定要求的模型,那么Gemini系列是毋庸置疑的选择。

Gemini 3.0 Pro从内部测试阶段就不断炸场,多模态+大参数写出的前端效果惊艳了所有关注AI前沿动向的人。尽管Gemini 3.0 Pro存在较为严重的长上下文幻觉问题,但瑕不掩瑜,它依然是现在最适合前端的模型。

Gemini 3.0 Flash推出后,甚至神秘地实现了某种程度上对Pro的反杀,几乎和Pro一样丰富的世界知识和更好的编码能力。下克上?搞不懂牢谷。

Anthropic Claude:最均衡的编码代理模型

Anthropic,又称A÷ / A畜,大家很熟悉了,神一样的Coding Agent,翔一样的口碑和服务可用性。抛开立场不谈,最早的Claude模型以创意写作闻名,比起同期的GPT-3.5来说回答更有人味。后来Claude率先扩展了长上下文窗口以及STEM能力,走向了编码特化的不归路。到了Claude 3时代开始就是彻头彻尾的Coding模型了,直到现在的Claude 4.5成为了最均衡的编码代理模型——如果你想前后端一把抓,选它准没错。强大的规划能力能够给出更适合工程上的方案,在各种场景下都能很好的完成目标。跑分没赢过,体验没输过。尽管日常处于即将被超越的状态,但还没被超越不是吗?(对标苹果!)

注:只有官方Max订阅才有1000K上下文,大部分渠道都是200K的上下文,比如反重力逆向或Kiro逆向。

xAI Grok:力大砖飞,以及瑟瑟

马斯克也许缺乏品味,但他足够有钱。Grok好不好用先放一边,超大规模的显卡集群是实打实存在的。这个系列一直秉持力大砖飞的原则,猛堆参数。迫于Scaling law的存在,就算是几百头猪,炼进Transformer里也能出些成果了罢。

Grok在某些领域有着和Gemini系列相似的特性:参数够大,很适合创意写作任务。Grok 4家族拥有不俗的吐槽能力,在对齐上比起a helpful assistant来说更像一名沙雕网友。而且Grok背靠X(aka Twitter),也有着丰富的语料及不错的搜索功能。对于老外来说,Grok简直是全自动开盒器(is that true ? )

Grok系列另一个令人津津乐道的地方就是极低的审查下限。在各家API中,Grok / Google Vertex / DeepSeek是审查力度相对较低的。但到了网页端上Grok也保持极低的审查下限就很离谱,当然考虑到X网页端上你依然可以畅爽NSFW…好吧,Grok适合搞瑟瑟是从娘胎里就带出来的本事。无需破甲,无需诱导,很黄很暴力。酒馆和各种文字扮演游戏的常客。

阿里 通义千问 & 字节跳动 豆包:能力先行还是产品先行?

阿里作为目前开源界当之无愧的扛把子,从Meta手中接过了开源的大旗。r/LocalLlama如今已是r/LocalQwen的形状了。Qwen家族分为开源模型和闭源模型两种。除了每代的超大杯(通义千问Max)为闭源外,其他商业API均能找到对应的类似开源型号。通义千问的特点是极强的指令遵循能力和稀烂的产品。

Qwen家族的模型在输出上总感觉缺了点味道。它不像GPT那样冷静简洁,不像Gemini那样细腻有人味,但也不像DeepSeek R1 0120那样放飞自我。很怪,AI味很重,在大规模使用RL训练的Qwen3世代这个特点尤为显著。国模的通病之一在Qwen上有显著体现:思考时非常消耗Token,甚至在Instruct模型上模型倾向于输出思维链,导致最终完成复杂任务时所耗Token相对较高。

但从另一个方面上来讲,Qwen作为国内AI的T0选手,其模型非常适合国内企业落地开发使用:性价比适中、模型选择丰富、较好的服务稳定性,还有强大的指令遵循能力可以减轻不少开发难度。逻辑能力也相当不错。

阿里系除了主打的阿里云百炼平台提供的通义千问服务外,还有面向开发者的modelscope(魔搭)、心流团队的iFlow、面向C端的蚂蚁灵光系列,主打一个养蛊和乱拳打死老师傅。以下表格主要介绍闭源的通义千问3家族:

把目光转回到字节的豆包家族。阿里和字节基本上是截然相反的——字节在LLM上的开源很少,可用的只有Seed-OSS-36B,豆包底模也一直很一般。然而豆包的产品做的很好,在国内C端市占率遥遥领先。这当然得益于他们深耕多模态,但这可能和集团底色也有一定关系。如果你手机里需要一款不需要爬墙就很好用的AI应用,那我想应该是豆包没错了。但使用LLM API?除非你的公司疯狂迷恋Coze。

49 posts - 37 participants

Read full topic

via LINUX DO - 热门话题 (author: flymyd)