Amazon 宣布他们的模型效果超过 GPT3.5,但参数只有10亿。主要依靠 CoT Prompts。
新的Amazon 1B模型表现超越了GPT 3.5,即使是2.3亿参数也超过了人类表现。不久以后,你将能够在移动设备上运行这些模型。
参考论文: https://arxiv.org/abs/2302.00923
新的Amazon 1B模型表现超越了GPT 3.5,即使是2.3亿参数也超过了人类表现。不久以后,你将能够在移动设备上运行这些模型。
参考论文: https://arxiv.org/abs/2302.00923
🤔1🤩1
AI中文社区
针对#chatGPT 吐字太难太少的问题,OpenAI推出了“Foundry”产品,使用DV 32k模型实例可能意味着该GPT模型能够根据一个提示生成8000多个词。
OpenAI发布了名为Foundry的新开发者产品,允许客户使用专用容量大规模运行OpenAI模型推断。此外,它还透露公共版本的DV(Davinci; 很可能是GPT-4)最大上下文长度将高达32k。🔥
👏4
AI中文社区
OpenAI发布了名为Foundry的新开发者产品,允许客户使用专用容量大规模运行OpenAI模型推断。此外,它还透露公共版本的DV(Davinci; 很可能是GPT-4)最大上下文长度将高达32k。🔥
Azure AI 入门:为什么要在云上跑AI
https://techcrunch.com/2023/02/21/openai-foundry-will-let-customers-buy-dedicated-capacity-to-run-its-ai-models/
结合最近的一则新闻来聊聊人工智能云。ChatGPT背后的公司OpenAI最近计划推出“Foundry铸造厂”服务-客户可以租用独有的服务器来运行GPT3.5等服务,Azure AI 以及aws等云服务商也早已提供类似的云AI服务,例如web app开发商可以调用API在Azure的服务器上实现如手写识别的机器学习功能,而不需要依赖设备本身的性能。云服务的普及使得本地电子设备的网络传输速度逐渐成为最重要的性能指标,而大量的如AI对话,游戏渲染等计算任务可以在电力便宜稳定的服务器所在地实现,如有着充沛水电资源的地区。
Foundry的概念在芯片设计制造领域也早已有所运用,意味着芯片的实际代工制造和设计可以分开。例如英伟达Nvidia就是一家纯设计公司,绝大部分的Nvidia图像处理单元GPU芯片的实际生产是在台积电TSMC完成。业务的分离使得各个企业可以发挥自己的优势,使成本效率大大增加。
p.s. 文中提到的gpt3.5服务器(含100张显卡)价格 每月$3万以内
https://techcrunch.com/2023/02/21/openai-foundry-will-let-customers-buy-dedicated-capacity-to-run-its-ai-models/
结合最近的一则新闻来聊聊人工智能云。ChatGPT背后的公司OpenAI最近计划推出“Foundry铸造厂”服务-客户可以租用独有的服务器来运行GPT3.5等服务,Azure AI 以及aws等云服务商也早已提供类似的云AI服务,例如web app开发商可以调用API在Azure的服务器上实现如手写识别的机器学习功能,而不需要依赖设备本身的性能。云服务的普及使得本地电子设备的网络传输速度逐渐成为最重要的性能指标,而大量的如AI对话,游戏渲染等计算任务可以在电力便宜稳定的服务器所在地实现,如有着充沛水电资源的地区。
Foundry的概念在芯片设计制造领域也早已有所运用,意味着芯片的实际代工制造和设计可以分开。例如英伟达Nvidia就是一家纯设计公司,绝大部分的Nvidia图像处理单元GPU芯片的实际生产是在台积电TSMC完成。业务的分离使得各个企业可以发挥自己的优势,使成本效率大大增加。
p.s. 文中提到的gpt3.5服务器(含100张显卡)价格 每月$3万以内
👍1
Forwarded from 互联网密探
Telegraph
大脑分身术:订制自己大脑的AI聊天机器人
与孔子 AI 聊天 今年以来,最轰动的 IT 产品,非 ChatGPT 莫属。 它是一个 AI 聊天机器人,用户可以提出各种问题,它像学者一样回答。 它的原理就是使用算法模型,分析大量语料,得出词语分布的统计规律,然后生成符合人类思维的文本。 根据上面的原理,不难想到,如果所训练的语料都跟某个主题相关,那么就可以生成该主题的聊天机器人,比如法律或者生物学专用聊天机器人。 进一步说,如果所训练的主题都跟某一个人相关,那么不就可以生成该人的聊天机器人? 事实上,已经有人这样干了。2022年9月,谷歌公司的两…
🙊1