This media is not supported in your browser
VIEW IN TELEGRAM
StableDiffusion的Photoshop官方插件将在下下个版本上线。
据报道,本周Stablility AI本周再次获得一笔融资,估值约40亿美元。
据报道,本周Stablility AI本周再次获得一笔融资,估值约40亿美元。
👍34❤3🥰1
网友在32G内存的Windows(WSL2)笔记本上用CPU跑成功LLaMA 30B,但很慢,大约1秒1个token。
30B的能力是明显不如ChatGPT的。估计65B会好一些,65B需要大约40G内存。
观点:以后去中心化的本地运行的AI是非常有希望的。能力很强的中心化的AI还会存在,但不会统治所有场景。
🧲 项目地址 https://github.com/ggerganov/llama.cpp
🧲 https://twitter.com/river_leaves/status/1634864358013698048?s=46&t=J5tuuFL7Z3qsWetu4lBIXg
30B的能力是明显不如ChatGPT的。估计65B会好一些,65B需要大约40G内存。
观点:以后去中心化的本地运行的AI是非常有希望的。能力很强的中心化的AI还会存在,但不会统治所有场景。
🧲 项目地址 https://github.com/ggerganov/llama.cpp
🧲 https://twitter.com/river_leaves/status/1634864358013698048?s=46&t=J5tuuFL7Z3qsWetu4lBIXg
👍37🔥2🥰2❤1
generative ai 🗨️:
• text-to-gif (T2G)
• text-to-3D (T2D)
• text-to-text (T2T)
• text-to-NFT (T2N)
• text-to-code (T2C)
• text-to-image (T2I)
• text-to-audio (T2S)
• text-to-video (T2V)
• text-to-music (T2M)
• text-to-motion (T2Mo)
• brain-to-text (B2T)
• image-to-text (I2T)
• speech-to-text (S2T)
• audio-to-audio (A2A)
• tweet-to-image (Tt2I)
• text-to-gif (T2G)
• text-to-3D (T2D)
• text-to-text (T2T)
• text-to-NFT (T2N)
• text-to-code (T2C)
• text-to-image (T2I)
• text-to-audio (T2S)
• text-to-video (T2V)
• text-to-music (T2M)
• text-to-motion (T2Mo)
• brain-to-text (B2T)
• image-to-text (I2T)
• speech-to-text (S2T)
• audio-to-audio (A2A)
• tweet-to-image (Tt2I)
👏16👍4❤1🥰1
Media is too big
VIEW IN TELEGRAM
可口可乐最新广告,用到了 stable diffusion AI,配合3D技术,上一个如此级别商用的还是麦当劳还是肯德基的用 Nerf 三维重建技术
👍76🤩3❤1🥰1👏1
在电脑上用独显跑LLaMA-4bit,速度很快。
6G显存可跑7b,8-16G显存可跑13b,24G显存可跑30B。消费级显卡完全无压力,每token可以到几十毫秒级别。
项目:🧲 https://github.com/oobabooga/text-generation-webui/wiki/LLaMA-model
模型: 🧲 https://huggingface.co/decapoda-research
6G显存可跑7b,8-16G显存可跑13b,24G显存可跑30B。消费级显卡完全无压力,每token可以到几十毫秒级别。
项目:🧲 https://github.com/oobabooga/text-generation-webui/wiki/LLaMA-model
模型: 🧲 https://huggingface.co/decapoda-research
👍14🤯4🥰1
Forwarded from AI News
早晨起来大模型的新闻又炸了
斯坦福微调了 7B LLaMA 模型,只用了 52K 的数据,达到了和达芬奇003类似的效果,并且可以跑在消费级设备上,比如树莓派。 https://github.com/tatsu-lab/stanford_alpaca
斯坦福微调了 7B LLaMA 模型,只用了 52K 的数据,达到了和达芬奇003类似的效果,并且可以跑在消费级设备上,比如树莓派。 https://github.com/tatsu-lab/stanford_alpaca
GitHub
GitHub - tatsu-lab/stanford_alpaca: Code and documentation to train Stanford's Alpaca models, and generate the data.
Code and documentation to train Stanford's Alpaca models, and generate the data. - tatsu-lab/stanford_alpaca
👍35🔥4🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
20年后,科幻电影中的画面来了
工作原理:人类移动手指 -> 网络摄像头记录手指 -> AI(谷歌的MediaPipe)识别手指和手势 -> 人类与网络元素交互。
👉🏻 项目地址
👉🏻 体验地址
--- 来源
工作原理:人类移动手指 -> 网络摄像头记录手指 -> AI(谷歌的MediaPipe)识别手指和手势 -> 人类与网络元素交互。
👉🏻 项目地址
👉🏻 体验地址
--- 来源
🤯27👍9🥰1
👍32🤯11🔥2🥰1
Media is too big
VIEW IN TELEGRAM
GPT-4 发布
相关介绍文章已充斥全网,也可 这里 快速了解新特性。
🥁 这里说一些局限:
- GPT-4 训练数据截止到 2021 年 9 月(与GPT-3差不多)
- "一本正经胡说八道"的问题依然存在,但GPT-4 比 GPT-3.5 优化提升了 40%。
- 虽是多模态,但目前只支持纯文本请求(图像输入还在测试阶段)
- 输入输出不同价格,比之前更贵了。
🏂 抢先体验:
- ChatGPT Plus 订阅
- Poe 中已经集成了GPT-4(需付费)
- 申请 GPT-4 API waitlist (gpt-4-0314模型)
⛳️ 参考资料
- GPT-4论文
- 官方发布视频回播
- 官方介绍文档
相关介绍文章已充斥全网,也可 这里 快速了解新特性。
🥁 这里说一些局限:
- GPT-4 训练数据截止到 2021 年 9 月(与GPT-3差不多)
- "一本正经胡说八道"的问题依然存在,但GPT-4 比 GPT-3.5 优化提升了 40%。
- 虽是多模态,但目前只支持纯文本请求(图像输入还在测试阶段)
- 输入输出不同价格,比之前更贵了。
🏂 抢先体验:
- ChatGPT Plus 订阅
- Poe 中已经集成了GPT-4(需付费)
- 申请 GPT-4 API waitlist (gpt-4-0314模型)
⛳️ 参考资料
- GPT-4论文
- 官方发布视频回播
- 官方介绍文档
👍19❤2🔥2🥰1👏1
6个率先基于GPT-4发布的产品 | 案例
1、 Duolingo Max
GPT-4改进了Duolingo上的对话
2、 Be My Eyes
使用GPT-4来改善视觉辅助功能
3、 Stripe
利用GPT-4来简化用户体验并打击欺诈
4、 摩根士丹利
财富管理部署GPT-4来组织其庞大的知识库
5、 可汗学院
将GPT-4集成为每个学生的定制导师
6、 冰岛政府
利用GPT-4来保护其语言
1、 Duolingo Max
GPT-4改进了Duolingo上的对话
2、 Be My Eyes
使用GPT-4来改善视觉辅助功能
3、 Stripe
利用GPT-4来简化用户体验并打击欺诈
4、 摩根士丹利
财富管理部署GPT-4来组织其庞大的知识库
5、 可汗学院
将GPT-4集成为每个学生的定制导师
6、 冰岛政府
利用GPT-4来保护其语言
👍33🤯8❤4🥰2