全文转载一个好用的本地化ChatGPT4的工具,来自零度解说。原文地址:
GPT4All 一个免费使用、本地运行、具有隐私意识的聊天机器人。无需 GPU 或互联网! – 零度解说 (freedidi.com)
GPT-4 All 免费开源!本地部署,无需GPU、可离线使用!搭建私人专属的 LLM 大语言模型聊天机器人!! | 零度解说 (youtube.com)
官网:GPT4All 建议查看官网,非常详细,下载也比较清晰。
文字教程:
GPT4All
一个免费使用、本地运行、具有隐私意识的聊天机器人。无需 GPU 或互联网。
M1 Mac 上的实时推理延迟
1.Windows 版:【点击下载】
2.MacOS版:【点击下载】
3.Ubuntu版:【点击下载】
4.Github开源地址:【链接直达】
5.本地模型下载:【点击前往】
6.模型推荐:Mistral OpenOrca 【点击下载】或者软件内下载,在GPU的加速下,速度非常快!
GPT4All 的功能
探索 GPT4All 的功能。在您自己的硬件上。
回答有关世界的问题
有任何问题都可以向 GPT4All 询问。
个人写作助理
撰写电子邮件、文档、创意故事、诗歌、歌曲和戏剧。
了解文档
提供您自己的文本文档并接收有关其内容的摘要和答案。
编写代码
获取有关简单编码任务的指导。代码能力正在改进中。
模型下载:
下载建议去官网下载:GPT4All
大小:3.83 GB内存:8GB
密斯特拉尔-7b-openorca.Q4_0.gguf
最佳整体快速聊天模型
- 快速响应
- 基于聊天的模型
- 由 Mistral AI 训练
- 在通过Nomic Atlas管理的 OpenOrca 数据集上进行了微调
- 已获得商业用途许可
大小:6.86 GB内存:16GB
Wizardlm-13b-v1.2.Q4_0.gguf
最佳整体较大型号
- 基于指令
- 给出很长的回复
- 仅用 1k 高质量数据进行微调
- 微软和北京大学培训
- 不能用于商业用途
大小:6.86 GB内存:16GB
努斯-爱马仕-llama2-13b.Q4_0.gguf
非常好的模型
- 基于指令
- 给出很长的回应
- 包含 300,000 条未经审查的说明
- 由 Nous Research 培训
- 不能用于商业用途
大小:6.86 GB内存:16GB
gpt4all-13b-snoozy-q4_0.gguf
整体模型非常好
- 基于指令
- 基于与 Groovy 相同的数据集
- 比 Groovy 慢,但响应质量更高
- 由 Nomic AI 培训
- 不能用于商业用途
大小:1.84 GB内存:4GB
虎鲸-mini-3b-gguf2-q4_0.gguf
具有新颖数据集的新模型的小版本
- 基于指令
- 解释调整后的数据集
- Orca 研究论文数据集构建方法
- 不能用于商业用途
大小:3.83 GB内存:8GB
em_german_mistral_v01.Q4_0.gguf
基于 Mistral 的德语应用模型
- 快速响应
- 基于聊天的模型
- 由埃拉米德培训
- 对德语指令和聊天数据进行了微调
- 已获得商业用途许可