hi,伙伴们,这里是小榆。
我上一篇分享关于 ChatGPT 账号的创建,也是从 0 开始入手,甚至所需要的网络都给大家备好了。
当然,关于 ti 子的使用我并没有写详细的说明文档,也是需要大家去研究一下使用,或者咨询一下作者,也因此劝退了一部分追求便捷的人。
ChatGPT 的热度在一些媒体上可能有些削减,我们虽然知道这回事儿,但也没深入了解它的魅力,想要用好它的确需要投入一定的精力上去,甚至需要用到一些专业技术水准去扩大应用范围。
也需要投入一定的成本,比如说 GPT 3.5 图文模型并不能够满足实际需求,升级到 GPT 4.0 模型来满足更多的应用。
但是,实际在使用过程中,官方环境的使用始终不是很流畅,很容易输出一半就截流了。
咱就来解决这个问题,作为ChatGPT系列的进阶。
那么,咱们将ChatGPT的环境部署到本地,可以非常流程的玩转并且不会有限制,近乎官网的使用环境。
方式呢就是通过 Docker 利用镜像将服务部署到本地的方式,原理也是利用api 的方式,需要用到你的账号或者Token权限。
第一步,我们需要下一个 Docker,一个开源的容器引擎。如果是linux服务器操作 Docker 将会更加简单方便。
但我们此篇将会使用 Windows 环境的 Docker 搭建,方便更多伙伴操作,如果熟悉 Linux 的操作起来更加方便也无需额外的操作。
我们需要到 Docker 的官方地址,选择windows的安装环境
Docker 官网地址: https://www.docker.com
下载之后,直接按照默认的方式进行安装,安装完之后,如果要启动,需要在你本机开启虚拟环境。
如图所示,进入控制面板,进入程序点击启用或关闭Windows功能。
然后勾选Hyper-V,适用于Linux的Windows子系统两个选项。
已经配置配置成功,将会在任务管理器查看虚拟化状态,如果已启用,则配置成功。
如果是已禁用,则需要检查虚拟化状态,通常在cmd命令窗口中输入【systeminfo】命令,会显示 Hyper-V 要求,如果框内的四项都是:是,则表示成功。
如果第二项【固件中已启用虚拟化】为否,则需要进入 Bios 开启,这里不再展开,可自行搜索资料处理。
这里我们进行下一步,正常安装 Docker 之后,我们是可以查看Docker Desktop 工具内的镜像。
当然,Windos 配置Docker工具具备一定的复杂度,期间可能会遇到一系列的问题,例如:分配内存不够、子系统需要升级等等,这些也都可以找到相关的解决方案,这里也不展开分享,有需要可以私聊作者。
安装成功之后,我们可以在cmd里输入[docker –version] 来查看是否成功安装。
接下来,我们可以配置一下 Docker 镜像的加速器,因为跨网传输是很慢的,通常我们会配置一些加速器。
到了这里,Windows环境的Docker安装配置完成了,Windows环境安装Docker的确需要多走几步路,Linux 安装Docker 会更加简单便捷。
接下来我们需要用到开源项目:潘多拉 (Pandora)。
镜像安装:docker pull pengzhile/pandora
这里下载镜像的时候,因为是服务是国外的,我是通过 ti 子 获取 下来的,这里也不用担心,上一篇也给大家准备过工具。
可以看到,我们已经安装好了镜像,接下来输入以下命令进行端口映射启动容器:
docker run -e PANDORA_CLOUD=cloud -e PANDORA_SERVER=0.0.0.0:8899 -p 8899:8899 -d pengzhile/pandora
执行之后:
到了这里,我们已经成功创建好了容器,输入:https://127.0.0.1:8899
就会出现如下图网站,是不是跟官网很像。
当然,这里登录可以使用你自己的ChatGPT 账号,或者Token都可以,进入之后所拥有的ChatGPT 模型跟随你账号的权限。
如果你近期登陆过ChatGPT官网,则你可以完全通过这个链接:
chat.openai.com/api/auth/se… ,通过缓存的方式来获取你的token。
到了这里,已经可以非常流利的使用ChatGPT,并且不会截流,也不会有词量的限制,更不会时不时就封号的风险。
文章来源于互联网:零成本,Docker 搭建本地 ChatGPT