内网穿透实现公网访问自己搭建的Ollma架构的AI服务器

[2024年5月9号我发布一个博文关于搭建本地AI服务器的博文][https://blog.csdn.net/weixin_41905135/article/details/138588043?spm=1001.2014.3001.5501],今天我们内网穿透实现从公网访问我的本地AI服务器,这样随时可以与外界的朋友一起分享我的免费的AI服务器。

我的系统是macOS Sonoma

1.1 本地安装配置cpolar

macos安装cpolar可通过homebrew包管理器进行安装,无需手动下载安装包。

  • 安装homebrew

Homebrew是一款Mac OS下的套件管理工具,拥有安装、卸载、更新、查看、搜索等很多实用的功能。

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

Bash

Copy

  • 通过Homebrew包管理器安装cpolar
brew tap probezy/core && brew install cpolar

Bash

Copy

  • token认证

登录cpolar官网后台,点击左侧的验证,查看自己的认证token,之后将token贴在命令行里

cpolar authtoken xxxxxxx

Bash

Copy

内网穿透实现公网访问自己搭建的Ollma架构的AI服务器-LMLPHP

  • 安装服务
sudo cpolar service install

Bash

Copy

  • 启动服务
sudo cpolar service start

Bash

Copy

  • 登录cpolar web UI管理界面

在浏览器上访问本地9200端口【http://127.0.0.1:9200/】,使用cpolar账号登录。

内网穿透实现公网访问自己搭建的Ollma架构的AI服务器-LMLPHP

登录成功后,点击左侧仪表盘的隧道管理——隧道列表,可以看到两条样例隧道(可自行编辑或者删减)

  • ssh隧道:指向本地22端口,tcp协议
  • website隧道:指向本地8080端口,tcp协议

内网穿透实现公网访问自己搭建的Ollma架构的AI服务器-LMLPHP

1.2 创建隧道

点击左侧仪表盘的隧道管理——创建隧道,我们来创建一条隧道,将在本地80端口下的web服务映射到公网:

  • 隧道名称:可自定义,注意不要与已有隧道名称重复
  • 协议:http协议
  • 本地地址:10084
  • 域名类型:免费选择随机域名
  • 地区:选择China Top

点击创建

内网穿透实现公网访问自己搭建的Ollma架构的AI服务器-LMLPHP

提示隧道创建成功后,页面自动跳转至隧道列表,可以看到刚刚创建成功的tunnel-1隧道,状态active,表示为正常在线,注意无需再次点击启动。

内网穿透实现公网访问自己搭建的Ollma架构的AI服务器-LMLPHP

点击左侧仪表盘的状态——在线隧道列表,可以看到tunnel-1隧道已经有生成了相应的公网地址,一个http协议,一个https协议(免去配置ssl证书的繁琐步骤),均可以访问到本地web服务,复制公网地址。

内网穿透实现公网访问自己搭建的Ollma架构的AI服务器-LMLPHP

1.3 测试访问公网地址

在浏览器上访问搭建的Ollama大模型AI服务器地址,测试访问成功,实现公网访问本地AI服务。

内网穿透实现公网访问自己搭建的Ollma架构的AI服务器-LMLPHP

2. 配置固定二级子域名

由于使用免费的cpolar所生成的公网地址为随机临时地址,24小时内会发生变化,对于需要长期访问的用户不是很方便。为此,我们可以为其配置一个容易记忆的固定二级子域名,同时提高带宽,实现更为流畅的访问。

备注:本人没有升级套餐,感兴趣的可以自己选择。

05-24 09:55