离线大模型联网的N个插件尝试

前戏 今天我们一起看下几个大模型联网插件, 让你的离线大模型打通实时联网能力任督二脉。 架构介绍 一个典型的 RAG 流程图如下: 在这个流程中有一个联网查询过程, 插件通过调用实时爬虫将搜索到的文档丢给大模型, 然后总结输出回答。 离线大模型部署 https://ollama.com/ 联网插件哪家强? Page Assist Page Assist 是一款专为开发者设计的开源浏览器扩展工具,旨在通过简单的配置和操作,让用户直接调用本地或离线运行的大模型。它支持多种主流浏览器(如 Chrome、Edge、Firefox 等),并提供了丰富的插件功能,帮助用户实现跨网页交互、文档解析、搜索管理等功能。 本文使用 Edge 浏览器演示, 毕竟不用使用魔法就能安装。 安装以后, 我们在右上角的配置设置选择语言模式为中文, 然后配置本地的 ollama 地址: 接着配置联网插件, 这里我们使用百度。 问下大模型 page assist 是什么? Open WebUI https://github.com/open-webui/open-webui 功能特点 🎉 无缝安装:支持通过 Docker 或 Kubernetes(kubectl、kustomize 或 helm)进行安装,支持 :ollama 和 :cuda 标签的镜像。 🔗 Ollama/OpenAI API 集成:无缝集成 OpenAI 兼容 API,支持与 LMStudio、GroqCloud、Mistral、OpenRouter 等更多服务的连接。 🛡️ 细粒度权限与用户组:管理员可以创建详细的用户角色和权限,确保安全的用户环境。 📱 响应式设计:支持桌面、笔记本和移动设备。 📱 进阶 Web 应用(PWA):支持移动端的离线访问,提供类似原生应用的体验。 ...

二月 18, 2025 · 2 分钟 · 291 字 · zhu733756