要使用 Gomoon,你只需要在 Gomoon 上配置好你的模型引擎,就可以快速让你的助手帮你回答问题,提高工作和学习效率。又或者...只是给你讲个笑话😋。
它同时支持:
- 创建属于自己的助手,选择多种大模型引擎(支持实时切换)
- 快速问答和连续的对话以及存取对话历史
- 对话可以复制,暂停 ⏸,以及重新生成,方便你的使用。更厉害的是你还可以直接编辑答案,让后续的对话更加的智能
- 快速唤起,快捷键,置顶等功能,例如你可以使用
Ctrl + G
快速唤起 Gomoon,双击复制(Command + C +C
)快速问答 - 发送文件,图片和URL解析,联网查询,朗读等快捷功能
- 使用记忆胶囊储存你的本地知识库,更加安全可靠,最重要的是完全免费
- 下载对话记录,助手一键导入导出, 把你觉得实用的助手分享给你的朋友
- 在 Gomoon 划选一段文本,可以快速进行查找和朗读
- 在任何地方滑选字段后,可以使用召唤 Gomoon 快捷键快速将选中字段粘贴到输入框内
- 合集功能,用来记单词,记知识点,整理方案,等等!
更多实用的功能可以询问 Gomoon 中自带的『Gomoon使用指南』 记忆胶囊来探索!
模型类型 | 模型名称 |
---|---|
ChatGPT | GPT3,GPT4 Mini,GPT4,支持 OpenAI API 模式的模型 |
文心 | 文心3.5,文心4.0,文心128k |
DeepSeek | DeepSeek Coder 和 DeepSeek Coder 最新版本 |
千问 | 千问Turbo,千问Plus,千问Max |
Gemini | Gemini Pro 和 Gemini 自定义模型 |
Kimi | Kimi 8k,Kimi 32k,Kimi 128k |
Llama | node-llama-cpp 支持的所有模型 |
Ollama | ollama 支持的所有模型 |
Claude | Claude 最新的 Haiku,Opus,Sonnet 模型 |
自定义模型 | 任何支持 OpenAI 接口的模型,如DeepSeek,豆包,Kimi,讯飞星火等 |
由于 ChatGPT 国内访问不易,这里推荐一下 ChatAnywhere,价格十分实惠的国内 ChatGPT 提供商。
Tips:mac 用户由于没有上架 mac 应用市场,需要在『访达→应用』中找到 Gomoon 右键打开并二次确认才可以使用。『Command + C +C 双击复制』和『发送文件』功能需要用户允许 Gomoon 的权限请求,并且重启应用。
使用过很多大模型应用,但是他们总是局限于一个网页端,我想让他离我近一些,更好用一些。
寻找了很多应用,我还是没有找到适合自己的,于是我选择做一个。Gomoon 就诞生了。
Gomoon 的名字来源于 赛博朋克:边缘行者 的中 Lucy 的愿望:『去月球』。希望 Gomoon 能够帮助你去往那颗属于自己的月球。
如果你有任何问题或者想交流一下使用体验,分享自己的助手,欢迎加入QQ群:758015092(后续 Gomoon 更新通知也会发布在群内)。
感谢以下开发者的支持:
贡献者 | 贡献内容 |
---|---|
协助完成 mac 端 x86_64 架构的适配 | |
支持通义千问模型 |
node 版本要求:v20.11.1 及以上 (开启Corepack,终端执行:corepack enable
)
yarn 版本要求:v1.2.22 (终端执行: yarn
)
安装过程中会出现 prebuild-install
时间过长的情况,原因是安装会去 github 拉取文件,解决:暂时设置终端代理:
export https_proxy=http://127.0.0.1:7890 http_proxy=http://127.0.0.1:7890 all_proxy=socks5://127.0.0.1:7890
(其中端口 7890 根据实际情况更换)
由于仓库大小限制,默认的资源没有上传到 Github,开发者可以在本地安装的 Gomoon 中找到 resources
文件夹(mac用户可以通过 Finder,右键点击应用,选择“显示包内容”来浏览到 Contents
目录,resource
文件夹存储于 Contents/Resource/app.asar.unpacked/resources
; windows系统中,这个路径通常是在用户数据资源内,例如 C:\Users\Lenovo\AppData\Local\Programs\gomoon\resources\app.asar.unpacked\resources
),将里面的资源文件复制到项目根目录的 resources
文件夹中。
resources
文件夹结构如下:
resources/
├── assistants.json # 默认助手配置文件
├── eventTracker # 事件追踪文件,根据系统不同也可能为 `eventTracker.exe` 或者 `eventTracker-x86`
├── icon.png # 应用图标
├── [email protected] # 应用图标
├── lines.json # 默认标题栏配置文件
├── memories.json # 默认记忆文件
└── models # 模型配置文件
└── Xenova
└── jina-embeddings-v2-base-zh
└── ....
同时也可以使用云盘下载
后续就可以正常启动项目进行开发了。
- 确保你的显卡支持 CUDA,并且已经安装了 CUDA 驱动和 CUDA Toolkit(版本12以上)
- 克隆该项目,获取 resource 文件,并放在项目根目录
- 在根目录执行
yarn
(确保电脑已经安装 node 和 全局依赖 yarn),安装项目所需依赖 - 在根目录执行
npx --no node-llama-cpp download --cuda
安装node-llama-cpp
CUDA 支持依赖 - 如需修改显卡使用大小,可以修改
src/lib/utils.ts
中ChatLlamaCpp
的gpuLayers
参数 - 执行
yarn dev
测试效果没有问题后,执行yarn build
打包项目,在 dist 目录可以看到setup.exe
软件安装文件