AI界的提词器,极空间部署AI提示词优化工具,助力AI内容生成
NAS、键盘、路由器······年轻就要多折腾,我是爱折腾的熊猫,今天又给大家分享最近折腾的内容了,关注是对我最大的支持,阿里嘎多
引言
作为当前互联网的热门话题,AI没有使用门槛,也不需要高昂的费用,但普通人真的会用AI吗?相信大部分人都是简单的问答的方式去使用AI,但实际上AI拥有非常强的发散思维,如果不加以预设限制,那么得到的结果大概率会偏离你想要得到的内容,亦或者不是那么满意。
那么如何设置预设就成了关键,这时候就可以用到这个项目——Prompt Optimizer,一款AI提示词项目,他能通过提示词帮你提高AI的输出质量,支持原内容和优化内容的对比,让你能直接看到优化后的效果。
项目预览
众所周知,极空间可以直接部署基于本地的deepseek大模型,熊猫使用的是Z423旗舰版,在使用7b的deepseek大模型时,CPU的占用在50%左右,内存占用为23%。生成速度还行,也能看到深度思考的内容,作为个人使用,平时用来作为本地的AI完全够用了。
当然,Z423旗舰版的性能也可以部署14b的模型,不过占用会更高,作为个人NAS其实没必要了。除了Z423旗舰版,像是Z4Pro、Z4Pro+部署7b的模型其实也都不会有太大的占用,毕竟N305处理器跑跑简单的AI还是没什么问题的。
Prompt Optimizer的界面非常通俗易懂,左边是系统提示词,右边则是输出测试内容,顶部能看到功能提示词、历史记录、模型管理以及数据管理。
在左侧输入我们需要做的事,例如我现在要让AI作为一名值得买产品推荐员,输入需求点击优化,AI会帮我们自动给到相关的提示词。
输出的内容还是蛮多的,支持直接复制到其他AI项目中使用,也可以在右边输入测试内容先行进行预设测试,同时能看到直接输出的内容与通过优化之后输出的内容。
优化之后的内容的确比原本的内容好很多,在功能提示词中我们还可以编辑优化词的模版以及迭代优化模板,如果觉得优化内容不够好还能继续进行二次优化。
项目部署
Prompt Optimizer的部署并不难,可以用compose也可以直接部署,这里为了方便变量的设置,咱们用极空间的compose进行部署。
在compose中输入代码,其中变量中的API Key以及地址和模型根据自身的情况更改,端口也记得不要和已有端口冲突。
services:
prompt-optimizer:
image: linshen/prompt-optimizer:latest
container_name: prompt-optimizer
restart: unless-stopped
ports:
- "8081:80" # 修改端口映射
environment:
- VITE_CUSTOM_API_KEY=your_custom_api_key
- VITE_CUSTOM_API_BASE_URL=your_custom_api_base_url
- VITE_CUSTOM_API_MODEL=your_custom_model_name
确认好无误之后创建项目即可,这时候就能直接通过极空间的远程访问直接访问项目了,非常简单。
总结
通过AI来优化提示词,随后再用提示词来生成AI内容,感觉有点套娃的意思,不过整体效果还是非常不错的,可通过多轮的优化来逐步达到自己理想的AI内容。
以上便是本次分享的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞收藏,最后也希望能得到你的关注,咱们下期见!