一个结合ollama本地ai模型的前端开发工具。该工具集成了组件和 hooks 生成、提交信息自动化以及代码审查等功能,帮助开发者在保持高代码质量的同时,简化和加速开发流程。
pnpm i @rascaljs/ai-cli -g
ai init
ollama pull <model>
ai setModel -> Choose the model you need
pnpm ai -h
命令 | 作用 |
---|---|
init | 初始化 AI cli |
set | 设置全局配置键和值。 参数: key: 配置键 value: 要设置的值 示例: ai set OLLAMA_MODEL llama2:latest
|
hooks | 添加新的 Hooks。 参数: name: Hooks 的名称 示例: ai hooks useCustomHook
|
get | 获取全局配置值。 参数: key: 要检索的配置键 示例: ai get username
|
component [path] | 添加新组件。 参数: name: 组件名称 path: (可选)添加组件的路径 示例: ai component Button src/components
|
commit | 生成提交信息。AI 将自动为你生成提交信息。 示例: ai commit
|
review [path] | 生成代码审查信息。AI 将自动为你生成代码审查信息。(默认审查所有暂存文件)path: (可选)单一审查文件路径 示例: ai review
|
setHost | 设置 Ollama 服务主机。 示例: ai setHost
|
setModel | 设置 Ollama 服务模型。 示例: ai setModel
|
list [available] | 显示 Ollama 模型列表。 参数: available: (可选)显示可用模型 示例: ai list
|
list指令使用ollama list api获取本地模型。 list available 显示可用模型,通过axios请求https://ollama.com/library使用cherrio解析html获取模型列表数据。
通过查询 ollama serve 的 PID拿到该 PID 对应的IP地址和端口设置到配置文件中。