@rascaljs/ai-cli

1.0.6 • Public • Published

@rascaljs/ai-cli

一个结合ollama本地ai模型的前端开发工具。该工具集成了组件和 hooks 生成、提交信息自动化以及代码审查等功能,帮助开发者在保持高代码质量的同时,简化和加速开发流程。

Usage

install

pnpm i @rascaljs/ai-cli -g
ai init
ollama pull <model>
ai setModel -> Choose the model you need

Use command

pnpm ai -h

命令介绍

命令 作用
init 初始化 AI cli
set 设置全局配置键和值。
参数:
key: 配置键
value: 要设置的值
示例:
ai set OLLAMA_MODEL llama2:latest
hooks 添加新的 Hooks。
参数:
name: Hooks 的名称
示例:
ai hooks useCustomHook
get 获取全局配置值。
参数:
key: 要检索的配置键
示例:
ai get username
component [path] 添加新组件。
参数:
name: 组件名称
path: (可选)添加组件的路径
示例:
ai component Button src/components
commit 生成提交信息。AI 将自动为你生成提交信息。
示例:
ai commit
review [path] 生成代码审查信息。AI 将自动为你生成代码审查信息。(默认审查所有暂存文件)path: (可选)单一审查文件路径
示例:
ai review
setHost 设置 Ollama 服务主机。
示例:
ai setHost
setModel 设置 Ollama 服务模型。
示例:
ai setModel
list [available] 显示 Ollama 模型列表。
参数:
available: (可选)显示可用模型
示例:
ai list

list

list指令使用ollama list api获取本地模型。 list available 显示可用模型,通过axios请求https://ollama.com/library使用cherrio解析html获取模型列表数据。

setHost

通过查询 ollama serve 的 PID拿到该 PID 对应的IP地址和端口设置到配置文件中。

Readme

Keywords

Package Sidebar

Install

npm i @rascaljs/ai-cli

Weekly Downloads

0

Version

1.0.6

License

MIT

Unpacked Size

1.17 MB

Total Files

4

Last publish

Collaborators

  • qiqi-meom