调用大模型
命令说明
调用大模型回答问题或对自然语言进行处理
命令原型
LLM.GeneralChat({"name":"","model":"","base_url":"","api_key":""},"","","",30,0.7,4000,"text",0)
命令参数
| 参数 | 必选 | 类型 | 默认值 | 说明 |
|---|---|---|---|---|
| config | True | object | {"name":"","model":"","base_url":"","api_key":""} | 通过模型配置,填写模型名称,模型访问地址,API密钥 |
| content | true | string | "" | 用户提示词 |
| prompt | false | string | "" | 系统提示词 |
| file_path | false | string | "" | 图片路径 (JPEG/PNG/BMP,最大10MB,部分模型不一定三种格式图片都支持) |
| timeout | false | int | 30s | 超时时间(秒) |
| temperature | false | int | 0.7 | 温度 |
| max_output_length | false | int | 4000 | 最大输出长度(token) |
| format | false | object | 纯文本、JSON格式 | 选择大模型返回内容的格式 |
| max_retry_count | false | int | 3 | 当大模型返回错误或返回结构不符合输出格式时,会重新将上下文内容发送给大模型,让大模型重新输出,最大重试次数为3 |
运行实例
/***************************输入文本**********************************
命令原型:
LLM.GeneralChat({"name":"","model":"","base_url":"","api_key":""},"","","",30,0.7,4000,"text",0)
入参:
config -- 通过模型配置,填写模型名称,模型访问地址,API密钥
content-- 用户提示词
prompt -- 系统提示词
file_path -- 图片路径 (JPEG/PNG/BMP,最大10MB,部分模型不一定三种格式图片都支持)
timeout -- 超时时间(秒)
temperature -- 温度
max_output_length -- 最大输出长度(token)
format -- 大模型返回内容的格式
max_retry_count -- 失败重试次数
出参:
sRet--命令运行的结果赋值给此变量
注意事项:
删除大模型的环境变量配置文件或在大模型配置管理界面中删除已调用的大模型,命令将无法正常运行
*********************************************************************/
选择大模型配置用法:
LLM.GeneralChat({"name":"deepseek"},"帮我将图片里的内容翻译成中文","你是一个翻译官,拥有很专业的翻译知识",'''C:\Users\Administrator\Downloads\1280X1280.PNG''',30,0.7,4000,"text",0)
自定义大模型用法:
LLM.GeneralChat({"model":"openai/deepseek-chat","api_key":"123456789","base_url":"https://api.deepseek.com"},""帮我将图片里的内容翻译成中文","你是一个翻译官,拥有很专业的翻译知识",'''C:\Users\Administrator\Downloads\1280X1280.PNG''',30,0.7,4000,"text",0)
可视化样例
