llm_chat()

阅读(5) 标签: 模型, 多轮对话, 追问,

描述:

针对指定的模型进行对话。

语法:

llm_chat(fd,question,[url])

备注:

LLMCli外部库函数,外部库的使用请参考《外部库使用指南》。

若使用当前模型的答案与提问关联性不大,请尝试其他的模型。

参数:

fd

LLM连接对象。

question

字符串,需要提问的问题内容

url

参考语料来源,可以是URL网址或本地文本文件的绝对路径。

选项:

@s

当前对话不参与上下文,即进行单次对话,缺省进行多轮对话。

@r

清除历史对话,重新开始新的对话。

返回值:

字符串

示例:

 

A

 

1

=llm_open("http://localhost:11434/api/chat","sk_adfsdfdf", "deepseek-r1:1.5b")

非流模式连接deepseek模型。

2

=llm_chat(A1,"简单介绍一下集算器函数A.sort(),不需要举例")

 

3

=llm_chat@s(A1,"请介绍下无参数的T.create()函数,并举例")

进行单次对话,与上下文无关。

4

=llm_chat(A1,"此函数的详细语法","http://d.raqsoft.com.cn:6999/esproc/func/asortxloc.html")

A2的问题进行追问,与A3无关,并且指定参考语料来源。

5

请用集算器SPL脚本实现:A.txt中有一些数字,用空格分隔,现在需要按照数字从高到低排序,并且输出到test.txt,其中A.txt内容如下:80 80 70 60 85 75 95 60 85 70 75 65

 

6

=llm_chat@r(A1,A5)

清除历史对话,重新开始新的对话。

7

>llm_close(A1)

关闭连接。