dspy.LM
dspy.LM(model: str, model_type: Literal['chat', 'text'] = 'chat', temperature: float = 0.0, max_tokens: int = 4000, cache: bool = True, cache_in_memory: bool = True, callbacks: Optional[List[BaseCallback]] = None, num_retries: int = 3, provider=None, finetuning_model: Optional[str] = None, launch_kwargs: Optional[dict[str, Any]] = None, train_kwargs: Optional[dict[str, Any]] = None, **kwargs)
基类: BaseLM
支持聊天或文本完成请求的语言模型,用于 DSPy 模块。
创建一个新的语言模型实例,用于 DSPy 模块和程序。
参数
名称 | 类型 | 描述 | 默认值 |
---|---|---|---|
model
|
str
|
要使用的模型。这应该是一个 LiteLLM 支持的、形式为 |
必需 |
model_type
|
Literal['chat', 'text']
|
模型类型,可以是 |
'chat'
|
temperature
|
float
|
生成响应时使用的采样温度。 |
0.0
|
max_tokens
|
int
|
每次响应生成的最大 token 数。 |
4000
|
cache
|
bool
|
是否缓存模型响应以便重用,从而提高性能并降低成本。 |
True
|
cache_in_memory
|
已弃用
|
启用额外的基于内存 LRU 的缓存。 |
True
|
callbacks
|
Optional[List[BaseCallback]]
|
在每次请求之前和之后运行的回调函数列表。 |
None
|
num_retries
|
int
|
如果请求因网络错误、速率限制等暂时性原因失败,重试的次数。请求将采用指数退避策略重试。 |
3
|
provider
|
要使用的提供程序。如果未指定,提供程序将从模型中推断。 |
None
|
|
finetuning_model
|
Optional[str]
|
用于微调的模型。在某些提供程序中,可用于微调的模型与可用于推理的模型不同。 |
None
|
源代码位于 dspy/clients/lm.py
函数
__call__(prompt=None, messages=None, **kwargs)
acall(prompt=None, messages=None, **kwargs)
async
aforward(prompt=None, messages=None, **kwargs)
async
源代码位于 dspy/clients/lm.py
copy(**kwargs)
返回语言模型的副本,可能包含更新的参数。