MistralCausalLM
类keras_hub.models.MistralCausalLM(backbone, preprocessor=None, **kwargs)
用于因果语言建模的端到端 Mistral 模型。
因果语言模型 (LM) 根据先前的词元 (token) 预测下一个词元。此任务设置可用于在纯文本输入上对模型进行无监督训练,或用于自回归地生成与训练数据相似的纯文本。只需调用 fit()
,此任务即可用于预训练或微调 GPT-NeoX 模型。
此模型有一个 generate()
方法,可以根据提示生成文本。所使用的生成策略由 compile()
上的一个额外 sampler
参数控制。您可以使用不同的 keras_hub.samplers
对象重新编译模型以控制生成过程。默认情况下,将使用 "top_k"
采样。
参数
keras_hub.models.MistralBackbone
实例。keras_hub.models.MistralCausalLMPreprocessor
或 None
。如果为 None
,此模型将不应用预处理,输入应在调用模型前进行预处理。from_preset
方法MistralCausalLM.from_preset(preset, load_weights=True, **kwargs)
从模型预设实例化一个 keras_hub.models.Task
。
预设是一个包含配置、权重和其他文件资产的目录,用于保存和加载预训练模型。preset
可以作为以下之一传递:
'bert_base_en'
'kaggle://user/bert/keras/bert_base_en'
'hf://user/bert_base_en'
'./bert_base_en'
对于任何 Task
子类,您都可以运行 cls.presets.keys()
来列出该类上所有可用的内置预设。
可以通过以下两种方式之一调用此构造函数。可以从特定于任务的基类(如 keras_hub.models.CausalLM.from_preset()
)调用,也可以从模型类(如 keras_hub.models.BertTextClassifier.from_preset()
)调用。如果从基类调用,返回对象的子类将根据预设目录中的配置进行推断。
参数
True
,已保存的权重将被加载到模型架构中。如果为 False
,所有权重将被随机初始化。示例
# Load a Gemma generative task.
causal_lm = keras_hub.models.CausalLM.from_preset(
"gemma_2b_en",
)
# Load a Bert classification task.
model = keras_hub.models.TextClassifier.from_preset(
"bert_base_en",
num_classes=2,
)
预设 | 参数 | 描述 |
---|---|---|
mistral_7b_en | 72.4 亿 | Mistral 7B 基础模型 |
mistral_instruct_7b_en | 72.4 亿 | Mistral 7B 指令模型 |
mistral_0.2_instruct_7b_en | 72.4 亿 | Mistral 7B 指令模型 0.2 版 |
generate
方法MistralCausalLM.generate(
inputs, max_length=None, stop_token_ids="auto", strip_prompt=False
)
根据提示 inputs
生成文本。
此方法根据给定的 inputs
生成文本。用于生成的采样方法可以通过 compile()
方法设置。
如果 inputs
是一个 tf.data.Dataset
,输出将“逐批”生成并连接起来。否则,所有输入将被视为单个批次处理。
如果模型附加了 preprocessor
,则 inputs
将在 generate()
函数内部进行预处理,并且应与 preprocessor
层所期望的结构相匹配(通常是原始字符串)。如果未附加 preprocessor
,则输入应与 backbone
所期望的结构相匹配。请参阅上面的用法示例,以了解每种情况的演示。
参数
tf.data.Dataset
。如果模型附加了 preprocessor
,inputs
应与 preprocessor
层所期望的结构相匹配。如果未附加 preprocessor
,inputs
应与 backbone
模型所期望的结构相匹配。preprocessor
配置的最大 sequence_length
。如果 preprocessor
为 None
,inputs
应被填充到所需的最大长度,并且此参数将被忽略。None
、"auto" 或词元 ID 的元组。默认为 "auto",它会使用 preprocessor.tokenizer.end_token_id
。未指定预处理器将产生错误。`None` 表示在生成 max_length
个词元后停止。您也可以指定一个模型应停止生成的词元 ID 列表。请注意,词元序列中的每个词元都将被解释为一个停止词元,不支持多词元停止序列。backbone
属性keras_hub.models.MistralCausalLM.backbone
一个具有核心架构的 keras_hub.models.Backbone
模型。
preprocessor
属性keras_hub.models.MistralCausalLM.preprocessor
用于预处理输入的 keras_hub.models.Preprocessor
层。