模型推理
现在,我们的模型应该能够针对输入的任何短句生成类似尤达大师风格的句子作为回应。
该模型要求其输入格式规范。我们需要构建一个 “消息” 列表 —— 在这个案例中,就是来自用户的消息 —— 并通过提示表明轮到模型进行输出,以促使其做出回答。
add_generation_prompt参数的作用正在于此:它会在对话的末尾添加<|assistant|>,这样模型就能预测下一个词,并持续预测直到生成<|endoftext|>标记为止。
下面的辅助函数会按照对话格式组合一条消息,并对其应用聊天模板,同时在末尾附加生成提示。
def gen_prompt(tokenizer, sentence):converted_sample