3.5 LLM实现金融文本匹配
基于Zero-shot方式实现LLM文本匹配¶
学习目标¶
- 掌握Zero-shot方式下prompt的设计方式
- 掌握利用LLM实现文本匹配的代码
1 LLM信息抽取任务介绍¶
- 首先,我们构造几个短文本对:
1.('股票市场今日大涨,投资者乐观。', '持续上涨的市场让投资者感到满意。'),
2.('油价大幅下跌,能源公司面临挑战。', '未来智能城市的建设趋势愈发明显。'),
3.('利率上升,影响房地产市场。', '高利率对房地产有一定冲击。'),
- 我们期望模型能够帮我们识别出这 3 对句子中,哪几对描述的是相似的语言。
- 我们期望模型输出的结果为:
['相似', '不相似', '相似']
2 Prompt设计¶
-
在该任务的 prompt 设计中,我们主要考虑 2 点:
-
需要向模型解释什么叫作「文本匹配任务」
-
需要让模型按照我们指定的格式输出
-
为了让模型知道什么叫做「文本匹配任务」,我们借用 Incontext Learning 的方式,先给模型展示几个正确的例子:
-
```
User: 句子一: 公司ABC发布了季度财报,显示盈利增长。\n句子二: 财报披露,公司ABC利润上升 Bot: 是 User:句子一: 黄金价格下跌,投资者抛售。\n句子二: 外汇市场交易额创下新高 Bot: 不是 ... ```
其中,
User代表我们输入给模型的句子,Bot代表模型的回复内容。注意:上述例子中
Bot的部分也是由人工输入的,其目的是希望看到在看到类似User中的句子时,模型应当做出类似Bot的回答。
3 文本匹配任务代码实现¶
- 本章节使用的模型为ChatGLM-6B,参数参数较大(6B),下载到本地大概需要 12G+ 的磁盘空间,请确保磁盘有充足的空间。此外,加载模型大概需要 13G 左右的显存,如果您显存不够,可以进行模型量化加载以缩小模型成本。
- 本次文本匹配任务实现的主要过程:
- 构造prompt
- 实现文本匹配
- 代码存放位置:/Users/***/PycharmProjects/llm/zero-shot/llm_text_matching.py
- llm_information_extraction.py脚本中包含三个函数:init_prompts()和inference()
3.1 导入必备的工具包¶
from rich import print
from transformers import AutoTokenizer, AutoModel
import os
# 提供相似,不相似的语义匹配例子
examples = {
'是': [
('公司ABC发布了季度财报,显示盈利增长。', '财报披露,公司ABC利润上升。'),
],
'不是': [
('黄金价格下跌,投资者抛售。', '外汇市场交易额创下新高。'),
('央行降息,刺激经济增长。', '新能源技术的创新。')
]
}
3.2 构建init_prompts()函数¶
- 目的:进行prompt设计
- 具体代码实现:
def init_prompts():
"""
初始化前置prompt,便于模型做 incontext learning。
"""
pre_history = [
(
'现在你需要帮助我完成文本匹配任务,当我给你两个句子时,你需要回答我这两句话语义是否相似。只需要回答是否相似,不要做多余的回答。',
'好的,我将只回答”是“或”不是“。'
)
]
for key, sentence_pairs in examples.items():
for sentence_pair in sentence_pairs:
sentence1, sentence2 = sentence_pair
pre_history.append((
f'句子一: {sentence1}\n句子二: {sentence2}\n上面两句话是相似的语义吗?',
key
))
return {'pre_history': pre_history}
3.3 构建inference()函数¶
- 目的:模型实现信息匹配
- 具体代码实现
def inference(
sentence_pairs: list,
custom_settings: dict
):
"""
推理函数。
Args:
model (transformers.AutoModel): Language Model 模型。
sentence_pairs (List[str]): 待推理的句子对。
custom_settings (dict): 初始设定,包含人为给定的 few-shot example。
"""
for sentence_pair in sentence_pairs:
sentence1, sentence2 = sentence_pair
sentence_with_prompt = f'句子一: {sentence1}\n句子二: {sentence2}\n上面两句话是相似的语义吗?'
response, history = model.chat(tokenizer, sentence_with_prompt, history=custom_settings['pre_history'])
print(f'>>> [bold bright_red]sentence: {sentence_pair}')
print(f'>>> [bold bright_green]inference answer: {response}')
# print(history)
- 代码调用
if __name__ == '__main__':
#device = 'cuda:0'
device = 'cpu'
tokenizer = AutoTokenizer.from_pretrained("./ChatGLM-6B/THUDM/chatglm-6b",
trust_remote_code=True)
#model = AutoModel.from_pretrained("./ChatGLM-6B/THUDM/chatglm-6b",
# trust_remote_code=True).half().cuda()
model = AutoModel.from_pretrained("./ChatGLM-6B/THUDM/chatglm-6b",
trust_remote_code=True).float()
model.to(device)
sentence_pairs = [
('股票市场今日大涨,投资者乐观。', '持续上涨的市场让投资者感到满意。'),
('油价大幅下跌,能源公司面临挑战。', '未来智能城市的建设趋势愈发明显。'),
('利率上升,影响房地产市场。', '高利率对房地产有一定冲击。'),
]
custom_settings = init_prompts()
inference(
sentence_pairs,
custom_settings
)
- 打印结果:

小结总结¶
本章节主要介绍了如何利用Few-Shot方式基于ChatGLM-6B实现文本匹配任务。