shap.models.TeacherForcing

class shap.models.TeacherForcing(model, tokenizer=None, similarity_model=None, similarity_tokenizer=None, batch_size=128, device=None)

使用 Teacher Forcing 技术为输出文本解释算法生成分数(对数几率)。

此类支持为 Transformer 模型以及函数生成对数几率。在模型无关的情况下(模型是函数),它需要 similarity_model 和 similarity_tokenizer 来近似模型生成的目标句子的对数几率分数。

__init__(model, tokenizer=None, similarity_model=None, similarity_tokenizer=None, batch_size=128, device=None)

从给定的文本生成模型构建 Teacher Forcing 模型。

参数:
model: object 或 function

任何预训练 Transformer 模型对象或要解释的函数。

tokenizer: object

分词器对象 (PreTrainedTokenizer/PreTrainedTokenizerFast),用于标记源句子和目标句子。

similarity_model: object

预训练 Transformer 模型对象,用于模型无关场景中以近似对数几率。

similarity_tokenizer: object

分词器对象 (PreTrainedTokenizer/PreTrainedTokenizerFast),用于模型无关场景中标记句子。

batch_size: int

模型推理和计算对数几率的批次大小 (默认=128)。

device: str

默认情况下,它会推断系统是否具有 GPU 并相应地设置设备。应为 ‘cpu’ 或 ‘cuda’ 或 PyTorch 模型。

返回值:
numpy.ndarray

使用模型生成目标句子 ID 的分数(对数几率)。

方法

__init__(model[, tokenizer, ...])

从给定的文本生成模型构建 Teacher Forcing 模型。

get_inputs(X[, padding_side])

该函数标记源句子。

get_logodds(logits)

从 logits 计算对数几率。

get_output_names(output)

通过使用 similarity_tokenizer 计算输出句子 ID 和输出名称来获取输出标记。

get_outputs(X)

该函数标记输出句子并返回 ID。

get_teacher_forced_logits(X, Y)

该函数为 Transformer 模型生成 logits。

load(in_file[, instantiate])

这旨在被子类覆盖并使用 super 调用。

model_inference(inputs, output_ids)

此函数为 TensorFlow 和 PyTorch 模型执行模型推理。

save(out_file)

将模型保存到给定的文件流。

update_output_names(output)

该函数更新输出标记。

get_inputs(X, padding_side='right')

该函数标记源句子。

在模型无关的情况下,该函数调用 model(X),预期返回一批输出句子,这些句子被标记化以计算输入。

参数:
X: numpy.ndarray

X 可以是一批文本或图像(模型无关的情况)。

返回值:
dict

填充的源句子 ID 和注意力掩码的字典,作为张量(“pt” 或 “tf”,取决于 similarity_model_type)。

get_logodds(logits)

从 logits 计算对数几率。

此函数将 logits 传递给 softmax,然后计算输出(目标句子)ID 的对数几率。

参数:
logits: numpy.ndarray

从模型生成的 logits 数组。

返回值:
numpy.ndarray

计算相应输出 ID 的对数几率。

get_output_names(output)

通过使用 similarity_tokenizer 计算输出句子 ID 和输出名称来获取输出标记。

参数:
output: numpy.ndarray

解释行的输出(句子/句子 ID)。

返回值:
list

输出标记列表。

get_outputs(X)

该函数标记输出句子并返回 ID。

参数:
X: numpy.ndarray

解释行的输出(句子/句子 ID)。

返回值:
numpy.ndarray

输出(目标句子)ID 数组。

get_teacher_forced_logits(X, Y)

该函数为 Transformer 模型生成 logits。

它通过使用 Teacher Forcing 技术为编码器-解码器模型以及仅解码器模型生成 logits。

参数:
X: numpy.ndarray

包含掩码输入列表的数组。

Y: numpy.ndarray

包含目标句子/ID 列表的数组。

返回值:
numpy.ndarray

输出(目标句子)ID 的解码器输出 logits。

classmethod load(in_file, instantiate=True)

这旨在被子类覆盖并使用 super 调用。

当我们不实例化时,我们返回构造函数参数值。 由于 Serializable 类没有构造函数参数,我们只返回一个空字典。

model_inference(inputs, output_ids)

此函数为 TensorFlow 和 PyTorch 模型执行模型推理。

参数:
inputs: dict

填充的源句子 ID 和注意力掩码的字典,作为张量。

output_ids: numpy.ndarray

解码器输出 ID 数组。

返回值:
numpy.ndarray

从模型返回输出 logits。

save(out_file)

将模型保存到给定的文件流。

update_output_names(output: ndarray)

该函数更新输出标记。

它模拟缓存机制,以更新要解释的每一行新解释的输出标记。

参数:
output: numpy.ndarray

解释行的输出(句子/句子 ID)。