transformers中TFBert等模型加载问题(two structures don‘t have the same nested structure)

如果将transformers中的tfbert等模型嵌入到自己的模型中,在保存与加载的时候可能会出现以下问题:

ValueError: The two structures don’t have the same nested structure.

First structure: type=dict str={‘input_ids’: TensorSpec(shape=(None, 5), dtype=tf.int32, name=‘input_ids/input_ids’)}

Second structure: type=dict str={‘token_type_ids’: TensorSpec(shape=(None, 128), dtype=tf.int64, name=‘input_ids/token_type_ids’), ‘attention_mask’: TensorSpec(shape=(None, 128), dtype=tf.int64, name=‘input_ids/attention_mask’), ‘input_ids’: TensorSpec(shape=(None, 128), dtype=tf.int64, name=‘input_ids/input_ids’)}

问题说明:
如果是直接使用bert(inputs) 调用,保存模型再加载就会出现上述问题

原因:
call() 函数没有添加@tf.function(signatures)注解,也就是没有定义输入数据格式, 如果直接保存模型恢复的时候没办法恢复输入数据的定义

解决办法:
使用model.serving()函数
transformers中TFBert等模型加载问题(two structures don‘t have the same nested structure)
可以看出源码是实现了输入数据格式定义的,这样修改之后就咩有加载方面的问题了

上一篇:Python DataFrame 中loc和iloc的区别


下一篇:【Python茴香豆系列】之 PANDAS 变更列的类型