问题来源:

在使用bert进行fine-tune训练模型时,maxlen设置为512时,会遇到该问题。

问题原因

由于bert的模型默认最大长度为512,而在对文本进行处理时,文本的开头和结尾会加入[cls]和[sep],因此如果我们设置512的最大文本长度,会导致超过默认bert设置的maxlen。

解决方法:

将maxlen的值调小,小于等于510即可。

Logo

汇聚全球AI编程工具,助力开发者即刻编程。

更多推荐