您好,使用bert模型中的 tokenizer.tokenize方法把文本处理成token之后,是直接使用spacy中的nlp函数做依存分析吗,但是这样nlp这个函数会把一些单词分词进行分析,比如对'[CLS] '和' [SEP] ',这样的话最后的邻接矩阵和bert的数据长度就对不上了,请问这个怎么解决