Skip to content

关于BERT要重新写一个邻接矩阵的生成代码 #2

@studykz

Description

@studykz

您好,使用bert模型中的 tokenizer.tokenize方法把文本处理成token之后,是直接使用spacy中的nlp函数做依存分析吗,但是这样nlp这个函数会把一些单词分词进行分析,比如对'[CLS] '和' [SEP] ',这样的话最后的邻接矩阵和bert的数据长度就对不上了,请问这个怎么解决

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions