Skip to content

how to used on bert #1

@WBWhiteBeard

Description

@WBWhiteBeard

作者,你好。
我想使用你的模型在bert上,我看到你的代码中model文件中151行这里:

def forward(self, x, hidden):
       bptt_len, bs = x.shape
       vocab_sz = self.embedding.num_embeddings

这里的 x 的输入只有 seq_len, bs,而我的bert输出是 bs * seq_len * hidden_size,这里我是需要降维么

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions