Skip to content

作者您好! 您这里的训练逻辑是指: 先在llava-1.5-7b-hf上通过预训练自己的数据,然后合并模型,这个合并的模型叫做model1; 其次,在model1上进行微调,然后跟model1进行合并为模型model2;最终通过model2进行预测是么? #2

@Shajiu

Description

@Shajiu

作者您好! 您这里的训练逻辑是指:
先在llava-1.5-7b-hf上通过预训练自己的数据,然后合并模型,这个合并的模型叫做model1;
其次,在model1上进行微调,然后跟model1进行合并为模型model2;最终通过model2进行预测是么?

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions