请问freeze-omni是否支持保存模型输出的context?比如一共有两轮对话,指定第一轮QA作为作为context保存成为模型的state,然后在此基础上放入第二轮的question,然后让模型inference得到第二轮answer。请问代码是否支持?