在[optimizers.py](https://github.com/PaddlePaddle/Paddle/blob/develop/python/paddle/trainer_config_helpers/optimizers.py#L360)里面,我看到了设置learning rate decay的参数, 不过有两个,learning_rate_decay_a=0., learning_rate_decay_b=0., 请问这两个参数有什么区别呢、分别代表什么含义呢?我应该用哪一个呢? 似乎并没有相关的wiki、文档记录呢。