作者您好,我看您的代码,在多向量建模部分,在训练的时候,user_eb是先和item_eb做了交互之后(即做了attention),再和mid_batch_ph,也就是next item做交叉熵loss,这样子不会泄漏信息吗? 也就是说,在与next item做loss前就已经和next item做过交互了,通过next item来确定多向量的权重,再和next item做loss,这样做感觉不是很合理?