发布网友 发布时间:2022-05-31 07:38
共1个回答
热心网友 时间:2023-10-10 20:02
MOE算法结果中,Correlation=1则是目标相似度低,结果值越高则是相似度越高。MOE是Mixtureofexperts的缩写,也就是说MOE结构的算法底层是有多个experts组成,这些experts网络是彼此独立的,最终的输出结果其实是目标在多个experts上的概率分布结果。MOE可以通过一个Gate去控制,Gatenetwork也叫门控网络,可以控制在不同应用场景下每个expert的参与权重。OMOE指的是onegateMOE,MMOE指的是multigateMOE,从字面意思理解,MMOE一定是比OMOE更全面的。