为什么在结构学习期间向贝叶斯网络结构添加弧永远不会降低可能性?

问题描述

当您向贝叶斯网络结构添加弧时,可能性永远不会降低。这是很多教科书里都提到的一个事实,让我感到困惑。

我知道您可以分解可能性,因此假设您添加从父节点 X 到节点 Y 的边,您的新可能性只会更改 Y,因为它现在有了新的父节点。有什么公式或推理可以说在将这个父节点或新参数添加到您的结构后,可能性永远不会降低?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)