3つの要点 ✔️ディープニューラルネットワーク(DNN)の解釈性を向上するためにDNNと決定木を組み合わせる... 3つの要点 ✔️ディープニューラルネットワーク(DNN)の解釈性を向上するためにDNNと決定木を組み合わせる手法が提案されてきたが、既存の手法は精度が悪く、DNNの構造を大きく変えてしまう点で問題があった。 ✔️ 本論文では、Neural-Backed Decision Trees(NBDTs)によって上記の問題を解決する。Tree Supervison Lossと言う損失関数を導入することで、DNNの構造を変えず、通常のDNNから大きく精度を落とさずに、解釈性のあるモデルとして、SOTAを達成した。 ✔️ NBDTsが計算過程の意味を解釈できる量的・質的根拠を示している。 NBDT: Neural-Backed Decision Trees written by Alvin Wan, Lisa Dunlap, Daniel Ho, Jihan Yin, Scott Lee, Henry
記事へのコメント0件
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています