Kazu Ghalamkari
Fast Tucker Rank Reduction for Non-Negative Tensors Using Mean-Field Approximation
テンソル(多次元配列)をランクの低いテンソルで近似するタスクがテンソル低ランク近似です.従来,この低ランク近似は,入力テンソルと低ランク近似後のテンソルの誤差を小さくする勾配法によって行われてきました.しかし,勾配法に基づく手法は,適切な初期値や収束判定,学習率の設定などのチューニングが必要です.私たちは,テンソルを確率分布と対応付け,情報幾何学の射影の理論を活用することで,勾配法に基づかない非負テンソルの高速な低ランク近似手法Legendre Tucker Rank Reduction(LTR)を開発しました. また,ランク1テンソルに対応する確率分布が独立分布の積として表現できるため,ランク1近似を平均場近似として理解できることを情報幾何学的な観点から説明しました.この研究は機械学習のトップ会議NeurIPS2021に採択されています.