パワー正規化(Power Normalization)について

そろそろ研究もまとめに入らないと理系学生が死んじゃう時期になりましたねw

 

自分は、イラストの類似検索の研究をしていますがその中でパワー正規化っという聞きなれない用語が出てきたのでまとめてみました。

 

さまざまな正規化

データの正規化っていろいろあります。

 

L1正規化
L2正規化
平均0・分散1にする正規化

いずれも機械学習においてデータの整合性を取るために大事なものです。

正規化自体、あるルールに基づいて値を変形し使いやすくするという意味だそうです(by Wikipedia)

 

パワー正規化のルール

パワー正規化も同じように下記のルールに基づいて値を変形します。

(はてブロで数式表示したいんだけどやり方がいまいちわからない)

 

f(z) = sign(z)*|z|^a

 

式を見ると元のデータの符号を保ったままべき乗するというルールになっており、パラメーターaは0~1の範囲で選びます。

 

0~1の範囲でべき乗することによって元々1より小さい値は大きく、1より大きい値は小さい値になります。

 

いつ使うの?

パワー正規化は主にスパースベクトル(ほとんど0要素なベクトル)に使うことが多いようです。

画像処理では、自然画像(いわゆる普通の画像)に比べてイラスト画像は使っている色情報が少ないため0要素(0に近い要素)が多くなってしまいます。

音声処理でも似たような単語がありましたが、意味は違うっぽいです。

 

その中で、普通だったら無視されるような値も、特徴の1つとして捉えるようにしようということをしたくてパワー正規化を行います。

自分の研究の場合、パラメーターaを調整することによって検索性能は6%ぐらい上がりました。

 

最近ではFisher Vectorを使う手法が増えてますが、その中でもパワー正規化を使うことで精度向上に貢献しています(p31,35)

www.slideshare.net

 

まとめ

 

パワー正規化について書かれている記事が全然なかったので簡単にまとめてみました。

あなたの研究もパワー正規化で精度向上!?なんてことも???