ぱーせぷ

『わかりやすいパターン認識』を読んでいるのだが、1998年の出版とあって「わかりやすい」のレベルが違う(´_ゝ`)

当時はこれが入門レベルだったんかなぁ。

俺はすでにある程度の機械学習やAIと、それに関連する数学を履修済みだから問題なく読めるけど、初見でこれを読まされたら脳みそ沸騰して死ぬ(´_ゝ`)

学問領域が一般に広まるためには、その分野の人だけがわかる言葉から「翻訳」されたものが必要なんだなぁと改めて思った。

もっとも、当時と今で言葉の使い方がだいぶ変わっているのもいくつか散見されて面白い。

もう使わなくなったものも多いけど、一番は「過学習」と「オーバーフィッティング」を別のものとして定義していること。

過学習」は文字通りover-trainingで、パラメータ数に対して少なすぎる学習パターンを用いる事を指してる。

それに対して、現在「過学習」と呼ばれているオーバーフィッティング(over-fitting)は関数の問題として捉えられてる。
具体的には、少数の個別パターンを多数のパラメータを持つ複雑な関数で誤差ゼロで近似してしまうことで、いま使われている意味に近い。

ネットとデータ分析の発展・発達で、「少なすぎる学習パターン」というのが無くなってきたことが原因なのかな。

つまり1998年の段階では、オーバーフィッティングを「過学習」と読んではいなかったわけで、誰かがどこかのタイミングでごっちゃにしたのが広まっちゃったわけやね(´_ゝ`)

やっぱり正しくは「過剰適合」と文字通り訳すべきだと思う。

技術は移り変わりが激しいけど、古い本を読むのはそれはそれで新たな発見があって面白い。
温故知新というやつやね(´_ゝ`)

ただ、古い書物は文章がとにかく読みにくいのが多い。
最近の科学分野のライターのレベルって、驚くほど上がってるんだなぁと改めて思いましたとさ。