ちょっと小耳にはさんだニュースで、FrontierMathというベンチマークで最新のAIの数学能力をテストした結果、98%が不正解だったとか。
検索してみたら先月7日に『FrontierMath: A Benchmark for Evaluating Advanced Mathematical Reasoning in AI』というタイトルの論文がarXivに投稿されてるのを発見したがこれかな?
アブストラクトだけしか読んでないけど、確かに「Current state-of-the-art AI models solve under 2% of problems」とある。
2%以下の正解率とあるけど、これは通常我々が目にするタイプの数学の問題(大学入試とかね)ではなく、フィールズ賞受賞者とか大学教授とかの「expert-level」のことらしい。
簡単にいうと、いまのレベルのAIだと未解決問題を解くようなことまでは期待できないってことだ。
これは割と以前から言われてて、コンピュータというものはそもそも数学や論理が苦手なのよね(´_ゝ`)
一般のイメージとは真逆だけど、「計算」や「論理演算」が得意だからって、数学や論理まで得意ではないのよ。
人間は算数→数学と習うから、なんとなく計算の延長上に数学があると思い込んでるけど、現代数学は計算の延長上にあるわけではない。
計算を道具として使うけど、ひらめきや論理の飛躍、創造性・想像性が必要な点でいえば現代数学はアートに近い気がする。
異論はあると思うけど(´_ゝ`)
このニュースに対して、「時間の問題」みたいな書き込みも結構あったけど、AIがAGIとしての能力を獲得したとしても、そもそものアーキテクチャが違うから「そのうち可能になる」問題ではないんじゃないかなぁ。
まあヒントン先生みたいな人がディープラーニングを開発したように、なにがブレイクスルーになるか分からんから断言はできないけど。
実際、ウォルフラムは「既約計算が極限まで進めば、シミュレーションは現実時間と同じだけかかる」って言ってたし、ゲーデルの不完全性定理もあるし、根源的な意味で解決不能なのではないかと思うのだが。
もう少し専門的な人たちの意見を知りたいなぁ(´_ゝ`)