かんがえる、かがんでいる人

考えたことをまとめます。

?

AIに対する常識の利用

AIが流行っていますね。

流行っているのだけれど、2019年1月現在では「AIすごい」だけではなく「限界もあるのだから上手に使おう」という風潮になっているように思われます。

 

それはそれで健全だなぁと思いつつ、どこにどのような限界があるのかな?と。

 

よく言われるのが「AIには常識がない」という点だと思います。

「ロボットは東大に合格するのか」新井 紀子

より

A君: 本屋はもうすぐだよ。あと少し歩くだけ。
B君 待って、( ___ )。
A君 ありがとう、いつもなんだ。
B君: 5分前にも靴、結んでたよね?
--------
選択肢 ① だいぶ歩いたね。② もうすぐだね。 ③ 高そうな靴だね。④ 靴紐がほどけてるよ。

状況を理解できる私たちにとっては④番が正解なのは明らかですよね? でも東ロボくんは ②番を選びました。ディープラーニングの技術を使って150億個の英文を学んだ後でです。 私の言ったことがお分かりになったでしょう。現在のAIは読めないし、理解できないのです。そうできるかのように見せかけているだけです。

太字は私の装飾です。

他にも、英語の文法問題で、人間であれば間違えないような「文法的には正しいけれど、常識的には間違っている」答えをしたようです。

理解できているかという中身はどうでもいいのです。アウトプットが利用するのに値する価値あるものであれば。

現状ではそのアウトプットが拙い部分があるので補強しましょう、そのポイントは何ですか?常識です、というお話です。

 

ここから言えるのが、我々は何かの専門分野だけでなく常識の教育を間断なく膨大に受け続けているという事です。

だから、現在のAIには圧倒的に教育(データの蓄積)が足らないのだと。

 

そうなると、現在のAIが「皆で寄ってたかって専門知識を教育した成果物」であるのと同様に、今後のAIは「皆で寄ってたかって常識を教育した成果物」が加えられた形になるのかな?と想像します。

 

ここには留意点があります。

教育者によって、常識が異なるという点です。

 

明らかにまずい事、明らかに良いことは、大体の点でほとんどの利用者に受け入れられます。

例えば、「一日一善は良いことである」という教育を、悪いことだとする人はいないと思うのです。

 

一方で、悪いととるか良いととるか微妙なところだと、議論の的となりえます。

世代間や性差、価値観の違い、文化の違い、国籍の違い人種の違いなどなど。

 

常識は、概ね、当該人間の活動範囲でその人の活動がスムースに行われるように教育されていると思います。そして、善意悪意を問わず同調圧力として自己強化をするように思えます。

例えば、自分の子供に常識を教える際には「この子が周りとうまくやっていけるように」と自分の知見を教育するのが普通です。

また、コミュニティに入ってきた新入りに「しきたり」を教育するというのも有り得る行為です。教えた方が、新入りも既存の人間もスムースに動けるからです。

だから、常識はその場そこでしか通用しない可能性があるのですね。

日本の常識は世界の非常識という言葉がありますが、世界の非常識であっても日本の常識なわけです。

逆に言えば、日本で行動するのであれば日本の常識を知っておくべきだし、世界で行動するのに日本の常識だけで行動してはよろしくない。

 

と、考えると、一つの常識データがあって、専門知識を重ねて判断をさせるというやり方が利用者にとって最善手かは微妙なところだと思います。

f:id:ton96O:20190129174946j:plain

こういう仕組みです。

 

この構造ですと、常識は土台として一つなので教育しやすい、しかし一つの常識に依拠してしまう。

なので、専門知識と常識は別に切り離して、利用者が常識を選択できればそれで良いのではないかと。

 

というわけで

・現在、AIが問題とされている常識分野は別途教育すべき

・常識はいろいろな常識があるので、専門分野と分けられてしかるべき

・どのような常識を使うのか、利用者が決められるとよさそう

という話でした。

 

ホリエモンこと堀江さんの常識を売り出したら、面白がる人は結構いそうです。

(多分、採算が取れないので実現しなさそうですが)

そのうち、AIの教育データが「2000年生まれ日本人男性、東京出身東京育ちの常識」なんて形で提供されるかもしれませんね。

そうなると、教育できるのはその条件に当てはまる人間だけなわけですから、その仕事が発生するかもしれません。

 

「教育なんて難しそう」

うーん、「教育なんて難しそう」という人の常識を欲しい場面が出てくると思うんです。であれば、教育作業が簡単になるはずです。

なので、その点に関しては大丈夫じゃないかなぁ?と。

 

最後に。

常識の教育データを利用して、機械の強みである「単純作業を、ミスなく休みなく早く行う」という点が損なわれては意味がありません。

例えば「危険な部分のチェックは毎年やることになっているが、非効率なので四年に一回やる」というような、変な常識は採用してはいけないし、採用されないはずだということです。

ならば、それをどのように選定するのか、ですね。

 

使うのが人間である以上、ヒューマンエラーは0にはならないと思います。

 

ではでは。

?