DAppsゲームでアクションがマイニングになるのと同じように、AIを教育する(AIの処理結果の正誤を判断する。もしくは教育データを提供)によってマイニングとみなす、という事だと想像します。 https://t.co/J8t4jBWuYQ
— ton (@ton960) March 25, 2018
ここで注意しなければならないのが、結果の正誤の判定について。モラルや生活様式の段、常識のレベルになると、文化背景や「常識」という名の宗教が関連してくる。何をもって正解とするかが運営側に問われる。逆に言えばこのAIはこういう哲学で教育しましたという品質公開が必要になる。
— ton (@ton960) March 25, 2018
今回はAIに関するお話をします。
知識は少しだけ、実務ではあまり利用していないので、間違いなどがありましたらご指摘ください。
さて
引用したツイートは
>ブロックチェーン×機械学習(ディープラーニング)で行きます。
>機械学習のトレーニングをPoWの代わりに行い、
>精度を上げることができればマイニング報酬として暗号通貨が発行される
>というDAppsを実装します。たぶん世界初かと。
>
とのこと。
あるゲームDAppsはアクションとることがマイニングになりましたから、その派生だと理解しています。
機械学習のトレーニングには二つの要素が必要です。
1)教育データ
2)データ処理に対する評価
1)教育データ
こちらはAIが学習するための材料です。
画像処理AIを例に話をします。
私たちはりんご、みかん、と言われて、抽象的なその形(an aplle、an orange)を思い浮かべて、写真の中のりんごや、アルミ缶の上にあるみかんを判定できます。
(この写真の中にりんごは何個ありますか? 2個です)
ところがAIはその抽象的な形を、多数の画像処理で教育することで形作ることが必要です。
そのため、多数の教育データ、今回ですと、リンゴやミカンが写った画像が必要です。
それを用意することが、AIの種類によっては非常に難しいのです。
東大に合格を目指すAIをご存知でしょうか?
あのAIには過去問がたくさん必要です。今ある過去問ではきっととても間に合わないでしょう。(いっても1000とかの話ですよね?現代文読解などはどういう処理をしているのか知りませんが、相当難解な処理をするか、私が思いつかない処理をしていると思われます)
つまり、教育データをAIに提供することは、AIの発展に協力していることになるのです。
2)データ処理に対する評価
1)の例をそのまま使いましょう。画像処理AIです。
教育データをAIに見せました。
この後に人間がしてあげなくてはいけない処理があります。
AIの処理結果に対し、評価を下すことです。
「この画像にりんごは何個ありますか?」「3個です」
処理結果を見て、正解個数があっているかだけでなく、どれをりんごと判定したのかについて、その評価を下し、間違っているのであれば調整をしなければなりません。
1)は仮説、2)は検証です。
1)と2)一連の動作によって、AIはその精度を高めていきます。
ここで、論点となる不安点があります。
常識をAIがどのように学習するのか、という点です。
AIにとって、常識ほど学習しずらいものはありません。
時代によって、コミュニティによって、常識が変わるからです。
ある仕事場では、質は70%でいいから、とにかく早くアウトプットを出せ!と言われてきたのに、
転職をすると、100%の質を出さなくちゃだめだ!完璧になるまで徹夜でも何でもして資料を仕上げろ!と言われる。
いかがです?上記は外資と昔の日本企業、というイメージで書いたのですが、ありそうでしょう?
あなたがAIだとして、持ち主の女性が、そうですね、きっと失恋したのでしょう、「AIなにか、曲をかけて」と沈んだ声でリクエストをされたら、あなたはきっとその場の雰囲気に合わせた、緩やかな曲、バラードをかけるはずです。
間違っても、ド・ド・ドリフの大爆笑!
なんて、かけないでしょう?
現在のAIがそれを学習するのには、これまた、教育データと処理結果の評価が必要になるのです。
それを雰囲気を感じる、空気を読む、という言葉で置き換えるのは簡単です。
ですがそれを実現するのは非常に難しい。
そう考えると、空気を読める人、気が利く人は、相当高度な、コミュニティに応じたアウトプットを提供している処理系だといえます。
(その人自身が学習の速い処理系であるか、コミュニティと価値観が似通っており、学習をする必要性が少ないか)
ここで、二つ目の引用ツイートに注目してください。
ここで注意しなければならないのが、結果の正誤の判定について。モラルや生活様式の段、常識のレベルになると、文化背景や「常識」という名の宗教が関連してくる。何をもって正解とするかが運営側に問われる。逆に言えばこのAIはこういう哲学で教育しましたという品質公開が必要になる。
— ton (@ton960) March 25, 2018
もう一度張りました。
冒頭で上記のツイートの意味が分からなかった方も、今ならご理解いただけるかと思います。
AIにとって、常識は非常に学習しずらく、また、常識それ自体が、時間により、コミュニティにより、変化する度合いが大きいものである、なので、突き詰めると哲学や宗教のレベルになる。ということは、そこまで常識にこだわらない使い方を理解して使うか、どういう常識の下で学習させたAI化の品質表示が必要である。
となります。
未来には、仏教徒のAI。イスラム教徒のAI、なんて出てくるかもしれませんね。
?