LLMが自動的に増えるアイデアの倉庫になる日
生成AIがいまだに人間に依存している点があります
— ton (@ton960) 2024年7月21日
何をするのかという起点と、成果物に対する評価です
— ton (@ton960) 2024年7月21日
だから、その二つが自動化されれば、いつの間にかスゴイものができている可能性があります
それには、疑問をもつ「質問者」と生成された回答を評価する「評価者」が必要になります
----------------(‘ω’ っ )
起点に関しては、例えば「7時になったらアラームを鳴らす」とか「朝、出勤前に帰納の寝てる間のニュースを箇条書きでまとめる」なんてことはできそうです。
しかし、それに関してはLLMの文脈で語る事ではなく、時刻設定と内容をトリガーにする、という話で、今回の「起点」とは違います。
今回の「起点」は、質問を思いつく・何かに疑問をもつ、という点を指します
----------------(‘ω’ っ )
質問者に必要なのはクリティカルシンキングであり、現状を愚直にしかし冷静に理屈で評価する力と、矛盾点を漏らさず指摘する力です
— ton (@ton960) 2024年7月21日
評価者に必要なのは、予め与えられた性質に沿って、最低でも成果物の善し悪しを決断する力です
ここで、プレイヤーを整理しておきましょう
— ton (@ton960) 2024年7月21日
私が提案する、質問者と評価者、そして現在の生成AI
現在の生成AIは、今回、表現をそろえて回答者と呼ぶことにします
大事なのはおそらく、質問者の質問力です
----------------(‘ω’ っ )
回答に満足いくかどうかは、多くの人間が評価しえます。
しかし、良い議論をLLMを使って行い、完成させる起点を提起できる質問力は、多くの人間が持ち合わせているわけではないと考えます。
----------------(‘ω’ っ )
高度な質問力を築き維持するためには、質問者が情報を収集し続け、質問者が情報を継続的にため込み、背景や理由とともに現象を結びつける必要があります
— ton (@ton960) 2024年7月21日
それを元に、質問者は矛盾点を機械的に回答者に質問していきます
----------------(‘ω’ っ )
質問が全て矛盾から生じるとは思っていませんが、そこから始めるのが易しいだろうな、とは思います。
質問ができるLLMが作られるなら、質問を学習させていく必要があり、そして質問には外部環境の変化に伴う変化が必ず生じるので、継続した学習が必要です。
ポケベルに関する実用的な質問は、当時ではいろいろと考えられたでしょうが、現在は~サービス停止したんでしたっけ?~そのような質問は期待できず、むしろ骨董品や歴史の一部としての質問に終始するでしょう
----------------(‘ω’ っ )
さらに、評価者にはあらかじめ倫理観とでもいうべき性質が必要となります
— ton (@ton960) 2024年7月21日
現在の世の中に対する質問への回答を、戦国時代の価値観で評価してもしょうがないからです
もちろん、それが価値を持つ場合もあります
なので仕組みとしてスイッチできるようにしておくべきではあります
----------------(‘ω’ っ )
それを実現するために、LLMには倫理観を保持し学習し続ける機能が必要という事になります。この記事で書かれている仕組みが回り始めると、LLMは回答を評価すると同時に、2024年の倫理観を学習し保存し続ける感じです。
倫理観をスイッチングするイメージは、現在だと感染症に対する回答の評価がイメージしやすいでしょう。
2020年の倫理観で評価するのと、2024年の倫理観で評価するのとでは、幾分違いが出そうです。
そういう意味では違った視点での評価や時代背景などがLLMを通して保存され、適時再生されるイメージです。
----------------(‘ω’ っ )
倫理観や道徳観を無視した客観的な評価ができる点が機械の良いところでもありますので、ここでいう評価者の倫理観は、安易な人間の模倣としての倫理観を意味しません
— ton (@ton960) 2024年7月21日
----------------(‘ω’ っ )
人間だとどうしても情が入ってしまい、合理的な決断に至らない点は必ずあります。
例えば、何らかの事故で、右手を切るか左手を切るかの選択を迫られると、思い切りよくスパーンと決断できる人は少ないでしょう。時間を浪費し状況を悪化しかねません。
しかし機械なら「利き手を残したほうが良いよね」とコンマ数秒で決断に至るでしょう。
それらだけではなく、何らかの情操的な判断においても機械だからこそできるドライな判断に、人間が一目置く点もあると思われます。
----------------(‘ω’ っ )
客観的な質問が提起され回答が生成され、倫理観に応じた評価がなされる
— ton (@ton960) 2024年7月21日
これが自動で行われた時、新たなアイデアや矛盾の解決方法、現実と理想の違いなどが明文化され、私たちを次の段階へ進めてくれるでしょう
もっとも、実際はもっと小規模な、例えば企業の新規事業について制約条件を与えた上でどのような案が考えられ、成功率や必要な資源などをまとめる、という会議の自動化のようなコンパクトなものから実用化されるでしょうが
— ton (@ton960) 2024年7月21日
LLMが自動的に議論を行い、評価すら行い、自動的に増えるアイデアの倉庫になれるかも、なんて考えます。
もっとも、LLMのデータをもとに学習したLLMは馬鹿になるという研究もあるようですが。
ではでは
?