かんがえる、かがんでいる人

考えたことをまとめます。

?

LLMが自動的に増えるアイデアの倉庫になる日

----------------(‘ω’ っ )

起点に関しては、例えば「7時になったらアラームを鳴らす」とか「朝、出勤前に帰納の寝てる間のニュースを箇条書きでまとめる」なんてことはできそうです。

しかし、それに関してはLLMの文脈で語る事ではなく、時刻設定と内容をトリガーにする、という話で、今回の「起点」とは違います。

今回の「起点」は、質問を思いつく・何かに疑問をもつ、という点を指します

----------------(‘ω’ っ )

----------------(‘ω’ っ )

回答に満足いくかどうかは、多くの人間が評価しえます。
しかし、良い議論をLLMを使って行い、完成させる起点を提起できる質問力は、多くの人間が持ち合わせているわけではないと考えます。

----------------(‘ω’ っ )

----------------(‘ω’ っ )

質問が全て矛盾から生じるとは思っていませんが、そこから始めるのが易しいだろうな、とは思います。

質問ができるLLMが作られるなら、質問を学習させていく必要があり、そして質問には外部環境の変化に伴う変化が必ず生じるので、継続した学習が必要です。

ポケベルに関する実用的な質問は、当時ではいろいろと考えられたでしょうが、現在は~サービス停止したんでしたっけ?~そのような質問は期待できず、むしろ骨董品や歴史の一部としての質問に終始するでしょう

----------------(‘ω’ っ )

----------------(‘ω’ っ )

それを実現するために、LLMには倫理観を保持し学習し続ける機能が必要という事になります。この記事で書かれている仕組みが回り始めると、LLMは回答を評価すると同時に、2024年の倫理観を学習し保存し続ける感じです。

倫理観をスイッチングするイメージは、現在だと感染症に対する回答の評価がイメージしやすいでしょう。
2020年の倫理観で評価するのと、2024年の倫理観で評価するのとでは、幾分違いが出そうです。
そういう意味では違った視点での評価や時代背景などがLLMを通して保存され、適時再生されるイメージです。

----------------(‘ω’ っ )

----------------(‘ω’ っ )

人間だとどうしても情が入ってしまい、合理的な決断に至らない点は必ずあります。

例えば、何らかの事故で、右手を切るか左手を切るかの選択を迫られると、思い切りよくスパーンと決断できる人は少ないでしょう。時間を浪費し状況を悪化しかねません。

しかし機械なら「利き手を残したほうが良いよね」とコンマ数秒で決断に至るでしょう。

それらだけではなく、何らかの情操的な判断においても機械だからこそできるドライな判断に、人間が一目置く点もあると思われます。

----------------(‘ω’ っ )

LLMが自動的に議論を行い、評価すら行い、自動的に増えるアイデアの倉庫になれるかも、なんて考えます。
もっとも、LLMのデータをもとに学習したLLMは馬鹿になるという研究もあるようですが。

ではでは

 

?