かんがえる、かがんでいる人

考えたことをまとめます。

?

アウトプットのマルチモーダル(?)な進化予想メモ

こちらから始まる一連のポストをまとめます。

----------------(‘ω’ っ )

数日前にポストしたのですが、今後の成果物として味のある音楽や香りのある絵画などという進化を遂げるのでは?という内容を書きました
補足説明をします
音楽の話
ライブに行くと熱気や他の観客の熱量やノイズにも思える嬌声、特に音楽自体の重低音を肌で感じるでしょう
それはイコライザやウーハーで増強した低音という意味でなく、肌で感じる触覚としての音楽です
割と多くの人がそれに同意してくれるものと思います
それは、「触覚で聞いている」と表現しても良いでしょう
以前どこかの何かで「視覚だけでなく聴覚や味覚、果ては嗅覚まで含めて情報の収集先はあるのだから今後はセンサーが発達するはず」という話を書きました
それは情報のインプットが多岐にわたるはずであり、現在の生成AIは一部しか学習していない事を示唆するための内容でした
今回言及しているのはアウトプットとしての複数感覚を使ったものです
例えば絵画を見るだけではなく、風景画ならそれに適した香りがしても良いでしょう。音楽でライブ感を楽しみたいなら熱気や(汚い話ですが)汗臭さを表現するとリアリティが出ます。リアリティにこだわらず別の五感を重ね合わせた新しい成果物が生まれるかもしれないなぁ、と考えているのですね
少なくともライブでは肌で音楽を感じる(聴く)ことができるわけですから
これは、いわゆる共感覚とは違います
共感覚とは、数字、例えば1という数字を見ればオレンジ、2という数字を見れば青を想起するような事で、それは個人によって異なりますが整然としており、恐らく感覚の未分化が原因だとされている、と私は認識しています
共感覚を味わう事は人に依存します
私がここで書いている「複数感覚を取り入れた新しい成果物」は、その成果物の性質によって複数感覚をもって対象を楽しめるようになるというものです
人に依存しないのですね
尚、インプットとしての情報源が、例えば視覚であれば現在の私たちが見ているものをもっとよく見ようとする視力10の世界という精度の上げ方があれば、私たちが見ることができない(可視光線外)領域を広げて情報源を拡げようという考え方もあるでしょう(レントゲンなど)
(自動運転で、通常の映像だけをもって学習するのは不十分だと思われます。サーモグラフィで映像分析すれば、見通しの悪い場所や悪天候でも自己を防ぐ運転を学習できます。温度で視ています)(コウモリなどは音波を使って聴覚で視ています)
アウトプットに関しても同様で、既存の領域外で私たちが感じることができる精度を高めていった結果、新しいものを見つけられる可能性があると考えます
クジラの歌が言語か否か?言葉と鳴き声の違いは何か?その境界線はどこか?など、応用範囲もあるのではないかと考えます
(「ありがとう」でも、笑顔で言うそれと厭味ったらしい顔で言うそれとは別の意味になります。その性質を言語というのであれば、何らかのコミュニケーションが取れる音であっても、表情によって意味が変わらないのであれば言語とは呼べません(もちろん先の例を前提とした場合の話です))
音楽圧縮技術では、人間の可聴領域外のデータを削除することで圧縮効率を上げているはずです。それすら圧縮しない方が良いのかもしれないし、逆にそれ以上に、今まで人間は感知できないと考えられていた情報を付加した成果物を作ると面白い事があるかもしれません(無いかもしれません)それをもってフィードバックを貰う事によって、黄金比のような(カノン進行もそれにあたる、か?)帰納的アプローチで成功法則を見出すことができるのでは?と考えます
現在のところ、複数感覚による悦楽を得られる成果物は料理だと考えています。目の前でスープなり熱した油をかけて、最後の一手間を見せたり、ワインのうんちくをソムリエが語りラベルを見せながらワイングラスに注ぐ様は、目で味わっていると表現できるのではないでしょうか

----------------(‘ω’ っ )

正直書き足りないのだけれど、要諦だけは書いたかなぁと。

ではでは

?