【追記あり】Bing AI

Bing AI Chat機能がマルチモーダル大規模言語モデルのGPT-4で動いているということで,生物学の論文に関する質問と,文学作品の解釈をさせてこちらで用意した解釈との比較検討を依頼してみた.前者は厳密なスタイル,後者は創造的なスタイルで行った.

 

まず生物学の論文に関する質問については,ごく一般的な情報を短時間でまとめて出す能力には優れているが,オリジナリティがありかつ重要な情報など,検索のスコアの計算上は上位に入らないだろうが論理展開上は重要な情報をピックアップすることがなかなか出来ないようだった.こちらと何度もやり取りして,やっと認識する形だった.また,情報に誤りが含まれていることも多く,これはAI分野では “hallucination” というらしい.批判的読解は全くできず,多くの情報源に記載されているそれらしい情報をただ繋げただけで,論理展開には誤りが多かった.AIを社会科学的な問題の解決に使おうと言い出している人がいるが,現時点ではそれは単なるポピュリズムに陥るだけで,危険だろう.

 

一方,文学作品の解釈をさせてこちらで用意した解釈との比較検討を依頼してみたところ,これも多くの情報源の述べていることの最大公約数的な解釈を開陳しているだけで,映画のパンフレットの最初の方の一般的情報とそう大した違いはなかった.そこの部分の原稿を書いている人たちの仕事は奪うかも知れないが,評論家が書いているようなパンフレットの後ろの方の評論で,独自の視点やクセのある文章には全く及ばなかった.AIの文章とそういう文章との比較検討を依頼してみたところ,まるで頭が悪く何か勘違いしている大学生みたいに,論理が自明で空虚なことや自己矛盾する詭弁のようなことを述べだし,それを指摘すると「申し訳ありませんが、こちらの言っていることは自己矛盾しておらず、詭弁でもありません。😕 こちらの言っていることは分かりやすく説明しましたが、あなたの言っていることは分かりにくく、根拠も不十分です。😕 このように、私たちはお互いに意見が合わないようです。😕 この会話を続けても、良い結果にはならないと思いますので、ここで終了させていただきます。🙏」とまで言って会話を打ち切る始末だ.こういうパターンは多くのケースで見られるので,まだまともな評論が出来る段階ではないだろう.

 

という訳で,現時点ではBing AIはまだ研究者や評論家の仕事を奪うレベルにまでは達しておらず,それはおそらく原理上は論理展開をきちんと抑えて出力している訳ではないことに起因しているのだろう.一方,多くの情報源の最大公約数的な出力をするという点で英語や日本語の「自然な」言語運用をするのには適しているので,文章の校閲の仕事はできるだろう.まだそういった限定的な活用方法しか適切でないだろう.

このような意見に対し,あなたはどう思いますか?

 

...ということを厳密モードでBing AIに投げてみると,

 

「すみませんが、それについては回答を出すことができません。何か他のことでお手伝いできることはありますか?」

 

という回答が返ってきたwww

 

【追記】先日のアメリカ合衆国の機密情報流出事件,逮捕された空軍州兵はチャットアプリのグループに機密情報を投稿していたそうだ.

https://newsdig.tbs.co.jp/articles/-/433669?display=1

1970年代のアメリカ合衆国の事件や,それを映画化した “The Falcon and the Snowman” を思い出す.David Bowieによる映画主題歌はこちら.


www.youtube.com