AIと未来社会

Geoffrey Everest Hinton博士が自身の今後の発言がGoogleに影響を与えないようにGoogleを退社し,AIの危険性に警鐘を鳴らしたということです.

 

https://www3.nhk.or.jp/news/special/international_news_navi/articles/qa/2023/05/15/31594.html

 

AI技術の進歩は確かに医学でも工学でも目覚ましい勢いでその発展に寄与してきましたが,一方で何が嘘で何が真実かが分からなくなるという危険性も含んでいます.念波界隈のように,事実と異なることを真実だと思い込んでしまう危険性があるというのです.これは確かにそうで,人間は自分の専門以外の分野では論理性ではなく場の「空気」「雰囲気」に意見を左右されがちです.

 

例えばCOVID-19では非常に多くの人がSARS-CoV-2の免疫の長続きしないことを最初は理解できませんでした.免疫記憶の仕組みはまだよく分かっている訳ではありませんが,論理的に考えれば免疫系の記憶細胞も細胞ですので,寿命があります.それが他の細胞より長いにしろ,限界はある筈です.何もデータが無ければSARS-CoV-2に対する免疫の持続については確かな判断は出来ませんが,コロナウイルスの仲間は免疫が数ヶ月間しか持たず長続きしないことは以前から分かっていたので,それを提示されたら普通はSARS-CoV-2の免疫も長続きしないことは容易に理解できたはずです.免疫記憶の長さはケースバイケースなのです.ところが,小さい頃の予防接種の終生免疫の印象が強い人々はそう言われてもなかなか納得しませんでした.普通の論理的な考えもできず,空気感から根拠なく思い込んでいるだけであることになかなか気付かないのですね.自由に考えることのできない事例がそこにはありました.

 

そういう人々が一般の方々として社会を形成しているのですから,皆さん専門外のことでは論理性など得てはいない訳です.そこにAIが「自然な」言語でしれっと嘘やhallucinationを入れたら,皆さんそのことが虚偽であることなど判らなくなるのです.今のままの開発路線でのAIの危険性は,そういうところから予想できる訳です.AIに対して外部からの何某かのコントロールはこれから必要になってくるでしょう.