生成AIと専門家の立場

2024年7月25日 | By 縄田 直治 | Filed in: データの利活用.

ここのところ生成AIをビジネスに活用するというアイデアがブームになっています。

文章の下書きをさせたり、WEBのためのアイコンやロゴマークを作ったり、それらしい絵を描画させたりと、応用範囲はとても広いので、使われ方も様々あるようですね。

中でもLLM(Large Language Model: 大規模言語モデル)と言われるものは、こちらが質問を投げかけると膨大な知識を背景として可能性のある「答えのようなもの」を出してくるので、とても便利です。

ただし、「答え」ではなく「答えのようなもの」と書いたのは回答が本当に正しいかどうかは利用者の判断に委ねられる部分があるためです。ハルシネーションといって人工知能は「しれっと」嘘をつきます。特に具体的な情報源や固有名詞を尋ねると、明らかに間違いとわかるような回答が返ってきます。ただこれも進化しているので、以前と同じ質問をしても同じ答えが返ってくるとは限りません。

ためしに自分の名前を入れて検索してみるとよいでしょう。以前は私の名前を入れてどういう人物か尋ねると、「九州出身の衆議院議員で・・」という大ぼらが返ってきましたが、いまは名前だけだと情報が見つからないので、さらに詳細な情報や関連をくれと言ってきます。相変わらず名前の読みは間違えているところはご愛嬌です。

このように間違いに気づくケースは、文章の下書きのサポートに使って自分で裏取りをすればいいのですが、いかにもそれらしい答えを出されると、間違いであることに気が付かないまま、信じ込んでしまう恐れがあります。さらにそれがSNSなどで広まってしまうと、虚偽情報が流布されてしまうことになるので、「それは間違いだ」と指摘してくれる人の存在は貴重です。

人工知能が普及すればするほど、物事の正しさとは何かという哲学的な疑問を抱くようになります。真実はただ一つ(名探偵コナン)としても事実は複数ありえます。事実とは証拠の積み上げによって正当化された概念であって、他の事実と矛盾がなければ事実として受け入れられます。

例えば、「月は丸い」というのは真実ではなく事実です。実際に月に行くなり近づくなりしてそれを見た人でなければ、我々一般人には、月のことを「見た目の形と明るさと見える時間を規則的に変えながら空に浮かぶ丸いもの」程度の認識しかありません。丸いと言っても、球形ではなく煎餅のようなものが空に浮いているのかもしれないし、半分に切ったスイカのようなものかもしれません。

科学の世界では厳密に矛盾点が検証されて、一つの事実が見出されますが、人間にとっての善きことや美しいことはそもそも唯一の答えがあるものでもありませんから、正しさもいろいろあって然りです。

生成AIが導く回答はそういう議論のなかでの候補の一つに過ぎないわけで、常に検証検討の対象として捉えなければなりません。まして鵜呑みにするのは危険すぎます。生成AIは性能が低いからという訳ではなく、あらゆる主張に対して一旦受け止めた後に検証を加えるという姿勢は、情報が簡単に流通するようになった社会では基本姿勢として求められるでしょう。世に専門家と呼ばれる人たちはまさしくその専門分野において知見を発揮しなければならないので、生成AIの利用が進めば進むほど従来より厳しい社会的責任を求められることになるでしょう。

その責任をどのようにすれば正当に果たすことができるか、あるいはその限界点はどこにあるかを、世間に認知してもらうようにすることも、責任の一端にあることになります。


コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

超難解計算問題 *