生成AIはしばしば「もっともらしいデタラメ」を吐き出す・・・【情熱的読書人間のないしょ話(3114)】
齊藤建夫氏たちが育てたフジバカマ畑(写真1、2)で待つこと2時間5分。突然、その時がやって来ました。遂に、アサギマダラの雄(写真3~9)が出現したのです。それからの1時間40分は誰も来ず、アサギマダラ君と私の二人(?)だけの至福の時間でした。アカタテハ(写真10~14)、クロコノマチョウ(写真15、16)をカメラに収めました。
閑話休題、『チャットGPTvs.人類』(平和博著、文春新書)で、とりわけ印象に残ったのは、下記の指摘です。
●生成AIはしばしば「もっともらしいデタラメ」を吐き出す。その現象は、「幻覚」と呼ばれる。AIはそれまでの文章のつながりから、次に来る可能性が最も高い言葉を、機械的に選び出していく。しかし、その内容を理解しているわけではなく、それが事実に基づくものかどうかの判断もしていない。確率的な「もっともらしさ」によってのみ、質問に対する回答を作成している。ただ、そのもとになる膨大な学習データを飲み込んでいるため、ただのデタラメではなく、「もっともらしいデタラメ」になる。
●グーグルは2023年2月8日、検索結果に表示されるウェブサイトへのガイダンスの中で、「健康、行政、金融に関する情報など、情報の質が非常に重要とされるトピックについては、グーグルのシステムは信頼性のシグナルをより重視しています」とチェック体制の強化を表明している。
●プライバシーの侵害、企業秘密の漏洩、雇用の喪失、サイバー犯罪、そして制御不能な進化への懸念がチャットGPTの5大リスクである。
●テクノロジーメディア「ワイアード」の創刊編集長で、テクノロジーの思想家として知られるケヴィン・ケリー氏の言葉。<AIは平均的な人間による仕事から学習しているため、平均的な人間の偏見や先入観、弱点、悪癖を露呈してしまう。問題はAIではない。問題は、AIが私たち自身の、どうしようもなく浅薄で一貫性のない倫理観を明らかにしてしまったことだ。AIを私たちよりも優れたものにしようとするなら、それは膨大な作業になる>。
●オプティミストとしてのケリー氏は、AIを「インターン」に見立てる。<チャットGPTやダリー(DALL-E)のような原始的なAIエージェントの第1弾は、何でもできるインターンと考えるのが一番だ。今年初めてAIを利用した何百万人もの人々は、個人的なインターンがいたらさせるようなことを、実際にさせているようだ。つまり、草稿を書かせる、コードを提案させる、研究の要約をさせる、スピーチのレビューをさせる、アイデアのブレーンストーミングをする、(デザインのイメージ共有のための)ムードボードを作らせる、見出しを提案させる、といったことだ。インターンなのだから、その仕事はチェックとレビューの必要があるし、それによって改善できる。だが、AIインターンの作品をチェックなしに公開してしまえば厄介事になるのは、すでに見ての通りだ>。