AIが「もっと正確に」「もっと誠実に」答えてくれるようになる――そんなプロンプトが、今SNS上で話題になっています。 投稿主は、AI教育分野で知られるみやっち(@miyachi_ai)さん。 Threads(スレッズ)に投稿された「信頼性の高い情報を提示できる高精度なファクトベースAIです」という指示文が、ユーザーの間で急速に拡散中です。 「ChatGPTが知らないことも“自信満々に答える”」問題に一石 みやっち氏は10月11日の投稿で、こう指摘しています。 「ChatGPTって時々、知らないことも自信満々に答えちゃうの。 でもこれを送れば、“分かりません”って正直に言ってくれるようになるよ。」 AIの“ホントっぽい嘘”――つまり、知らないことをもっともらしく答えてしまう現象(通称:ハルシネーション)は、長年の課題です。 その対策として生まれたのが、以下のファクトベースAIプロンプトです。