【ChatGPT活用】ハルシネーション対策に「確度」を教えてもらう方法

最近話題のAIチャットツール ChatGPT 。調べもの、文章作成、ちょっとした相談など、活用している方もいらっしゃるかと思います。 そんな生成AIを使っていて怖いのが、「もっともらしく聞こえるけど、実際は間違っている」情報を伝えられること。いわゆる「ハルシネーション」です。ChatGPTに質問するのは大抵の場合「自分がよく分かっていないこと」だと思うので、 伝えられた情報の真偽を判断するのが非常に難しいともいます。 そこで今回はそんなときの対策としておすすめの「確度を聞く」というテクニックをご紹介したいと思います。 目次 実際のアウトプット例 「確度を聞く」ことのメリット 「確度を聞く」方法 おわりに 実際のアウトプット例 まずは具体的なアウトプット例として、ChatGPTに「最近『ChatGPTはユーザーに迎合し過ぎている』って批判をちらほら見かけるけど、実際のところどうなの?」と質問した結果をご紹介します。 項目ごとに「確度:高」「確度:中~高」「確度:意見・参考程度」と添えられている様子が確認できるかと思います。 「確度を聞く」ことのメリット どうやらChatGPTは、情報を下記のように分類することが出来ているようです。 (この情報自体ChatGPTに確認したものなので、誤っている可能性が十分にありますが、暫く使用してみた感じですと、そこまで大きくは違っていない印象です) 高(信頼性が高い) 学術的に確立されている情報、公式ドキュメントに基づく内容、有名な辞書やソフトウェア仕様などがベース。ハルシネーションの可能性はかなり低いです。 中(信頼性はあるが状況による) 一般的な知識や、複数の情報源に基づくが一部曖昧な要素がある内容。文脈や時期、前提条件によって正確性が変わることも。ハルシネーションの可能性はあり。 低(あまり信頼できない) 明確な出典が不明だったり、ChatGPTの推論ベースで語られている内容。創作や例示、仮定の話が多い場合もあります。このレベルの情報は、ハルシネーションの可能性が高いと考えておいた方が安全です。 つま...