1. 匿名@ガールズちゃんねる 対話型生成AIは嘘をつく。ときどき自信満々にデタラメを言ってしまう現象は「ハルシネーション(幻覚)」と呼ばれる。 研究では、GoogleやOpenAIが使用する主要なAI評価ベンチマーク10種を分析。そのうち9つが、正解なら1点、不正解や「わからない」なら0点とする二者択一の評価方式だった。 この方式では、AIが「わからない」と正直に答えることが誤答と同じ扱いになる。 つまり、AIにとっては「当たるかもしれないから言ってみる」方が、沈黙よりも高く評価されてしまうのだ。 この問題の本質は、AIの評価だけにとどまらない。ユーザー側もまた、「自信ありげな応答」に安心感を覚え、「わかりません」と返されることにストレスを感じる傾向がある。 実際、今回の研究では、AIが「わからない」と答える頻度が30%に達した場合、多くのユーザーは使い勝手の悪さを感じて、離れてしまう可能性があると指摘されている。 つまり、幻覚を減らすには技術的な対策だけでなく、「間違ってもいいから答えてほしい」という人間的な部分にも向き合わなければならないのだ。 2025/09/20(土) 21:35:03…