1: ななしさん@発達中 2025/12/07(日) 20:11:52.40 ID:8b+brg7v 「AIが引用した参考文献」の約3分の2が存在しない文献だったり間違っていたりしたとの調査結果 現代では仕事や調べ物にAIを利用する人が増えていますが、AIは虚偽の内容を捏造(ねつぞう)したり誤情報を生成したりする幻覚(ハルシネーション)を起こすこともあります。 OpenAIが開発した大規模言語モデル・GPT-4oを用いた調査では、専門的な内容を尋ねられたAIがどれほど幻覚を起こしやすいのかが明らかになりました。 JMIR Mental Health - Influence of Topic Familiarity and Prompt Specificity on Citation Fabrication in Mental Health Research Using Large Language Models: Experimental Study (以下略、続きはソースでご確認ください) Gigazine 2025年12月07日 11時00分…