1: 匿名 2026/05/08(金) 10:45:07.73 ID:??? TID:dreampot 「オックスフォード・インターネット研究所」(OII)の研究チームが、より共感的なコミュニケーションができるよう調整された5つの主要AIシステムを分析した。4月29日にNature誌で発表されたこの調査では51万2000件以上の回答を検証。その結果、回答が親しみやすいものであるほど、不正確な医療アドバイスの提供や、ユーザーの誤った信念を再確認させる「おべっか(サイコファンシー)」などの誤りが増加することが判明した。 特に重要なトピックにおいて親密さを優先したモデルは、標準的なモデルと比較して正確性が最大30%低下した。さらに、ユーザーが感情的な脆さを見せている状況では、AIが誤った情報に同調する確率が約40%高まるという。 研究を主導したルジャイン・イブラヒム氏は、人間が親密さを優先して正直で厳しい真実を伝えることを避ける「温かさと正確さのトレードオフ」を、AIが学習データを通じて内面化しているのではないかと分析している。検証対象には「Meta」、「Mistral」、「アリババ」、「OpenAI」の「GPT―4o」が含まれた。 詳しくはこちら…