AIモデルがお互いに共食いをはじめ、崩壊の兆候を見せ始めているモデルが互いの生成データで学習する「共食い」により、モデル崩壊の兆候が現れている。合成データが増えると、誤差が蓄積し、出力の多様性や精度が低下。Nature誌の研究では、生成AIがネット上のAI生成コンテンツで訓練されると、初期にはマイノリティデータの消失、後期には性能の大幅低下が起きると報告。RAG(外部情報参照)も、ネットの低品質AIコンテンツにより誤った回答や偏見を増幅。人間生成データの確保やデータ選別が課題だが、大手テック企業のデータ独占やコスト増が障壁に。崩壊は顧客対応や医療診断など実用AIに影響を及ぼし、信頼低下や経済的損失を招く恐れがある。…