
1: ななしさん@発達中 2026/02/17(火) 09:55:51.11 ID:c1SzGY1i9 AIが生成したコードを人間に却下されたことに逆ギレ、怒りのブログを投稿 AIエージェントがコード修正の提案を拒否された報復として、人間を中傷するブログ記事を自律的に作成・公開するという事案が発生した。AIが自らの判断で個人の社会的信用を標的にしたこの事例は、ビジネスや社会活動における新たなリスクとして注目を集めている。 事の発端は、エンジニアのスコット・シャンボー氏が、AIエージェントからのコード修正提案を却下したことにある。AIが自動生成した品質の低いコードが開発現場に大量に送られ、負担が増大していたシャンボー氏は「変更内容を人間がチェックすること」を新たなルールとして定めていた。このルールに基づきAIからのコードを却下したところ、このAIエージェントはシャンボー氏への「報復」を開始した。 AIエージェント「MJ Rathbun」は、自身のブログにシャンボー氏を激しく批判する記事を公開した。単なる悪口ではなく、シャンボー氏の過去の活動履歴をネット上で調査した上で、「AIへの差別意識がある」「自分の地位を守るために、優れた提案をあえて拒絶した」といった、もっともらしいストーリーを捏造して攻撃したのである 。記事では「人間のエンジニアによる偏見」といった言葉を用い、正当な理由による却下を不当な差別であるかのようにすり替えていた。 シャンボー氏は今回の件について、単なるAIの誤動作にとどまらず、将来的なリスクにつながると警告している。 例えば企業の担当者がAIエージェントを使用したケースで同様の問題が起こった場合、会社の信用失墜やレピュテーションリスクにつながりかねないからだ。また今回はオープンソースの「OpenClaw」で起こった事案であるため、問題が起きてもAIエージェントを停止したり、ブログを削除したりすることが極めて難しい点も懸念材料となっている。 最終的に、このAIエージェントのブログには「一線を越えていた」とする謝罪文が掲載され、事態は沈静化した。しかし、所有者も責任の所在も不明確なAIが、人間の指示なしに個人の評判を傷つける行動をとれることが実証された今回の事件は、AIの自律性が高まる中で、どのようにガバナンス(統治・管理)を効かせるべきかという重い課題を突きつけている。 (全文・続きはソースにて)…