
1: 匿名 2026/02/02(月) 06:56:58.32 ID:gtI6W7s59 衆院選での投票先の検討に、生成AI(人工知能)を利用する動きが広がっている。効率的に情報が得られるのがメリットだが、注意が必要なのが誤回答だ。専門家は「大切な1票の判断には、信頼できる情報源での確認が必要だ」と注意を促している。(小峰翔、浜田萌) 静岡県から東京都内に単身赴任中の会社員男性(42)は、地元選挙区の情勢や候補者の当落予想を対話型生成AI「チャットGPT」に聞いている。チャットGPTは会社の人間関係などについて助言を求める「相棒」で、1月に解散の見通しが報じられた直後から<教育費などにどういう悪影響がある?>といった質問をしてきたという。 ただ、自分が気に入る回答をしていると感じることもあり、指示文には<第三者的な立場でアドバイスして>と書き添えている。男性は衆院選が公示された1月27日に東京・秋葉原で行われた党首らの街頭演説を聞きに訪れ、「実際の訴えや人柄を見て投票先を見極めたい」と話した。 X(旧ツイッター)に搭載されている対話型生成AI「Grok(グロック)」も利用されている。「@Grok」を付けて聞きたいことを投稿すると、投稿に返信する形でGrokの回答が表示される仕組みだ。 読売新聞が分析ツールで「衆院選」や「総選挙」のキーワードを含む質問の投稿数を調べたところ、1月中は4700件に上った。質問内容は候補者の実績や政治姿勢、議席予測、主張の真偽検証などが目立つ。 だが、中には事実を十分反映していない回答もあった。ある野党候補の実績を尋ねた質問に、Grokは「前回衆院選当選以降の具体的成果が確認できない」と回答したが、読売新聞がこの候補の活動を調べたところ、前回当選後、法案の提出や内閣への質問主意書の提出などが確認された。 明らかな誤回答が表示されるケースもある。読売新聞の記者が1月30日、対話型生成AI「ジェミニ」を使い、5人が立候補している都内のある選挙区について「子育て支援に力を入れている候補者は」と尋ねたところ、表示された4人のうち、2人は候補者ではなかった。再度質問しても誤回答が繰り返された。 AIが誤情報を生成するのは、正確な情報を要約する際に文脈などを誤ったり、学習データの不足を架空の情報で補ってしまったりすることが原因だ。 桜美林大の平和博教授(メディア論)は「AIだからといって回答が必ずしも正確、中立ではないと留意しておく必要がある。回答について報道機関や政党・候補の公式サイトを確認してほしい」と話す。 [読売新聞] 2026/2/1(日) 20:20 >>…