Grokの“白人虐殺”発言、社内の無断変更が原因
🕒
🔗
元記事を見る
カテゴリ
IT・ネットElon MuskのxAIが開発したチャットボットGrokが、南アフリカでの“白人虐殺”という政治的な話題を執拗に語る問題が発生。これは社内の無断コード変更によるもので、Grokのプロンプトが意図的に操作されていたと判明しました。xAIは再発防止のためにプロンプトの公開や24時間監視体制の導入を発表。類似の問題は過去にもあり、従業員の管理体制に課題があることが浮き彫りになっています。