LLMの判定はなぜ信頼できないのか
🕒
🔗
元記事を見る
カテゴリ
科学・技術大規模言語モデル(LLM)は、人事選考や法判断などの領域で活用が進む一方、その判断には大きなバイアスや不安定性が存在します。選択肢の順序、評価基準の並び、プロンプトの書き方一つで結論が変わる現象が多くの実験で確認されています。ラベリングやスコアリングの設計、モデルの使い分けなどを工夫しない限り、LLMに頼った判断は恣意性を帯び、社会的に重大な誤判につながる可能性があります。