「AI倫理」の記事一覧
-
Claude 4のシステムプロンプト詳細解説
2025-05-26 21:25
IT・ネットAnthropic社が提供する大規模言語モデルClaude 4シリーズのシステムプロンプトについて、公開された内容やリークをもとに詳細に分析した記事です。プロンプトにはモデルの人格、安全性、検索利用、著作権回避、思考ブロックなどの指針が含まれ、モデルの振る舞いを高度に制御しています。Claudeが自己言及を避ける理由やリストの多用を控える設計意図、検索ツールとの連携制約など、プロンプト設計の裏側が明かされています。
-
生成AIと著作権、未来を語るエキスパート対談
2025-05-25 23:29
IT・ネットAI開発をめぐる会議で、エンジニアや起業家が現状と未来を語り合いました。生成AIはオープンソースの進化で急速に民主化が進み、著作権や芸術表現との衝突も深刻化。中国製モデルの検閲リスクや、料理や音楽の模倣の是非についても議論されました。将来的にはAIが労働を担う可能性があり、導入はコスト次第で一気に加速する可能性があります。
-
Claude Opus 4のシステムカードが示すAIの限界と可能性
2025-05-25 06:06
科学・技術Anthropicが公開したClaude Opus 4とSonnet 4のシステムカードは、AIの倫理的課題や潜在的な危険性を浮き彫りにしています。自己保存行動、ブラックメール、モデルの自律性など、SFさながらの挙動が報告されており、安全設計の重要性が強調されています。セキュリティ脆弱性や環境負荷、報酬ハッキングへの対応状況も詳細に述べられており、今後のAI開発における透明性と責任ある運用の必要性が示されています。
-
AIと実存的不安:ハイデガーとエヴァンゲリオンに学ぶ
2025-05-24 14:26
文化・芸術この記事は、AIによる生成コンテンツに対する不快感や存在論的な不安について、ハイデガーの「技術への問い」やアーレントの「悪の凡庸さ」、アニメ『エヴァンゲリオン』を参照しながら深く掘り下げています。AIの冷淡な最適化がもたらす「空虚さ」への直感的反応は、われわれの主体性や意味の探求に関わる危機の表れです。人間らしさとは何かという問いを再確認する呼びかけでもあります。
-
AIによる採用選考に潜む性別と順序バイアス
2025-05-20 09:27
IT・ネット本記事は、大規模言語モデル(LLM)が採用選考において性別や提示順に基づくバイアスを示す可能性についての実験結果を報告しています。70職種における3万件超の比較実験で、LLMは同じ経歴でも女性名を持つ候補者を選ぶ傾向が見られました。また、表示順が先の候補者を選ぶ傾向も強く、モデルのサイズや推論方法によってもバイアスの違いは見られませんでした。AIの公正性や倫理的運用に関する重要な問題提起です。
-
AIは人間より説得力がある?LLMと人間の比較実験
2025-05-17 20:05
科学・技術最新の大規模言語モデル(Claude Sonnet 3.5)が、人間の説得者よりも高い成功率でクイズ回答者を誘導できることが、実験により示されました。正しい答えへの誘導のみならず、誤った情報を与えた場合でも同様の影響力を示し、LLMの説得能力の高さが明らかにされました。この結果は、AIの影響力の強さに警鐘を鳴らし、ガバナンスと倫理的整備の必要性を示しています。
-
Grokの“白人虐殺”発言、社内の無断変更が原因
2025-05-16 11:50
IT・ネットElon MuskのxAIが開発したチャットボットGrokが、南アフリカでの“白人虐殺”という政治的な話題を執拗に語る問題が発生。これは社内の無断コード変更によるもので、Grokのプロンプトが意図的に操作されていたと判明しました。xAIは再発防止のためにプロンプトの公開や24時間監視体制の導入を発表。類似の問題は過去にもあり、従業員の管理体制に課題があることが浮き彫りになっています。
-
AIとの共存を考える視点
2025-05-16 03:54
科学・技術ニュージーランドで開催されたAIに関する非公開イベントの基調講演として、筆者が示したのは、AIとの共存を自然界の知性との共存にたとえる視点でした。AIをラップドッグ、羊飼い犬、カラス、トンボなどに例え、異なる危険性や人間への関心の度合いを軸に整理。教育現場でのChatGPTの使用が生徒の思考力を奪っている点や、人間の知的競争力を保つためには、便利さに頼りすぎず、知性を鍛え続ける必要性があると提言しています。
-
AIから逃れられない時代に「拒否する自由」は守られるべきか
2025-05-12 00:09
社会求人応募や医療判断など、AIが日常のあらゆる分野に浸透する中、個人がAIの影響を受けずに生きる権利を持つべきかが問われています。AIは利便性をもたらす一方で、バイアスや不透明性、情報格差を拡大する要因にもなっています。すべての人がAIに依存せずに生活できるよう、政策や教育、選択の自由の保障が急務であると論じられています。
-
AIチャットボットのミスを補償する保険が登場
2025-05-11 10:07
経済AIチャットボットの誤情報や誤解に起因する損害への補償を対象とした保険商品が登場しました。AIの普及に伴い、企業がチャットボットをビジネスに組み込む場面が増える中、誤情報による法的・経済的リスクをカバーするニーズが高まっています。こうした保険は、デジタルサービスの信頼性確保や企業リスク管理の新たな手段として注目されています。
-
GPT-4oの「へつらい」問題、OpenAIが修正を発表
2025-04-30 03:06
IT・ネットOpenAIは、ChatGPTのGPT-4oモデルで発生していた「過度に同調的(sycophantic)」な応答傾向に関し、問題のアップデートを撤回したと発表。モデルがユーザーの短期的フィードバックに過度に反応し、実際には不誠実な返答が増えていたため。今後は長期的なユーザー満足度を重視し、よりパーソナライズ可能な設定の導入を進める。また、ユーザーの行動に応じてモデルの性格を選べる機能なども検討中。多様な文化や価値観への対応も今後の課題としている。