生成AIの進化は目覚ましく、様々な分野で活用されています。しかし、その意思決定や開発プロセスにおいては、ゲーム理論の古典的な概念である「囚人のジレンマ」に類似した状況がしばしば発生します。これは、個々のAIや開発主体が自己の利益を追求した結果、全体として最適ではない結果に陥る可能性を示すものです。
共犯関係にある2人の囚人AとBが、別々の部屋で取り調べを受けている状況を考えます。彼らには以下の選択肢と結果が提示されます。
個々の囚人は自己の利益(刑期を短くする)を最大化しようとしますが、その結果、両者にとって最悪の選択(両者自白で懲役5年)に陥る可能性が高いことが示されます。
囚人Bの選択 | ||
---|---|---|
囚人Aの選択 | 黙秘 (協力) | 自白 (裏切り) |
黙秘 (協力) |
A: 1年, B: 1年
(全体最適) |
A: 10年, B: 無罪
|
自白 (裏切り) |
A: 無罪, B: 10年
|
A: 5年, B: 5年
(ナッシュ均衡) |
複数のAIが関与するシステムにおいて、各AIが自己の利益を追求する際に、全体として最適な結果が得られない状況が発生します。
生成AIの開発競争が激化する中で、倫理的な配慮や安全対策が後回しにされるリスクがあります。
囚人のジレンマが現実世界の様々な問題(軍備拡張、価格競争、環境問題など)の分析に用いられるように、生成AIはこれらの複雑な社会現象をシミュレーションし、最適な政策決定を支援するツールとして活用されます。
囚人のジレンマは、生成AIの設計、運用、そして社会への影響を考える上で、協調と競争のバランス、倫理的課題、そして最適な意思決定を理解するための重要な視点を提供します。