AI兵器をめぐる本当の問題 ― なぜAnthropicは完全自律兵器に反対しているのか

  • 米国のAI企業Anthropicは、自社のAIを完全自律型兵器や大規模監視システムに使用することを認めていない。この姿勢は、米国政府との対立の原因となり、軍事契約からの排除につながった。
  • 企業が政府と対等な立場で交渉する状況は、国家の主権とビッグテックの影響力の関係という問題を浮き彫りにしている。国家だけでなく、企業も安全保障や戦略的意思決定に影響を与える存在になっている。
  • 監視システムへの反対は、プライバシー保護の倫理的主張として語られている側面があるが、同時にマーケティングや企業のポジショニングとして利用されている面もある。
  • 監視や国家安全保障の範囲をどこまで認めるかという判断は、本来は企業ではなく議会や司法が決めるべき政治的問題である。
  • 戦争の本質についての議論では、戦争は敵を殺害するための手段であり、より強力な兵器を持つことが勝利に直結するという軍事理論の現実主義が紹介されている。
  • そのため、AIを兵器に使うこと自体を倫理だけで否定する議論には限界がある。もしAIがより強力な兵器を生み出すなら、原理的には軍事利用を完全に避ける理由は存在しない
  • Anthropicの主張の核心は倫理ではなく、現在のAIの信頼性の問題である。現時点のAIは、完全自律型兵器を安全に運用できるほど信頼できる技術ではないとされている。
  • 特に、AIは人間の軍人が行うような高度な判断や状況判断を確実に再現できないため、完全に人間を排除した兵器システムは危険だとされる。
  • したがって、この立場は自律兵器そのものへの絶対的反対ではなく、現時点の技術では安全に運用できないという判断として理解できる。
  • 最終的な問題は技術そのものではなく、どのような兵器をどの程度の破壊力で使用するかという政治的判断であり、本来は国家が決めるべき問題である。


A longer text in English is here.