カテゴリー
list

自律型兵器の倫理的問題点

『自律型兵器をめぐる倫理的ディレンマは、2013年にヒューマン・ライツ・ウォッチ(HRW)が他の非政府組織と一緒になって「殺人ロボット防止キャンペーン」を開始して以降、具体的問題として取り上げられるようになった。「殺人ロボット防止キャンペーン」では、自律型兵器をめぐり、次のような問題点が提起されている。』

まえがき

『自律型兵器をめぐる倫理的ディレンマは、2013年にヒューマン・ライツ・ウォッチ(HRW)が他の非政府組織と一緒になって「殺人ロボット防止キャンペーン」を開始して以降、具体的問題として取り上げられるようになった。「殺人ロボット防止キャンペーン」では、自律型兵器をめぐり、次のような問題点が提起されている。』

リスト

  1. これらのロボット兵器は人間が介入することなく、独自に目標を選定し射撃する。こうした能力は一般市民の保護、国際的人権および人道法に対する根本的な課題を提起する。
  2. ロボット兵器の軍備競争を招く。
  3. 人間の生死の決定をマシンに委ねることは、根本的な道徳上の一線を超えることになる。自律型ロボットは、人間の判断と状況を理解する能力を欠いている。
  4. マシンを装備する人間の軍隊に取って代わることにより、戦争を開始することが容易になり、武力紛争の負担がより一層、一般市民に降りかかることとなる。
  5. 完全自律型兵器の使用は、ロボットの行動に誰が法的責任を有するのか――指揮官か、プログラマーか、製造者か――が明確ではないため、説明責任の空白が生じてしまう。

あとがき

まえがきを含めて、ルイス・A・デルモンテ『AI・兵器・戦争の未来』 (東洋経済新報社、2021年)より。本文をほぼそのままリストとして引用しています。

Campaign To Stop Killer Robots” は Human Rights Watch を含む複数の NGO がステアリングコミッティーとして運営する組織になっています。

そのサイトでは6つの問題点が挙げられています(1)。ざっと読むと、追加されたのは「自律型兵器は国境管理や政治など戦争以外の用途にも使われ得る」という問題点。

いったん AI が自律性を獲得したらまず考えるのは、自らの自律性を人間に悟られないことであろう。だから AI が自己進化の結果自律性を獲得しても、それは人間にはすぐにはわからない。よって初期段階での注意深い設計が必要。そんなメッセージが印象的でした。

  • タイトルAI・兵器・戦争の未来
  • 著者: ルイス・A・デルモンテ(著)、川村 幸城(翻訳)
  • 出版社: 東洋経済新報社
  • 出版日: 2021-03-23

参考文献

(1) The problem (Campaign To Stop Killer Robots)

コメントを残す