自律型兵器の倫理的問題点


まえがき

『自律型兵器をめぐる倫理的ディレンマは、2013年にヒューマン・ライツ・ウォッチ(HRW)が他の非政府組織と一緒になって「殺人ロボット防止キャンペーン」を開始して以降、具体的問題として取り上げられるようになった。「殺人ロボット防止キャンペーン」では、自律型兵器をめぐり、次のような問題点が提起されている。』

リスト

あとがき

まえがきを含めて、ルイス・A・デルモンテ『AI・兵器・戦争の未来』 (東洋経済新報社、2021年)より。本文をほぼそのままリストとして引用しています。

Campaign To Stop Killer Robots” は Human Rights Watch を含む複数の NGO がステアリングコミッティーとして運営する組織になっています。

そのサイトでは6つの問題点が挙げられています(1)。ざっと読むと、追加されたのは「自律型兵器は国境管理や政治など戦争以外の用途にも使われ得る」という問題点。

いったん AI が自律性を獲得したらまず考えるのは、自らの自律性を人間に悟られないことであろう。だから AI が自己進化の結果自律性を獲得しても、それは人間にはすぐにはわからない。よって初期段階での注意深い設計が必要。そんなメッセージが印象的でした。

  • タイトルAI・兵器・戦争の未来
  • 著者: ルイス・A・デルモンテ(著)、川村 幸城(翻訳)
  • 出版社: 東洋経済新報社
  • 出版日: 2021-03-23

    参考文献

    (1) The problem (Campaign To Stop Killer Robots)

    タグ

    倫理 AI 戦争 ジレンマ 自律型兵器 兵器

    関連リスト