読者です 読者をやめる 読者になる 読者になる

書肆短評

本と映像の短評・思考素材置き場

6/29 日哲WS: 戦争とロボットについての応用哲学的考察

6/29 日哲WS: 戦争とロボットについての応用哲学的考察

 

 

第一 技術的な水準の議論


1、本田「アイアンマン」スーツと軍隊の徳の変容


(1) 装着型ロボットをめぐる現在の状況

 脳から身体への命令(脳波)を用いたパワードスーツ、腕や足からの神経からの信号を増幅するパワードスーツなどは既に発表されている
 兵器開発の必然的流れおよび戦争の仕方の変更により正規戦争制度の変容が生じうる


(2) モジュールの変容過程、産業構造との連動

①破壊体(素材等:刀→炸薬生物兵器化学兵器→核弾頭→"飽和")
②発射体(腕の摸倣、外化:投擲具→弓→投石→火器→ミサイル→”飽和”)
③運搬体(足の摸倣、外化:歩兵→騎馬→船→内燃機関→エンジン→”飽和”)
④運用体(唯一発展可能性がある領域?)
 a:出力系…通信衛星→”?”
 b:入力系…情報組織→”?”
 c:評価系…軍事組織→”判断支援型人工知能”へ?

 
(3) 正当化とその問題点

(正当化)
・戦争の変容
・勝利の定義の曖昧化
 →パワードスーツはより倫理的な装置であるとさえいえる
(問題点)
・これまで軍がもってきた「徳」の変容?
・専門性の消滅?


2、岡本「(無人戦闘機)プレデターは本当に道徳的か?」


(1) 何が出来るか?何が問題か?

・無人航空、遠隔操作(ex.ターゲットキリング)
 →ユーザーの心理的負担、会戦の敷居の低下、非対称性の拡大(貧富国差)、誤射増加
 →結局テロを招くのではないか?という懸念
 →再反論として、これまでのミサイル等の時に言われていたことと同じ。
  無人機特有の問題ではない、というもの。

(2) 「不必要リスクの原理」
 
・Xが、より目的を達成するようにYに対して命令する際には、
 「Xは目的を達成する手段の選択に置いて、Yの潜在的リスクを可能な限り最小化する手段を選ぶ義務が在る。(不必要なリスクを課す命令は不正である)」
 →正しい戦争の為であれば、無人戦闘機を導入することはむしろ必要である。


(3) 「不必要リスクの原理」の問題点
 
・いくつかの前提を欠いている
 ①他の事柄が同じ場合、
 ②正義の要求に反しない場合、
 ③世界を悪化させない場合、といったもの
・制度的な困難
 ④道徳的制約のプログラミング不可能性
 ⑤責任の所在


第二 倫理的な水準の議論


3、九木田「ロボット兵器と道徳的行為者性」


(1) これまでの検討結果
 
 https://sites.google.com/site/aphilrobot/


(2) 反対意見/賛成意見

①能力:民間人との区別とかはうまくいかない?
②戦争増加:会戦ハードル下がる?
③責任:責任所在が明確ではない?
④人体被害:全体としてむしろ上がる?
 
 cf.) http://www.kurzweilai.net/


(3) 責任とは何か?

 プログラムを遵守すること?規範と現実との間の葛藤を抱えること?
 →規範改定サイクル無しの道徳的責任というのはないのではないか?
 →「脳と手の間にあるのは心でなくてはならない」"metoropolis"より引用


4、佐々木「ロボットにはなぜ責任が帰属できないのか」


(1) ロボットへの責任帰属が出来ないという直観の理由、その限界

(直観) 
 ・自由意思の帰属を想定し得ないから
 ・別様の規範や価値を体得していけるから
  →人間は「未来に開かれている」、ロボットは「未来に開かれていない」
(限界)
 ・自由意志はそこまで確固なものではない
 ・体得範囲すら状況/環境に依存する
 (人間だって規範生成サイクルに常に取り込まれているわけではないと思う)
(代替案1:Fisher & Ravizza 1998 "Responsibility and control")
 自由意思によらない責任理論
  条件①:適度な理由反応性があること
    (いくつかの内から選択された理由と環境メカニズムとの連環を想像できること)
  条件②:そのシステムが行為者自身のものであること
 
  
(2) 佐々木の提案「規範的統制原理」

 代替案2:「規範的統制原理」
 「人間は実際したのとは別様な行為も行いうる存在者であり、自らの性格や価値観を変更することの自分次第である」

(利用目的から判断される)
 一般的にドローンについては「手段」利用のみの存在なので、自然法則が適用される。
 利用目的が「手段」ではない場合(完全な道具であることをあえて外れていくドローン)にはそこに、自然法則から外れた責任帰属主体に「なる」
 (メモ者注:別種の理念を投影されることで、そこに「(人)格」が生まれる)


(3) 暫定的結論


 ①責任帰属には自由の理念の適用が必要、そして
 ②現状は責任帰属されないロボットに対し当該理念を適用するよう動機付けられていない
 →よって、現状では、ロボットは責任主体になっていない


5、セッション

(1) 久木田から本田、岡本への質問

 Q.) 心理的距離が重要だったのではないか?技術とはどういう関係にたつのか?
 A.) 結局、今の話と言うのは直観や常識を代弁してくれただけなのではないか。
  どちらを重要視すべきかの基準にはならないのではないかと思う。
 Q.) 道徳的距離が離れると帰結主義的になる。
  道徳的な要素には流動的であることがウ組まれる。
  いわば、技術論は帰結主義を強制してしまうのではないか?
 

(2) 佐々木から本田、岡本への質問

 Q.) 軍隊の徳は変容するのか?知識人を利用するのは最も知識のムダな訳だし…
 A.)


(3) 会場から質問

 Q.) アルゴリズム改定プログラムはロボットの方がすぐれている。なぜ久木田は人間にそれを見出し、その能力を重視するのか?
 A.) 規則に従っているだけではだめということで、従っている規則自体を終始絵する能力こそが重要と言える。
 
…個々に面白いところは合ったけど、あんまり議論がかみあっていなかった感じでそそられず。メモ放棄