我々は、第3次人工知能(AI)ブームの只中にあります。人工知能が利用できるデータ量と計算能力の向上に加え、今まで人間が外から与えていた「現実世界の何に着目するか」という学習枠組み(特徴量)をデータから自律的に抽出する深層学習(ディープ・ラーニング)の手法が開発されたことにより、人工知能の技術進歩が加速しているのです。
東京大学の松尾教授は、画像認識から動画やセンサ情報に基づく行動予測・異常検知に進みつつある人工知能は、2020年頃には自動運転を始め環境変化に即応した自律行動ができるロボティクスを実現すると予想しています。その後、更に進んで外界との交渉や言葉との照応といった能力を獲得した後、2030年頃には大規模知識獲得に進んで教育現場やオフィスでの支援機能を実現するといいます。
自律学習・動作する人工知能への期待と懸念
こうした人工知能の技術進歩に伴い、人工知能や人工知能が制御する機械機器は、人間の常時監視・操作を離れて「自律的に」動作するようになるでしょう。人的資源の節約や社会経済コストの削減に加えて、人為的過誤のリスクを減らすことにも繋がると期待されています。
他方、人間社会は、自律的な個人に自らの行為・結果に対して法的・道徳的な責任を負わせることで、社会的に有害な行動(犯罪や過失)を抑制し、社会の紐帯を維持してきました。今後、従来人間が行っていた作業領域の一部が人工知能に置き換わっていくとき、人工知能の動作を善導するための仕組みをどう作るかが問われています。「自律的」に学習・動作する人工知能に対して、製造者、プログラマ、利用者の何れも責任を取れないとすれば、人工知能の誤動作や事故、反社会的行動をどうやって防ぐというのでしょうか。
人工知能の責任問題に対する米研究者の勧告
ヴァージニア大学のジョンソン教授等は、全米科学財団(NSF)プロジェクト成果の一環として、人工知能の行動結果に対する責任の所在に関して、 基本原則と4つの勧告を取りまとめ、米国電気電子学会(IEEE)の学会誌上に発表しました。
まず、人工知能の動作結果の責任を人間に帰着させることを基本原則とします。その上で、@他の人工物や人間系と相互作用して機能する社会技術システムとして人工知能を捉えるべきこと、A人工知能の動作結果に関する責任問題について開発初期段階から検討すべきこと、B人工知能の「自律性」について言及する際には、その意味を慎重かつ明確に特定すべきこと、C人工知能の責任問題については、状況・文脈毎に形成される責任慣行に沿って処理されるべきこと、の4点を勧告しています。
人間が責任を取る人工知能社会
ジョンソン教授等の勧告は、要すれば、ブラックボックス化して誰も十分な責任を取れない人工知能をどのように善導するか、という懸念から出発する代わりに、従来通り人間に責任を負わせられるように、人工知能の開発と人工知能を取り巻く社会慣行をどう方向付けていくか、というように問題を再設定しようという提案です。
人工知能が、独立した法的・道徳的責任主体たり得るところまで進歩するには、まだまだ長い時間がかかります(勧告B)。当面は「道具」としての人工知能を社会全体で上手く使っていくほうが理に叶っています(勧告@、C)。そのためには、人工知能の開発側でも、人間の判断・行為を代替するためのアルゴリズムだけではなく、動作の責任を然るべき人間に帰着させるために必要な仕組み、例えば透明性や監査可能性、安定性や安全性といった諸要素を備えるよう、併せ技術開発を進める必要があります(勧告A)。 |