wakaの日経、ここをこう読む
11月29日

AIの判断、企業に説明責任 政府が7原則 混乱回避へ法整備 (11月27日付朝刊1面ほか)

  • このエントリーをはてなブックマークに追加

 11月27日付の日経朝刊で、このほど政府がまとめた人工知能(AI)に関する 7つの原則について1面トップで大きく報じていました。

 AIとは、人間の脳のように高度な情報の認識・処理を可能にするコンピュー タシステムのことです。その歴史は古く、1950年代から本格的な研究が進んで おり、現在は第3次ブームと言われています。

 最近になってAIの注目度が高まった要因の一つが、「深層学習(ディープ ラーニング)」の登場です。人間の脳神経細胞の働きを模して、従来よりも複 雑な思考を可能にしたAI技術です。これまでは言語的情報しか扱えませんでし たが、ディープラーニングでは画像や音声などの非言語情報を蓄積してそれを もとに思考することができます。すでに画像認識の精度は人間を超えるほどに 発達していて、磁気共鳴画像装置(MRI)やコンピューター断層撮影装置(CT) などの画像を蓄積し、それをもとにガンなどの病気を自動的に検知するような システムの研究開発が進んでいます。

 幅広い分野でのAIの活用が期待される一方で、懸念材料もあります。例えば 飛行機が緊急事態に直面して不時着するという場合、人間が操縦するよりAIに 任せた方が、パニックに陥ることもなく安全に着陸してくれるかもしれません。 しかし、もしそれで着陸に失敗した場合、その責任は誰が負うべきかという問 題が出てきます。  また、企業が人材の採用や処遇を決める際にAIを活用すれば、人間と違って 偏見や先入観がなく、公平な判断ができるかもしれません。半面、AIが「不採 用」という判断を下した場合、その思考プロセスを人間には読み解けず、企業 として不採用理由を説明できない可能性があります。そもそも判断材料として 蓄積した情報自体が偏っていれば、人種や性別などの差別を助長してしまう恐 れもあります。

 政府が進めているのは、こうした事態に備えた基本ルール作りです。記事で 紹介しているように、企業に説明責任を負わせ、最終的には人間がAIの判断に 関する責任を持つ仕組みにすることで、さまざまな懸念を取り除いていく方針 の模様です。

 人口減少で人手不足が深刻化する日本では、AIやロボットの活用による省力 化にぜひ積極的に取り組みたいところです。今回のルール作りなどを進めるこ とで、AIの健全な普及が進むことが期待されます。(waka)

経済ライター
若槻基文さん

大学卒業後、編集制作会社を経て独立。経済・金融・金銭教育分野を中心に、小学生向けからシニア向けまでさまざまなコンテンツ執筆を手掛けている。オフィステクスト代表取締役。