IPニュース | 中国関連


道徳倫理は人工知能の基盤
関連規範の立法化が待たれる

 

 【出典:新華網、人民網】

 人工知能(台湾では、「人工智慧」という)は、科学技術が法律規範の先を行く典型的な例である。人工知能の歴史は1950年代のアメリカに遡ることができるが、今日では、中国も既に人工知能大国の仲間入りを果たしている。国連の専門機関であるWIPOが発表した研究報告『テクノロジートレンド2019:人工知能』によると、全世界的な人工知能分野の競争においては、アメリカと中国が主導的地位にある。

 人工知能AIに関する専利出願件数では、トップ20の科学研究機関のうち17機関が、AI関連の科学出版物数では、トップ20の科学研究機関のうち10機関が中国の機関であった。世界トップ30AI専利出願人の4つの科学研究機関のうち、3つの機関が中国の機関であった。CNNIC43回調査報告によると、20186月時点で、中国の人工知能企業の数は、既に1,011社に達し、主に北京、上海、広東に集中している。特に北京には395社の企業があり、世界で人工知能企業が最も多い都市となっている。

 人工知能は、モバイルネットワーク、ビッグデータ、スーパーコンピュータ、センサーネットワーク、脳科学などの新しい理論と新しい技術の迅速な発展を促し、深層学習、分野を跨いだ融合などの新たな特性を提示し、中国の経済発展、社会進歩、更には国際的な政治経済構造などにも大きな影響を及ぼしているが、関連規範はまだ立法化されていない。

 中国では、既に道徳倫理的枠組み、プライバシー保護等の問題を含む人工知能に関する法律が立法計画に盛り込まれている。2018710日から11日まで、天津高新区で開催された雷克大会(RAICRobotics and Artificial Intelligence Conference、ロボットと人工知能会議)では、中国の政府部門から産官学まで様々な業界が人工知能の発展に係る法律と倫理の問題に対して高い関心を寄せた。実は、中国では早くから人工知能関連の法律について検討を開始している。例えば、人工知能のオープンプラットフォームの奨励と自動運転に関する法律制定の加速化などであるが、これらはほんの一部に過ぎない。20177月に、中国国務院は、『次世代の人工知能発展計画』を発表したが、この計画では、一部の分野で人工知能に対する倫理規範と政策法規の初歩的な策定が要求されただけで、法律レベルに達していないため、依然として人工知能に関する法律の制定を加速させる必要がある。

 上記の2018年雷克大会のメインフォーラムで、中国工業情報化部の賽迪研究院は、『人工知能の革新的発展に関する道徳倫理宣言』(以下、『宣言』という)を発表した。『宣言』は計6章、22条からなり、人工知能システム、人工知能と人類の関係、人工知能が実際に人に係る際の道徳倫理的条件、人工知能の応用、現段階の人工知能の発展動向等が含まれている。

 『宣言』の第2章第5条には、人工知能の発展は、常に人類に恩恵をもたらすことを主たる目的としなければならないと規定されている。この条文の規定は、人工知能の大きな利点が人類の生存にとって大きな脅威になるのを防ぐためのものである。

 第6条には、人工知能の主体的意識能力の発展がどの段階にあっても、人類によって作られた事実を変えることはできないと規定されている。人工知能の主体的意識能力は人類特有の自由意思と同等であってはならず、この両者の違いを曖昧にすると、人類特有の人権の属性と価値が消滅してしまう可能性がある。

 第7条には、人工知能の設定意図が人類全体の利益又は個人の合法的利益に反する場合、人類全体の利益を優先させるために、無条件に、人工知能の作業プロセスを停止又は中断しなければならないと規定されている。

 中国工業情報化部の賽迪智庫政策法規研究所の所長は、「人工知能の発展には、技術や応用の問題だけではなく、社会性、倫理性、更には人間性を覆す分野を越えた問題が存在している。したがって、大量に研究及び調査をしたうえで、工業情報化部の賽迪研究院は、『人工知能の革新的発展に関する道徳倫理宣言』を発表した。道徳倫理による制約が、人工知能産業の健全な発展に繋がることを望む」と述べた。

 これの前に、英国議会の上院の人工知能特別委員会も、2018416日に「人工知能の発展及び応用過程において、この技術が人類に更なる恩恵をもたらすことを確実に保証するために、「道徳倫理」を中心に置かなければならない」とのレポートを発表した。レポートでは、英国の人工知能発展の将来性、及びこの技術がもたらし得る変化とリスクについても言及し、更に、様々な分野に適用可能な「人工知能の原則」を確立する必要があることも指摘している。その原則は主に次の5点である。

  1. 人工知能は、人類共通の利益に資するものでなければならない。
  2. 人工知能は、理解性及び公正性の原則に従わなければならない。
  3. 人工知能は、個人、家庭さらにはコミュニティのデータ又はプライバシーを侵害することに用いてはならない。
  4. すべての国民は、精神的、感情的、経済的に人工知能の発展に適応できるように関連する教育を受ける権利を有する。
  5. 人工知能には人類を傷付け、破滅し又は欺くための如何なる主体的能力も付与されるべきではない。

 これに関連するニュースとしては、アメリカのフェイスブック社の個人情報流出のスキャンダルがある。英国議会の人工知能特別委員会はレポートのなかで、「個人は自己のデータ及びその使用についてより大きなコントロール権を持つべきであり、国民のプライバシーをよりよく保護するために、データの収集及び取得方法を変更する必要がある。また、人工知能によって多くの仕事の効率が上がる一方で、多くの仕事が消滅してしまうと同時に新たな雇用機会も創出されるため、政府は人工知能の発展がもたらす悪影響を減らすために、労働力の技能訓練などへの財政投入を増やすべきである」と指摘した。

 中国で開催された2018年世界人工知能大会の開会式では次のことが強調された。「人工知能によって生じた法律、安全保障、雇用、道徳倫理及び政府統治における新たな課題に対処する必要がある。人工知能は新しい分野に属すため、適切な境界線をどう把握するかが重要となる。特に、人工知能が金融、医療、交通等に応用可能なことを考えると、包括的な法律で規制した場合、人工知能の発展を阻害する可能性がある。しかし、具体的にどう進めるべきかについて、学者の間では、もう少し時間を置いて人工知能の様子をみて、その経験をまとめ、一定の法則を見出してから立法化すべきとの見方がある。分野が異なると、関連する法律も違ってくる。例えば、自動運転、スマート医療などは、法律で処理すべき問題が全く異なる。医療分野では、例えば、電子カルテのフォーマットの統一化、異なる医療機関間での交換方法、患者のプライバシー保護方法、カルテに含めるべき内容など、いずれも法律に盛り込む必要がある。」

 人工知能の発展過程においては、他の医療機関と電子カルテを交換できないために、患者が別の病院に行った際に検査をやり直さなければならないといった「情報サイロ」問題があるが、この問題は、立法を通じて解決しなければならず、データの共有を促進するには、政府の力で相応の基準を制定する必要がある。

 人工知能の発展は、特に現在の市場においては、まだ初期段階にあり、人工知能を生産側において活用すれば、生産効率を大幅に高められることは、企業が理解しておかなければならないことである。理解していなければ、淘汰される可能性がある。このようなイノベーション分野にもバブルは必ず存在する。大衆が起業や研究開発に投資を行う場合、トレンドを追いかけるのは必然的なことであるため、バブルは必ず起こる。人工知能業界が成熟段階に入る時は、優勝劣敗の過程を経なければならない。

 しかしながら、人工知能にはやはり規範が必要である。人工知能に関する法律の制定には主に課題が2つある。

 一つ目は、従来の法律体系には、人工知能に関する法律法規がなく、人工知能は全く新しい分野であり、人工知能がもたらす良い影響と悪い影響はいずれも人類にとって未知のものであるため、法律体系を討論し制定するには比較的長い時間がかかるという点である。

 二つ目は、人工知能は日進月歩で発展しており、人工知能産業の発展及び社会の健全な進歩の要求を満たすために、法律体系はどのように時代と歩調を合わせるべきかという点である。これも非常に難しい課題である。

 いずれにせよ、人工知能に関する法律制定の核心は、人間を主軸とすべき点である。それが立法化の鍵であり、基盤でもある。第一に、人工知能は人類の生命と財産の安全を保障しなければならない。つまり、人工知能は、一定のリスクをコントロール可能な範囲でのみ使用すべきである。例えば、自動運転分野の場合、その応用の条件と基準は何か、また医療分野の場合、人体医療に応用するためには、人工知能が一定の精度に達し且つ特定の資格認定に合格したものである必要がある。

 第二に、人工知能は未来の社会の人文的な必要性を同時に考慮し、人間と機械の調和モデルを提唱するべきである。人工知能は人間を助けるものであり、代替関係にあるのではない。そのため、医療においては、人工知能システムは、医師の診療を補助する役割を果たすものであり、法律においては、刑事事件の審判を補助する役割を果たすものである。

 第三に、人工知能の法律制定は人民にとってまだ経験したことがなく、技術についても特に知識がないため、人工知能に関する法律を制定するにあたっては、同時に検証手段も必要である。人工知能の安全性の検証については、検証基準と検証方法が必要であり、それがあってはじめて立法化が実現できる。

 第四に、人工知能の法律制定には、目標の設定が必要である。立法時に、一定の範囲内でまずは試験的に実施し、検証を行ってから大規模な実施を推進すべきである。

 最後に、人工知能とプライバシーの間にも強い相関関係がある。現在、多くのデータが、ユーザーが知らないうちに企業に取られている。技術的な観点からいえば、人工知能技術の発展を通して、ユーザーにより多くの選択権を与えるべきである。 

Top  
 
 
  11th F1., 148 Songjiang Rd., Taipei, Taiwan | Tel : 886-2-2571-0150 | Fax : 886-2-2562-9103 | Email : info@tsailee.com.tw
© 2011 TSAI, LEE & CHEN CO LTD All Rights Reserved
   Web Design by Deep-White
Best viewed with IE8.0 or higher with 1024*768 resolution