最新消息 | 國際實務



 倫理道德是人工智能的根本,相關規範尚待立法

 

【資料來源:新華網、人民網】

 

人工智能(台灣稱「人工智慧」)是科技走在法律之前的典型範例。人工智能最早可溯自上世紀50年代的美國,但今日中國大陸也已經邁入人工智能大國之列,據聯合國下的WIPO公布之研究報告《技術趨勢2019:人工智能》,在全球人工智能領域競爭中,美國和中國大陸居於領先地位。

人工智能AI專利申請最多的前20家科研機構中,有17家來自中國大陸;AI相關科學出版物數量排名前20的科研機構中,10家來自中國大陸;全球前30AI專利申請方中的4家科研機構,有3家來自中國大陸。而據CNNIC43次調查報告顯示,至20186月為止,中國大陸人工智能企業數量已經達1,011家,主要集中在北京、上海和廣東。其中,北京擁有395家企業,成為全球人工智能企業最多的城市。

人工智能還帶動了移動網路、大數據、超級計算、傳感網、腦科學等新理論新技術迅速發展,呈現深度學習、跨界融合…等新特徵,對中國大陸的經濟發展、社會進步,甚至國際政治經濟格局等方面,都產生重大深遠的影響。但是,相關規範立法卻付之闕如。

中國大陸已經將與人工智能相關的立法列入立法規畫,包括倫理道德框架、隱私保護等問題。2018710日到11日在天津高新區舉行雷克大會(2018機器人與人工智能大會)上,中國大陸從政府部門到產學研各界對人工智能發展所涉及的法律和倫理問題,都給予高度關注。其實中國大陸很早就開始研擬人工智能相關法律,例如:鼓勵人工智能的開放平台和加速自動駕駛相關立法,但這些只是枝微末節;中國大陸在20177月國務院曾發布《新一代人工智能發展規劃》,這規畫只是要求對人工智能在部分領域初步建立倫理規範和政策法規,但未上升至法律層面,所以中國大陸仍有待加速人工智能立法。

上面提到的2018雷克大會主論壇上,工信部賽迪研究院曾發佈了《人工智能創新發展道德倫理宣言》(以下簡稱《宣言》)。《宣言》共六章,22條,包括人工智能系統,人工智能與人類的關係,人工智能具體接觸人員的道德倫理要求,人工智能的應用,當前發展人工智能的方向等方面。

《宣言》第二章第五條規定:人工智能的發展應當始終以造福人類為宗旨。這條規定是防止人工智能的巨大優勢轉為人類生存發展巨大威脅的關鍵所在。

第六條規定:無論人工智能的自主意識能力進化到何種階段,都不能改變其由人類創造的事實。不能將人工智能的自主意識等同於人類特有的自由意志,模糊這兩者之間的差別可能抹殺人類自身特有的人權屬性與價值。

第七條規定:當人工智能的設定初衷與人類整體利益或個人合法利益相悖時,人工智能應當無條件停止或暫停工作進程,以保證人類整體利益的優先性。

工信部賽迪智庫政策法規研究所所長表示:發展人工智能不僅存在技術或應用問題,更存在顛覆社會性、倫理性甚至人性的跨領域問題。為此,在大量研究和調研的基礎上,工信部賽迪研究院公布了《人工智能創新發展道德倫理宣言》,希望通過道德倫理約束,幫助人工智能產業健康發展。

在此之前,英國議會的上院人工智能特別委員會也曾於2018416日公布報告:在發展和應用人工智能過程中,有必要把「倫理道德」放在核心位置,以確保這項技術更好地造福人類。報告中也提到英國人工智能發展前景,以及這項技術可能帶來的改變和風險;更指出應確立一個適用於不同領域的「人工智能準則」,主要包括5個方面:

1.人工智能應為人類共同利益服務;

2.人工智能應遵循可理解性和公平性原則;

3.人工智能不應用於削弱個人、家庭乃至社區的資料權利或隱私;

4.所有公民都應有權利接受相關教育,以便能在精神、情感和經濟上適應人工智能發展;

5.人工智能絕不應被賦予任何傷害、毀滅或欺騙人類的自主能力。

與此有關的消息是美國臉書公司資料洩露醜聞引發的爭議。在英國議會的人工智能特別委員會報告中指出,個人應對自己的資料及其如何被使用擁有更大的控制權,有必要改變資料的收集和獲取方式,以更好地保護公民隱私。此外,人工智能雖然會讓許多工作的效率提升,也會讓不少工作消失,同時創造新的就業機會,因此政府有必要在勞動力技能培訓等方面加大投入,以便降低人工智能發展帶來的負面影響。

中國大陸在2018年世界人工智能大會開幕式上就強調:要處理好人工智能在法律、安全、就業、道德倫理和政府治理方面提出的新課題。由於人工智能屬於新領域,如何把握適當的邊界是關鍵,尤其是考慮到人工智能可以應用到金融、醫療、交通等方面,所以若以一部總括性的法律來規範,有可能阻礙人工智能的發展。但具體究竟應該如何著手,學者看法是等人工智能過段時間,再總結經驗找到規律,然後立法。因為在不同領域,涉及的立法不同,例如:無人駕駛、智能醫療,法律要處理的就屬於完全不同的問題。在醫療方面,統一電子病歷格式、如何在不同醫療機構間交換、如何保護患者隱私、病歷內容應該包括哪些內容…,都應該納入立法規範。

人工智能發展過程中的「數據孤島」問題,無法和其他醫療機構進行交換的電子化病歷,使得病人到不同醫院就要重新做一次檢查,這個就是有必要透過立法來解決的,要推動數據共享,所以要透過政府的力量制定相應的標準。

人工智能發展,其實現在市場還算早期階段,推動人工智能在生產端,可以大規模提高生產製造效率,這是企業必須了解的,否則可能會被淘汰。而這樣一個創新的領域,也肯定會存在泡沫,大眾投資創業研發方向,免不了跟著趨勢走,所以一定會有泡沫。人工智能行業走向成熟階段,就是優勝劣敗的過程。

然而,人工智能還是要有一套規範,人工智能立法主要的挑戰有二方面:

一、在原來法律體系中並沒有人工智能的法律法規,人工智能是一個全新的領域,它所帶來的正面和負面影響都是人類未知的,而法律體系的討論制定則是一個比較漫長的過程。

二、人工智能的發展日新月異,法律體系要如何與時俱進,才能滿足人工智能產業發展和社會健康進步的需要,這也是一個很難的課題。

無論如何,人工智能的立法核心,必須以人為本,這是立法的關鍵,也是根本。人工智能首先要保障人類的生命和財產安全,也就是人工智能一定只能在風險可控範圍內使用,例如:自動駕駛領域,其應用的門檻和標準;醫療領域,人工智能要達到一定的準確度,且最好通過一定的資質認證,才能應用在人體醫療上。

其次,人工智能應該兼顧未來社會人文的需要,倡導人機耦合的模式,人工智能是用來幫助人的,而不是一種替代關係。所以在醫療上,人工智能系統是輔助診療系統醫生助手,在法律上,人工智能是為刑事案件輔助審判。

第三,人工智能立法對人民還是很陌生的,對技術也不是特別了解,所以人工智能在立法同時還要有檢測手段,在檢測人工智能安全性上必須要有測試標準和方法,這樣才能落實立法。

第四,人工智能的立法,也應該具有針對性,立法時在一定範圍內先進行試點,通過驗證後才大規模推動。 

最後,人工智能和隱私權也有很大的關聯。目前很多數據,都是在用戶不知情的情況下被企業拿走,從技術層面看,應該透過人工智能技術的發展,給予用戶更多的選擇權。

 
Top  
 
 
  11th F1., 148 Songjiang Rd., Taipei, Taiwan | Tel : 886-2-2571-0150 | Fax : 886-2-2562-9103 | Email : info@tsailee.com.tw
© 2011 TSAI, LEE & CHEN CO LTD All Rights Reserved
   Web Design by 深白設計
Best viewed with IE8.0 or higher with 1024*768 resolution