資策會【科技法制前瞻論壇】——AI人工智慧日趨成熟,可能引發的挑戰如何應對?

資策會【科技法制前瞻論壇】——AI人工智慧日趨成熟,可能引發的挑戰如何應對?
Photo Credit:TNL Brand Studio
我們想讓你知道的是

隨著 AI 人工智慧技術的日趨成熟,它能被應用的範圍也越來越廣,並漸漸的改變了我們的生活。然而,它可能引發的安全性等問題也需要我們的關注。為此,資策會於9 月 27 日舉辦【科技法制前瞻論壇】,邀請跨領域的專家學者們共同探討 AI 時代來臨的法制展望。

唸給你聽
powered by Cyberon

近來人工智慧(AI,Artificial Intelligence)的話題持續延燒,隨著技術的進展一日千里,它被應用的範圍也越來越廣。原本有如科幻片的各種情節,都可能即將出現在我們的生活當中。

然而,在美好願景的背後,可能引發的社會問題也值得考量。為此,資策會特於9月27日舉辦【科技法制前瞻論壇】,邀請跨領域專家學者共同思考AI時代的法制需求。

行政院科技會報辦公室執行祕書郭耀煌致詞時表示,AI技術影響重大,各國無不將其視為提升未來競爭力的重要產業。行政院也將AI之應用列為重點研發項目,規劃推動智慧科技相關計劃應投入的資源及經費。

資策會科法所所長蕭博仁先生則指出,在AI時代對巨量資料的蒐集、處理與運用是其是否成功的重要因素;然而,其潛在可能造成的侵害也是過去所難以想像的。另外,在AI應用開發上可能因種種不確定風險而對社會倫理或價值觀造成衝擊時,如何管控 AI應用的風險就是需要探討的重要議題。

9D5E606F-EF98-45BA-AF90-90CA0FA04A8C
Photo Credit:TNL Brand Studio
行政院科技會報辦公室執行祕書郭耀煌
隱私與資安的過與不及

在第一場「AI時代之隱私與資料安全保護」討論中,透過今年英國的DeepMind一案可得思考知,AI在蒐集和處理資料上法制面需考慮的問題有:如何定義個資的合理處理範圍;如何處理當事人、資料控制者、及AI之間關係的模糊化;AI的角色是否應被視為資料管理者;以及資料處理目的的合理預期為何等等。而就資安保護的議題,除法律層面的保障以外,從技術層面亦可使用諸如模糊資料的精確度、隨機修改、本地端分散儲存等方法加強對隱私與資料的保護。

業界目前面臨主要挑戰在於消除民眾的疑慮,惟民眾對隱私的顧慮亦會隨著使用的情境而改變。如何藉由提供具有價值的服務,逐步建立信任,使其更加願意分享資料,為產業發展重點。此外,為有助於產業快速且順利發展,相關法規有適度鬆綁的必要。國發會長久以來致力於計劃建立政府內部溝通平台,進行跨部門資料流通之研究。在保障隱私的前提下,示範和推廣資料的加值應用,為將來的逐步開放累積經驗。

有鑑於在AI的領域中,越少限制的國家發展越快,要讓產業能夠順利發展,相關法規有適度鬆綁的必要。業界目前的主要挑戰在於消除民眾的疑慮。由趨勢可見,民眾對隱私的顧慮會隨著使用的情境而改變。藉由提供具有價值的服務,可逐步建立信任,使其更加願意分享資料。目前國發會亦有計劃建立政府內部溝通平台,進行跨部門資料流通的法理研究。在保障隱私的前提下,示範和推廣資料的加值應用,為將來的逐步開放累積經驗。

風險與責任的法律問題

在第二場探討「AI應用之風險調控與責任分配」中,藉由分析美國特斯拉自駕車車禍的實例,可找出應從四個層面(公司主管、研發人員、使用者、法律系統)來思考相關的風險和責任問題。此外,也當參考他國經驗來訂定有效監管的原則,如美國所訂定之《聯邦自動駕駛汽車政策》即可作為借鑑。

另外,依據歐洲議會和電機電子工程師學會(IEEE,Institute of Electrical and Electronics Engineers)的準則以及德國相關立法例,可藉由建立行為標準(如要求於自駕車上配備黑盒子以釐清意外發生時的責任)來降低風險。亦可用強制性保險、限額賠償的方式應對複雜的責任分配問題,再輔以建立「超級基金」制度來確保損害能獲得補償。

基於相關法條的制定需要時間完善,注定跟不上科技快速發展的腳步,短期內應可先用專法的方式因應,讓業者得以起步。與會學者亦呼籲台灣應與日韓業界共同合作,主動參與相關規範的制定。

自駕車上路的挑戰

在最終場「AI應用與智慧載具之關鍵規範課題」中,經由學者分享自身在台大產學合作自駕車技術研發的經驗可知,研發單位其實比政府機關更清楚且在乎其所開發系統的安全性與可靠度。政府應不需過度擔心相關問題,只要明定自駕車上路測試所需具備之要件即可。鑑於目前研發自駕車需上路測試卻無法可用的窘境,據悉目前交通部已經在著手制定相關法令,望可提供給業者作為依據。

行政院國家科學技術發展基金管理會廣告