稿源:中興大學法律專業學院/撰文鄭卉家
國立中興大學法律專業學院有鑑於ChatGPT盛行產生之衝擊,於112年4月22日召開《ChatGPT倫理及法律議題座談會》,就ChatGPT衍生的倫理及法律議題進行討論,以收集思廣益之效。
本次座談會共邀集5位校外專家學者參與,分別為台北大學法律學系及東海大學法律學系范姜真媺兼任教授、臺灣大學國家發展研究所張兆恬副教授、政治大學科技管理與智慧財產研究所莊弘鈺副教授、東海大學法律學系張凱鑫助理教授、逢甲大學土地管理學系李長曄助理教授。中興大學部分則有法律學系李惠宗教授兼系主任、蔡蕙芳教授、王敏銓教授及動物科學系江信毅副教授與會。
座談會由主持人中興大學法律學系林昱梅教授兼法政學院副院長進行開場致詞。林昱梅教授指出,AI相關的資料治理與可信任AI等法制議題,隨著ChatGPT使用者大增,更應加以重視。ChatGPT使用會衍生學術倫理、著作權及專利權之問題。其本身能否確保透明性、公平性及個人資料保護,其使用結果之侵權責任歸屬,以及公部門使用ChatGPT的安全性及公部門行政管理等問題均有待釐清。例如,ChatGPT回答農民施用肥料或農藥的種類與劑量,造成農作物受損,是否及應由何人負責,即有疑問。本次座談會功能重在蒐集問題,期待與會學者們激盪出不同領域間的火花。
與談人范姜真媺教授,先就ChatGPT的問世與功能,說明其與GOOGLE搜尋引擎的不同,再提出ChatGPT涉及資料庫的正確性、假新聞來源、誘發犯罪動機、對兒童教育影響、市場競爭獨占、數位落差等議題,應特別注重開發高科技的過程所犧牲的人性尊嚴與傳統倫理價值,以實踐永續發展,可參考歐盟的AI法規及日本的團體治理規範。
張兆恬副教授則提出,ChatGPT於美國和我國雖有研究顯示能通過法學與醫學證照考試,但ChatGPT是大型語言模型,不具有感知與思考能力,使用上應注意內容正確性、可更正性與可解釋性的問題。此外,使用者責任的面向也值得思考。張副教授也說明AI是社會的一面鏡子,能反映既有的社會問題,重點在於應如何管制。
莊弘鈺副教授另就產業管制與智慧財產權兩個面向,提出ChatGPT涉及智慧財產權、可信任AI,若學生於作業中使用,應將重點放在確實引註、下關鍵字及分辨資料正確性。
張凱鑫助理教授則提出,ChatGPT於目前可以看到的法律與倫理問題,例如:開發未完成的AI,如果作為產品發佈由公眾訓練,應有明確的警告與說明,AI的資料來源和輸出結果的可問責性、安全性、補救可能性,以及如何應對市場上就業需求變化的平等與公平性等問題。
而李長曄助理教授則另就機器人倫理與法律角度提出回應。首先談到ChatGPT是否屬於AI的一種類型,而此討論同樣也涉及強弱AI之分類。其次,李助理教授也談到,在義大利暫停ChatGPT的使用之後,該國基於個資的考量,對於OPEN AI公司提出改善要求;至於德國,目前暫且採取不同於義大利的做法,並不打算禁止ChatGPT的使用,但同樣也強調應該有更好的管控。
蔡蕙芳教授認為,資訊使用應依目的影響所產生風險高低,若有害的話應加以管制,另外就ChatGPT所生言論,是否具可解釋性也是另一問題。李惠宗教授則提出ChatGPT所生產品應加以管制,如商品責任領域應予以注意。王敏銓教授則認為ChatGPT涉及著作權問題,應將其所生言論歸於公共領域,否則影響範圍可能過廣,至於學生考試應可以用情境題、陷阱題提升考試試題之難度,以鑑別學生與AI作答情形。江信毅副教授另提及動物與植物在AI的運用上,資料的使用與管理皆須注意,回到ChatGPT,既涉及人類資料運用,更需注意個資去連結化的議題。 本次座談會活動,與會學者針對ChatGPT所涉及倫理、法律等各領域議題熱烈討論,提出各種面向之問題與意見交流,期能拋磚引玉,引發各界對於ChatGPT與AI應用倫理及法律議題的重視,並期待政府能儘速建立可信任AI規範;就ChatGPT生成式語言模型或聊天機器人訂定使用規範,以達平衡科技發展、人民權利保障及公共利益的目標。