講師:張凱鑫 東海大學法律學院助理教授人工智慧法制研究中心主任 曾任法官10年,後轉投教職,從事科技法(醫藥醫材與AI與數位科技法制)之研究,同時從事醫藥醫材與IT新創產業法遵與法務業務輔導。 前言 從去年開始,像Midjourney和ChatGPT的生成式AI開始大量出現,許多人也開始利用生成式AI作為創作或工作時的輔助工具,幫助他們完成作品。然而,隨著生成式AI的普及,相關的法律議題也應運而生。本次課程將從法律觀點出發,看看生成式AI的發展與它所帶來的相關法律問題,進而了解當我們個人或者企業人員在與AI協作時,應注意哪些面向,避免我們在不知不覺中為自己也為客戶帶來觸法的隱憂。 一、個人/事業從業人員使用ChatGPT時應注意的事項 ChatGPT的出現除了帶給我們便利,也相對地會為我們帶來許多法律方面的隱憂。因此,不管是個人或企業,都應該謹慎地使用ChatGPT。本節將分為三個部分,告訴大家在使用ChatGPT時,應特別注意那些部分,以免觸法。 法規與契約問題 在使用ChatGPT時,我們必須注意四個面向。首先,我們必須注意,在使用生成式AI時,於單純法規面可能會出現的問題。在使用ChatGPT這類的生成式AI時,我們可能觸及的法規包含著作權法、個人資料保護法、商標法、不實廣告與業法。 法規層面 就著作權法而言,ChatGPT等生成式AI的生成物之所以會衍生著作權的相關問題,其實與「依據性」有關。舉例來說,當我們使用AI產生的生成物看似與A著作相似,其實還不能說我們的生成物已違反A著作的著作權。除了與A著作有同一或相似性,也必須有足夠的證據證明我們的生成物是依據A著作所產生,在法律上才真正構成侵犯A著作作者的著作權。不過,如果不幸因為侵害他人著作權的疑慮而被告上法庭,即便最後法院判決無罪,光是因疑似違反著作權而上法庭的這個事實,就很有可能構成違反我們與客戶之間契約的情形。因此,我們在與生成式AI協作時,必須盡量避免在輸入指令時,參照第三人的著作內容。另外,縱使我們沒有參照第三人的結果,我們也必須於成果生成的當下,注意是否市面上已有相似的產品出現,以免無意間侵犯他人著作權。順帶一提,由於我國現行的商標法,規定禁止同樣的商標並存,若我們用生成式AI生成了與受商標法保護的標誌類似或相同的商標,並用於類似或相同的商業用途,就會違反商標法喔! 另外,利用生成式AI協助完成工作時,也可能會觸及個人資料保護法的問題。若客戶委託的業務包含個人資料的處理,我們也應以確保該資料的持有人同意我們因工作需要,能夠將資料輸入ChatGPT或其他生成式AI為原則,避免觸犯個資法。 除此之外,因為ChatGPT強大的語言功能,已經有愈來愈多人開使與ChatGPT協作撰寫文案。然而,如果ChatGPT所寫的文案中,內容與事實不符,而我們又將其生成的內容用來製作廣告,那麼就可能會變成不實廣告。如果又有人因為看了該不實廣告,造成其權益受損,那就很可能會觸犯如消費者保護法、公平交易法、食品衛生管理法等法規。所以建議大家,雖然ChatGPT撰寫文案的能力一流,但是我們也必須維持我們的專業素養與小心求證的精神,判斷並查證文案內容是否是AI在胡說八道。 最後,現在我們也經常看到許多軟體宣稱以ChatGPT的技術為輔助,提供使用者投資理財的建議,但由於我過對投資顧問有明確的法規規定,必須滿足這些規定才得以成為合法的投資顧問。因此,這些宣稱結合AI技術提供投資建議的軟體,就很可能因為沒有得到相關主管機關的認可而觸犯法律。 契約層面 除了單純法規面的問題,我們在工作過程中使用生成式AI也可能觸及到與客戶間契約層面的問題。生成式AI確實可以提升我們工作的效率,但不管是身為客戶或是業者,我們都不希望拿到或製造的成果,因為利用了生成式AI而產生違法的疑慮。因此,我們可以透過訂立適當的契約條款來安排責任分配。舉例來說,我們可以與合作對象的契約中加上不侵權擔保約款,讓對方保證其所製作的產品不會有侵權的疑慮。另外,也可以加上責任分擔約款。當我們在執行任務時,假設我們認為某筆資料若輸入ChatGPT會產生侵犯資料擁有人個資保護的疑慮,但客戶仍在得知風險後要執意執行,進而產生法律爭議,那麼此約款就可以提供我們作為避免承擔相關法律責任的依據。最後,我們也可以和客戶訂立保密契約。若我們的工作過程中,在未經秘密資料持有人同意之下,將該資料輸入ChatGPT,就很可能會被認為是對第三人揭露密資料而觸法。因此,我們必須於契約中明確告訴客戶哪些事項會被認為是秘密資料,並告知客戶哪些資料我們會輸入到ChatGPT裡。總之,千萬不能在客戶不知情的情況下,將秘密資料輸入ChatGPT! 二、個人/事業從業人員輸入指令時應注意事項 了解了當前生成式AI可能帶來的風險後,我們應該在輸入指令給AI時應該注意甚麼就相當清楚了。首先,為了避免我們在使用AI加快工作效率時侵害了他人的著作權或商標權等法律,我們應盡量避免輸入讓AI參考他人作品或風格完成生成物的內容。例如請ChatGPT針對某產品,製作與A公司廣告相似的文案或標語。另外,由於ChatGPT可能會將我們輸入的資訊拿來訓練其AI模型,因此我們必須注意我們所輸入的資料是否為機密資料,也必須注意我們與客戶的合約內容中,是否有限制不得將某項資訊透漏給第三方。最後,若執行任務時涉及個人資料,我們也應了解個資所有者是否同意我們使用其資料,若無法確定,就應該避免使用。 三、利用AI生成物應注意的事項 即便我們在過程中沒有引導AI參考第三方作品生成結果,我們在利用其生成物前也必須注意以下三點。第一,我們必須確認生成式AI所生成的結果是真實且適當的。若我們使用了AI所生成的錯誤資訊,那麼可能會違反與客戶的契約,甚至可能不小心觸犯法律。另外,我們也必須辨別,使用AI所產生的結果是否會損害客戶或第三人的名譽或信用,以防在無意間損害他人名譽。第二,我們在使用生成式AI的生成物時,可以再自行進行加工。當我們使用AI生成的結果作為商標時,它可能會剛好與第三人的著作物或商標相同或相似。因此,我們應該以AI生成的文字或圖片為基礎或做為參考,再依照客戶的需求或利用自己的創意,針對生成物進行加工。第三,同樣地,由於目前法律上對ChatGPT等生成式AI的生成物之著作權仍存有爭議,所以即便我們絞盡腦汁避免在提示過程中參考讓AI模仿他人作品,也很難對我們或我們的客戶利用AI所生成的成果主張著作權。所以我們還是鼓勵大家,不要將AI的生成物直接利用,而是可以進行加工調整,免除違法的疑慮。 四、結語 今年進入了AI大爆發的時代,有許多國家也開始針對AI立法規範其運用,以防有心人士不當使用AI。歐盟近期就推動了人工智慧規則草案,將目前可想像到的AI所帶來的風險分類並加以規範。然而,立法的速度往往感不上AI的發展,為了避免我們在使用AI時無意間觸犯法律,我們不僅需要透過與客戶建立契約,界定責任的歸屬與哪些資料可供我們使用,我們更應該在下指令給AI時注意不要引導它參照他人作品生成結果,也不要將AI所生成的結果全部拿來使用。總而言之,AI只能做為我們的工具,我們若真要使用其生成物也應進行加工,避免不但誤觸了法律,還破壞了自己的信譽。 【若想回顧完整版課程影音,請點選此連結;有任何問題或分享,也歡迎在本文底下留言。】