2024年第二季度,歐盟委員會發(fā)布《人工智能在處理和生成新數(shù)據(jù)方面的作用:開放數(shù)據(jù)環(huán)境中的法律政策挑戰(zhàn)》報告(以下簡稱《報告》),《報告》探討了人工智能與開放數(shù)據(jù)的關系以及由此引發(fā)的知識產(chǎn)權和基本權利問題,同時討論了歐盟《人工智能法案》在管理人工智能風險方面的相關內(nèi)容和影響。報告主要包括以下三個方面。
一是開放數(shù)據(jù)在促進人工智能發(fā)展的同時也帶來了一系列法律問題?!秷蟾妗分赋觯_放數(shù)據(jù)的免費性、便捷訪問性促使其成為理想的人工智能訓練材料,幫助人工智能進行大規(guī)模的數(shù)據(jù)分析和模式識別,從而實現(xiàn)更準確的預測、更智能的決策等,推動人工智能的快速發(fā)展。例如,在醫(yī)療領域,人工智能可以利用開放數(shù)據(jù)進行疾病預測、診斷輔助等,提高醫(yī)療服務的質量和效率。然而,人工智能在開放數(shù)據(jù)環(huán)境中也存在諸多法律方面的挑戰(zhàn)。在知識產(chǎn)權方面,生成式人工智能系統(tǒng)在訓練時使用的數(shù)據(jù)集包含大量公開數(shù)據(jù),其中包括受著作權保護但未經(jīng)作者授權的相關數(shù)據(jù),這引發(fā)了著作權人的強烈不滿,并導致了一系列版權侵權訴訟。此外,人工智能生成物的版權歸屬尚不明確,雖然普遍認為人工智能本身不能被視為著作權人,但對于人工智能輔助產(chǎn)生的作品,其版權歸屬尚未有明確定論,在實際應用中可能會引發(fā)版權糾紛。除此之外,人工智能的廣泛應用可能對保護基本權利和數(shù)據(jù)安全產(chǎn)生重大影響。伴隨著人工智能技術的不斷發(fā)展,個人數(shù)據(jù)被大量收集和分析,可能導致個人隱私泄露和數(shù)據(jù)濫用的風險增加。例如,在醫(yī)療領域,人工智能系統(tǒng)可能會處理大量敏感的個人健康數(shù)據(jù),如果這些數(shù)據(jù)得不到妥善保護,將對個人的權益造成嚴重威脅。
二是《通用數(shù)據(jù)保護條例》等歐盟現(xiàn)行法律框架在應對人工智能挑戰(zhàn)方面存在不足。《報告》指出,盡管《通用數(shù)據(jù)保護條例》等法規(guī)設置了數(shù)據(jù)保護和保障各項個人權利的原則和手段,但在人工智能背景下,基本原則實現(xiàn)面臨著諸多挑戰(zhàn)。例如,《通用數(shù)據(jù)保護條例》規(guī)定了公正性、透明度、目的限制、數(shù)據(jù)最小化、準確性、存儲限制、完整性和保密性以及問責制等數(shù)據(jù)處理的多項原則,然而在人工智能環(huán)境中,由于人工智能算法的復雜性和不透明性,確保這些原則的有效實施存在困難,不僅體現(xiàn)在難以確保數(shù)據(jù)處理的合法性和公正性,同時也體現(xiàn)在增加了數(shù)據(jù)主體行使權利的難度方面。此外,歐盟現(xiàn)行法律對于人工智能是否應獲得作為訓練材料的原始數(shù)據(jù)版權許可以及如何確定人工智能生成物的版權屬性等問題也沒有進行明確回應,對于這一問題,《報告》認為需要進一步的研究探討,制定更加明確有效的法律政策。
三是歐盟《人工智能法案》有望在管理人工智能風險方面發(fā)揮重要作用,但實際效果仍有待觀察。歐盟《人工智能法案》采用基于風險的方法對人工智能系統(tǒng)進行分類,將其分為四個類別,并對高風險人工智能系統(tǒng)的提供者和部署者施加了一系列義務。此外,該法案還規(guī)定了市場監(jiān)督和執(zhí)法措施,以及對違規(guī)行為的嚴厲罰款,旨在確保人工智能的發(fā)展符合道德和法律標準,保護公眾的利益。然而,《報告》認為,《人工智能法案》實施可能會給歐盟人工智能提供商帶來一些新挑戰(zhàn)。例如,法案中的部分規(guī)定可能會增加企業(yè)的成本和負擔,使其在國際競爭中處于劣勢。同時,法案的具體實施效果還可能受到監(jiān)管機構執(zhí)行力度、企業(yè)合規(guī)能力等多種因素的影響。
總體來看,開放數(shù)據(jù)環(huán)境對于人工智能發(fā)展既帶來了巨大的機遇,也帶來一系列了潛在風險?!秷蟾妗吩u估了《通用數(shù)據(jù)保護條例》等歐盟現(xiàn)行立法在應對人工智能挑戰(zhàn)方面的不足之處,對未來《人工智能法案》實施提供了建議,為應對人工智能風險挑戰(zhàn)提供了法律政策方面的思路。后續(xù)我們將持續(xù)關注人工智能領域的法律動態(tài)和相關政策的調整。
關注“廣東技術性貿(mào)易措施”,獲取更多服務。