top of page
  • 作家相片陳建佑律師

【 資料經濟時代的法規調適 】


當現今與未來整個世界都在倡導商業模式是不斷提升或維持黏著度,尤其是社群軟體,持續用推陳出新的方式吸引與獲取、甚至綁架受眾者或目標族群的注意力,以利用使用者的數位足跡,進而賺取廣告利潤,猶如Netflix 影集《黑鏡》(Black Mirrow)第五季第二集「碎片」裡頭劇情所描述的情況一樣。而這些情況會造成什麼樣的「後果」?「誰」或是「怎麼做」才能控制或改善這些「 後果」?


有一本著作叫做「指尖下的大數據」,教人如何運用流量分析工具Google Analytics(GA)發掘行動裝置裡的商機,並以大量台灣APP使用案例,論述如何聚焦行動流量分析。在這個人手一支智慧型手機的時代,指尖數據分析已是物聯網、雲端運算等數位運用的基石,也顯然成為各行各業趨之若鶩的工具,只要善用GA工具就能從大數據中掏金。



透過演算法的機制,建構社群生態系、擴大社交影響力,達到可覆蓋或觸及的人數不斷攀升的效果。此時出現了「RTB」即時競價機制(Real Time Bidding),也就是廣告主有意願在該廣告平台中投放廣告,該平台需經由廣告主與其他同時在平台上的廣告主進行競價,此競價限制在100毫秒以內(即不到1秒的時間)完成。 藉由AI、機器學習等技術的廣告演算法,此獲利商業模式也成了企業在線上營運的常態。



而您若看過 Netflix 紀錄片《智能社會:進退兩難》(The Social Dilemma),可能就會對片中提到社群網路成癮、影響選舉、假消息散播、造成種族暴力及憂鬱症、自殺率上升等現象,感到頭皮發麻!這部93分鐘的紀錄片中,採訪了Facebook、Google、Twitter等科技巨頭的前高管,探討科技成癮、假新聞及陰謀論充斥平台、仇恨言論氾濫、操弄選舉、廣告演算法等眾多甚囂塵上的議題。



片中最常出現的論點就是「當你沒花錢買產品,那你自己就是產品」,這種模式通常被認為是免費增值商業模式(Freemium business model)裡的一種,向使用者提供免費內容或價格補貼後,透過使用者自填或用演算法找出使用者的喜好,再出售適合使用者喜好的廣告版位給第三方賺取利潤。但 Facebook 駁斥並非把使用者視為產品,能保持免費的確是以廣告作為其商業模式支撐運作,強調一來不會透露個資給廣告買主,二來使用者可以隨時廣告偏好設置中「刪除」自己的屬性。簡單說,Facebook宣稱僅告知企業觀看廣告用戶的群體特徵,不會洩漏任何個人資訊。



Facebook 也承認 2016 年劍橋分析事件時確實犯了錯,曾有被俄國利用於操弄2016年美國總選大選的前科,現在他們盡可能減少產生對立的內容、抵制假新聞,並透過一系列策略保護美國大選。筆者先前另有撰文《大數據、言論自由與民主價值》供讀者參閱。



歐盟針對AI技術帶來的劇變與影響,近年陸續提出相關準則或策略報告,以達成未來法規調適的目標。歐盟在2019年委由專家委員會提出《可信賴的人工智慧倫理準則(Ethics Guidelines for Trustworthy AI)》,說明4項倫理原則及7項要求(風險控制、透明、個資及隱私保護、社會責任、增進人類福祉、問責制、無偏見歧視),並表示AI發展到自主決策時,傳統民事歸責理論可能有所不足,於是針對「嚴格責任」之適用進行評估,可能修訂歐盟法律,且考慮是否需要訂立新的法規。



歐盟執委會於2020年2月發布兩份資料,分別是《人工智慧白皮書(White Paper on Artificial Intelligence)》以及《歐盟資料策略(A European Strategy for Data)》。AI與Big Data相關產業的發展,從最開始大量原始資料的取得,到後續轉化為產品或服務對公眾提供,法規管制是無可避免的議題。然而,就政府機關而言,應該如何規劃未來的AI發展法律管理框架?《歐盟資料策略》正在說明歐盟如何針對資料經濟的發展趨勢而重新界定其資料法制(Data Law)與政策。



從規範面來看,既有的法律體系如何看待資料本身,以及應如何與時俱進地重新界定資料在法律體系的意義,建構全新的「資料法」(Data Law),已成為未來法學上的新課題。根據《歐盟資料策略》的報告內容,歐盟將於2021年推出「資料法」(Data Law),這是繼GDPR後歐盟另一項企圖引導全球規範發展的重要行動,該法制的要旨在於針對非個人資料的部分促進政府部門與企業部門之間的資料流通,此於目前資料傳輸在國際間障礙重重的現況,顯見在未來資料經濟時代更為重要,甚至是資料流通的成敗關鍵。



強調促成資料近用(access)的《歐盟資料策略》的重點有以下幾點:1.資料可取得性(availability of data);2.市場力量不平衡(Imbalances in market power);3.民眾實現其權利之賦權(empowering individuals to exercise their right)。



而歐盟《人工智慧白皮書》提出以風險為基礎的方法(risk-based approach)作為日後法規管理框架,人工智慧在高風險領域的應用原則受法律較高度的監管,以確保政府監理干預合乎比例。對企業來說最關心的就是如何判斷哪些AI的應用會被認定是高風險?執委會提出主要應從安全性保護及消費者權利與基本權的觀點來看待,並可以下述二個標準依序檢視:

 1.首先是判斷AI是否被應用於風險較可能發生的行業,如醫療、交通運輸、能源產業及部分的公部門。上述行業清單應隨實務上相關發展而定期被重新檢討及修正。

 2.其次則是當在特定行業中以特定方式應用AI時,將有極高的機率發生風險。



此外,日本經產省在2019年也有提出Society 5.0的治理創新政策報告,介紹對於未來的科技風險治理模式的新觀念—新治理模式下的三方關係,即:

 1.政府從規則的設計者,變為獎勵措施的設計者;

 2.企業從被規制者變為規則的共同設計者與施行者;

 3.社區或個人從消極的受益者變為積極的評估者。



以上皆為我國針對數位資料經濟時代可為參考的法制規範。申言之,從一個理想型的新治理模式作為目標,進而檢討哪些法律原則是可以配合調整修訂,以利渡到新型態的行政治理與專業共治,已為今後主要的法學課題。我相信台灣也會有如此遠見與動能,政府建構「vTaiwan」 作為平台討論法規該如何制定或修改、調適法規,透過虛擬世界彼此交流意見,希望能夠產出符合各利益關係人期待,也貼近實際需求的法規內容。



台灣產業人工智慧技術主要落在模式辨識、語意分析、知識系統,故資料蒐集及數據運用相關法規應優先考量,作為我國資料法制的大方向;且我國產業主要以中小企業為主,主要研發重點通常為產品研發、效能提升等,不像國際企業如Microsoft、Sony、IBM等皆已注意到人工智慧倫理的重要性,因此可能忽略相關倫理議題的重要性,故須由台灣政府協助推動,以利未來產品銷往國際時符合國際法規及標準,並提升其競爭力。於是乎我國科技部就在2019年間催生一部《人工智慧科研發展指引》,其內容與歐盟2019年《可信賴的人工智慧倫理準則》大同小異。由於目前我國尚無人工智慧專法,因此尚無法透過法律規範產業適用,然仍可協助產業運用倫理準則,可從規模較大的產業進行推動,或透過政府資助的科技計畫先行推廣。


73 次查看0 則留言
bottom of page