
圖|研之有物
2022 年底,ChatGPT 的橫空出世,瞬間點燃生成式 AI 熱潮。AI 形同真人的內容生成與輔助決策能力,讓昔日《雲端情人》跟 AI 談情說愛的情節、《駭客任務》中的母體宰制想像,似乎越來越有可能實現。
在這個科技狂飆、規範待建立的時刻,研之有物團隊走訪中研院法律學研究所,專訪長年研究科技法議題的邱文聰研究員。
2005 年,邱文聰從律師轉而投入中研院的研究工作,曾擔任資訊法中心主任、現任智財技轉處處長。在個人資料保護法、數位身分證等議題,以及近期的《AI 基本法》草案公聽會上,經常可見到他奔走倡議的身影。
談到 AI 的未來發展,他以理性務實的法律人視角,從「資訊隱私權」觀點切入,指出跟我們切身相關的個人隱私、權利保障、倫理規範議題;以及身而為「人」,我們該如何面對 AI 帶來的全新挑戰。

圖|iStock
往更「強」境界升級的 AI
提起 AI 的技術應用,邱文聰參考哲學家 John Searle 的「AI 類人類能力」概念,以及「AI 適用範圍」進行分類:
目前市面上常見的多為「限定 AI」(Narrow AI)、「弱 AI」(Weak AI),例如語音助理、人臉辨識、自動駕駛等技術,通常只專精於特定任務。
當紅的生成式 AI 則逐步往「通用 AI」(AGI)領域邁進,能在單一模型中處理文字、圖像、影音等不同任務;還能透過少數例子或一句提示,快速學習一個新任務的規則,並產生合理的輸出。
至於真正的「強 AI」(Strong AI)還處於理論階段,除了能在不同情境中學習、推理並解決問題,甚至擁有自我認知與主觀經驗。未來若發展成有自我進化能力的「超級 AI」,恐將迎來超越人類掌控的科技奇異點。
此外,AI 的快速發展還產生許多隱憂,無論是個資洩漏、虛假內容生成、演算法偏見、挑起仇恨言論等,無一不挑戰現有法規與社會共識。邱文聰認為:
眼下最大的風險不在奇異點,而是人們對 AI 日漸依賴,卻忽視了對「資訊隱私」的保護。
基於以上 AI 發展所可能帶來的隱憂,當前的法律、政策與倫理規範,都急需與 AI 技術同步更新調整。
目前 AI 發展面臨的規範性課題,主要分為兩個層面:一是在開發階段,運用大量資料訓練模型時,涉及的個人資料使用、研究倫理議題。二是在應用階段,在行為模擬與預測時,可能引發的各種倫理爭議。
如何保護個資「機密性」
在 AI 開發階段,模型訓練過程相當仰賴個人在生活世界遺留下的各種軌跡與資料,但並不是每筆資料都能向當事人取得授權,因而產生個人資料的使用爭議。邱文聰強調:
之所以要重視資訊隱私,不僅是為了防範外界窺視,也是為了保護個資不被惡意使用。
臺灣早在 1995 年即制定《電腦處理個人資料保護法》,針對電腦處理的個資進行管理與保護。隨著科技進步、個資應用日趨多元,該法於 2010 年修訂更名為《個人資料保護法》,全面規範個資的蒐集、處理與應用方式,必須遵循「特定且正當目的」基本原則。
一般來說,在取得資料授權後,還必須藉由「去識別化」來加強保護。常見的處理方式包含:去除直接識別資料、匿名化、模糊化、編碼等,務必做到資料無法追溯到特定個人。
值得注意的是,在個資法的例外條款中(第 16、19、20 條)允許公務單位和學術機構有追求一定程度公共利益的必要時,可將資料去識別化後,用在原蒐集目的以外的特定用途。如此的立論基礎在於,既然無法辨識出特定個人,個人隱私權受到侵害的風險較低,因此一般認為可省略取得資料當事人同意的程序。

圖|研之有物(來源|邱文聰提供)
知情同意的「自主權」守護
針對上述論點,邱文聰提出一項簡單有力的質疑:
現行個資法偏重「機密性」的保護,卻忽略了資料當事人的「自主權」。
他以美國亞利桑那州立大學的「哈瓦蘇派族(Havasupai people)血液檢體案」為例。研究人員將原本用於糖尿病、高血壓研究的血液檢體,在未經族人同意下,另行用在族群遷徙的基因研究上。
雖然新研究沒有洩露個人身分,族人仍感到強烈的被冒犯,因而對大學提起訴訟。最終雙方達成和解,大學必須支付 70 萬美元賠償金。此案表明,研究用途如果超出原始的同意範圍,依然可能侵犯個人權益。
邱文聰認為,僅以去識別化技術處理個資,無法取代個人對其身心相關資料該如何被使用的知情與決定權。深究來看,該技術本身也可能藏有漏洞,有心人仍可透過交叉比對、資料串連或推論等方式,再度識別出特定對象。
即便個人身分並未被識別,仍有可能在不知情的狀況下,被蒐集、再利用於其他當事人不樂見的地方,這種失去對自身資料掌控的恐懼,形成對隱私的另一種侵害。邱文聰提醒:
為了真正保障自主權,除了「事前取得同意」,還應賦予「事後退出權」。
退出權,是一種相對溫和、具平衡性的自主權保障方式。尤其在實際案例中,許多計畫需在短期內再利用大量資料,無法逐一取得當事人同意。這時事後退出機制就顯得格外重要,能讓當事人有否決的機會,兼顧資料利用的公益性、必要性與個人自主權利。
以「全民健保資料庫案」為例,當年行政機關在未取得當事人同意的情況下,將個資開放學術研究使用,遭質疑違反「禁止目的外使用」原則。歷經多年訴訟,2022 年憲法法庭作出判決:儘管去識別化可保障機密性,仍必須尊重當事人意願,提供退出權,否則即構成對資訊隱私權的侵害。
邱文聰進一步主張,最理想的自主權保障方式,是建立一套「自主參與」機制。透過科技工具與流程設計,讓當事人化被動為主動,成為資料治理與應用的一份子。這也有助於提升資料應用的透明度,增進當事人對其參與計畫的認同。

圖|研之有物(來源|邱文聰提供)
追求人格自由的「隱私價值」
邱文聰強調,個資保護中的「機密性」與「自主權」保障,是 AI 開發與應用倫理的基礎。
要讓保護從根本落實,還需培養對「隱私價值」的重視,這深刻連結到人格的自由與獨立發展。
想像你生在一個沒有隱私的世界,每天 24 小時活在他人的「凝視」下,這些目光交織成一個縝密的監控網絡。久而久之,你可能在不知不覺中,活成他人期待的樣子。
在社群媒體無所不在的時代,這種凝視更被推向極致。人們不斷分享、渴望被看見,同時也在無形中被外界嚴密注視與評價。生成式 AI 的出現,讓這套凝視機制變得自動化,在人機互動的過程中,我們不斷輸出資訊,讓機器以「關聯性」取代「基於因果所提出的理由」,推論你的偏好、情緒與行為表現。
「隱私權」的重要性在於,它提供了一個不被外界任意窺視、不受社會評價干擾的內在空間,讓個體有獨立探索與形塑自我的保障,進而實現真正的人格自由。

AI 應用技術的倫理風險
除了在 AI 開發階段需具備的個資保護意識,進入應用階段後,也有諸多問題需要克服。目前的 AI 應用技術大致分為「模仿型」與「關聯型」,各自帶來不同層次的倫理風險與規範挑戰。
- 模仿型 AI:模擬專家的效率系統
模仿型 AI 透過學習人類的特定行為,提升整體執行效率,現今廣泛應用在自然語言、影像辨識、醫療診斷等領域。
然而,模仿型 AI 的發展也面臨數項挑戰。首先,其準確率仍有限,當模型未能理解人類的行為邏輯時,容易產生誤判;雖可藉由擴充資料量與優化演算法來降低錯誤,卻無法完全消除誤差。
再來是真實性問題,隨著影像合成、深偽技術的日益成熟,人們越來越難以分辨人類創作與機器生成的差異,一旦遭濫用為詐騙、假訊息或輿論操控工具,將嚴重衝擊社會信任機制。
此外,AI 不受生理或情緒等生物條件限制,能夠無止境地執行任務,若被當作戰爭武器,將引發前所未有的破壞,造成更高的人道風險。
邱文聰認為,上述問題通常可透過「人為介入」來緩解。也就是說:
在模仿型 AI 運作的過程中,應保留人類擔任最終決策者,讓判斷不會過度偏離社會價值與倫理原則。
- 關聯型 AI:預測潛在關聯的技術
關聯型 AI 是從龐大資料中分析出潛在關聯性的技術,彷彿一位精通各項數據的偵探,擅長從看似無關的蛛絲馬跡,發現出人意料的行為模式。
這類 AI 伴隨兩項值得警惕的風險:首先是混淆關聯與因果的差異。例如曾有演算法發現:冰淇淋銷量與鯊魚攻擊事件、漫畫銷量與電腦科學博士數量之間都呈正相關,但這些關聯多為統計巧合,彼此並無因果關係。
這類由「黑箱」模型推得的關聯事件,往往缺乏清楚的脈絡解釋,如冒然作為決策依據,可能導致誤判、做出欠缺因果證據支持的不合理決定。
其次是全控社會的潛在風險。當 AI 越來越能準確預測個人行為、消費模式,甚至心理狀態時,決策者可能會依賴這種「超前部署」能力,建構出以效率為名的操控體系。
假設未來的公司開始用關聯型 AI 來篩選求職者,結果機器在分析你的社群發言後,推論你以後可能會常請假,導致你連被理解的機會都沒有,就失去面試資格。表面上是提升了效率,實際上卻剝奪了個人的選擇權與自由。
關聯型 AI 強大的分析預測能力,能滿足人類的控制慾。但看似便利的關聯推論,可能形成一道無形枷鎖,限制我們的選擇與自由。
規範 AI 前,想想不同情境的影響程度

為了更縝密分析 AI 應用的規範界限,邱文聰依據兩項關鍵因素:對法律權益的影響程度、所需科學證據的充分程度,將 AI 應用規範以四象限劃分。
在第一象限中,當 AI 應用涉及刑事審判、犯罪偵查等重大法律程序時,必須具備充分的科學證據,以降低誤判風險。由於「無罪推定」是司法根本原則,若 AI 只能提供關聯性、卻無法說明因果關係,就不應納入決策依據。
第二象限則是法律影響同樣重大,但科學證據尚不充分的情況。此時儘管缺乏明確的因果證據,仍可基於「無知的正當理由」採取預防性措施。例如在犯罪預防、金融風險管理、保險審核時,決策者可參考 AI 的風險評分,提前做好準備。
第三象限涉及的是,對個人權益影響較小、倚賴的證據也不充分的情境。像是商場根據你的購買紀錄推薦其他商品,就算預測不準,也不會造成太大的負面影響,因此可採取較寬鬆的規範標準。
第四象限是較少見的狀況。在這類情境下,AI 的應用不影響個人權益,但因為用在需要高科學精度的場合,仍需有充分證據支持。
資訊隱私:維繫民主的基石

圖|研之有物
邱文聰特別提醒,如果將 AI 無限制地應用在第二象限,對人類進行分類與行為預測,可能導致社會控制過度介入個人生活,甚至形成一種社會分級,讓某些人被貼上歧視標籤。
此外,AI 所構築的凝視結構,可能壓縮內在的隱私空間,削弱民主社會的基本假設──視彼此為可以平等對話、相互理解的互助關係。
當整個社會不重視隱私、樂於揭露及濫用個資時,人們將逐漸失去探索及保留自我的空間,社會也會變得缺乏尊重與包容。在這樣的環境下,人的主體性將難以維持,人格自由與互助關係也無從建立。
保護隱私既是個人權利,也是維繫民主制度不可或缺的基石。
資訊隱私從來不只是防範 AI 風險,更攸關一個根本問題:在高度數位化與制度性凝視的時代下,如何確保人的主體性仍能被尊重?正是這樣的人文關懷,貫穿了邱文聰對於 AI 治理議題的核心叩問。
當我們能夠看清 AI 技術背後的知識型態與權力運作,關懷「以人為本」的主體性時,才能建立真正有利於人類的制度,維護一個寬容、平等、尊重差異的民主社會。





