跳到主要內容區塊

人工智慧年代裡的人權風險 陳菊:勇敢面對AI時代下的人權挑戰

  • 日期:113-07-12

因應人工智慧(AI)的發展引發熱議,國家人權委員會今天舉行「人權同行,AI無虞:AI x人權趨勢論壇」,除了邀請澳洲人權委員會人權事務委員洛林•芬利(Lorraine Finlay)現場發表「人工智慧及其所涉人權風險」專題演講,並請台灣人工智慧學校基金會侯宜秀秘書長分享「未來人機共存與協作的想像」;而法國國家資訊自由委員會主任Sophie Nerbonne亦以歐盟《人工智慧法案》為例,介紹國際間對於AI與人權挑戰所採行的法律規範與作法。

國家人權會期待透過國內外專家學者共同探討生成式AI造成的社會衝擊與人權風險,瞭解其所帶來的機會和相關國際規範,強化社會大眾於數位科技時代下的自我保護和人權意識。澳洲辦事處代表Robert Fergusson、馬來西亞友誼及貿易中心代表Aznifah Ghani、紐西蘭商工辦事處副代表Renee Bates也特別參與論壇,顯示AI發展及人權議題亦受到國際高度關注。

陳菊主委開場致詞時表示,人權會特別重視AI對於不利處境群體的影響,AI的開發應以符合人性尊嚴及滿足人格自由發展為宗旨,並應充分尊重和保障每個人的基本權利,更強調雖然生成式AI可能引發隱私權及假訊息的疑慮,但台灣身為民主自由國家的一員,必須勇敢面對AI帶來的人權挑戰。

陳菊主委強調,聯合國人權事務高級專員辦事處(OHCHR)近期發布「生成式AI相關人權風險分類」,指出這項技術可能導致假訊息、勞工失業風險、深度偽造(Deepfake)以及兒童無法辨識內容真偽等人權危害。其中,生成式 AI無形間取代個人形成意見並持有自身觀點的能力,若有心人士透過生成式 AI 製作、散布假訊息,更可能威脅言論自由的核心價值。

陳菊主委進一步說明,人權會今年針對大專院校學生進行問卷調查,實際分析803份樣本數,發現約75%的受訪者在與生成式AI互動時曾提供個人隱私資訊,並且擔心自己的個人資訊或對話內容,可能被收集或洩漏給第三方;61.7%的受訪者曾注意到生成式AI可能會產生不正確、歧視性或不適當的內容,同時擔心這些內容可能導致假訊息散布或言論極端化;此外,近9成的人認為生成式AI發展過程應透過多方對話,納入不同群體的意見。

澳洲人權委員會芬利委員指出,AI雖然有潛力改善人類的生活,但也應意識到它可能導致的人權風險,例如隱私權、偏見及歧視,以及真實資訊的重要性。她指出,民主制度特別依賴公民能夠獲取真實信息,以便可以做出知情決策,但是對於民主國家而言,AI引發的人權問題已構成特殊挑戰。

芬利委員提及,目前各國政府也開始啟動人權風險的應對措施,其中澳洲人權委員會在去年開發的「人權影響評估工具:銀行業的人工智慧」即是一例。她指出,在與AI的互動過程中,需不斷強調以人權為核心的重要性。

本次論壇由蔡崇義副主委、浦忠成委員、鴻義章委員擔任主持人,個人資料保護委員會籌備處、台灣微軟、數位時代、vTaiwan、科技民主與社會研究中心等產官學研代表,也共同參與生成式AI造成的社會衝擊與人權風險之討論。

這一場論壇亦有印尼、德國、瑞士等駐台機構派員參加,更吸引了包括AccessNow、FNF Global Innovation、國際特赦組織台灣分會等國際非政府組織之關注;人權會王榮璋委員、田秋堇委員、葉大華委員、王幼玲委員、高涌誠委員、紀惠容委員,監察委員賴鼎銘委員、范巽綠委員也出席參與。