AI 懂意識形態操控?專家最擔憂這兩點風險

最新AI资讯1年前 (2023)发布 Aibot114
724 0
广告也精彩
AI 懂意識形態操控?專家最擔憂這兩點風險

ChatGPT 為人類生活帶來便利性,卻同時加劇顛覆既有社會秩序,也恐有負面衝擊。而身為小國的台灣,面對矽谷業者挾著新科技攻城掠地,勢必更無從防備。專家評估兩大潛在風險,最值得國人擔憂。

ChatGPT的誕生為人類社會帶來了許多積極影響, 一如歷史上每一次科技突破性進展,在提升生產效率、加速進步的同時,往往為原有秩序帶來顛覆性轉變,眼前這場AI技術變革,亦是所有人都無法迴避的社會革命。到底有哪些潛在風險勢將影響台灣?前政委、法律專家蔡玉玲以及政大新聞系教授劉昌德,提出兩大點擔憂。

ChatGPT成網路新霸權,假訊息也會難防

首先,假訊息更容易藉AI傳播壯大,就是第一個危機。國立政治大學新聞系教授劉昌德直言,ChatGPT加快訊息被生產及傳播的速度,加上人類往往會盲目認定新科技物中立客觀,這對謠言、假新聞的散布,無疑形成更大的溫床。

劉昌德還點出另一個微妙的心態,「大部分人並不是想要Google回答他們的問題,而是期待Google直接告訴他們怎麼做。」他引述Google前老董施密特(Eric Schmidt)名言,強調人都有惰性,而相較搜尋引擎在輸入關鍵字後條列許多連結,如今ChatGPT則是直接「餵養」單一答案給使用者,大公司抓準使用者的痛點,也難怪許多人埋單。

國立清華大學通識教育中心教授林文源,也在親身多次實測後驚覺,「從用語看出,裡面大量使用了中國資料。」

這意味著,若使用者並不清楚AI獲取資料的來源,將在無形中受背後意識形態所操控。尤其各國發展AI的資源落差極大,「市場的壟斷」更是對言論、生活方式、及思想的進一步壟斷。他憂心,若是個人無法意識這股霸權的存在,就可能陷入AI創造「更真實的假世界」。

法律管得了人,但管得了AI嗎?

第二點則是,法律對於AI的監管也不容易。

「我不認為法律管得了AI,這個期待太難了。」行政院前政務委員、理慈國際科技法律事務所共同創辦人蔡玉玲指出,由於法律制定程序冗長,要應對快速成長、變化莫測的AI,可說是鞭長莫及。

除了立法不易,其二是執行困難。

劉昌德以知名的「施建新案」為例,2008年任職棒米迪亞暴龍執行長的施建新無故捲入打假球案,獲判無罪確定,但搜尋引擎仍流傳打假球的新聞,施建新於是主張「被遺忘權」提告Google,全案直至去年6月才獲二審勝訴。

這些例子突顯台灣跟跨國大企業交涉耗時費力,套用在現下情境,也是如此。此外,蔡玉玲以生成式AI引發的著作權爭議說明,目前法律評判侵權與否標準,包含是否合理使用、著作間相似性,但目前AI生成內容的過程與資料來源並不透明,既有法規框架下,根本難以做出判決。

就像生產履歷,AI哪裡來需標註

或許法律不完全管得了AI,不過林文源認為,有些規範仍得建立。立法要求AI標示,便是做法之一。

「就像食品標示一樣,AI本身就要標註自己怎麼被生產出來、資料從哪裡來。」林文源解釋,「我們知道它的極限,才不會以為它無所不能,不會讓某些族群因為它的限制而受傷害。」

劉昌德也同意立法規範AI標示來源,此外他建議,若AI如同搜尋引擎般侵害個人名譽和隱私,產生「被遺忘權」的爭議,還是應建立起補救措施,將傷害降到最低。

但回歸這股AI霸權的強大威力,微小的規範就算治得了標、也治不了本。劉昌德分析,問題並不出在科技本身,而在其背後的科技公司,若企業只以獲利為目的發展AI工具,就容易忽視科技對社會文化造成的深遠傷害。

企業需展開對話,負社會責任

「我們要節制的不是AI的影響力,而是節制資本在這裡面的力量。」劉昌德點出關鍵,「企業不是不能獲利,而是必須負起社會責任。」

他認為,這些跨國科技公司應和社會開啟兩層次的對話。首先,是與各地公部門和民間團體的對話,比如,當碰上有爭議的言論時,訓練者不應以「內容審查」的形式,直接告訴AI誰是誰非,反而該讓各方觀點有碰撞的機會,進而提供AI較適當的內容。

其次是與內容產製者對話。如同全球各地媒體積極向Google、Meta等集結媒體內容獲利的平台業者協商,AI公司也該負起責任,才能促成好的產業生態系,防止低劣內容一再複製、生成,加劇對社會的危害。

© 版权声明

相关文章

暂无评论

暂无评论...