作者:James(黃浩哲)
發佈時間:20250428
前言:便利的IT與其代價

隨著人工智慧技術的迅速發展與廣泛應用,AI逐漸成為現代社會中不可或缺的一環,相關AI應用亦深入至教育、醫療、金融、娛樂等各大領域。其中生成式AI尤其備受關注,透過文字、圖像、音樂甚至程式碼的自動生成,帶來前所未有的便利與創意可能性。然而資訊科技所帶來的便利性背後也伴隨著日益嚴峻的風險與挑戰。

AI系統本身可能產生偏見與錯誤資訊,進而對社會輿論、政治決策乃至公共安全造成影響,除此之外,隱私洩露、深偽技術(Deepfake)、假新聞自動生成等問題,也逐漸暴露出AI發展在道德、法律與安全層面的脆弱性。在另一方面,生成式AI所引發的著作權問題也成為社會高度關注的議題,許多AI模型在訓練過程中使用了大量網路資料,其中不乏受著作權保護的內容,當AI所生成的作品與原始素材過於相似,甚至能夠被識別來源時,便可能構成侵權;AI作品在商業用途上被大量應用時,也將對原創者的權益造成衝擊,甚至動搖整體內容產業的創作動機與發展模式。面對生成式AI的快速進展,我們不僅需要技術上的創新,更應建立完善的法規與倫理標準,以確保技術的應用能夠兼顧創新與責任,在保障創作者權益、使用者安全與公平的前提下,真正實現AI造福人類的初衷。

議題1:演算法偏誤

演算法偏誤(algorithmic bias),是AI在某些群體的判斷準確率或預測結果上總是很差,導致結果可能對於特定群體造成系統性的不利。

演算法偏誤產生的肇因

  • 建立AI模型的研究資料集有偏誤,在性別、種族、社經地位等特徵上,沒有真實世界的人口分布代表性。例如數位裝置採用AI臉部辨識技術解鎖,原本是希望保護個人使用數位裝置的安全性,結果皮膚深的人卻常常遇到辨識失敗而無法解鎖。這通常是因為目前許多AI模型都是以機器學習技術設計,而機器學習的主要特性就是從過去人類留下的大量資料中學習;當初提供電腦學習臉部辨識的圖片時,如果多數都是白皮膚而非黑皮膚、多數都是男性的臉而非女性的臉,那麼電腦在學習辨識人臉的準確率上,整體而言辨識男性白人就會比辨識女性黑人要高出許多。
  • 建立AI模型的研究資料集不只有偏誤,還反映現實社會中的性別、種族、社經地位等歧視;例如美國警政單位以過往犯罪資料訓練出獄後犯人再犯風險評估的AI模型,那些資料不意外地有色人種的犯罪紀錄遠多於白人犯罪紀錄。然而,那些紀錄也反映美國社會長久以來對於有色人種的歧視,其中包含警察對於有色人種的盤查比例遠高於白人、法院對於有色人種的定罪比例及判刑嚴重程度也遠高於白人、警力通常被派往多黑人與拉丁裔人種居住的窮困社區盤查等。所以根據過往犯罪資料所訓練出來的AI模型,不意外地也就會預測有色人種的再犯機率普遍來說比白人高。
  • AI在機器學習過程中發現連系統開發者都沒有察覺到,潛藏在資料裡的偏誤。例如科技公司人資部門本來想借助AI更有效率地篩選出適合來面試的履歷,所以挑選在該公司任職一定年資且曾升遷二次的員工履歷來訓練AI模型。問題是,高科技公司向來男多女少,所提供給AI學習的資料自然就男女比例相當不均。AI也就學會了凡是出現偏向女性名字、嗜好、畢業學校系所等文字的履歷,平均所給的評分都比出現偏向男性等相關文字的履歷還低。
議題2:道德爭議

MIT的道德遊戲由麻省理工學院研究員艾德蒙·阿瓦德博士(Edmond Awad)所帶領的研究團隊,在其最新研究「道德機器」(Moral Machine)實驗所探討的問題。此研究列舉13種可能的車禍場景,並收集來自233個國家,超過2百萬位參與者的回答,目的在了解自駕車發生意外時,人們認為自駕車應該犧牲誰,保護誰。

道德機器是一個研究團隊於2016年設計的遊戲化問卷,目的在了解你我最基本的道德問題,問題類似「電車難題」(trolley problem),這是一個倫理學領域的知名實驗,內容是假設你駕駛一輛無法停下的電車,你會撞上前方軌道上的五位工人,或者改變軌道撞上備用軌道上的一個人。只不過這次的問題是為了自駕車而設計的。

研究團隊從數據中發現,整體來說人們通常傾向於保護人類而非動物、年輕人而非老人、群體而非個人。然而關於要保護誰,還是具有文化上的差異。例如,拉丁美洲國家的人會選擇保護年輕人而非老年人,但亞洲人就剛好相反。又例如大部分的人會選擇保護守法的路人,而不是乘客或亂穿越馬路的人。不過在較窮困的國家,司機通常對於胡亂穿越馬路的人比較寬容。

自駕車與電車難題自駕車使原本只是倫理學中思想實驗的電車難題(trolley problem)成真,且更加大了兩難的力道,假設碰撞是不可避免的,例如:某輛自駕車的煞車失靈了,且這輛車不得不在輾過並殺死3個老人,及轉向牆壁導致撞死車上乘客之間做出決定,這時自駕車該如何抉擇。此問題牽涉到許多面向,以商業角度來說,一台永遠選擇優先保護其乘客的自駕車可能會受到消費者的喜愛,但是其他無辜的用路人卻可能因此受災;又或者自駕車因為一些狀況不得已會衝撞到前方車輛時,自駕車是否應該避免撞擊未配戴安全帽之駕駛,進而達到降低傷亡的目的,然則造成遵守交通規則配戴安全帽的駕駛卻會因其奉公守法之行為提高被自駕車撞擊之機會。

研究人員表示,在這種車禍要發生的危險情況之下,大部分駕駛會透過直覺做出反應,但是自駕車則具有仔細思考的空間。自駕車會為路上不同的人重新分散風險,然後做出決定。然而隨著自動化逐漸成為我們生活的中心,這樣的兩難使參與者逐漸被捲入一個道德難題:我們到底該給機器多少的決定權?儘管這種「電車難題」,在現實世界實際發生狀況可能很少,但該問題反映出,當人們得決定一個人的生死時,仍是相當恐懼的。

議題3:版權爭議

對於用受著作權保護的內容訓練模型的擔憂,可能會給已完善建立的生成式AI領域發展的企業帶來更大的優勢。

許多內容創作者對於用於訓練大型語言模型(LLMs)的版權和知識產權提出了擔憂。《紐約時報》對OpenAI提起了訴訟,指控其使用了該報的內容來訓練其模型並創建替代性產品。其他公司、作者和平台也有因類似原因對LLM擁有者提起訴訟的案例。儘管OpenAI主張其在版權法的公平使用條款下訓練模型,但也認識到建立新的內容使用協議的需求,並與媒體公司Axel Springer簽署了一項協議,使用其內容來訓練OpenAI模型。這些訴訟和協議反映了在生成式AI領域中,訓練模型時使用他人知識產權的問題。

《紐約時報》對OpenAI與Microsoft提起著作權侵權訴訟《紐約時報》(The New York Times)指控OpenAI和Microsoft侵犯其著作權,並向美國曼哈頓地方法院提出訴訟。這件事引起廣泛關注,不僅因為《紐約時報》的知名度,也因為這場訴訟可能會對「AI開發者使用未授權的作品來訓練AI」這個問題帶來重要且具決定性的影響。而本案的判決也有望展示美國最高法院對此類爭議的態度。《紐約時報》在其長達69頁的起訴書中提出了主要的指控。

傳統新聞所發布的作品被OpenAI用以訓練模型,並造成與新聞媒體相互競爭之窘境這起訴訟的第一段就開門見山地說到「獨立新聞對於民主至關重要」,並強調《紐約時報》在新聞界已有170年的歷史,以獨立、深入和專業的報導聞名。報紙的記者們冒著巨大風險和代價進行報導,同時依靠龐大的、耗資不菲的組織提供法律、維安、營運資源以及編輯的努力,確保新聞報導的準確性和公平性。然而OpenAI等公司卻免費利用《紐約時報》投入大量心血和金錢產出的新聞,吸引了數十億美元的投資資金。此外還創造了能生成《紐約時報》替代品的生成式AI,搶走了《紐約時報》的受眾,與它競爭,導致原告吸引受眾到其網站瀏覽文章、訂閱、授權和廣告相關收入大幅減少。

無論這些訴訟案件的結果如何,對於使用其他內容創作者的知識產權來訓練模型的潛在問題,結果反而可能會使像Google、Microsoft和Meta這樣的大型公司在生成式AI領域中獲得更大的優勢。與較小或較新的新創相比,這些大公司有更多足夠的資源來應對法律上的版權主張、與內容創作者簽訂授權協議,並更有能力保障使用其模型創建的內容不會受到任何版權宣告的影響。因此在版權和知識產權的法律挑戰方面,資源豐富的公司可能會有更多的應對策略和保護措施。

題測
  1. According to the PwC Global Artificial Intelligence Study, AI is expected to contribute up to USD 15.7 trillion to the global economy by 2030. However, as AI systems become increasingly widespread, organizations face a range of risks when adopting them-including data bias, security vulnerabilities, and lack of transparency in decision-making. In high-stakes sectors such as finance, healthcare, and judiciary, AI risk management has become a critical aspect of corporate governance.
    1. Describe three major types of risks that organizations may encounter when deploying AI systems. Provide examples of how these risks could have real-world impacts on an organization. You may consider perspectives such as technical, legal, and ethical risks. (16 points)
    2. Analyze how organizations can develop an AI risk management framework to mitigate the risks mentioned above. Propose at least three concrete strategies or tools and explain their purposes and key implementation considerations. (16 points)
  2. In recent years, the rise of generative AI tools such as ChatGPT, DALL·E, and Midjourney has raised complex legal questions about authorship and copyright. In 2023, a U.S. court ruled in Thaler v. Perlmutter that AI-generated works are not eligible for copyright protection unless there is clear human authorship involved. Meanwhile, the European Union has proposed the AI Act, which emphasizes transparency obligations and risk classification for AI systems, including those that produce creative content. These developments have sparked global debates: Who owns the content generated by AI? Can AI-generated works be copyrighted? What happens if AI tools reproduce, or remix copyrighted material without permission?
    1. Discuss two major copyright challenges raised by the use of generative AI. For each challenge, explain why it is significant and provide a real or hypothetical example to illustrate the issue. (20 points)
    2. Propose and explain at least three strategies that governments, companies, or creators can adopt to address these copyright issues while still encouraging innovation with AI technologies. (15 points)
 
關鍵詞
生成式AI、OpenAI
我要諮詢