資訊考點新
先進分析中的資料隱私風險
「我們如何在利用人工智慧與分析工具發揮數據價值的同時,保護顧客個人資料的隱私?」
這個問題反映出企業在追求先進分析與人工智慧時日益突出的內部矛盾,顧客在高度數位化生活中產生的大量數據,對於運用先進分析工具的組織而言,是寶貴的資訊來源。然而這些資料同時也令資訊科技部門感到擔憂,他們必須要滿足監管機構及消費者對資料隱私這兩個同樣重要的目標,但想要達成這個目標勢必要面對資料分析與保護隱私的根本衝突,理由很簡單,如果資料科學家希望在分析的框架下提升資料隱私的程度,便往往需採用會影響數據效用的技術(如加密等隱私技術),進而反過來導致分析效能不彰的問題。
- 題測
- 1. 隨著人工智慧與大數據分析的發展,企業在追求資訊附加價值的同時,也必須面對保護使用者隱私的挑戰,但隱私保護技術雖能降低資料外洩風險,卻也會影響資料的分析效用。假設你是一家公司的資訊安全長(CISO),請問良好的資料保護措施可為企業帶來哪些競爭優勢,你會採取何種資料保護技術,並提出一個評估該技術對資料分析效用影響的方法。
分攤分析(2)
我們以健身房收費作為比喻:當月費與按次計費同時存在時,若從整體支出來看,便可將固定費用攤銷至每日成本。這種將總成本重新分配的思維,正是分攤分析的精神所在。我們依循 CLRS 的撰寫脈絡,先介紹了兩種基本方法:聚合分析(aggregate analysis)透過直接計算 n 次操作的總成本,再均分至各次操作;會計法(accounting method)則透過預先配置「信用」來平衡不同操作間的成本,使高代價操作得以由先前累積的餘額支應。透過堆疊問題的示例,我們具體展示了這些方法如何在理論上建立嚴謹的時間界限。在本次的文章中,我們會介紹第三種常見的方法:勢能法(the potential method),並透過堆疊問題來演示其運作方式。
- 考點
- #分攤分析
- #勢能法
- #勢能函數
- #攤銷代價
生成式AI在企業的應用與倫理治理:從工具到知識工作夥伴
隨著大型語言模型(LLMs)的效能飛躍式提升,以 ChatGPT 為代表的生成式 AI(Generative AI, GenAI)已成為企業數位轉型的核心驅動力。GenAI 不僅能提升內容創作、程式編寫與客戶服務的效率,更開始重塑知識工作者的職能與企業的營運流程。對於資訊管理(MIS)考科而言,GenAI 不再是單純的技術名詞,其在企業治理、倫理風險與應用架構上的挑戰,已成為申論題的全新焦點。
本文將探討 GenAI 的核心應用模式,分析其在企業導入上的治理需求,並提出相應的風險因應策略。
- 考點
- #生成式 AI (GenAI)
- #大型語言模型 (LLM)
- #檢索增強生成 (RAG)
- #AI 治理
- #AI 倫理
- #模型偏誤
第九集 - 數據分析實務階段
這一集,我們介紹數據分析之進行方式,下一集才開始針對各種分析技巧舉例說明如何利用AI協助進行◦實務上,數據分析可以分為六個核心步驟,我們簡稱A-P-D-C-E-R◦
第一步驟:定義問題(Ask / Define),這一步是非常關鍵的,問對問題比解決問題更為重要(Asking the right question is more important than solving it.),決定了後續的整個數據分析任務之工作與方向。
數據分析師所面對的客戶往往會提出一個模糊的需求,分析師要將模糊的需求轉化為具體的問題,例如:「客戶希望想要提升業績」應該可以具體化為「如何提升用戶的30天回購率」。
- 考點
- #數據分析





