管理資訊系統(MIS)
越來越接近考試的時節,各位同學對於準備上有十足的把握了嗎?由於近幾年人工智慧的發展,不管是高普考還是研究所考試,幾乎都會遇到與人工智慧相關的題目。高普考的題型我相信各位同學都已經十分熟悉,考古題也都解得得心應手。所以老師特別從研究所的試題中找到一個相對經典好玩的人工智慧衍生題。
以下是成大112年的研究所考題,他的範圍與高普考不會相差很多,但是他在考題中問到三個非常經典與人工智慧相關的術語,分別是 AIOT、XAI 和 AGI。本文將針對以上三個名詞分析,並讓同學熟悉這三者的關聯與差異。

AIoT 是 AI(Artificial Intelligence)與 IoT(Internet of Things)的結合,意即「人工智慧物聯網」。傳統的物聯網強調裝置之間的聯網與資料傳輸,但缺乏智慧判斷能力。AIoT 則在 IoT 裝置中導入 AI 演算法,使裝置能夠「理解」感測數據、進行預測、甚至自動執行決策。
- 應用場域:
- 智慧家庭:掃地機器人能判斷髒污區域並自動加強清掃;冷氣能根據使用者行為自動調整溫度。
- 智慧製造:設備監控系統可預測機器故障,降低維修成本。
- 智慧城市:智慧路燈根據環境亮度與人流調節照明強度。
- 技術特徵:
- 邊緣運算:為了降低延遲,AI 模型常在裝置端(edge)直接推論。
- 數據即時處理:能即時接收感測器數據並做出即時反應。
- 自學習能力:裝置可透過歷史數據調整其行為與邏輯。
AIoT 的最大價值在於讓「物」具備判斷力與行動力,進一步提升自動化、效能與使用者體驗。
隨著 AI 模型尤其是深度學習在各領域展現驚人效能,其「黑盒子」特性也引發廣泛疑慮。XAI(Explainable AI)正是為了解決這一問題所提出的技術方向,目的是讓 AI 的決策過程對人類來說是透明且可理解的。
- 為什麼需要可解釋性?
- 信任與接受度:在金融、醫療或司法等高風險領域,若 AI 決策無法被理解,使用者難以接受其結果。
- 合規性:像歐盟 GDPR 法規要求自動決策系統需提供可解釋的理由。
- 錯誤偵測與修正:可解釋性有助於發現模型偏誤或輸入資料異常。
- 常見 XAI 方法:
- LIME/SHAP:對模型輸出進行區域性近似,指出哪些特徵影響決策。
- Attention Mechanism:可視化神經網路注意力分佈,了解模型「關注」哪些資訊。
- 決策樹替代模型:用可解釋模型近似黑盒模型行為。
XAI 並非要求所有 AI 都能百分之百說明清楚其推論過程,而是盡可能提高決策透明度,促進人機協作與信任。
目前我們所使用的 AI,大多屬於「狹義人工智慧」(Narrow AI),即只能在特定任務上表現良好。例如,圍棋 AI 可能能擊敗世界冠軍,但它不會幫你寫 Email 或開車。AGI 則指具備與人類相當、甚至更高的「通用認知能力」的人工智慧。也就是說,AGI 可以進行跨領域的學習、推理、創造力展現與自我意識等活動。
- AGI 的特徵:
- 自適應學習能力:能夠從少量數據學習並舉一反三。
- 跨領域問題解決:能從語言、圖像、邏輯等不同類型資訊中綜合推理。
- 目標導向與自我優化:能主動設定目標並評估自身行為有效性。
- 技術與挑戰: 目前尚未實現真正意義上的 AGI。即便像 GPT-4 這類的大型語言模型在某些任務上已接近「仿人表現」,但其依舊無法完全理解語境、具有自我意識或跨情境學習。要達到 AGI,我們仍需在以下領域取得重大突破:
- 認知架構的模擬
- 統一學習機制
- 高效能硬體支援
AGI 的出現不僅會顛覆產業結構,更將引發倫理與治理上的重大辯論。
從 AIoT 將智慧嵌入日常裝置、XAI 讓 AI 更值得信任、再到 AGI 追求與人類同等的智能,我們可以看出人工智慧正邁向更廣泛、更深入也更謹慎的發展之路。AIoT 讓我們的居家環境變得更便利、節能與安全;XAI 讓這些智慧功能的背後邏輯更清楚、更容易被監督;而AGI則描繪出人類與機器智慧共存、共創未來的終極圖景。然而,每一項發展都伴隨著技術與倫理的挑戰。在追求智慧的路上,我們必須不斷平衡創新與安全,效率與透明。