資安院院長何全德闡述AI的機會與挑戰,正視與調適生成式AI的深度影響

內容

在當今科技快速發展的浪潮中,生成式AI成為人類科技史上少有的革命性技術,其深度、速度與廣度的影響超乎預期。國家資通安全研究院院長何全德日前以「新世代AI對資安治理的挑戰與機遇」為題發表演說,深入探討AI如何改變人類社會的治理模式與應用格局。他指出,AI就像人類腦袋植入的蒸汽機,不僅帶來效率的提升,更推動了全方位的社會變革。

生成式AI的特點之一,是其應用場景的無限擴展性。這項技術突破傳統人工智慧的限制,不僅可用於文字生成與語言處理,還涉及圖像創作、決策支援以及醫療診斷等多方面應用。何全德進一步闡述,生成式AI正引領著數位化社會的快速發展,其潛在影響不僅限於技術領域,還深刻改變了社會結構與產業經濟。他說:「我們從未見過一項技術能以如此快的速度滲透至每一個領域,影響範圍之廣令人震驚。」

生成式AI帶來各種無限應用的潛力

AI技術的發展日新月異,從最初的聊天機器人到能夠操控電腦的AI代理人(AI Agent),每一項突破都令人耳目一新。何全德強調,AI應用正處於快速成長階段,未來將進一步帶來超越想像的科技創新。例如,數位雙生(Digital Twins)技術的普及,讓西門子等公司得以開發虛擬數位心臟,為醫療保健與精準治療注入新動能。

何全德引述史丹福大學AI專家李飛飛的研究,則再次印證了AI在醫療領域的廣闊應用前景。從李飛飛的研究可以發現,透過AI技術可以做到即時監測醫護人員的手部衛生,以及病患在加護病房中的活動度,有效提高醫療品質。

何全德指出,儘管目前生成式AI在醫療領域的應用尚處於早期階段,但隨著技術的不斷迭代,未來必將迎來更多智慧醫療的創新應用,幫助醫生作出更精準的診斷與決策。

AI的應用潛力還遠不止於此。在製造業領域,數位雙生的應用也使得工業生產流程更加透明化、精準化。例如,通過建立產品或系統的虛擬模型,企業可以模擬生產過程中的可能變數,實現預測性維護並最大化生產效率。同時,在環境監測領域,AI技術被用於分析大量的氣象資料,也可以協助政府制定更為精準的應對氣候變化策略。

數位與淨零轉型的雙軌驅動

何全德進一步分析,「數位轉型」與「淨零轉型」是全球未來發展的關鍵方向。他指出,生成式AI正迅速成為數位轉型的重要推手,不僅提升產業效率,也有助於資源最佳化應用。數位轉型是許多企業面對新時代競爭壓力時的重要策略,「AI作為核心驅動力,正在徹底改變傳統商業模式。」他說。

具體而言,生成式AI能夠協助企業在生產過程中減少能源消耗與浪費,例如,一些大型企業已經開始利用AI技術進行供應鏈優化,將產品運輸路線與儲存方式進行精準規畫,不僅節約物流成本,還降低了碳排放量。

淨零轉型則是更為宏大的全球挑戰,目的就是希望通過技術創新的方式,以實現碳中和的目標。何全德提到,目前許多國家正積極推動AI技術進行淨零轉型中的應用,例如,利用生成式AI進行能源消耗的資料分析,協助企業改進工廠設計,進而降低對環境的負面影響。他指出,AI不僅是提高效率的工具,更是一種幫助全球實現可持續發展的關鍵技術。

AI發展的過程,對人類社會是矛也是盾

然而,AI的快速發展也引發人類對於潛在風險的擔憂。何全德以蒸汽機時代為例,指出每一次科技革命都伴隨著生存秩序的變化,並帶來就業挑戰與其他負面影響。他特別強調,生成式AI大型語言模型的核心在於資料的品質,如果模型訓練使用了不準確的資料,可能導致錯誤的結果產生。因此,如何在享受AI帶來的效率提升的同時,降低其風險,是當前必需解決的重要課題。

因此,他表示,對於AI潛在風險的防範與治理,已經是AI發展過程中,人類必須承擔的必然責任。何全德特別引用2024年諾貝爾物理學獎得主約翰·霍普菲爾德(John Hopfield)與「深度學習之父」傑佛瑞·辛頓(Geoffrey Hinton)在類神經網路和人工智慧(AI)領域的研究論述,強調面對AI發展應該抱持審慎態度。

傑佛瑞·辛頓曾警告,「大多數人低估了人工智慧的潛在益處,就像他們低估其風險一樣。」當AI系統的智能超越人類時,是否能有效控制這些系統仍是未知數。何全德則進一步指出,無論悲觀或樂觀的預測,AI風險與機遇並存,因此應以謹慎且務實的態度推動AI技術應用。

「生成式AI帶來的風險與傳統軟體安全有顯著不同。」何全德指出,大型語言模型壓縮了全球數位化資料,其優勢在於廣泛應用,但風險也不容忽視。他警告,當模型被惡意資料「毒害」時,可能對關鍵決策造成不可挽回的影響。因此,企業與政府在應用AI時,必須關注核心模型的資料來源與準確性,確保技術的安全性與可信度。

因為AI技術發表標誌著人類文明的新篇章,何全德呼籲政府與企業在推動AI發展時,應該同時注重風險防範與治理,確保AI技術的潛力能夠被安全且高效地發揮。他強調,AI既是「矛」也是「盾」,關鍵在於如何找到平衡點,使其成為人類社會進步的助力而非阻礙。

應用AI應關注資安、倫理和治理風險

在生成式AI快速崛起的浪潮中,許多大型企業已經採取積極措施,應對不可預測的風險。何全德表示,這些企業內部普遍設立了多層次的防護措施,例如,進行紅隊演練(Red Team),或推行所謂的攻擊性「提示多樣性注入」(Prompt Diversity Injection)機制,藉此預先引導並排除可能出現的風險。

他指出,紅隊的角色是模擬外部攻擊者的行為,測試內部AI系統的防禦能力;而「提示多樣性注入」的測試則是檢測生成式AI可能產生的不當或錯誤內容,以便在產品正式推出前排除潛在的問題。

此外,已經有企業成立了AI道德倫理委員會,專門負責制定AI開發與應用的相關規範,確保技術開發符合社會價值觀。他認為,從提示式規則到資料安全訓練的對抗,意味著應用AI的企業已經開始審視生成式AI帶來的挑戰,這也顯示出企業對AI安全問題的高度重視。

何全德以其40年負責推動政府E化的公務員經驗來看,生成式AI以前所未見的速度對全球產生影響,這種影響不僅限於科技領域,也波及經濟、文化與政策制定。

像是生成式AI的出現,讓自動化和效率提升至全新層次;其應用從內容生成、語言翻譯、醫療診斷到產品設計各個方面,也迅速滲透到人類生活的各個層面。這不僅引發國際間的關注,也促使主要國家攜手合作應對AI治理風險。

例如,英國與美國等國正共同進行跨國界合作,辨識AI風險,進行分類與分級治理。這種全球性的合作在過去科技發展中極為罕見,這也彰顯出:生成式AI的潛在影響力非常巨大。

他認為,生成式AI的風險不僅限於使用或誤用,其生成內容可能涉及侵權、資訊整合不當,甚至對環境帶來負面影響。舉例而言,隨著生成式AI的需求激增,美國計畫建設多座資料中心以應對日益增長的運算需求。這些資料中心雖然能提升技術能力,但也對能源供應和環境保護帶來巨大挑戰,包括增加碳排放和消耗大量水資源、電力等,因此,各國在推廣生成式AI的同時,也需同步考量其對環境的長期影響。

AI技術風險與管理挑戰

何全德表示,生成式AI的風險可分為三類:技術性風險、管理性風險與社會性風險。首先,技術性風險主要來自AI模型本身的漏洞與局限,例如生成不準確內容或受惡意利用進行攻擊。

其次,管理性風險則涉及企業如何部署AI系統,包括如何確保資料安全、隱私保護以及模型的透明性和可解釋性;第三,社會性風險則涵蓋生成式AI對社會結構的影響,例如可能引發的職業替代與倫理爭議。

他認為,AI幻覺現象則是目前技術性風險中的重要挑戰之一。所謂AI幻覺,指的是AI系統生成看似合理,但實際上不正確或無意義的內容,根據麥肯錫的調查,導入AI的美國企業面臨的兩大挑戰,分別為:AI的不準確性(Inaccuracy),以及智慧財產權(IPO)相關問題,其中,AI不準確性可能導致錯誤決策,而IPO問題則涉及AI生成內容的版權歸屬與使用權界定。

為了應對這些挑戰,麥肯錫制定一系列指導原則,提出10項應對AI風險的考量,包括模型的有效性、安全性、可靠性、透明性等多個方面。麥肯錫強調,建立負責任的AI(Responsible AI)框架,是推動技術與社會協調發展的關鍵。

制定法規為AI發展奠基

美國與歐盟相繼推出AI風險治理與應用評估標準,為全球樹立了良好的範例。美國在國家層面加強對AI技術的監管,歐盟則透過《AI法案》(AI Act)提出一系列法規,涵蓋高風險AI應用的審核機制和透明度要求。

臺灣在這一波潮流中,數位發展部數位產業署則成立了「AI產品與系統評測中心」,致力於為本地AI產品提供評測服務。該中心則針對安全性(Safety)、可解釋性(Explainability)、韌性(Resiliency)、公平性(Fairness)、準確性(Accuracy)等10個評測項目,建立標準化的評估體系,幫助企業提升技術競爭力。

此外,何全德表示,政府也推動《AI基本法草案》,希望可以為AI技術在臺灣的發展提供法律依據,並應對生成式AI帶來的資安與倫理挑戰。例如,基本法中對AI技術的應用範疇與風險控制提出明確指導,為科技創新與社會利益之間的平衡奠定基礎。

生成式AI被認為是資安攻擊與防禦的利器,其應用特點可分為以下幾點特性。第一,攻擊速度加快,防護難度提高:AI技術的發展使攻擊更加精準且自動化,企業需投入更多資源應對這些新型威脅。例如,AI生成的深偽技術(Deepfake)可用於製造逼真的虛假影片與音頻,對信息安全構成嚴重威脅。

第二,資安威脅情報的收集與預測分:AI可以快速分析大量資料,發現潛在威脅並進行預測。未來,AI化的資安監控中心(SOC)將成為主流,幫助企業在威脅發生前採取行動。

第三,安全產品生命周期的設計:安全設計思維(Security by Design)已成為產品開發的核心理念,這種方法要求開發者在產品設計階段就考量安全性,而不是事後再進行補救。所以,產品開發者需要提供預設安全(Security by Default)的功能,使用者則需提出安全需求(Security by Demand),形成上下游的良性互動。

第四,AI安全的基礎:資料可信度。因為安全可靠的資料是AI可信任的基礎,傳統程式依賴人工編寫邏輯,而生成式AI則需要大規模資料支撐。這意味著,企業需建立完善的資料治理體系,確保資料的來源合法且品質可靠。

美國網路安全與基礎設施安全局(CISA)局長Jen Easterly先前也提出「以安全為核心設計」(Secure-by-Design)的原則,就是強調在AI工具開發初期引入安全機制的重要性,以降低後期補救的成本與效率問題。

四個AI風險的應對策略

何全德也引述Jen Easterly所關注的AI風險四個關鍵面向(Velocity、Vulnerability、Veracity、Vigilance),希望可以作為臺灣制定AI安全政策時的參考。

第一個V就是技術發展速度(Velocity):AI技術進步與威脅出現的速度加快,需事前防範策略。例如,AI技術的快速迭代可能導致企業難以及時更新其防禦系統,從而暴露於新型威脅之下。

第二個V指涉系統脆弱性(Vulnerability):許多AI工具在設計階段未充分考慮安全性,易受攻擊。例如,AI生成的模型可能含有未被發現的漏洞,這些漏洞可被惡意利用進行資料竊取或服務癱瘓攻擊。

第三個V強調資料真實性(Veracity):AI模型的輸入資料品質對其結果有直接影響。為確保結果準確性,企業需建立資料來源審核機制,防止不良資料對決策造成影響。

最後一個V則是持續警覺性(Vigilance):政府與企業需保持高度警惕,建立快速偵測回應機制。例如,針對生成式AI可能引發的深偽技術濫用,需建立常態化的監控機制,以防範假消息對社會的影響。

AI技術的發展將改寫資安遊戲規則,不僅提升生產效率,也帶來更多挑戰。例如,在未來的智慧城市建設中,AI將負責大數據的分析與決策,若無妥善的安全機制,將面臨巨大風險。因此,他認為,臺灣應持續強化自身的AI安全政策,結合技術與管理雙重手段,確保AI技術在安全與效率間取得最佳平衡,為未來科技的可持續發展鋪平道路。

從開發階段重視資安,並從駭客視角看資安防護

何全德指出,從Internet開始,許多資安的觀念隨著科技發展而不斷進步。過去的資安技術以防火牆為主,後來演進到入侵檢測系統(IDS)與入侵防禦系統(IPS)。

然而,隨著網路威脅日益多樣化,他說,現在的資安理念已從信任的架構逐漸轉變為零信任模式(Zero Trust)。這種轉變反映出數位化時代資安挑戰的複雜性與多樣性,也要求企業從技術層面到管理架構進行全方位的改變。

何全德強調,我們必須從資安到韌性(Security to Resilience)進行全面升級,這不僅僅是技術革新,更是戰略上的長期規畫。他提到,韌性意味著組織在遭遇攻擊或災害時,能夠迅速恢復營運的能力,並可減少損失影響。「這是一種對抗當前與未來資安威脅的必須能力。」他說。

此外,他提出了幾個重要觀點,包括:資安向左移動(Shift Left Security)的重要性。這一個主張,重點是將資安考量前置於軟體開發的早期階段,以避免事後補救的高昂成本。何全德表示,許多企業忽視了早期介入資安的重要性,導致產品上市後出現許多漏洞,不僅影響使用者體驗,更可能對品牌信譽造成損害。

同時,他還建議應該從駭客視角強化資安策略,模擬潛在攻擊者的行為,有助於企業能更準確地識別系統漏洞,並提前部署應對措施。這是一種更為主動的資安管理方式,尤其是在攻擊手段日益多樣化的今天,預測和防範比事後應對更加重要。

另一個不可忽視的重點是資料保護的重要性。他指出,系統故障可能重建,但資料的遺失卻可能是無法挽回的。因此,企業不僅要關注資料的儲存與備份、還原,還需對資料的傳輸、使用與存取設計都設計更全面性的安全機制。

生成式AI的應用與挑戰

在生成式AI的浪潮中,何全德特別指出,這項技術為我們帶來了前所未有的機遇與挑戰。他強調,我們應以「睜大雙眼的態度擁抱生成式AI」(Embrace Gen AI with eyes wide open)。這句話意味著:在接納AI創新價值的同時,也必須保持高度警惕,深刻理解其可能帶來的潛在風險。

他進一步分析了生成式AI應用的多方面挑戰。首先,是算力需求的持續增長,這對於中小企業而言是個大門檻。其次,全球AI人才的短缺更是限制技術推廣的重要因素。第三,他援引數據資料指出,目前中文資料在AI訓練資料的占比僅為1.7%,其中正體中文更低於0.5%。這導致多數AI模型在處理正體中文的表現不佳,無法滿足臺灣本地市場的需求。

為應對這個訓練模型的問題,國科會推動基於正體中文的大型語言模型「台德」(TAIDE,Trustworthy AI Dialogue Engine)。該模型目的在於:在打造符合臺灣文化特性,並滿足本地需求的AI技術平臺。這不僅是臺灣數位轉型的重要一步,也為全球提供支持多元語言與文化的AI範例。

此外,他認為生成式AI的潛在風險還包括:資料安全與模型偏見。例如,AI生成的內容可能在無意間洩露機密資料,或者因訓練資料的不平衡而導致偏頗的決策。要解決這些問題,就必須要求開發者在設計階段,就納入更高的安全與公平性標準。

另一個備受關注的議題是:AI技術在資安領域的雙面性。他說,AI一方面可以用於快速檢測與防禦潛在威脅,例如通過分析巨量資料,識別異常行為;另一方面,AI也可能被惡意使用,開發更加精密的攻擊工具。「因此,如何用AI對抗AI,成為當前資安策略中的重要一環。」他說。

何全德深信,AI技術將對臺灣未來的社會與經濟發展產生深遠影響。他提到,AI不僅能提高生產效率,還能改善生活品質。例如,未來的視障人士將可能透過AI技術攔下計程車,或者使用AI協助日常生活中的複雜任務。這些應用場景不僅展現了AI的潛力,也讓人類看到了技術與人性結合的美好前景。

他進一步提到,AI還將推動臺灣的產業升級與提升國際競爭力。例如,在製造業中,AI可實現供應鏈的全方位優化;在醫療領域,AI能加速新藥研發,並提升診斷的準確性。他認為,這些技術應用不僅能為企業帶來經濟效益,也能為社會創造更大的公共價值。

何全德引用法國作家馬塞爾·普魯斯特的名言:「真正的發現之旅,不在於尋找新的風景,而在於擁有新的眼光。」這句話強調了創新思維的重要性,他認為,尤其是在AI快速發展的時代,傳統的觀念與方法已無法應對新興挑戰,我們需要以全新的視角重新審視技術、治理與社會發展的關係。

最後,他呼籲臺灣應從簡單的風險管控開始,逐步適應並快速行動。他強調,未來的成功取決於我們如何用新的思維看待治理與技術運用,並為臺灣的社會與經濟發展注入新動能。

何全德說:「在AI時代,臺灣應該善用自身的創新能力,打造具本地特色的應用場景,讓AI成為促進社會公平、經濟發展與技術進步的重要支柱。」

資安院院長何全德引述美國CISA局長Jen Easterly對AI風險關注的四個面向,並認為,未來政府在制定AI安全政策時,也可以將這四個面向作為參考。

總結
在科技迅速發展的背景下,生成式AI被視為革命性技術,對社會治理模式及應用格局產生深遠影響。國家資通安全研究院院長何全德指出,生成式AI的應用範圍廣泛,涵蓋文字生成、圖像創作及醫療診斷等,並推動數位化社會的快速發展。他強調,AI技術的進步不僅提升效率,還改變傳統商業模式,助力企業進行數位轉型與淨零轉型,降低能源消耗及碳排放。然而,AI的快速發展也帶來潛在風險,如資料品質問題可能導致錯誤結果。因此,如何在享受AI帶來的便利的同時,妥善防範其風險,成為當前的重要課題。何全德呼籲,對於AI的治理與風險防範是人類必須承擔的責任,以確保技術的可持續發展。