生成式AI的浪潮興起,相對地伴隨著機會和風險,尤其是人工智慧(AI)應用所引發的資安問題更倍受到關注。全球數位產業聯盟協進會(簡稱GDDA)與國際通商法律事務所(Baker McKenzie台北所)於今(19)日舉辦「2024國際AI資安論壇」,今年以「生成式AI之導入與資安風險管理」為主題,探討在生成式AI趨勢下,如何強化政府部門與企業在資訊安全的風險管理與因應措施,公私協力防護資安。
|
GDDA與Baker McKenzie共同舉辦「2024國際AI資安論壇」,數位發展部部長黃彥男以「組織導入生成式AI的資安挑戰」為題進行專題演講。 |
本次論壇邀請行政院數位發展部部長黃彥男進行專題演講,探討「組織導入生成式AI的資安挑戰」,他認為全球逾7成企業導入AI,可見未來企業如果不會使用生成式AI,將很可能會被淘汰,然而生成式AI風險伴隨著應用而生,政府政策藍圖必須引領AI安全發展。他指出生成式AI的五大風險為虛假訊息、資訊安全、國家安全、內容合規與侵犯智慧財產權;例如資安方面為資安威脅、機敏資料外流,惡意程式、深偽技術濫用、模型攻擊與防禦等威脅。
資安是發展AI的基石,黃彥男表示,全球政府陸續擬定AI治理政策與指引,如美國、歐盟及日本等,國科會也於今年7月發布人工智慧基本法草案,引導各機關發展AI應用,草案強調「隱私保護」和「人權」。數發部將參考國際標準或規範來推動人工智慧風險分級框架,讓政府單位及主管機關可以依循分級框架,訂定主管業務的風險分級規範,推動AI研發及應用,透過制定相關的標準和規範來提升可信度與安全性。他表示,風險分級框架會採取高中低等分級方式,根據風險、如何應用,有不同風險要求,預計於年底出爐。
此外,由於生成式AI可大幅提高資料分析能力和加強資安防護體系,藉由分析行為模式找出潛在威脅,快速判斷風險的優先次序,進而更快更有效率的回應資安威脅,因此,生成式AI於資安防護應用具有相當的優勢。數發部AI產品與系統評測中心推動AI評測體系架構與制度,以及可信任AI環境發展,以期產官學界共創安全可信的AI未來。