生成式AI的浪潮兴起,相对地伴随着机会和风险,尤其是人工智慧(AI)应用所引发的资安问题更倍受到关注。GDDA全球数位产业联盟协进会(简称GDDA)与国际通商法律事务所(Baker McKenzie台北所)於今(19)日举办「2024国际AI资安论坛」,今年以「生成式AI之导入与资安风险管理」为主题,探讨在生成式AI趋势下,如何强化政府部门与企业在资讯安全的风险管理与因应措施,公私协力防护资安。
|
GDDA与Baker McKenzie共同举办「2024国际AI资安论坛」,数位发展部部长黄彦男以「组织导入生成式AI的资安挑战」进行专题演讲。 |
本次论坛邀请行政院数位发展部部长黄彦男进行专题演讲,探讨「组织导入生成式AI的资安挑战」,他认为全球逾7成企业导入AI,可见未来企业如果不会使用生成式AI,将很可能会被淘汰,然而生成式AI风险伴随着应用而生,政府政策蓝图必须引领AI安全发展。他指出生成式AI的五大风险为虚假讯息、资讯安全、国家安全、内容合规与侵犯智慧财产权;例如资安方面为资安威胁、机敏资料外流,恶意程式、深伪技术滥用、模型攻击与防御等威胁。
资安是发展AI的基石,黄彦男表示,全球政府陆续拟定AI治理政策与指引,如美国、欧盟及日本等,国科会也於今年7月发布人工智慧基本法草案,引导各机关发展AI应用,草案强调「隐私保护」和「人权」。数发部将叁考国际标准或规范来推动人工智慧风险分级框架,让政府单位及主管机关可以依循分级框架,订定主管业务的风险分级规范,推动AI研发及应用,透过制定相关的标准和规范来提升可信度与安全性。他表示,风险分级框架会采取高中低等分级方式,根据风险、如何应用,有不同风险要求,预计於年底出炉。
此外,由於生成式AI可大幅提高资料分析能力和加强资安防护体系,藉由分析行为模式找出潜在威胁,快速判断风险的优先次序,进而更快更有效率的回应资安威胁,因此,生成式AI於资安防护应用具有相当的优势。数发部AI产品与系统评测中心推动AI评测体系架构与制度,以及可信任AI环境发展,以期产官学界共创安全可信的AI未来。