麻省理工學院(MIT)研究團隊開發出一種名為SEED-SET的自動化測試框架,能精確識別AI決策支持系統在處理社會群體時可能產生的不公平現象。這項技術利用大型語言模型(LLM)作為人類價值觀代理,協助決策者在電力分配或城市規劃等高風險領域,為AI治理提供系統化的解決方案。
隨著AI在決策優化中的應用日益廣泛,系統往往能找出成本最低或效率最高的策略。然而,MIT團隊指出,技術上的「最優解」未必等同於社會的正義。
例如,一項旨在優化成本的電力調度方案,可能會無意中導致低收入社區比高收入地區承擔更高的停電風險,這種「未知的未知」正是目前AI監管中最難防範的隱形地雷,若無系統性測試,難以在部署前察覺。
...
...
| 使用者別 |
新聞閱讀限制 |
文章閱讀限制 |
出版品優惠 |
| 一般使用者 |
10則/每30天 |
0則/每30天 |
付費下載 |
| VIP會員 |
無限制 |
25則/每30天 |
付費下載 |