作者:张瑞雄(前北商大校长、叡扬资讯顾问)

美国可说是在AI方面最先进的国家,因此美国如何来管制AI是一个很重要的问题。最近的美国国会对於管理AI并应探讨其社会影响的迫切需求逐渐得到民意的认可,尽管在负责任的AI监督原则方面仍存在一些对立和矛盾。

在过去几个月中,一个由美国参议院委员会主持的一系列闭门会议汇集了一百多名产业、研究、政府机构和公益团体的专家,讨论各方的利害关系和所涉及的广泛问题。讨论主题除注重技术面,如生成模型的创新潜力和风险,也聚焦於迫切的社会影响,如演算法对经济机会的障碍和执法技术应用所带来的侵犯公民自由和隐私的问题。

跨领域的声音的纳入说明任何治理机制必须超越狭窄的技术层面,代表消费者福祉、族群正义和劳工权益等的组织的参与将对平衡AI的潜在利益和危险发挥作用。难得的是参议员们展现出令人惊讶的跨党派合作和细致的议题素养。

另外一封来自80多个公益组织的公开信呼吁将现实世界的危害作为AI责任政策和监督活动的基础,并反对将讨论集中在AI的假设未来潜力与风险之间的狭隘框架。这种狭窄的AI定义掩盖了演算法目前引起的具体不良影响,特别是对历史上被边缘化的社群。该信凸显了像有偏见的招聘演算法拒绝人们的工作机会和警方使用脸部识别导致错误逮捕(主要是对有色人种)等例子。其他重要的关切包括生成式AI对创意产业的威胁,大型语言模型的使用大量资源加剧气候变化,以及大规模抓取互联网数据去训练模型所产生的隐私和言论侵犯等等。

这些最近的发展在多个方面都表明了AI治理辩论的重要趋势,首先,具体的损害成为焦点,取代了以前主导的AI未来推测,将AI风险简单地归纳为可控或不可控的基本框架式远远不够的。

另一个趋势是技术专业知识的主导地位正在被侵蚀,对社会和公平考虑的观点逐渐被重视,即仅靠计算机科学家无法揭示AI监督必须解决的全部范围。同样地,那些遭受AI不公正待遇的人必须帮助来制定补救措施。

然而一些固执的分歧可能仍然存在,令人振奋的跨党派合作虽然鼓舞人心,但如何调解相对立的意识形态,还有内容审查或执法技术监管等问题都是非常需要沟通。尽管在不同部门之间平衡地参与讨论的努力反映了一些进展,但有利於大型科技公司的明显权力差异可能会继续扭曲政策优先事项,这是必须特别注意的。

最近的这些发展显示政策制定者越来越理解AI在社会各群体以及在正义、权利、包容和人类尊严等价值方面的多方面影响,但订出与技术的复杂度和规模相匹配的治理框架仍然是极具挑战性。成功需要以公众利益为中心,保持广泛的包容性,尤其是过去在新科技中常常被排除或贬低的最受影响的社区和族群。