你是不是觉得“AI治理”这个词听起来特别高大上,好像离我们普通人的生活很远?其实不然,想想看,你现在用的手机App推荐、刷到的短视频,甚至网上客服,都离不开AI。那么,当AI越来越聪明,甚至能自己“做决定”时,谁来管管它?怎么管?今天咱们就来聊聊亚洲是怎么应对这个问题的,尽量把复杂的事儿说简单。
过去一提到AI,大家可能先想到美国硅谷。但现在,情况真的大不一样了。简单说,亚洲在AI领域已经支棱起来了,从一个主要的应用市场,变成了创新、产业化和制定规则都挺有分量的角色。
这背后,是亚洲各国根据自己的“家底”,走出了不一样的路子。有人把亚洲的AI发展分成了几个梯队,这个分法挺有意思:
你看,这就形成了一个“梯队并存、路径不同、但合作空间巨大”的格局。不再是单一的模仿,而是各有各的打法。
好了,既然AI发展这么快,那治理框架到底要管些什么呢?说白了,就是要回答:如何让AI既好用又安全,不闯祸。
目前全球范围内,虽然细节各有不同,但几个核心理念是共通的,亚洲的实践也围绕这些展开:
说到这里,我得插一句个人看法。我觉得啊,未来的治理,难点可能不在于技术本身,而在于“权责利”的划分。AI一旦行动,产生了实际后果,这个后果该由开发者、使用者还是AI自己来承担?这真是个需要提前想明白的大问题。
刚才说的治理,很多还集中在传统的、尤其是生成式AI(比如能写文章的ChatGPT)上。但技术跑得太快了,新一代的“智能体AI”已经登场,这带来了全新的挑战。
什么叫智能体AI?简单理解,以前的AI主要是“动嘴”(生成内容),现在的智能体AI是“动手”(执行任务)。比如,它能自己分析你的日程,然后直接帮你订机票、支付,甚至操作电脑完成一连串工作。这能力是不是强得有点吓人?
所以,治理框架也必须升级。新加坡最近就搞出了全球首个针对这类AI的治理框架,思路很值得琢磨。它强调了几个特别关键的原则:
1.最小权限原则:给AI的权限要“够用就行”。一个管日程的AI,绝不能让它碰你的银行账户。这就好比,你不能给家里的扫地机器人一把能打开你保险箱的钥匙。
2.行动可逆性评估:做事前先分分风险。发个通知、整理文件这种小事,AI可以自己做;但要是转账、删数据库这种大事,必须设置人工审批环节,人说了才算。这很实在,对吧?
3.有意义的人类监督:监督不能是走形式。不是简单地点击“同意”按钮,而是监督的人要真正理解AI为什么要这么做、依据是什么、可能有什么后果。这要求其实不低。
你看,治理的焦点,正从“它说得对不对”转向“它做得安不安全、谁为结果负责”。这个转变,可以说是抓住了未来AI发展的牛鼻子。
AI治理不是关起门来自己玩就行,它是个全球性议题。但这里头,其实有不少暗流涌动。
最近一些国际AI安全峰会,大家可能也注意到,有时会出现“小圈子”讨论的情况。比如由少数国家先定好一个框架,再推广开来,想把“自家共识”变成“全球共识”。这种做法,说实话,可能会把很多国家,包括一些AI发展不错的亚洲国家,排除在规则制定的大门之外。
这就引出一个关键问题:AI的全球规则,到底应该由谁来主导?是在联合国这样的广泛平台下商量,还是在少数国家组成的俱乐部里决定?亚洲国家,特别是第一、第二梯队的国家,拥有巨大的市场、丰富的应用场景和独特的治理实践,完全有资格、也有必要在全球规则制定中发出更响亮的声音,确保规则的包容性和平衡性,而不是被动接受。
我的一个见解是,亚洲在AI治理上,其实可以发挥一种“桥梁”作用。我们既经历了技术的快速应用和普及,也深刻理解发展与安全并重的需求。这种实践经验,对于建立一套不扼杀创新、又能切实管控风险的全球规则,是非常宝贵的财富。
聊了这么多,最后简单展望一下。AI治理这条路,注定是漫长且需要不断调整的。对于亚洲而言,未来的方向可能在于:
说到底,治理AI,就像为一场充满惊喜也充满未知的探险制定规则。目标不是把探险家捆起来,而是给他们配上可靠的地图和必要的安全绳,让技术这艘大船,能在造福人类的航道上行稳致远。这条路,亚洲正在努力走,而且走得越来越有章法。作为普通人,我们也许不是制定规则的人,但了解这些,能帮助我们更好地理解正在被AI塑造的世界,也能更清醒地享受技术带来的便利。
