人工智能浪潮席卷全球,以ChatGPT为代表的大语言模型正深刻改变着人们的工作、学习与生活方式。然而,当全球目光聚焦于美国科技巨头时,欧洲国家正悄然探索一条属于自己的道路。在荷兰,围绕ChatGPT的应用、影响以及本土化AI模型的开发,一场关于技术主权、公共价值与创新未来的讨论与实践正在深入展开。
荷兰公众对ChatGPT的认知度如何?实际使用情况又是怎样?这是理解AI在荷兰渗透程度的首要问题。
调查数据显示,在ChatGPT发布后的早期采用阶段,略超过一半的荷兰成年人口知晓这款聊天机器人,但实际使用过的人数仅占约十分之一。这表明,尽管媒体广泛报道,AI在荷兰社会的实际渗透仍处于早期阶段。使用群体呈现明显的特征:年轻人、男性和高学历者更可能是早期采用者。例如,在16至24岁的年轻人中,高达74%表示在过去一年中使用过生成式AI;而在25岁以上的人群中,这一比例反转,约74%的人从未尝试过用AI生成文本或图片。
这种年龄鸿沟揭示了技术采纳的典型模式。年轻一代在数字环境中成长,对尝试新技术更具信心,并将其融入日常生活。然而,整体上仍有约70%的荷兰人从未使用过生成式AI工具,这提醒我们,所谓的“AI革命”在大众层面的普及程度可能被高估了。
公众对AI的信任并非铁板一块,而是高度依赖于具体应用场景。在荷兰乃至整个欧洲,信任度随着应用风险的变化而波动。
对于低风险任务,如生成摘要或润色文本,人们的信任度相对较高。然而,当涉及更高风险的领域,如提供财务建议、医疗诊断或法律意见时,信任度显著下降,担忧随之上升。这种谨慎态度反映了公众对AI潜在错误、偏见及责任归属的合理关切。
一个引发广泛讨论的案例是,研究显示ChatGPT在填写荷兰著名的“选举指南”时,表现出明显的左翼自由主义倾向,其偏好从高到低几乎完美地对应了从左到右的政治光谱。这凸显了AI模型可能内嵌训练数据中的偏见,并将其无意识地输出,对于依赖其获取中立信息的用户构成潜在风险。这促使人们思考:谁在控制这些模型?它们基于何种数据训练?公共价值如公平、透明如何得到保障?
面对对外部大科技公司的依赖及其带来的不确定性,荷兰是否在构建自己的AI能力?答案是肯定的,其核心举措之一便是GPT-NL项目。
GPT-NL是由荷兰应用科学研究组织、SURF和荷兰法医研究所共同推动的一项雄心勃勃的计划,旨在开发一个独立的荷兰语大语言模型及生态系统。该项目的驱动力源于对数字主权的迫切追求。其核心目标可归纳为以下几点:
*掌握技术控制权:确保模型开发、数据使用和治理决策的主导权留在荷兰及欧洲内部。
*保障公共价值:将隐私、版权、透明度和公平性等欧洲价值观嵌入AI系统的设计与运行中。
*降低外部依赖:减少对非欧洲供应商的依赖,投资于符合本地法律和 societal 目标的可持续AI生态系统。
*促进负责任创新:为在医疗、教育、政府服务等关键领域安全、可靠地应用AI奠定基础。
GPT-NL代表了这样一种理念:重要的技术不应完全受制于境外商业实体,本土化的努力对于维护战略自主权、积累核心知识(如AI与数据科学)以及培育本土技术人才至关重要。
除了国家层面的项目,荷兰的学术界和公共部门也在积极行动,将AI工具本土化、可控化。
阿姆斯特丹大学推出了“UvA AI Chat”平台,为学生和教职员工提供在安全环境中使用大语言模型的服务。该平台的一个重要进展是引入了在荷兰本地服务器上运行的开放权重模型。此举不仅拓宽了模型选择,更直接减少了师生对商业AI工具和大型科技公司的依赖,是教育机构追求数字独立的切实步骤。
在政府沟通领域,研究探索了使用ChatGPT简化复杂的政府信函,以提升公众理解度,同时确保法律准确性。实验表明,经过适当提示工程优化的AI,能够将政府信函的理解度提升超过20%,并使公民根据简化文本正确回答后续行动问题的能力提高19%。这证明了AI在提升公共服务可及性与效率方面的巨大潜力,但研究也强调,不能仅仅依赖自动化指标进行评估,需结合法律和语言专家审核以及真人测试的综合框架。
尽管本土化项目令人鼓舞,但完全独立于大科技公司被普遍认为是不现实的。那么,荷兰与欧洲应采取何种务实策略?
专家指出,可行的路径是多管齐下:
1.主动谈判与标准制定:与大型科技公司进行谈判,并提前为新兴技术制定和强制执行符合公共价值的标准。
2.投资可持续替代方案:持续创新并投资于可持续的替代方案,特别是考虑到AI训练设施的高能耗需求。
3.培育本土开源生态:鼓励开发本土的(开源)工具和平台,构建多元化的技术基础。
4.培养与留住AI人才:这是最关键的一环。数字主权始于建立和维护自身的专业知识体系,否则将始终受制于人。
问:荷兰大力发展本土AI模型如GPT-NL,是否意味着要完全取代ChatGPT?
答:并非取代,而是补充与制衡。GPT-NL的目标不是复制一个ChatGPT,而是构建一个以公共价值为导向、透明可控、服务于荷兰语语境特定需求的替代选择。它旨在提供一种安全、可信的选项,特别是在处理敏感数据、政府服务或教育等对价值观和合规性要求高的领域。最终形态更可能是一个多元化的AI生态系统,既有全球性工具,也有本土化方案,用户可根据需求选择。
问:对于普通荷兰用户,使用本土AI模型与使用ChatGPT有何实际区别?
答:主要区别可能体现在以下几个方面:
| 对比维度 | 本土AI模型(如GPT-NL愿景) | ChatGPT等国际模型 |
|---|---|---|
| :--- | :--- | :--- |
| 数据隐私与归属 | 数据更可能存储在欧盟/荷兰境内,受GDPR等严格监管。 | 数据可能传输至欧盟外服务器,隐私政策由公司制定。 |
| 文化语境理解 | 专为荷兰语及本地文化、法律、社会规范优化,理解更精准。 | 虽支持多语言,但对特定本地化、细微文化差异的理解可能不足。 |
| 价值对齐 | 明确以欧洲/荷兰的公共价值观(如透明、公平)为设计核心。 | 价值观对齐由开发公司主导,可能隐含其他文化或商业偏见。 |
| 服务与定制 | 可能更专注于服务荷兰公共部门、教育机构、企业的特定需求。 | 面向全球通用场景,定制化本地服务非其首要目标。 |
| 可控性与透明度 | 治理结构可能更开放,允许更多公众监督与审计。 | 模型细节、训练数据通常不公开,属于“黑箱”操作。 |
问:当前荷兰AI发展的最大障碍是什么?
答:人才竞争与持续投资是核心挑战。构建和维护前沿AI能力需要顶尖的科学家、工程师和大量持续的资金投入。与美国科技巨头庞大的资源相比,欧洲本土项目面临激烈的人才争夺战。此外,如何将研究成果有效转化为具有竞争力的产品和服务,形成良性循环的产业生态,也是亟待解决的难题。
技术发展的轨迹从来不只是效率优先,它同样关乎选择权、价值观和未来社会的塑造方向。荷兰在ChatGPT浪潮中的反应——从公众审慎的接纳,到学界对其偏见的剖析,再到国家层面推动GPT-NL这样的主权项目——展现了一种清醒而务实的欧洲态度:拥抱技术带来的生产力与创新,但绝不放弃对技术发展方向、数据治理和伦理标准的掌控权。
这条道路注定更具挑战,它要求持续的公共投入、跨机构的协作以及对长远价值的坚守。然而,它的意义在于确保在AI定义未来的时代,社会保有选择“另一种可能”的能力——一种更贴合本土需求、更尊重个体权利、更负责任的数字化未来。荷兰的探索,或许能为全球寻求平衡技术创新与社会福祉的国家,提供一个有价值的参照。
