近年来,以ChatGPT为代表的生成式人工智能在全球范围内引发了应用热潮。英国,作为科技与创新实力雄厚的国家,其社会各领域对ChatGPT的采纳与应用呈现出独特而复杂的图景。从政府机构的审慎调研到普通民众的日常使用,从高等学府的激烈辩论到专业领域的合规探索,ChatGPT在英国的应用已远远超越了单纯的工具范畴,成为观察人工智能如何融入现代社会肌理的一个生动切片。 本文旨在深入探讨ChatGPT在英国的使用现状,剖析其带来的核心问题与挑战,并展望未来的发展趋势。
ChatGPT在英国的应用已具备相当的广度和深度。根据一项针对英国雇主的调查,31%的雇主表示目前在工作中使用AI,而在这些使用者中,有39%正在使用类似ChatGPT的实时对话式AI工具。 这一数据表明,AI技术已开始实质性进入英国职场。在公众层面,认知与使用率同样显著。高达73%的英国公众在过去一个月内曾在日常生活中使用过AI,尽管其中只有17%的人能够详细解释AI是什么。 值得注意的是,超过三分之一(36%)的公众在工作中使用过AI,并且有21%的人认为AI提升了他们的工作效率。
这种渗透也体现在具体的用户行为上。一项研究对ChatGPT的对话样本进行了分析,发现“寻求实用指导”、“查询信息”和“辅助写作”是三个最常见的对话主题,合计占所有对话的近80%。 这凸显了ChatGPT作为决策支持和生产力工具的核心价值,尤其是在知识密集型工作中。 在工作相关任务中,写作占据了主导地位,这体现了聊天机器人相比传统搜索引擎,在生成数字内容方面的独特能力。 从设备偏好来看,移动设备占据了约65%的ChatGPT会话,显示出其应用的便捷性和日常化趋势。
核心问题一:ChatGPT在英国最常用于哪些场景?
答案可以概括为三大领域:
*工作效率提升:广泛应用于文本起草、信息汇总、邮件润色、创意构思等办公场景。
*日常生活辅助:用于解答疑问、规划行程、获取学习资料、甚至进行简单的创意写作。
*特定专业辅助:在法律、医疗、教育等领域,开始尝试用于辅助分析、生成初稿或提供参考信息,但伴随着严格的合规审查。
在某些专业领域,ChatGPT的应用引发了更深入的讨论与实践。
*司法领域:英格兰和威尔士的司法机构发布了官方指南,允许法官使用ChatGPT等工具辅助撰写法律裁决书,特别是在总结文本或处理行政任务时。 指南同时强调,法官个人需对以其名义产生的材料负最终责任,并警告不得输入机密信息。 这标志着一种“负责任的开放”态度,即在明确边界和问责制的前提下,利用AI提升司法效率。
*医疗领域:应用同样在探索中快速推进。一项研究发现,英国近30%的全科医生(GP)已在患者问诊中使用AI工具如ChatGPT,用于生成问诊摘要、辅助诊断或处理行政任务。 然而,报告也指出,在缺乏明确监管的“蛮荒西部”状态下,这种快速应用带来了对临床错误、患者隐私和专业法律责任的普遍担忧。 更令人关注的是,AI的情感支持功能也被广泛使用,约三分之一的英国公民曾使用AI寻求情感支持或社交互动,其中近十分之一的人每周使用,4%的人每日使用。 这引发了关于心理健康依赖和伦理安全的新议题。
*教育领域:英国大学对ChatGPT的态度经历了从禁止到重新评估的转变。最初,包括牛津、剑桥在内的多所顶尖学府明令禁止在评估中使用。 然而,随着认知深入,许多大学更新了规定,转向强调如何负责任地将其作为学习辅助工具,而非直接生成作业。 例如,伦敦大学学院(UCL)提供了如何引用AI生成内容的指南,而格拉斯哥大学则公开支持学生将其用于日常学习。 核心共识是:利用AI激发灵感、构建框架可以接受,但直接提交AI生成的文本被视为严重的学术不端行为。
广泛应用的同时,一系列挑战也随之浮现,促使英国社会思考如何建立有效的治理框架。
主要挑战包括:
1.技能与认知缺口:调查显示,61%的英国雇主目前没有员工从事与AI相关的工作,同时仅有11%的雇主在过去一年为员工提供了AI培训。 公众层面,只有28%的人对自己在日常生活中使用AI工具感到自信。 这揭示了技能普及的紧迫性。
2.安全与伦理风险:62%的公众认为在使用AI时保护个人信息安全与隐私至关重要。 专业领域则担忧数据泄露、算法偏见和“幻觉”(生成不准确信息)带来的风险。 AI情感陪伴可能导致的依赖及心理影响也需深入研究。
3.责任与问责模糊:当AI辅助生成的內容出现错误时,责任归属成为难题。无论是法官的裁决书还是医生的诊断建议,最终责任主体必须是人,这就要求使用者具备批判性审核能力。
为应对这些挑战,英国政府采取了“因地制宜”的监管思路。2023年发布的人工智能监管白皮书提出了安全性与稳健性、透明度与可解释性、公平性、问责制与管理、可竞争性五项原则。 其核心并非立即立法强制,而是指导各行业监管机构基于这些原则制定具体指南,如司法机构和大律师公会发布的AI使用指引。 这种灵活、基于原则的框架旨在鼓励创新,同时管控风险。
核心问题二:英国如何监管ChatGPT的使用?
英国采取了“行业引导+原则先行”的适应性监管模式。政府发布高层次原则框架,由各行业监管机构(如司法办公室、大律师公会、大学联盟)根据自身特点制定具体使用指南和伦理规范,强调使用者的最终责任和审慎义务,而非一刀切的禁止或放任。
展望未来,ChatGPT及其同类技术在英国的融入将更加深入和系统化。
*技能普及将成为重点:随着21%的雇主预计未来12个月对AI技能的需求将增长,政府、企业和教育机构需要合作,大规模开展AI素养和实用技能培训,以弥合数字鸿沟。
*专业化与定制化工具涌现:通用聊天机器人将更多与专业领域结合。例如,法律界可能更倾向于使用经过权威法律数据微调的专业AI工具,而非通用的ChatGPT。 医疗、金融等领域也将发展出符合行业规范和安全要求的专用助手。
*使用场景继续深化与分化:非工作相关的使用比例可能持续增长,涵盖娱乐、创意、个性化陪伴等更广阔的领域。 工作场景的使用则会更加聚焦于提升复杂决策支持和创造性工作的效率。
| 对比维度 | 现状与机遇 | 挑战与风险 |
|---|---|---|
| :--- | :--- | :--- |
| 应用广度 | 职场与日常生活渗透率高,成为常见工具。 | 技能缺口大,公众信心不足,存在使用鸿沟。 |
| 专业应用 | 司法、医疗等领域开始探索,提升效率潜力巨大。 | 引发伦理、责任、安全及数据隐私的严峻挑战。 |
| 教育整合 | 从禁止转向引导,被视为潜在的学习辅助革命。 | 学术诚信边界需重新界定,评估方式亟待改革。 |
| 监管环境 | 采取灵活的原则性框架,鼓励负责任创新。 | 跨行业协调难,法律追责体系面临新考验。 |
ChatGPT在英国的应用旅程,清晰地映射出一条技术扩散的典型路径:从好奇与恐惧并存的早期接纳,到各行业基于自身逻辑的试验与碰撞,再到全社会开始系统性地思考如何建立与之共生的规则。它不再只是一个“写论文的工具”,而是演变为一个触及工作效率、教育本质、司法公正、医疗伦理乃至人类情感需求的复杂社会技术系统。英国的实践表明,技术的成功嵌入,不仅取决于其本身的能力,更取决于社会制度、职业伦理、公众认知和监管智慧能否协同演进。未来,ChatGPT等AI在英国的命运,将取决于我们能否在享受其带来的巨大便利的同时,成功构筑起一道坚固的“责任堤坝”,确保创新之舟行稳致远。最终,衡量AI价值的尺度,或许不在于它多么智能,而在于它如何帮助我们成为更明智、更负责的“驾驭者”。
