苹果公司最近推出的生成式AI技术“苹果智能”在英国上线不足48小时便遭遇严重危机。其新闻摘要功能错误地为BBC的一则报道编造了不实讯息,声称“刺杀联合健康保险公司CEO的嫌疑人路易吉·曼吉奥尼开枪自杀”,这一事件不仅震惊了媒体界,也引发了公众对人工智能在新闻报道中作用的深刻反思。
这一事件使得苹果面临着重大的公关危机,同时也引起了全球新闻自由倡导组织的广泛批评。它们认为,依靠人工智能生成公共新闻信息的做法是不可行的,因为当前的技术尚不具备保证信息质量的能力。
具体来说,事件的起因是“无国界记者”(RSF)提出的批评声浪。RSF在声明中表示,事件之所以发生,根源在于生成式人工智能采用的概率性决策模式。其表示:“这一事故表明,即便基于权威新闻来源,人工智能系统也无法系统性地产出高质量信息。其概率性的运作方式决定了此类技术不适合作为面向公众的可靠新闻解决方案。”
根据RSF的说法,苹果的新闻摘要系统在总结BBC关于“路易吉·曼吉奥尼”的报道时,错误地将“涉嫌枪击联合健康保险CEO的嫌疑人”更改为“嫌疑人自杀”,这种严重的失实不仅影响了媒体的公信力,甚至可能对公众的信息获取权利构成威胁。
由于这一事件的严重性,RSF明确要求苹果从其操作系统中下架该功能。该组织的科技与新闻部门负责人文森特·贝蒂埃批评称:“事实的生成不应简单地依赖算法的随机性。苹果需要对此负责,并迅速采取行动。”他强调,“自动生成虚假信息并将其归因于权威媒体,已经严重损害了新闻机构的可信度,并威胁到了公众获取可靠新闻的权利。”
不仅如此,BBC也对事件表示了强烈的不满,并已正式提交投诉,指责苹果的人工智能系统损害了其新闻内容的准确性。然而,苹果公司尚未对此事件做出公开回应。
值得注意的是,此次事件并非苹果人工智能系统首次引发争议,早在今年11月,就曾有媒体报道提到,苹果的AI生成了一则关于以色列总理本雅明·内塔尼亚胡被捕的假新闻,并错误地将其归因于《纽约时报》。这一系列事件表明,苹果的AI新闻摘要功能可能已经成为“习惯性误读者”。
从更广泛的技术背景来看,用户对人工智能的信任正在受到挑战。谷歌的AI搜索曾因错误建议用户“在披萨上涂胶水”而受到批评,而Meta公司的AI则因硬件故障对决策造成严重影响。显然,生成式人工智能的未成熟性已成为整个行业的普遍问题。
同时,RSF指出,尽管欧洲的《人工智能法案》(AI Act)是全球最先进的AI相关立法,但并未将新闻生成类人工智能列为高风险系统,从而留下了一个重要的法律空白。目前主流的AI安全法律框架未能明确生成虚假信息的责任归属,也缺乏对其后果的有效约束。这种模糊性导致企业在处理问题时常采取推卸责任的策略。
贝蒂埃呼吁立法者尽快弥补这一缺口:“这一法律漏洞必须及时修补,以防止类似事件再次发生。”他呼吁RSF应当将新闻生成类人工智能列为高风险技术,并要求技术提供商进行定期审核及透明报告。
此外,RSF建议建立明确的虚假信息责任追究机制,使技术提供方对生成虚假信息的首要责任得以确认,并设立纠纷仲裁机制。同时,呼吁在公众和媒体中鼓励对于AI信息生成技术的监督,形成技术应用中的多方协作机制。
该事件不仅暴露了生成式人工智能在新闻领域的技术瓶颈和内容风险,也显示出科技公司在AI技术使用上的伦理责任缺失。在应用AI技术时,科技企业往往缺乏必要的责任意识和应对机制。业内人士指出,若苹果未能及时采取补救措施,未来将面临更大的监管压力和公众信任危机。
无论如何,苹果这一事件揭示了在当今信息泛滥的时代,媒体的公信力与人工智能如何共存都是亟待解决的重要课题。
[招生]系统0day安全班,企业级设备固件漏洞挖掘,Linux平台漏洞挖掘!