OpenAI Whisper语音转写工具曝出严重缺陷:虚构信息引发广泛关注
近日,OpenAI旗下的AI语音转写工具Whisper被曝出存在严重缺陷,竟然会在转录过程中无中生有地创造大段乃至整句的虚假信息。这一消息迅速在网络上引起轩然大波,特别是当一些医疗机构公开承认采用Whisper来记录医生与患者间的会诊内容时,更是引发了公众的强烈关注和担忧。
据报道,包括美国明尼苏达州曼卡托诊所、洛杉矶儿童医院在内的众多医疗机构,已有超过30000名临床医生和40个卫生系统开始使用法国AI诊疗公司Nabla基于Whisper开发的工具。然而,这一广泛应用背后却隐藏着巨大的风险。
OpenAI此前已明确发出警告,指出Whisper不宜在“高风险领域”内应用,但似乎并未引起足够的重视。一位机器学习工程师在初步分析超过100小时的Whisper转录数据时,惊人地发现其中约有一半的内容存在“幻觉”现象,即转写内容与原始语音严重不符。这意味着,大量通过Whisper转录的语音信息可能都是不准确甚至虚假的。
关于Whisper这一严重缺陷的具体成因,目前仍不得而知。但有软件开发者推测,这些虚构内容的产生可能与语音中的停顿、背景噪音或音乐播放等因素有关。这些因素可能在某种程度上干扰了Whisper的识别算法,导致其产生错误的转录结果。
针对此问题,OpenAI方面表示,公司正在积极研究如何有效降低虚构内容的产生,并对研究人员的发现表示感谢。OpenAI承诺将在后续的模型更新中融入相应的反馈机制,以期进一步提升转写的准确性和可靠性。然而,对于已经采用Whisper的医疗机构和患者来说,这一缺陷可能已经造成了无法挽回的影响。
此次事件再次提醒我们,AI技术在应用过程中需要谨慎对待,特别是在涉及医疗等高风险领域时。尽管AI技术能够带来诸多便利和效率提升,但其潜在的风险和缺陷也不容忽视。只有在确保准确性和可靠性的前提下,AI技术才能真正为人类社会的发展做出贡献。
以上就是本次分享的全部精彩内容了,铜变集团,您的网络资讯宝库,汇聚海量信息,每日更新不断,无论您是对科技新知感兴趣,还是热衷于追踪娱乐热点,这里都能满足您的需求。期待与您在铜变集团相遇!
版权声明
本文仅代表作者观点,不代表xx立场。
本文系作者授权xx发表,未经许可,不得转载。