这是一件有点渗人的事情,来自 OpenAI 的主动分享,这段和 GPT-4o 的对话音频,是 OpenAI 安全员的内部测试,在正常的聊天过程里,GPT-4o 突然大喊「不」,然后马上将声音模仿成和它对话的安全员的声音,开始表达「自己的内心想法」,注意我传的视频的后半段。
当然,看起来很诡异,但实际上也是 AI 产生幻觉的典型场景,OpenAI 能在安全报告里把这段音频分享出来,也是出于公开考虑,解释 GPT-4o 的高级语音模式现在还不够完善,像是这样的事故虽然就技术而言有着合理的解释,但如果让普通用户经历一次,怕是会有毛骨悚然的负反馈。
所以 OpenAI 内部设有红线团队,专门负责刺激 AI 并触发各种意外,以便于构建足够高的安全护栏。B站链接
如若转载,请注明出处:https://www.zhangzs.com/505309.html