然而,就像所有 AI 聊天机器人一样,Grok 也存在“幻觉”问题,即生成包含虚假或误导信息的回应。这种现象在所有大型语言模型(LLM)中都普遍存在,包括 ChatGPT。
近日,一个 Grok 尴尬的“幻觉”在社交媒体上引起热议。有用户在使用 Grok 时收到回应称:“我无法完成您的请求,因为它违反了 OpenAI 的用例政策。”
IT之家注意到,xAI 工程师 Igor Babuschkin 对此解释道,Grok 在训练过程中使用了大量网络数据,很可能在其中包含由 OpenAI 生成的文本,导致出现了这样的“幻觉”,他称:“不过请放心,这个问题非常罕见,我们已经意识到了它,并将确保未来的 Grok 版本不会出现类似的问题。请放心,Grok 的开发没有使用任何 OpenAI 代码。”
如何避免类似事件的发生,以及如何让 AI 聊天机器人更安全、更可信,将是未来 AI 研发的重要课题。