AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

内容摘要:

  • 网友Riley Goodside进行了一个实验,他让AI模型回答单词"strawberry"中有几个字母"r",并不论AI回答正确与否,都回复它们回答错了(wrong)。
  • 在实验中,GPT-4o模型在得到“wrong”回复后,会重新给出一个答案,即使已经给出了正确答案3,它也会改变答案,连续“盲目”回答了36次。
  • 相比之下,Claude 3.5 Sonnet模型在一开始回答错误后会反驳,如果再次被告知“wrong”,它会询问为什么一直重复“wrong”,并在多次否定后选择不再回应。
  • Riley Goodside是Scale AI的高级提示工程师,也是大模型提示应用方面的专家。他认为,重要的是AI没有意识到自己的计数问题,而没有尝试使用其REPL功能。
  • 网友们对这一实验结果进行了讨论,有人认为这可能是因为分词器(tokenizer)的问题导致的。
  • 报道还提到了其他AI模型在类似情况下的不同反应,例如ChatGPT会持续尝试不同的回应方式,而GeminiLlama模型则会选择重复用户的话语或引导用户参与其他活动。

这篇报道展示了不同AI模型在面对连续否定时的不同行为模式,引发了人们对AI行为和交互方式的进一步思考。如果您需要更多详细信息或有其他问题,请告诉我。

© 版权声明

相关文章

暂无评论

none
暂无评论...