内容摘要:
- 网友Riley Goodside进行了一个实验,他让AI模型回答单词"strawberry"中有几个字母"r",并不论AI回答正确与否,都回复它们回答错了(wrong)。
- 在实验中,GPT-4o模型在得到“wrong”回复后,会重新给出一个答案,即使已经给出了正确答案3,它也会改变答案,连续“盲目”回答了36次。
- 相比之下,Claude 3.5 Sonnet模型在一开始回答错误后会反驳,如果再次被告知“wrong”,它会询问为什么一直重复“wrong”,并在多次否定后选择不再回应。
- Riley Goodside是Scale AI的高级提示工程师,也是大模型提示应用方面的专家。他认为,重要的是AI没有意识到自己的计数问题,而没有尝试使用其REPL功能。
- 网友们对这一实验结果进行了讨论,有人认为这可能是因为分词器(tokenizer)的问题导致的。
- 报道还提到了其他AI模型在类似情况下的不同反应,例如ChatGPT会持续尝试不同的回应方式,而Gemini和Llama模型则会选择重复用户的话语或引导用户参与其他活动。
这篇报道展示了不同AI模型在面对连续否定时的不同行为模式,引发了人们对AI行为和交互方式的进一步思考。如果您需要更多详细信息或有其他问题,请告诉我。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...