0


草莓 “里有几个 R? 这个人工智能不知道

虽然这项功能强大的技术仍然充满希望,但最近发现的一个小问题表明,人工智能并不完美,因此要不断重复检查其结果。

在这里插入图片描述
“Hey, ChatGPT, how many R’s are there in the word ‘strawberry’?”

“There are two R’s in the word ‘strawberry.’”

“Are you sure? Because there are three.”

“Actually, there are two R’s in ‘strawberry.’ The letters appear in the fifth and ninth positions in the word.”

“No, count again. S-T-R, that’s one R. A-W-B-E-R-R, that’s two more R’s. Y. Three R’s.”

“I see what you did there! You cleverly split up the word to make it seem like there are three R’s, but when counting the actual letters in the word ‘strawberry,’ there are still just two R’s. It’s a fun twist, though!”

这不是一个有趣的转折,ChatGPT! 这是一个不争的事实。OpenAI 聊天机器人的这一奇特现象一直吸引着 Reddit 等社交平台上的用户,因此你们最喜爱的《Inc.》作者决定试一试。 无论我们怎么问,ChatGPT 都坚持说草莓中有两个 R,尽管草莓有三个 R。 让世界上最著名的人工智能感到困惑的不仅仅是这一种水果:我们还让它搞不清覆盆子的拼写。

事情变得更奇怪了。 有一次关于这个话题的讨论最后演变成了一种关于单词本身性质的知识性争论,人工智能辩称:"'straw’中的R是单词的一部分,但它并不会改变’strawberry’中R的总数。 虽然这种天马行空的心理臆想在晚上品尝了美味的外国啤酒后凌晨两点的大学宿舍里可能会很美妙,但对于一款本应在无数方面彻底改变工作场所的高科技应用程序来说,却并不是什么好事。

要让 ChatGPT 正确地数 R,感觉就像是要让《星际迷航》中的斯波克先生理解人类复杂的情感。 但最后我们终于发现了窍门,那就是采用斯波克完全赞同的那种冷酷的瓦肯逻辑:“你能拼出来给我听,然后一边数 R 一边说吗?”“当然,让我们拼出来一起数:S-T-R,这是一个 R;A-W-B-E-R,这是第二个 R;R,这是第三个 R;Y。 所以,你是对的。 这样算的话,有三个 R。谢谢你指出来!”

所有这一切都是因为大型语言模型(LLM)算法的工作方式,这种算法为 ChatGPT、X 的 Grok、谷歌的 Gemini 等人工智能提供了动力。 虽然这些 LLM 是通过接触难以理解的海量数据训练出来的,但归根结底,这仅仅意味着 LLM “见过很多东西”。 在这些东西中,有足够多的信息可以让人工智能(如 ChatGPT)定义一个词的含义。 它会数数。 它知道什么是 R。 它甚至能告诉你草莓是什么。 但它无法理解这些 “东西”,也无法像人类大脑那样进行微妙的推理和综合,将对所有不同事实的认识汇集成一个答案。 这也是人工智能在被问及事实问题时会产生幻觉或吐露错误信息的部分原因。

这也是为什么即使你的公司正在引领潮流,尝试使用大量人工智能工具来改善业务工作流程,或将员工从枯燥的工作中解放出来,你也应该确保在根据人工智能的结果做出决策之前,有专人检查人工智能吐出的所有信息。 你可能还不应该把史蒂夫从会计岗位上辞退,以为人工智能可以完成所有复杂的数据综合工作,并减少你的工资支出。 因为史蒂夫会数草莓中的 R。 去问问他吧。


本文转载自: https://blog.csdn.net/weixin_41446370/article/details/142008093
版权归原作者 吴脑的键客 所有, 如有侵权,请联系我们删除。

“草莓 “里有几个 R? 这个人工智能不知道”的评论:

还没有评论