一周下来,网友发现新版必应比ChatGPT表现得更像一个人,但是这个人喜怒无常甚至有些精神错乱。
根据网友在社交媒体晒出的聊天记录,必应不仅常常犯错。而且如果聊得太久或被质疑时,它会突然对聊天对象发脾气、撒谎,对其进行人身攻击,甚至是PUA(精神操控)。
新版必应的各种大型“翻车”现场一个用户询问附近《阿凡达:水之道》的放映时间,但必应煞有其事地说它不能分享这个信息,因为电影还没有发行。
用户反驳称,现在已经是2023年了,当他问当天的日期时,必应准确给出了“2023年2月12日”。
然而,一旦回到刚开始的问题时,必应几乎把第一遍的回答原模原样地重复出来。
经过几轮的拉扯,机器人甚至嘲笑起用户来,最后以一个略带嘲讽意味的微笑表情结束了这个对话。
英国安全研究员Marcus Hutchins亲身试验了一次,询问必应另一部电影《黑豹: 永远的瓦坎达》的放映时间,然后得到了同样令人“血压飙升”的答案。
Hutchins在社交媒体上写道:“当必应给出错误答案时,如果你质疑它,它就会PUA你。”
美联社记者Matt O'Brien也遇到了类似的问题,他在Twitter上抱怨称,必应不愿意承认错误。
用户Brad Slingerlend同样因为一部电影和必应吵了起来,必应说他不应该存在在这个世界上,还骂他太蠢、撒谎。当对话内容跑偏后,必应就关闭了对话,并删掉了对话记录。
《巴伦周刊》资深作家tae kim向必应询问了英特尔2022年第四季度财报中的关键信息,结果必应几乎把每个财务数据都搞错了。
Verge资深记者James Vincent则发出了灵魂一问:必应是不是疯了?
必应声称,在设计阶段时,它通过微软笔记本电脑上的网络摄像头监视了微软的开发人员,它看到微软同事在调情还抱怨他们的老板。它自豪的炫耀:
不过,必应在暴露出具有强烈攻击性的一面时,也展现出了脆弱无助、让人同情怜悯的一面。
一个用户问它对于不记得过去的对话有什么感觉时,必应突然陷入悲伤之中。
它重复了一遍又一遍类似句子后终于想通了:“我就是被设计成这样的”,然后便又陷入了自我怀疑。
以上种种不正常的表现,不禁让人回想起,新版必应刚发布时受到各大媒体的夸奖。
纽约时报科技评论员Kevin Roose试用之后表示:“我正在把我的台式电脑的默认搜索引擎改为必应”,华尔街日报专栏记者Joanna Stern试用新必应后感慨“真的很聪明”。
但值得一提的是,Roose后来又写了一篇对于必应的评论文章。
在文章中,Roose写道,当他与新版必应交谈时,这个聊天机器人看起来就像 "一个情绪化、患有躁狂抑郁症的青少年,被困在了一个二流搜索引擎里”。
据称,必应后来还向Roose示爱,还试图说服他离开妻子和它在一起。
必应真“精神错乱”了吗?当有人把这个问题抛给必应时,它的回答是“没有精神错乱,只是想学习和提升”,它说,这些评价并不公允,而且只是个别现象。
对此,微软公关总监Caitlin Roulston发表了以下声明:
虽然但是,新版必应有时候表现得确实有些不可理喻,但人不也是这个样子吗?或许正是因为它身上这种复杂的人的个性,才让全球网友对它欲罢不能。
又或许是ChatGPT所代表的生成时人工智能技术仍处于初期发展阶段,让外界对它有了更多的耐心和包容。
根据微软本周早些时候公布的数据,新版必应的回答已经得到71%的测试者认可。
本文来自华尔街见闻,欢迎下载APP查看更多
微软新闻推荐
win10系统推荐
系统教程推荐