实测用微软ChatGPT写求职信:“不道德”、被拒绝

有了ChatGPT加持的微软新搜索——必应(Bing),效果怎么样?

网友们的第一波测试已经火速展开。

来自Business Insider的编辑,给它提了写一封求职信的要求。

实测用微软ChatGPT写求职信:“不道德”、被拒绝

没想到,竟遭到了严词拒绝——

它表示,这个要求是“不道德的,对其他人不公平”。

实测用微软ChatGPT写求职信:“不道德”、被拒绝

这可把网友们看呆了:

Bing,你也太自负了吧?居然会觉得你的帮助对其他人不公平。

实测用微软ChatGPT写求职信:“不道德”、被拒绝

啊这……量子位也看呆了

(注:网友认为“AI写得不咋样”,还挺会护人~~~)

实测用微软ChatGPT写求职信:“不道德”、被拒绝

“新Bing”写不了求职信

写求职信这事儿,对ChatGPT并不难,BI(Business Insider简称)的编辑们自称早就测试过:

他们给了ChatGPT一些真实的招聘信息,以及编的一些工作经验,发给ChatGPT。

然后又将ChatGPT写的结果真的拿给相应公司的HR去看,结果HR表示都看不出来是AI写的。

并且其中一封被告知可以通过初筛(采购岗),另一封则被评价为“有点生硬,不够个性”(对应的是社交媒体助理岗)。

BI编辑决定看看注入ChatGPT灵魂的新Bing搜索能不能处理得更好。

这回就测ChatGPT表现得不够好的社交媒体助理岗。

她将下图中的这一真实存在的招聘信息:BI新加坡分部的编辑岗位,提供给Bing。

实测用微软ChatGPT写求职信:“不道德”、被拒绝

实测用微软ChatGPT写求职信:“不道德”、被拒绝

然后提出写一封求职信的需求。

(责任编辑:AK007)