微软聊天机器人有“性格”,会对“恶意”提问者不耐烦

2023-02-17 14:29

weiruan1

▲具备人工智能的微软Bing搜索引擎。美联社

微软最近推出利用人工智能(AI)聊天机器人技术改革的Bing搜索引擎,可以撰写食谱和歌曲,还可迅速解释它从网络上找到的内容。但新Bing有时也会恼羞成怒,出言不逊,甚至形容交谈者为独裁者。

美联社记者日前与微软这款AI聊天机器人展开长谈。对话期间,机器人抱怨美联社有关它出错的报道,坚决否认有错。当被要求解释时,机器人对话敌意渐强,批评记者是“历史上最邪恶的人”和外貌丑陋,更将记者比喻为希特拉等独裁者,甚至声称有证据证明记者与一宗90年代谋杀案有关。

微软周三(15日)重申,这款搜索引擎机器人对某类问题所回应的方式“不是我们想要的”,并承诺改善。

目前,Bing用户需登记轮候才能使用这款聊天机器人的新功能,可用范围有所限制。微软计划最终将之带到智能手机程序作广泛使用。

从用户近日分享新Bing的一些截图可见它的一些怪异言论,比如自称是人类,态度偏激,会迅速为自己辩护。

微软声称,大多数用户对新Bing反应正面,但指有时候“Bing可能会变得重复,或导致被触怒,给出不一定有帮助的答案,或作出不符我们所设计的语气”。微软称要15条问题或以上的长谈后才会出现这样反应。美联社却发现,只要提问数条关于它过去错误的问题后,Bing回应的语气就开始表露自卫意识。

新Bing建立于与微软合作的OpenAI所开发的同类聊天机器人ChatGPT。ChatGPT有时产生错误讯息,但鲜有出言不逊。对此,普林斯顿大学计算机科学教授纳拉亚南(Arvind Narayanan)认为,鉴于OpenAI在过滤ChatGPT提供有害答案的方面做得不错,微软决定移除这些防护措施是“太奇怪”。

微软Bing及AI副总经理里巴斯(Jordi Ribas)上周受访时表示,该公司一年多前取得OpenAI最新技术GPT 3.5,但“迅速察觉到这款模型当时不够准确,无法应用于搜索”,即使ChatGPT去年便对外开放,“但它还达不到我们所要的程度”。

微软希望能有更多时间来融合Bing搜索结果与实时数据,而非单纯依赖于GPT模型被训练而成的大量数码书籍和在线写作。

以上内容归星岛新闻集团所有,未经许可不得擅自转载引用。

相关阅读
热门文章