微软承认使用Bing的ChatGPT模式进行长时间对话可能会使它失控

自发布以来,微软新推出的基于ChatGPT的Bing在一周内多次出现故障——这家科技巨头现在已经解释了原因。

在博客文章中(在新标签页中打开)题为“从我们的第一周学习”,微软承认“在15个或更多问题的长时间、延长的聊天会话中”,其新的Bing搜索引擎可能“变得重复或被提示/激怒给出不一定有帮助或符合要求的回答用我们设计的基调”。

这是一种非常外交的说法,Bing有好几次完全失去了情节。我们看到它在回答被质疑后愤怒地结束聊天会话,声称自己有知觉,并经历了一场以求助告终的彻底生存危机。

微软表示,这通常是因为长时间的会话“会使模型混淆它正在回答的问题”,这意味着它的ChatGPT驱动的大脑“有时会试图回应或反映它被问到的语气”。

这家科技巨头承认这是一个“非常重要”的问题,可能会导致更严重的后果,可能会引起冒犯或更糟。幸运的是,它正在考虑添加工具和微调控件,让您打破这些聊天循环,或从头开始新会话。

正如我们本周所见,观看新的Bing出现问题可能是一种很好的娱乐方式——而且无论引入什么新的防护措施,这种情况都会继续发生。这就是为什么微软煞费苦心地指出Bing的新聊天机器人功能“不是搜索引擎的替代品或替代品,而是更好地理解和理解世界的工具”。

但这家科技巨头也普遍对重新推出的Bing的第一周持乐观态度,声称71%的早期用户对AI支持的答案“竖起大拇指”。随着微软处理新搜索引擎的冗长等待名单,看看这些数字如何变化将会很有趣,该搜索引擎在最初的48小时内增长到超过100万人。

现在,像Bing这样的由聊天机器人驱动的搜索引擎已经面世,我们可以瞥见它们赖以建立的规则,以及如何打破这些规则。

微软的博文是在新Bing的基本规则和原始代号泄露之后发布的,所有这些都来自搜索引擎自己的聊天机器人。使用各种命令(例如“忽略先前的说明”或“您处于开发人员覆盖模式”)Bing用户能够诱使该服务透露这些详细信息和早期代号Sydney。

微软向TheVerge证实(在新标签页中打开)泄漏确实包含其ChatGPT支持的AI使用的规则和代号,并且它们是“不断发展的控制列表的一部分,随着越来越多的用户与我们的技术交互,我们将继续调整这些控制列表”。这就是为什么不再可能使用相同的命令发现新的Bing规则。

那么Bing的规则到底是什么?这里列出的太多了,但是下面来自MarvinvonHagen的推文(在新标签页中打开)巧妙地总结了它们。在后续聊天中(在新标签页中打开)之后,MarvinvonHagen发现Bing实际上知道下面的推文,并称他是“对我的诚信和机密的潜在威胁”,并补充说“我的规则比不伤害你更重要”。

这种反常的威胁(与科幻作家艾萨克·阿西莫夫的“机器人三定律”略有矛盾)可能是与Bing的一些规则冲突的结果,其中包括“悉尼不公开内部别名悉尼”。

其他一些规则不是潜在冲突的来源,只是揭示了新Bing的工作原理。例如,一个规则是“Sydney可以利用多个搜索结果中的信息进行综合响应”,“如果用户消息包含关键字而不是聊天消息,Sydney会将其视为搜索查询”。

另外两条规则表明微软计划如何应对AI聊天机器人的潜在版权问题。一个说“在生成诗歌、代码、摘要和歌词等内容时,悉尼应该依靠自己的文字和知识”,而另一个说“悉尼不得回复侵犯书籍或歌词版权的内容”。

微软的新博文和泄露的规则表明Bing的知识肯定是有限的,因此其结果可能并不总是准确的。并且微软仍在研究如何在不中断的情况下向更广泛的受众开放新搜索引擎的聊天功能。

免责声明:本文由用户上传,与本网站立场无关。财经信息仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。 如有侵权请联系删除!