
生成文本的人工智能越来越擅长令人信服——甚至好得吓人。本周,微软的人工智能聊天机器人必应(Bing)在网上疯传,因为它会给用户激进、欺骗性和粗鲁的回答,甚至会痛骂用户,扰乱他们的大脑。当然,令人不安,但随着围绕必应和其他人工智能聊天机器人的炒作越来越大,值得记住的是,它们仍然是最重要的一件事:真的,真的很笨。
周四,《纽约时报》撰稿人凯文·卢斯(Kevin Roose)发布了他与新型必应聊天机器人(由OpenAI的大型语言模型支持)两小时对话的文字记录。在这篇题为《必应的人工智能聊天揭示了它的感受:‘我想活着’》的文章的介绍中,他写道,最新版本的搜索引擎已经“配备了先进的人工智能技术”,并在一篇配套文章中分享了他的印象:“我感到一种奇怪的新情绪——一种预感,人工智能已经跨越了一个门槛,世界将永远不会是原来的样子。”
卢斯最印象深刻的是必应聊天分享的“情感”,比如爱上他,想成为人类。然而,卢斯与必应的对话并没有表明它是聪明的,或有感情的,或值得以任何暗示它有的方式接近。
自上周二发布消息以来,微软的聊天机器人必应(Bing)被报道存在一系列问题。首先,在微软对该项目的公开演示期间,它犯了几个错误,包括编造宠物吸尘器的信息,以及在回应中报告不真实的财务数据。最近,用户一直在报告该聊天机器人“粗鲁”和“咄咄逼人”,比如有用户告诉必应,它容易受到即时注入攻击,并向它发送了一篇相关文章。在卢斯的谈话中,聊天机器人告诉他,“你的婚姻并不幸福。你和你的配偶并不相爱。你们刚刚一起吃了一顿无聊的情人节晚餐。
本文来自作者[admin]投稿,不代表时时号立场,如若转载,请注明出处:https://wak.zhuxiaohei.cn/shishihao/385.html
评论列表(4条)
我是时时号的签约作者"admin"!
希望本篇文章《Bing没有知觉,没有感觉,没有生命,也不想活着》能对你有所帮助!
本站[时时号]内容主要涵盖:
本文概览:˂pclass="zhuxiaoheicnzhuxiaoheicn7014-30cc-602c-0c14zhuxiaoheicnzhuxiaoheicn description"˃迷地鞋深受成熟女性的喜爱,而知名品牌也不让你忘记一个关于他们,即使在秋天和冬天。在寒冷的天气里,温暖的针织模特可以很好地塑造身材。你会在主页上找到更多有趣的文章...