36kr-科技 2024年07月15日
即使有了AI赋能,智能客服还是在被嫌弃
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

尽管AI大模型拥有强大的自然语言处理能力,但智能客服却并没有获得消费者的认可。Gartner调查显示,64%的受访者不希望客服使用AI,53%的受访者会因此转向竞争对手。究其原因,一方面是AI大模型容易给出错误答案,另一方面是智能客服没有权限解决问题,无法承担责任。

🤔 **AI大模型客服的困境:错误答案与权限不足** 尽管AI大模型拥有强大的自然语言处理能力,但智能客服却并没有获得消费者的认可。Gartner调查显示,64%的受访者不希望客服使用AI,53%的受访者会因此转向竞争对手。究其原因,一方面是AI大模型容易给出错误答案,另一方面是智能客服没有权限解决问题,无法承担责任。 AI大模型虽然能像真人一样对话,但其输出内容的准确性仍然是问题。由于模型的训练数据和算法存在局限性,AI可能会给出看似自洽却错误的答案,导致消费者对智能客服产生不信任感。此外,企业往往不会给予智能客服足够的权限,导致即使AI能够理解问题,但由于没有权限,只能用套话来应付消费者。 相比之下,人工客服虽然效率较低,但至少能够承担责任,并根据情况做出更灵活的处理。因此,消费者更愿意选择人工客服,因为他们认为人工客服更可靠、更能解决问题。

🤨 **AI客服的局限性:无法替代人工客服** 除了错误答案和权限不足之外,AI客服还存在其他局限性。例如,AI客服无法像人工客服那样进行情感沟通,也无法处理一些需要专业知识或经验的问题。 AI客服的优势在于处理重复性问题,例如查询订单信息、修改地址等。但对于一些需要深入了解用户需求或进行复杂操作的问题,AI客服就显得力不从心了。 因此,AI客服只能作为人工客服的补充,而无法完全替代人工客服。企业需要根据实际情况,将AI客服和人工客服进行合理的搭配,才能提供更好的用户体验。

🧐 **未来展望:AI客服需要更精准、更人性化** AI客服的未来发展方向在于提升其准确性和人性化。一方面需要提高AI模型的训练数据质量和算法精度,减少错误答案的出现。另一方面需要赋予AI客服更多的权限,使其能够独立解决更多问题。 此外,AI客服还需要学习人工客服的情感沟通技巧,并能够根据用户的语气和情绪做出不同的回应。只有这样,AI客服才能真正赢得消费者的认可,成为人工客服的有效补充。

🤔 **AI客服的未来发展方向:更精准、更人性化** AI客服的未来发展方向在于提升其准确性和人性化。一方面需要提高AI模型的训练数据质量和算法精度,减少错误答案的出现。另一方面需要赋予AI客服更多的权限,使其能够独立解决更多问题。 此外,AI客服还需要学习人工客服的情感沟通技巧,并能够根据用户的语气和情绪做出不同的回应。只有这样,AI客服才能真正赢得消费者的认可,成为人工客服的有效补充。

🤔 **AI客服的未来发展方向:更精准、更人性化** AI客服的未来发展方向在于提升其准确性和人性化。一方面需要提高AI模型的训练数据质量和算法精度,减少错误答案的出现。另一方面需要赋予AI客服更多的权限,使其能够独立解决更多问题。 此外,AI客服还需要学习人工客服的情感沟通技巧,并能够根据用户的语气和情绪做出不同的回应。只有这样,AI客服才能真正赢得消费者的认可,成为人工客服的有效补充。

寻找AI大模型实际的应用场景,无疑是当下整个AI业界的一个重要议题。由于一年半前ChatGPT凭借着出色的自然语言对话能力一炮而红,自然而然用AI大模型来为智能客服赋能就成为了热门项目。然而最近知名市场调查机构Gartner发布的报告,却为“大模型客服”的未来蒙上了一层阴影,因为许多人对于智能客服的抵制要远比想象中更为激烈。

根据Gartner在2023年12月对全球5728名受访者进行的调查结果显示,哟高达64%的受访者表示不希望客服使用AI,53%的受访者如果发现某家公司的客服使用了AI,就会考虑转向竞争对手。一个很有意思的现象,是作为人工客服的“代餐”,智能客服从一开始似乎就没有被消费者所接受,而备受业界期待的AI大模型也未能改变这一点。

大规模使用智能客服无疑是“降本增效”的代表,而用机器来代替人工降低成本,则是许多企业青睐人工智能的关键所在。由于人工客服的服务时间相对有限、服务标准化程度难以保障,再加上人员流动性大、培训成本高,以至于有相当多的企业都会将客服中心放到人力成本更低的地方。但即便如此,运营一个客服中心的成本还是远高于搭建或购买一套智能客服系统。

在AI大模型出现之前,智能客服的痛点就在于“不智能”,回答问题也基本只能机械地照本宣传、不能准确理解提问、不能解决个性化问题。彼时智能客服的能力有限,仅局限于解决重复性或是有标准的流程化问题。比如服饰鞋帽产品,消费者在下单前可能会咨询关于尺码、洗涤方式、优惠促销信息等问题,下单后则可能出现需要修改送货地址,或是未收到货、商品质量不符合预期等情况。对此,标准话术即可解决。

但如果消费者希望了解面料材质是否会导致某种过敏这类相对生僻的问题时,智能客服就有力未逮了,因为智能客服或许真的不知道答案。

彼时的智能客服由于高度依赖知识库,一旦问题超出知识库的范畴,为了避免对话中断、让消费者产生客服逃避问题的感受,智能客服的设计者就会使用固定的套词来“打圆场”。但也正是这种勉强维持对话的状态,让消费者会产生“一拳打在棉花上”的感觉,所以智能客服也被不少网友戏称为“机气人”。

要知道在使用搜索引擎已经成为网民的基础技能,且存在知乎、抖音、小红书等多样化内容平台的情况下,真正容易被解决的问题根本就不需要客服的介入。所以绝大多数需要咨询客服的问题,往往是消费者在网上找不到答案,选择联系客服就是希望可以通过对方的专业回答来解决问题。结果却面对一问三不知的智能客服,所产生的挫败感也就可想而知了。

ChatGPT、或者说AI大模型的出现,则给了业界变革智能客服的曙光。传统智能客服的缺陷无外乎自然语言理解能力不足、缺乏上下文记忆功能、输出内容机械生硬,而ChatGPT则已经证明了在Scaling laws(尺度定律)的加持下,参数量越大、数据集规模越大、算力消耗越大,大语言模型的性能就越好,也越能像真人一样对话、乃至与人类共情。

大模型的语言理解能力和内容生成能力被认为有望解决智能客服“不智能”的痛点,所以如果大模型客服也能实现类似人工客服的效果,想必消费者对于电话对面到底是人还是机器并不介意。然而遗憾的是,大模型客服并没有能媲美人工客服。为什么即使有AI大模型赋能,许多用户对于智能客服依然不接受呢?是因为AI大模型赋能的智能客服,并没能为消费者提供合格的体验。

在Gartner的相关报告中,有42%的受访者担忧AI会提供错误的答案,就能够很好的解释这一点。以往智能客服属于能力有限,不知道、不能理解的问题会推诿,可一旦有了大模型的加持,情况就开始发生变化。相信用过ChatGPT、文心一言等大语言模型的朋友都会有类似的体验,那就是同样一个问题,只要修饰一下提示词(Prompt),无论正反方向,AI都能给出看起来自洽的回答。

从来没有存在过的事情都能给用户编出来,这就是ChatGPT目前的问题。然而约束大模型、从而避免其一本正经地胡说八道,这是OpenAI至今都没能做到的事情,更遑论其他厂商,因此大模型客服会给出错误答案,还真不是消费者杞人忧天。曾经的智能客服是不说,现在的智能客服会胡说,作为消费者显然都是不愿意看到的。

更致命的问题是相比于人工客服,智能客服无法承担责任。就像之前有个笑话说的那样,AI时代95%的会计都会失业是假话,因为AI不能代替人类坐牢。正是因为AI不能承担责任,所以企业往往也不会给予智能客服足够的权限,导致了即便有大模型的加持,智能客服真的知道消费者在说什么,但由于没有权限,还是只能用套话来应付消费者,而人工则好歹还会请示上级。

一方面智能客服可能会胡说八道,另一方面没有权限的智能客服什么也做不了,所以要让消费者接受就无异于痴人说梦了。

本文来自微信公众号“三易生活”(ID:IT-3eLife),作者:三易菌,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI大模型 智能客服 用户体验 Gartner ChatGPT
相关文章