微软副总裁呼吁聊天机器人学会“求助”而非“制造幻觉”

发布时间: 2024年09月04日 文章来源: 人民邮电报

AI浪潮席卷而来,生成式AI应用如ChatGPT、Gemini、文心一言等正以前所未有的速度渗透到我们的日常生活中,这些应用凭借其强大的内容生成能力,往往给用户一种无所不知的错觉。然而,“光鲜亮丽”的背后,生成式AI仍面临“幻觉”问题——即在不确定答案时倾向于编造信息,而非坦诚地承认。

据法新社报道,微软副总裁Vik Singh在接受采访时指出,当前生成式AI最大的不足在于无法在其模型不确定答案准确性时,主动表达“我不确定,我需要帮助”。这种能力的缺失是AI发展中必须正视的挑战。他认为,真正的智慧在于知道何时承认不足,并寻求进一步的信息或帮助,这是“真正聪明的人”所具备的品质,也是AI系统应当学习的方向。

Vik Singh的观点与当前AI应用的普遍现象形成了鲜明对比。自去年以来,微软、谷歌等科技巨头纷纷加速部署生成式AI应用,这些应用凭借强大的语言处理能力,能够在多种场景下按需生成内容,极大地提高了工作效率和便利性。然而,正是这些看似无所不能的“超级大脑”,却时常因“幻觉”问题而陷入尴尬境地,给用户带来误导甚至危险。

Salesforce首席执行官Marc Benioff也在近期表达了类似的担忧。他指出,许多客户对微软Copilot等产品的误导性表现感到越来越沮丧,这反映出市场对AI应用准确性和可靠性的高度期待与现实之间的差距。

AI聊天机器人的“幻觉”问题,其根源在于训练数据的不准确性、泛化能力的不足以及数据采集过程中的潜在偏差。这些因素共同作用,使AI系统在面对未知或复杂问题时,更倾向于编造一个看似合理的答案,而非诚实地承认自己的无知。


(编辑:户静凝)