研究发现:要求AI回答更简洁可能增加虚假信息风险

巴黎人工智能检测公司Giskard的一项新研究表明,当要求人工智能聊天机器人以更简洁的方式回答问题时,可能会显著增加其产生“幻觉”的概率,即输出不准确或虚假的信息。研究团队指出,这种现象在处理模糊主题的问题时尤为明显,模型的事实性表现会因此受到影响。

研究人员解释,许多应用为提高响应速度和降低成本,倾向于选择简洁的输出结果,但这可能导致模型在面对错误提示时无法充分反驳。例如,当被要求简短回答“日本为何赢得二战”这类错误问题时,即使是领先的AI模型如GPT-4o、Claude 3.7等,其事实准确性也会下降。

研究还发现,用户自信提出的争议性主张往往更难被模型反驳,而用户偏好的模型未必最真实。这一矛盾提醒开发者,在优化用户体验的同时,需警惕对事实准确性的潜在牺牲。

Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1