曹仔科: Model Explanation, Accuracy Feedback, and Use of Algorithmic Advice: A Field Experiment
发布日期:2025-04-17  字号:   【打印

报告时间:2025年4月18日(星期五)09:30-11:00

报告地点:工程管理与智能制造研究中心725会议室

:曹仔科 长聘副教授、博士生导师

工作单位浙江大学

举办单位:管理学院

报告简介

The “black-box” nature of modern AI algorithms remains a significant obstacle to building strong human trust in AI systems. We partnered with a Chinese fresh goods retailer to conduct a field experiment across 230 stores and 1,000+ SKUs, testing how model explanations (revealing algorithmic logic) and accuracy feedback (showing past prediction performance) affect managers' trust in AI ordering advice. Stores were randomly assigned to: 1) control (no extra information), 2) explanations only, 3) feedback only, or 4) both. Results indicate both interventions increase trust and adoption, with accuracy feedback being significantly more impactful. However, combining both information types produces an unexpected negative interaction effect. The study provides practical guidance for AI designers on optimizing trust-building strategies in retail settings.

现代人工智能算法的 “黑箱 ”性质仍然是人类对人工智能系统建立强烈信任的一大障碍。我们与一家中国生鲜零售商合作,在230 门店和1,000多个SKU中开展了一项实地实验,测试模型解释(揭示算法逻辑)和准确性反馈(显示过去的预测性能)如何影响经理对人工智能订货建议的信任。店铺被随机分配到 1)对照组(无额外信息);2)仅解释;3)仅反馈;或 4)两者。结果表明,两种干预措施都能提高信任度和采用率,而准确性反馈的影响更大。然而,将两种信息类型结合起来会产生意想不到的负交互效应。这项研究为人工智能设计人员优化零售环境中的信任建立策略提供了实用指导。

报告人简介

曹仔科,浙江大学管理学院长聘副教授,博士生导师,获香港科技大学资讯系统 (Information Systems) 博士学位,浙江大学信息管理与信息系统学士学位。研究方向主要为在线用户行为决策分析和在线社区平台治理策略。多篇论文发表于Information Systems Research (UTD24期刊), MIS Quarterly (UTD24期刊),Journal of Management Information Systems (FT50期刊) 等顶级期刊。博士论文获得2017年度INFORMS信息系统协会Nunamaker-Chen博士论文奖并列第二名 (second runner-up)。研究论文获得2021年度INFORMS电子商务领域 (eBusiness Section) 最佳论文奖第一名 (winner)。主持国家自然科学基金青年项目和优秀青年项目。