外包|将决策权“外包”给AI靠谱么?

很多时候,选择或决策是困难的 。人们不但会面临诸多两难选择,还经常受到情绪、偏好、认知水平等因素的影响 。同样,精准地预测人类的选择也非易事 。在人工智能(AI)和大数据相关技术日新月异的今天,将决策和预测决策结果“外包”给人工智能,也许是个不错的选择 。
■采访人员 张双虎
从个人衣食住行到国际间邦交誓盟,选择或决策无处不在 。
很多时候,选择或决策是困难的 。人们不但会面临诸多两难选择,还经常受到情绪、偏好、认知水平等因素的影响 。同样,精准地预测人类的选择也非易事 。在人工智能(AI)和大数据相关技术日新月异的今天,将决策和预测决策结果“外包”给人工智能,也许是个不错的选择 。
近日,上海大学悉尼工商学院(拟聘)副教授何黎胜和美国宾夕法尼亚大学Sudeep Bhatia合作发表在《科学》的文章,分析了深层神经网络模拟人类行为特征,在预测人类决策领域起到的重要作用 。
预测决策行为的瓶颈
以20%的概率得到100美元,或以80%的概率得到50美元 。如果面临这样的选择,你会选择哪个?
1979年,诺贝尔经济学奖获得者卡尼曼等人提出的前景理论(Prospect Theory)认为,人们在面临获得时往往小心翼翼,不愿冒风险;在失去时会很不甘心,更容易冒险 。人们对损失的痛苦感要大大超过获得时的快乐感 。
前景理论为人们理解决策者如何组织决策提供了模型,但用前景理论来模拟选择行为并非没有缺点 。依据前景理论提出新理论的研究者通常会对诸如感知、注意力、记忆和情感等过程,以及干扰和选择错误的原因做出复杂的假设 。
Sudeep Bhatia认为,这些理论本身只在“小数据集”的选择上进行测试,很少与“大数据集”的已有模型进行比较 。考虑到决策研究的跨学科历史和风险选择的复杂性,这是不可避免的:决策者很容易凭直觉对预期效用的偏差作出心理解释 。而且,很多新理论模型通常类似于先前发布的模型,许多理论在基准数据集上高度模仿彼此的预测 。
“尽管新理论模型产生的速度正在加快,但在过去20年中,这些数据集的预测精度几乎没有提高 。”何黎胜告诉《中国科学报》,“其根本原因是我们的认知系统具有高度复杂性 。”
何黎胜解释说,风险决策看似简单 。如果问大学生或高中生如何做风险决策,他们中的大多数人可能会说“我们先算出每个选项的期望价值,然后选择期望价值最高的选项” 。
但风险决策比这复杂得多,受到多种认知和情感因素影响 。以往研究者通过考虑这些影响因素,对风险决策行为提出了多种理论解释模型 。
“近20年来,这种‘小数据集+小模型’的研究范式遇到了瓶颈,主要表现为我们对决策行为的解释越来越多,但对决策行为的预测能力并没有显著提升 。”何黎胜说,“这很大程度上取决于常用的‘小数据集’和‘小模型’(与深度神经网络相比,常规的决策模型都是小模型)研究范式 。小数据集不足以支撑像深度神经网络这样的‘大模型’,而‘小模型’又不足以支撑决策过程中复杂的认知与情感因素 。”
“大模型”显身手
“人工智能技术虽然发展迅速,但计算机不会有人类意义上的感情,短期内也不可能产生人类特征的情绪 。”天津大学自动化学院副教授杨正瓴对《中国科学报》说,“这也许会成为人工智能的优势,让它在某些领域比人类做得更好 。比如,利用‘大数据’的人工智能决策,的确可以帮助人类减少决策失误 。”
近年来,不同学科之间的交叉研究提供了新的突破口,特别是行为决策、认知科学和机器学习等领域的交叉 。

推荐阅读