我们的声音里藏着心理疾病的秘密吗?( 五 )


样本数目过少 , 带来的最大问题之一 , 就是当碰到一种没有颠末充实练习的语音模式——例如一种亚文化说话 , AI可能会表示欠安 。 例如 , 苹果的语音助手Siri , 在处置苏格兰用户的问题和指令时 , 至今仍有些吃力 。 IBM的塞奇注重到 , 研究介入者大部门都来自相似的社会经济和说话学群体 , 现有的AI算法颠末这样的练习 , 识别出的声学线索 , 也许并不合用于其他群体 。 塞奇说:“声音的时候布局 , 以及韵律 , 我们研究的这些特点在分歧文化中都有所差别 。 ”
但与道德问题比起来 , 这些坚苦也许都是小巫见大巫 。 众所周知 , 人们担忧AI可能反映出人类的成见 。 AI的进修数据来自于人类精力病学家 , 它做出的诊断 , 也许精确度与人类别无二致 。 但我们都知道 , 当前的心理健康范畴存在着种族歧视 。 例如 , 同样的症状 , 比起白人患者 , 非裔美国人更可能被诊断为精力割裂 , 而不太可能被诊断为心境障碍 。 是以 , AI可能会直接采用这些错误结论 , 并造当作更大规模的误诊 。
解决方式之一 , 是提高AI模子的“可诠释度”(explainability) 。 机械进修算法凡是被看作是“黑箱”模子 , 只呈现成果 , 完全不告诉研究者机械是若何获得最终谜底的 。 美国水兵人工智能研究中间与DARPA和IBM合作 , 正协同开辟新的AI , 可以或许诠释它是若何得出结论的 。
其他团队正在开辟另一种AI , 可以或许有用呈现展望中包含的不确定性 。 在医师给出临床定见时 , “高诠释度”的信息能告诉医师AI的展望有几多参考价值 。 塞奇说:“AI的可诠释度十分主要 , 不竭调试‘高诠释度’的AI , 才能了了AI的结论从何而来 。 ”

我们的声音里藏着心理疾病的秘密吗?

文章插图

另一个本家儿要的挂念在于:哪些人有权利用这些诊断东西 。 脸书有一项功能 , 可以审查用户的动态 , 并提醒哪些人可能具有自杀风险 。 脸书用户无法禁用该功能 , 而且 , 自2018年秋季以来(截止至文章颁发日期2019年10月7日) , 该功能已涉及几千起报警 , 通知救援人员上门确认了3500多名用户的安危 。 尽管该功能因强制干与性被攻讦 , 脸书依然拒绝发布相关干涉干与的数据或研究陈述 。
跟着灌音数据当作为日常科技利用的一部门 。 例如 , 亚马逊的声控助手Alexa很较着地将用户的声音数据和转录文本永远保留 , 很多人担忧差人、雇本家儿或私有公司会窥探这些设备利用者的心理健康状况 。 NeuroLex Diagnostics的吉姆·薛沃贝尔说:“我们需要规范 , 因为在当下 , 无需本人赞成就给他们灌音并拷贝 , 在一些州仍是正当的 。 ”而基于语音的歧视 , 现下并没有法令划定 。
AI诊断是可等候的将来吗?
在以上所有挂念之后 , 藏着一个难以解决的深条理问题:若是AI得出的结论是错的 , 该怎么办?在心理健康保健中 , 小错误也可能会酿成大灾难 , 而假阳性——如或人可能被误诊为双相障碍患者 , 导致小我的重大损掉 。
圣地亚哥斯克里普斯研究所(Scripps Research Translational Institute)数字化医药部分本家儿管史蒂夫·斯坦哈珀(Steve Steinhubl)说:“光是获得那样的诊断成果 , 就让人感受不适 , 就能让人改变对本身的观点 。 尤其是当诊断成果只是来自于屏幕 , 缺乏面临面交流的时辰 , 我们需要出格谨严 。 ”
即使这样那样的挂念层出不穷 , 致力于计较机语音阐发的公司仍在继续前行 。 有些公司正在寻找方式 , 来收集生齿学级此外样本数据 。 薛沃贝尔正在开辟一个他称作“Voiceome”的大型在线数据库 , 用于存储自愿者进献的语音和声音数据 。 其他的像辛辛那提黉舍的项目和特雷弗项目标手机扫描 , 都在尽力将诊断和展望东西融入糊口APP 。

推荐阅读