尽管AI前途广阔,但在发展过程中也遇到了一些发展痛点。除了笔者在之前文章中提及过的偏见问题,还有一个“黑匣子”问题:如果人们不知道AI是如何做出决策的,那么人们就不会信任AI。

事实上,缺乏信任是很多AI技术失败的关键,如IBM Watson,尤其是Watson for Oncology。

专家们很快就知道了问题所在。“IBM尝试向癌症医生推广他们的超级计算机程序,但是这是一个公关灾难,”谷歌UX研究人员兼 Avantgarde Analytics的创始人Vyacheslav Polonski(博士)说道:“Watson for Oncology的问题仅仅在于医生并不信任它。”

当Watson的结果和外科医生得出的结果一致时,它能够证实这一情况;当Watson的结果和医生的不一致时,医生只会认为它是错误的。

如果医生知道它是如何做出结论的,那么结果可能会大相径庭。“对于大多数人来说,AI的决策过程通常都是很难理解的,”Polonski说道:“和我们不理解的事物互动会导致人们产生焦虑,就好像我们失控了。”