识别图像模式的人工智能模型通常比人眼做得更好,但并不总是如此。如果放射科医生使用人工智能模型来帮助她确定患者的X光片是否显示出肺炎的迹象,她什么时候应该相信模型的建议,什么时候应该忽视它?麻省理工学院和MIT-IBMWatson人工智能实验室的研究人员表示,定制的入职流程可以帮助这位放射科医生回答这个问题。他们设计了一个系统,教用户何时与人工智能助理合作。
在这种情况下,训练方法可能会发现放射科医生信任模型的建议的情况——除非她不应该信任,因为模型是错误的。该系统自动学习她应该如何与人工智能合作的规则,并用自然语言进行描述。在入职期间,放射科医生使用基于这些规则的训练练习与人工智能合作,接受有关她的表现和人工智能表现的反馈。研究人员发现,当人类和人工智能合作执行图像预测任务时,这种入职程序的准确性提高了约5%。他们的研究结果还表明,仅仅告诉用户何时信任人工智能,而不进行训练,会导致性能下降。重要的是,研究人员的系统是完全自动化的,因此它学会了根据执行特定任务的人类和人工智能的数据创建入职流程。它还可以适应不同的任务,因此可以在人类和人工智能模型协同工作的许多情况下进行扩展和使用,例如在社交媒体内容审核、写作和编程中。未来,他和他的合作者希望进行更大规模的研究,以评估入职的短期和长期影响。他们还希望在入职过程中利用未标记的数据,并找到在不遗漏重要示例的情况下有效减少地区数量的方法。
资讯来源:麻省理工学院官网