当前位置: 主页 > 新闻资讯 >

专家的警告:AI系统的解释有可能欺骗

发布者:bet356在线官方网站
来源:未知 日期:2025-08-01 09:16 浏览()
原始标题:专家警告:AI系统的解释性有可能欺骗。德国人工智能研究中心(DFKI)研究小组在几天前在可解释的人工智能(AI)领域举行的国际机器学习会议上报道了“ X-Hacking”是一种以前被广泛忽略的风险,并呼吁对自动化工具(AutoML)进行严格的反思和反思使用。 如果AI系统做出正确的预测,但以完全不同的方式解释了这些结果,会发生什么? DFKI数据科学团队介绍了“ X黑客”为AI的信誉带来结构性风险的研究结果。 X黑客词是源自统计信息的p黑客式的。所谓的P黑客是指研究人员您可能会使用某些数据操纵技术来获得重要的统计结果,即使结果确实毫无意义。这相当于可能导致FA的数据篡改LSE已发表的积极结果。 相应的X黑客描述了两种基本机制:一种是樱桃的选择,也就是说,从许多同样好的模型中,仔细选择具有最强大的解释能力的模型,以及对预期结果的最佳支持;其余的是找到方向。汽车系统不仅可以优化预言的性能,而且还可以准确地找到具有特定解释模式的模型。但是这里的风险经常被低估。 尽管该模型获得的结果几乎相同,但对SO被称为功能的您可能会有很大的不同。它对医学研究或社会科学等应用程序特别敏感,在这些应用程序中,含义模型通常构成了重大决策的基础。 Automl代表开发,选择和优化机器研究模型的自动过程。软件工具采取了许多以前的任务,以使经验丰富的工程师可以研究机器,例如选择正确的模型架构,数据处理和超参数优化。在诸如药物,工业或社会研究之类的密集数据领域中,预计AUTOML将达到更快的发展速度,较低的进入障碍和重复的结果。 但是,这种自动化使得很难理解如何做出模型决策,这是解释AI的问题。因此,DFKI研究团队建议使用AutoML的学科应了解方法的风险,而不仅仅是软件信任。 (记者李山) (编辑:李·冯,霍·孟吉亚) 分享让许多人看到
分享到