北美奢侈品论坛

 找回密码
 立即注册Register
搜索
热搜: 活动 交友 discuz
查看: 225|回复: 0

算法可解释性模型的约束

[复制链接]

1

主题

1

帖子

15

积分

新手上路

Rank: 1

积分
15
发表于 2024-1-16 13:41:31 | 显示全部楼层 |阅读模式

有一系列限制往往告诉我们,可解释性模型并不总是最优的,这取决于我们想要解决的问题。可解释性中最显着的限制是:可解释性与精度的平衡和计算成本。解释健康算法正如我们已经提到的,有更多可解释的模型,例如回归算法或决策树,但这些模型反过来不一定能在它们做出的预测方面获得良好的结果,这取决于我们正在处理的问题。

确实,如果我们有机会使用这种更简单的模型并获得良好的结果,我们也 塞内加尔电话号码表 将能够拥有本身可以解释的模型。然而,在大多数人工智能问题中,我们希望使用更复杂、因此更难解释的模型。

这就是不可知的可解释性模型发挥作用的时候,我们已经知道,它具有我们必须假设的某些缺点或负面特征,例如变量的独立性或使用它们所涉及的计算成本。不可知的可解释性算法本质上计算成本昂贵,并且它们也适用于先前训练的模型。也就是说,我们必须将训练模型的计算成本添加到使用可解释性算法的计算成本中。

根据我们正在处理的问题,这种情况或多或少是可行的。例如,如果我们每分钟处理数千个预测,甚至更少,那么实际上不可能获得每个预测的可解释性。

健康算法可解释性案例院数据人工智能算法基于数据中包含的知识来做出预测。由于各种原因,通常是社交数据可能会存在偏见,因此人工智能算法会从这些偏见中学习。通过可解释性算法,我们可以检测我们的模型是否存在偏差,并且可以尝试解决它,以便不考虑这些偏差。



此外,对于人工智能领域之外的人来说,理解人工智能算法的工作原理可能很复杂,他们想知道为什么做出这样的决策,或者每个变量如何影响模型做出的决策。在知识工程研究所的大数据和健康人工智能领域,我们发现自己面临着这些情况,并且在许多项目中,有必要应用这些人工智能可解释性技术。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册Register

本版积分规则

QQ|Archiver|手机版|小黑屋|北美奢侈品论坛

GMT+8, 2024-5-16 20:51 , Processed in 0.033897 second(s), 18 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表