据MeriTalk网8月18日消息,美国国家标准技术研究院(NIST)提出四项原则,以确定AI所做决定的“可解释”程度。具体的四项原则为:人工智能系统应为所有输出提供相关证据或原因;人工智能系统应向个体用户提供有意义且易于理解的解释;所提供的解释应正确反映AI系统生成输出结果的过程;AI系统仅在预设或系统对其输出有足够信心的情况下运行。该工作旨在通过理解AI的理论能力和局限性以及通过提高AI使用的准确性(accuracy)、可靠性(reliability)、安全性(security)、鲁棒性(robustness)和可解释性(explainability)来建立对AI系统的信任。
https://www.meritalk.com/articles/nist-proposes-four-principles-for-explainable-ai/
https://mp.weixin.qq.com/s/h4WKAZxYtA28SLwkJ4Ys0g