真的根据公司的公告,在基于神经网络的机器学习模型中为解释性提供了工具,例如许多生物识别系统,可作为开源软件可用。
新的trulens提供了一个均匀的API,用于解释用张量,pytorch和keras构建的模型,并具有均匀的抽象层。该图书馆根据公共研究提供了一种连贯,一致的方法来解释深层神经网络。 Trulens还本地支持内部解释,例如面部识别模型的视觉概念正在借鉴图像中的人们。
特鲁拉说,卡内基·梅隆大学图书馆的创建者的创造者是,该工具的启发是由论文“针对深度卷积网络的影响的解释”的启发。
Trulens的用例包括计算机视觉模型的解释,例如对象识别和面对生物识别技术,自然语言处理,例如识别恶意语音或智能助手,预测和个性化建议。
Truera联合创始人和CTO Shayak Sen说:“图像识别和文本识别机学习模型既需求量又有很大的要求,并且由于有关错误或可能滥用的高度宣传的故事,因此对它们产生了极大的警惕。” “The recent European Commission regulations specifically listed cautions around machine learning models and how they deal with personal data or images. So there is a huge need for explainability for these types of models, to ensure that they are effective, but also compliant and easily explained to a concerned society. We feel strongly about the ethical use of AI, and wanted to make TruLens freely available to the world to help ensure responsible adoption of AI for uses like image recognition.”
Trulens是卡内基梅隆大学和Truera进行的八年可解释性研究的产物,现已上市。
解释性被认为是提高人工智能的可信度的必要特征,并且特别是生物识别技术。