• Explainable AI旨在提高机器学习模型的可解释性


    Explainable AI旨在提高机器学习模型的可解释性

    一、总结

    一句话总结:

    可解释性:Explainable AI旨在提高机器学习模型的可解释性。
    不通俗易懂:它不会以通俗易懂的方式来解释事物,但是该分析对于首先构建机器学习模型的数据科学家和开发人员仍然有用。
    解释基于模型性质和训练数据:可解释的AI有进一步的局限性,因为它提出的任何解释都将取决于机器学习模型的性质以及用于训练它的数据。

    二、Explainable AI旨在提高机器学习模型的可解释性

    转自或参考:Explainable AI旨在提高机器学习模型的可解释性-电子发烧友网
    http://www.elecfans.com/d/1189593.html

    Google LLC 在其云平台上推出了一项新的“ 可解释AI ”服务,旨在使机器学习模型做出决策的过程更加透明。

     

    谷歌表示,这样做的想法是,这将有助于建立对这些模型的更大信任。这很重要,因为大多数现有模型往往相当不透明。只是不清楚他们如何做出决定。

    Google Cloud AI战略总监Tracy Frey在 今天的博客中解释说,Explainable AI旨在提高机器学习模型的可解释性。她说,这项新服务的工作原理是量化每个数据因素对模型产生的结果的贡献,帮助用户了解其做出决定的原因。

     

    换句话说,它不会以通俗易懂的方式来解释事物,但是该分析对于首先构建机器学习模型的数据科学家和开发人员仍然有用。

    可解释的AI有进一步的局限性,因为它提出的任何解释都将取决于机器学习模型的性质以及用于训练它的数据。

    她写道:“任何解释方法都有局限性。” “一方面,AI解释反映了数据中发现的模型的模式,但它们并未揭示数据样本,总体或应用程序中的任何基本关系。我们正在努力为客户提供最直接,最有用的解释方法,同时保持其局限性透明。”

     

    但是,可解释的AI可能很重要,因为准确解释特定机器学习模型为何得出结论的原因对于组织内的高级管理人员很有用,他们最终负责这些决策。对于高度严格的行业来说,这尤其重要,而信心绝对至关重要。谷歌表示,对于处于这一位置的许多组织而言,目前没有任何可解释性的人工智能已经超出范围。

    在相关新闻中,Google还发布了所谓的“模型卡”,作为其Cloud Vision应用程序编程界面的面部检测和对象检测功能的文档。

    这些模型卡详细说明了这些预先训练的机器学习模型的性能特征,并提供了有关其性能和限制的实用信息。谷歌表示,其目的是帮助开发人员就使用哪种模型以及如何负责任地部署它们做出更明智的决定。

     
    我的旨在学过的东西不再忘记(主要使用艾宾浩斯遗忘曲线算法及其它智能学习复习算法)的偏公益性质的完全免费的编程视频学习网站: fanrenyi.com;有各种前端、后端、算法、大数据、人工智能等课程。
    博主25岁,前端后端算法大数据人工智能都有兴趣。
    大家有啥都可以加博主联系方式(qq404006308,微信fan404006308)互相交流。工作、生活、心境,可以互相启迪。
    聊技术,交朋友,修心境,qq404006308,微信fan404006308
    26岁,真心找女朋友,非诚勿扰,微信fan404006308,qq404006308
    人工智能群:939687837

    作者相关推荐

  • 相关阅读:
    【Todo】CSDN的《问底》系列-学习
    【Todo】深入PHP内核系列
    【转载】网络攻击技术(三)——Denial Of Service & 哈希相关 & PHP语言 & Java语言
    回溯法
    hdu 2842 Chinese Rings
    JSP 9 大内置对象详解
    用Html5结合Qt制作一款本地化EXE游戏-太空大战(Space War)
    HDU2795 billboard【转化为线段树。】
    URAL 1303
    IOS文件沙盒
  • 原文地址:https://www.cnblogs.com/Renyi-Fan/p/13752769.html
Copyright © 2020-2023  润新知