曝谷歌AI学习系统存安全漏洞,黑客控制后果不堪设想!

  • 来源: 驱动中国 文:马婷婷   2017-12-17/13:50
  • 驱动中国2017年12月17日消息  虽说当下人工智能概念大热,但对于人工智能的安全隐忧与质疑之声从未停止。

    近日,腾讯安全平台部Blade团队对外发布消息称,该团队在对谷歌人工智能学习系统TensorFlow进行代码审计时,发现该系统存在重大安全漏洞,利用该系统进行编辑的AI场景,有遭受恶意攻击的可能。

    据悉,TensorFlow是目前谷歌免费开放给AI设计者的编程平台,程序员可以在该平台上进行AI组件的设计工作。腾讯安全平台部负责人杨勇表示,当含有安全风险的代码被编辑进诸如面部识别或机器人学习的AI使用场景中,攻击者就可以利用该漏洞完全接管系统权限。

    本身机器人的行为导向与编程控制就脱离不了干系,如果设计人员在编程时使用了含有该漏洞的组件,这就意味着恶意攻击者有可能利用漏洞控制该机器人,后果非常可怕。设计员的思路被剽窃,用户隐私也可能被侵犯,后续危害会愈发不可控。

    Blade团队表示,TensorFlow是目前应用最为广泛的机器学习框架之一,已被运用在诸多AI场景中,如语音识别、自然语言理解、计算机视觉、广告、无人驾驶等;其一旦被黑客控制,后果不堪设想。

    目前Blade团队已将漏洞的运用机理致函谷歌公司,而该漏洞需要谷歌安全团队对代码重新编辑。对于此事后续发展,我们将继续保持关注。


    评论 {{userinfo.comments}}

    {{money}}

    {{question.question}}

    A {{question.A}}
    B {{question.B}}
    C {{question.C}}
    D {{question.D}}
    提交

    驱动号 更多