OpenAI创始人呼吁设立监管超级智能的国际机构

  • 来源: 驱动中国   2023-05-23/11:35
  • 驱动中国2023年5月23日消息  据界面新闻报道,当地时间5月22日,OpenAI的创始人山姆·奥特曼、总裁格雷格·布罗克曼和首席科学家伊利亚·苏茨克沃通过公司博客联合撰文,称人类必须缓和当今人工智能技术的风险,超级智能将需要被特殊对待和协调。他们在这篇题为《超级智能的治理》的文章中写道,“我们最终可能需要类似于IAEA(国际原子能机构)的东西来进行超级智能方面的努力;任何超过一定能力(或资源,如计算)门槛的努力都需要接受国际权威机构的检查,要求进行审计,测试是否符合安全标准,对部署程度和安全级别进行限制,等等。”

    据了解,作为本轮通用型人工智能技术“领头羊”,OpenAI除了率先发布移动端应用程序,最近还向ChatGPT Plus付费用户开放Web Browsing(网页浏览)和Plugins(插件系统)功能。分析人士指出,此举将快速开启GPT大模型在垂直领域的应用,加速行业应用。

    但随着通用型人工智能向用户端和行业加速渗透,相关隐私保护担忧和安全监管等议题逐步升温。不少大型企业都出台相关政策要求员工不要使用ChatGPT。苹果已经连续数月禁止员工使用ChatGPT和Copilot,此前亚马逊、摩根大通等也限制员工使用ChatGPT,中国支付清算协会倡议支付行业人员谨慎使ChatGPT等工具。


    评论 {{userinfo.comments}}

    {{money}}

    {{question.question}}

    A {{question.A}}
    B {{question.B}}
    C {{question.C}}
    D {{question.D}}
    提交

    驱动号 更多