用户名: 密码: 验证码:

软银、日立等多家日企限制使用ChatGPT 以防泄密

摘要:由于担心信息泄露和其他问题,软银、日立等日本公司已开始限制ChatGPT等交互式人工智能服务在商业运作中的使用。

  ICC讯  由于担心信息泄露和其他问题,软银、日立等日本公司已开始限制ChatGPT等交互式人工智能服务在商业运作中的使用。

  软银上月就使用ChatGPT和其他商业应用警告员工称:“不要输入公司身份信息或机密数据。”尽管软银已经出台了使用交互式人工智能等云服务的指导方针,但鉴于聊天机器人最近受到的关注越来越多,这些规则依旧被反复强调。软银计划制定规则,规定哪些业务可以使用该技术,哪些应用可以被使用。

  今年3月1日,ChatGPT开发商Open AI发布了一个应用程序接口,允许企业付费将ChatGPT集成到他们的服务中。Open AI表示,从ChatGPT中收集的数据不会用于提高性能,但其网站显示,当这项服务被免费使用时,“我们可能会使用您提供的数据来改进我们的模型。在这种情况下,被输入的信息,例如正在开发的产品,可以用来回答其他公司的问题”。

  除软银外,日立将考虑制定新的道德规则,以规范交互式人工智能的使用以及数据是否被正确使用。该公司计划完善2021年制定的人工智能使用指南。

  富士通上月向员工通报了有关ChatGPT和其他交互式人工智能服务的法律和道德问题,包括信息保护。该公司已经成立了一个部门来决定人工智能的使用。2022年2月,富士通成立了一个治理办公室,来处理包含人工智能的产品开发和商业使用中的道德问题。该公司将通过这个办公室提醒公众交互式人工智能的风险。

  今年1月,ChatGPT在发布仅仅两个月后用户就超过了1亿。微软上月在必应搜索中整合ChatGPT,推动该搜索引擎日用户在一个月后首次突破了1亿人。而且,这一技术在企业运作中的应用预计也将显著增加。然而,越来越多的人和企业使用交互式人工智能也令人担忧,因为该技术可能会传播虚假信息,引发数据泄露,导致一些公司禁止使用该技术。

  日本瑞穗金融集团、三菱日联金融集团和三井住友银行已禁止在公司运营中使用ChatGPT和其他服务。瑞穗的限制措施会阻止员工从工作终端访问该网站,目的是“防止因员工不当使用导致客户和金融交易等重要信息泄露”。IT公司NEC也禁止员工使用ChatGPT

  日本情报安全大学院大学研究科教授后藤厚宏(Atsuhiro Goto)表示:“交互式人工智能可以在个人电脑上轻松使用,这让员工变得不那么谨慎,存在机密数据被意外输入并在公司外部使用的风险。这些服务应该由一个专门的内部团队进行测试,以澄清使用规则和可以输入的信息。”

  松下控股集团公司Panasonic Connect在采取措施防止数据泄露等问题后,开始使用交互式人工智能创建文件。为了降低数据泄露的风险,该公司与软件的联合开发者微软达成了一项协议,不将内容用于人工智能培训等次要目的。同时,员工们也被警告不要输入个人信息。

内容来自:凤凰网科技
本文地址:http://www.iccsz.com//Site/CN/News/2023/03/12/20230312152703535771.htm 转载请保留文章出处
关键字: 日立 ChatGPT
文章标题:软银、日立等多家日企限制使用ChatGPT 以防泄密
【加入收藏夹】  【推荐给好友】 
1、凡本网注明“来源:讯石光通讯网”及标有原创的所有作品,版权均属于讯石光通讯网。未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载我方内容的单位,也必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和本站来源。
2、免责声明,凡本网注明“来源:XXX(非讯石光通讯网)”的作品,均为转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。因可能存在第三方转载无法确定原网地址,若作品内容、版权争议和其它问题,请联系本网,将第一时间删除。
联系方式:讯石光通讯网新闻中心 电话:0755-82960080-168   Right