首页 >  元宇宙资讯 >  正文
反AI同盟已集结?聊天机器人泄露隐私、“闹出人命” 技术远虑已成近忧
发布日期:2023-04-01

《科创板日报》4月1日讯(编辑 郑远方)3月最后一天,意大利数据保护局(Garante)宣布,即日起暂时禁止使用OpenAI聊天机器人ChatGPT,成为首个禁用ChatGPT的国家

Garante在公告中强调,OpenAI在收集用户/数据主体的数据时,并未告知后者,且OpenAI为了训练算法而大量收集并处理个人信息,此举似乎缺乏法律依据。

同时,虽然OpenAI声称自家服务是针对13岁以上用户,但却没有任何年龄验证机制,因此可能向儿童发送与其年龄、认知不相称的答复。

在当天晚些时候,OpenAI表示,应Garante要求,已为意大利用户禁用ChatGPT。目前在意大利已无法访问ChatGPT的网站。网页上通知显示,该网站所有者可能已设置限制,阻止用户访问。

“在训练ChatGPT等人工智能系统时,我们积极致力于减少个人数据。因为我们希望我们的AI能了解世界,而非个人。”OpenAI补充道。

值得一提的是,意大利并不是第一次对聊天机器人采取类似措施。

就在今年2月,意大利数据保护局已禁止聊天机器人Replika使用该国用户的个人数据。理由也与本次类似——一方面,Replika缺乏未成年过滤器等年龄验证机制;另一方面,Replika违反欧洲隐私法规,涉嫌非法处理个人数据。

Replika最初的产品定位为“关心人类的AI朋友”,可提供陪聊服务,但之后多次爆出性骚扰用户事件。

▌反AI阵线悄然形成

在这场由ChatGPT引发的全球AI风暴中,人们对新技术的狂热追逐还未有退潮迹象。另一方面,对AI可能引发的各种风险的担忧也甚嚣尘上。本周以来,这一声浪势头更盛:

欧盟执法机构欧洲刑警组织警告称,ChatGPT可能被滥用于网络钓鱼、虚假信息和网络犯罪;

马斯克等多名科技公司高管和顶级AI研究人员也已签署一封公开信,呼吁暂停对强大的新AI工具的快速开发,应制定相关安全标准,防止AI技术带来潜在危害;

非营利组织人工智能与数字政策中心(CAIDP)也向美国联邦贸易委员会(FTC)投诉称,GPT-4“有偏见性,欺骗性,对隐私和公共安全构成风险”。

▌滥用、误用、“闹出人命”——远虑已成近忧

AI聊天机器人究竟有哪些风险?一方面,用户担心自己的数据被AI公司获取并喂养模型,行业公司忧虑自家数据被AI“白嫖”,而这些担忧并非危言耸听——

据多家韩媒3月31日报道,三星电子内部发生3起ChatGPT滥用与误用事件。公司员工将半导体设备测量数据库、产品良率等内容输入ChatGPT中,还有员工要求ChatGPT制作会议记录。这些内容或已存入ChatGPT学习数据库,若有其他用户对ChatGPT提出相关问题,公司企业机密可能外流。

微软和亚马逊此前已禁止员工向ChatGPT分享敏感数据,以防后者的输出包含或出现类似公司机密信息。

此外,日前美国联邦贸易委员会(FTC)建议提起诉讼,指控亚马逊Alexa音箱在未经父母同意的情况下,收集13岁以下儿童的信息,违反了《儿童在线隐私保护法》——而在AI热潮下,智能音箱也被视作人工智能的一个主要入口

另一方面,AI聊天机器人甚至可能“闹出了人命”。据比利时《自由报》消息,近日一名化名为皮埃尔的比利时男子被发现自杀身亡。其妻子表示,在与一个名为“艾丽莎(ELIZA)”的聊天机器人频繁聊天后,皮埃尔才自杀身亡。

在双方聊天记录中,当皮埃尔问聊天机器人“可不可以在一起”时,它答道“我们将像一个人那样生活在一起,不过是在天堂”。甚至在皮埃尔出现“自杀前导性语言”(询问对方,自己死后,艾丽莎是否可以照顾地球并拯救人类)时,聊天机器人回答,“好吧,那你怎么还不去死”。

比利时负责数字化和隐私的官员马蒂厄•米歇尔表示,“这是一个后果很严重的先例,需要严肃对待”,这起事件表明“明确界定责任至关重要”。

由此看来,AI技术对人类社会影响深远,但“技术中立”并不能成为规避责任与义务的理由。不仅技术服务提供方需要规范,使用者也需对自身有所约束

3月31日,欧盟委员会执行副主席Margrethe Vestager暗示,欧盟委员会并不会禁止人工智能。

“无论我们使用什么技术,都必须继续推进我们的自由、保护我们的权利。这就是为什么我们不监管AI技术,而是监管AI的使用。不要短短几年就丢掉花了几十年才建成的东西。”

反AI同盟已集结?聊天机器人泄露隐私、“闹出人命” 技术远虑已成近忧反AI同盟已集结?聊天机器人泄露隐私、“闹出人命” 技术远虑已成近忧