首页 >  WEB3专题 >  正文
多层面加强人工智能监管势在必行
发布日期:2023-04-14

数智前瞻 本报记者 林春霞

日前,科技界人士呼吁叫停Chat GPT训练,用6个月时间制定相关约束,同时,多国呼吁限制GPT,如意大利因隐私问题已成为第一个禁止ChatGPT的西方国家。

从火遍全球到被多国“围堵”,ChatGPT在短短两个月内经历了从高峰到低谷的起伏,这也进一步引发了人们对ChatGPT以及人工智能的技术漏洞和安全监管的关注。

Chat GPT究竟触碰了什么红线

从ChatGPT腾空问世给人们所带来的惊喜到对其安全隐患的担忧,ChatGPT的境遇发生了180度急转弯。那么,ChatGPT究竟触碰了什么红线?欧洲多国意欲暂停使用ChatG? PT,主要原因在于ChatGPT存在隐私泄露以及数据安全等问题。

中国社会科学院信息化研究中心主任姜奇平在接受中国经济时报记者采访时表示,ChatGPT从高峰到低谷起伏有一个明显的规律,高峰跟技术有关。低谷、碰到红线,与社会相关,从政治、法律,再到道德、伦理、隐私,还与知识、信息、判断真假等有关。“人工智能技术应用既涉及技术又涉及社会,技术专家对社会问题考虑不周全是很自然的,甚至有一定必然性。”他认为,一旦被广泛应用技术,就必须承担起社会责任。

“未来如何恰当、科学使用人工智能是个关键问题。”中央财经大学中国互联网经济研究院副院长欧阳日辉对本报记者表示,人工智能对舆论、文化、人物评价、政府监管等都会提出一些新挑战。这些新技术应用到经济社会层面,对原有的经济社会秩序会造成较大冲击。“当我们还没有做好充分应对的时候,技术走得太快,就会容易引起社会混乱,这跟技术促进人类社会进步的宗旨就相悖。”

浙江澜沐浦科技有限公司常务副总经理吴志连对中国经济时报记者分析认为,由于全球范围内不同国家、文化群体的差异,ChatGPT所掌握的知识、信息存在一定偏见、歧视,甚至危害性。另外,它还可能存在着被恶意使用、带来误导性回答、引发隐私问题等。虽然在训练过程中,工作人员已采取一些措施,尽可能地避免ChatGPT回答出具有网络安全危害性的言论,但是工具毕竟不是人,在一定程度的诱导下,它还是会发生数据泄露、歧视偏见、危害国家安全等问题。

应从多层面加强对人工智能的监管

科技是把“双刃剑”,从实验室到经济社会的广泛应用,中间还需要加一道“安全防护墙”。

欧阳日辉表示,对于人工智能技术及其产品的研发和使用,从规范制度体系层面要加强三方面监管。一是通过伦理范畴来进行规范,二是通过标准规范方式来约束技术的使用,三是通过法律法规来加强监管,让技术及其产品在经济社会中规范使用。

从组织层面也要加强规范,欧阳日辉认为,一是研发技术和产品的企业对风险要进行自控,二是相关行业协会对人工智能技术和产品的研发和使用要进行自律,三是政府要通过制定法律法规来促进和约束人工智能及其产品的使用,这是对技术和产品风险控制的“最后一道防线”。当然,这并不是完全为了限制它,而是要促进它朝着有利的方向发展,限制它出现大的风险事件。

“技术漏洞与监管漏洞是两个不同的问题。”姜奇平认为,堵住技术漏洞的主体是企业。出现技术漏洞是技术发展中的正常现象,不断对技术漏洞打补丁,是技术发展的惯例。出现技术漏洞,对企业来说,一是要及时发现,及时修复,二是要降低被恶意使用者利用的风险,这都属于技术安全措施的加强和完善。

堵住监管漏洞的主体是监管者。要根据出现的问题,不断丰富和完善监管手段与措施。一方面,应对技术公司提出要求,及时发现修复技术漏洞,并推动技术标准与行业规范的形成;另一方面,要运用监管手段制止与打击对技术漏洞的恶意利用,其中特别要针对形成产业链、背后有行业利益推动的恶意利用等行为进行严厉打击,不断完善相关法律法规。

在姜奇平看来,进行技术限制应慎之又慎,大模型、芯片、数据算法算力等都属于技术和生产力范畴,我们不可能把限制、“约束”生产力当作任务完成,而是要用合理的生产关系和上层建筑,使技术与人的社会关系相互适应。

吴志连认为,未来可以通过促进人机融合,培养更多能够与ChatGPT等人工智能技术协同工作的人才,为实现人机共生、人工智能与人类的和谐共处打下基础;确保其应用符合法律法规和道德标准,防止恶意不当使用;增强公众的理解和认知,减少不必要的担忧和误解。

多层面加强人工智能监管势在必行