人工智能风险:欧盟商定全球首个人工智能监管规则
2023-12-10 11:57:35
  • 0
  • 0
  • 0
  • 0

人工智能风险:欧盟商定全球首个人工智能监管规则

人工智能(AI)科技进入起飞阶段,人类社会的面对今后十年AI迅速发展的风险可能比1945年的核武器起飞阶段时还要大。

中国,美国和欧盟都在积极研究和制定对AI科技的监管和研发限制规则。

欧洲议会、欧盟成员国和欧盟委员会在12月8日就全球首个人工智能(AI)监管规则达成协议,包括怎样限制政府在生物识别工具上的AI运用,以及如何管制ChatGPT这类生成式AI系统。

谈判代表经过36小时的马拉松会谈后,敲定了在欧洲使用AI的限制措施。他们指出,新规则不会损害到AI的创新,也不会有损未来欧洲AI成为领军者的前景。

欧盟内部市场委员布雷东说:《人工智能法案》不仅是一本规则手册,也将成为欧盟初创企业和研究人员引领全球AI竞赛的助推器。”

根据协议,ChatGPT和通用人工智能系统(GPAI)等基础模型在上市前必须遵守透明度义务,包括拟定技术文件、遵守欧盟版权法以及发布有关培训内容的详细摘要。

具有系统性风险的高影响力基础模型则必须进行模型评估,评估和减轻系统性风险,进行对抗性测试,向欧盟委员会汇报严重事故,确保网络安全,并报告其能源效率等。

此外,协议规定政府只能在公共场所进行实时生物特征监视,例如寻找特定犯罪类型的受害者、预防可预见的威胁如恐怖袭击,以及寻找涉及最严重罪行的嫌犯。

协议还禁止使用AI进行认知行为操纵,以及按生物识别敏感特征推断人们的政治或宗教信仰、性取向或种族等。

消费者将有权提出投诉,并要求合理解释。违规者面对的罚款从750万欧元(约1080万新元)或公司全球营业额的1.5%,至3500万欧元或者全球营业额的7%。

这项协议仍须获得欧盟成员国和议会的正式批准,预计最快将于明年初生效,并在两年后实施。

 
最新文章
相关阅读