2022年,生成式AI发展为人工智能发展注入一针强心剂,被视为通用人工智能的起点和强人工智能的拐点,引发新一轮人工智能革命。人工智能发展似乎找到了自己的主流叙事。
不过,技术创新的同时也带来了难题,我们面对的不是近在咫尺的当下,而是想象触达不到的未来。对于***的人工智能技术,全球正在进行治理话语的竞赛,中国将会如何通过立法来贡献出具有中国特色的AI治理路径?如何既拥抱技术发展,又能有效规制风险?之前南财合规科技研究院推出AI契约论系列报道以及《生成式人工智能发展与***》,在此基础上,将继续推出AI立法进行时系列,以期为中国AI治理提供有益思路。
人工智能自搭上AIGC的快车后一路疾驰。而远方,既有造福人类的光明憧憬,也伴随着伦理风险的波云诡谲。
在美国,率先为这辆疾驰的快车铺上一层减速带的,是坐在驾驶座上的科技商们。
今年以来,多家AI科技企业密集推出AI治理方案或奔走呼吁。例如,
“治理”在“**”之前,成为了AI行业的关键词,AI科技商正在尝试从其中找到自己的立足之地。
为何主动戴上“镣铐”?
集体对AI发展失控敲响警钟的,除了机构,还有处于最前沿的美国科技厂商们。
在人工智能如火如荼的势头上,马斯克、约书亚·本希奥、杰弗里·辛顿等上千名行业高管和专家签署,呼吁在6个月内暂停高级人工智能的开发和训练,利用暂停时间共同制定和实施一套共享的** AI 设计和开发安全协议。而OpenAI创始人Sam Alt**n则奔走全球呼吁共同探索治理方案,以迎接即将到来的AI风暴。
人们之所以恐惧AI,在于看到了其来临前夜的混乱。Chatgpt爆火后短短数月,人们被AI的智能*、***震惊之余,也被迫面临随之而来一系列棘手的问题。
一波又一波艺术家、文学家等将AI企业告上了**,利用AI换脸拟声技术的****在**各地频频出现,一位男士在通过视频确认过“好友”身份后10分钟内被*取了430万元......
眼前的AI就像是一个潘多拉魔盒,站在前排的科技商人们更加清晰地见证了技术的一步步蜕变,也没有信心*自面对可能的风暴。3月中旬,Sam Alt**n站在美国听证会上呼吁加强对人工智能的,共同制定明确的规则和标准。而在此之前,包括微软、Adobe、IBM等多家AI科技公司的美国商业软件联盟(BSA)也发文呼吁在**立法中制定相关规则来规范人工智能。
算法黑箱、生成AI被滥用等问题已经超出技术优化所能解决的问题范畴,而由牵头治理,可减轻企业的合规压力。
同济大学法学院副教授、上海市人工智能社会治理协同创新中心研究员陈吉栋则指出,在合规义务边界尚不清晰的情况下,实际上其主要目的在于探明合规的核心要求和底线。
对于AI科技商来说,主动寻求的“镣铐”也有自身的商业考量。对外经济贸易大学数字经济与法律创新研究中心执行主任张欣认为,美国科技企业主动寻求有多方原因,一方面,整体人工智能伦理治理和话语的引导,愈加明确其必要*。另一方面,生成式人工智能企业自身也希望能有相对确定预期的框架,
“发展和治理未必存在矛盾。”同济大学法学院助理教授,上海人工智能社会治理协同创新中心助理研究员朱悦表示,初看是一种治理方式,但也能**提升模型*能。对于头部AI科技商来说,推进治理也是转化其发展优势的又一种渠道。
“美国联邦部门、各州、各级**、公益组织、开源社区和主要科技商都在‘合纵连横’中做自己的事情。”朱悦谈到。
美国目前没有任何一个机构或任何具体法律能够以整体方式管理人工智能,呈现“零碎式”。2022年8月,美国白宫发布了《人工智能权利法案蓝图》,为和行业使用人工智能制定了基于道德和公民权利的五项核心原则,以指导人工智能系统的设计、使用和部署。然而该蓝图是属于自愿型文书,不具法律效力。
6月,美国召集美国七家AI头部公司齐聚白宫,并获得其自愿*承诺,
联邦机构亦动态频发,为有需求的各方提供可参考的AI风险管理框架,旨在帮助任何部署人工智能的组织评估风险并确定干预点。例如夸大产品的技术能力、未经证实的断言人工智能产品优于没有人工智能的产品,或者产品是否使用人工智能。
各州也纷纷走上了人工智能立法之路。加利福尼亚州、伊利诺伊州、德克萨斯州和科罗拉多州等州都在陆续推进,立法工作涉及面部识别技术、保险行业自动化决策、就业相关等问题。
“从近期**来看,美国仍然遵循一贯的理念,即以市场机制和企业自我规制为主导,辅之以的和软法治理。“张欣表示,虽然白宫等成立了一系列针对生成式人工智能的工作组,但至今尚未有实质*的进展,更多的仍然是通过企业自我承诺和自我规制的方式构建柔*的框架。”
伦理洗地陷阱?
相比于美国相对宽容的态度,AI科技商们更早开始了自治的探索。多家AI科技企业密集推出AI治理方案,加快脚步主动给出行业答卷。
今年5月,人工智能初创公司Anthropic公布“宪法AI”技术(Constitutional AI),
谷歌推出了早期预警系统(An early warning system for novel AI risks),框架中的模型评估可用于发现通用人工智能模型中是否存在强大操纵、**、攻击或其他危险能力等*端风险,将该模型评估纳入培训和部署一个通用模型的重要决策中,便于开发人员在评估过程中尽早识别风险,尽早做出部署。
5月26日,Anthropic、谷歌、微软和OpenAI 宣布成立前沿模型论坛(Frontier Model Forum),专注于确保前沿人工智能模型安全和负责任的开发。论坛表示,
朱悦指出,美国头部企业在治理方面已经走得比较远了,OpenAI和Meta几家的社会治理实验已经在进行,之后将会看到这些企业越来越多地结合语言大模型,把全球各地个人纳入AI治理当中,比如找到几千上万个用户,然后直接对具体的治理问题加总出来一个答案或者方案。这个趋势也和欧盟平台、AI立法里一些多元治理的条款遥相呼应,在模型中解决价值层面的治理问题,在开源社区解决技术层面的治理问题,未来可能会是个普遍的趋势。
“美国企业成立的内部治理体系,实际上具有多重效能。一方面,可在暂无明确的情况下积*构建自治体系,确保产业的有序运行。另一方面,可向传递信号,即企业可以通过自我承诺的方式有效控制AI风险。”张欣补充道,但自我治理也可能是一个陷阱,目前也有美国学者认为,科技企业积*寻求自我规制和伦理构建正在落入“伦理洗地陷阱( a trap of ethics-washing)”,这意味着科技企业通过构建伦理和自我规制反而分散了**的注意力,使得议程未能如预期及时采取硬*措施,反而被软*的、毫无约束力的企业自我承诺所取代。






发表评论