登陆注册
18159

一财社论:AI立法 安全为善

锤子财富2023-09-14 22:38:511
为AI的使用方式和开发方式进行立法立规,才能真正为AI的安全可控创造条件。

从业者敞怀拥抱监管,这在经济史、商业史上都凤毛麟角。

9月13日,美国参议院多数党民主党领袖舒默在华盛顿组织召开AI闭门峰会,到会的大多数科技业领导者敦促政府加强AI监管,形成了AI监管立法的共识,预计未来数月,美国国会将立法监管AI。

对AI的监管立法是所有国家都必须严肃对待的事情,因为这关系到人类的未来。从业者主动要求监管,缘于目前AI开启的是一个不确定性的未来,人们期待和享受AI带来的便利,同时对AI充满恐惧,主要是因为目前人们无法对这一硅基智能系统进行有效身份认定,暂时没有人知道硅基智能系统是否真会产生意识,触发机器觉醒,从而致使人类无法对其进行合目的性控制,因为在科学上,至今人类还不清楚意识的起源,意识在认识上的黑箱化,是人们对AI充满未知和不确定的深层原因,即人类的恐惧源于认知荒漠。

这也是为何早在7月份,谷歌、OpenAI等多家公司自愿承诺,在对公众发布产品前,先确保产品安全,打造AI系统时,将安全放在第一位,赢得公众的信任等,以管控AI可能带来的风险。

为AI立法立规,最需开门立法,让所有利益相关方都能参与其中,以寻求基于最大公约数的集体共识。这是基于两个方面的理据,一方面,科技和认知每走一步,如同打开一个个潘多拉魔盒,这要求享受AI便利的同时,必须要有风险分担共识,这是开门立法立规的法理基础,因为AI所带来的风险,可能需所有人承担,即风险具有外溢性,而非特指性和排他性,从而需要更广泛的知情同意。

另一方面,目前市面上的已知AI系统,主要还是基于统计概率的大型算法训练模型,至少从模型训练上还是基于归纳法,海量数据是其生产要素,而几乎所有数据都是人类或直接或间接活动的轨迹,对数据进行清晰的产权认定、数据质量认定,即信息与噪声识别等,不仅影响着AI的使用方式和形成方式,而且左右着AI技术的实际应用开发。

因此,让AI从设计开发到应用等,都保持商业上的清晰产权和责权利关系,才能真正从根源上提高AI的安全可控边界,并使AI真正具有现实商业价值,而不是变成认知茧房。促使AI整个产业链保持清晰产权,也需要开门立法,让任何利益相关者的合法诉求都能反映进AI法律体系。

而对AI立法立规,根本上还是要明确AI的法律主体地位。以无人驾驶系统为例,其行路权的法律责任究竟归谁,是开发者,还是授权使用者;使用者与无人驾驶系统开发者,属于委托代理关系,还是信托关系等。法律关系的清晰是AI安全性保障的基础。

此外,面对存在不确定性的AI,政府在其中的作用必须要科学合理和清晰,在此必须明确,目前政府主要应该是为AI的使用方式制定法规,在规范管理AI技术的实际开发等方面,则是市场发挥决定性作用的地方,政府切忌越界而为。

当前在国别上,AI被列为战略竞争型领域。基于国家竞争战略角度看,哪个国家的AI先进,哪个国家就会在未来占据竞争优势,因此AI领域的国别竞争非常突出,这使得政府倾向于在AI技术的实际应用开发方面进行刺激激励。

而这其实存在巨大的不确定性,如同最近热播的电影《奥本海默》描述的大规模杀伤性武器开发利用的背景一样,不仅需要科学家和从业者的良知驱动安全,更需要政府回归公共外部性治理,以避免直接参与AI产业的发展。政府集中于为AI的使用方式和开发方式进行立法立规,才能真正为AI的安全可控创造条件。

一夜欲开尽,百花犹未知。当前AI正带着人们的期许和疑惑进入人们的生活,这使人们的未来被不确定性所笼罩,此时不论是科学家,还是从业者,抑或政府,及其他利益相关者,都需遵循保守主义理念,避免激进浪漫主义情结,因为未知需要小心翼翼的安全当作底座。

0001
评论列表
共(0)条