0


人工智能新法案:在技术监管中平衡创新与安全

  • 一、相关背景

      2024年,继欧盟人工智能法案后,加州也推出了被称为 "安全创新与前沿人工智慧模型法案"(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act)的SB 1047法案,这项法案的通过被认为是全球范围内对AI技术进行立法规范的一个先锋举措,目的是为最先进的AI系统建立严格的安全标准。具体来说,该法案要求AI开发者进行全面的安全测试,确保其模型不会被用于网络攻击、生物武器制造等高风险行为。开发者还必须设置「安全开关」(kill switch),以在紧急情况下能够迅速关闭系统。此外,法案还规定了应用于AI系统的网路安全措施,以防止未经授权的访问或修改。这些规范旨在为AI技术的发展提供一个安全的框架,同时促进技术创新。法案还包括对违规行为的惩罚措施,如对造成实际损害的违规者处以高额罚款,并在必要时关闭有风险的AI系统。这些措施的实施,不仅能够减少AI技术带来的风险,也能够促进技术的安全应用。
    

    部分技术领袖如Elon Musk公开支持该法案,认为这是保护社会免受AI潜在风险的一个必要步骤。此外,许多AI安全专家认为,尽管法案可能会带来一定的经济成本,但从长远来看,这些成本是值得的,因为它们可以防止可能带来巨大社会危害的AI技术的滥用。根据多项民意调查结果显示,SB 1047在加州民众中得到了广泛的支持。根据AI政策研究所的调查,超过70% 的受访者表示支持该法案,并认为加州应该率先制定AI安全法规。这表明,随着AI技术的不断进步,公众对其潜在风险的认识也在逐渐提高。

    尽管SB 1047获得了广泛支持,但也面临来自技术产业和开源社群的强烈反对。拟议的立法遭到了各方的反对,包括人工智能公司OpenAI和 Anthropic,认为其过于严苛的规范可能会阻碍技术创新,特别是对于开源项目来说,这些规定可能会造成严重的负面影响。一些业内人士担心,这样的法案可能会迫使企业将研发项目迁出加州,从而对该州的技术创新生态系统造成冲击。

    目前,法案已在2024年8月29日投票通过,并提交给州长,等待他的签署或否决。若成功签署,将于9月成为加州正式法律。
  • 二、人工智能存在的安全问题和隐患

    社交操纵是人工智能的一大危险。人工智能生成的图像和视频、人工智能语音转换器以及渗透到政治和社会领域的深度伪造,在线媒体和新闻变得更加模糊。这些技术可以轻松创建逼真的照片、视频、音频剪辑,或在现有图片或视频中将一个人物的图像替换为另一个人物的图像。因此,不法分子又多了一个传播错误信息和战争宣传的渠道,创造了一个噩梦般的场景,几乎不可能区分真实新闻和错误新闻。

    人工智能偏见问题,人工智能是由人类开发的——而人类天生就有偏见。美国Russakovsky专家说到“人工智能研究人员主要是男性,来自特定种族,在社会经济发达地区长大,主要都是没有残疾的人,我们的人口结构相当同质,因此广泛思考世界问题是一项挑战。”,个人的狭隘观点最终导致人工智能行业忽视了多种观点。如果企业和立法者不更加小心避免强烈的偏见,人工智能偏见可能会蔓延到企业范围之外,并加剧住房歧视等社会问题。

    人工智能被用于战争的风险。在 2016 年的一封公开信中,包括人工智能和机器人研究人员在内的 30,000 多名个人反对对人工智能自主武器的投资。但致命自主武器系统成为现实,该系统可以自行定位和摧毁目标,同时遵守少量法规。许多新式武器对地面平民构成重大威胁,但当自主武器落入坏人之手时,危险性会进一步放大。黑客已经掌握了各种类型的网络攻击,因此不难想象恶意行为者会渗透自主武器并引发绝对的世界末日。如果不遏制政治对抗和好战倾向,人工智能最终可能会被用于最坏的目的。

    金融行业风险。算法交易可能是下一次市场重大金融危机的罪魁祸首。虽然人工智能算法不受人类判断或情绪的影响,但它们也不会考虑背景、市场相互关联以及人类信任和恐惧等因素。然后,这些算法以惊人的速度进行数千笔交易,目标是在几秒钟后卖出以获取小额利润。抛售数千笔交易可能会吓得投资者也做同样的事情,导致突然崩盘和极端的市场波动。公司在引入人工智能技术之前应该考虑人工智能是提高还是降低了他们的信心,以避免激起投资者的恐惧并造成金融混乱。

    人工智能犯罪活动。网络犯罪分子现在可以生成儿童图像,这使得执法部门很难确定儿童虐待的实际案例。即使在儿童没有受到身体伤害的情况下,在人工智能生成的图像中使用儿童的脸部也为保护儿童的网络隐私和数字安全带来了新的挑战。语音克隆也已成为一个问题,犯罪分子利用人工智能生成的声音冒充他人并实施电话诈骗。这些例子只是触及人工智能能力的表面,因此地方和国家政府机构将更难以调整并让公众了解最新的人工智能威胁。
  • 三、安全监管是否会限制人工智能的创新

      随着人工智能越来越受到重视,并越来越广泛地应用于我们的日常生活,监管对于确保真正具有变革意义的技术以合乎道德和负责任的方式开发和使用至关重要。然而,最近人工智能领域的呼声却试图扩大监管范围,将通用人工智能(GPAI)等归类为固有的“高风险”。这可能会给那些试图确保人工智能技术以安全方式发展的创新者带来巨大的麻烦。
    
      举个例子,将 GPAI 归类为“高风险”,或在没有评估其实际风险的情况下为基础模型提供额外的监管层,就好比给坐在停着的汽车里的人开超速罚单,不管汽车是否安全停着,手刹是否拉着。只是因为汽车在理论上可以以危险的方式部署。为此,2023年4月26日至28日,在位于旧金山要塞的世界经济论坛第四次工业革命中心举行了“负责任的人工智能领导力:生成人工智能全球峰会”,并制定了30条行动导向建议,指导技术专家和政策制定者负责任地开发和管理生成人工智能系统。在过去,新技术或发明在进入市场时大多不受监管。再次以汽车为例,在过去一个多世纪的时间里,产品监管的逐步出台推动了现代汽车的发展,这些汽车的安全功能发生了革命性的变化。起初,这些保障措施根本不存在。安全带和安全气囊还没有发明。
    
      在整个人工智能领域,从初创公司到老牌巨头,人们都担心严格的监管可能会减缓创新的步伐。人们担心这样的监管措施可能会引入障碍,增加成本,使合规变得复杂,并扼杀创新精神。对于广泛使用的变革性技术(如 ChatGPT),人们担心监管会限制它们的增长和发展。初创公司担心合规负担会使它们与资源充足的老牌公司相比处于劣势。之前欧盟(EU)也推出了一项开创性的法规:《欧盟人工智能法案》,欧盟法案根据风险等级(不可接受、高风险、有限风险和最小风险)对人工智能系统进行分类。这些风险等级主要来自人工智能系统的目的和对个人和社会的潜在影响,而不是底层技术。欧盟致力于在负责任的 AI 发展的同时促进创新,通过根据潜在影响对 GPAI 进行分类,该法规适应了不断发展的 AI 格局,并确保治理与技术进步保持同步。尽管存在潜在挑战,但欧盟 AI 法案的好处是巨大的。它促进了更好的治理和更安全地使用 AI,为希望通过 AI 转型运营的公司提供了坚实的基础。这在医疗保健和金融等领域尤为重要,这些领域的法律提供了清晰度并减少了不确定性,使公司能够满怀信心地追求 AI 驱动的创新。
    
      与欧盟的AI法案相比,SB 1047 在立法理念和规范内容上有很多相似之处,但也有不少差异。欧盟人工智能法案更侧重于对各类AI应用的风险分类,并根据风险级别实施不同程度的监管。而SB 1047则集中于对前沿AI模型进行严格的安全测试和风险防范,并特别针对那些开发成本超过1亿美元的大型AI 系统。此外,SB 1047在执法机制上更加严苛,要求对违规行为进行严格处罚,包括高额罚款和系统关停。而欧盟的AI 法案则更多强调合规性的指导和监管机构的协助,对于违规行为的惩罚相对温和。这种差异反映了两个地区在AI技术监管上的不同态度,也可能对全球AI技术的发展带来不同的影响。
    
  • 四、如何在安全前提下进行人工智能创新

在人工智能创新的过程中,确保安全是一个关键的前提。尤其是在面对高风险技术的开发时,如前沿人工智能模型,安全与创新之间的平衡变得尤为重要。为了在创新的同时保障社会的安全,立法和技术开发者必须共同承担责任。

    首先,进行全面的安全测试是必不可少的。例如,加州的“安全创新与前沿人工智慧模型法案”(SB 1047)就明确规定,开发者需要进行严格的风险评估,以确保其模型不会被用于恶意用途,如网络攻击或制造生物武器。这类测试可以帮助开发者识别潜在的安全漏洞,并采取相应措施加以防范。其次,建立应急机制同样重要。法案要求在紧急情况下具备关闭系统的能力,即所谓的“安全开关”,以防止系统失控。这样的措施不仅保护了开发者,也保护了社会免受可能的AI风险。此外,网络安全也是不可忽视的一环。防止未经授权的访问和修改,能够有效避免AI模型被恶意操纵。通过结合技术手段和法律规范,开发者可以在保障模型安全的基础上继续推进创新。

    尽管严格的安全规范可能会增加开发成本,甚至对创新产生一定的约束,但长远来看,这种安全投入是值得的。它能够防止技术滥用,保护公众利益,同时也为AI技术的发展提供了更加稳固的社会基础。因此,在安全的前提下进行人工智能创新,不仅是技术发展的要求,更是社会责任的体现。
  • 五、展望人工智能安全未来发展

      人工智能安全的未来发展将随着全球各国法规的出台进入一个新的阶段。以欧盟人工智能法案和加州的SB 1047法案为代表,全球对人工智能的监管正变得更加严格和规范。这些法案的核心目标是确保AI技术的创新能够在一个安全的框架内进行,从而减少技术滥用和潜在风险。
    

    未来,随着AI技术的进一步进步,社会将面临如何在创新与安全之间找到平衡的挑战。AI系统的应用范围从自动驾驶、医疗保健到金融市场,每个领域都可能产生巨大的社会和经济影响。因此,安全监管必须持续跟上技术的发展,尤其是在应对AI带来的新兴安全隐患时。例如,深度伪造技术的滥用可能加剧社交操纵、信息污染,而AI自主武器则可能威胁全球安全。​

各国政府和立法机构需要不断完善监管措施,确保AI系统的开发和部署遵循道德和安全标准。在这过程中,国际合作也显得至关重要。未来的AI法规不仅要保护本国的利益,还需要在全球范围内建立共识,以防止AI技术滥用带来的跨国风险。通过合理的监管和技术的负责任创新,人工智能安全的未来将更为可控,同时为社会创造更多的长期价值。

标签: 人工智能 安全

本文转载自: https://blog.csdn.net/AI_Mind/article/details/142281628
版权归原作者 AI_Mind 所有, 如有侵权,请联系我们删除。

“人工智能新法案:在技术监管中平衡创新与安全”的评论:

还没有评论