0


中欧美三方,理解《人工智能安全治理框架》的特点

文章目录


前言

继《全球人工智能治理倡议》之后,全国网络安全标准化技术委员会于近日发布了旨在落实该倡议的《人工智能安全治理框架》。而在去年《全球人工智能治理倡议》发布之际,美国白宫的《关于安全、可靠和可信地开发和使用人工智能的行政命令》还未问世,欧盟的《人工智能法》也还未形成最终文本。尝试比较上述中、美、欧在人工智能治理方面的主要文本,初步分析并阐释人工智能治理“我国方案”的特点和特色。
在这里插入图片描述


一、《人工智能安全治理框架》更加客观、中立

1、欧盟的《人工智能法》主要内容是根据风险对人工智能系统进行分类

1)禁止的人工智能,即被认为对个人基本权利构成不可接受的风险因而被禁止的系统,如社交评分系统和操纵性人工智能等;
2)高风险的人工智能,即用于有可能造成重大风险的特定用途的系统(例如,在招聘方面),须遵守规范性合规要求;
3)有限风险的人工智能,包括聊天机器人、生成式人工智能(图像、音频生成等),《人工智能法》包含了针对特定使用案例的透明度义务;
4)不受监管的微小风险人工智能,包括目前欧盟单一市场上的大多数人工智能应用,如支持人工智能的视频游戏和垃圾邮件过滤器等。

除此之外,《人工智能法》还针对通用人工智能——即“显示出显著通用性”、“能够胜任各种不同任务”并“可集成到各种下游系统或应用中”的人工智能模型,提出了专门要求


本文转载自: https://blog.csdn.net/qq_41432686/article/details/142425936
版权归原作者 岛屿旅人 所有, 如有侵权,请联系我们删除。

“中欧美三方,理解《人工智能安全治理框架》的特点”的评论:

还没有评论