在大多数情况下,有限或最低风险类别的人工智能系统将能够像以前一样运行,欧盟正在立法专门处理可能危及欧盟公民安全或隐私的人工智能系统。
欧盟已经发布了关于人工智能监管的立法草案,该草案将成为人工智能供应商和分销商在欧盟开拓市场的关键框架。
在立法中,欧盟将人工智能系统分为三个风险类别:不可接受的风险、高风险以及有限或最低风险。在大多数情况下,有限或最低风险类别的人工智能系统将能够像以前一样运行,欧盟立法专门处理可能危及欧盟公民安全或隐私的人工智能系统。
欧盟委员会主席乌苏拉·格特鲁德·冯·德莱恩 (Ursula Gertrud von der Leyen) 表示:“人工智能对欧洲来说是一个绝佳的机会,公民应该得到他们可以信任的技术。” “今天,我们提出了值得信赖的 AI 的新规则。他们根据不同的风险水平制定了高标准。”
风险最小或低的人工智能系统包括聊天机器人、垃圾邮件过滤器、视频和电脑游戏、库存管理系统,以及世界上已经部署的大多数其他非个人人工智能系统。
高风险人工智能系统包括大多数具有现实世界影响的人工智能,例如消费者信用评分、招聘和安全关键基础设施。虽然这些没有被禁止,但欧盟立法旨在确保对这些系统有更严格的要求和监督,同时对那些未能妥善保护数据的人处以更昂贵的罚款。
欧盟打算每年审查高风险清单,要么在其中添加新的人工智能系统,要么降级一些高风险但已在社会中正常化或风险因素与往年不同的人工智能系统.
在此 AI 法规通过后,欧盟将不允许存在不可接受风险的 AI 系统。其中包括使用潜意识、操纵或剥削技术的人工智能系统,这不是一个类别,而是对人工智能形式的普遍禁令,如有针对性的政治广告,或通过面部表情解释情感的人工智能。
根据人工智能法规,远程生物特征识别系统也将被禁止,特别是在执法部门用于识别个人身份时。
对于在欧盟内部运营或分发人工智能系统的组织或在经济集团内部开展业务的组织来说,这项立法是即将到来的第一个明确迹象。欧盟将需要 12 到 24 个月的时间就更详细的细节达成一致,但该立法不太可能与初稿相比有太大变化。
这使高风险人工智能系统类别的组织有很短的时间重新调整和雇用,以确保他们的人工智能程序在欧盟是可行的。需要额外的人工监督、透明度和风险管理,以确保 AI 系统通过检查,并且对不合规的处罚目前定为 3000 万欧元或全球收入的 6%,因此对于大型组织而言,成本可能会迫使如果他们不能重新装备他们的人工智能系统,他们就会退出欧盟。
文章版权声明
1 原创文章作者:qiuyue2525,如若转载,请注明出处: https://www.52hwl.com/45479.html
2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈
3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)
4 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别