吃瓜热门

人工智能的发展,请系好安全带

所有版权归中国经济网所有。
中国经济网新媒体矩阵
网络广播视听节目许可证(0107190)(京ICP040090)
近日,在2025年国家网络安全宣传周主论坛上,国家网信办指导的《人工智能安全治理框架》2.0版正式上线。 2.0版本在1.0版本的基础上,明确了人工智能不同风险等级的管理要求,为不同行业人员识别风险、落实责任提供了明确指引,让人工智能安全治理更具可操作性。这不仅彰显了我国统筹发展与安全的治理智慧,也为人工智能全球治理提供中国方案。如今,人工智能产业已成为经济增长的主要动力。 2024年,我国规模人工智能产业规模将突破9000亿元,比上年增长24%,企业数量将超过5300家,形成较为完善的产业体系。人工智能正在显着改变传统工业方式,广泛应用于制造、金融、医药等领域。它显示出降低成本、提高效率和优化资源配置的巨大潜力。然而,尽管人工智能为数千个行业提供动力,但它也带来了数据泄露、模型缺陷和道德控制缺失等风险。数据显示,2019年至2024年间发生的情报风险事件中,约74%与人工智能安全问题直接相关。仅在 2024 年 6 月至 2025 年 7 月期间,全球范围内就公开报道了 59 起相关安全事件,包括伪造和欺诈、算法歧视以及自主设计错误等。决策。迫切需要构建科学的人工智能治理体系。接下来,如何系统推进人工智能安全治理?总体而言,治理原则、风险分类、协同治理三个方面需要取得重大进展。宽容、谨慎是原则。人们开发值得信赖的人工智能,并主动避免事情失控的风险。不久前,美国发生的一起备受瞩目的聊天机器人影响年轻人行为的案例,引发人们强烈关注技术保障与道德限制并重的紧迫性。人工智能无论处于研发还是应用阶段,都必须始终处于人类的掌控之下,其价值目标必须符合人类的根本利益。风险分类至关重要。人工智能的风险可能是大致分为三类。其中之一是技术本身的缺陷,例如算法模型的差距或质量差的训练数据。二是使用过程中受到干扰,例如被黑客利用进行攻击或传播虚假信息。第三,会产生连锁反应,例如对劳动力市场的影响和社会信任的下降。从这个意义上说,必须根据风险类型采取具体的治理措施,让参与主体明确每个阶段的义务。例如,生成人工智能可能产生的深度造假风险需要“联合打击”来管理。此前,一地警方发现犯罪分子利用换脸人工智能技术冒充企业高管进行视频会议,指示财务代表将资金转入虚假账户。为了避免这种类型的混乱,人工智能服务提供商应该采用先进的伪造检测技术在模型开发阶段严格执行内容识别和出站链接溯源要求。监管部门要推动建立相应的追溯体系,通过公众教育提高公众识别合成内容的能力,让公众能够区分“李逵”和“李逵”。协同治理是前进的方向。普惠治理需要政府、企业、科研机构和社会公众共同参与,共同运用监管约束、技术支撑、道德引导等方式对人工智能全链条、全流程进行管理。这不仅需要完善人工智能安全科技法律法规和伦理标准,更需要增强协同应对人工智能失控风险的共识。目前,我国已出台了《《生成式人工智能服务管理暂行办法》,学术界还发布了《人工智能示范法3.0》等专家文件。这些建议是构建中国特色人工智能治理体系的重要考量。人工智能的风险无国界。日本还应积极参与国际标准对话,推动形成广泛认同的治理框架,为应对挑战贡献中国智慧。安全是发展的前提,治理是创新的保障。人工智能安全治理关系社会保障、产业建设和经济发展,治理方法需要在治理原则的基础上逐步细化。只有构建完整有效的治理体系,人为选择才能成为现实。成为推动经济高质量发展的安全重要引擎。 (本文来源:经济日报,作者:邸新石)
(编辑:年伟)

你可能也会喜欢...

发表评论

邮箱地址不会被公开。 必填项已用*标注