人工智能作为一种战略性新兴技术,已经融入人们的生产生活,正在重构生产、分配、交换、消费等经济活动各环节,极大提高了工作效率,降低生产、管理等成本,并不断催生新技术、新产品、新产业,为经济社会发展不断注入新动能。近段时间以来,生成式人工智能的爆发式应用,也引发了人们对其安全性、可靠性的广泛关注。
防范生成式人工智能风险,源头在于进一步完善相关法律法规的界定。在法律上划出生成式人工智能发展不可逾越的红线,并列明具体的负面清单。同时,加快立法进程,针对数据、内容安全、知识产权等生成式人工智能发展的关键问题,进行分类管理、分类立法,通过政策立法对生成式人工智能的设计、演进进行有效引导、统筹管理。
防范生成式人工智能风险,核心在于确定底线,提升外部监督监管力度。要加快制定相应的技术使用规则和应急处理措施,强化对应用生成式人工智能的企业、平台的监管和约束,建立完整的安全评估规范和管理流程规范,定期检查评估,及时发现和处理违规行为,保障数据安全及隐私安全,防止技术滥用造成损失,确保其符合法律法规和社会公德。
防范生成式人工智能风险,重点在于强化引导企业、平台和个人加强自我约束。企业应增强底线意识,在技术开发环节,遵循人工智能开发原则,遵循基本的社会价值规范和公共道德,承担相应的社会责任,不触犯相关法律法规;软件平台要严格检验应用权限,确保用户使用的安全性;个人用户要加强自我约束意识和行动,提升技术使用素养,培养正确认识、合理使用技术的能力。 来源:新华网