人工智能在经济社会发展中应用产生广泛讨论
2023-03-05 14:29:42 来源:环球网
人工智能作为一种战略性新兴技术,其蓬勃发展和广泛应用,将塑造和赋能越来越多的行业、领域和应用场景,形成“人工智能赋能+”效应,为经济社会发展注入强劲动能。不过,人工智能应用是一把“双刃剑”,它在赋能经济社会发展的同时也可能引发风险。一是新型法律纠纷风险,比如人工智能侵权纠纷、著作权纠纷、人工智能技术滥用带来的权益纠纷等。二是道德风险。人工智能不能进行价值判断,但它是在研发人员价值观念支配下设计开发出来的,容易受研发者秉持的价值观念影响。三是人工智能技术不完善造成的社会公害风险,比如算法歧视、泄露隐私信息等。对此,必须加强对人工智能潜在风险的研判和防范,确保人工智能安全、可靠、可控。
由于具有语言理解和文本生成能力,特别是能够从事论文写作、翻译以及制作司法裁判文书等工作,该产品引发了人们对人工智能在经济社会发展中应用的广泛讨论。与此同时,我国工业和信息化部等部门联合印发了《“机器人+”应用行动实施方案》,明确了人工智能机器人应用的10大重点领域,提出推动各行业、各地方结合行业发展阶段和区域发展特色,开展“机器人+”应用创新实践;搭建国际国内交流平台,形成全面推进机器人应用的浓厚氛围。这都预示着人工智能加快应用的时代正在到来。
在规范策略上,应坚持规制与保障并重。一项新技术从研发到进入市场,再到融入社会生产、生活,产生风险是难以避免的,不能因为风险而放弃新技术的研发和应用。理想目标应是把风险最小化,把技术获利最大化。这就要求法律和政策做到规制与保障并重。要通过法律与政策手段解决人工智能引发的风险,实现有序发展;同时,要确保人工智能创新发展,更好赋能经济社会。不过,规制与保障之间可能存在价值冲突,规制不当可能扼杀人工智能的创新发展,必须审慎地处理好二者之间的关系。
在规范手段上,注重软性引导与硬性约束同向发力。应根据人工智能应用产生风险的原因,有针对性地采用不同规范手段。对人工智能因技术不完善引发的风险,主要依靠软性规范。软性规范具有倡导性、灵活性强的特点。可以通过制定指南或行业自律等方式引导技术向善,防范潜在风险发生。这是防范人工智能风险不可或缺的手段。
对滥用人工智能技术引发的风险,则要依靠硬性约束。硬性约束规定明确,可操作性强,能够为人们如何行为提供具体指引,并且有强制力保障。随着人工智能广泛应用于各行业,滥用人工智能技术多发频发,这就需要通过硬性约束,规范治理人工智能滥用问题。目前,我国专门针对人工智能技术滥用而出台的法律数量少、位阶低,亟需加大立法步伐。
在规范方式上,强化政府与企业治理协同,相辅相成,相互保障。具体而言,政府应扮演人工智能发展政策的制定者、治理议程的设置者以及法律法规实施的监督者等角色。企业是人工智能技术、产品或服务研发和使用的主体,也是发展人工智能的责任主体,必须担负起人工智能风险防范的社会责任。应加强人工智能技术企业间的合作,依靠技术手段防范人工智能风险。
由于具有语言理解和文本生成能力,特别是能够从事论文写作、翻译以及制作司法裁判文书等工作,该产品引发了人们对人工智能在经济社会发展中应用的广泛讨论。与此同时,我国工业和信息化部等部门联合印发了《“机器人+”应用行动实施方案》,明确了人工智能机器人应用的10大重点领域,提出推动各行业、各地方结合行业发展阶段和区域发展特色,开展“机器人+”应用创新实践;搭建国际国内交流平台,形成全面推进机器人应用的浓厚氛围。这都预示着人工智能加快应用的时代正在到来。
在规范策略上,应坚持规制与保障并重。一项新技术从研发到进入市场,再到融入社会生产、生活,产生风险是难以避免的,不能因为风险而放弃新技术的研发和应用。理想目标应是把风险最小化,把技术获利最大化。这就要求法律和政策做到规制与保障并重。要通过法律与政策手段解决人工智能引发的风险,实现有序发展;同时,要确保人工智能创新发展,更好赋能经济社会。不过,规制与保障之间可能存在价值冲突,规制不当可能扼杀人工智能的创新发展,必须审慎地处理好二者之间的关系。
在规范手段上,注重软性引导与硬性约束同向发力。应根据人工智能应用产生风险的原因,有针对性地采用不同规范手段。对人工智能因技术不完善引发的风险,主要依靠软性规范。软性规范具有倡导性、灵活性强的特点。可以通过制定指南或行业自律等方式引导技术向善,防范潜在风险发生。这是防范人工智能风险不可或缺的手段。
对滥用人工智能技术引发的风险,则要依靠硬性约束。硬性约束规定明确,可操作性强,能够为人们如何行为提供具体指引,并且有强制力保障。随着人工智能广泛应用于各行业,滥用人工智能技术多发频发,这就需要通过硬性约束,规范治理人工智能滥用问题。目前,我国专门针对人工智能技术滥用而出台的法律数量少、位阶低,亟需加大立法步伐。
在规范方式上,强化政府与企业治理协同,相辅相成,相互保障。具体而言,政府应扮演人工智能发展政策的制定者、治理议程的设置者以及法律法规实施的监督者等角色。企业是人工智能技术、产品或服务研发和使用的主体,也是发展人工智能的责任主体,必须担负起人工智能风险防范的社会责任。应加强人工智能技术企业间的合作,依靠技术手段防范人工智能风险。
免责声明:文章未标注“本站原创”或“文交所资讯网”的文章均转载自网络。文章内容不代表本站观点,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,风险自己甄别并承担后果;如本文内容影响到您的合法权益,请及时联系本站,我们会及时删除处理!
- 人工智能在经济社会发展中应用产生广泛讨论2023-03-05
- 工业数据应用有待进一步提高2023-03-05
- 全力以赴将喀喇沁打造成产业福地 政策洼地2023-03-04
- 永川:以产聚人兴城 以城留人促产 以校育人优2023-03-04
- LEAP-1A发动机首次在中国国内进行组装2023-03-04
- “平江官窑”所在地之谜被揭示2023-03-04
- 特斯拉中国2月销量环比增长12.6%2023-03-04
- 创新中心采用3D打印技术 实现航天液体动力2023-03-04
- 贵州着力提升算力服务品质和利用效率 助力2023-03-04
- 中科大在制备高效稳定的钙钛矿单晶LED领域2023-03-04