(相关资料图)
央视网消息:2022年底,以ChatGPT为代表的人工智能大模型面世,人工智能技术在世界范围内引发新一轮高度关注,但是随着“AI侵权”“AI换脸诈骗”“AI谣言”等诸多问题相继出现,“如何规范人工智能技术应用”“怎么兼顾创新发展与伦理规范”等成为目前人们关注的焦点。昨天(6月26日),在山东曲阜召开的世界互联网大会数字文明尼山对话上,与会专家和代表一致认为,应加强人工智能发展的潜在风险的研判和防范,相关领域立法提速,确保人工智能安全可信可控。
昨天上午,世界互联网大会数字文明“尼山对话”主论坛的第一个重要议题就是“构建安全可信的人工智能”。与会专家认为,人工智能在近些年得到了快速发展和普及应用,它的巨大潜力被迅速挖掘释放的同时,对它的潜在风险也应保持高度警惕。
中国科技大学公共事务学院网络空间安全学院教授 左晓栋:人工智能的风险和传统的风险相比,它有一些独特的特点。比如说人工智能它是高度自主智能的,它是要极大地依赖数据的,而且这里面还有算法黑箱的问题,还有算法不可解释的问题,这些都使得人工智能的风险很难预测,而且大量的是未知事物。
与会代表认为,相关科研机构和科技企业在人工智能系统设计之初就要充分考虑安全、可控的风险,只有这个前提下,人工智能的创新发展才能可持续。
此外,与会代表表示,我国应加快建立人工智能领域相关法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。