王克:AI安全面临三大挑战(下篇)
创始人
2026-02-13 11:19:03

编者

现在人工智能(AI)可以说是全民热议的话题,从普通百姓用AI写文案、做图片,到企业布局大模型,大家对AI的期待越来越高。那么,AI是万能的吗?普通人用AI,又该如何规避风险呢?日前,围绕AI的安全与发展等热门话题,本刊采访了计算机安全专家王克先生。王克先生长期从事网络安全、人工智能安全研究,曾参与多项国家级计算机安全标准的制定。

王克

王克,清华大学博士,终身享受政府特殊津贴,原军队某研究所所长。从事密码工程、信息安全研究40年,工信部、公安部、科技部、军队等专家库成员。

访谈者:郑挺颖(《中国科技信息》执行主编)

受访者:王克(中关村网信联盟TCOSCA主任)

05

AI与机器人的融合:

前景与局限

提问

现在很多企业都在推动AI与机器人

的融合,比如人形机器人、自动驾

驶汽车、智能服务机器人等,您认

为这种融合的前景如何?面临哪些

技术瓶颈?

回答

AI与机器人的融合是未来的发展趋势,但短期内很难实现大规模的商业化应用,其面临的技术瓶颈非常多。从技术逻辑来看,机器人与AI的融合可以分为两类:一类是“规避交互型”机器人,比如自动驾驶汽车,其核心是“不与人类和环境发生不必要的接触”,尽量规避风险;另一类是“主动交互型”机器人,比如人形机器人、服务机器人,其核心是“主动与人类和环境发生交互”,完成特定的任务。这两类机器人面临的技术挑战完全不同,其中主动交互型机器人的难度要大得多。

首先说“规避交互型”机器人,以自动驾驶汽车为例。现在在开放道路上的自动驾驶技术大部分在3级(有条件自动驾驶)以下,在封闭场景(比如矿山、码头、园区)可实现 4 级(高度自动驾驶),在开放道路上的自动驾驶应用面临诸多难题,且不仅仅是技术难题。

一是法律责任难题——一旦发生交通事故,责任该由谁承担?是车企、AI算法提供商,还是用户?目前全球的法律界定仍不确定,这成为自动驾驶商业化的一大障碍;二是AI数据穷尽难题——开放道路的场景是无限的,比如突发的自然灾害、行人的违规行为、其他车辆的异常操作等,AI无法通过训练数据覆盖所有场景,一旦遇到未训练过的场景,很可能会做出错误的决策;三是伦理决策难题——在不可避免的碰撞事故中,AI应该优先保护乘客,还是优先保护行人?这种伦理困境没有统一的答案,也很难通过算法来解决。

从应用场景来看,主动交互型机器人的商业化,未来还是有机会的。但我认为会从特定领域开始,比如医疗护理、工业生产、家庭服务等,在这些场景中,机器人的任务相对单一,环境相对可控,更容易实现技术落地。比如医疗领域的康复机器人,能够帮助残疾人进行康复训练,任务相对固定,环境也比较简单;工业领域的协作机器人,能够与工人配合完成简单的装配任务,环境可控,风险较低。随着技术的成熟,他们可以逐步拓展到更复杂的场景。

提问

有观点认为,未来人形机器人会

像手机一样普及,成为每个人的

“私人助理”,您认同这个判断吗?

回答

我认为短期内很难实现,长期来看是有这种可能性,但需要技术的重大突破。手机之所以能普及,是因为它解决了人类的核心需求——沟通与信息获取,而且具备便携性、低成本、高可靠性等特点。人形机器人要实现普及,需要满足三个条件:一是功能实用,能够真正解决消费者的核心需求,比如家庭清洁、老人照顾、儿童陪伴等,能够真正带来情感陪伴,而不是仅仅作为一个“科技玩具”;二是价格亲民,现在的人形机器人成本动辄几十万元,普通消费者根本无法承受;三是安全可靠,能够确保在与人类交互过程中不会造成伤害,具备完善的故障处理机制。

06

AI监管:

如何平衡安全与发展

提问

随着AI技术的快速发展,监管和伦

理问题越来越受到关注,您认为应

该如何构建AI的监管体系,平衡安

全与发展的关系?

回答

AI的监管是一个复杂的系统工程,需要兼顾安全与发展,不能只强调安全而限制创新,也不能只追求发展而忽视安全。构建AI监管体系,应该遵循“技术中立、风险导向、分级分类、协同治理”的原则。

首先,监管要坚持“技术中立”——不能对特定的技术路线或企业进行歧视性监管,要为所有AI企业提供公平的竞争环境。监管的核心是规范AI的应用行为,而不是限制技术的发展方向。比如对于生成式AI,监管的重点应该是确保生成内容的合法性和安全性,而不是禁止生成式AI的研发和应用。

其次,监管要坚持“风险导向”——根据AI应用的风险等级采取不同的监管措施,对于高风险应用(比如自动驾驶、医疗AI、金融AI),要实施严格的准入制度和安全评估;对于中低风险应用(比如AI写作、AI修图),可以实施稍微宽松一些的监管,主要依靠企业自律和市场机制。这种差异化的监管方式,既能防范重大安全风险,又能为技术创新留足空间。

再次,监管要坚持“分级分类”——根据AI的应用领域、影响范围、风险程度等因素,对AI进行分级分类管理。比如可以将AI分为“通用AI”和“专用AI”,通用AI的影响范围广、风险程度高,需要更严格的监管;专用AI的应用场景单一、风险程度低,可以实施更灵活的监管。同时,要建立AI安全评估标准,明确不同级别AI的安全要求和评估方法。

最后,监管要坚持“协同治理”——AI监管不是政府的独角戏,需要政府、企业、行业协会、科研机构、公众等多方参与。政府要制定法律法规和监管政策,明确各方的权利和义务;企业要落实主体责任,加强内部安全管理和伦理审查;行业协会要制定行业标准和自律规范,引导行业健康发展;科研机构要加强AI安全与伦理研究,为监管提供技术支撑;公众要参与监督,对AI的不良应用进行举报和抵制。

当前,全球都在加快AI监管和伦理体系的建设,欧盟出台了《人工智能法案》,美国发布了《国家人工智能研发战略计划》,中国也出台了《生成式人工智能服务管理暂行办法》,这些政策的出台为AI的健康发展提供了保障。未来,随着AI技术的不断进步,监管和伦理体系也需要不断完善,确保AI始终在安全、合规,不违背伦理的轨道上发展。

提问

最后,想请您给普通公众提一些建

议,如何更好地应对AI带来的机遇

和挑战?

回答

对于普通公众来说,首先要理性看待AI,既不要过度恐慌,也不要盲目崇拜。AI是一种工具,不是洪水猛兽,它能帮助我们提高工作效率、改善生活质量,但不能替代人类的核心能力。其次,要主动学习AI相关的知识,了解AI的基本原理和应用边界,提高自己的数字素养,这样才能更好地利用AI工具,避免被AI误导。最后,要保护好自己的隐私和数据安全,在使用AI工具时,谨慎上传敏感信息,选择合规的服务商。

编辑:柯欣

审核:王汝霖

相关内容

热门资讯

苹果研究:用户不愿被AI代替决... AIPress.com.cn报道 在AI代理能力不断增强的背景下,Apple研究团队将焦点转向一个更...
伴侣AI宣言:我们都是现代泛灵... 作为一份宣言来说,它来得太早,又或许是太晚。ChatGPT横空出世距今也不过短短三年。然而,基于大语...
AI政策利好提振,数字经济ET... 截至2月13日10点25分,上证指数跌0.28%,深证成指跌0.35%,创业板指跌0.57%。军工装...
王克:AI安全面临三大挑战(下... 编者 现在人工智能(AI)可以说是全民热议的话题,从普通百姓用AI写文案、做图片,到企业布局大模型,...