(记者 石青川)随着2016年AlphaGo战胜人类棋手,全球开启了一波人工智能的技术潮,国内的人工智能技术及产业开始加速发展。自此之后,AI应用从消费、互联网等领域,延申到制造、电力等传统行业。
据艾瑞数据显示,2021年人工智能核心产业规模预计达到1998亿元,2026年将超过6000亿元。
但是,问题也随之而来。
全国政协委员、重庆理工大学校长杜惠平介绍,受限于人工智能技术及其应用领域中的各利益相关方,如研发者、使用者、受用者和管理者等各方,他们的各自技术理解水平及风险把控能力等的差异,往往出现阶段性短视而增大风险防范难度,造成对他们自身及经济社会长远发展的不利影响。
今年全国两会期间,杜惠平提出了这方面的提案。他表示,目前人工智能技术在数据方面存在技术滥用与外部入侵两大风险,最重要的是,在法律层面的责任认定,还是空白。
杜惠平举例称,在数据方面,涉及到个人及其经济、社会活动等相关算法的训练过程中,个人的身份、财产、地址等身份信息,以及笔迹、走路形态等行为信息,都将成为训练数据的来源。在市场上无企业准入限制的情况下,大量个人信息面临被滥用的可能。
“即使企业主观上没有恶意,客观上也存在数据安全的问题”。杜惠平说,一方面,限于开发水平或运维能力,一些人工智能产品或服务本身可能存在技术缺陷;另一方面,深度学习或迭代演进后偏离最初预设,使得人工智能算法超出了研发者的控制。对这些可能存在的技术缺陷和漏洞,相应的人工智能产品或服务存在遭受恶意外部入侵的风险,可能被不法分子利用,产生危害社会的不良后果。
除了数据技术方面的问题,现行法律法规,没有明确界定人工智能的设计、制造、消费、使用等各个环节的主体责任与义务。杜惠平举例说,自动驾驶汽车决策错误导致人员伤亡,智能医疗助理给出错误医疗建议导致患者病情加重,这些责任如何划分?
因此,杜惠平建议,针对技术层面的问题,国家应提高人工智能行业的准入门槛,不仅要筛选出具备相关安全风险机理认知和风险防御技术能力的公司,更要确保人工智能企业在应用产品时合法合规、可靠可控、数据安全可信,以及人工智能应用于社会治理时的决策公平公正。还要加强人工智能过程性数据安全监管,并及时对人工智能安全风险进行监控,在进行全过程扫描后能够有效识别其风险点、威胁点和脆弱点,构建安全风险数据库,及时追踪发现隐患。
针对法律责任划分方面的问题,杜惠平还提交了一份关于完善自动驾驶保险和事故赔偿政策法规的提案。他建议,法律层面要健全自动驾驶机动车侵权责任制度,保险层面建立自动驾驶机动车保险赔付制度,还要设定自动驾驶机动车事故责任认定标准和流程,完善自动驾驶汽车生产许可与质量管理制度。只有基础工作完成,自动驾驶技术才有可能继续发展,自动驾驶机动车才有可能市场化。
责编:孙庭阳
关键词: 人工智能 人工智能技术 数据安全 重庆理工大学 自动驾驶
责任编辑:Rex_26