本篇文章568字,读完约1分钟

观众在首届中国国际智能产业博览会上体验医疗人工智能产品。新华社

人工智能技术及其应用的快速发展不仅促进了经济和社会的创新和发展,也带来了安全、伦理、法律法规等方面的风险和挑战。

随着收集的数据越来越多,应用场景越来越多,用户个人信息泄露的风险也越来越大。

人工智能的研究和应用应该有伦理和法律的界限,即应以人类的根本利益和责任为原则。

在刚刚结束的全国会议上,扩大& lsquo情报+首次被写入今年的政府工作报告。人工智能作为未来重要的基础技术,已经连续三年出现在政府工作报告中。可以预见,随着人工智能和大数据的深入应用,生产和生活的数字化改造是大势所趋。

“智能+”,更应重视安全挑战

在拥抱人工智能和迈向数字社会的同时,人们也需要面对新技术应用的挑战,如人工智能在安全、伦理、法律法规、社会治理等方面的应用。只有采取预防措施,判断和预防潜在的风险,我们才能享受智能+的时代红利。

人工智能的应用方兴未艾,但也带来了潜在的安全风险

不久前,人工智能深层变脸技术引起了争议。事实证明,这项技术几乎可以无痕迹地改变视频中人物的面部,这引起了人们对侵犯隐私权和肖像权的关注。更深层次的担忧是,如果这项技术被滥用,是否意味着大量视频将被其他视频所取代。

“智能+”,更应重视安全挑战

在今年的全国人大会议上,应用人工智能、大数据等技术带来的安全风险成为代表们关注的焦点之一。全国政协委员、360集团董事长兼首席执行官周表示,安全性应该是人工智能发展的基础和前提。全国人大代表、苏宁控股集团董事长张也指出,数据安全是数字中国建设的重中之重。为了发展高质量的数字经济,必须加强数据安全保护和合规共享。

“智能+”,更应重视安全挑战

从信息安全的角度来看,目前人工智能应用的主要安全风险点是什么?

中国信息通信研究院移动安全联盟秘书长杨表示,人工智能高度依赖于海量数据收集和训练分析。随着收集的数据越来越多,应用场景越来越多,用户个人信息泄露的风险也越来越大。

人工智能算法不仅可以直接收集用户的个人信息,还可以深入挖掘和分析看似无关的数据。杨介绍说,他们进行的一项调查显示,目前滥用个人信息的现象比较普遍。与此同时,人工智能和无处不在的数据收集以及大数据场景中专业化和多样化的数据处理技术使得信息主体难以理解和控制其信息是如何收集和利用的。信息安全保护已经成为人工智能发展中的一个重要问题。

“智能+”,更应重视安全挑战

专家说,技术本身是中性的,只要使用得当,人工智能也可以用来提高网络安全水平。例如,人工智能在识别恶意代码方面有很大的优势。

北京神州绿色联盟科技有限公司的安全研究员吴子健说,恶意代码通常是在一些开源代码的基础上修改的,它们通常有相似的行为模式。借助人工智能技术训练的检测工具,可以高效地发现恶意代码。

人工智能技术也广泛应用于企业内部网的安全防护。吴子健介绍说,传统的防护手段是在网络入口处设置防御措施,但内部网之间几乎没有防御措施。使用人工智能和其他技术手段来关联数据可以有效地检测内部网中的异常。与传统方法相比,该方法不仅能发现已知威胁,还能检测未知风险。

“智能+”,更应重视安全挑战

吴子健认为,行业需要做更多深入的研究,不断提高人工智能在安全防护中的价值。

我们应该提前判断智能时代的法律和伦理风险,引导人与机器的良性合作

随着人工智能应用的日益广泛,一系列伦理和法律问题也随之产生。例如,当无人驾驶汽车发生交通事故时,如何界定责任,以及如何处理医疗手术机器人的事故& hellip& hellip

人工智能的研究和应用应该有伦理和法律的界限,即应以人类的根本利益和责任为原则,以实现人类的根本利益为最终目标。这个要求也是由人工智能和人类之间的关系决定的。中国人民大学法学院副教授郭锐认为。

在目前的技术条件下,智能机器还不能做出合乎道德的决定,但它们的决定将导致合乎道德的后果。郭锐认为,法律通常针对能够遵循这些原则的主体,即其法律被视为主体的自然人或组织(法人)。然而,考虑到人工智能的特征是对人类智能的模拟、扩展和扩展,伦理原则应该适用于人工智能系统。

“智能+”,更应重视安全挑战

北京师范大学哲学系教授田认为,人工智能的主体不是孤立的个体,而是各种相关形式的总和。人工智能的主要组成部分包括开发者(包括算法开发者)、制造商、运营商、电信网络服务提供商等。在发生交通或医疗事故时,由于找不到一定的责任主体,责任难以界定,因此有必要设立代理人来界定责任和权利。

标题:“智能+”,更应重视安全挑战

地址:http://www.ictaa.cn/hlwxw/4304.html