保护人工智能,网络安全专业人士责无旁贷

网络安全专业人员在确保人工智能工具安全方面责无旁贷 ,保护确保这些技术仅用于社会公益 ,人工人士这是智能专业责无 RSA 2024 大会发出的强烈信息 。

人工智能在现实世界中大有可为 ,网络例如可以更快 、安全更准确地诊断健康状况。旁贷然而 ,保护随着人工智能的人工人士创新和应用步伐以前所未有的速度加快,许多人呼吁必须及早建立安全防护措施,智能专业责无以确保人工智能发挥其巨大潜力 。网络

在这一过程中,安全必须考虑到隐私和公平等概念 。旁贷

微软负责安全 、源码下载保护合规、人工人士身份和管理的智能专业责无副总裁 Vasu Jakkal 强调说 :”我们有责任在人工智能快速发展的时代探索创造一个安全可靠的空间 。“

另外,人工智能安全中心创始人 Dan Hendrycks 表示,人工智能存在着巨大的风险  ,鉴于其在物理世界中日益增长的影响力和潜力,这些风险既是社会性的 ,也是技术性的香港云服务器。也就是说 ,人工智能的安全保护是一个更广泛的社会技术问题,而不仅仅是技术问题 。

哈佛大学肯尼迪学院安全技术专家 、研究员兼讲师 Bruce Schneier 指出 ,现在 ,人工智能安全和我们的安全紧密相连 ,因此我们必须更广泛地思考这些问题。

对人工智能完整性的建站模板威胁

员工正在利用 ChatGPT 等公开可用的生成式人工智能工具开展工作,Presidio 公司的 CISO Dan Lohrmann 将这种现象称为 “自带人工智能” 。

Secureworks 的首席技术官 Mike Aiello 认为 ,这与 SASE 服务刚出现时的情况类似,当时企业中的许多员工都订阅了这些服务 。现在,企业在使用人工智能方面也面临同样的情况 ,比如注册 ChatGPT ,对于企业来说已经有点不受控制。

这种趋势给企业带来了许多安全和隐私方面的免费模板问题,比如敏感的公司数据被输入到这些模型中,可能会导致信息公开 。

其他问题也威胁着人工智能工具输出结果的完整性。这些问题包括数据中毒,即通过改变模型所训练的数据无意或有意地改变模型的行为;以及提示注入攻击,即操纵人工智能模型执行非预期的操作 。

这些问题有可能破坏人们对人工智能技术的信任 ,造成模糊 、偏见和歧视等问题 。高防服务器反过来看 ,这将限制人工智能技术的应用和解决重大社会问题的潜力。

人工智能是一项治理问题

在 RSA 大会上发言的专家们主张 ,企业应像对待其他需要确保安全的应用程序一样对待人工智能工具。

谷歌安全工程副总裁 Heather Adkins 指出 ,从本质上讲 ,人工智能系统和其他应用程序一样 ,都有输入和输出,过去 30 年里开发的很多技术在这里也同样适用。

Jakkal 认为 ,源码库确保人工智能系统安全的核心是建立一个强大的风险管理治理体系 。她阐述了微软在这方面的三大支柱:

发现 : 了解环境中使用了哪些人工智能工具 ,以及员工是如何使用它们的保护: 降低整个系统的风险,并加以实施治理 : 遵守监管和行为准则政策,培训员工安全使用人工智能工具

Lohrmann 强调 ,企业要采取的第一步是让员工了解人工智能的使用情况  ,在采取行动之前 ,必须知道发生了什么 。

Secureworks 的 Aiello 还主张,在将工作委托给人工智能模型时 ,员工应该保持高度参与 。他解释说,公司使用工具进行数据分析,析师也要检查这些数据,并在出现模糊等问题时提供反馈。

结论

目前,我们还处于了解人工智能对社会真正影响的早期阶段。要发掘人工智能的巨大潜力 ,这些保护系统必须具备强大的安全性 ,否则可能面临跨组织和跨国家的限制甚至禁令。

如今 ,企业仍在努力应对工作场所生成式人工智能工具的激增 ,必须迅速制定能够安全可靠地管理这种使用的政策和工具,而网络安全行业对这一问题的处理方式很可能会对人工智能未来的角色产生重大影响。

参考来源:https://www.infosecurity-magazine.com/news/why-cybersecurity-professionals/

物联网
上一篇:漏洞披露15分钟内,黑客即可完成漏洞扫描
下一篇:解析Java网络安全:HTTPS加密与证书验证