人工智能的能力将在 2024 年继续扩展,随着网络安全格局的不断变化,生成式人工智能 (Gen AI) 预计将继续流行,专家介绍人工智能如何助长威胁行为者更复杂的犯罪活动
随着人工智能日益复杂,对于个人和小型企业来说,威胁将变得更加个性化。
一些行业领导者预测,人工智能将继续在威胁的产生方式中发挥巨大作用。随着网络犯罪分子不断开发攻击方法,人工智能可以使他们勒索受害者的能力更加成功,也更难以追踪。
考虑到这一点,随着企业找到保护有价值数据的新方法,网络安全只会继续变得更加根深蒂固地融入日常生活。 AI 杂志与该领域的专家讨论了今年的前景。
信任问题:人工智能生成的内容引起轰动
人工智能的能力将在 2024 年继续扩展,生成式人工智能 (Gen AI) 预计将继续普及。
越来越多的企业正在寻求投资 Gen AI 等工具,试图扩大其为客户提供的产品范围。谷歌、微软和 OpenAI 等多家大型科技公司正在继续推动这些发展,以保持竞争力。
人们相信,像 Gen AI 这样的模型将通过提高工作场所效率并协助员工完成复杂甚至基于风险的任务来不断提高企业生产力。
然而,尽管预测出现了这些积极的变化,但网络安全领域的人士预计,这些进步也将加剧网络犯罪的激增。由于人工智能具有如此广泛的功能,其快速发展将继续在信任问题上挑战组织和个人,包括人工智能生成的内容,例如旨在传播错误信息的深度伪造内容。
诺顿母公司 Gen 表示,在这方面,社会工程攻击将变得更加明显。社会工程是指威胁行为者操纵人们的情绪和脆弱性来获取他们想要的东西。
Gen 的安全布道师 Luis Corrons 告诉 AI 杂志:“人工智能的日益复杂导致了深度伪造视频和其他高级网络威胁的增加。网络犯罪分子现在正在利用人工智能来制造越来越真实且难以检测的攻击。
“为了应对这些高级威胁,对潜在诈骗保持健康的怀疑态度至关重要;采用有效的密码管理并利用全面的隐私、安全和身份保护工具。在这种快速变化的威胁形势下,企业和个人都必须及时了解情况并实施强有力的网络安全措施来保护他们的数字世界。”
关于人工智能监管的争论仍在继续
人工智能风险管理的重要性已在全球舞台上得到讨论,世界领导人将于 2023 年底在英国人工智能安全峰会上举行会议。会议就人工智能是否应该受到监管以及企业可以采取的一些步骤进行了重要对话。开始采取措施确保人工智能模型的透明度。
美国(US)已开始实施这些步骤,以确保企业与政府共享人工智能安全信息。措施包括为人工智能制定新的安全标准,其中包括要求科技公司与联邦政府分享安全测试结果的法规。
最终的目标是创建程序来评估潜在有害的人工智能实践,并创建有关如何负责任地使用人工智能工具的资源。
这导致本周(2024 年 1 月)进一步宣布,该国宣布与微软、亚马逊和 IBM 等领先科技公司合作,启动人工智能试点计划,为研究人员和教育工作者提供资源,访问高性能人工智能技术。
现在,企业比以往任何时候都更需要考虑利用人工智能的道德影响。
Zoho Europe 董事总经理 Sridhar Iyengar 表示:“企业需要提高数据使用方式的透明度,将其作为有道德行为、建立信任和加强消费者关系的审慎步骤,而不仅仅是出于立法需要。这不仅是他们规定如何处理这些数据以及遵守法规,而且是他们向客户传达这一信息的方式。
“使用人工智能的公司必须优先考虑道德考虑和负责任的数据实践。在构建模型时采用正确的人工智能程序,确保公正的算法并遵守隐私法规,可以平衡人工智能的优势,同时又不会忽视隐私和透明度等基本方面。”
******
请务必查看最新一期的AI 杂志,并报名参加我们的全球会议系列 – Tech & AI LIVE 2024
******
AI 杂志是BizClik旗下品牌