IT领导人正在添加更多的安全层,以防止移动威胁。他们使用的是什么工具组合呢? 网络安全已成为企业的优先项,但大多数的领导人都认为,他们的企业仍然面临重大的安全风险——其中,移动漏洞在风险中占重要因素。
在Cisco 的“2016年度安全报告,”中,65%的受访者认为他们面临高级别的安全风险,50%认为,移动是安全漏洞中的高风险。 与此同时, 451 Research在其2016年美国企业移动:IT决策者的调查中,结果显示移动安全是领导人的首要技术优先项目。
的确应该如此,Chris Marsh说,他是451 Research企业移动的研究主任。最近几年,移动功能引入了许多新的漏洞。 智能手机和平板电脑很容易丢失或被盗,员工下载有恶意代码的应用,用户访问恶意的无线网络——所有这些都可能导致数据丢失或盗窃,甚至可以让企业系统暴露给针对性攻击或投机的黑客。
“如果你只是保护一部分,你仍然易受到攻击,” Yuri Diogenes说,他是Fort Worth chapter of the Information Systems Security Association (ISSA)的高级成员,EC-Council University的教授,以及多本IT和安全相关书籍的作者。 作为回应,专家们认为IT高管正在将更多的安全层引入到他们的移动环境中。
专家们认为,在许多企业内,一些战略已经在移动安全平台中站稳脚跟。安全层,包括容器化,本质上,将移动设备上的企业应用和数据与员工的个人信息相隔离,还有移动设备管理(MDM)工具,允许企业远程访问设备,来执行某些安全措施,比如加密,并采取一定的安全措施(比如,从丢失或被盗的设备上删除所有数据)。 这些安全层都属于企业移动管理,在许多企业内,包括设备管理的MDM、安全移动容器、安全内容协作和企业访问控制。
安全层:工具和技术
企业中逐渐出现的工具和技术安全组合包括:
生物识别技术。一些公司,特别是在高度监管的行业,比如金融,已经不再使用密码,甚至双重身份验证,而是使用指纹和其他生物识别技术,来授权设备访问, Nisha Sharma说,她是Accenture Digital旗下Accenture Mobility的总经理。
监控。监控网络上的流量,并发现来自移动设备的可疑活动,比如用户试图与受限的数据进行交互,这一战略在越来越多的企业中使用。监控允许企业“知道哪些移动设备连接到他们的网络中,特别是通过无线入口,以及他们的网络面对何种潜在的数据泄漏和恶意软件,” Andrea Hoy解释道,他是ISSA International Board of Directors的主席。“有专门的工具,监控无线接入,可以通过无线网络检测到流氓设备,没有监控的情况下,很难发现。”
先进的测试工具。供应商已经引入了更多的工具,允许开发人员更好的测试,以确保企业内使用的移动应用的安全性,Sharma说。这些工具可用于内部应用,以及公开应用。
MAM。移动应用管理(MAM)软件与MDM技术类似,但是不是针对设备,它适用于应用, Diogenes解释道。MAM通常受到有BYOD政策的企业欢迎,那些企业的员工不希望公司控制他们的设备。MAM还允许企业为每个应用定制用户体验。此外,因为MAM不管理设备,员工可以在不事先与公司注册设备的情况下,使用新的或不同的移动设备。不过,MAM需要更多的IT资源来管理,Diogenes说。它可能并不适合每一个企业。MDM允许企业验证用户和设备,而一些企业,尤其是那些具有高安全需求的,需要双重认证。
好文章,需要你的鼓励
Writer首席执行官May Habib指出,企业在构建和扩展AI智能体时面临重大挑战。智能体在构建、运行和改进方式上与传统软件截然不同,需要抛弃传统软件开发生命周期。智能体不会可靠地遵循规则,而是结果导向、具备解释和适应能力。企业需要采用目标导向方法,设计业务逻辑蓝图而非工作流程。质量保证也需要评估非二元行为和实际应用表现。智能体维护需要新的版本控制系统,涵盖提示、模型设置等所有影响行为的因素。
中科院团队开发的SimpleGVR系统革新了AI视频增强技术,通过直接在潜在空间处理和创新的分阶段训练策略,能够将AI生成的低分辨率视频高效提升至高清画质。该系统不仅提升分辨率,还能修正AI视频特有的颜色混合等问题,在多项指标上超越现有顶级方法,为AI视频生成领域提供了实用的解决方案。
Salesforce首席执行官马克·贝尼奥夫表示,公司正大力推进人工智能应用,AI代理现在承担了公司30%至50%的工作。他认为员工应适应AI替代人工的趋势,转向更高价值的工作。然而,这一变化导致约1000名员工被裁,虽然公司计划招聘同等数量新员工,但主要专注于销售AI技术。这一趋势在科技行业普遍存在,今年已有超过63000个科技岗位消失,AI被认为是重要原因之一。
浙江大学联合腾讯AI实验室提出KnowRL方法,通过在强化学习中集成事实性奖励机制,有效解决慢思维AI模型在推理过程中的幻觉问题。该方法在保持原有推理能力的同时,显著提升了模型的事实准确性,为构建更可靠的AI系统提供了新思路。