软件定义的技术仍旧在进化而且在今后几年当中应该会看到巨大改进,会影响服务器、网络、存储,而且可能会影响整个数据中心。但由于存在不足,支持软件定义技术的争论仍旧在进行,而且有一些引发严重关切的问题需要解决。IT培训、互操作性测试以及全面的PoC项目对于在数据中心成功部署软件定义的技术是至关重要的。
软件定义技术存在的限制有哪些?
尽管软件定义的技术提供了很多承诺,但潜在的应用者仍旧有一些很显著的问题需要考虑。
首先,考虑软件定义技术延迟存在的潜在影响。请记住由于引入了专门用于支持虚拟化的处理器扩展(比如Intel V以及AMD-VT)技术,服务器虚拟化非常高效。在广泛采用这些命令集扩展之前,大多数服务器可能仅支持一些虚拟机—延迟是一个非常严重的问题。软件层增加网络及存储功能将不可避免地增加流量,这可能会影响对时间延迟敏感的工作负载。
配置也可能存在问题,尤其是当自动化由最终用户决定时更是如此。某些工作负载对内存、CPU以及存储分配尤为敏感,因此应当考虑应用没有获得足够多的内存或者已分配的内存空间耗尽时会发生什么。IT必须为识别并解决软件定义基础设施可能存在的一系列工作负载性能问题做好准备。
软件定义的技术可能会引入软件依赖。例如,软件定义的网络可能会使用VMware公司的NSX,而Cisco赞助了开放网络环境平台。这使企业受厂商产品路线图及互操作矩阵的限制。选择开放平台可能会有所帮助,但对任何软件定义的倡议而言,厂商锁定应该都是个关注点。
部署软件定义的技术是一件事,管理它却是另一件事。因此任何管理平台必须使用能够提供所有功能的通用API。例如,VMware提供了一些存储API比如用于阵列集成的vSphere API以及用于存储感知的vSphere API。但管理工具能够在一个虚拟磁盘上定义或者设置特定的服务、支持虚拟机或磁盘QoS或者在配置虚拟机时自动建立存储对象吗?仅仅部署软件定义的技术并不能保证能够支持你所需要的所有特性。
最后人们更加关注的是软件定义的可扩展性、充分洞察底层物理环境、支持多hypervisor、安全性而且经常被忽略的是对灾难恢复、备份、快照或者其他数据保护方案的支持。上述因素将对数据中心及业务产生深远的影响。
作者:何妍
来源:51CTO