LightCounting最新一期邮件的主题是100G 数据中心用模块有多少种技术方案。虽然这个内容有些老生常谈,在此做过总结也不是坏事。
100G光模块的技术方案最早要追溯到2010年,IEEE 802.3ba项目组推出的100G SR10, LR4和ER4三个标准,分别针对100米,10公里和40公里传输。随后成立的802.3bm工作组新增了100G SR4项目,但是2013年却难以就500m 的PMD标准达成共识。500米是数据中心应用的重点,在IEEE标准空缺的情况下,工业界推出多个MSA试图弥补这一空挡,包括了100G-PSM4, 100G CWDM4和100G CLR4。此外,针对2公里的应用,一些厂商还推出了LR4 lite的模块。
所有这些500米到10公里以下的模块MSA中,采用CWDM波长被认为比LAN-WDM波长成本更低,因此获得了更多青睐。CWDM-MSA在2公里MSA之外又新增了10公里,20公里和40公里规范。ITU-T的15工作组定义了25公里的100G-ER4-Lite(标准 4L-9D1F)规范,采用APD代替SOA。
对于2016年热销的各类数据中心用100GbE模块来说,普遍采用的是25Gbps的Serdes方案,这一ASIC的主要供应商是Broadcom。现在部分厂商开始尝试50Gbps的Serdes和激光器产品。今年OFC上已经有厂商展示基于50Gbps方案的100G-CWDM2方案。
对于IEEE的标准制定者来说,此前一直沿着每单通道从10G到25G再到50G的路线来定义光层的物理层需求。这样看200Gbps似乎是自然的下一步。不过今年新成立的IEEE 802.3cd工作组瞄准了50Gbps及其基于50GbE的100GbE和200GbE标准。这一计划的首个目标是50Gbps刀片服务器的背板需求,下一步是机架服务器的铜线和MMF 物理层需求。今年5月份又推出了2X50Gbps的SMF物理层标准制定计划。不过,关于100Gbps单波长串行的辩论一直就没有停止过。
本文转自d1net(转载)