第七章 指导白皮书
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
|
1. 软硬件配置
算法设计完成后如果有高频需求,可能需要设计FPGA。
目前采用Xilinx的Zynq MPSoC以及Kintex-7两款FPGA,基础设施以及业务层面,可加速的内容都非常多,包括负载均衡、算法固化、加解密、网络卸载等。
HPC集群暂时使用ARM+NVIDIA架构,无实时处理部分,仅训练以及函数计算服务。
考虑到部分数据传输延迟问题,会采用CPLD/FPGA或专用无线电微波传输,频率在6GHz以上(低于此的意义不大),目前成熟产品为80Ghz,速率为3Gbps。如此以来,伦敦到法兰克福(396英里,673公里)的延迟可从传统光传输所花费的17ms降至4.2毫秒。
一直想搞台大型机,哪怕是玩玩扫雷也成,所以基础设施中先加个玩具大型机。
1.1. FPGA处理技术指标
1.2. 基于ARM与NVIDIA GPU或FPGA TPU的HPC集群
https://github.com/Xilinx/ml-suite
1.3. FPGA加速机器学习框架
1.4. 无线电微波传输降低延迟
1.5. IBM大型机模拟器Hercules(迁移)
1.6. 高性能虚拟化
2. 交易备注
- 来源函数、即时指标
3. 平台建设
站点暂定日本节点与国内节点,美国节点先不开通。节点间信息同步延迟及带宽可使用同一家IDC方式解决,搜索引擎可采用分布式,数据库可用分布式,存储可跨国同步。