跳转至

第七章 指导白皮书

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
                +----------+
                |Memory    |
                |          +==>
                |Structure |
                +----+-----+
                     |CPU
  -------------------+---------------
  Memory-CODE-->|HOST-XXX||VM-XX|---
  ------------------+----------------
                    |CPU
                    +
  Stroage-->|---Controller----|---DATA-----|---
                    |CPU
                    +
  Network-->|---Controller----|---DATA-----|---

1. 软硬件配置

算法设计完成后如果有高频需求,可能需要设计FPGA。

目前采用Xilinx的Zynq MPSoC以及Kintex-7两款FPGA,基础设施以及业务层面,可加速的内容都非常多,包括负载均衡、算法固化、加解密、网络卸载等。

HPC集群暂时使用ARM+NVIDIA架构,无实时处理部分,仅训练以及函数计算服务。

考虑到部分数据传输延迟问题,会采用CPLD/FPGA或专用无线电微波传输,频率在6GHz以上(低于此的意义不大),目前成熟产品为80Ghz,速率为3Gbps。如此以来,伦敦到法兰克福(396英里,673公里)的延迟可从传统光传输所花费的17ms降至4.2毫秒。

一直想搞台大型机,哪怕是玩玩扫雷也成,所以基础设施中先加个玩具大型机。

1.1. FPGA处理技术指标

1.2. 基于ARM与NVIDIA GPU或FPGA TPU的HPC集群

https://github.com/Xilinx/ml-suite

1.3. FPGA加速机器学习框架

1.4. 无线电微波传输降低延迟

1.5. IBM大型机模拟器Hercules(迁移)

1.6. 高性能虚拟化

2. 交易备注

  1. 来源函数、即时指标

3. 平台建设

站点暂定日本节点与国内节点,美国节点先不开通。节点间信息同步延迟及带宽可使用同一家IDC方式解决,搜索引擎可采用分布式,数据库可用分布式,存储可跨国同步。

功能菜单

新闻查看

新闻搜索

汇市查看