5.5 C
Madrid
jueves, febrero 27, 2025

Softbank, AI-RAN y D-MIMO (ángulo del analista)


Softbank publicó los resultados de las pruebas de su experimento para demostrar la integración de alto rendimiento de GPU y RAN durante el último mes. Agradezco su transparencia, haciendo públicos los datos. Aquí están mis observaciones iniciales:

  1. El rendimiento de su grupo es impresionante. Apiñaron 20 radios 4T4R en un área de prueba de aproximadamente 100 mx 400 m y alcanzaron un rendimiento whole máximo de 1,48 Gbps en 100 MHz de espectro. Eso es casi 15 bps/Hz.
  2. Softbank informa que durante la prueba, el servidor centralizado (2 ‘superchips’ Grace Hopper GH200) consumió 500W de potencia CC en promedio. Esto es notable y sorprendentemente bajo. Buen trabajo por parte de NVIDIA, cerrando núcleos y otros recursos no utilizados para esta carga de trabajo de RAN.
  3. La capacidad para manejar el rendimiento máximo fue buena. La prueba implicó la transmisión de vídeo HD a 100 teléfonos inteligentes simultáneamente. Cuando comenzaron las sesiones de transmisión, todos los teléfonos inteligentes estaban almacenando en búfer al mismo tiempo, lo que generó una demanda máxima de rendimiento. Posteriormente, los buffers se llenaron y el rendimiento se estabilizó a un nivel mucho más bajo. Softbank no informó sobre el consumo de energía CC durante el pico.

Bien, la prueba fue una excelente manera de mostrar un alto rendimiento en un clúster RAN. El siguiente paso es determinar “¿qué significa?”. Tengo varios pensamientos aquí:

En primer lugar, Softbank configuró esta prueba como una configuración RAN centralizada con un servidor DU central y 20 RU remotas. Esto permitió a Softbank utilizar el procesamiento MIMO distribuido, que se sabe que aumenta la eficiencia espectral entre 2 y 3 veces en productos y pruebas anteriores. El aspecto D-MIMO del rendimiento es la razón más importante de la alta eficiencia espectral, no el uso de GPU. He visto otras pruebas con eficiencia espectral en el rango de 12-20 bps/Hz usando ASIC en lugar de GPU.

Si eliminamos el impacto de D-MIMO de la ecuación de eficiencia espectral, el rendimiento aquí es related al de las redes MIMO masivas 5G, con un rendimiento máximo de alrededor de 5-8 bps/Hz. Entonces, mi primera conclusión es que las GPU pueden funcionar con éxito al mismo nivel de capacidad que las soluciones ASIC o las CPU.

En segundo lugar, señalaría que el consumo de energía informado por Softbank es el consumo de energía promedio, no la energía máxima requerida durante un período de rendimiento máximo. Sospecho que hay algo de prestidigitación aquí, ya que los dos ‘superchips’ GH200 pueden consumir hasta 2kW de energía. Eso todavía no es tan malo para un grupo denso de 20 radios, con solo 100 W por RU para el procesamiento de DU.

Soportar un mayor consumo máximo de energía CC significa que los operadores necesitarían convertidores AD/DC más grandes y posiblemente aires acondicionados más grandes o incluso refrigeración líquida.

En tercer lugar, Softbank presenta la baja potencia promedio de CC como evidencia de que este grupo es “rentable”. Esto puede ser cierto en lo que respecta al OPEX, con una eficiencia energética sorprendentemente alta a un bajo rendimiento. Pero tengo serias dudas por el lado del CAPEX. Si comparo el costo de dos GH200 con veinte DU basadas en ASIC, las GPU todavía parecen caras a más del triple del costo.

Al remaining del día, concluyo que esta prueba es una excelente manera de demostrar un alto rendimiento para un clúster de alta densidad. Para un estadio de fútbol o un aeropuerto, el GH200 centralizado y el D-MIMO podrían ser una buena opción. En ese tipo de entorno abarrotado, utilizar fibra para un gran número de radios sería posible y rentable, y la densidad ultraalta de D-MIMO impulsa la centralización de todos modos.

Por otro lado, no creo que el enfoque GH200 pase la prueba de «bajo costo» para una pink móvil generalizada, especialmente en lugares donde la fibra es más difícil y costosa de implementar. También existen desafíos operativos y de modelo de negocio con las empresas de telecomunicaciones que ofrecen servicios de inteligencia synthetic. He publicado algunos pensamientos detallados sobre este tema. aquí.

Para el mercado en common, creo que veremos integraciones de núcleos de GPU con ASIC. Ningún operador quiere pagar por dos GH200 (144 núcleos de GPU y toda la memoria y otro soporte que los acompaña). Obtener una licencia de la tecnología GPU e insertar uno o dos núcleos en un ASIC puede resultar mucho menos costoso. Podemos obtener muchos de los beneficios de las inferencias de IA, el procesamiento RAN eficiente y la alta capacidad con una aplicación más quirúrgica de las GPU donde sea necesario.

Related Articles

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Stay Connected

0SeguidoresSeguir
0SuscriptoresSuscribirte
- Advertisement -spot_img

Latest Articles