Grado de dificultad: 2 (Es más difícil de entender que técnicamente complicado).

Columnista: Roberto

Hablar de tráfico es diferente de velocidad. Es el centro del engaño de la promoción de la 5G.

Repitámoslo: los nerdos de TMN no tienen nada en contra de la tecnología IMT-2020 en sí. Es la manera de presentarla lo que nos deja boquiabiertos.

La evolución del tráfico en redes de celular

Una preocupación que viene de la “2G”

El tráfico en redes de celular es un tema que empezó a preocupar a los fabricantes y operadores durante la última década del siglo XX.

La razón fue el éxito arrollador de la tecnología GSM (por varias razones, no todas tecnológicas).

Todos se dieron cuenta que, con el crecimiento exponencial del número de usuarios, las estructuras convencionales de redes no daban abasto.

Las redes estaban pensadas únicamente en términos de cobertura geográfica.

En zonas con muchos usuarios (AKA las ciudades), eso provocaba una grave congestión del tráfico en celdas, que ni enormes equipos podían aguantar.

La idea central fue que necesitaban reducir la cobertura de estas celdas, luego aumentar su número por unidad de área.

En otros términos, necesitaban densificar las redes (más celdas, más pequeñas), para que cada celda tuviera menos usuarios conectados.

Noción de Microcell

En los años de 1995 a 2000, dos fabricantes de equipos (Alcatel y Motorola) trabajaron sobre esta cuestión.

Diseñaron una solución que permitía guardar la estructura existente en una “capa”, y crearon una nueva capa.

La capa existente fue renombrada “capa macro” (o “umbrella”), mientras que una nueva capa inferior se llamaba “capa micro”

Concepto de red a dos capas - Origen TMN

El trafico principal era manejado en la capa micro, mientras que la capa macro se usaba para los casos donde la cobertura radio presentaba problemas. Era una solución muy eficiente.

Sin embargo, esta idea tenía un inconveniente. Al final del siglo pasado, el recurso computacional a poner en cada equipo de transmisión era alto.

La “capa microcell” era, entonces, una solución más costosa que la de una capa única “macrocell”. En este entonces, esta solución no prosperó.

La 3G, una tecnología que se auto interfiere

Era el final de la era 2G (GSMGPRSEDGE). Luego, la situación empeoró.

Con el desarrollo de Internet, las tecnologías 2G se mostraron incapaces de maneja el aumento de velocidad requerido.

La elección de tecnología para 3G fue dolorosa, porque la única opción conocida a esa época se llamaba CDMA, una técnica prevista inicialmente para la telefonía satelital (IRIDIUM).

Con una adaptación y varias mejoras, UMTS retomó este principio y evolucionó hacia HSPA.

UMTS/HSPA permitió aguantar una banda relativamente ancha, pero siempre sufrió de una grave debilidad de CDMA: el sistema se auto interfiere.

Precisamos, para los no especialistas en radio, ¿qué es una interferencia? Ocurre cuando una señal radio “parásita” se presenta en la misma frecuencia de trabajo de un canal radio.

Es como estar hablando en la calle, y que pase una ruidosa ambulancia: durante este lapso, se vuelve imposible comunicarse.

En el caso de la 3G, esta interferencia es producida por la misma señal “útil” …

Una estructura que no evoluciono durante 15 años

¿Por qué, entonces, se eligió una tecnología tan frágil? Porque “no había de otra” y también porque era urgente encontrar una solución.

Es la razón por la cual nunca se pudo densificar las redes y, en particular, adaptar la noción de red a dos capas a esta tecnología.

El resultado es la estructura de red que conocemos: una celda cada 300 metros (en promedio). En 3G, nunca se pudo hacer más denso, porque las celdas se interferirían demasiado.

Las redes actuales son herederas de esta problemática, basta con mirar a su alrededor en zona urbana.

La “4G” y un renacimiento fallido

La evolución hacia la “4G” (AKA LTE), corresponde a la aparición de una solución más eficiente, y que no sufre de esta desastrosa debilidad.

Así, al inicio la decada de 2010, los fabricantes de equipos retomaron este mismo tema de las redes a dos capas.

El diagrama a continuación (documentación de origen ZTE) es solo un ejemplo (todos lo reestudiaron):

Dual Layer según ZTE - Origen ZTE

La razón es idéntica al caso de los años 90: la congestión de tráfico que reduce la velocidad disponible para cada teléfono.

Mientras tanto, la parte computacional se volvió muy económica, jugando ahora en favor de la adopción de esta estructura, ahora.

Pero si la solución es ahora válida y los fabricantes están preparados, no ocurre lo mismo con los operadores de redes.

Pasaron del orden de 15 años durante los cuales la competencia entre operadores se volvió una guerra.

Todos se pusieron a “optimizar” los costos para proponer contratos “más interesantes” para los clientes finales.

Damos unas cifras: en la situación actual, es posible mejorar sustancialmente la velocidad de navegación en un smartphone 4G.

Una evaluación aproximada indica que se requiere una celda cada 50 metros (o menos en zonas densas) para permitir una velocidad del orden de 20 Mb/s en un teléfono.

¿Comó? Si hay menos teléfonos conectados a una celda, su tráfico se divide proporcionalmente menos.

Estamos hablando de los teléfonos que tenemos actualmente en nuestros bolsillos.

Consecuencias para nosotros

Pero, como lo pueden imaginar, la inversión requerida es muy grande: pasar de una celda cada 300 metros a una cada 50 metros representa un factor superior a 30 (por unidad de area):

  • Este factor 30 es en equipos completamente nuevos,
  • Las conexiones hacia estos equipos son también nuevas,
  • Estas conexiones deben ser por fibra óptica (la velocidad total de una celda LTE es de 380 Mb/s),
  • Los nodos de fibra ópticas son nuevos,
  • Para monitorear este enorme numero de equipos, se requiere un sistema de supervisión nuevo,
  • Se requiere el personal de mantenimiento para este nuevo sistema.

La respuesta de los operadores fue, hasta ahora, muy sencilla: no lo hicieron.

Esperaron que los clientes no se dieran cuenta de la mediocridad de los resultados actuales, mientras que siguieron limitando el volumen de datos autorizados mensualmente.

¡Fatal error! Todos se dieron cuenta ¿Cierto?

Es la exacta razón por la cual todos usamos los WIFI de cada casa que visitamos: “mejor velocidad y costo inferior”.

Uno de los efectos perverso de esta decisión es que nadie ve un interés en cambiar de teléfono frecuentemente. ¿Para qué, si, al final, se trata de conectarse a un WIFI?

El problema actual no es una “debilidad tecnológica” de la 4G (la 5G no es mucho mejor). Es el retraso estructural generalizado de las redes celulares.

La 5G y el falso milagro

Es en esta situación que llegó la “5G”. La idea es:

  • Que los clientes vuelven a comprar nuevos teléfonos (más costosos, obviamente).
  • Que dejen de usar el WIFI de sus casas para gastar datos celulares (que seguirán limitados de una manera u otra).
  • Hasta se podría convencerlos de que reemplacen su conexión actual por una de celular…

Para eso, se organizó una campaña promocional muy agresiva.

Como toque final, se dio a los operadores la oportunidad de actualizar sus redes:

  • Prometieron velocidades espectaculares (que no pueden alcanzar en las mismas condiciones).
  • Por eso, la idea es densificar las redes aprovechando la ola de entusiasmo y culpando a la 4G.
  • Hay que sacrificar al culpable (la 4G) para lograrlo (y para que los operadores compren nuevos equipos).
  • Se sugiere, además, que los clientes abandonen todas las demás soluciones (AKA FTTH).

Es básicamente lo que sugieren las presentaciones sobre la 5G (solo estamos repitiendo los argumentos).

Podrían creer que hemos agotado el tema, no es así: ¡hay más!

Nuestro próximo artículo hablara de un elemento técnico que distorsionan: la noción de RTT (Round Trip Time), más conocido como “ping”.

Parte 2

5G – La hora de la verdad 3: Tráfico

Parte 4
Header Kirabytes