la red

Construyendo una plantilla para la futura red 6G

Crédito: Pixabay / CC0 Public Domain

Las redes tradicionales no pueden satisfacer las demandas de la informática moderna, como la informática de vanguardia y los servicios que exigen ancho de banda, como el análisis de vídeo y la ciberseguridad. En los últimos años, ha habido un cambio importante en el enfoque de la investigación de redes hacia las redes definidas por software (SDN) y la virtualización de funciones de red (NFV), dos conceptos que podrían superar las limitaciones de las redes tradicionales. SDN es un enfoque de la arquitectura de red que permite controlar la red mediante aplicaciones de software, mientras que NFV busca trasladar funciones como firewalls y cifrado a servidores virtuales. SDN y NFV pueden ayudar a las empresas a desempeñarse de manera más eficiente y reducir costos. No hace falta decir que una combinación de los dos sería mucho más poderosa que cualquiera de ellos solo.

En un estudio reciente publicado en Transacciones IEEE sobre computación en la nube, investigadores de Corea proponen ahora una arquitectura de red SDN / NFV combinada que busca introducir funciones computacionales adicionales a las funciones de red existentes. “Esperamos que nuestra infraestructura basada en SDN / NFV sea considerada para la futura red 6G. Una vez que se comercialice 6G, la técnica de gestión de recursos de la red y el núcleo informático se puede aplicar a AR / VR o servicios holográficos”, dice el Prof. Jeongho Kwak del Instituto de Ciencia y Tecnología de Daegu Gyeongbuk (DGIST), Corea, que fue parte integral del estudio.

La nueva arquitectura de red tiene como objetivo crear un marco holístico que pueda ajustar los recursos de procesamiento que utilizan procesadores diferentes (heterogéneos) para diferentes tareas y optimizar la red. El marco unificado admitirá el encadenamiento dinámico de servicios, lo que permite utilizar una única conexión de red para muchos servicios conectados como firewalls y protección contra intrusiones; y descarga de código, que implica el traspaso de tareas computacionales intensivas a un servidor remoto rico en recursos.

Para minimizar el costo del sistema y maximizar la calidad de servicio (QoS), los investigadores desarrollaron un algoritmo de RMR dual (control de velocidad de envío de recursos dobles y enrutamiento de múltiples rutas) que busca evitar la congestión de la red y mejorar el rendimiento y la seguridad regulando el flujo de datos en la red y utilizando múltiples rutas alternativas para su transmisión.

Luego probaron su algoritmo en varios escenarios de juguetes y un escenario a gran escala del mundo real para evaluar su aplicabilidad práctica. “El marco puede ofrecer de manera eficiente y óptima los recursos apropiados para las aplicaciones que requieren diferentes recursos informáticos, de almacenamiento y de red en función del espacio disponible y el tiempo que se utilizará”, explica el profesor Kwak.


Similar Posts

Leave a Reply