Tendencias en gestión de red
Ramón J. Millán.
01 MAY 2004
La gestión de red centralizada es una tarea estratégica para todas las operadoras. Dicha gestión ha cambiado mucho durante los últimos años, debido principalmente al enorme crecimiento que han experimentado las redes de telecomunicaciones en cuanto a fabricantes, dispositivos y tecnologías.
Durante los años del monopolio, con la gestión de red se buscaba, además de encontrar y solucionar problemas, automatizar de forma remota y centralizada aquellas tareas que suponían para los operadores la dedicación de mucho tiempo y, generalmente, el desplazamiento físico del personal técnico, como efectuar cambios en la configuración de los equipos o gestionar su rendimiento. La liberalización de los antiguos monopolios de telecomunicaciones, a finales de los años 90, introdujo grandes cambios en la gestión de red, haciéndose necesario, entre otras cuestiones, controlar un número creciente de equipos y tecnologías de diferentes suministradores, e introducir nuevos servicios de forma gradual. Por otro lado, la necesidad de una mayor agilidad en la prestación de los servicios hace ahora que cada vez se valore más que los sistemas permitan conocer no sólo los fallos que se pueden estar produciendo en la red en un momento determinado, sino también poder anticiparse a su aparición y saber cómo reaccionar en caso de que se produzcan. Es muy importante además que el sistema de gestión proporcione la información adecuada, pues es tan mala la falta de información como el exceso.
El papel del estándar TMN
La heterogeneidad de los equipos involucrados dentro de una misma red, así como el lento proceso de estandarización, ha supuesto que cada suministrador haya ido desarrollando su propio software de gestión, con formatos de bases de datos incompatibles en muchos aspectos. Es más, cada tecnología (ADSL, HFC, SDH, DWDM, ATM, LMDS...) a supervisar utiliza aplicaciones de gestión diferentes, desarrolladas en distintos lenguajes de programación y soportadas sobre diferentes sistemas operativos. El crecimiento de las redes ha supuesto también que las bases de datos, que antes estaban centralizadas en un único servidor de gestión, sean distribuidas a lo largo de varios servidores. De hecho, muchas de esas bases de datos son redundantes, con el fin de aumentar la robustez del sistema ante fallos habituales (fallos hardware, fallos de sistemas operativos, ataques de virus, etc.). El aumento de la competencia ha derivado en un vertiginoso ritmo de desarrollo de nuevos servicios, cada vez más avanzados y personalizados, por lo cual es imprescindible que el sistema de gestión permita que estos servicios sean implementados de forma gradual.
La norma TMN (Telecommunications Management Network) fue introducida por la ITU-T en 1988 para facilitar el desarrollo de entornos de gestión distribuidos y heterogéneos. Para ello, proporciona una arquitectura en capas para todas las funciones de las aplicaciones de gestión, además de los protocolos de comunicación entre los elementos de red y el gestor centralizado, entre distintos gestores de red, y entre estos gestores y los operadores humanos. Sin embargo, TMN presenta también muchos inconvenientes, su complejidad el mayor de ellos. Se basa en un sistema de computación distribuida relativamente antiguo (no soporta CORBA) que sólo contempla una extensión de CMIP como protocolo de gestión de red (no soporta SNMP), y X.25 como protocolo de transporte de datos (no admite TCP/IP). Por ello, y a la espera de que estas limitaciones sean solventadas en versiones posteriores, se emplea principalmente como marco de referencia para el desarrollo de herramientas de gestión de red.
TMN describe el paradigma gestor-agente, utilizado también por los principales modelos de gestión de red de nuestros días, como SNMP o CMIP. El software gestor, encargado de sondear a los agentes, se instala generalmente sobre una plataforma Unix, debido a sus altas prestaciones, robustez y fiabilidad; no obstante, actualmente se están incrementando las aplicaciones desarrolladas para sistemas operativos Linux, debido a su combinación de altas prestaciones y bajo precio. La parte cliente se instala sobre cada uno de los elementos de red a gestionar y consiste en un software agente, encargado de la comunicación con el gestor, y una base de datos con información de gestión o MIB.
TMN define también una serie de funciones de gestión, distinguiendo claramente las que se encuentran en el gestor local y las que lo hacen en el gestor de red. El gestor local es el software encargado de la configuración de los elementos de red, y puede ser utilizado en las dependencias locales cuando es provisionado el nodo, o en remoto cuando hay que cambiar algún parámetro de su configuración. El gestor de elemento es el software utilizado en el centro de supervisión remoto para realizar la gestión de fallos, configuración, contabilidad, rendimiento y seguridad (conocida como FCAPS en terminología TMN), sin considerar la topología de la red (enlaces, circuitos, etc.). El gestor de subred, integrado en muchas ocasiones en la misma plataforma que el gestor de elemento, es utilizado para manejar todas las áreas funcionales definidas en FCAPS, incluyendo la provisión de circuitos y la representación de la topología de la red.
Los gestores de subred actuales suelen estar programados sobre Java, pues presenta las mismas ventajas que otros lenguajes orientados a objetos empleados tradicionalmente en este tipo de desarrollos (principalmente C++), destacando, entre otras, la facilidad con que es posible reutilizar el software. Además, Java aporta ventajas añadidas, como una programación más sencilla e independencia del software desarrollado respecto de plataformas. Esto permite crear más rápidamente y a menor coste sistemas de gestión de red, lo cual rendundará en un precio final más bajo. Además, el hecho de que el gestor desarrollado sea independiente de la plataforma, es algo muy atractivo, porque el usuario final puede elegir la que desee para instalar el sistema (Unix, Linux, Windows), dependiendo, principalmente, del número de usuarios y elementos de red a soportar.
CMIP y SNMP
Durante estos años se ha producido también un intenso debate acerca de qué protocolo de gestión de red acabará imponiéndose al resto. La utilización de distintos protocolos aumenta la complejidad y heterogeneidad de las redes, algo que no es en absoluto deseable. Los protocolos de gestión de red más importantes en estos momentos son SNMP (Simple Network Management Protocol) y CMIP (Common Management Information Protocol). SNMP es un protocolo de la capa de aplicación que forma parte del conjunto de protocolos TCP/IP de Internet y, por su amplia utilización en redes empresariales, es considerado el estándar de facto en detrimento del protocolo CMIP de la familia de protocolos OSI, más utilizado en las grandes redes de las operadoras de telecomunicación.
El primer protocolo que se usó fue SNMP en 1988. Se diseñó como algo provisional para “ir tirando” hasta que se desarrollara otro protocolo más elaborado. CMIP fue diseñado teniendo en cuenta SNMP, solucionando sus errores y fallos, convirtiéndose así en un gestor de red mucho más potente. No obstante, su gran complejidad desestimó su uso, sobre todo en las redes empresariales.
SNMP siguió evolucionando, dando lugar en 1993 a SNMPv2, que define un mayor númer
español
La Gestión de red se define como el conjunto de actividades dedicadas al control y vigilancia de los recursos existentes en las redes de telecomunicaciones. En los complejos sistemas actuales, es necesario realizar una gestión de la red asistida por un software avanzado. La Inteligencia Artificial se incorpora a la gestión de las redes, con el fin de facilitar labores de administración y control de toda la información que proviene de los recursos gestionados, dando origen a la Gestión Inteligente de las Redes. Este nuevo paradigma, proporciona a los sistemas de gestión de un mayor grado de cohesión con las tecnologías de comunicaciones actuales, a la vez de disponer de todas las posibilidades y ventajas aportadas por la Inteligencia Artificial. Nuestro estudio tiene como objetivo perfeccionar las técnicas actuales de gestión. Para ello se establecen mecanismos que permiten una mayor correlación entre las especificaciones de la red y las aplicaciones que efectúan el tratamiento de la información de gestión. Presentamos una nueva concepción denominada “Gestión Inteligente Integrada” y una extensión del modelo de gestión OSI, que contempla la inclusión del conocimiento de gestión, en las propias especificaciones de los objetos gestionados. Este modelo consigue reunir conceptos que actualmente pertenecen a distintos ámbitos de estudio, la Inteligencia Artificial y la Información de Gestión del sistema. De esta forma se obtiene una solución global, que permite a los administradores de redes utilizar la potencia aportada por la Inteligencia Artificial, en particular de los Sistemas Expertos, de una forma sencilla y transparente.
Joan Taule.
01 MAR 1999
Hoy en día la pequeña y mediana empresa, al igual que la gran empresa desde hace ya bastante más tiempo, depende más que nunca de su infraestructura informática . Podemos afirmar sin miedo que la red es la espina dorsal del negocio .
La disponibilidad constante, sin interrupciones, y el rendimiento óptimo de la red, se han convertido en factores fundamentales para el éxito de la empresa . El más pequeño problema con la red puede tener efectos demoledores y causar pérdidas en las ventas, clientes descontentos, credibilidad cuestionada en el mercado y pérdida de productividad .
Seguridad, distribución de software, gestión de los recursos, help desk, almacenamiento, gestión de red, comercio electrónico, antivirus, fax en red, bases de datos, control remoto, son parte de la multitud de disciplinas que las PYMES deben considerar en su estrategia de empresa a fin de proteger sus inversiones en TI, ahorrar costes, y más importante aún, posicionarse estratégicamente ante la competencia .
Las PYMES necesitan soluciones fáciles de usar y de gestionar que puedan ser implementadas de forma gradual . ¿ Por qué ? Pues básicamente porque la mayoría no dispone de un departamento informático o de un administrador de red que pueda hacerse cargo del buen funcionamiento de la infraestructura informática de la empresa . Y basándonos en este entorno, términos como sencillez, escalabilidad y facilidad de uso y gestión deben ser las características principales de cualquier producto en el que se deba invertir .
Hay varias maneras de ver o justificar la necesidad de invertir en estas soluciones, pero quizás la más interesante es la que sitúa al usuario en el punto de partida . A partir del trabajo diario de un usuario de la red informática, es relativamente fácil justificar cuáles son las inversiones mínimas que debe realizar cualquier empresa para que su infraestructura informática aporte beneficios directos al negocio .
Gestión de red
Imaginemos que nuestro usuario llega a la oficina y después de arrancar su ordenador, introduce su nombre de usuario y su contraseña . Inmediatamente, y si nada lo impide, podrá acceder a todos los recursos de la red: servidores de aplicaciones y de archivos, impresoras, correo electrónico, servidor de fax, intranet, y empezar su trabajo diario .
Nuestro usuario necesita poder consultar sus bases de datos, utilizar su sistema de mensajería y trabajar conjuntamente con el resto de la empresa vía groupware, enviar faxes desde su estación de trabajo, imprimir en las impresoras, conectarse a Internet, y todo ello en un entorno completamente heterogéneo y distribuido .
Detengámonos en este punto . Para que nuestro usuario pueda desempeñar su trabajo diario es absolutamente indispensable que pueda hacer uso de todas las herramientas informáticas que la empresa pone a su disposición . Las redes hetereogéneas son una realidad innegable en el entorno de TI actual, y si nuestra empresa ficticia opera mejor que la mayoría, dispondrá de este tipo de entorno . Por lo tanto, es necesaria una solución de gestión de red que nos permita comprobar y asegurar el rendimiento óptimo de los recursos informáticos desde el punto de vista del usuario final y el sistema en un entorno de estas características . Esta herramienta nos ha de permitir alinear la gestión de red con los objetivos empresariales y asegurar que las prioridades utilizadas en la gestión de red coinciden con las aplicadas para administrar la empresa . También ha de garantizar los niveles de servicio en términos de rendimiento y disponibilidad, y ayudar a mejorar la eficacia de las inversiones en tecnologías de la información .
Una gestión eficaz nos asegurará que nuestros sistemas de negocio siempre estén activos y que nuestro usuario disponga de las herramientas básicas para desempeñar su trabajo diario .
Gestión de los activos
Retrocedamos un poco, justo en el momento en que nuestro usuario ha arrancado su máquina . ¿ Qué hay de los recursos hardware y software ? ¿ Quién los controla ? Hoy en día muy pocas empresas tienen perfectamente inventariado el software y hardware que tienen instalado en su red . Diferentes generaciones de hardware ( 386, 486, Pentium, CD-ROM, Multimedia ) y versiones de software ( DOS, OS/2, Mac, Windows ) conviven en la empresa, de tal manera que no es fácil aplicar políticas de empresa de forma consistente en un entorno tan heterogéneo . Desafortunadamente, son frecuentes los casos en los que no se puede instalar una nueva aplicación crítica de negocio o aplicar una simple actualización de sistema operativo porque no todos los ordenadores personales cumplen los requisitos mínimos .
Existen muchas aplicaciones y configuraciones no estandarizadas en todas las estaciones de trabajo y numerosos perfiles de usuario ( usuarios remotos, en red, móviles ) que hacen difícil la gestión de este tipo de activos .
La tendencia actual al entorno de cliente/servidor provoca que los negocios dependan en exceso de sus estaciones de trabajo, que se han convertido en el punto de acceso a toda la información y a los recursos corporativos . Sin embargo, las estaciones de trabajo también son recursos de difícil gestión, cuyos costes disparan la mayoría de las inversiones actuales en infraestructura informática de la PYME . Por lo tanto, se hace patente la necesidad de tener herramientas que nos permitan gestionar proactivamente los recursos hardware y software de nuestra empresa, de tal manera que sea posible obtener inventarios automáticos de todos los activos de la red y tomar las decisiones antes de aplicar alguna política corporativa . Estas aplicaciones al margen de inventariar deben permitirnos instalar y configurar sistemas operativos automáticamente, ejecutar políticas de distribución y actualización de software, forzar configuraciones estándar y proteger la información en todas las estaciones, entre otras funcionalidades . Con estas herramientas la empresa conseguirá reducir drásticamente los costos derivados del mantenimiento y actualización de sus activos informáticos, que según diversos estudios independientes, pueden representar el 75 por ciento del coste total de propiedad .
Soporte al usuario
Volvamos a nuestro usuario y su arduo trabajo diario inmerso en las últimas tecnologías del sector informático . Con frecuencia, el usuario necesita apoyo técnico para resolver algún problema, ya sea por el mal funcionamiento de alguno de los recursos de la red, incluida la estación de trabajo, o bien por la falta de conocimientos del usuario, incapaz de asimilar los numerosos cambios dentro del mundo de la informática y las comunicaciones .
Llegados al punto crítico en que el usuario no puede continuar con sus tareas básicas y el negocio queda interrumpido, el usuario debería tener dos posibilidades: o bien consultar sus dudas a una aplicación helpdesk, al estilo de la ayuda en línea que proporcionan la mayoría de sistemas operativos y aplicaciones, o bien, en su defecto, consultar al administrador de la red . En el primer caso será necesaria una base de datos de conocimientos que el departamento de soporte deberá ir alimentando con información sobre problemas y posibles soluciones . Esta base de datos deberá contener información clara y concisa, fácilmente localizable que permita a nuestro usuario solucionar de forma eficaz la mayoría de los problemas comunes sin intervención del administrador . En el segundo caso, cuando la intervención del administrador sea requerida, este deberá disponer de información actualizada sobre la red, la estación de trabajo del usuario y, finalmente, de herramientas que le permitan tomar el control remoto, ahorrando de esta manera tiempo y recursos .
Seguridad de los sistemas y los da
Post a Comment