REDES DE CISCO
2.1 Fundamentos de redes
El trabajo en redes geográficas por su
naturaleza y, por ello, muchas tareas del diseño están
relacionadas con ajustar la topología a nuestras necesidades.
El diseño de una red radica de forma implícita su rendimiento
y su escalabilidad indica cuánto puede crecer una red sin
tener que cambiar la forma básica de su topología.
Revisión de los fundamentos de red
Segmento LAN; concentradores y conmutadores
de segmento Lan, los componentes básicos de cualquier red. Un
segmento Lan puede ser una Lan de departamento o una red
troncal Lan de alta velocidad que da servicio a otros muchos
segmentos Lan dentro de una empresa.
Dominio de colisión y difusión
Un dominio de una colisión es un medio de red
compartido en el que se permite colisionar a los paquetes de
Ethernet; un dominio de difusión es el área donde se puede
enviar mensajes a todas las estaciones usando la llamada
dirección de difusión. Es necesario hacer que los dominios de
colisión sean pequeños, ya que las colisiones limitan el uso
del ancho de banda. Cuanto más equipo se conecta al segmento
Lan, más lento es el tráfico.
La mayoría de los dominios de colisión están
formados por concentradores que conectan dispositivos de
equipo a la red. Los concentradores son el equivalente
funcional de los segmentos de cable Ethernet que se utilizaban
en los albores de la interconexión de redes de área local.
Un dominio de difusión es el área de red en
la que se transmiten los mensajes difundidos. Como
recordatorio, las difusiones usan el número IP decimal
reservado 255; por lo tanto, para mandar mensajes a todos los
dispositivos dentro de una red 298.92.182 habría que
direccionarlo a 289.92.182.255. Algunas difusiones son útiles,
pero otras sólo complican la red, saturándola con tráfico
inútil, un fenómeno poco deseado que se conoce con el nombre
de tormenta de difusión. Los dominios de difusión son por
defecto, lo mismo que los dominios de colisión de una red de
medios compartidos, es decir, concentrar, pero el alcance de
las direcciones de difusión pueden hacerse menor que un
dominio de colisión usando conmutadores. Los enrutadores
suelen limitar las difusiones, pero es posible expresar un
dominio de difusión configurando un enrutador para que se deje
pasar mensajes de difusión.
Ancho de banda frente a ancho de banda
conmutada
Los conmutadores también conectan equipos a
redes, pero de forma totalmente distinta. Una red de
conmutadores que divide el tiempo en fragmentos accede a los
equipos que tiene conectados de forma que cada puerto
conmutado forma un canal con un dominio de colisión. Esto se
llama ancho de banda conmutada, al contrario que el ancho de
banda compartido de los concentradores. Se calcula que las
redes conmutadas son diez veces más rápidas que las redes
compartidas en las mismas condiciones.
Por otra parte, las redes conmutadas aceptan
Lan virtuales (VLAN), que permitiendo al administrador agrupar
usuarios racionalmente en lugar de tener que agruparlos de
acuerdo con el concentrador al que se conectan los
dispositivos del equipo. Por tanto, un concentrador compartido
por dos o más equipos forma un dominio de colisión; un
concentrador no.
Además de formarlos conectando equipos, los
grandes conmutadores conectan segmentos Lan para formar redes
mayores. Para evitar la confusión, los dos tipos de
conmutadores se llaman a menudo conmutadores de acceso y
conmutadores de Lan o de red troncal.
Los enrutadores controlan las redes
El tercer dispositivo básico de una red es el
enrutador. Los enrutadores conectan segmentos Lan en lugar de
equipos, como lo hacen los concentradores y los conmutadores
de acceso. Los enrutadores se usan para aislar e tráfico
interno y para mantener la seguridad interna. Además pueden
ampliar los dominios de difusión y multidifusión a segmentos
Lan específicos, para ayudar a unir esas redes a una unidad
funcional.
Los enrutadores se distribuyen tanto en el
interior de las redes como en la frontera de sistemas
autónomos. Entre los enrutadores, hay algunos llamados
enrutadores internos y otros enrutadores de acceso. Los
enrutadores que se dedican exclusivamente a las
comunicaciones, por ejemplo un PSI usará enrutadores de puerta
de acceso para conectarse a Internet. Por el contrario, una
organización colocará un enrutador interno en cada una de sus
divisiones para ayudar a controlar el tráfico interno.
Los enrutadores operan en la capa de red. Hoy
la mayoría de las redes usan direcciones de red IP, todos los
enrutadores de Internet lo hacen. Pero muchos enrutadores
internos todavía deben usar antiguos protocolos de escritorio
IPX, Apple Talk o DECnet. Por esa razón, Cisco y sus
competidores han convertido mucho en crear productos
multiprotocolo con el fin de permitir a las Lan antiguas
interoperar con IP. Los conjuntos de características de IOS de
Cisco se crean fundamentalmente para ofrecer a los diseñadores
de redes la posibilidad de adquirir software de sistemas que
se ajuste a sus necesidades de protocolo de red.
Los enrutadores utilizan direcciones de red
de la capa 3
Ya sea IP o un antiguo protocolo de la capa,
las direcciones de red son inherentemente jerárquicas.
Mientras un enrutador se abre camino a través de una dirección
IP, se encuentra en el segmento Lan al que está conectado el
equipo destino. En rutas de recorrido, el desplazamiento hacia
la dirección se realiza mediante saltos entre los enrutadores.
Una ruta de salto sólo requeriría encontrar el segmento Lan en
que se reside el destino.
Es frecuente resumir las rutas antes de
compartirlas con otros enrutadores. Esto mejora el
rendimiento, al reducir el número de direcciones que
transporta una tabla de enrutamiento del enrutador. El resumen
de las rutas, también llamado agregación de rutas, funciona
confiando que un enrutador de pasarela conozca la dirección
completa del segmento Lan, permitiendo a los enrutadores
intermedios transportar menos entradas en sus respectivas
tablas de enrutamiento, incrementando así él redimiendo.
También se usa con frecuencia la traducción de dirección,
donde las direcciones internas se modifican o agrupan en una
dirección global dentro de paquetes enviados al exterior de
una red. También se utilizan mecanismos como PAT, Traducción
de direcciones de puerto, y NAT, traducción de direcciones de
red, en los enrutadores finales o en los contrafuegos para
hacer estas traducciones en los campos de dirección del
paquete en ambas direcciones
Los conmutadores utilizan direcciones MAC de
la capa 2
Los conmutadores funcionan en la capa de
enlace de datos, de la capa 2, manejando direcciones MAC es un
número largo que identifica de forma unívoca dispositivos
hardware. Las direcciones MAC combinan un código de
fabricación con un número de serie. Incluso los enrutadores
usan direcciones MAC para el último escalón del mensaje,
resolviendo una dirección IP a la dirección MAC física para
localizar el equipo destino dentro del segmento Lan.
Las direcciones MAC son topológicamente
planas. El perfil lógico de una dirección MAC aparece como si
todos los equipos estuvieran conectados al mismo cable; no
indica nada sobre dónde se ubican los equipos porque es
esencialmente un número de serie. Sin embargo, las redes
conmutadas deben operar usando la fuerza bruta, inundando las
difusiones de direcciones MAC a todos los puertos donde se
desconoce un destino MAC.
Las VLAN jerarquizan las redes conmutadas
limitando la difusión a grupos reducidos de usuarios. Esto
combina la velocidad del ancho de banda conmutada con la
topología jerárquica hasta ahora sólo disponible en redes de
ancho de banda compartido, las VLAN asignan los usuarios de
forma flexible a grupos de trabajo lógico en lugar de tener
que agrupar los usuarios por concentrador.
Método de optimización
Las redes usan protocolos para enrutar
mensajes. Hay tantos cambios dinámicos en las redes,
crecimiento, cambios en los modelos de tráfico, un dispositivo
que falla, etc. , que debe actuar ellos mismos de algún modo
actualizado constantemente las tablas del dispositivo. Las
redes enrutadas se basan en protocolos de enrutamiento para
hacer un seguimiento de las rutas a través de las redes. Éstas
negocian listas de rutas, la mayoría dentro de sistemas
autónomos y se usa para conectar segmentos LAN. BGP negocia
listas de sistemas autónomos y se usan para conectar a
Internet.
Las redes mantienen un grado de
autoconciencia mediante los protocolos de descubrimiento, que
encuentran nuevos dispositivos y comprueban el estado de los
ya conocidos. Estos protocolos, CDP, protocolo de
descubrimiento de Cisco son un ejemplo, son los personajes
reconocidos de los protocolos de enrutamiento. Cuando sucede
un evento se descubre y el aviso se transmite hasta que el
conjunto de dispositivos converge en una nueva lista de rutas.
A se produce un bucle, donde una ruta sugerida vuelve al
dispositivo origen. Los protocolos de enrutamiento usan
métricas para ajustar de forma más precisa las redes. RIP sólo
usa recuento de saltos, pero los protocolos más sofisticados
usan métricas estrictas que se pueden combinar con matrices
gigantescas para dirigir el tráfico a través de los enlaces
deseados.
Las redes conmutadas no son tan complejas.
Los conmutadores sólo intercambian las listas de direcciones
MAC, donde la dirección MAC más recientes se colocan en la
parte superior siendo la primera que se elige. Las redes
conmutadas usan STP, protocolo de expansión en árbol, para
evitar bucles.
Aplicaciones y arquitectura de redes
Los requisitos de diseño de la empresa
normalmente han cambiado totalmente. Estos cambios se han
realizado en ambos extremos de la topología. En la parte
inferior, el uso de concentradores y conmutadores de acceso
por parte de la segmentación ha aumentado enormemente el
número de segmentos LAN y, por tanto, la cantidad de tráfico
que pasa a través de la red troncal entre segmentos. En la
parte superior se está estandarizando toda una nueva
arquitectura de computación, con intranets basadas en Web que
sustituyen los tradicionales sistemas de administración
cliente / servidor, donde las extranets están transformando
los sistemas tradicionales, EDI, intercambio electrónico de
datos, y las VPN, redes privadas virtuales, sustituyendo a las
redes de área ancha concentradas.
La realización de todos estos cambios es lo
que ha provocado que nueva aplicaciones de red hayan cambiado
las características del tráfico. Por ejemplo, se ha
popularizado la videoconferencia, aumentando la necesidad de
optimizar la configuración para manejar la multidifusión,
donde una misma copia de un mensaje se envía a un subconjunto
de equipos destino.
2.2 Modelo de diseño
Modelo de diseño jerárquico de tres
capas
Las topologías jerárquicas son
intrínsecamente mejores que las planas por varias razones, la
principal es que una jerarquía contiene tráfico hacía sus
redes locales. La regla general que usan los diseñadores es
que la difusión de tráfico no debe sobrepasar los 20 paquetes
por cada enlace, la consecuencia de esa segmentación
aumentará, naturalmente, el rendimiento al aislar el tráfico
hacia sus usuarios más probables. Esta regla general sólo se
aplica a la cantidad de paquetes de difusión que circulan y no
se deben confundir con las reglas del 80 / 20. La regla del 80
/ 20 establece que el 80 por 100 del tráfico queda en origen y
sólo el 20 por 100 trasciende el área local.
Una topología plana, en la que cada
dispositivo hace más o menos el mismo trabajo, aumenta el
número de vecinos con los que debe comunicarse un dispositivo
individual. Esto aumenta de algún modo la sobrecarga de
tráfico que puede aceptar el dispositivo e incrementa
enormemente el tráfico total. Por ejemplo, cada vez que un
enrutador recibe un mensaje de difusión, la CPU se interrumpe.
Para muchas redes pequeñas, es suficiente una topología plana
y esta justificada el gasto y la complejidad añadida que
requiere la jerarquía. Pero no hacen falta demasiados
segmentos LAN para afectar negativamente el rendimiento y la
fiabilidad de una red, con sus dispositivos y equipos ocupando
tráfico innecesario.
Ésa es la razón de por qué la industria
prefiere un modelo de diseño jerárquico clásico. El modelo
tiene tres capas: la principal, la de distribución y la de
acceso. De esta forma se separa el tráfico local de gran
volumen de tráfico que circula entre segmentos LAN y áreas, y
permite a los dispositivos de red situados en cada capa,
centrarse en sus respectivas tareas.
La jerarquía es posible gracias a la
segmentación, la práctica de dividir equipos en segmentos LAN
más pequeños. La topología jerárquica y de segmentación supuso
varias ventajas:
Rendimiento. EL tráfico se aísla en las áreas
de origen, reduciendo así los dominios de colisión de paquetes
Ethernet y aumentando el rendimiento.
Fiabilidad. Muchos fallos se aíslan en el
segmento donde se originó el problema.
Simplicidad. Al separar áreas diferentes, los
elementos de una red se pueden duplicar según sea necesario
mejorar la red.
Escalabilidad. Se puede agregar elementos de
diseño modular a medida que la red crece con el tiempo,
interfiriendo de forma mínima en las redes ya existentes.
Seguridad. Los accesos se pueden controlar en
uniones bien definidas entre capas.
Las redes tienden naturalmente a una
jerarquía de dos niveles. Los concetradores y conmutadores
conectan equipos en segmentos LAN y la red troncal conectada
los segmentos a la red local, ya sea dentro de una planta, un
edificio, un campus de oficinas o incluso en un área
metropolitana. Ésta topología relativamente plana en el
sentido de que, incluso aunque los dominios de colisión son
limitados, un tráfico de difusión excesivo todavía hace uso
del ancho de banda disponible. Esto convierte la capa de
distribución en lo más importante. Al aislar el tráfico, la
capa de distribución también aísla el problema y la
complejidad.
La jerarquía también ayuda a reducir costos.
Al dividir equipos y tráfico, la variación se limitan a unos
pocos usos segmentos LAN, o incluso a un único segmento. Las
variaciones incluyen aspectos como el protocolo de escritorio,
volúmenes de tráfico y tipos de tráfico. La jerarquía permite
al diseñador de redes ajustar la configuración para cada
trabajo en particular. Los ajustes se hacen según el
dispositivo de red adquirido y como está configurado el
archivo de configuraciones en términos de memoria, módulos,
software y parámetros de configuración.
La capa de acceso
La capa de acceso se compone fundamentalmente
de concentradores y conmutadores que sirve para dividir los
dispositivos del equipo, como PC y servidores, en muchos
segmentos LAN compuestos de ancho de banda compartido o
conmutado. Aquí es donde se puede realizar el filtro de la
capa MAC.
Si una red dispone de sitios remotos, como
sucursales u oficinas particulares, la capa de acceso incluirá
también servidores de acceso. Las WAN deben usar algún tipo de
medio de transmisión a larga distancia. Existe un amplio
abanico de medios, como líneas digitales alquiladas T1 o T3 y
redes digitales Frame Relay. Los usuarios de acceso telefónico
remoto se conectan llamados a través de líneas analógicas y en
ciertas áreas, mediante tecnologías que ofrece un mayor ancho
de banda, como DSL, línea de abonado digital y red digital de
servicios integrados, RDSI.
En grandes redes, la capa de acceso puede
incluir enrutadores. Estos enrutadores internos se ocupan
principalmente de aislar la sobrecarga, controlar el tráfico y
mejorar la seguridad interna. La capa de acceso engloba una
mezcla de tecnologías en la mayoría de las redes. DDR,
enrutamiento de acceso telefónico bajo demanda, se ha hecho
habitual para conexiones remotas porque mantiene un enlace
inactivo excepto cuando es necesario enviar o recibir datos,
reduciendo así los costos de telecomunicaciones.
La mayor parte de las empresas tienen
tecnología anticuada que se están reemplazando progresivamente
a medida que se implementa otras nuevas. Por ejemplo muchas
grandes empresas todavía utilizan sus WAN sobre líneas
alquiladas T1 junto con las crecientes VPN, sustituyendo el
uso de redes compartidas para líneas dedicadas de alquiler.
Desde un punto de vista práctico, esto es necesario porque los
enrutadores deben actualizarse en cada enlace VPN.
La capa de distribución
La capa de distribución se compone
principalmente de enrutadores. Se usa para separar el tráfico
local de baja velocidad de la red troncal de alta velocidad.
El tráfico en la capa de acceso tiende a usar un gran ancho de
banda porque ahí es donde reside la mayoría de direcciones LAN
y equipos. La sobrecarga de red que provoca el tráfico de
protocolos para los protocolos de descubrimiento, SNMP, los
protocolos de enrutamiento y los sistemas de control de redes
es mucho mayor en la capa de acceso.
Como los enrutadores son lo suficientemente
inteligentes para leer direcciones de red y examinar paquetes,
también aumenta el rendimiento al enviar tráfico lo más
directamente posible a su destino. Por ejemplo, los
enrutadores de la capa de distribución definen los dominios de
difusión y multifunsión a través de segmento LAN. Los dominios
están, por defecto, limitados a segmentos LAN; los enrutadores
pueden ampliar dominios a través de segmentos mientras así lo
indique el diseño de la jerarquía.
En configuraciones que usan conmutadores
multicapa, los dispositivos de la capa de distribución enrutan
mensajes entre las VLAN. La conmutación multicapa es una
tecnología relativamente reciente en la que los paquetes se
filtran y envían basándose tanto en las direcciones MAC como
en las direcciones de red. El Catalyst 5000 es tal vez el
ejemplo de un conmutador multicapa, que incorpora RSM, módulo
de conmutación enrutada, además de los que tienen electrónica
conmutada convencional.
La mayoría de los servicios en cierto valor
añadido los ofrecen dispositivos en la capa de distribución.
La traducción de direcciones se realiza en esta capa,
normalmente en un enrutador de puerta de acceso o en
cortafuegos. También se hace aquí la agregación de
direcciones, así como la agregación de áreas si la red dispone
de dominios de enrutamiento OSPF. También se realizan otros
servicios en los enrutadores de la capa de distribución:
traducción entre protocolos como IPX e IP; cifrados para
tunelización VPN; seguridad basada en el tráfico usando listas
de acceso y algoritmos de cortafuegos basados en el contexto;
y seguridad basada en el usuario utilizando protocolos de
seguridad como RADIUS, TACACS+ y KERBEROS.
La capa principal
La capa principal es la red troncal. En las
grandes redes, la capa principal consta de multiples segmentos
principales, desde redes troncales LAN de campus hasta redes
regionales. Algunas veces se configuran segmentos principales
LAN especiales para mejorar un protocolo específico
especialmente sensible. Muchos segmentos principales están ahí
para conectar segmentos LAN, normalmente los que están dentro
de un edificio particular o campus de oficinas.
Para rendir al máximo, una red troncal LAN
debería configurarse para sufrir el menor número posible de
interrupciones. El objetivo es disponer de tantos ciclos de
CPU de dispositivos de red troncal como sean necesarios para
la transferencia de paquetes entre segmentos. La capa de
distribución lo hace posible al conectar segmentos LAN de
grupos de trabajo y ofrecer servicios de enrutamientos de
valor añadido. Debe haber un mínimo de administración de
paquetes en este nivel. Ésa es la razón de por qué la mayoría
de redes troncales actuales son LAN conmutadas. La necesidad
de interpretación de direcciones en la capa principal se
minimiza por el proceso ya realizado por los enrutadores de la
capa de distribución.
ATM, modo de transferencia asíncrona y
Gigabit Ethernet están compitiendo duramente para imponer su
tecnología de red troncal conmutada. ATM es ideal para
aplicaciones multimedia porque utiliza celdas de tamaño fijo
en lugar de los paquetes de longitud variable de Ethernet. La
notoria ventaja de redes troncales conmutadas de Gigabit
Ethernet es su mayor compatibilidad con los millones de LAN
Ethernet ya instaladas en todo el mundo.
ATM es un estándar internacional de
transmisión de celdas para servicios como vídeo, voz y datos.
La longitud fija de celdas de 53 bytes acelera la
transferencia de datos al permitir realizar el proceso por
hardware. Aunque los productos ATM son para llevar datos
directamente hasta el escritorio, la tecnología esta
optimizada para funcionar en medios de transmisión a alta
velocidad como OC-48 de 2.5 Gbps, T3 de 45 Mbps y el
equivalente europeo de la T3 es el E3 de 34 Mbps.
2.3 Métodos de diseño
Durante años, la industria de redes ha
desarrollado todo un conjunto de conceptos y modos de conducta
para el diseño de redes. La mayoría de las redes son proyectos
en construcción; muy pocas diseñan a partir de una hoja de
papel. Conforme evolucionan las topologías de red según las
circunstancias y el devenir de los tiempos, se hace más
difícil mantener un diseño de red rigurosamente jerárquico,
especialmente en grandes empresas con estructuras
administrativas distribuidas, o en tiendas que tienen gran
rotación de personal en sus plantillas de red.
Equilibrio de carga y redundancia
La redundancia es la práctica de configurar
equipos de seguridad. Esto se hace para ofrecer tolerancia a
fallos donde el tráfico se desplazará hacia el dispositivo de
seguridad si falla la unidad primaria, un proceso llamado
migración tras errores. Por ejemplo, mucho segmentos
principales de alta velocidad tienen conmutadores de
configuración dual en cada extremo por si acaso se cae el
conmutador principal. Otra medida de seguridad habitual es
tener unidades de energía redundantes dentro de un dispositivo
de modo que si una falla, el dispositivo sigue
funcionando.
Las tecnologías de Cisco que soporta
redundancia es el HSRP, protocolo de enrutador activo de
reserva, una familia de comandos dentro del IOS. Activo de
reserva es un término de la industria informática que
significa que la unidad de seguridad siempre está activa y
funcionando, permitiendo así una migración tras error
automática en caso de fallo. HSRP funciona creando un grupo de
enrutadores de seguridad, usando la dirección IP del enrutador
primario para procesar el tráfico. El enrutador primario lo
monitorizan otros del grupo y si falla, la dirección del
enrutador de seguridad retomará las tareas de control de
tráfico. La migración tras error se logra sin la intervención
humana y suele realizar en pocos segundos.
Como la configuración redundante es cara,
sólo se suelen agregar configuraciones tolerantes a fallos a
los dispositivos críticos. La redundancia se suele aplicar a
los dispositivos de red troncal y a los cortafuegos donde un
fallo de dispositivo tendría efectos de difusión en toda la
red.
Equilibrio de cargas es una técnica de
configuración que desvía el tráfico a un enlace alternativo si
se sobrepasa ciertos límites en el enlace primario. El
equilibrio de carga se puede lograr de varias formas, como
ajustando de forma precisa la métrica de enrutamiento en los
archivos de configuración del enrutador dentro de los dominios
de protocolos de enrutamiento.
El equilibrio de carga se parece a la
redundancia en el sentido de que un suceso provoca que el
tráfico cambie de dirección y equipos alternativos daban estar
presentes en la configuración. Pero en lo que respecta al
equilibrio de carga, el equipo alternativo no es
necesariamente un equipo redundante que sólo funciona en caso
de fallo.
Topología de malla
Un buen diseño incorporará una topología de
malla para conseguir redundancia y equilibrio de carga. Una
malla es cuando dos dispositivos de red, normalmente
enrutadores o conmutadores, están conectados directamente.
Dentro de una topología completamente en malla, todos los
nodos de la red están conectados entre sí dentro de la red, ya
sea mediante circuitos físicos o virtuales. También podemos
tener una topología parcial de malla en la que algunas partes
de la topología están completamente en malla, pero algunos
nodos se conectan sólo a uno a varios de los demás nodos.
A primera vista, la conexión en malla parece
ser inherente algo bueno. Aquí se presentan las ventajas de la
topología completamente en una malla:
- Rendimientos. Sólo es necesario realizar un salto para
ir de un nodo de la red a otro y cuantos menos saltos mayor
es la velocidad.
Disponibilidad. Tener rutas redundantes
significa que si alguna se cae, siempre hay disponible una o
más rutas alternativas.
- Equilibrio de cargas. También se pueden usar las rutas
alternativas para operaciones normalmente, donde los
parámetros de enrutamiento pueden configurarse para usar
rutas alternativas si se excede una carga de tráfico
establecida en el enrutador primario.
La red parcialmente en malla de la parte
inferior no tiene estas ventajas. Por ejemplo, para ir desde
el enrutador A al B es necesario pasar por dos enrutadores en
vez de uno. Si los enrutadores situados a ambos lados del
enrutador F se caen, éste no podrá comunicarse con el resto de
la red. Además, un número menor de conexiones en malla reduce
las oportunidades de realizar equilibrios de carga. Sin
embargo aunque la conexión en malla ofrece ventajas, es
necesario tener en cuenta que conlleva un costo:
- Gasto. Cada interfaz de enrutador o conmutador dedicada
a crear la malla no se puede utilizar para conectar un
segmento LAN. La malla consume muchos recursos hardware.
Sobrecarga de tráfico. Los dispositivos
anuncian constantemente sus servicios entre sí. Cuanto más
enlaces de malla tienen un dispositivo más paquetes de anuncio
difunde, con lo que provoca sobrecarga de ancho de banda.
Vulnerabilidad. El uso de malla dificulta la
aparición de problemas dentro de un área local. Si un
dispositivo mal configurado comienza a propagar
indiscriminadamente mensajes de difusión, por ejemplo, cada
elemento de la malla provocará una tormenta de difusión desde
el origen.
- Complejidad. Si se agrega más conexiones, será más
difícil aislar los problemas. Por ejemplo, será más costoso
hacer un seguimiento del dispositivo que provoca una
tormenta de difusión en una red completamente o casi
completamente en malla, ya que hay demasiados caminos a
rastrear.
Por esta razón, hay pocas redes de malla
completa. La práctica general es utilizar malla completa en la
parte de red troncal de las topologías para proporcionar
tolerancia a fallos y equilibrio de carga en estos enlaces
crípticos, pero utilizar sólo malla parcial en las capas de
acceso y de distribución.
Configuraciones de puerta trasera y
estrella
Las circunstancias pueden obligar a desviar
del modelo jerárquico estricto. Las dos desviaciones
topológicas más conocidas se llaman puertas traseras y cadena.
Una puerta trasera es cualquier conexión directa entre
dispositivos en la misma capa, normalmente la capa de acceso.
Una cadena es la suma de una o más capas bajo la capa de
acceso.
A veces tiene sentido configurar una puerta
trasera. Por ejemplo, puede que queramos enlazar directamente
dos sitios remotos si los enlaces a los enrutadores de la capa
de distribución son costosos o lentos. La puerta trasera
también ofrece cierto grado de redundancia: si se cae el
enlace de la puerta trasera, los dos sitios remotos pueden
migrar después del error a la capa de distribución del
enrutador y mantener la comunicación. Con demasiada
frecuencia, sin embargo, aparecen las puertas traseras y las
de cadena por la mala planificación de la red, o por un
administrador irresponsable que instala equipo de redes sin
consultar al resto de la plantilla.
2.4 Necesidades de una red
El crecimiento descontrolado de las redes
tiene lugar por varias razones. La más habitual es,
simplemente, que los acontecimientos suceden demasiado
deprisa. Hay que tener en cuenta. Hay que tomar en cuenta que
algunas realidades habituales, computación cliente / servidor,
Intranet, la Web, Extranet, eran sólo conceptos hasta la
últimas década. Esto provoca que muchos administradores IT sin
formación realicen planes de red estratégicos razonados y bien
planteados para sus empresas.
En muchos casos, un plan tampoco hubiera sido
la solución. Las modas en administración vienen y van, pero
una moda que permanece es el dicho el que paga manda. La
tendencia en administración ha ido buscando estructuras de
organización planas, con el menor número de capas entre las
superiores y las inferiores. La mayoría de los departamentos
se rigen, en materia de presupuestos, secciones individuales,
los grupos o incluso por departamentos. En otras palabras, las
decisiones IT cada vez se toman más desde abajo hacia arriba
por la entidad que gestiona el presupuesto, no por el
departamento IT.
Esta manera de tomar las decisiones de forma
distribuida ha adquirido relevancia especial debido a la
lentitud de muchos departamentos IT para responder a las
necesidades crecientes del usuario por culpa de cosas como la
reestructuración de los procesos de negocios, fusiones,
adquisiciones y creación de cooperativas. Se llegó a un punto
en que muchos administradores de usuario final, simplemente,
ignoraron la arquitectura técnica corporativa, descolgaron el
teléfono y se encargaron por sí mismos nuevas redes.
La tendencia durante los últimos años de los
departamentos IT ha sido la de dividir la interconexión de
redes en un grupo independiente llamado infraestructura. Esto
se ha realizado porque la interconexión de redes sencillamente
se ha hecho demasiado grande y complicada como para dejarla en
manos de un administrador. La interconexión de redes requiere
dedicación completa. Se está convirtiendo rápidamente en una
disciplina propia con sus propios métodos óptimos. |