CAPITULO II
MARCO TEÓRICO
Luego de haber definido
el Planteamiento del Problema y especificado Objetivos Generales y Específicos
que sustentan esta investigación, es necesario establecer los aspectos teóricos
en los que se basará el estudio. Por consiguiente, dentro del Marco Teórico se
muestran las bases de las diversas teorías y conceptos relativos a la
implementación de Calidad de Servicio (QoS) en
El esquema del Marco Teórico
del proyecto se muestra tentativamente en orden de importancia, para comprender
el tema en un ámbito general y medianamente hasta lo mas especifico, a medida
que vaya profundizando en el tema iré mejorando y perfeccionando el mismo, a continuación
menciones los temas a desarrollar en este Capitulo:
· BASES TEÓRICAS:
o INTRODUCCIÓN A LAS REDES
o
INTRODUCCIÓN A CALIDAD DE SERVICIO (QoS)
o PROTOCOLOS Y
ARQUITECTURAS DE QOS
· ANTECEDENTES DE
· DEFINICIÓN DE TÉRMINOS
BASES TEÓRICAS
INTRODUCCIÓN A LAS REDES
Cada uno de los tres
siglos pasados ha estado dominado por una sola tecnología. El siglo XVIII fue
la etapa de los grandes sistemas mecánicos que acompañaron a
A medida que avanzamos
hacia los últimos años de este siglo, se ha dado una rápida convergencia de
estas áreas, y también las diferencias entre la captura, transporte,
almacenamiento y procesamiento de información están desapareciendo con rapidez.
Organización con centenares de oficinas dispersas en una amplia área geográfica
esperan tener la posibilidad de examinar en forma habitual el estado actual de
todas ellas, simplemente oprimiendo una tecla. A medida que crece nuestra
habilidad para recolectar procesar y distribuir información, la demanda de mas
sofisticados procesamientos de información crece todavía con mayor rapidez.
La industria de
ordenadores ha mostrado un progreso espectacular en muy corto tiempo. El viejo
modelo de tener un solo ordenador para satisfacer todas las necesidades de
cálculo de una organización se está reemplazando con rapidez por otro que
considera un número grande de ordenadores separados, pero interconectados, que
efectúan el mismo trabajo. Estos sistemas se conocen con el nombre de redes de
ordenadores. Estas nos dan a entender una colección interconectada de ordenadores
autónomos.
Tipos
de redes
No existe una taxonomía
generalmente aceptada dentro de la cuál quepan todas las redes de computadoras,
pero sobresalen dos dimensiones: la tecnología de transmisión y la escala. En
términos generales hay dos tipos de tecnología de transmisión: Redes de
Difusión y Redes de punto.
Las redes de difusión
tienen un solo canal de comunicación compartido por todas las máquinas de la
red. Los paquetes cortos ( llamados paquetes ) que envía una máquina son
recibidos por todas las demás. Un campo de dirección dentro del paquete
especifica a quién se dirige. Al recibir el paquete, la máquina verifica el
campo de dirección, si el paquete esta dirigido a ella, lo procesa; si esta
dirigido a otra máquina lo ignora.
Los sistemas de difusión
generalmente también ofrecen la posibilidad de dirigir un paquete a todos los
destinos colocando un código especial en el campo de dirección. Cuando se
transmite un paquete con este código, cada máquina en la red lo recibe y lo
procesa. Este modo de operación se llama difusión (broadcasting). Algunos
sistemas de difusión también contemplan la transmisión a un subconjunto de las
máquinas, algo que se conoce como multidifusión.
Las redes de punto a
punto consisten en muchas conexiones entre pares individuales de máquinas. Para
ir del origen al destino un paquete en este tipo de red puede tener que visitar
una ó más máquinas intermedias. A veces son posibles múltiples rutas de
diferentes longitudes, por lo que los algoritmos de ruteo son muy importantes
en estas redes.
Redes de área local ( LAN )
Uno de los sucesos más
críticos para la conexión en red lo constituye la aparición y la rápida
difusión de la red de área local (LAN) como forma de normalizar las conexiones
entre las máquinas. Como su propio nombre indica, constituye una forma de
interconectar una serie de equipos informáticos.
Routers y bridges
Los servicios en la
mayoría de las LAN son muy potentes. La mayoría de las organizaciones no desean
encontrarse con núcleos aislados de utilidades informáticas. Por lo general
prefieren difundir dichos servicios por una zona más amplia, de manera que los
grupos puedan trabajar independientemente de su ubicación. Los routers y los
bridges son equipos especiales que permiten conectar dos o más LAN. El bridge
es el equipo más elemental y sólo permite conectar varias LAN de un mismo tipo.
El router es un elemento más inteligente y posibilita
la interconexión de diferentes tipos
de redes de ordenadores.
Redes de área extensa ( WAN )
Cuando se llega a un
cierto punto deja de ser poco práctico seguir ampliando una LAN. A veces esto viene
impuesto por limitaciones físicas, aunque suele haber formas más adecuadas o
económicas de ampliar una red de computadoras. Dos de los componentes
importantes de cualquier red son la red de teléfono y la de datos. Son enlaces
para grandes distancias que amplían
Seguridad
La seguridad
informática va adquiriendo una importancia creciente con el aumento del
volumen de información importante que se halla en las computadoras
distribuidas. En este tipo de sistemas resulta muy sencillo para un usuario
experto acceder subrepticiamente a datos de carácter confidencial. La norma
Data Encryption System ( DES ) para protección de datos informáticos,
implantada a finales de los años setenta, se ha visto complementada
recientemente por los sistemas de clave pública que permiten a los usuarios codificar
y descodificar con facilidad los mensajes sin intervención de terceras
personas.
Gestión
La labor de mantenimiento de la operativa de una LAN exige dedicación
completa. Conseguir que una red distribuida por todo el mundo funcione sin
problemas supone un reto aún mayor. Últimamente se viene dedicando gran
atención a los conceptos básicos de la gestión de redes distribuidas y
heterogéneas. Hay ya herramientas suficientes para esta importante parcela que
permiten supervisar de manera eficaz las redes globales.
INTRODUCCIÓN A CALIDAD DE SERVICIO (QoS)
Historia De
A
finales de los 90, se desencadenó el uso y disfrute de la red, naciendo un
nuevo concepto conocido como calidad de servicio (QoS), que se ve afianzado por
la incorporación de funciones de voz en redes de datos. Es esta explosión de
voz sobre IP (VoIP) la que está marcando una tendencia capaz de elevar el protagonismo
del networking.
Los
años 1997 y 1998 destacan por dos características: el carácter crítico de la
gestión de redes y el refuerzo de la oferta de entornos y tecnologías de alta
velocidad basados en la conmutación de nivel 3, hasta el punto de llegar a
superarse la frontera del Megabit para entrar en los terabits por segundo, sin
olvidar xDSL (Digital Suscribers Line), WDM (Wave Data Multiplexing), canal de
fibra y Token Ring también de alta velocidad.
Durante
estos últimos años también han ido ganando peso las funciones de seguridad,
entre las que se encuentran la encriptación, la autenticación de usuarios y los
firewalls. Todas estas características no hacen sino confirmar que dentro de
cinco años la voz no consumirá más que una pequeña parte del ancho de banda y
todas las problemáticas para operadoras y responsables de sistemas estará en
gestionar adecuadamente un flujo de
datos cada vez más denso y relevante. De esta manera, las redes públicas se
convierten en el elemento principal del mercado de las comunicaciones. Cuando
el tráfico de negocio crítico, como el generado por una aplicación ERP, de
comercio electrónico, videoconferencia o telefonía LAN, debe competir con el
resto de datos que circulan por la red corporativa, el resultado puede ser la
aparición de cuellos de botella que degraden la calidad de las aplicaciones más
sensibles a los retardos. Aun en el caso de que el tiempo de respuesta de la
red sea el suficiente la mayor parte del tiempo, puede haber ocasiones en que
se produzcan congestiones.
Una
red tradicional no es capaz de diferenciar los distintos tráficos y, en
consecuencia, a todos los trata por igual. Así, una gran transferencia FTP
puede causar graves interrupciones de una sesión de videoconferencia de
sobremesa. Un primer paso para evitar estas situaciones consiste en aumentar la
capacidad de la red adoptando Gigabit Ethernet. Pero, a la larga, no basta con
disponer simplemente de más ancho de banda en bruto. Es preciso, además,
utilizar técnicas que hagan posible controlar el tráfico de aplicación. La
combinación de técnicas de calidad de servicio (QoS) y de conmutadores Gigabit
Ethernet en un entorno LAN permite a los administradores de TI tomar el control
del ráfico de datos para asegurar el
rendimiento de la red –y en consecuencia de la empresa- de un modo eficiente.
En
condiciones normales, QoS no es necesaria, pero hay eventos que impactan el
rendimiento de las redes incluso cuando están bien diseñadas. Aunque la red se
sobrecargue, QoS asegura que el tráfico crítico no sea ni perdido ni retardado.
En general, añade fiabilidad y disponibilidad, haciendo un mejor uso del ancho
de banda existente y dando a los usuarios tiempos de respuesta más rápidos.
Además, permite a los administradores TI controlar el uso de las redes para
dotarlas de mayor eficiencia. Una red con QoS es, pues, una red inteligente
capaz de identificar y priorizar los tráficos críticos. Uniendo esta
inteligencia a la enorme capacidad que aportan los conmutadores Gigabit
Ethernet se consigue niveles de eficacia no disponibles hasta ahora .
Definición de
QoS
Para
establecer una correcta definición del término QoS, calidad de servicio,
debemos acudir primero a estudiar la
asignada por el Diccionario de
Al
tratarse la anterior de una descripción demasiado genérica, son múltiples las
definiciones concretas que actualmente se realizan sobre el término QoS, si
bien difieren en significados dependiendo del ámbito de aplicación de tales
siglas. En el ámbito de las telecomunicaciones, desde la publicación en 1984
del documento E-800 de
En
el ámbito de la telemática, QoS es la capacidad de un elemento de red (bien una
aplicación, un servidor, un encaminador, un conmutador, etc.) de asegurar que
su tráfico y los requisitos del servicio previamente establecidos puedan ser
satisfechos. Habilitarla requiere además la cooperación de todas las capas de
la red, así como de cada elemento de la misma. Desde este punto de vista,
QoS, CoS y ToS
Son
varios los acrónimos terminados en “QoS” que hacen referencia a la obtención de
calidad de servicio en redes, llevando en ocasiones a situaciones equívocas por
el mal uso de los mismos, si bien QoS es el único que refiere completamente a
QOS: Calidad de
Servicio
Ha
sido definida en el apartado anterior. Recoge varios parámetros o atributos que
describen un servicio, tales como:
Reserva ancho banda, Retardo extremo a extremo, Jitter, Tasa de error,
Un ejemplo de tecnología existente que utiliza QoS es IETF RSVP.
COS: Clase De
Servicio
Este
término implica, a su vez, dos procedimientos: en primer lugar la priorización
de los distintos tipos de tráfico claramente definidos a través de la red y, en
segundo lugar, la definición de un pequeño número de clases de servicio a las
que aplicarla.
Priorizar
es importante en los puntos de congestión de la red, donde las decisiones de
priorización pueden ser realizadas por puentes y encaminadores.
Las
aplicaciones que requieren distinguir clases de servicio incluyen procesos
transacionales, el vídeo y cualquier otro tráfico sensible al tiempo.
No
se debe confundir CoS con QoS, pues, a diferencia de QoS, CoS no garantiza
ancho de banda o latencia, en cambio permite a los administradores de red
solicitar prioridad para el tráfico basándose en la importancia de éste.
Independientemente
de la diferenciación, tanto CoS como QoS categorizan el tráfico para asegurar
que el tráfico considerado crítico siempre fluya por la red, a pesar del ancho
de banda demandado o de las aplicaciones
de menor importancia.
Existen
muchas posibles definiciones de tipos de calidad de servicio, pero la mayoría
de las empresas definen las clases de
tráfico por tipo de aplicación, tipo de dispositivo o por tipo de usuario. Hoy
es demás posible definir clases separadamente en routers o puentes
individuales, pero suele ser poco práctico. Un ejemplo de tecnología que usa
CoS es el estándar IEEE 802.1p
TOS: Tipo De
Servicio.
El
tipo de servicio es equivalente a un carril destinado a coches de uso
compartido: se reserva ancho de banda con antelación y después se asigna el
tráfico que necesite preferencia, como el de voz o un CoS con prioridad, de
modo que este tráfico pueda utilizar el ancho de banda reservado. ToS no
implica, por lo tanto, ningún tipo de garantías.
ToS
está incluido como uno de los campos en la tecnología de QoS denominada
Diffserv (servicios diferenciados), dónde también es conocido como DiffServ
codepoint (DSCP o punto de código Diffserv). Es un campo de 8 bits, estando los
dos últimos reservados. Con los otros 6 bits restantes es posible obtener 64
combinaciones o ‘codepoint’, de ellas, 48 son utilizadas para direccionar el
espacio global y 16 son para uso local.
Parte
del protocolo IP Versión 4 reserva un campo en el paquete IP para el tipo de
servicio (IP TOS). En este campo se pueden especificar los atributos de
fiabilidad, capacidad de procesamiento y retardos del servicio.
Clasificación
De Qos
Es
posible realizar una clasificación de QoS bajo distintas especificaciones, así
podríamos diferenciarla según el tipo de tráfico, dónde aplicarla, la reserva
de recursos de la red y otros parámetros, tal y como se indica a continuación.
1. Según la
sensibilidad del tráfico
Teniendo en
cuenta la variedad de tráfico existente y los requerimientos de retardo,
latencia y ancho de banda para cada tipo, nos encontramos con :
a. QoS muy sensible al retardo: Un ejemplo
de este tipo es para el tráfico de vídeo comprimido. Para este caso es
necesario garantizar la disponibilidad de una determinada y gran cantidad de
ancho de banda
reservado para
este tráfico y un valor de retardo mínimo que asegure la correcta transmisión
del mismo. Para conseguirlo será necesario utilizar mecanismos de prioridad,
definidos posteriormente en el capítulo de protocolos y arquitecturas, así como
encolar adecuadamente los flujos de datos.
b. QoS algo sensible al retardo: Como la
resultante de la aplicación de la emulación de circuito. Al igual que en el
caso anterior se garantiza hasta un cierto nivel de ancho de banda, aunque en
menor valor. De la misma manera, será necesario asignar prioridades para la
transmisión de los datos.
c. QoS muy sensible a pérdidas: Como
sucede con el tráfico tradicional. Si se garantiza un nivel de pérdidas de
valor cero entonces nunca se descartarán paquetes ni se desbordarán los buffers
de almacenamiento del flujo, lo que
facilitará el control de transmisión, por otra parte, esta garantía se hace a
nivel de acceso al medio (MAC) o en capas superiores, pero nunca a nivel
físico.
d. QoS nada sensible: Por ejemplo el
tráfico de servicios de noticias. La filosofía de este tipo de QoS es usar
cualquier oportunidad de transmisión restante y asumir que la capacidad de los
buffers posteriores es
suficiente para
llevarla a cabo, asignándole a este tipo de tráfico la prioridad más baja. A
este tipo responden los algoritmos Best Effort o al mejor esfuerzo, utilizado
en Internet.
2. Según quién
solicite el nivel de calidad de servicio
Teniendo
en cuenta que la petición de QoS puede ser realizada por el usuario final o por
los conmutadores de la red, nos
encontramos con :
a. QoS Implícita: En este tipo el router o
conmutador
asigna
automáticamente los niveles de calidad servicio en función del criterio
especificado por el administrador, como el tipo de aplicación, protocolo o
dirección de origen.
Hoy en día
todos los routers, y algunos conmutadores, ofrecen este tipo de QoS. El proceso
es el siguiente:
·
Estaciones finales: Las estaciones finales transmiten
los paquetes.
·
Conmutador o router: Le llegan los paquetes, realiza un
estudio de los datos entrantes y los prioriza, repartiéndolos en diferentes
colas según la prioridad asignada. Estos datos vuelven a ser transmitidos hacia
el siguiente conmutador o router, donde se repite el proceso.
·
Las funciones son:
•
Control de red: Lo tiene el administrador
•
Lugar: Centralmente
•
Técnicas: Se realiza según unos patrones de tráfico
b. QoS Explicita: Este tipo de QoS permite
al usuario o aplicación solicitar directamente un determinado nivel de servicio
que han de respetar los conmutadores y routers. Así, el proceso es:
·
Estaciones finales: En este caso las estaciones finales
transmiten una petición RSVP, si ésta es aceptada, los paquetes A,C,B,D, (ver
figura) son transmitidos.
·
Conmutador o router: Los datos entrantes son priorizados
de acuerdo a instrucciones del nodo de
destino,
pasando al próximo conmutador o router, donde se repetirá el proceso
Las funciones
son:
·
Control de red:
Lo tiene el usuario o la aplicación. Es por lo tanto, más difícil de gestionar
· Técnicas: IP Type of Service (ToS), RSVP.
3. Según las
garantías
En
esta clasificación se va a tener en cuenta la reserva de recursos del sistema
para proporcionar los servicios y son:
a. QoS Garantizada / Hard QoS: También
conocida como “hard QoS” la calidad de servicio garantizada es aquella en la
que se produce una reserva absoluta de los recursos de la red para un tráfico
determinado, asegurándose así unos niveles máximos de garantías para este
tráfico.
b. QoS No Garantizada / Lack of QoS: En
una calidad de servicio sin garantías. El tráfico es transmitido por la red a
expensas de lo que en ella pueda sucederle. Es el tipo de QoS correspondiente a
los servicios Best Effort (Mejor servicio).
c. QoS Servicios Diferenciados/ Soft QoS: También
conocida como “Soft QoS” es el punto medio entre los dos tipos anteriores. Para
este tipo se realiza una diferenciación de tráfico, siendo tratados algunos
mejor que el
resto (expedición más rápida, más ancho de banda promedio, menos tasa de error
promedio). Es el utilizado por DiffServ.
4. Según el
lugar de aplicación
Es
posible aplicar calidad de servicio en los extremos y en los bordes de la red,
por lo tanto tenemos:
a. QoS Extremo
a Extremo (End-to-End)
Es
la aplicación de las políticas de calidad de servicio entre los extremos de la
red. Es viable gracias a
productos como
el software Dynamic Access de 3Com, pero está menos extendida que
Con
este tipo de QoS se simplifican, sin embargo, los puentes, cuya función se
reduce a observar la marca de los paquetes (en el caso de 802.1p), sin tener
que calcular la clase de servicio de cada paquete reducido.
Otra ventaja es
que las aplicaciones podrían seleccionar dinámicamente el nivel de QoS,
almacenándose temporalmente en los directorios de red o en los puentes una
información estática de clases de servicio.
Actualmente,
la política de las empresas dedicadas al networking es conseguir una calidad de
servicio extremo a extremo, por lo que se están estudiando y aplicando
diferentes técnicas para conseguirlo. A lo largo de los capítulos posteriores
este tipo de QoS será referenciada en multitud de ocasiones, especificando cómo
conseguirla.
b. QoS Borde a
Borde (edge-to-edge)
Es
la aplicación de las políticas de calidad de servicio entre dos puntos
cualesquiera de la red. Por ejemplo en los puentes. Esto tiene varias ventajas:
en primer lugar no requiere que los administradores de red toquen ninguno de
los extremos, esto es una ventaja para el caso de las empresas en las que la
organización responsable de la infraestructura de red está separada del grupo
de los servidores y del resto de los puestos de trabajo. Otra ventaja es que
son menos los dispositivos que tienen que ser manejados para la obtención de
A este tipo
también se le conoce como calidad de servicio relativa
Parámetros De QoS
Son
muchos los términos manejados en el estudio de la calidad de servicio, que, a
su vez, son aplicables no sólo a éste área, sino a otros ámbitos de las
telecomunicaciones y de la informática, por lo que en este apartado se
explicarán aquellos considerados clave para el completo entendimiento de este
tema. Para la consulta de otros vocablos relacionados será necesario acudir a
alguno de los glosarios que las empresas ponen a disposición pública en sus
páginas web, figurando alguna de estas direcciones en las referencias al final
de este proyecto.
Tráfico De Red: De forma
simple, podríamos decir que tráfico de una red son los datos que la atraviesan.
Es pues dependiente del tipo de aplicación que por ella circulan. De esta
manera podríamos establecer una diferenciación deltráfico.
1. Según el tipo de aplicación: Tendremos
tráfico habitual, multimedia, multicast, broadcast, tiempo real, etc.
2. Según la sensibilidad al retardo: En este caso se
tiene:
Tráfico
algo sensible al retardo, Tráfico muy sensible al retardo, Tráfico muy sensible
a las pérdidas, Tráfico nada sensible, Retardo, Latencia, Jitter (Inestabilidad
o variabilidad en el retardo), Ancho De Banda, Pérdida De Paquetes,
Disponibilidad, Rendimiento, Priorización, Encolado, Acuerdos De Niveles De
Servicio, SLS : Service Level Specifications o Especificaciones del Nivel de Servicio, SLO : Service Level Objetives u
Objetivos del Nivel de Servicio
Especificaciones Del Condicionamiento
Del Tráfico
Aparte
del acuerdo de nivel de servicios es necesario adjuntar unas funciones de
control de los requisitos del tráfico para estudiar su comportamiento,
observando el flujo de las aplicaciones, o cualquier otro subgrupo de tráfico operativo (ej. actualizar
tablas de encaminamiento). Algunas de estas funciones de control son la
medición del tráfico, las políticas, el ‘shaping’ y el uso de marcas en los
paquetes. Se suelen utilizar en algunas de los protocolos utilizados para
proporcionar QoS. En Diffserv, por ejemplo, se usa para hacer cumplir acuerdos
entre los dominios.
Un Traffic
Conditioning Agreement (TCA) o Acuerdo de Condicionamiento del Tráfico, es un
acuerdo que especifica las reglas para clasificar el tráfico bajo cualquier
perfil. Abarca todas las reglas de condicionamiento del tráfico especificadas
explícitamente dentro de un SLA, junto con todas las reglas implícitas de los
requisitos del servicio.
Algoritmos Para
Una
vez introducidas las principales características del término calidad de
servicio es necesario exponer el tipo de algoritmos utilizados actualmente en
la transmisión de paquetes para comprobar cómo estos realizan un control de la
congestión y a qué nivel son capaces de proporcionar calidad.
Así, teniendo
en cuenta la clase de servicio que son capaces de ofrecer los algoritmos de transmisión
de paquetes podemos hacer tres divisiones principales:
1. Algoritmos
De Mejor Esfuerzo (Best Effort)
En
este tipo de algoritmos se encuentran los algoritmos tradicionales, que no
ofrecen ningún tipo de garantías de transmisión, por lo que podría decirse que
el nivel de calidad de servicio ofrecido es nulo. Un ejemplo muy representativo
es el FIFO (First In First Out). El principal problema de este tipo de
algoritmos es que, si tenemos varios flujos de datos, una ráfaga de paquetes en
uno de ellos va a afectar a todos los demás flujos, retardando su transmisión.
Es decir, que el tiempo de llegada de los paquetes de un flujo puede verse
afectado por otros flujos. Cuando esto ocurre decimos que el algoritmo
utilizado no es capaz de aislar flujos.
2. Algoritmos
Deterministas
Son
aquellos en los que, para evitar la posible congestión, antes de aceptar la
transmisión de un flujo, se asegura que podrá transmitirse sin problemas
incluso en las peores condiciones. Esto se hace reservando ancho de banda. El ancho
de banda reservado es el equivalente a lo que supondría un pico de una
transmisión en ráfaga de ese flujo, con lo que se asegura que el flujo nunca se
va a salir de su ancho de banda reservado. Si suponemos este comportamiento en
cada uno de los flujos de la red, podemos ver que la congestión es imposible,
puesto que incluso en el caso en el que todos los flujos presentaran un pico al
mismo tiempo, tendrían reservado el suficiente ancho de banda para que no
hubiera congestión.
En
caso de que, por límites físicos de la red, no pudiera asegurarse ese ancho de
banda, el algoritmo rechazaría la transmisión del flujo.
Este
tipo de algoritmos fueron los primeros en aparecer cuando surgió la necesidad
de asegurar las velocidades de transmisión. Es obvio que consiguen su objetivo,
pero lo consiguen a un precio muy elevado, puesto que son muy ineficientes
respecto al uso de la red. Como ya hemos explicado antes, las situaciones de
ráfaga en un flujo son poco frecuentes y de muy corta duración, con lo que en
la mayoría de los casos las necesidades de ancho de banda del flujo son mucho
menores. Al reservar el equivalente al peor caso, la mayor parte del tiempo
estamos reservando una capacidad de transmisión que no usamos, y si esto lo
hacemos con varios flujos el resultado es que los algoritmos rechazan flujos
por no poder darles la reserva adecuada cuando en realidad la red presenta una
utilización muy por debajo de sus posibilidades.
3. Algoritmos
Intermedios
Aquellos
algoritmos cuyo objetivo es ofrecer calidad de servicio y al mismo tiempo hacer
un uso eficiente de los recursos. Entre estos podemos diferenciar entre los que
ofrecen servicios estadísticos, servicios de degradación limitada y servicios
predictivos. Estos algoritmos no aseguran una QoS tan estricta como los
deterministas, pero en la mayoría de los casos consiguen un buen comportamiento
y aprovechan mucho más los recursos disponibles. Como consecuencia, en estos
algoritmos sí que es posible el retraso ocasional de algún paquete, con lo que
si el algoritmo en cuestión se da cuenta de que un paquete ha superado su
tiempo de expiración puede descartarlo directamente.
a.
Servicios Estadísticos
Este tipo de servicios trabaja estadísticamente,
asegurando una QoS con una probabilidad determinada. Para ello, antes de
aceptar la transmisión de un flujo, obtienen los parámetros que lo modelan.
b.
Servicios De Degradación Limitada
Una
característica de los flujos es que podemos permitirnos la pérdida de algunos
datos. Los algoritmos de degradación limitada aprovechan este hecho en la
gestión de los paquetes consiguiendo una capacidad de decisión más alta.
c.
Servicios Predictivos
Se
caracterizan por utilizar datos obtenidos midiendo las características de los
flujos. En la admisión del flujo es necesario confiar en la información que nos
da el servidor del flujo, pero una vez dentro de la red se calculan
dinámicamente sus parámetros. Con esto nos aseguramos una información fiable y
real, puesto que proviene del compartimiento actual del flujo. Este hecho ayuda
a tomar decisiones más precisas sobre las necesidades del flujo y, por tanto,
nos lleva a un funcionamiento bastante correcto con una utilización elevada de
los recursos.
Gestión Del Ancho De Banda Versus Qos
Es
de todos los profesionales informáticos conocido el hecho de que la capacidad
de cualquier tipo de sistema siempre, o casi siempre, acaba por agotarse; así,
los discos duros se llenan o las líneas telefónicas de una centralita se
saturan. Pero donde este límite se suele alcanzar con particular rapidez es en
la capacidad de la línea que conecta una organización con Internet (o en
general con una red IP) ante el imparable crecimiento de las aplicaciones sobre
este medio.
Lo normal es
que, cuando las conexiones van lentas, se contrate más capacidad. Pero, aún
así, las líneas vuelven a saturarse tras un breve período de tiempo y es una
solución costosa. Esta es la técnica conocida como sobreingeniería o método de
la fuerza bruta.
Es
necesario preguntarse entonces si ésta es la solución correcta y al estudiar
otras alternativas vemos que con éstas se pueden obtener mayores capacidades
por menos costes mediante la optimización de la gestión del ancho de banda.
También conocida como gestión de políticas. Por lo tanto, el ampliar el ancho
de banda debe utilizarse como una solución puntual para resolver determinadas
situaciones de congestión en determinados puntos de la red y para determinados
tipos de redes. Es medianamente factible para redes LAN y prácticamente
imposible para redes WAN, mientras los precios sigan siendo tan elevados. Es
por tanto, una solución costosa, con durabilidad mínima debido al crecimiento
del tráfico de la red y de las necesidades de ancho de banda de determinados
tipos de tráfico.
PROTOCOLOS Y ARQUITECTURAS DE QOS
RSVP
surgió en 1990 como el método definitivo para alcanzar el nirvana QoS, pero el
protocolo fue diseñado para una única arquitectura de red, y no para el mundo
heterogéneo que hoy cunde en el networking. En consecuencia, no faltaron voces
que solicitaban su sustitución por otras alternativas más adaptadas a la
realidad, pero la reunión del IETF del mes de agosto de 1998 permitió
contemplar la posibilidad de que las diferentes tecnologías de QoS trabajasen
juntas para proporcionar los tan deseados niveles de QoS, pensando en usar RSVP
en los routers de extremo, DiffServ en la parte central para agregar tráfico,
MPLS para especificar la mejor ruta para el tráfico a través de la red
utilizando etiquetas y 802.1p/q para redes 802.
Clasificación De Los Distintos Protocolos
Las
aplicaciones, la topología de la red y la política de QoS dictan qué tipo de
QoS es más apropiado para un flujo individual o para varios. De entre todas las
opciones, los protocolos y algoritmos más utilizados son :
Reservation
protocol (rsvp): protocolo de reserva de recursos.
Proporciona
la señalización para permitir la reserva de recursos de la red (conocido
también como Servicios Integrados o Integrated Services). Aunque se usa
típicamente para un solo flujo (per flow), RSVP también se utiliza para flujos
agregados (per aggregates). Hablaremos de flujos agregados cuando circule más
de un flujo por la red.
El
Protocolo de Reserva de Recursos [RFC2205, Versión 1 Functional Specification]
es un protocolo de señalización que proporciona un control para la reserva,
orientado fundamentalmente a redes IP. Es un componente clave de la
arquitectura de los Servicios Integrados en Internet IETF(IntServ) en la que se
define el funcionamiento y la forma de petición e intercambio de información
entre y para cada elemento de la red y así realizar un control de la calidad de
servicio. La reserva de recursos se realiza en los routers intermedios situados
a lo largo de toda la ruta de datos de la aplicación.
Es,
hasta el momento, la más compleja de todas las tecnologías de QoS para las
aplicaciones (hosts) y para los distintos elementos de la red (encaminadores y
puentes).
Como resultado,
representa el mayor estándar creado desde el servicio best effort de las redes IP,
proporcionando el mayor nivel de QoS en términos de servicio garantizado,
granularidad de localización de recursos y el mayor detalle sobre la forma de
actuación de aplicaciones y usuarios que proporcionan QoS.
RSVP
fue creado en 1990 por IETF, definiendo un modelo de asignación de QoS en el
que cada receptor (para una sesión) fuese responsable de elegir su propio nivel
de reserva de recursos, iniciando la reserva y manteniéndola activa tanto
tiempo como desee.
En
definitiva, RSVP permite que las aplicaciones soliciten una calidad de servicio
específica a la red. En vez de un protocolo de encaminamiento es más bien un
protocolo de control de Internet. Su tarea consiste en establecer y mantener
las reservas de recursos en un árbol de distribución, con independencia de cómo
se hayan creado.
El grupo de
trabajo Integrated Services del IETF ha considerado la existencia de varias
clases de QoS, si bien actualmente sólo dos de éstas han sido formalmente
especificadas para ser utilizadas con RSVP:
·
Servicios garantizados (Guaranteed
Service)(service_number 2)[RFC2211]: Este servicio proporciona un
nivel de ancho de banda y un límite en el retardo, garantizando la no
existencia de pérdidas en colas. Está pensado para aplicaciones con
requerimientos en tiempo real, tales como ciertas aplicaciones de audio y
vídeo. Cada router caracteriza el SG para un flujo específico asignando un
ancho de banda y un espacio en buffer.
·
Servicio de Carga Controlada
(Controlled-LoadService)(service_number 5)[RFC2212]:A diferencia
del SG este servicio no ofrece garantías en la entrega de los paquetes. Así,
será adecuado para aquellas aplicaciones que toleren una cierta cantidad de
pérdidas y un retardo mantenidos en un nivel razonable. Los routers que
implementen este servicio deben verificar que el tráfico recibido siga las
especificaciones dadas por el Tspec, y cualquier tráfico que no las cumpla será
reenviado por la red, como tráfico best-effort.
ANTECEDENTES DE
La recopilación
de trabajos de investigación ayudó a la documentación de este proyecto, citando
algunos como los siguientes:
·
Titulo de
Para
realizar análisis de tráfico existe una gran variedad de soluciones que van
desde productos propietarios que incluyen hardware y software, hasta soluciones
gratuitas y de código abierto comúnmente utilizadas bajo sistemas Linux-UNIX;
por lo que en la práctica se basa en el análisis en dos aplicaciones gratuitas
como
URL: http://www.walc03.ula.ve/talleres/practicas/Practica3.doc
· Titulo de
La investigación servirá para orientar
en el análisis del tipo de muestras que se pueden generar de las pruebas de
trafico de red, así como el enfoque Estratégico que se le dará a la
investigación.
Resumen. El
presente trabajo trata sobre
Los esfuerzos
fueron dirigidos hacia la construcción
de una estrategia que permita la gestión de la red UCLV, y por tanto se
analizan todos los elementos que influyen de una manera u otra en la
administración del equipamiento y de los servicios. También se muestran resultados de pruebas de tráfico, aplicadas
en algunos de los enlaces de la red UCLV en diferentes condiciones, en los
que se muestra el cambio de la velocidad y latencia de paquetes. El
perfeccionamiento realizado al ancho de banda es indispensable para la
transmisión de la información de gestión manejada a nivel de Intranet.
Ing. José Luis Acebo Puentes. Dr. Félix Alvarez
Paliza.
Universidad Central “Marta Abreu” de Las Villas.
Carretera a Camajuaní Km. 5
Santa Clara, Villa Clara; (puentes@uclv.edu.cu)
URL: http://www.cujae.edu.cu/eventos/Citel2004/Trabajos/Trabajos/CIT001.pdf
· Titulo de
Este Plan serviría como esquema base de
objetivos para desarrollar el Plan estratégico e implementar Calidad de Servicio en las redes.
Creación del marco que permita la
evaluación, implantación y control de servicios…
Empresa IICA (únicos Datos)
URL: www.ucm.es/BUCM/plan_estrategico_2005_2006.pdf
· Titulo de
Presenta Estrategia en el desarrollo de
aplicaciones como La reserva de protocolos para el ancho de banda y garantias
de calidad de serviciós, puntos tales que funjiran como sustento al tema a
desarrollar;
Resumen: “que
mitiguen el retardo en las aplicaciones sensibles al tiempo. Esos protocolos y
garantías, por ejemplo, deberían permitir a servidores y peticionarios de
flujos de vídeo resultados por encima de las capacidades actuales y hacerlos
capaces de mayores prestaciones para alcanzar el objetivo de un nuevo WWW para
la educación, el entretenimiento y los negocios"…
Novática 127 (Mayo-Junio 1997); Novática es la revista
de ATI (Asociación de Técnicos de Informática). Traducción: María del Carmen Ugarte García, Samuel
Linares, Miguel Angel Jiménez, Rafael Fernández Calvo
URL: http://www.ati.es/novatica/1997/127/intdos.html
· Titulo de
Esta investigación se basa en el de una
herramienta para analizar la red en tiempo real si modificarla, y esto es
similar a uno de los objetivos planteados en esta investigación.
Resumen:
Quality of Service
Real-time Analizer for IP Networks
A. Navarro y J. Domingo
URL: http://www.rediris.es/rediris/boletin/66-67/ponencia7.pdf
DEFINICIÓN DE TÉRMINOS
Ancho de banda (bandwidth): Término técnico que determina el volumen de
información que puede circular por un medio físico de comunicación de datos, es
decir, la capacidad de una conexión. A mayor ancho de banda, mejor velocidad de
acceso; más personas pueden utilizar el mismo medio simultáneamente. Se mide en
hertz o bps (bits por segundo), por ejemplo 32 Kbps, 64 Kbps, 1 Mbps, etc.
IP (Internet Protocol): Protocolo de Internet definido en el RFC 791. Confirma
la base del estándar de comunicaciones de Internet. El IP provee un método para
fragmentar (deshacer en pequeños paquetes) y rutear (llevar desde el origen al
destino) la información. Es inseguro, ya que no verifica que todos los
fragmentos del mensaje lleguen a su destino sin perderse en el camino. Por eso,
se complementa con el TCP.
Jitter: Desviación o desplazamiento de los pulsos en una
señal digital de alta frecuencia, ésta puede darse en términos de amplitud, desafase
temporal o el ancho de la señal. Una descripción corta podria ser: "es el
periodo del desplazamiento de la frecuencia de su lugar idea.
LAN- (Local Area Network o red de área local): Se trata de una red de
comunicación de datos geográficamente limitada (no supera por lo general un
radio de un kilómetro).
Plataforma: Término utilizado como referencia genérica de todas
las opciones posibles para una parte específica del entorno de computación. Por
ejemplo: plataforma del sistema operativo de desktop (podría incluir DOS, OS/2,
etc.) o plataforma del sistema operativo de red (NetWare, LAN Manager, etc.).
Políticas: Guías para orientar la acción; criterios o
lineamientos generales a observar en la toma de decisiones, sobre problemas que
se repiten una y otra vez en el ambiente de una organización.
Protocolo: Conjunto de normas que permiten que las computadoras
se comuniquen entre sí, especifica el formato, tiempo, secuencia y verificación
de errores para las transmisiones de datos.
QoS: Quality of Service. (Calidad del Servicio). Es una característica de
una red de telecomunicaciones que permite garantizar al cliente una calidad
pactada por cada servicio contratado.
Red de área amplia (WAN): Una WAN es dos LAN o más en lugares geográficos
separados que están conectadas por un vínculo remoto.
Red de área local (LAN): Sistema que une computadoras entre sí para formar una
red, con frecuencia mediante un sistema de cableado. Las LAN conectan
computadoras personales y equipos electrónicos de oficina, y permiten que los
usuarios se comuniquen, compartan recursos tales como almacenamiento de datos e
impresoras, y accedan a hosts remotos u otras redes.
Red: Sistema que envía y recibe datos y mensajes, generalmente a través de
un cable. Una red permite que un grupo de computadoras se comuniquen entre sí,
compartan periféricos (tales como discos rígidos e impresoras) y accedan a
hosts u otras redes remotas.
Ruteador o Router: Conexión de software y hardware entre dos o más
redes, con frecuencia de diseño similar, que permite que el tráfico sea
encaminado desde una red hacia otra en base a los destinos propuestos de dicho
tráfico.
Switch: Un dispositivo de red capaz de realizar una serie de
tareas de administración, incluyendo el redireccionamiento de los datos.
Topología: La "forma" de la red. Predominan tres tipos
de tecnologías: Bus, Estrella y Anillo.
Trafico de datos: Se denomina tráfico a la cantidad de datos que
circulan por la red. Esta circulación se mide en unidades de información por
unidad de tiempo: bits/segundo, Kb/segundo, o Mb/segundo.
WAN (Wide Area Network o Red de área
amplia): Una red generalmente
construida con líneas en serie que se extiende a distancias mayores a un
kilómetro.
http://www.mazalan.com/cgi-bin/Diccionarios/Diccionarios.cgi?acc=multiSearch&Diccionario=8
http://www.cnice.mec.es/tecnologica/experto/ip/index.htm
http://www.monografias.com/trabajos5/redwan/redwan.shtml