Post on 31-Jul-2018
TEMARIO REDES DE COMPUTADORAS
Unidad 1 Capa de Red
1.1 Principios Basicos en Capa de Red
1.2 Direccionamiento Capa de Red
1.2.1 Determinacion Ruta Capa de Red
1.2.1.1 Algoritmos Encaminamiento
1.2.2 Subredes
1.3 Protocolos de Enrutamiento
1.3.1 El Enrutamiento en Entorno Mixtos de medios de LAN
1.3.2 Operaciones Basicas Router
1.3.3 Rutas Estaticas y Dinamicas
1.3.4 Ruta por Defecto
1.3.5 Protocolos Enrutados y de Enrutamiento
1.3.6 Informacion Utilizada por Routers para ejecutar sus funciones basicas
1.3.7 Configuracion de Rip
1.4 Arp , Rarp
1.5 Igrp , Egp
Unidad 2 Capas superiores del modelo OSI
2.1 Capa Transporte Osi
2.1.1 Parametros para lograr la Calidad Servicio de Transporte
2.1.1.1 Servicios Orientados a Conexion
2.1.1.2 Servicios Orientados a no Conexion
2.2 Capa De Sesion Osi
2.2.1 Intercambio de Datos
2.2.2 Administracion del Dialogo
2.2.3 Sincronizacion Capa Sesion
2.2.4 Notificacion de Excepciones
2.2.5 Llamada Procedimientos Remotos
2.3 Capa de presentación
2.3.1 Codigos de Representacion de Datos
2.3.2 Tecnicas Compresion Datos
2.3.3 Criptografia Capa Presentacion
2.4 Capa de aplicación
2.4.1 Configuracion Servicios
Unidad 3 Técnicas de conmutación
3.1 Conmutacion Circuitos
3.2 Conmutacion Mensajes
3.3 Conmutacion Paquetes
3.3.1 Topologia Redes de Paquetes
3.3.2 Datagramas y Circuitos Virtuales
3.3.2.1 Estructura Conmutadores
3.3.2.2 Conmutacion de Paquetes
3.3.3 Encaminamiento Redes de Paquetes
3.3.4 Gestion de Trafico
3.3.5 Control de Congestion
Unidad 4 TCP/IP
4.1 Modelo Cliente Servidor
4.2 Protocolo de Internet Ip movil
4.3 Protocolos de Transporte Udp Tcp
4.4 Protocolos Nivel Aplicacion
4.4.1 Smtp Protocolo
4.4.2 Ftp Protocolo
4.4.3 http Protocolo
4.4.4 Nfs Protocolo
4.4.5 Dns Protocolo
Unidad 1 Capa de Red
1.1 Principios Basicos en Capa de Red
Una de las tecnologías más prometedoras y discutidas en esta década es la de poder
comunicar computadoras mediante tecnología inalámbrica. La conexión de computadoras
mediante Ondas de Radio o Luz Infrarroja, actualmente está siendo ampliamente investigado.
Las Redes Inalámbricas facilitan la operación en lugares donde la computadora no puede
permanecer en un solo lugar, como en almacenes o en oficinas que se encuentren en varios
pisos.
Mientras que las redes inalámbricas actuales ofrecen velocidades de 2 Mbps, las redes
cableadas ofrecen velocidades de 10 Mbps y se espera que alcancen velocidades de hasta 100
Mbps. Los sistemas de Cable de Fibra Optica logran velocidades aún mayores, y pensando
futuristamente se espera que las redes inalámbricas alcancen velocidades de solo 10 Mbps.
Sin embargo se pueden mezclar las redes cableadas y las inalámbricas, y de esta manera
generar una “Red Híbrida” y poder resolver los últimos metros hacia la estación.
Existen dos amplias categorías de Redes Inalámbricas:
De Larga Distancia.- Estas son utilizadas para transmitir la información en espacios que pueden
variar desde una misma ciudad o hasta varios países circunvecinos (mejor conocido como
Redes de Area Metropolitana MAN); sus velocidades de transmisión son relativamente bajas,
de 4.8 a 19.2 Kbps.
De Corta Distancia.- Estas son utilizadas principalmente en redes corporativas cuyas oficinas se
encuentran en uno o varios edificios que no se encuentran muy retirados entre si, con
velocidades del orden de 280 Kbps hasta los 2 Mbps.
Existen dos tipos de redes de larga distancia: Redes de Conmutación de Paquetes (públicas y
privadas) y Redes Telefónicas Celulares. Estas últimas son un medio para transmitir
información de alto precio. Debido a que los módems celulares actualmente son más caros y
delicados que los convencionales, ya que requieren circuiteria especial, que permite mantener
la pérdida de señal cuando el circuito se alterna entre una célula y otra.
REDES DE AREA LOCAL (LAN).
Las redes inalámbricas se diferencian de las convencionales principalmente en la “Capa Física”
y la “Capa de Enlace de Datos”, según el modelo de referencia OSI. La capa física indica como
son enviados los bits de una estación a otra. La capa de Enlace de Datos (denominada MAC), se
encarga de describir como se empacan y verifican los bits de modo que no tengan errores.
PUNTOS DE ACCESO.
Las características a considerar son :
1.- La antena del repetidor debe de estar a la altura del techo, esto producirá una mejor
cobertura que si la antena estuviera a la altura de la mesa.
2.- La antena receptora debe de ser más compleja que la repetidora, así aunque la señal de la
transmisión sea baja, ésta podrá ser recibida correctamente.
Un punto de acceso compartido es un repetidor, al cual se le agrega la capacidad de
seleccionar diferentes puntos de acceso para la retransmisión. (esto no es posible en un
sistema de estación-a-estación, en el cual no se aprovecharía el espectro y la eficiencia de
poder, de un sistema basado en puntos de acceso).
TOPOLOGIA Y COMPONENTES DE UNA LAN HIBRIDA.
En el proceso de definición de una Red Inalámbrica Ethernet debe de olvidar la existencia del
cable, debido a que los componentes y diseños son completamente nuevos. Respecto al
CSMA/CD los procedimientos de la subcapa MAC usa valores ya definidos para garantizar la
compatibilidad con la capa MAC. La máxima compatibilidad con las redes Ethernet cableadas
es, que se mantiene la segmentación.
1.2 Direccionamiento Capa de Red
La dirección de red ayuda al router a identificar una ruta dentro de la nube de red, el router
utiliza esta dirección de red para identificar la red destino de un paquete dentro de la red. Lee
despacio estos conceptos, son muy sencillos y obvios pero si tienes la base clara te ayudará
mucho a comprender como funcionan las redes.
Además de la dirección de red, los protocolos de red utilizan algún tipo de dirección de host o
nodo. Para algunos protocolos de capa de red, el administrador de la red asigna direcciones de
red de acuerdo con un plan de direccionamiento de red por defecto. Para otros protocolos de
capa de red, asignar direcciones es una operación parcial o totalmente dinámica o automática.
Sin el direccionamiento de capa de red, no se puede producir el enrutamiento. Los routers
requieren direcciones de red para garantizar el envío correcto de los paquetes. Si no existiera
alguna estructura de direccionamiento jerárquico, los paquetes no podrían transportarse a
través de una red.
La dirección MAC (la que viene grabada de fábrica en las tarjetas de red) se puede comparar
con el nombre de las personas, y la dirección de red con su dirección postal. Si una persona se
muda a otra ciudad, su nombre propio seguiría siendo el mismo, pero la dirección postal
deberá indicar el nuevo lugar donde se puede ubicar. Los dispositivos de red (los routers así
como también los ordenadores individuales) tienen una dirección MAC y una dirección de
protocolo (capa de red). Cuando se traslada físicamente un ordenador a una red distinta, el
ordenador conserva la misma dirección MAC, pero se le debe asignar una nueva dirección de
red.
La función de capa de red es encontrar la mejor ruta a través de la red. Para lograr esto, utiliza
dos métodos de direccionamiento: direccionamiento plano y direccionamiento jerárquico. Un
esquema de direccionamiento plano asigna a un dispositivo la siguiente dirección disponible.
No se tiene en cuenta la estructura del esquema de direccionamiento. Un ejemplo de un
esquema de direccionamiento plano es el sistema de numeración del DNI.
1.2.1. Determinacion Ruta Capa de Red
La función que determina la ruta se produce a nivel de Capa 3 (capa de red). Permite al router
evaluar las rutas disponibles hacia un destino y establecer el mejor camino para los paquetes.
Los servicios de enrutamiento utilizan la información de la topología de red al evaluar las rutas
de red. La determinación de ruta es el proceso que utiliza el router para elegir el siguiente
salto de la ruta del paquete hacia su destino, este proceso también se denomina enrutar el
paquete.
Los routers, como dispositivos inteligentes que son, verán la velocidad y congestión de las
líneas y así elegirán la mejor ruta. Por ejemplo para ir de Logroño a Madrid pueden coger una
nacional con poco tráfico en lugar de la autopista con atasco de tráfico. Y viceversa puede
decidir ir por autopista aunque sea el camino mas largo (varios routers) que la carretera
directa mas lenta.
1.2.1.1 Algoritmos Encaminamiento
Podemos definir encaminamiento como un proceso mediante el cual tratamos de encontrar un
camino entre dos puntos de la red: el nodo origen y el nodo destino. El objetivo que se
persigue es encontrar las mejores rutas entre pares de nodos
Los algoritmos de encaminamiento pueden agruparse en:
Determinísticos o estáticos
No tienen en cuenta el estado de la subred al tomar las decisiones de encaminamiento. Las
tablas de encaminamiento de los nodos se configuran de forma manual y permanecen
inalterables hasta que no se vuelve a actuar sobre ellas. Por tanto, la adaptación en tiempo
real a los cambios de las condiciones de la red es nula.
ALGORITMOS DE ENCAMINAMIENTO.
Los algoritmos de encaminamiento se agrupan en dos tipos principales: no adaptativos y
adaptativos. Los algoritmos no adaptativos no basan sus decisiones de encaminamiento en
mediciones o estimaciones de trafico o topología Actuales.
ENCAMINAMIENTO POR EL CAMINO MÁS CORTO.
El camino mas corto es una forma de medir la longitud del camino. En el caso mas general, las
etiquetas de los arcos se podrían calcular como una función distinta, ancho de Banda,
promedio de trafico, costo de comunicación, longitud promedio de la cola de espera, retardo
medido, y algunos otros factores.
ENCAMINAMIENTO DE CAMINO MÚLTIPLE.
Existe un solo “mejor” camino entre cualquier par de nodos y que todo él trafico entre ellos
deberá utilizar. Con frecuencia, se puede obtener un mejor rendimiento al dividir él trafico
entre varios caminos, para reducir la carga en cada una de las líneas de comunicación. La
técnica se conoce como Encaminamiento de camino múltiple, o algunas veces
encaminamiento bifurcado. Se aplica tanto en subredes con data gramas, como en subredes
con circuitos virtuales .
ENCAMINAMIENTO CENTRALIZADO.
Si la topología es de característica estática y él trafico cambia muy rara vez. Sin embargo, si los
IMP y las líneas se desactivan y después se restablecen, o bien, si el tráfico varia violentamente
durante todo el día, se necesitará algún mecanismo para adaptar las tablas a las circunstancias
que imperan en este momento.
La vulnerabilidad del RCC Es un problema muy serio y para eso una solución es, tener una
segunda maquina disponible como respaldo. También se necesitará establecer un método de
arbitraje para tener la seguridad de que el RCC primario y el de respaldo no lleguen a entrar en
conflicto para saber quien es el jefe.
ENCAMINAMIENTO AISLADO
En los algoritmos de encaminamiento, únicamente basados en la información que los mismos
hayan reunido. No intercambia información de rutas con otros IMP. Sin embargo tratan de
adaptarse a los cambios de topología y trafico que se llegan a presentar. Baran (1964),
conocido como el algoritmo de la patata caliente.
En el momento en que llega un paquete, el IMP trata de deshacerse de él tan rápido como le
sea posible, al ponerlo en la cola de espera de salida más corta ósea llega un paquete, el IMP
cuenta él numero de paquetes que se encuentran en la cola de espera de cada una de las
líneas de salida. Entonces instala el nuevo paquete al final de la cola de salida más corta, sin
tomar en cuenta el lugar al que se dirige esta línea. Una posibilidad consisten utilizar la mejor
opción estática, a menos que la cola excediera un cierto valor de umbral. Otra posibilidad
consiste en utilizar la cola de espera más corta, a menos que, su peso estático seademasiado
pequeño.
Las simulaciones Que realizó Rudin, han demostrado que el valor de Ç puede escogerse para
dar un mejor rendimiento que el obtenido con un encaminamiento puramente centralizado o
aislado.
-Inundación.
La inundación es un caso extremo del encaminamiento aislado, en el cual cada paquete que
llega se transmite en todas las líneas de salida, exceptuando aquélla por la que llega. Con la
inundación se genera un número infinito, a menos que se tomen algunas medidas para
amortiguar el proceso. Una de tales medidas consiste en tener un contador de saltos
contenido en la cabecera de cada uno de los paquetes, el cual sé decremento con cada salto
que se lleva a cabo, y el paquete se desecha en el momento en que el contador alcance el
valor de cero.
El algoritmo de Camino Aleatorio; aquí el IMP se encarga simplemente de seleccionar una línea
aleatoriamente y reexpedir el paquete a través de ella. Si la subred tiene una cantidad
considerable de interconexiones, este algoritmo tiene una cantidad considerable de
interconexiones, este algoritmo tiene la propiedad de hacer un uso excelente de los
encaminamientos alternativos. También es muy robusto.
Encaminamiento distribuido.
Intercambia periódicamente información de encaminamiento explicito con cada uno de sus
vecinos. Esta entrada consta de dos partes: la línea preferida de salida que se utilice para dicho
destino, y alguna estimación del tiempo o distancia hacia él.
Encaminamiento Optimo.
Como una consecuencia directa del principio de optimización, se puede observa que, el
conjunto de rutas optimas, procedentes de todos los orígenes a un destino dato, forman un
árbol cuya raíz sale del destino. A este árbol se le llama árbol sumidero, este no contiene
ningún lazo, de tal forma que cada paquete será entregado a través de un número limitado
finito de saltos.
Encaminamiento basado en el flujo.
Para utilizar en forma adecuada, es necesario conocer anticipadamente cierto tipo de
información. Primero, se deberá conocer la topología de la red. Segundo la matriz de trafico
deberá darse a conocer. Tercero, también deberán conocerse la matriz de capacidades en las
líneas en Bits por segundo. Por ultimo se deberá seleccionar un algoritmo de
encaminamiento. El retardo incluye tanto tiempo de espera como el tiempo de servicio. Para
calcular el tiempo de retardo medio de la red completa, se toma la suma ponderada de cada
uno de los ocho enlaces, en donde la ponderación es la fracción del trafico total.
Encaminamiento jerárquico.
A medida que crece el tamaño de la red, tablas de encadenamiento de los IMP crecen también
en forma proporcional. No solamente se produce un aumento de memoria consumida en el
IMP al tener tablas más grandes, sino también es necesario tener un mayor tiempo de CPU
para explorarlas y más ancho de banda para transmitir los informes del estado que guardan.
Encaminamiento por difusión.
Para algunas aplicaciones, los hostales necesitan transmitir mensajes a todos los demás
hostales. En algunas redes los IMP pueden llegar a necesitar este tipo de servicio, por ejemplo,
distribuir la actualización de las tablas de encaminamiento. A la transmisión de un paquete, en
forma simultanea a todos los destinos, se les conoce como difusión, habiéndose ya propuesto
varios métodos para desarrollarla.
En un método de difusión en el que no es necesario que la subred tenga características
especiales, el extremo fuente solamente tiene que enviar un paquete distinto de información a
cada destino. Esto no solo trae como resultado un desperdicio considerable del ancho de
banda, sino también requiere que la fuente tenga una lista completa de todos los destinos.
Un algoritmo es el encaminamiento multidestino. Si este método se utiliza, cada paquete
contiene una lista de destinos o un mapa de bits, mediante el cual se indican los destinos
deseados.
ALGORITMOS DE CONTROL DE LA GESTION.
En esta sección se estudiaran cinco estrategias para el control de la congestión. Estas
estrategias toman en consideración la asignación de recursos en forma anticipada, que se
desechen los paquetes cuando no se puedan procesar, que se restrinja él numero de paquetes
en la subred, utilizar el control de flujo para evitar la congestión y obstruir la entrada de datos
cuando la subred esté sobrecargada.
Preasignación de tampones.
Si se utilizan circuitos virtuales dentro de la subred, es posible resolver por completo el
problema de la congestión de la manera siguiente. Cuando se establece un circuito virtual, el
paquete de solicitud de llamada sigue su camino a través de la subred, produciendo entradas
en las tablas según avanza. En el momento en que llega a su destino, la ruta que deberá seguir
todo él trafico subsiguiente ya se ha determinado, así como se han hecho entradas en las
tablas de encaminamiento de todos los IMP intermedios.
Descarte de paquetes.
En lugar de reservar todos los tampones anticipadamente, no se reserva absolutamente nada
por adelantado. Si llega un paquete y no existe un lugar disponible para colocarlo, el IMP
sencillamente lo descarta.
Descartar paquetes ha voluntad puede llegar demasiado lejos; Resultaría bastante tonto. Este
asentimiento le permitiría al IMP abandonar un paquete ya recibido y liberar así un tampón. Si
el IMP no cuenta con tampones disponibles, no podría recibir ningún paquete para ver si
contiene asentamientos, si la congestión tiene que ser evitada mediante el descarte del
paquete será necesario tener una regla para indicar cuando se deberá conservar o descartar
un paquete. Irland (1978.)
Control de flujo.
Algunas redes han intentado utilizar mecanismos de control de flujo para eliminar la
congestión. En la realidad, el control de flujo no puede llegar ha resolver fácilmente los
problemas de congestión, por él trafico de unas ráfagas.
Cuando varios usuarios soliciten el pico máximo al mismo tiempo cuando el control de flujo se
utiliza como un intento para acabar con la congestión se puede aplicar al trafico entre paredes:
1. Procesos de Usuarios.
2. Hostales.
3. IMP de origen y destino.
Además se puede restringir él numero de circuitos virtuales abiertos.
Paquetes reguladores.
Lo que en la realidad se necesita por consiguiente es : un mecanismo que se active cuando el
sistema sé llege a congestionar. Hay una variable U, asociada a cada una de las líneas, cuyo
valor entre cero y uno, refleja la utilización de esa línea. Si es el caso, el IMP transmite un
paquete regulador, de vuelta al Hostal de origen, tomando el destino del paquete mismo. El
paquete se etiqueta dé tal forma que no pueda generar mas paquetes reguladores después, y
se reexpida de manera normal cuando el hostal de origen recibe al paquete regulador se le
solicita que reduzca él trafico, enviado al destino especificado de acuerdo a un porcentaje X.
Bloqueos.
La congestión máxima es un bloqueo al que también se le conoce como estacionamiento. El
primer IMP no puede proseguir hasta que el segundo IMP lleve a cabo una acción, y el segundo
IMP tampoco puede continuar por que esta esperando que el primero haga algo. Los dos IMP
se han bloqueados por completo y permanecerán así en ese estado. Los dos se encuentran
bloqueados y ha esta función se le conoce como bloqueo de almacenamiento y reenvió
directo. Schweitzer(1980) en este esquema se construye un grafo dirigido, en el cual los
tampones son los nodos del grafico, los arcos conectan a pares de tampones localizados en el
mismo IMP o en IMP adyacentes el grafo se construye dé tal manera que si todos los paquetes
se mueven de un tampón a otro, alo largo de los arcos de grafo, entonces no podrían
presentarse bloqueos.
Podemos definir encaminamiento como un proceso mediante el cual tratamos de encontrar un
camino entre dos puntos de la red: el nodo origen y el nodo destino. El objetivo que se
persigue es encontrar las mejores rutas entre pares de nodos j-k.
a) Mejor Ruta. Por mejor ruta se entiende aquella que cumple alguna de estas condiciones:
* presenta el menor retardo medio de transito,
* consigue mantener acotado el retardo entre pares de nodos de la red (Tjk<To),
* consigue ofrecer altas cadencias efectivas independientemente del retardo medio de
transito
* ofrezca el menor coste.
b) Métrica de la Red. Citaremos dos de ellas:
* Numero de saltos (canales) necesarios para ir de un nodo a otro. No se comporta de forma
óptima, pero si ofrece buenos resultados, y es empleada con bastante frecuencia.. La distancia
(valor que se asocia a cada canal) es igual a 1 para todos los canales.
* Retardo de Transito entre nodos vecinos. En este caso la distancia se expresa en unidades
de tiempo (p.e ms), y no es constante a lo largo del tiempo sino que depende del trafico que
soporta el canal.
Algunos de los problemas con los que nos encontramos a la hora de encaminar son:
* La carga de los enlaces no va a ser constante (es decir, el mejor camino no siempre será el
mismo), al igual que la tasa de generación de mensajes. El encaminamiento busca el camino
óptimo, pero como el tráfico varía con el tiempo, el camino óptimo también dependerá del
instante en que se observa la red.
* Hay que tener en cuenta los cambios en la topología de la red (hay nodos que se caen, o se
añaden, o se quitan, etc).
* Existen recursos limitados, no pudiendose cursar todos los paquetes a infinita velocidad.
* Asincronía, en el sentido de que no hay un momento determinado para que ocurran las
cosas (un nodo transmite cuando le llega información, y esto sucede a su vez cuando el usuario
decide mandarla).
Por tanto, el encaminamiento debe proveer a la red de mecanismos para que ésta sepa
reaccionar ante situaciones como:
* Variabilidad del tráfico: se han de evitar las congestiones de la red.
* Variaciones topológicas, como las mencionadas arriba: caídas de enlaces, caídas de nodos,
altas y bajas.
* Cambios en la QoS (Quality of Service): a veces se pide un servicio donde no importa el
retardo y sí un alto throughput, y viceversa.
La nomeclatura que utilizaremos es la siguiente:
* Algoritmo de encaminamiento: método para calcular la mejor ruta para llegar de un sitio a
otro. La mejor ruta podrá calcularse en función de los ‘costes’, retardos, distancia…
* Protocolo de encaminamiento: es la manera que tienen los nodos de intercambiar la
información de encaminamiento (probablemente generada por el algoritmo). Los protocolos
serán los encargados de ocultar la red y comprobar que las condiciones de encaminamiento
impuestas se verifican siempre.
* Decisión de encaminamiento:
Nos centraremos en redes de conmutación de paquetes, tanto en modo datagrama como en
modo circuito virtual:
* Red en modo circuito virtual: Si la red funciona en modo circuito virtual generalmente se
establece una ruta que no cambia durante el tiempo de vida de ese circuito virtual, ya que esto
es lo más sencillo para preservar el orden de los paquetes. El encaminamiento se decide por
sesión y no se cambia a menos que sea imprescindible, es decir existen restricciones de cara a
no cambiar el encaminamiento en la sesión (ej. caída de un enlace). Cuando eso ocurre se
busca inmediatamente otra ruta, pero este cambio al tardar en propagarse por la red, al tardar
los nodos en enterarse, se puede manifestar en los sistemas finales de tres formas:
o no se manifiesta
o se pierde información
o se pierde la sesión.
* Red en modo datagrama: Como en este caso no debe garantizarse el ordenamiento final
de los paquetes, en una red funcionando en modo datagrama se puede cambiar el criterio de
encaminamiento por cada paquete que se ha de cursar (Esto da origen a menor numero de
problemas).
Los requisitos del algoritmo de encaminamiento son:
* Corrección: Se ha de entregar la información correctamente. Es algo obvio: queremos que
el paquete llegue precisamente al nodo al que lo mandamos.
* Simplicidad: debe aportar soluciones sencillas. Esto es útil para redes reales (grandes) y los
protocolos mas simples son los que en la actualidad tienden a imponerse (p.e. RIP: Routing
Interconexion Protocol).
* Robustez: El algoritmo ha de ser insensible a inestabilidades del sistema. Estas
inestabilidades son, por ejemplo, caidas de nodos, etc, que han de ser previstas de antemano.
* Estabilidad (convergencia): Es muy importante que se cumpla. El procedimiento debe
converger antes de que la red cambie de estado (caída de nodo, alta de usuario, etc.). Cuando
esto ocurre, se recalculan de nuevo las rutas, debiendo los nodos llevar a cabo acciones
coherentes que conduzcan a situaciones estables.
* Equidad (justicia): Debe tratar a todos los usuarios de la misma manera.
* Trazabilidad (gestionabilidad): Supone tener información (trazas) de lo que ha hecho la red
para que en el caso de que ocurran “cosas raras” sea posible corregirlas.
* Escalabilidad: Tengo que tener un comportamiento optimo sea cual sea el numero de
nodos ( incluso si este aumenta mucho).
5.2 Métodos de Encaminamiento: lo cual nos valdrá para hacer una posterior claseficación de
los métodos de encaminamiento atendiendo a la forma en la que los nodos recogen y
distribuyen la información que les llega de la red y a otros factores:
* FIB (Forward Information Base): Es la tabla de encaminamiento que se consulta para hacer
el reenvío de los paquetes generados por los usuarios (los PDU representan estos paquetes).
* RIB (Routing Information Base): Tabla que almacena las distancias a los nodos. Es la base
de información de encaminamiento que se consulta para decidir y formar la FIB. La
información de la RIB se consigue mediante interacción con el entorno local de cada nodo
(cada nodo observa sus enlaces) y mediante la recepción de R-PDUs d e información de control
procedentes de otros nodos vecinos que informan del conocimiento que estos nodos tienen
sobre el estado de la red. A su vez, con la información obtenida por la RIB, ésta manda PDUs
de control para informar del conocimiento del estado de la red que el nodo tiene a los demás
nodos.
* LOCAL: Información del entorno local del nodo. Contiene la información de lo que el nodo
ve (memoria disponible, enlaces locales, etc.), más la que hay que proporcionarle.
* R-PDU (Routing-PDU): Información de control entre nodos. Son paquete de control, los
cuales mandan otros nodos con información sobre la red (no son datos). Por ejemplo, se
manda información de que el nodo sigue activo, y también las distancias a otros nodos (vector
de distancias).
* PDU (Protocol Data Unit): Unidad fundamental de intercambio de información para un
nivel determinado (a veces se indica explícitamente el nivel poniendo N-PDU, o PDU de nivel
N), como nivel de enlace, red, etc. Son llamados también tramas.
5.2.2 Clasificación de los Métodos de Encaminamiento 1.- En función de donde se decide
encaminar:
* Fijado en el origen (Source Routing): son los sistemas finales los que fijan la ruta que ha de
seguir cada paquete. Para ello, cada paquete lleva un campo que especifica su ruta(campo RI:
Routing Information), y los nodos sólo se dedican a reenviar los paquetes por esas rutas ya
especificadas. Así pues, son los sistemas finales los que tienen las tablas de encaminamiento y
no se hace necesaria la consulta o existencia de tablas de encaminamiento en los nodos
intermedios. Este tipo de encaminamiento suele ser típico de las redes de IBM.
* Salto a salto (Hop by Hop): los nodos, sabiendo donde está el destino, conocen sólo el
siguiente salto a realizar.
2.- En función de la adaptabilidad:
* No adaptables (estáticos):
o Estáticos: Las tablas de encaminamiento de los nodos se configuran de forma manual
y permanecen inalterables hasta que no se vuelve a actuar sobre ellas. La adaptación a
cambios es nula. Tanto la recogida como la distribución de información se realiza por gestión
(se realiza de manera externa a la red), sin ocupar capacidad de red. El calculo de ruta se
realiza off-line (en una maquina especifica),y las rutas pueden ser las optimas al no estar
sometido al requisito de tiempo real. Este tipo de encaminamiento es el optimo para
topologias en los que solo hay una posibilidad de encaminamiento (topologia en estrella).
o Q-Estáticos: Este encaminamiento, es igual que el estático pero en vez de dar una sola
ruta fija, se dan además varias alternativas en caso de que la principal no funcione, de ahí que
tenga una adaptabilidad reducida.
Comparación entre ambos:
Fijado en Origen Salto a Salto
Conocimiento Los sistemas finales han de tener un conocimiento completo de la red
SIMPLICIDAD: Los nodos han de tener un conocimiento parcial de la red (saber qué
rutas son las mejores)
Complejidad Recae toda en los sistemas finales En los sistemas intermedios ya
que son los que tienen que encaminar
Problemas de Bucles No hay bucles: el sistema final fija la ruta (ROBUSTEZ). Sí
pueden ocurrir: no se tiene una visión completa de la red (INCONSISTENCIA)
* Adaptables (dinámicos):
o Centralizados: En este tipo de encaminamiento, todos los nodos son iguales salvo el
nodo central. Los nodos envían al central información de control a cerca de sus vecinos (R-
PDUs). El nodo central será el que se encargue de recoger esta información para hacer la FIB
de cada nodo, es decir, el nodo central decide la tabla de encaminamiento de cada nodo en
función de la información de control que éstos le mandan. El inconveniente de este metodo es
que consumimos recursos de la red, y además, se harian necesaria rutas alternativas para
comunicarse con el nodo central, ya que estos métodos es que dejarían de funcionar con la
caída de éste.
o Aislados: No se tiene en cuenta la información de los otros nodos a la hora de
encaminar. Se basa en que cada vez que un nodo recibe un paquete que tiene que reenviar
(porque no es para él) lo reenvía por todos los enlaces salvo por el que le llegó. Son muy útiles
para enviar información de emergencia. Destacan dos métodos de encaminamiento aislados:
+ Algoritmo de inundación: Ver anexo 1.
+ Algoritmo de aprendizaje hacia atrás(Backward Learning): Ver anexo 2.
+ Algoritmo de la patata caliente (“Hot Potatoe”).
o Distribuídos: Son los más utilizados. En este tipo de encaminamiento todos los nodos
son iguales, todos envían y reciben información de control y todos calculan, a partir de su RIB
(base de información de encaminamiento) sus tablas de encaminamiento. La adaptación a
cambios es optima siempre y cuando estos sean notificados. Hay dos familias de
procedimientos distribuídos:
+ Vector de distancias.
+ Estado de enlaces.
1.2.2 Subredes
Las redes se pueden dividir en subredes más pequeñas para el mayor aprovechamiento de las
mismas, además de contar con esta flexibilidad, la división en subredes permite que el
administrador de la red brinde contención de broadcast y seguridad de bajo nivel en la LAN. La
división en subredes, además, ofrece seguridad ya que el acceso a las otras subredes está
disponible solamente a través de los servicios de un Router. Las clases de direcciones IP
disponen de 256 a 16,8 millones de Hosts según su clase. El proceso de creación de subredes
comienza pidiendo “prestado” al rango de host la cantidad de bits necesaria para la cantidad
subredes requeridas. Se debe tener especial cuidado en esta acción de pedir ya que deben
quedar como mínimo dos bits del rango de host. La máxima cantidad de bits disponibles para
este propósito en una clase A es de 22, en una clase B es de 14 y en una clase C Es de 6.
El número de subredes que se pueden usar es igual a: 2 elevado a la potencia del número de
bits asignados a subred, menos 2. La razón de restar estos dos bits es por las direcciones que
identifican a la red original, la 000 y la dirección de broadcast de esta subred, la 111 según el
ejemplo anterior.
2N-2=Numero de subredes
Donde N es la cantidad de bits tomados al rango de host
Por lo tanto si se quieren crear 5 subredes VALIDAS (Preste atención al término validas), es
decir cumpliendo la formula 2N-2 tendrá que tomar del rango de host 3 bits:
23–2=6
Observe que no siempre el resultado es exacto, en este caso se pedían 5 subredes
pero se obtendrán 6
1.3 Protocolos de Enrutamiento
El Protocolo de información de enrutamiento permite que los routers determinen cuál es la
ruta que se debe usar para enviar los datos. Esto lo hace mediante un concepto denominado
vector-distancia. Se contabiliza un salto cada vez que los datos atraviesan un router es decir,
pasan por un nuevo número de red, esto se considera equivalente a un salto. Una ruta que
tiene un número de saltos igual a 4 indica que los datos que se transportan por la ruta deben
atravesar cuatro routers antes de llegar a su destino final en la red. Si hay múltiples rutas hacia
un destino, la ruta con el menor número de saltos es la ruta seleccionada por el router.
Como el número de saltos es la única métrica de enrutamiento utilizada por el RIP, no
necesariamente selecciona la ruta más rápida hacia su destino. La métrica es un sistema de
medidas que se utiliza para la toma de decisiones. luego veremos otros protocolos de
enrutamiento que utilizan otras métricas además del número de saltos, para encontrar la
mejor ruta a través de la cual se pueden transportar datos. Sin embargo, RIP continúa siendo
muy popular y se sigue implementando ampliamente. La principal razón de esto es que fue
uno de los primeros protocolos de enrutamiento que se desarrollaron.
Otro de los problemas que presenta el uso del RIP es que a veces un destino puede estar
ubicado demasiado lejos como para ser alcanzable. RIP permite un límite máximo de quince
para el número de saltos a través de los cuales se pueden enviar datos. La red destino se
considera inalcanzable si se encuentra a más de quince saltos de router. Así que resumiendo,
el RIP:
Es un protocolo de enrutamiento por vector de distancia
La única medida que utiliza (métrica) es el número de salto
El número máximo de saltos es de 15
Se actualiza cada 30 segundos
No garantiza que la ruta elegida sea la mas rápida
Genera mucho tráfico con las actualizaciones
1.3.1 El Enrutamiento en Entorno Mixtos de medios de LAN
Descripción de los componentes de enrutamiento: El enrutamiento determina cómo fluyen los
mensajes entre los servidores de la organización de Microsoft® Exchange y para los usuarios
externos a la organización. Para la entrega de mensajes internos y externos, Exchange utiliza el
enrutamiento con el fin de determinar primero la ruta más eficiente y, después, la ruta
disponible menos costosa. Los componentes del enrutamiento interno toman esta decisión
basándose en los grupos de enrutamiento y en los conectores que usted configura, y en los
espacios de direcciones y los costos asociados a cada ruta.
El enrutamiento es responsable de las siguientes funciones:
• Determinar el siguiente salto (el siguiente destino para un mensaje en ruta hasta su destino
final) según la ruta más eficiente.
• Intercambiar información de estado de los vínculos (el estado y la disponibilidad de los
servidores y las conexiones entre los servidores) dentro y entre los grupos de enrutamiento.
Tipos de componentes de enrutamiento Los componentes del enrutamiento componen la
topología, y las rutas empleadas para entregar correo interno y externo. El enrutamiento
utiliza los siguientes componentes que usted define dentro de la topología de enrutamiento:
• Grupos de enrutamiento Conjuntos lógicos de servidores que se utilizan para controlar el
flujo de correo y las referencias a carpetas públicas. Los grupos de enrutamiento comparten
una o varias conexiones físicas. Dentro de un grupo de enrutamiento, todos los servidores se
comunican y transfieren mensajes directamente entre sí.
• Conectores Rutas designadas entre los grupos de enrutamiento, hacia Internet o hacia otro
sistema de correo. Cada conector especifica una ruta unidireccional a otro destino.
• Información de estado de los vínculos Información acerca de grupos de enrutamiento,
conectores y sus configuraciones que el enrutamiento utiliza para determinar la ruta de
entrega más eficiente para un mensaje.
• Componentes del enrutamiento interno Los componentes del enrutamiento interno, en
particular el motor de enrutamiento, que proporcionan y actualizan la topología de
enrutamiento para los servidores de Exchange de su organización. Para obtener más
información acerca de los componentes del enrutamiento interno, consulte Descripción de los
componentes internos del transporte.
Descripción de los grupos de enrutamiento
En su estado predeterminado, Exchange Server 2003, como Exchange 2000 Server, funciona
como si todos los servidores de una organización formasen parte de un único grupo de
enrutamiento grande. Por lo tanto, cualquier servidor de Exchange puede enviar correo
directamente a cualquier otro servidor de Exchange de la organización. Sin embargo, en
aquellos entornos con necesidades administrativas especiales, una distribución geográfica y
conectividad de red variable, puede aumentar la eficacia del flujo de mensajes si se crean
grupos de enrutamiento y conectores de grupos de enrutamiento según la infraestructura de
red y los requisitos administrativos. Al crear grupos de enrutamiento y conectores de grupo de
enrutamiento, los servidores de un grupo de enrutamiento siguen enviándose mensajes
directamente entre sí, pero utilizan el conector de grupo de enrutamiento de esos servidores
con la mejor conectividad de red para comunicarse con servidores de otro grupo.
Para obtener más información acerca de la creación de grupos de enrutamiento y las
consideraciones necesarias, consulte Situaciones de implementación para la conectividad con
Internet.
• Los grupos administrativos definen los límites administrativos lógicos para los servidores de
Exchange.
• Los grupos de enrutamiento definen las rutas físicas por las que se transmiten los mensajes a
través de la red.
Sin embargo, la funcionalidad de los grupos de enrutamiento en un entorno de modo mixto,
donde algunos servidores ejecutan Exchange Server 2003 o Exchange 2000 Server mientras
otros ejecutan Exchange Server 5.5, es distinta de la del modo nativo. En modo mixto:
• No puede tener un grupo de enrutamiento que abarque varios grupos administrativos.
• No se pueden mover servidores entre grupos de enrutamiento que se encuentren en grupos
administrativos diferentes.
Descripción de los conectores
Los conectores proporcionan una ruta unidireccional para el flujo de mensajes hasta un
destino específico. Los conectores principales de Exchange Server 2003 son los siguientes:
• Conectores de grupo de enrutamiento Ofrecen una ruta unidireccional a través de la cual se
enrutan los mensajes desde los servidores de un grupo de enrutamiento hasta los servidores
de otro grupo de enrutamiento diferente. Los conectores de grupo de enrutamiento utilizan
una conexión del Protocolo simple de transferencia de correo (SMTP) para permitir la
comunicación con los servidores del grupo de enrutamiento conectado. Los conectores de
grupo de enrutamiento son el método preferido para conectar grupos de enrutamiento.
• Conectores para SMTP Se utilizan para definir rutas aisladas para el correo destinado a
Internet o a una dirección externa, o a un sistema de correo distinto de Exchange. No se
recomienda ni se prefiere el uso del conector para SMTP con el fin de conectar grupos de
enrutamiento. Los conectores para SMTP están diseñados para la entrega de correo externo.
• Conectores para X.400 Están diseñados principalmente para conectar servidores de
Exchange con otros sistemas X.400 o servidores de Exchange Server 5.5 que no pertenecen a la
organización de Exchange. Así, un servidor de Exchange Server 2003 puede enviar mensajes
con el protocolo X.400 a través de este conector.
Un algoritmo de estado de los vínculos ofrece las siguientes ventajas:
• Cada servidor de Exchange puede seleccionar la ruta óptima de los mensajes en el origen, en
lugar de enviar mensajes por una ruta en la que un vínculo (o una ruta) no está disponible.
• Los mensajes ya no van y vuelven entre los servidores porque cada servidor de Exchange
tiene información actualizada sobre si hay disponibles rutas alternativas o redundantes.
• Ya no se producen bucles de mensajes.
Costos y topología de enrutamiento
Si todas las conexiones entre los grupos de enrutamiento están disponibles, un servidor del
grupo de enrutamiento Seattle siempre enviará un mensaje al grupo de enrutamiento Bruselas
enviando el mensaje primero a través del grupo de enrutamiento Londres. Esta ruta tiene un
costo de 20 y es la ruta con el menor costo disponible. Pero si el servidor cabeza de puente de
Londres no está disponible, los mensajes cuyo origen sea Seattle y el destino sea Bruselas
viajarán a través del grupo de enrutamiento Tokio, que tiene un costo mayor de 35.
Hay que comprender un concepto importante y es que para que un conector se marque como
no disponible, todos los servidores cabeza de puente para ese conector deben estar inactivos.
Si ha configurado el conector del grupo de enrutamiento para utilizar la opción
predeterminada Cualquier servidor local puede enviar correo por este conector, se considerará
que el conector del grupo de enrutamiento siempre está en servicio. Para obtener más
información acerca de cómo configurar conectores de grupo de enrutamiento, consulte
“Conexión de grupos de enrutamiento” en Definición de grupos de enrutamiento.
El siguiente diagrama ilustra una empresa con la topología siguiente:
• Un conector para SMTP con un espacio de direcciones *.net y un costo de 20.
• Un conector para SMTP con un espacio de direcciones *, que engloba todas las direcciones
externas y tiene un costo de 10.
Cómo utiliza Exchange el espacio de direcciones para enrutar correo
En esta topología, cuando se envía correo a un usuario externo cuya dirección de correo
electrónico es tomas@treyresearch.net, el enrutamiento busca primero un conector cuyo
espacio de direcciones coincida mejor con el destino de treyresearch.net. El conector para
SMTP que tiene el espacio de direcciones *.net es el que mejor coincide con el destino, por lo
que el enrutamiento utiliza este conector, independientemente de su costo.
El enrutamiento no conmuta por error desde un conector que tiene un espacio de direcciones
específico a un conector que tiene un espacio de direcciones menos específico. En el caso
anterior, si todos los usuarios pueden emplear ambos conectores y un usuario intenta enviar
correo a un usuario de treyresearch.net, el enrutamiento ve como su destino el conector que
tiene el espacio de direcciones .net. Si este conector no está en servicio o no está disponible, el
enrutamiento no intentará buscar un conector con un espacio de direcciones diferente y
menos restrictivo como *, ya que lo considerará otro destino distinto.
1.3.2 Operaciones Basicas Router
Un router (en español: enrutador o encaminador) es un dispositivo hardware o software de
interconexión de redes de computadoras que opera en la capa tres (nivel de red) del modelo
OSI. Este dispositivo interconecta segmentos de red o redes enteras. Hace pasar paquetes de
datos entre redes tomando como base la información de la capa de red.
El router toma decisiones lógicas con respecto a la mejor ruta para el envío de datos a través
de una red interconectada y luego dirige los paquetes hacia el segmento y el puerto de salida
adecuados. Sus decisiones se basan en diversos parámetros. Una de las más importantes es
decidir la dirección de la red hacia la que va destinado el paquete (En el caso del protocolo IP
esta sería la dirección IP). Otras decisiones son la carga de tráfico de red en las distintas
interfaces de red del router y establecer la velocidad de cada uno de ellos, dependiendo del
protocolo que se utilice.
1.3.3 Rutas Estaticas y Dinamicas
Rutas estáticas: Las rutas estáticas con aquellas que son puestas a mano o que vienen puestas
por defecto y que no tienen ninguna reacción ante nuevas rutas o caidas de tramos de la red.
Son las habituales en sistemas cliente; o en redes donde solo se sale a Internet.
Rutas dinámicas: Un router con encaminamiento dinámico; es capaz de entender la red y pasar
las rutas entre routers vecinos. Con esto quiero decir que es la propia red gracias a los routers
con routing dinámico los que al agregar nuevos nodos o perderse algún enlace es capaz de
poner/quitar la ruta del nodo en cuestión en la tabla de rutas del resto de la red o de buscar un
camino alternativo o más óptimo en caso que fuese posible.
1.3.4 Ruta por Defecto
La “ruta por defecto” se utiliza sólamente cuando no se puede aplicar ninguna de las otras
rutas existentes
Cuando el sistema local necesita realizar una conexión con una máquina remota se examina la
tabla de rutas para determinar si se conoce algún camino para llegar al destino. Si la máquina
remota pertenece a una subred que sabemos cómo alcanzar (rutas clonadas) entonces el
sistema comprueba si se puede conectar utilizando dicho camino.
Si todos los caminos conocidos fallan al sistema le queda una única opción: la “ruta por
defecto”. Esta ruta está constituída por un tipo especial de pasarela (normalmente el único
“router” presente en la red área local) y siempre posée el “flag” c en el campo de “flags”. En
una LAN, la pasarela es la máquina que posée conectividad con el resto de las redes (sea a
través de un enlace PPP, DSL, cable modem, T1 u otra interfaz de red.)
Si se configura la ruta por defecto en una máquina que está actuando como pasarela hacia el
mundo exterior la ruta por defecto será el “router” que se encuentre en posesión del
proveedor de servicios de internet (ISP).
1.3.5 Protocolos Enrutados y de Enrutamiento
DIFERENCIAS ENTRE PROTOCOLOS ENRUTADOS Y DE ENRUTAMIENTO.
PROTOCOLOS ENRUTADOS
Funciones:
1. Incluir cualquier conjunto de protocolos de red que ofrece información suficiente en
su dirección de capa para permitir que un Router lo envíe al dispositivo siguiente y
finalmente a su destino.
2. Definir el formato y uso de los campos dentro de un paquete.
El Protocolo Internet (IP) y el intercambio de paquetes de internetworking (IPX) de Novell son
ejemplos de protocolos enrutados. Otros ejemplos son DEC net, Apple Talk, Banyan VINES y
Xerox Network Systems (XNS).
PROTOCOLOS DE ENRUTAMIENTO
Los Routers utilizan los protocolos de enrutamiento para intercambiar las tablas de
enrutamiento y compartir la información de enrutamiento. En otras palabras, los protocolos
de enrutamiento permiten enrutar protocolos enrutados.
Funciones: - Ofrecer procesos para compartir la información de ruta. - Permitir que los Routers
se comuniquen con otros Routers para actualizar y mantener las tablas de enrutamiento.
Los protocolos no enrutables no admiten la Capa 3. El protocolo no enrutable más común es el
Net BEUI. Net Beui es un protocolo pequeño, veloz y eficiente que está limitado a la entrega de
tramas de un segmento.
Los routers guardan la información en una tabla de enrutamiento y la comparten.
Intercambian información acerca de la topología de la red mediante los protocolos de
enrutamiento.
La determinación de la ruta permite que un Router compare la dirección destino con las rutas
disponibles en la tabla de enrutamiento, y seleccione la mejor ruta. Si no hay información
acerca de una red destino en la tabla de enrutamiento, el router envía el paquete al Gateway
predeterminado (ruta por defecto). Los Routers conocen las rutas disponibles por medio del
enrutamiento estático o dinámico.
1.3.6 Información Utilizada por Routers para ejecutar sus funciones basicas
Los protocolos de enrutamiento son aquellos protocolos que utilizan los routers o
encaminadores para comunicarse entre sí y compartir información que les permita tomar la
decisión de cual es la ruta más adecuada en cada momento para enviar un paquete. Los
protocolos más usados son RIP (v1 y v2), OSPF (v1, v2 y v3), y BGP (v4), que se encargan de
gestionar las rutas de una forma dinámica. aunque no es estrictamente necesario que un
router haga uso de estos protocolos, pudiéndosele indicar de forma estática las rutas (caminos
a seguir) para las distintas subredes que estén conectadas al dispositivo.
1.3.7 Configuración de Rip
RIP son las siglas de Routing Information Protocol (Protocolo de información de
encaminamiento). Es un protocolo de pasarela interior o IGP (Internal Gateway Protocol)
utilizado por los routers (enrutadores), aunque también pueden actuar en equipos, para
intercambiar información acerca de redes IP.
Petición: Enviados por algún enrutador recientemente iniciado que solicita información de los
enrutadores vecinos.
Respuesta: mensajes con la actualización de las tablas de enrutamiento. Existen tres tipos:
Mensajes ordinarios: Se envían cada 30 segundos. Para indicar que el enlace y la ruta siguen
activos.
Mensajes enviados como respuesta a mensajes de petición.
Mensajes enviados cuando cambia algún coste. Sólo se envían las rutas que han cambiado .
Funcionamiento RIP
RIP utiliza UDP para enviar sus mensajes y el puerto bien conocido 520.
RIP calcula el camino más corto hacia la red de destino usando el algoritmo del vector de
distancias. La distancia o métrica está determinada por el número de saltos de router hasta
alcanzar la red de destino.
RIP tiene una distancia administrativa de 120 (la distancia administrativa indica el grado de
confiabilidad de un protocolo de enrutamiento, por ejemplo EIGRP tiene una distancia
administrativa de 90, lo cual indica que a menor valor mejor es el protocolo utilizado)
RIP no es capaz de detectar rutas circulares, por lo que necesita limitar el tamaño de la red a
15 saltos. Cuando la métrica de un destino alcanza el valor de 16, se considera como infinito y
el destino es eliminado de la tabla (inalcanzable).
La métrica de un destino se calcula como la métrica comunicada por un vecino más la distancia
en alcanzar a ese vecino. Teniendo en cuenta el límite de 15 saltos mencionado anteriormente.
Las métricas se actualizan sólo en el caso de que la métrica anunciada más el coste en alcanzar
sea estrictamente menor a la almacenada. Sólo se actualizará a una métrica mayor si proviene
del enrutador que anunció esa ruta.
1.4 Arp , Rarp
ARP son las siglas en inglés de Address Resolution Protocol (Protocolo de resolución de
direcciones).
Es un protocolo de nivel de red responsable de encontrar la dirección hardware (Ethernet
MAC) que corresponde a una determinada dirección IP. Para ello se envía un paquete (ARP
request) a la dirección de multidifusión de la red (broadcast (MAC = ff ff ff ff ff ff)) conteniendo
la dirección IP por la que se pregunta, y se espera a que esa máquina (u otra) responda (ARP
reply) con la dirección Ethernet que le corresponde. Cada máquina mantiene una caché con las
direcciones traducidas para reducir el retardo y la carga. ARP permite a la dirección de Internet
ser independiente de la dirección Ethernet, pero esto solo funciona si todas las máquinas lo
soportan. ARP está documentado en el RFC (Request For Comments) 826.
El protocolo RARP realiza la operación inversa. En Ethernet, la capa de enlace trabaja con
direcciones físicas. El protocolo ARP se encarga de traducir las direcciones IP a direcciones
MAC (direcciones físicas).Para realizar ésta conversión, el nivel de enlace utiliza las tablas ARP,
cada interfaz tiene tanto una dirección IP como una dirección física MAC.
Reverse Address Resolution Protocol
RARP son las siglas en inglés de Reverse Address Resolution Protocol (Protocolo de resolución
de direcciones inverso). Es un protocolo utilizado para resolver la dirección IP de una dirección
hardware dada (como una dirección Ethernet). La principal limitación era que cada MAC tenía
que ser configurada manualmente en un servidor central y se limitaba sólo a la dirección IP,
dejando otros datos como la máscara de subred, puerta de enlace y demás información que
tenían que ser configurados a mano. Otra desventaja de este protocolo es que utiliza como
dirección destino, evidentemente, una dirección MAC de difusión para llegar al servidor RARP.
Sin embargo, una petición de ese tipo no es reenviada por el router del segmento de subred
local fuera de la misma, por lo que este protocolo, para su correcto funcionamiento, requiere
de un servidor RARP en cada subred. Posteriormente el uso de BOOTP lo dejó obsoleto, ya que
éste funciona con paquetes UDP, los cuales se reenvían a través de los routers (eliminando la
necesidad de disponer de un servidor RARP en cada subred) y, además, BOOTP ya tiene un
conjunto de funciones mayor que permite obtener más información y no sólo la dirección IP.
RARP está descrito en el RFC 903.
1.5 Igrp , Egp
IGRP (Interior Gateway Routing Protocol, o Protocolo de enrutamiento de gateway interior) es
un protocolo patentado y desarrollado por CISCO que se emplea con el protocolo TCP/IP según
el modelo (OSI) Internet. La versión original del IP fue diseñada y desplegada con éxito en
1986. Se utiliza comúnmente como IGP pero también se ha utilizado extensivamente como
Exterior Gateway Protocol (EGP) para el enrutamiento inter-dominio.
IGRP es un protocolo de enrutamiento basado en la tecnología vector-distancia. Utiliza una
métrica compuesta para determinar la mejor ruta basándose en el ancho de banda, el retardo,
la confiabilidad y la carga del enlace. El concepto es que cada router no necesita saber todas
las relaciones de ruta/enlace para la red entera. Cada router publica destinos con una distancia
correspondiente. Cada router que recibe la información, ajusta la distancia y la propaga a los
routers vecinos. La información de la distancia en IGRP se manifiesta de acuerdo a la métrica.
Esto permite configurar adecuadamente el equipo para alcanzar las trayectorias más óptimas.
Funcionamiento:
IGRP manda actualizaciones cada 90 segundos, y utiliza un cierto número de factores distintos
para determinar la métrica. El ancho de banda es uno de estos factores, y puede ser ajustado
según se desee.
IGRP utiliza los siguientes parámetros:
Retraso de Envío: Representa el retraso medio en la red en unidades de 10 microsegundos.
Ancho de Banda: Representa la velocidad del enlace, dentro del rango de los 12000 mbps y 10
Gbps. En realidad el valor usado es la inversa del ancho de banda multiplicado por 107.
Fiabilidad: va de 0 a 255, donde 255 es 100% confiable.
Distancia administrativa (Load): toma valores de 0 a 255, para un enlace en particular, en este
caso el valor máximo (255) es el pero de los casos.
La fórmula usada para calcular el parámetro de métrica es:
(K1*Ancho de Banda) + (K2*Ancho de Banda)/(256-Distancia) + (K3*Retraso)*(K5/(Fiabilidad +
K4)).
EGP (Exterior Gateway Protocol) es un protocolo estándar. Su status es recomendado.
EGP es el protocolo utilizado para el intercambio de información de encaminamiento entre
pasarelas exteriores (que no pertenezcan al mismo Sistema Autónomo AS). Las pasarelas EGP
sólo pueden retransmitir información de accesibilidad para las redes de su AS. La pasarela
debe recoger esta información, habitualmente por medio de un IGP, usado para intercambiar
información entre pasarelas del mismo AS (ver Figura - La troncal ARPANET).
EGP se basa en el sondeo periódico empleando intercambios de mensajes Hello/I Hear You,
para monitorizar la accesibilidad de los vecinos y para sondear si hay solicitudes de
actualización. EGP restringe las pasarelas exteriores al permitirles anunciar sólo las redes de
destino accesibles en el AS de la pasarela. De esta forma, una pasarela exterior que usa EGP
pasa información a sus vecinos EGP pero no anuncia la información de accesibilidad de
estos(las pasarelas son vecinos si intercambian información de encaminamiento) fuera del AS.
Tiene tres características principales:
Unidad 2 Capas superiores del modelo OSI
2.1 Capa Transporte Osi
La capa transporte no es una capa más del modelo OSI. Es la base de toda la jerarquía de
protocolo. La tarea de esta capa es proporcionar un transporte de datos confiable y económico
de la máquina de origen a la máquina destino, independientemente de la red de redes física en
uno. Sin la capa transporte, el concepto total d los protocolos en capas tendría poco sentido.
2.1.1 Parámetros para lograr la Calidad Servicio de Transporte
Parámetros de calidad
La calidad del servicio que ofrece el nivel de transporte viene determinada por los siguientes
parámetros (nótese que algunos de ellos sólo tienen sentido en el caso de que el servicio sea
orientado a conexión):
Retardo de establecimiento de conexión Tiempo que transcurre entre una solicitud de
conexión de transporte y la confirmación que recibe el usuario del servicio. Incluye el retardo
de procesamiento en la entidad de transporte remota. Como en todos los parámetros que
miden un retardo, cuanto menor sea, mejor será la calidad del servicio ofrecido.
Para profundizar un poco en la diferencia entre el nivel de transporte y el de red, conviene
citar algunas de las técnicas que utilizan las entidades de transporte para mejorar la calidad
ofrecida por el servicio de red.
Una de ellas es la multiplexión en sus dos versiones: establecer varias conexiones de red para
una conexión de transporte que demanda gran ancho de banda, o bien establecer una sola
conexión de red correspondiente a varias conexiones de transporte, en el caso de que el coste
por conexión sea elevado.
2.1.1.1 Servicios Orientados a Conexion
Servicio Orientado a Conexión: Se modeló basándose en el sistema telefónico. Para poder
conseguir la conexión, se debe tomar el teléfono, marcar el número deseado y esperar hasta
que alguien conteste, de ser así, se puede decir que la conexión se realizó con éxito, de lo
contrario no hubo conexión. Los distintos niveles de red pueden ofrecer dos tipos de servicios
diferentes a las capas superiores : uno orientado a conexión y otro sin conexión. Este tipo de
conexion es mejor conocido como el sistema del telefono hot el cual tiene una capa
2.1.1.2 Servicios Orientados a no Conexion
Las características principales de un servicio de este tipo a nivel de red son las siguientes:
No hay establecimiento de ninguna conexión, sólo hay transferencia de datos.
Se usan primitivas del tipo Unit.Data.Request y Unit.Data.Indication , que contienen
como parámetros:
1. Direccion del destinatario.
2. Dirección de la fuente.
3. QoS (Parámetro que determina la calidad de servicio).
4. Datos del usuario.
Notas:
En CO las primitivas de Data.Request no necesitaban dirección (la red ya tiene
establecido un circuito virtual para la transmisión).
Cada paquete que se transmite se transporta de manera independiente con respecto a
los paquetes predecesores.
Las UNITDATA sólo pueden transmitir hasta un máximo de 64512 octetos y han de
preservar la integridad de la información.
El emisor sólo se encarga de vaciar el paquete en la red, deseando que todo resulte lo
mejor posible.
Servicio no Orientado a Conexión: Se modeló basándose en el sistema Postal, cada mensaje
(Carta) lleva consigo la dirección completa de destino y cada uno de ellos se encaminan, en
formato independiente, a través del sistema.
2.2 Capa De Sesión Osi
Esta capa ofrece varios servicios que son cruciales para la comunicación, como son:
Control de la sesión a establecer entre el emisor y el receptor (quién transmite, quién
escucha y seguimiento de ésta).
Control de la concurrencia (que dos comunicaciones a la misma operación crítica no se
efectúen al mismo tiempo).
Mantener puntos de verificación (checkpoints), que sirven para que, ante una
interrupción de transmisión por cualquier causa, la misma se pueda reanudar desde el
último punto de verificación en lugar de repetirla desde el principio.
Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una
sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones
definidas de principio a fin, reanudándolas en caso de interrupción.
2.2.1 Intercambio de Datos
La característica mas importante de la capa de sesión es el intercambio de datos. Una sesión,
al igual que una conexión de transporte, sigue un proceso de tres fases: la de establecimiento,
la de utilización y la de liberación. Las primitivas que se le proporcionan a la capa de
presentación, para el establecimiento, utilización y liberación de sesiones, son muy parecidas a
las proporcionadas a la capa de sesión para el establecimiento, uso y liberación de conexiones
de transporte. En muchos casos, todo lo que la entidad de sesión tiene que hacer, cuando
primitiva es invocada por el usuario de sesión, es invocar la primitiva de transporte
correspondiente para que se pueda así realizar el trabajo.
2.2.2 Administracion del Dialogo
En principio, todas las conexiones del modelo OSI son dúplex, es decir, las unidades de datos
del protocolo(PDU) se pueden mover en ambas direcciones simultáneamente sobre la misma
conexión. Aunque puede haber situaciones en las que el software de capas superiores esta
estructurado de tal forma que espera que los usuarios tomen turno convirtiendo la
comunicación en semidúplex. La administración del dialogo será uno e los servicio de la capa
de sesión y consistirá en mantener un seguimiento de a quien le corresponde el turno de
hablar y de hacerlo cumplir. En el momento en el que se inicia una sesión se seleccionara el
modo de funcionamiento y ya sea dúplex o semidúplex, la negociación inicial determina quien
tendrá primeramente el testigo de datos porque solo el usuario que posee el testigo podrás
transmitir mientras el otro se mantendrá en silencio. Cuando termine le pasara el testigo a su
interlocutor.
2.2.3 Sincronización Capa Sesión
Sincronización: Este servicio de la capa de sesión se encarga de llevar a las entidades de vuelta
a un estado conocido cuando se produce algún error o desacuerdo. Es necesario porque la
capa de transporte está diseñada para recuperar los errores de comunicación, pero pueden
suceder errores en niveles superiores, y hay que controlarlos.
La única responsabilidad del nivel de sesión es proporcionar la forma de poner, a través de la
red, una serie de señales numeradas de sincronización, pues el mantener a salvo el mensaje y
reenviarlo es misión de los niveles por encima del de sesión. Elementos a tener en cuenta en la
sincronización:
Puntos de sincronización mayores: Se deben confirmar explícitamente. Son utilizados
para que ciertas actividades se hagan completamente o no se hagan. Es necesario para
ponerlo tener el testigo de sincronización mayor o actividad.
Puntos de sincronización menores: Son puntos sin asentimiento, pues sincronizan
tareas menos críticas. Es necesario tener el testigo de sincronización menor.
Unidades de diálogo: Las delimitadas por los puntos de sincronización mayor.
2.2.4 Notificacion de Excepciones
Otra característica de la capa de sesión es la correspondiente a un mecanismo de propósito
general para notificar errores inesperados. Si un usuario tiene algún problema, por cualquier
razón, este problema se puede notificar a su corresponsal utilizando la primitiva S-U-
EXCEPTION-REPORT.request. Algunos datos del usuario se pueden transferir utilizando esta
primitiva. Los datos del usuario, generalmente, explicaran que es lo que sucedió. La
notificación de excepciones no solamente se aplica a los errores detectados del usuario.
El proveedor del servicio puede generar una primitiva S-P-EXCEPTION-REPORT.indication para
informarle al usuario sobre los problemas internos que existen dentro de la capa de sesión, o
sobre problemas que le reporten procedentes de las capas de transporte o inferiores. Estas
notificaciones contienen un campo que describe la naturaleza de la excepción. La decisión
sobre que acción tomar, si hay alguna, dependerá del usuario.
2.2.5 Llamada Procedimientos Remotos
El RPC (del inglés Remote Procedure Call, Llamada a Procedimiento Remoto) es un protocolo
que permite a un programa de ordenador ejecutar código en otra máquina remota sin tener
que preocuparse por las comunicaciones entre ambos. El protocolo es un gran avance sobre
los sockets usados hasta el momento. De esta manera el programador no tenía que estar
pendiente de las comunicaciones, estando éstas encapsuladas dentro de las RPC.
Las RPC son muy utilizadas dentro del paradigma cliente-servidor. Siendo el cliente el que
inicia el proceso solicitando al servidor que ejecute cierto procedimiento o función y enviando
éste de vuelta el resultado de dicha operación al cliente.
2.3 Capa de presentación
2.3.1 Códigos de Representación de Datos
El código Unicode (del inglés «universal» y «code» - universal y código o sea código universal o
unicódigo) es un estándar industrial cuyo objetivo es proporcionar el medio por el cual un
texto en cualquier forma e idioma pueda ser codificado para el uso informático. El
establecimiento de Unicode ha involucrado un ambicioso proyecto para reemplazar los
esquemas de codificación de caracteres existentes, muchos de los cuales están muy limitados
en tamaño y son incompatibles con entornos plurilingües. Unicode se ha vuelto el más extenso
y completo esquema de codificación de caracteres, siendo el más dominante en la
internacionalización y adaptación local del software informático. El estándar ha sido
implementado en un número considerable de tecnologías recientes, que incluyen XML, Java y
sistemas operativos modernos.
2.3.2 Tecnicas Compresion Datos
Las técnicas de compresión son objeto de otro de los trabajos de la asignatura, sin embargo
están muy relacionadas con los formatos de audio digital por lo que las trataré de forma muy
general y breve.
Las técnicas de compresión son la herramienta fundamental de la que se dispone para alcanzar
el compromiso adecuado entre capacidad de almacenamiento y de procesamiento requeridas.
Las técnicas de compresión más elaboradas proporcionan una reducción muy importante de la
capacidad de almacenamiento, pero requieren también de un importante procesado tanto
para compresión como para la descompresión (sobre todo en la compresión). Las técnicas más
simples ofrecen reducciones moderadas con poco procesamiento. Las características del
sistema digital implicado y la aplicación determinarán el compromiso entre estos factores y
permiten seleccionar las técnicas de compresión adecuadas. Las técnicas más avanzadas
analizan la respuesta del oído a la señal y simplifican aquellos elementos irrelevantes para la
sensación sonora, consiguiendo tasas de compresión mucho mayores.
2.3.3 Criptografía Capa Presentación
La capa de presentación (Nivel 6 del modelo OSI) provee la comunicación a nivel de lenguaje
entre el usuario y la máquina que esté empleando para acceder a la red
La capa de presentación realiza ciertas funciones que se necesitan bastante a menudo como
para buscar una solución general para ellas, más que dejar que cada uno de los usuarios
resuelva los problemas. En particular y, a diferencia de las capas inferiores, que únicamente
están interesadas en el movimiento fiable de bits de un lugar a otro.
Algunas de sus funciones son las siguientes:
Establece una sintaxis y semántica de la información transmitida. Se define la estructura de los
datos a transmitir (v.g. define los campos de un registro: nombre, dirección, teléfono, etc).
Define el código a usar para representar una cadena de caracteres (ASCII, EBCDIC, etc).
Criptografía: Ciencia que trata del enmascaramiento de la comunicación de modo que sólo
resulte inteligible para la persona que posee la clave, o método para averiguar el significado
oculto, mediante el criptoanálisis de un texto aparentemente incoherente.
CRIPTOGRAFÍA SIMÉTRICA (CLAVE SECRETA)
Es el sistema de cifrado más antiguo y consiste en que tanto el emisor como el receptor
encriptan y desencriptan la información con una misma clave k (clave secreta) que ambos
comparten. El funcionamiento es muy sencillo: el emisor cifra el mensaje con la clave k y se lo
envía al receptor. Este último, que conoce dicha clave, la utiliza para desencriptar la
información.
Es importante considerar que para que el sistema sea razonablemente robusto contra ataques
de tipo criptoanálisis, esta clave k ha de ser mayor de 40 bits, lo cual choca con las
restricciones de exportación de tecnología criptográfica del gobierno americano, que marca los
40 bits como límite de clave para programas que utilicen este tipo de tecnología.
Algoritmos típicos que utilizan cifrado simétrico son DES, IDEA, RC5, etc, El criptosistema de
clave secreta más utilizado es el Data Encryption Standard (DES) desarrollado por IBM y
adoptado por las oficinas gubernamentales estadounidenses para protección de datos desde
1977.
CRIPTOGRAFÍA ASIMÉTRICA (CLAVE PÚBLICA)
En 1976 Diffie y Hellman describieron el primer criptosistema de clave pública conocido como
el cambio de clave Diffie-Hellman. Estos criptosistemas están basados en propiedades
matemáticas de los números primos, que permite que cada interlocutor tenga una pareja de
claves propias. De esta pareja de claves, una se denomina privada o secreta y la otra, pública.
La clave privada no se transmite nunca y se mantiene secreta. La clave pública, por el
contrario, se puede y se debe poner a disposición de cualquiera, dado que es imposible
deducir la clave privada a partir de la pública.
La propiedad fundamental de esta pareja de claves es que lo que se cifra con una de estas
claves, se descifra con la otra. Esta potente característica asimétrica es la que permite a esta
tecnología servir de base el diseño de sistemas de comunicación segura.
Para que este sistema sea lo suficientemente robusto contra ataques de criptoanálisis, las
claves han de ser de una longitud mínima de 1024 bits, siendo recomendable, en los casos que
sea posible, utilizar claves de 2048 bits. De nuevo nos encontramos con el límite de 512 bits
impuestos por la legislación americana para la exportación de software criptográfico.
2.4.1 Configuracion Servicios
IPTABLES
En linux, el filtrado de paquetes se controla a nivel del kernel. Existen modulos para el kernel
que permiten definir un sistema de reglas para aceptar o rechazar los paquetes o las
comunicaciones que pasan por el sistema. Estos sistemas de reglas conforman lo que se
conoce como firewall o cortafuegos; en otros sistemas los firewall pueden estar
implementados en software y estar desvinculados del sistema operativo, pero en el caso de
linux, el firewall se puede montar a nivel de kernel y no es necesario instalar un software
adicional que para mas INRI a veces tiene agujeros.
-Ordenes básicas:
iptables –F : efectivamente, flush de reglas
iptables –L : si, listado de reglas que se estan aplicando
iptables –A : append, añadir regla
iptables –D : borrar una reglas, etc…
EJEMPLO DEL PUERTO 80 WWW
/sbin/iptables -A INPUT -i $EXTIF -p tcp —sport 80 -j ACCEPT
/sbin/iptables
-A OUTPUT -o $EXTIF -p tcp —dport 80 -j ACCEPT
Unidad 3 Técnicas de conmutación
3.1 Conmutacion Circuitos
La comunicación entre un origen y un destino habitualmente pasa por nodos intermedios que
se encargan de encauzar el tráfico. Por ejemplo, en las llamadas telefónicas los nodos
intermedios son las centralitas telefónicas y en las conexiones a Internet, los routers o
encaminadores. Dependiendo de la utilización de estos nodos intermedios, se distingue entre
conmutación de circuitos, de mensajes y de paquetes.
En la conmutación de circuitos se establece un camino físico entre el origen y el destino
durante el tiempo que dure la transmisión de datos. Este camino es exclusivo para los dos
extremos de la comunicación: no se comparte con otros usuarios (ancho de banda fijo). Si no
se transmiten datos o se transmiten pocos se estará infrautilizando el canal. Las
comunicaciones a través de líneas telefónicas analógicas (RTB) o digitales (RDSI) funcionan
mediante conmutación de circuitos.
Un mensaje que se transmite por conmutación de mensajes va pasando desde un nodo al
siguiente, liberando el tramo anterior en cada paso para que otros puedan utilizarlo y
esperando a que el siguiente tramo esté libre para transmitirlo. Esto implica que el camino
origen-destino es utilizado de forma simultánea por distintos mensajes. Sin embargo, éste
método no es muy útil en la práctica ya que los nodos intermedios necesitarían una elevada
memoria temporal para almacenar los mensajes completos. En la vida real podemos
compararlo con el correo postal.
Finalmente, la conmutación de paquetes es la que realmente se utiliza cuando hablamos de
redes. Los mensajes se fragmentan en paquetes y cada uno de ellos se envía de forma
independiente desde el origen al destino. De esta manera, los nodos (routers) no necesitan
una gran memoria temporal y el tráfico por la red es más fluido. Nos encontramos aquí con
una serie de problemas añadidos: la pérdida de un paquete provocará que se descarte el
mensaje completo; además, como los paquetes pueden seguir rutas distintas puede darse el
caso de que lleguen desordenados al destino. Esta es la forma de transmisión que se utiliza en
Internet: los fragmentos de un mensaje van pasando a través de distintas redes hasta llegar al
destino.
3.2 Conmutacion Mensajes
Conmutación de Mensajes. El mensaje es una unidad lógica de datos de usuario, de datos de
control o de ambos que el terminal emisor envía al receptor. El mensaje consta de los
siguientes elementos llamados campos: • Datos del usuario. Depositados por el interesado. •
Caracteres SYN. (Caracteres de Sincronía). • Campos de dirección. Indican el destinatario de la
información. • Caracteres de control de comunicación. • Caracteres de control de errores.
Además de los campos citados, el mensaje puede contener una cabecera que ayuda a la
identificación de sus parámetros (dirección de destino, enviante, canal a usar, etc.). La
conmutación de mensajes se basa en el envío de mensaje que el terminal emisor desea
transmitir al terminal receptor aun nodo o centro de conmutación en el que el mensaje es
almacenado y posteriormente enviado al terminal receptor o a otro nodo de conmutación
intermedio, si es necesario. Este tipo de conmutación siempre conlleva el almacenamiento y
posterior envío del mensaje lo que origina que sea imposible transmitir el mensaje al nodo
siguiente hasta la completa recepción del mismo en el nodo precedente.
3.3 Conmutacion Paquetes
La conmutación de paquetes surge intentando optimizar la utilización de la capacidad de las
líneas de transmisión existentes. Para ello seria necesario disponer de un método de
conmutación que proporcionara la capacidad de transmisión en tiempo real de la conmutación
de circuitos y la capacidad de direccionamineto de la conmutación de mensajes.
Esta se basa en la división de la información que entrega a la red el usuario emisor en paquetes
del mismo tamaño que generalmente oscila entre mil y dos mil bits.
Los paquetes poseen una estructura tipificada y, dependiendo del uso que la red haga de ellos,
contienen información de enlace o información de usuario.
El campo indicador (Flag) tiene una longitud de ocho Bits y su misión es la de indicar el
comienzo y el final del paquete.
El campo dirección (Adress) indica cual es el sentido en el que la información debe
progresar dentro de la red. Su longitud es de ocho Bits.
El campo de secuencia de verificación de trama (Frame Checking Secuence) es el
encargado de servir como referencia para comprobar la correcta transmisión del
paquete. Su longitud es de 16 Bits.
El campo de información posee una longitud indeterminada, aunque sujeta a unos
márgenes superiores, y es el contiene la información que el usuario emisor desea
intercambiar con el receptor. Además este campo incluye otros tipos de datos que son
necesarios para el proceso global de la comunicación como el numero del canal lógico
que se esta empleando, el numero de orden dentro del mensaje total, etc.
La técnica de conmutación de paquetes permite dos formas características de
funcionamiento: datagrama y circuito virtual.
En el modo de funcionamiento en datagrama, la red recibe los paquetes y, mediante el
análisis e interpretación del campo de dirección de los mismos, los encamina hacia su
destino, sin importar que lleguen al mismo ordenados o no y sin que en destino se
informe al origen de la recepción de los mismos. El funcionamiento en datagrama
requiere en destino de los medios adecuados para organizar la información según el
orden inicial que poseía.
En el modo de funcionamiento de circuito virtual, la red, mediante el análisis e
interpretación de los campos de control y de secuencia de verificación de trama,
averigua cual es la dirección de entrega y el numero que el paquete posee en el
conjunto global, para, de este modo, entregarlos en destino en el mismo orden en que
fueron entregados en origen.
La conmutación de paquetes es el método de conmutación que se emplea con mayor
profusión hoy día en las redes de datos publicas. Esta presenta ventajas que soportan su
creciente utilización en transmisión de datos. Entre ellas se citan especialmente la gran
flexibilidad y rentabilidad en las líneas que se logran gracias al encaminamiento alternativo que
proporcionas esta técnica.
3.3.1 Topologia Redes de Paquetes
Estas son las topologías usadas para la distribución de paquetes, al igual que sus descripciones,
ventajas y desventajas.
Topología de bus
La topología de bus es la manera más simple de organizar una red. En la topología de bus,
todos los equipos están conectados a la misma línea de transmisión mediante un cable,
generalmente coaxial. La palabra “bus” hace referencia a la línea física que une todos los
equipos de la red.
La ventaja de esta topología es su facilidad de implementación y funcionamiento. Sin embargo,
esta topología es altamente vulnerable, ya que si una de las conexiones es defectuosa, esto
afecta a toda la red.
Topología de estrella
En la topología de estrella, los equipos de la red están conectados a un hardware denominado
concentrador. Es una caja que contiene un cierto número de sockets a los cuales se pueden
conectar los cables de los equipos. Su función es garantizar la comunicación entre esos
sockets.
Topología en anillo
En una red con topología en anillo, los equipos se comunican por turnos y se crea un bucle de
equipos en el cual cada uno “tiene su turno para hablar” después del otro.
En realidad, las redes con topología en anillo no están conectadas en bucles. Están conectadas
a un distribuidor (denominado MAU, Unidad de acceso multiestación) que administra la
comunicación entre los equipos conectados a él, lo que le da tiempo a cada uno para “hablar”.
Protocolos orientados a conexión y no-conexión
Los protocolos pueden ser orientados a conexión y orientados a no-conexión. Los orientados a
conexión, las entidades correspondientes mantienen las información del estatus acerca del
dialogo que están manteniendo.
Esta información del estado de la conexión soporta control de error, secuencia y control de
flujo entre las correspondientes entidades. Es decir, La entidad receptora le avisa a la entidad
transmisora si la información útil llego correctamente, si no es así también le avisa que vuelva
a retransmitir.
El control de error se refiere a una combinación de detección de error (y corrección) y
reconocimiento (acknowledgment). El control de secuencia se refiere a la habilidad de cada
entidad para reconstruir una serie de mensajes recibidos en el orden apropiado. El control de
flujo se refiere a la habilidad para que ambas partes en un dialogo eviten el sobreflujo de
mensajes entre sí. Fragmentación y ensamblado
MTU, Maximum Transfer Unit (unidad de transferencia máxima). Es el tamaño máximo de
paquete que se puede dar en una capa de la arquitectura de protocolos (generalmente la capa
de enlace de datos)
Por tanto si algún paquete que viene de una red con un tamaño mayor que la MTU de la red
actual, el gateway entre la primera y la segunda red debe adaptar el tamaño de dicho paquete
a la MTU de la red actual mediante una fragmentación. La posibilidad de reensamblado es
opcional en el caso en que dicho paquete vuelva a una red con una MTU mayor que la actual,
pero no suele hacerse por necesitar esta opción de un procesamiento mayor.
Los protocolos orientados a conexión operan en tres fases.
La primera fase es la fase de configuración de la conexión, durante la cual las
entidades correspondientes establecen la conexión y negocian los parámetros que
definen la conexión.
La segunda fase es la fase de transferencia de datos, durante la cual las entidades
correspondientes intercambian mensajes (información útil) bajo el amparo de la
conexión.
Finalmente, la última fase, fase de liberación de la conexión, en la cual ambas
entidades se ponen de acuerdo para terminar la conexión. Un ejemplo de la vida diaria
de un protocolo orientado a conexión es una llamada telefónica. La parte originadora
(el que llama) deberá primero “marcar” el número del teléfono usuario (abonado)
destino. La infraestructura telefónica deberá asignar el circuito extremo-extremo,
entonces hace timbrar el teléfono del usuario destino. Al momento que éste levanta el
teléfono se establece la llamada o conexión y ambos empiezan a conversar. En algún
momento, alguno de los dos cuelga, y la conexión de termina y se libera el circuito.
Entonces se termina la llamada.
Los protocolos orientados a no-conexión difieren bastante a los orientados a conexión, ya que
estos (los de no-conexión) no proveen capacidad de control de error, secuencia y control de
flujo. Los protocolos orientados a no-conexión, están siempre en la fase de transferencia de
datos, y no les interesa las fases restantes de configuración y liberación de una conexión.
Los protocolos orientados a no-conexión se emplean en aplicaciones donde no se requiera
mucha precisión. Tal es el caso de la voz, música o el video. Pero en cambio en aplicaciones
donde se requiera mucha precisión [transacciones electrónicas bancarias, archivos de datos,
comercio electrónico, etc.] se utilizarían los protocolos orientados a conexión.
Protocolos ORIENTADOS A BITS y ORIENTADOS A BYTE (caracter)
En cualquier sesión de comunicación entre dispositivos, códigos de control son usados para
controlar otro dispositivo o proveer información acerca del estatus de la sesión. Los protocolos
orientados a byte o caracter utilizan bytes completos para representar códigos de control
establecidos tales como los definidos por el código ASCII (American Standard Code for
Information Interchange) o código EBCDIC (Extended Binary Coded Decimal Interchange Code).
En contraste, los protocolos orientados a bits confian en bits individuales para códigos de
control. Los protocolos orientados a Byte transmiten los datos como si fueran cadenas de
caracteres. El método de transmisión es asíncrono. Cada caracter es separado de un bit de
inicio y un bit de paro o termino, y no es necesario un mecanismo de reloj.
Ejemplos de caracteres usados: SYN (synchronize), SOH (start of header), STX (start of text),
ETX (end of text).
BIT oriented protocols
En una transmisión orientada a bit, los datos son transmitidos como constantes ráfagas de bits.
Antes de que la transmisión de datos empiece, caracteres especiales de sincronía son
transmitidos por el transmisor, así el receptor puede sincronizarse a sí mismo con la ráfaga de
bits. Este patrón de bits es comunmente representado en una cadena de 8 bits.
SDLC (Synchronous Data Link Control) de IBM es un protocolo orientado a bits. Su caracter de
sincronia (sync) es la cadena de bits 01111110, y esto es seguido por una dirección de 8 bits,
un campo de control y por por los datos (información útil). Una vez que el sistema receptor
recibe esas tramas iniciales, empieza a leer 8 bits a la vez (1 byte) desde la cadena de bits hasta
que aparezca un error o una bandera de término. Los protocolos SDLC y HDLC (High-level Data
Link Control) de IBM son orientados a bit. HDLC es usado comúnmente en las redes de
conmutación de paquetes X.25, SDLC es un subconjunto de HDLC.
Los protocolos orientados a bits son los usados comúnmente en la transmisión en las redes de
datos LAN y WAN.
3.3.2 Datagramas y Circuitos Virtuales
El concepto de circuito virtual se refiere a una asociación bidireccional, a través de la red, entre
dos ETD, circuito sobre el cual se realiza la transmisión de los paquetes.
Al inicio, se requiere una fase de establecimiento de la conexión, denominado: “llamada
virtual” Durante la llamada virtual los ETDs se preparan para el intercambio de paquetes y la
red reserva los recursos necesarios para el circuito virtual. Los paquetes de datos contienen
sólo el número del circuito virtual para identificar al destino.
Si la red usa encaminamiento adaptativo, el concepto de circuito virtual garantiza la
secuenciación de los paquetes, a través de un protocolo fin-a-fin (nodo origen/nodo destino).
El concepto de CV permite a un ETD establecer caminos de comunicación concurrentes con
varios otros ETDs, sobre un único canal físico de acceso a la red. El CV utiliza al enlace físico
sólo durante la transmisión del paquete.
Existen 2 tipos de CV
CVP: Circuito virtual permanente
CVT: Circuito virtual temporario
CVP: no requiere fase de establecimiento o llamada virtual por ser un circuito permanente
(punto a punto) entre ETDs.
CVT: Requiere de la llamada virtual.
El protocolo para uso de circuitos virtuales está establecido en la recomendación X.25 del
CCITT. (existe confirmación de mensajes recibidos, paquetes perdidos, etc.)
DATAGRAMAS
Es un paquete autosuficiente (análogo a un telegrama) el cual contiene información suficiente
para ser transportado a destino sin necesidad de, previamente, establecer un circuito.
No se provee confirmación de recepción por el destinatario, pero puede existir un aviso de no
entrega por parte de la red.
Algunas redes privadas trabajan en base a DATAGRAMAS, pero en redes públicas, donde
existen cargos por paquetes transmitidos, no existe buena acogida para este tipo de servicios.
Una alternativa al servicio de DATAGRAMA propuesto al CCITT, es la facilidad de selección
rápida o Fast Select, la cual es aplicable en la llamada virtual ð CVT Fast Select permite
transmitir datos en el campo de datos del paquete de control que establece el circuito virtual.
La respuesta confirma la recepción y termina el CV.
3.3.2.1 Estructura Conmutadores
3.3.2.2 Conmutacion de Paquetes
La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos
en una red de computadoras. Si no existiese una técnica de conmutación en la comunicación
entre dos nodos, se tendría que enlazar en forma de malla. Una ventaja adicional de la
conmutación de paquetes, (además de la seguridad de transmisión de datos) es que como se
parte en paquetes el mensaje, éste se está ensamblando de una manera más rápida en el nodo
destino, ya que se están usando varios caminos para transmitir el mensaje, produciéndose un
fenómeno conocido como “transmisión en paralelo”. Además, si un mensaje tuviese un error
en un bit de información, y estuviésemos usando la conmutación de mensajes, tendríamos que
retransmitir todo el mensaje; mientras que con la conmutación de paquetes solo hay que
retransmitir el paquete con el bit afectado, lo cual es mucho menos problemático. Lo único
negativo, quizás, en el esquema de la conmutación de paquetes es que su encabezado es más
grande.
Ventajas generales: - Los paquetes forman una cola y se transmiten lo más rápido posible. -
Permiten la conversión en la velocidad de los datos. - La red puede seguir aceptando datos
aunque la transmisión se hará lenta. - Existe la posibilidad de manejar prioridades(si un grupo
de información es más importante que los otros, será transmitido antes que dichos otros).
Técnicas de Conmutación: Para la utilización de la Conmutación de Paquetes se han definido
dos tipos de técnicas: los Datagramas y los Circuitos Virtuales. Datagramas: Considerado el
método más sensible. - No tiene fase de establecimiento de llamada. - El paso de datos es más
seguro. - No todos los paquetes siguen una misma ruta. - Los paquetes pueden llegar al
destino en desorden debido a que su tratamiento es independiente. - Un paquete se puede
destruir en el camino, cuya recuperación es responsabilidad de la estación de destino.(esto da
a entender que el resto de paquetes están intactos) Circuitos Virtuales: - Son los más usados. -
Su funcionamiento es similar al de redes de conmutación de circuitos. - Previo a la transmisión
se establece la ruta previa a la transmisión de los paquetes por medio de paquetes de Petición
de Llamada (pide una conexión lógica al destino) y de Llamada Aceptada (en caso de que la
estación destino esté apta para la transmisión envía este tipo de paquete ); establecida la
transmisión, se da el intercambio de datos, y una vez terminado, se presenta el paquete de
Petición de Liberación(aviso de que la red está disponible, es decir que la transmisión ha
llegado a su fin). - Cada paquete tiene un identificador de circuito virtual en lugar de la
dirección del destino. - Los paquetes se recibirán en el mismo orden en que fueron enviados.
En síntesis, una red de conmutación de paquetes consiste en una “malla” de interconexiones
facilitadas por los servicios de telecomunicaciones, a través de la cual los paquetes viajan
desde la fuente hasta el destino.
3.3.3 Encaminamiento Redes de Paquetes
Cuando la red de conmutación de paquetes funciona en modo circuito virtual, generalmente la
función de encaminamiento establece una ruta que no cambia durante el tiempo de vida de
ese circuito virtual. En este caso el encaminamiento se decide por sesión.
Una red que funciona en modo datagrama no tiene el compromiso de garantizar la entrega
ordenada de los paquetes, por lo que los nodos pueden cambiar el criterio de encaminamiento
para cada paquete que ha de mandar. Cualquier cambio en la topología de la red tiene fácil
solución en cuanto a encaminamiento se refiere, una vez que el algoritmo correspondiente
haya descubierto el nuevo “camino óptimo.
3.3.4 Gestion de Trafico
En telefonía la gestión de tráfico o gestión de red es una actividad de administración de la red
telefónica cuyo objetivo es asegurar que el mayor número posible de llamadas telefónicas son
conectadas a su destino.
3.3.5 Control de Congestion
La congestión se refiere a la presencia en demasía de paquetes en una parte de una subred. En
casos de extrema congestión, los routers comienzan a “rechazar” paquetes, disminuyendo de
esta forma el rendimiento del sistema. Las razones de la congestión son muchas, entre ellas
están: • Por ejemplo, si por 4 líneas le llega información a un router y todas necesitan la misma
línea de salida → competencia. • Insuficiente cantidad de memoria en los routers. Pero añadir
más memoria ayuda hasta cierto punto solamente, ya que si tiene demasiada memoria, el
tiempo para llegar al primero de la cola puede ser demasiado. • Procesadores lentos en los
routers. El proceso de “analizar” los paquetes es caro, así que procesadores lentos pueden
provocar congestión. A. El control de flujo y el control de la congestión no son lo mismo:
Control de Flujo: se preocupa de que un emisor rápido no sature a un receptor lento.
Control de Congestión: su función es tratar de evitar que se sobrecargue la red.
El control de flujo es una más de las técnicas para combatir la congestión. Se consigue con ella
parar a aquellas fuentes que vierten a la red un tráfico excesivo. Las soluciones para el
problema de la congestión se pueden dividir en dos clases: Open Loop: Tratan de resolver el
problema con un buen diseño. Usan algoritmos para decidir cuando aceptar más paquetes,
cuando descartarlos, etc. Pero no utilizan el actual estado de la red. Closed Loop: La solución
en este caso se basa en la retroalimentación de la línea. Por lo general tienen tres partes: 1.
Monitorean el sistema para detectar cuándo y dónde ocurre la congestión. 2. Se pasa esta
información hacia donde se puedan tomar acciones. 3. Se ajustan los parámetros de operación
del sistema para corregir los problemas. Varias medidas del rendimiento pueden ser usadas
para medir la congestión.
Unidad 4 TCP/IP
4.1 Modelo Cliente Servidor
TCP es un protocolo orientado a conexión. No hay relaciones maestro/esclavo. Las
aplicaciones, sin embargo, utilizan un modelo cliente/servidor en las comunicaciones.
Un servidor es una aplicación que ofrece un servicio a usuarios de Internet; un cliente es el que
pide ese servicio. Una aplicación consta de una parte de servidor y una de cliente, que se
pueden ejecutar en el mismo o en diferentes sistemas.
Los usuarios invocan la parte cliente de la aplicación, que construye una solicitud para ese
servicio y se la envía al servidor de la aplicación que usa TCP/IP como transporte.
El servidor es un programa que recibe una solicitud, realiza el servicio requerido y devuelve los
resultados en forma de una respuesta. Generalmente un servidor puede tratar múltiples
peticiones(múltiples clientes) al mismo tiempo.
4.2 Protocolo de Internet Ip movil
IP Móvil Movilidad de terminales en Internet Originalmente, los métodos de enrutamiento
fueron definidos para redes estáticas, sin considerar que un terminal o nodo pudiese
desplazase de una red o subred a otra. El enrutamiento toma ventaja del “prefijo de red” que
contiene cada dirección IP para conocer la ubicación física de una computadora y por defecto,
dicha ubicación es fija.
La movilidad de terminales toma relevancia día a día debido al creciente uso de computadoras
portátiles y al deseo de sus usuarios de mantenerse continuamente conectados a Internet.
El Protocolo IP Móvil define procedimientos por los cuales los paquetes pueden ser enrutados
a un nodo móvil, independientemente de su ubicación actual y sin cambiar su dirección IP. Los
paquetes destinados a un nodo móvil primeramente son dirigidos a su red local. Allí, un agente
local los intercepta y mediante un túnel los reenvía a la dirección temporal recientemente
informada por el nodo móvil. En el punto final del túnel un agente foráneo recibe los paquetes
y los entrega al nodo móvil.
Este documento pretende describir el desarrollo actual del protocolo de Internet diseñado
para soportar movilidad de terminales, pudiendo ser usado como punto de partida válido por
todo aquél que desee iniciarse en el tema. Luego de consultar el nutrido acervo bibliográfico,
se expone en primer lugar, características y terminología, posteriormente su funcionamiento y
evolución. Por último se comentan problemas a cuestiones del protocolo, y posibles
soluciones.
Tomando fuente, encapsulador, desencapsulador y destino como nodos independientes. El
nodo que encapsula paquetes (encapsulador) es considerado el punto de entrada al túnel y el
nodo que los desencapsula el punto de salida del túnel. En general, pueden existir múltiples
pares fuente-destino usando el mismo túnel entre encapsulador-desencapsulador.
“El mecanismo de encapsulamiento por defecto que debe ser soportado por todos los agentes
de movilidad que usen IP Móvil, es IP-within-IP”.
Encapsulado IP-dentrode-IP - IP-within-IP- El encapsulado IP-dentro de-IP (IP-within-IP)
consiste en insertar una cabecera IP adicional antes de la cabecera propia del paquete inicial.
También es posible insertar otras cabeceras entre las dos cabeceras anteriores. (Figura 5).
El encabezado IP exterior contiene información sobre los extremos del túnel, es decir, la
dirección fuente y la dirección destino. El encabezado interior contiene información sobre la
dirección fuente y la dirección destino de los nodos emisor y receptor respectivamente del
paquete original y no puede ser modificado en ningún caso, salvo para decrementar el tiempo
de vida – TTL (Time To Live) - del paquete.
Los campos en el encabezado IP exterior son establecidos por el encapsulador como sigue:
Versión: 4 Longitud del encabezado de Internet: longitud del encabezado IP exterior medido
en palabras de 32-bits Tipo de servicio: es copiado del encabezado IP interior. Longitud total:
mide la longitud total del paquete IP encapsulado, incluyendo los dos encabezados, interior y
exterior, y la carga -payload-. Identificación, banderas y bit no-fragmentación: si el bit de “no
fragmento” se encuentra seteado en el encabezado interior, también debe estar seteado en el
encabezado exterior. Si el bit de “no fragmento” no está seteado en el encabezado interior,
éste podría ser seteado en el encabezado exterior. Tiempo de vida (TTL): este campo es
seteado con un valor apropiado en el encabezado exterior para entregar los paquetes
encapsulados al punto de salida del túnel. Protocolo: 4 Suma de comprobación del
encabezado: suma de comprobación en el encabezado IP exterior. Dirección fuente: la
dirección IP del encapsulador, es decir, el punto de entrada al túnel. Dirección destino: la
dirección IP del desencapsulador, el punto de salida del túnel. Opciones: algunas de las
opciones presentes en el encabezado IP interior no son copiadas en el encabezado IP exterior.
Durante el encapsulamiento del paquete, el TTL en el encabezado IP interior es decrementado
en uno si se encuentra dentro del túnel como parte del reenvío del paquete; en otro caso el
TTL no se modifica. Si el TTL resultante dentro del encabezado IP interior es igual a cero, el
paquete es descartado y un mensaje ICMP de tiempo excedido podría ser enviado al emisor.
El TTL del encabezado IP interior no cambia durante el desencapsulamiento. Si después de este
proceso el paquete interno tiene un TTL=0, el desencapsulador debe descartar al paquete. Si
después del desencapsulamiento, el desencapsulador reenvía el paquete a una de sus
interfaces, decrementa el TTL como en un reenvío normal.
El encapsulador generalmente usa las opciones IP permitidas para entregar la carga
encapsulada al final del túnel, puede usar también la fragmentación, a menos que esté
seteado el bit de no-fragmentación
Encapsulado mínimo El encapsulado mínimo es un método por el cual un paquete puede ser
encapsulado (conducido como carga) dentro de un paquete IP con menos gasto (overhead)
que la encapsulación IP-dentrode-IP, que agrega un segundo encabezado IP a cada paquete
encapsulado. Este método es levemente más complicado dado que la información de los
encabezados, interior y exterior, es combinada para reconstruir el encabezado IP original y en
consecuencia, reduce el gasto del encabezado.
Se define un encabezado de reenvío mínimo por paquetes no fragmentados antes de la
encapsulación. El uso de este método es opcional. El encapsulado mínimo no debe usarse
cuando un paquete original ya ha sido fragmentado, dado que no hay lugar en el encabezado
de reenvío mínimo para almacenar información de la fragmentación. Para encapsular un
paquete usando encapsulación mínima (Figura 6), se modifica el encabezado IP del paquete
original y se inserta el encabezado de reenvío mínimo después del encabezado IP, seguido por
la carga IP no modificada del paquete original (como por ejemplo encabezado y datos de
transporte). No se requiere agregar al paquete un encabezado IP adicional.
En el encapsulamiento, el encabezado IP del paquete original es modificado:
El campo protocolo en el encabezado IP es reemplazado por el número 55 El campo dirección
destino en el encabezado IP es reemplazado por la dirección IP del punto de salida del túnel. Si
el encapsulador no es la fuente original del paquete, el campo dirección fuente en el
encabezado IP es reemplazado por la dirección IP del encapsulador. El campo longitud total es
incrementado por el tamaño del encabezado de reenvío mínimo. El campo suma de
comprobación encabezado es recalculado en base a los cambios descriptos. A diferencia de la
encapsulación IP-dentrode-IP, el campo TTL en el encabezado IP no es modificado durante la
encapsulación, si el encapsulador está reenviando el paquete, éste podría decrementar el TTL
como resultado de un ruteo IP normal. Dado que el TTL original permanece en el encabezado
IP después de la encapsulación, los datos tomados por el paquete dentro del túnel son visibles,
por ejemplo realizando un “tracerouter”.
Protocolo: copiado del campo protocolo en el encabezado IP original Dirección fuente original
presente (S): si es igual a cero indica que el campo dirección fuente original no está presente.
Si es igual a uno indica que sí está presente. Reservado: seteado en cero, ignorado sobre
recepción. Suma de comprobación encabezado: suma de comprobación. Dirección destino
original: copiado del campo dirección destino del encabezado IP original. Dirección fuente
original: copiado del campo dirección fuente del encabezado IP original. Cuando un paquete es
desencapsulado, los campos en el encabezado de reenvío son restaurados a los del
encabezado IP y el encabezado de reenvío es removido del paquete. Además, al campo
longitud total en el encabezado IP se le resta el tamaño del encabezado de reenvío mínimo
removido y el campo suma de comprobación encabezado es recalculado en base a los cambios
producidos en el encabezado IP a raíz de la desencapsulación.
0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 Protocolo S Reservado Suma
Comprobación Encabezado Dirección Destino Original Dirección Fuente Original (si está
presente)
Encapsulado GRE El encapsulado GRE (Generic Record Encapsulation) es el más flexible ya que
permite la encapsulación de cualquier tipo de paquete, incluidos los paquetes IP. El formato de
un paquete GRE consta de una cabecera externa, seguida de la cabecera GRE, y de los datos IP.
Contrariamente a los encapsulados IP-dentro de-IP y mínimo, el encapsulado GRE ha sido
específicamente diseñado para prevenir encapsulamientos recursivos. Concretamente, el
campo recur en la cabecera GRE es un contador que informa del número de encapsulados
adicionales que son permitidos.
4.3 Protocolos de Transporte Udp Tcp
El grupo de protocolos de Internet también maneja un protocolo de transporte sin conexiones,
el UDP (User Data Protocol, protocolo de datos de usuario). El UDP ofrece a las aplicaciones un
mecanismo para enviar datagramas IP en bruto encapsulados sin tener que establecer una
conexión. Muchas aplicaciones cliente-servidor que tienen una solicitud y una respuesta usan
el UDP en lugar de tomarse la molestia de establecer y luego liberar una conexión. El UDP se
describe en el RFC 768. Un segmento UDP consiste en una cabecera de 8 bytes seguida de los
datos. La cabecera se muestra a continuación. Los dos puertos sirven para lo mismo que en el
TCP: para identificar los puntos terminales de las máquinas origen y destino. El campo de
longitud UDP incluye la cabecera de 8 bytes y los datos. La suma de comprobación UDP incluye
la misma pseudocabecera de formato, la cabecera UDP, y los datos, rellenados con una
cantidad par de bytes de ser necesario. UDP no admite numeración de los datagramas, factor
que, sumado a que tampoco utiliza señales de confirmación de entrega, hace que la garantía
de que un paquete llegue a su destino sea mucho menor que si se usa TCP. Esto también
origina que los datagramas pueden llegar duplicados y/o desordenados a su destino. Por estos
motivos el control de envío de datagramas, si existe, debe ser implementado por las
aplicaciones que usan UDP como medio de transporte de datos, al igual que el reeensamble de
los mensajes entrantes. Es por ello un protocolo del tipo best-effort (máximo esfuerzo),
porque hace lo que puede para transmitir los datagramas hacia la aplicación, pero no puede
garantizar que la aplicación los reciba.
Tcp
Protocolo TCP/IP Una red es una configuración de computadora que intercambia información.
Pueden proceder de una variedad de fabricantes y es probable que tenga diferencias tanto en
hardware como en software, para posibilitar la comunicación entre estas es necesario un
conjunto de reglas formales para su interacción. A estas reglas se les denominan protocolos.
Un protocolo es un conjunto de reglas establecidas entre dos dispositivos para permitir la
comunicación entre ambos.
DEFINICION TCP / IP
Se han desarrollado diferentes familias de protocolos para comunicación por red de datos para
los sistemas UNIX. El más ampliamente utilizado es el Internet Protocol Suite, comúnmente
conocido como TCP / IP.
Es un protocolo DARPA que proporciona transmisión fiable de paquetes de datos sobre redes.
El nombre TCP / IP Proviene de dos protocolos importantes de la familia, el Transmission
Contorl Protocol (TCP) y el Internet Protocol (IP). Todos juntos llegan a ser más de 100
protocolos diferentes definidos en este conjunto.
El TCP / IP es la base del Internet que sirve para enlazar computadoras que utilizan diferentes
sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes
de área local y área extensa. TCP / IP fue desarrollado y demostrado por primera vez en 1972
por el departamento de defensa de los Estados Unidos, ejecutándolo en el ARPANET una red
de área extensa del departamento de
4.4 Protocolos Nivel Aplicacion
El nivel de aplicación es el nivel que los programas más comunes utilizan para comunicarse a
través de una red con otros programas. Los procesos que acontecen en este nivel son
aplicaciones específicas que pasan los datos al nivel de aplicación en el formato que
internamente use el programa y es codificado de acuerdo con un protocolo estándar.Algunos
programas específicos se considera que se ejecutan en este nivel. Proporcionan servicios que
directamente trabajan con las aplicaciones de usuario. Estos programas y sus correspondientes
protocolos incluyen a HTTP (Hyper Text Transfer Protocol), FTP (Transferencia de archivos),
SMTP (correo electrónico), SSH (login remoto seguro), DNS (Resolución de nombres de
dominio) y a muchos otros.Una vez que los datos de la aplicación han sido codificados en un
protocolo estándar del nivel de aplicación son pasados hacia abajo al siguiente nivel de la pila
de protocolos TCP/IP.
En el nivel de transporte, las aplicaciones normalmente hacen uso de TCP y UDP, y son
habitualmente asociados a un número de puerto bien conocido (well-known port). Los puertos
fueron asignados originalmente por la IANA.
El protocolo de transferencia de hipertexto (HTTP, Hyper Text Transfer Protocol) es el
protocolo usado en cada transacción de la Web (WWW). HTTP fue desarrollado por el
consorcio W3C y la IETF, colaboración que culminó en 1999 con la publicación de una serie de
RFC, siendo el más importante de ellos el RFC 2616, que especifica la versión 1.1. HTTP define
la sintaxis y la semántica que utilizan los elementos software de la arquitectura web (clientes,
servidores, proxies) para comunicarse. Es un protocolo orientado a transacciones y sigue el
esquema petición-respuesta entre un cliente y un servidor. Al cliente que efectúa la petición
(un navegador o un spider) se lo conoce como “user agent” (agente del usuario). A la
información transmitida se la llama recurso y se la identifica mediante un URL. Los recursos
pueden ser archivos, el resultado de la ejecución de un programa, una consulta a una base de
datos, la traducción automática de un documento, etc.
HTTP es un protocolo sin estado, es decir, que no guarda ninguna información sobre
conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener
estado. Para esto se usan las cookies, que es información que un servidor puede almacenar en
el sistema cliente. Esto le permite a las aplicaciones web instituir la noción de “sesión”, y
también permite rastrear usuarios ya que las cookies pueden guardarse en el cliente por
tiempo indeterminado.
Transacciones HTTP
Una transacción HTTP está formada por un encabezado seguido, opcionalmente, por una línea
en blanco y algún dato. El encabezado especificará cosas como la acción requerida del
servidor, o el tipo de dato retornado, o el código de estado.
FTP (sigla en inglés de File Transfer Protocol - Protocolo de Transferencia de Archivos) en
informática, es un protocolo de red para la transferencia de archivos entre sistemas
conectados a una red TCP (Transmission Control Protocol), basado en la arquitectura cliente-
servidor. Desde un equipo cliente se puede conectar a un servidor para descargar archivos
desde él o para enviarle archivos, independientemente del sistema operativo utilizado en cada
equipo.
El Servicio FTP es ofrecido por la capa de Aplicación del modelo de capas de red TCP/IP al
usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que
está pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad,
ya que todo el intercambio de información, desde el login y password del usuario en el
servidor hasta la transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de
cifrado, con lo que un posible atacante puede capturar este tráfico, acceder al servidor, o
apropiarse de los archivos transferidos.
Para solucionar este problema son de gran utilidad aplicaciones como scp y sftp, incluidas en el
paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico.
Simple Mail Transfer Protocol (SMTP) Protocolo Simple de Transferencia de Correo, es un
protocolo de la capa de aplicación. Protocolo de red basado en texto utilizado para el
intercambio de mensajes de correo electrónico entre computadoras u otros dispositivos
(PDA’s, teléfonos móviles, etc.). Está definido en el RFC 2821 y es un estándar oficial de
Internet.
Resumen simple del funcionamiento del protocolo SMTP [editar]
• Cuando un cliente establece una conexión con el servidor SMTP, espera a que éste envíe un
mensaje “220 Service ready” o “421 Service non available”
• Se envía un HELO desde el cliente. Con ello el servidor se identifica. Esto puede usarse para
comprobar si se conectó con el servidor SMTP correcto.
• El cliente comienza la transacción del correo con la orden MAIL FROM. Como argumento de
esta orden se puede pasar la dirección de correo al que el servidor notificará cualquier fallo en
el envío del correo (Por ejemplo, MAIL FROM:<fuente@host0>). Luego si el servidor
comprueba si el origen es valido, si es asi el servidor responde “250 OK”.
• Ya le hemos dicho al servidor que queremos mandar un correo, ahora hay que comunicarle a
quien. La orden para esto es RCPT TO:<destino@host>. Se pueden mandar tantas órdenes
RCPT como destinatarios del correo queramos. Por cada destinatario, el servidor contestará
“250 OK” o bien “550 No such user here”, si no encuentra al destinatario.
• Una vez enviados todos los RCPT, el cliente envía una orden DATA para indicar que a
continuación se envían los contenidos del mensaje. El servidor responde “354 Start mail input,
end with <CRLF>.<CRLF>” Esto indica al cliente como ha de notificar el fin del mensaje.
• Ahora el cliente envía el cuerpo del mensaje, línea a línea. Una vez finalizado, se termina con
un <CRLF>.<CRLF> (la última línea será un punto), a lo que el servidor contestará “250 OK”, o
un mensaje de error apropiado.
• Tras el envío, el cliente, si no tiene que enviar más correos, con la orden QUIT corta la
conexión. También puede usar la orden TURN, con lo que el cliente pasa a ser el servidor, y el
servidor se convierte en cliente. Finalmente, si tiene más mensajes que enviar, repite el
proceso hasta completarlos.
Características
POP3 está diseñado para recibir correo, no para enviarlo; le permite a los usuarios con
conexiones intermitentes ó muy lentas (tales como las conexiones por módem), descargar su
correo electrónico mientras tienen conexión y revisarlo posteriormente incluso estando
desconectados. Cabe mencionar que la mayoría de los clientes de correo incluyen la opción de
dejar los mensajes en el servidor, de manera tal que, un cliente que utilice POP3 se conecta,
obtiene todos los mensajes, los almacena en la computadora del usuario como mensajes
nuevos, los elimina del servidor y finalmente se desconecta. En contraste, el protocolo IMAP
permite los modos de operación conectado y desconectado.
Los clientes de correo electrónico que utilizan IMAP dejan por lo general los mensajes en el
servidor hasta que el usuario los elimina directamente. Esto y otros factores hacen que la
operación de IMAP permita a múltiples clientes acceder al mismo buzón de correo. La mayoría
de los clientes de correo electrónico soportan POP3 ó IMAP; sin embargo, solo unos cuantos
proveedores de internet ofrecen IMAP como valor agregado de sus servicios.
DNS
El sistema de nombre de dominio (en inglés Domain Name System, DNS) es un sistema de
nomenclatura jerárquica para computadoras, servicios o cualquier recurso conectado al
internet o a una red privada. Este sistema asocia información variada con nombres de
dominios asignado a cada uno de los participantes. Su función más importante, es traducir
(resolver) nombres inteligibles para los humanos en identificadores binarios asociados con los
equipos conectados a la red, esto con el propósito de poder localizar y direccionar estos
equipos mundialmente.
DNS en el mundo real
Los usuarios generalmente no se comunican directamente con el servidor DNS: la resolución
de nombres se hace de forma transparente por las aplicaciones del cliente (por ejemplo,
navegadores, clientes de correo y otras aplicaciones que usan Internet). Al realizar una
petición que requiere una búsqueda de DNS, la petición se envía al servidor DNS local del
sistema operativo. El sistema operativo, antes de establecer ninguna comunicación,
comprueba si la respuesta se encuentra en la memoria caché. En el caso de que no se
encuentre, la petición se enviará a uno o más servidores DNS.
La mayoría de usuarios domésticos utilizan como servidor DNS el proporcionado por el
proveedor de servicios de Internet. La dirección de estos servidores puede ser configurada de
forma manual o automática mediante DHCP. En otros casos, los administradores de red tienen
configurados sus propios servidores DNS.
En cualquier caso, los servidores DNS que reciben la petición, buscan en primer lugar si
disponen de la respuesta en la memoria caché. Si es así, sirven la respuesta; en caso contrario,
iniciarían la búsqueda de manera recursiva. Una vez encontrada la respuesta, el servidor DNS
guardará el resultado en su memoria caché para futuros usos y devuelve el resultado.
NFS
El Network File System (Sistema de archivos de red), o NFS, es un protocolo de nivel de
aplicación, según el Modelo OSI. Es utilizado para sistemas de archivos distribuido en un
entorno de red de computadoras de área local. Posibilita que distintos sistemas conectados a
una misma red accedan a ficheros remotos como si se tratara de locales. Originalmente fue
desarrollado en 1984 por Sun Microsystems, con el objetivo de que sea independiente de la
máquina, el sistema operativo y el protocolo de transporte, esto fue posible gracias a que está
implementado sobre los protocolos XDR (presentación) y ONC RPC (sesión) .[1] El protocolo
NFS está incluido por defecto en los Sistemas Operativos UNIX y la mayoría de distribuciones
Linux.
Características
• El sistema NFS está dividido al menos en dos partes principales: un servidor y uno o más
clientes. Los clientes acceden de forma remota a los datos que se encuentran almacenados en
el servidor.
• Las estaciones de trabajo locales utilizan menos espacio de disco debido a que los datos se
encuentran centralizados en un único lugar pero pueden ser accedidos y modificados por
varios usuarios, de tal forma que no es necesario replicar la información.
• Los usuarios no necesitan disponer de un directorio “home” en cada una de las máquinas de
la organización. Los directorios “home” pueden crearse en el servidor de NFS para
posteriormente poder acceder a ellos desde cualquier máquina a través de la infraestructura
de red.
• También se pueden compartir a través de la red dispositivos de almacenamiento como
disqueteras, CD-ROM y unidades ZIP. Esto puede reducir la inversión en dichos dispositivos y
mejorar el aprovechamiento del hardware existente en la organización.
Todas las operaciones sobre ficheros son síncronas. Esto significa que la operación sólo retorna
cuando el servidor ha completado todo el trabajo asociado para esa operación. En caso de una
solicitud de escritura, el servidor escribirá físicamente los datos en el disco, y si es necesario,
actualizará la estructura de directorios, antes de devolver una respuesta al cliente. Esto
garantiza la integridad de los ficheros
4.4.1 Smtp Protocolo
Simple Mail Transfer Protocol (SMTP), o protocolo simple de transferencia de correo.
Protocolo de red basado en texto utilizado para el intercambio de mensajes de correo
electrónico entre computadoras o distintos dispositivos (PDA’s, teléfonos móviles, etc.). Está
definido en el RFC 2821 y es un estándar oficial de Internet.
Con el tiempo se ha convertido en uno de los protocolos más usados en internet. Para
adaptarse a las nuevas necesidades surgidas del crecimiento y popularidad de internet se han
hecho varias ampliaciones a este protocolo, como poder enviar texto con formato o archivos
adjuntos.
Funcionamiento [editar]SMTP se basa en el modelo cliente-servidor, donde un cliente envía
un mensaje a uno o varios receptores. La comunicación entre el cliente y el servidor consiste
enteramente en líneas de texto compuestas por caracteres ASCII. El tamaño máximo permitido
para estas líneas es de 1000 caracteres.
Las respuestas del servidor constan de un código numérico de tres digitos, seguido de un texto
explicativo. El número va dirigido a un procesado automático de la respuesta por autómata,
mientras que el texto permite que un humano interprete la respuesta. En el protocolo SMTP
todas las órdenes, réplicas o datos son líneas de texto, delimitadas por el carácter <CRLF>.
Todas las réplicas tienen un código numérico al comienzo de la línea.
En el conjunto de protocolos TCP/IP, el SMTP va por encima del TCP, usando normalmente el
puerto 25 en el servidor para establecer la conexión.
Resumen simple del funcionamiento del protocolo SMTP [editar]Cuando un cliente establece
una conexión con el servidor SMTP, espera a que éste envíe un mensaje “220 Service ready” o
“421 Service non available”
4.4.2 Ftp Protocolo
El siguiente modelo representa el diagrama de un servicio FTP.
En el modelo, el intérprete de protocolo (PI) de usuario, inicia la conexión de control en el
puerto 21. Las órdenes FTP estándar las genera el PI de usuario y se transmiten al proceso
servidor a través de la conexión de control. Las respuestas estándar se envían desde el PI del
servidor al PI de usuario por la conexión de control como respuesta a las órdenes.
Estas órdenes FTP especifican parámetros para la conexión de datos (puerto de datos, modo
de transferencia, tipo de representación y estructura) y la naturaleza de la operación sobre el
sistema de archivos (almacenar, recuperar, añadir, borrar, etc.). El proceso de transferencia de
datos (DTP) de usuario u otro proceso en su lugar, debe esperar a que el servidor inicie la
conexión al puerto de datos especificado (puerto 20 en modo activo o estándar) y transferir los
datos en función de los parámetros que se hayan especificado.
Vemos también en el diagrama que la comunicación entre cliente y servidor es independiente
del sistema de archivos utilizado en cada ordenador, de manera que no importa que sus
sistemas operativos sean distintos, porque las entidades que se comunican entre sí son los PI y
los DTP, que usan el mismo protocolo estandarizado: el FTP.
También hay que destacar que la conexión de datos es bidireccional, es decir, se puede usar
simultáneamente para enviar y para recibir, y no tiene por qué existir todo el tiempo que dura
la conexión FTP.
Servidor FTP
Un servidor FTP es un programa especial que se ejecuta en un equipo servidor normalmente
conectado a Internet (aunque puede estar conectado a otros tipos de redes, LAN, MAN, etc.).
Su función es permitir el intercambio de datos entre diferentes servidores/ordenadores.
Por lo general, los programas servidores FTP no suelen encontrarse en los ordenadores
personales, por lo que un usuario normalmente utilizará el FTP para conectarse remotamente
a uno y así intercambiar información con él.
Las aplicaciones más comunes de los servidores FTP suelen ser el alojamiento web, en el que
sus clientes utilizan el servicio para subir sus páginas web y sus archivos correspondientes; o
como servidor de backup (copia de seguridad) de los archivos importantes que pueda tener
una empresa. Para ello, existen protocolos de comunicación FTP para que los datos se
transmitan cifrados, como el SFTP (Secure File Transfer Protocol).
Cliente FTP
Cuando un navegador no está equipado con la función FTP, o si se quiere cargar archivos en un
ordenador remoto, se necesitará utilizar un programa cliente FTP. Un cliente FTP es un
programa que se instala en el ordenador del usuario, y que emplea el protocolo FTP para
conectarse a un servidor FTP y transferir archivos, ya sea para descargarlos o para subirlos.
Para utilizar un cliente FTP, se necesita conocer el nombre del archivo, el ordenador en que
reside (servidor, en el caso de descarga de archivos), el ordenador al que se quiere transferir el
archivo (en caso de querer subirlo nosotros al servidor), y la carpeta en la que se encuentra.
Algunos clientes de FTP básicos en modo consola vienen integrados en los sistemas operativos,
incluyendo Windows, DOS, Linux y Unix. Sin embargo, hay disponibles clientes con opciones
añadidas e interfaz gráfica. Aunque muchos navegadores tienen ya integrado FTP, es más
confiable a la hora de conectarse con servidores FTP no anónimos utilizar un programa cliente.
4.4.3 http Protocolo
El Protocolo de Transferencia de Hiper Texto (Hypertext Transfer Protocol) es un sencillo
protocolo cliente-servidor que articula los intercambios de información entre los clientes Web
y los servidores HTTP. La especificación completa del protocolo HTTP 1/0 está recogida en el
RFC 1945. Fue propuesto por Tim Berners-Lee, atendiendo a las necesidades de un sistema
global de distribución de información como el World Wide Web.
Cachés de páginas y servidores proxy
Muchos clientes Web utilizan un sistema para reducir el número de accesos y transferencias
de información a través de Internet, y así agilizar la presentación de documentos previamente
visitados. Para ello, almacenan en el disco del cliente una copia de las últimas páginas a las que
se ha accedido. Este mecanismo, denominado “caché de páginas”, mantiene la fecha de
acceso a un documento y comprueba, a través de un comando HEAD, la fecha actual de
modificación del mismo. En caso de que se detecte un cambio o actualización, el cliente
accederá, ahora a través de un GET, a recoger la nueva versión del fichero. En caso contrario,
se procederá a utilizar la copia local.
Un sistema parecido, pero con más funciones es el denominado “servidor proxy”. Este tipo de
servidor, una mezcla entre servidor HTTP y cliente Web, realiza las funciones de cache de
páginas para un gran número de clientes. Todos los clientes conectados a un proxy dejan que
éste sea el encargado de recoger las URLs solicitadas. De esta forma, en caso de que varios
clientes accedan a la misma página, el servidor proxy la podrá proporcionar con un único
acceso a la información original.
La principal ventaja de ambos sistemas es la drástica reducción de conexiones a Internet
necesarias, en caso de que los clientes accedan a un conjunto similar de páginas, como suele
ocurrir con mucha frecuencia. Además, determinadas organizaciones limitan, por motivos de
seguridad, los accesos desde su organización al exterior y viceversa. Para ello, se dispone de
sistemas denominados “cortafuegos” (firewalls), que son los únicos habilitados para
conectarse con el exterior. En este caso, el uso de un servidor proxy se vuelve indispensable.
En determinadas situaciones, el almacenamiento de páginas en un caché o en un proxy puede
hacer que se mantengan copias no actualizadas de la información, como por ejemplo en el
caso de trabajar con documentos generados dinámicamente. Para estas situaciones, los
servidores HTTP pueden informar a los clientes de la expiración del documento, o de la
imposibilidad de ser almacenado en un caché, utilizando la variable Expires en la respuesta del
servidor.
Magic Cookies
Las ‘galletas mágicas’ son una de las incorporaciones más recientes al protocolo HTTP, y son
parte del nuevo estándar HTTP/1.1. Las cookies son pequeños ficheros de texto que se
intercambian los clientes y servidores HTPP, para solucionar una de las principales deficiencias
del protocolo: la falta de información de estado entre dos transacciones. Fueron introducidas
por Netscape, y ahora han sido estandarizadas en el RFC 2109.
Cada intercambio de información con un servidor es completamente independiente del resto,
por lo que las aplicaciones CGI que necesitan recordar operaciones previas de un usuario (por
ejemplo, los supermercados electrónicos) pueden optar por dos soluciones, que complican
bastante su diseño: almacenar temporalmente en el sistema del servidor un registro de las
operaciones realizadas, con una determinada política para eliminarlas cuando no son
necesarias, o bien incluir esta información en el código HTML devuelto al cliente, como
campos HIDDEN de un formulario.
Las cookies son una solución más flexible a este problema. La primera vez que un usuario
accede a un determinado documento de un servidor, éste proporciona una cookie que
contiene datos que relacionarán posteriores operaciones. El cliente almacena la cookie en su
sistema para usarla después. En los futuros accesos a este servidor, el browser podrá
proporcionar la cookie original, que servirá de nexo entre este acceso y los anteriores. Todo
este proceso se realiza automáticamente, sin intervención del usuario. El siguiente ejemplo
muestra una cookie generada por la revista Rolling Stone.
4.4.4 Nfs Protocolo
El Network File System (Sistema de archivos de red), o NFS, es un protocolo de nivel de
aplicación, según el Modelo OSI. Es utilizado para sistemas de archivos distribuido en un
entorno de red de computadoras de área local. Posibilita que distintos sistemas conectados a
una misma red accedan a ficheros remotos como si se tratara de locales. Originalmente fue
desarrollado en 1984 por Sun Microsystems, con el objetivo de que sea independiente de la
máquina, el sistema operativo y el protocolo de transporte, esto fue posible gracias a que está
implementado sobre los protocolos XDR (presentación) y ONC RPC (sesión) .[1] El protocolo
NFS está incluido por defecto en los Sistemas Operativos UNIX y las distribuciones GNU/Linux.
Características [editar]El sistema NFS está dividido al menos en dos partes principales: un
servidor y uno o más clientes. Los clientes acceden de forma remota a los datos que se
encuentran almacenados en el servidor.
Las estaciones de trabajo locales utilizan menos espacio de disco debido a que los datos se
encuentran centralizados en un único lugar pero pueden ser accedidos y modificados por
varios usuarios, de tal forma que no es necesario replicar la información.
Los usuarios no necesitan disponer de un directorio “home” en cada una de las máquinas de la
organización. Los directorios “home” pueden crearse en el servidor de NFS para
posteriormente poder acceder a ellos desde cualquier máquina a través de la infraestructura
de red.
También se pueden compartir a través de la red dispositivos de almacenamiento como
disqueteras, CD-ROM y unidades ZIP. Esto puede reducir la inversión en dichos dispositivos y
mejorar el aprovechamiento del hardware existente en la organización.
Todas las operaciones sobre ficheros son síncronas. Esto significa que la operación sólo retorna
cuando el servidor ha completado todo el trabajo asociado para esa operación. En caso de una
solicitud de escritura, el servidor escribirá físicamente los datos en el disco, y si es necesario,
actualizará la estructura de directorios, antes de devolver una respuesta al cliente. Esto
garantiza la integridad de los ficheros.
4.4.5 Dns Protocolo
El DNS ( Domain Name System ) o Sistema de Nombres de Dominio es una base de datos
jerárquica y distribuida que almacena informacion sobre los nombres de dominio de de redes
cómo Internet. También llamamos DNS al protocolo de comunicación entre un cliente (
resolver ) y el servidor DNS.
La función más común de DNS es la traducción de nombres por direcciones IP, esto nos facilita
recordar la dirección de una máquina haciendo una consulta DNS y nos proporciona un modo
de acceso más fiable ya que por multiples motivos la dirección IP puede variar manteniendo el
mismo nombre de dominio.
El DNS usa el concepto de espacio de nombres distribuido. Los nombres simbólicos se agrupan
en zonas de autoridad, o más comúnmente, zonas. En cada una de estas zonas, uno o más
hosts tienen la tarea de mantener una base de datos de nombres simbólicos y direcciones IP y
de suministrar la función de servidor para los clientes que deseen traducir nombres simbólicos
a direcciones IP. Estos servidores de nombres locales se interconectan lógicamente en una
árbol jerárquico de dominios.
Cada zona contiene una parte del árbol o subárbol y los nombres de esa zona se administran
con independencia de los de otras zonas. La autoridad sobre zonas se delega en los servidores
de nombres. Normalmente, los servidores de nombres que tienen autoridad en zona tendrán
nombres de dominio de la misma, aunque no es imprescindible. En los puntos en los que un
dominio contiene un subárbol que cae en una zona diferente, se dice que el servidor /
servidores de nombres con autoridad sobre el dominio superior delegan autoridad al servidor /
servidores de nombres con autoridad sobre los subdominios. Los servidores de nombres
también pueden delegar autoridad en sí mismos; en este caso, el espacio de nombres sigue
dividido en zonas, pero la autoridad para ambas las ejerce el mismo servidor . La división por
zonas se realiza utilizando registros de recursos guardados en el DNS.