Trasmicion de Datos
-
Upload
andherson-rios -
Category
Documents
-
view
229 -
download
9
description
Transcript of Trasmicion de Datos
REPUBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA DEFENSA
U.N.E.F.A
INTEGRANTE:
ANDHERSON RIOS
21214935
TRANSMISION
DE
DATOS
INTRODUCION
La transmisión de datos es una forma de enviar información de forma rápida, confiable y segura
.Esta práctica siempre se ha planteado a través del tiempo pero, con mayor tecnología ha sido
mucho más eficiente.
En este trabajo se analizara un poco las técnicas y algunas teorías empleadas en ellas como teorema
Shannon, Teorema de Nyquist, algunas clase de modulación como psk,ask,fsk, entre otros concepto
que son utilizados
1) MODULACION LINEAL
La modulación lineal recibe su nombre porque el espectro que produce está relacionado en
forma lineal con el espectro del mensaje. Entre los tipos de modulación lineal que existen se
encuentran: AM (Amplitude Modulation), DSB (Double Side Band), SSB ( Single Side Band), VSB (
Vestigial Side Band) . Sea cual sea el tipo que se analice, las convenciones serán las siguientes:
1. El mensaje x(t) estará limitado en banda (BW=W)
2. El mensaje x(t) estará normalizado, esto es, |x(t)| <= 1. En este caso la potencia promedio será
también menor e igual que 1 si proviene de una fuente ergódica.
3. Muchas veces supondremos que el mensaje es un tono x(t)=AmCoswmt lo cual tiene sentido dado
que el análisis de Fourier nos permite representar señales en función de sinusoides y así aplicar
superposición si los sistemas son lineales. Por otra parte como la modulación de onda continua
utiliza portadora sinusoidal, la señal resultante (si el ancho de banda fraccional es pequeño) puede
analizarse como una sinusoide pura.
1.1) MODULACION AM
Como su nombre lo indica, consiste en variar la amplitud de una sinusoide de acuerdo al
mensaje que se desea transmitir. A la sinusoide se le llama portadora debido a que llevará la
información sobre sí. Este tipo de modulación se usa en radiodifusión comercial y en algunas bandas
de transmisión de banda ciudadana. Sea x(t) un mensaje que cumple las condiciones indicadas en la
introducción; sea xc(t) = AcCoswct la portadora. La señal modulada en amplitud (AM) se expresará
como: xAM(t) = Ac ( 1 + mx(t)) Coswct m es el índice de modulación que se encuentra entre 0 y 1.
1.2) MODULACION DE DOBLE BANDA LATERAL
Se puede definir como AM con la portadora suprimida con el objeto de ahorrar potencia.
Este tipo de modulación se usa en comunicación punto a punto donde hay un solo receptor ya que
este sería más complejo que en AM. También se utiliza para colocar los canales derecho e izquierdo
( R y L) en FM estéreo, con el propósito de tener buena reproducción en la zona de baja frecuencia;
por esta misma razón, algunos sistemas de telemetría usan el esquema DSB.
Sea x(t) un mensaje que cumple las condiciones indicadas en la introducción; sea xc(t) = AcCoswct
la portadora. La señal DSB se expresará como xDSB (t) = Acx (t) Coswct.
1.3) MODULACION CUADRATICA (AM)
La modulación de amplitud en cuadratura o QAM (acrónimo de Quadrature Amplitude
Modulation, por sus siglas en inglés) es una técnica que transporta dos señales independientes,
mediante la modulación de una señal portadora, tanto en amplitud como en fase. Esto se consigue
modulando una misma portadora, desfasada en 90°. La señal modulada en QAM está compuesta
por la suma lineal de dos señales previamente moduladas en Doble Banda Lateral con Portadora
Suprimida.
Se asocian a esta tecnología aplicaciones tales como:
Módems telefónicos para velocidades superiores a los 2400bps.
Transmisión de señales de televisión, microondas, satélite (datos a alta velocidad por
canales con ancho de banda restringido).
Modulación con Codificación Reticulada, que consigue velocidades de transmisión muy
elevadas combinando la modulación con la codificación de canal.
Módems ADSL que trabajan a frecuencias comprendidas entre 24KHz y 1104KHz,
alcanzándose velocidades de datos de hasta 9 Mbps.
1.4) MUESTREO
Muestreo Definimos muestreo como la cantidad de veces que medimos el valor de la señal
en un periodo de tiempo (usualmente en 1 segundo). Según el teorema de Nyquist-Shannon la
cantidad de veces que debemos medir una señal para no perder información debe de ser al menos
el doble de la frecuencia máxima que alcanza dicha señal.
En otras palabras, si deseamos grabar una conversación telefónica, como el ancho de banda
de la red telefónica es de 3khz, para no perder información deberemos tomar del orden de 6.000
muestras/segundo. Señal original
2) MODULACION DIGITAL
ASK: La modulación por desplazamiento de amplitud, en inglés Amplitude-shift keying (ASK), es una
forma de modulación en la cual se representan los datos digitales como variaciones de amplitud de
la onda portadora en función de los datos a enviar.
La amplitud de una señal portadora análoga varía conforme a la corriente de bit (modulando
la señal), manteniendo la frecuencia y la fase constante. El nivel de amplitud puede ser usado para
representar los valores binarios 0s y 1s. Podemos pensar en la señal portadora como un interruptor
ON/OFF. En la señal modulada, el valor lógico 0 es representado por la ausencia de una portadora,
así que da ON/OFF la operación de pulsación y de ahí el nombre dado.
Como la modulación AM, ASK es también lineal y sensible al ruido atmosférico, distorsiones,
condiciones de propagación en rutas diferentes en la PSTN, entre otros factores. Esto requiere una
amplitud de banda excesiva y es por lo tanto un gasto de energía. Tanto los procesos de modulación
ASK como los procesos de demodulación son relativamente baratos. La técnica ASK también es
usada comúnmente para transmitir datos digitales sobre la fibra óptica. Para los transmisores LED,
el valor binario 1 es representado por un pulso corto de luz y el valor binario 0 por la ausencia de
luz. Los transmisores de láser normalmente tienen una corriente "de tendencia" fija que hace que
el dispositivo emita un nivel bajo de luz. Este nivel bajo representa el valor 0, mientras una onda
luminosa de amplitud más alta representa el valor binario 1.
FSK: La modulación por desplazamiento de frecuencia o FSK —del inglés Frequency Shift Keying—
es una técnica de modulación para la transmisión digital de información utilizando dos o más
frecuencias diferentes para cada símbolo.1 La señal moduladora solo varía entre dos valores
de tensión discretos formando un tren de pulsos donde uno representa un "1" o "marca" y el otro
representa el "0" o "espacio".
En la modulación digital, a la relación de cambio a la entrada del modulador se le llama bit-
rate y tiene como unidad el bit por segundo(bps).
PSK: La modulación por desplazamiento de fase o PSK (Phase Shift Keying) es una forma
de modulación angular que consiste en hacer variar la fase de la portadora entre un número de
valores discretos. La diferencia con la modulación de fase convencional (PM) es que mientras en
ésta la variación de fase es continua, en función de la señal moduladora, en la PSK la señal
moduladora es una señal digital y, por tanto, con un número de estados limitado.
2.2) SINCRONIZACION DE PORTADORE Y TEMPORIZACION
3) TRANSMISION SINCRONA Y ASINCRONA
Síncrona
La transmisión síncrona es una técnica que consiste en el envío de una trama de datos
(conjunto de caracteres) que configura un bloque de información comenzando con un conjunto
de bits de sincronismo (SYN) y terminando con otro conjunto de bits de final de bloque (ETB). En
este caso, los bits de sincronismo tienen la función de sincronizar los relojes existentes tanto en el
emisor como en el receptor, de tal forma que estos controlan la duración de cada bit y carácter.
Dicha transmisión se realiza con un ritmo que se genera centralizadamente en la red y es el
mismo para el emisor como para el receptor. La información se transmite entre dos grupos,
denominados delimitadores (8 bits).
Asíncrona
También se dice que se establece una relación asíncrona cuando no hay ninguna relación
temporal entre la estación que transmite y la que recibe. Es decir, el ritmo de presentación de la
información al destino no tiene por qué coincidir con el ritmo de presentación de la información por
la fuente. En estas situaciones tampoco se necesita garantizar un ancho de banda determinado,
suministrando solamente el que esté en ese momento disponible. Es un tipo de relación típica para
la transmisión de datos.
En este tipo de red el receptor no sabe con precisión cuando recibirá un mensaje. Cada caracter
a ser transmitido es delimitado por un bit de información denominado de cabecera o de arranque,
y uno o dos bits denominados de terminación o de parada.
El bit de arranque tiene dos funciones de sincronización de reloj del transmisor y del
receptor.
El bit o bits de parada, se usan para separar un caracter del siguiente.
Después de la transmisión de los bits de información se suele agregar un bit de paridad (par o
impar). Dicho Bit sirve para comprobar que los datos se transfieran sin interrupción. El receptor
revisa la paridad de cada unidad de entrada de datos.
Partiendo desde la línea de transmisión en reposo, cuando tiene el nivel lógico 1, el emisor
informa al receptor de que va a llegar un carácter, para ello antepone un bit de arranque (Start) con
el valor lógico 0. Una vez que el bit Start llega al receptor este disparará un reloj interno y se quedará
esperando por los sucesivos bits que contendrá la información del carácter transmitido por el
emisor.
Una vez que el receptor recibe todos los bits de información se añadirá al menos un bit de
parada (Stop) de nivel lógico 1, que repondrán en su estado inicial a la línea de datos, dejándola así
preparada para la siguiente transmisión del siguiente carácter. Es usada en velocidades de
modulación de hasta 1,200 baudios. El rendimiento se basa en el uso de un bit de arranque y dos de
parada, en una señal que use código de 7 bits más uno de paridad (8 bits sobre 11 transmitidos) es
del 72 por 100.
3.1) MODULACION PCM
La modulación por impulsos codificados (MIC o PCM por sus siglas inglesas de Pulse Code
Modulation) es un procedimiento demodulación utilizado para transformar una señal analógica en
una secuencia de bits (señal digital), este método fue inventado por Alec Reeves en 1937. Una trama
o flujo PCM es una representación digital de una señal analógica en donde la magnitud de la onda
analógica es tomada en intervalos uniformes (muestras), cada muestra puede tomar un conjunto
finito de valores, los cuales se encuentran codificados. Los flujos (streaming) PCM tienen dos
propiedades básicas que determinan su fidelidad a la señal analógica original: la frecuencia de
muestreo, es decir, el número de veces por segundo que se tomen las muestras; y la bit, que
determina el número de posibles valores digitales que puede tomar cada muestra.
DPCM
Del inglés Differential Pulse Code Modulation, DPCM es un codificador de forma de onda que
parte de la base de PCM pero añade algunas funcionalidades basadas en la predicción de las
muestras de la señal. Se parte de una señal analógica (continua en el tiempo) la cual se quiere
codificar. El primer paso a realizar es el proceso de muestreo (tomar el valor de la señal cada cierto
período regular de tiempo). Con eso se consigue una señal discreta en el tiempo (compuesta por
toda una serie de muestras equiespaciadas). El siguiente paso es la cuantificación: se preestablecen
unos niveles (amplitudes) y (2 opciones):
[opción 1] se coge el valor de dos muestras consecutivas, se resta el valor de la segunda
menos la primera, se cuantifica el resultado y finalmente se codifica, o bien
[opción 2] se hace la predicción de una muestra a partir de las muestras anteriores y se
calcula la diferencia entre el valor de la muestra actual real y la predicción (el resultado es
el error de predicción), se cuantifica el error y se codifica.
Aplicando uno de estos dos procesos se elimina la redundancia de la señal a corto término y se
consiguen factores de compresión del orden de 4 (el tamaño del fichero se divide por 4). El motivo
por el cual se reduce el tamaño del fichero es porque como se hace la diferencia entre dos muestras,
el resultado será un valor pequeño y hasta cercano a cero y, por lo tanto, en codificación se
necesitarán menos bits. En resumen, se puede decir que la potencia de la señal “diferencia” es
mucho menor que la de la señal discreta original.
3.2) MODULACION DELTA O PWM
La modulación por ancho de pulsos (también conocida como PWM, siglas en inglés de pulse-
width modulation) de una señal o fuente de energía es una técnica en la que se modifica el ciclo de
trabajo de una señal periódica (una senoidal o una cuadrada, por ejemplo), ya sea para transmitir
información a través de un canal de comunicaciones o para controlar la cantidad de energía que se
envía a una carga.
El ciclo de trabajo de una señal periódica es el ancho relativo de su parte positiva en relación
con el período. Expresado matemáticamente:
D es el ciclo de trabajo
es el tiempo en que la función es positiva (ancho del pulso)
T es el período de la función
La construcción típica de un circuito PWM se lleva a cabo mediante un comparador con dos
entradas y una salida. Una de las entradas se conecta a un oscilador de onda dientes de sierra,
mientras que la otra queda disponible para la señal moduladora. En la salida la frecuencia es
generalmente igual a la de la señal dientes de sierra y el ciclo de trabajo está en función de la
portadora.
La principal desventaja que presentan los circuitos PWM es la posibilidad de que haya
interferencias generadas por radiofrecuencia. Éstas pueden minimizarse ubicando el controlador
cerca de la carga y realizando un filtrado de la
3.3) TDM
La multiplicación por división de tiempo (TDM) es una técnica que permite la transmisión
de señales digitales y cuya idea consiste en ocupar un canal (normalmente de gran capacidad) de
trasmisión a partir de distintas fuentes, de esta manera se logra un mejor aprovechamiento del
medio de trasmisión. El Acceso múltiple por división de tiempo (TDMA) es una de las técnicas de
TDM más difundidas.
4) TEORIA DE LA INFORMACION Y CODIFICACION
A partir de la acelerada difusión y especialización que experimentan los medios de
comunicación en el procesamiento y transmisión de información durante la primera mitad de
nuestro siglo, se desarrolla el primer modelo científico del proceso de comunicación conocido como
la Teoría de la Información o Teoría Matemática de la Comunicación. Específicamente, se
desarrolla en el área de la telegrafía donde surge la necesidad de determinar, con la máxima
precisión, la capacidad de los diferentes sistemas de comunicación para transmitir información.
La primera formulación de las leyes matemáticas que gobiernan dicho sistema fue realizada
por Hartley (1928) y sus ideas son consideradas actualmente como la génesis de la Teoría de la
Información. Posteriormente, Shannon y Weaver (1949) desarrollaron los principios definitivos de
esta teoría. Su trabajo se centró en algunos de los siguientes problemas que surgen en los sistemas
destinados a manipular información: cómo hablar los mejores métodos para utilizar los diversos
sistemas de comunicación; cómo establecer el mejor método para separar las señales del ruido y
cómo determinar los límites posibles de un canal.
El concepto de comunicación en el contexto de la Teoría de la Información es empleado en
un sentido muy amplio en el que "quedan incluidos todos los procedimientos mediante los cuales
una mente puede influir en otra". De esta manera, se consideran todas las formas que el hombre
utiliza para transmitir sus ideas: la palabra hablada, escrita o transmitida (teléfono, radio, telégrafo,
etc.), los gestos, la música, las imágenes, los movimientos, etc.
En el proceso de comunicación es posible distinguir por lo menos tres niveles de análisis
diferentes: el técnico, el semántico y el pragmático. En el nivel técnico se analizan aquellos
problemas que surgen en torno a la fidelidad con que la información puede ser transmitida desde
el emisor hasta el receptor. En el semántico se estudia todo aquello que se refiera al significado del
mensaje y su interpretación. Por último, en el nivel pragmático se analizan los efectos conductuales
de la comunicación, la influencia o efectividad del mensaje en tanto da lugar a una conducta. Es
importante destacar que la Teoría de la Información se desarrolla como una respuesta a los
problemas técnicos del proceso de comunicación, aun cuando sus principios puedan aplicarse en
otros contextos
5) TEOREMA DE SHANNON
En 1948 se publicó dentro de la revista de los laboratorios Bell (EEUU) un artículo titulado
“A Mathematical Theory of Communication” por el investigador de dicho laboratorio Claude E.
Shannon. Dicho artículo, de aproximadamente 50 páginas de extensión, es un complejo análisis
matemático donde se establece la velocidad máxima en bits por segundo que se puede alcanzar en
cualquier sistema de comunicación real. Claude E. Shannon realizó dicho estudio sobre un sistema
de comunicación en general, sin particularizar en ningún medio de transmisión en concreto, por lo
que a lo largo de todo el artículo no aparece ninguna mención a componentes o circuitos eléctricos,
electrónicos, ópticos o cualquier otro sistema susceptible de emplearse en comunicaciones
digitales. Es, como su propio título indica, una teoría matemática de la comunicación.
Como se ha indicado anteriormente, Shannon estudia el caso general de un sistema de
comunicación, compuesto por un emisor, un receptor, un canal de transmisión y una fuente de
ruido, que en todo sistema real de transmisión existe en mayor o menor medida. En la siguiente
imagen se muestra la representación del propio Shannon de dicho sistema general de
comunicaciones.
A partir del esquema anterior y a lo largo de más de cincuenta páginas, Claude E.
Shannon demuestra mediante complejos cálculos matemáticos su famoso teorema de las
comunicaciones. Todo el artículo está lleno de límites, derivadas, integrales, cálculos de estadística
y probabilidades y otros procedimientos matemáticos.
Afortunadamente el resultado final del teorema de las comunicaciones de
Shannon es una pequeña fórmula, fácil de aplicar y de recordar, y de consecuencias fundamentales
para todos los sistemas de comunicaciones modernas:
En la fórmula de Shannon, C es la velocidad máxima en bps, B es el ancho de banda en Hz
y S/N es la relación señal a ruido (signal/noise). Para cualquier sistema de transmisión con un
determinado ancho de banda y con una relación dada de señal a ruido, limita la velocidad máxima
en bps que se puede obtener, sea cual sea la técnica de transmisión empleada. El límite de velocidad
que impone el teorema de Shannon a cualquier sistema real de transmisión hay que entenderlo de
la misma manera que existe una temperatura de cero absoluto y por debajo de la cual no se puede
bajar o el límite de la velocidad de la luz. Y esto es válido para cualquier sistema de transmisión (fibra
óptica, radio, cable UTP, etc). Ni se puede sobrepasar hoy en día ese límite ni se podrá en el futuro.
6) TEOREMA DE CODIFICACION DE FUENTES
Sea una fuente con entropía H (bits por símbolo) y un canal con capacidad C (bits por
segundo). Entonces es posible codificar la salida de la fuente de tal modo que se pueda transmitir a
un régimen de C/H−ε símbolos por segundo sobre el canal, donde ε es tan pequeño como se quiera.
No es posible transmitir a un régimen promedio mayor que C/H. (Shannon 1948: 16)
Con este teorema Shannon prueba la existencia de un límite a la eficiencia de lo que se ha
denominado codificación de fuente (®codificador). Si puede determinarse la entropía de una fuente
caracterizada por la emisión de un número finito de símbolos, entonces sabemos que H (en
bits/símbolo) equivale al mínimo número de dígitos binarios que podrían emplearse para su
codificación, traduciéndose todo acercamiento a dicho límite en un aumento de la complejidad (en
coste operativo y circuital). Al igual que en otros resultados fundamentales de la TMC, se trata de
una conclusión no constructiva, dejando abierto el problema del diseño de la codificación
(®C.E.Shannon).
En la práctica, la codificación de fuente no se ciñe solo al plano estadístico al que se refiere
Shannon. Las técnicas más sofisticadas de codificación de fuente consisten en una combinación de:
1) codificación predictiva, solo se transmite aquello que no puede predecirse a partir de las
emisiones previas, logrando óptimos resultados cuando se analiza en profundidad las peculiaridades
de la fuente y su contexto pragmático (por ejemplo, para la reproducción de una interpretación de
piano solo se registran las pulsaciones sobre el teclado).
2)codificación transformacional (especialmente aplicable a señales destinadas a órganos
sensoriales), a las señales a transmitir se les aplica una transformación lineal (reversible) por medio
de la cual se pueden distinguir rangos de diferente sensibilidad, permitiendo así el prescindir de
datos imperceptibles o que quedan por debajo de ciertos umbrales de calidad (operación que
entraña una pérdida irreversible de datos –no necesariamente información, si es que tales datos de
ningún modo fueran a informar al destino). En esta codificación la eficiencia se logra mediante un
análisis en profundidad de la percepción sensorial.
3) Codificación estadística, en el sentido apuntado por la TMC que considera las emisiones de la
fuente como procesos ergódigos y estacionarios.
7) CODIGO CORRELATIVO
La Codificación puede ser de dos maneras:
Codificación no significativa: Consiste en asignar una serie de códigos, de formas correlativas
o al azar sin que los mismos den información sobre el artículo. Ejemplo: EL DNI.
Codificación Significativa: Se caracteriza porque cada componente del código nos puede
estar dando información sobre la mercancía almacenada, procedencia, lugar de ubicación
etc.
Características de la Codificación no significativa o correlativa
Ventajas Inconvenientes
Simplicidad de la codificación. Es difícil de relacionar el artículo.
Economía del método (diez mil
artículos requieren un código de
cuatro dígitos de 0 a 9999).
Está expuesta a errores de
dislexia (35 VRS 53).
Cuando se comente un error
en un código no signiificativo,
es difícil descubrirlo.
Dificultad en reagrupar la información
que puede emanar de la codificación.
Características de la Codificación significativa.
Ventajas Inconvenientes
Mejor posibilidad de memorización. Puede resultar pesada, si se
desea que un mismo código
facilite gran cantidad de informa-
ción.
Menos errores de transcripción.
Poder codificar y procesar dos clases
de informaciones:
- Una permite la identificación.
- Conocer la pertenencia a diferentes
conjuntos y subconjuntos.
Su elasticidad es limitada, pues
una vez realizada la estructura
glbal de la codificación, es difícil
incluir modificaciones, si no se
han previsto previamente.
8) CAPACIDAD DE CANAL
Se llama capacidad del canal a la velocidad a la que se pueden transmitir los datos en un
canal de comunicación de datos. La velocidad de transmisión de los datos es expresada en bits por
segundo (bps).
La capacidad de un canal depende del ancho de banda (que depende del transmisor y de
la naturaleza del medio de transmisión), el ruido y la tasa de errores permitida. Para un ancho de
banda dado se puede alcanzar la mayor velocidad de transmisión posible pero hay que evitar que
se supere la tasa de errores aconsejable. Para conseguirlo, el mayor inconveniente es el ruido
9) TEOREMA DE CODIFICACION DE CANAL
Capacidad de un canal ideal
En 1.924, Nyquist planteó la existencia de un límite en la capacidad de un canal ideal (sin ruido ni
distorsiones) de ancho de banda finito. El teorema de Nyquist establece que la velocidad máxima
de transmisión de datos en bps viene limitada por la siguiente fórmula:
C=2wlog2n
n el número de niveles posibles de la señal
w el ancho de banda expresado en hertzios (Hz).
Por tanto, Nyquist establece que aumentado los niveles de tensión diferenciables en la señal,
es posible incrementar la cantidad de información transmitida.
Por ejemplo, el valor de n para una señal digital binaria es 2 por ser señales de dos niveles posibles.
Un canal sin ruido de 3 kHz no podrá transmitir señales binarias a una velocidad mayor que 6.000
bps.
Esta expresión fija una cota superior con la que comparar el comportamiento de los
sistemas que se diseñan ya que, cuando se habla de velocidad de transmisión de un canal real (con
ruidos), nunca se alcanzan estas velocidades.
10) TEORIA CAPACIDAD CANAL
En teoría de la información, el teorema de Shannon-Hartley es una aplicación del teorema
de codificación para canales con ruido. Un caso muy frecuente es el de un canal de
comunicación analógico continuo en el tiempo que presenta un ruido gausiano.
El teorema establece la capacidad del canal de Shannon, una cota superior que establece la
máxima cantidad de datos digitales que pueden ser transmitidos sin error (esto es,información)
sobre dicho enlace de comunicaciones con un ancho de banda específico y que está sometido a la
presencia de la interferencia del ruido.
En las hipótesis de partida, para la correcta aplicación del teorema, se asume una limitación
en la potencia de la señal y, además, que el proceso del ruido gausiano es caracterizado por una
potencia conocida o una densidad espectral de potencia.
La ley debe su nombre a Claude Shannon y Ralph Hartley.
Considerando todas las posibles técnicas de codificación de niveles múltiples y polifásicas,
el teorema de Shannon-Hartley indica que la capacidad del canal C es:
Donde:
es el ancho de banda del canal en Hertz.
es la capacidad del canal (tasa de bits de información bit/s)
es la potencia de la señal útil, que puede estar expresada en vatios, milivatios, etc., (W,
mW, etc.)
es la potencia del ruido presente en el canal, (mW, W, etc.) que trata de enmascarar a
la señal útil
11) NOCIONES DE DETENCION Y ESTIMACION
La teoría de detección de señales (TDS) se fundamenta en la psicofísica, rama de la
psicología que se dedica al estudio de la relación entre estímulos físicos y las reacciones psicológicas
que estos producen en un sujeto. Se estableció en el ámbito de la ingeniería, en relación con la
“detección de señales electromagnéticas en presencia de ruido” (Peterson, Birsdall y Fox, 1954).
Esta teoría intenta describir formalmente la capacidad que tiene un organismo para reconocer un
estímulo y emitir una respuesta con base en él. Por lo tanto permite analizar los factores que pueden
influir en las respuestas de sujetos que interactúan con el ambiente y que deben, en consecuencia,
discriminar y detectar estímulos.
La teoría de detección de señales parte de la base de que los organismos viven en un
sistema determinado que está compuesto y rodeado por cientos de estímulos que, aunque no
siempre sean la señal que el organismo percibe, la acompañan. Al estímulo que el organismo percibe
y ante el cual responde, se le llama “señal”; mientras que el resto de estímulos que lo acompañan
reciben el nombre de “ruido”. Dado que el ruido es algo constante, y que permanece
independientemente de la señal que sea detectada, la señal que percibimos recibe el nombre de
“señal + ruido”. Esta capacidad para discriminar entre la señal con ruido y el ruido solo es lo que la
TDS permite cuantificar.
Debido a que el ruido dificulta la detección y la correcta discriminación de las señales, el sujeto
puede cometer errores o aciertos a la hora de responder ante ellas. De acuerdo con la TDS existen
cuatro tipos de posible respuesta que se resumen en el siguiente mapa conceptual, en el cual
encontraremos que la señal con ruido se denomina “SR” y que el ruido se denomina “R”.
Según el mapa conceptual de la Figura 1, encontramos que las cuatro posibles respuestas son:
1. Acierto: Ocurre cuando el sujeto afirma detectar la señal y esta efectivamente está presente.
2. Fallo por omisión: Ocurre cuando el sujeto afirma no detectar la señal, aunque esta esté presente.
3. Falsa Alarma: Ocurre cuando el sujeto afirma detectar la señal así esta no esté presente.
4. Rechazo Correcto: Ocurre cuando efectivamente la señal no está y el sujeto no la detecta.
El acierto y el rechazo correcto son entonces respuestas correctas que el sujeto da ante la
presentación de los estímulos, mientras que el fallo por omisión y la falsa alarma no lo son. En este
caso un sistema que sea sensible y específico minimizará estos dos errores y aumentara en número
de aciertos y rechazos correctos.
ESTIMACION
En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un
valor aproximado de un parámetro de una población a partir de los datos proporcionados por
una muestra. Por ejemplo, una estimación de la media de una determinada característica de
una población de tamaño N podría ser la media de esa misma característica para una muestra de
tamaño n.
BIBLOGRAFIA
http://mural.uv.es/gislo/Tema3.pdf
https://es.wikiversity.org/wiki/Modulaciones_lineales
https://es.wikipedia.org/wiki/Modulaci%C3%B3n_de_amplitud_en_cuadratura
http://serbal.pntic.mec.es/srug0007/archivos/radiocomunicaciones/3%20SE%D1ALES%20DIGITAL
ES/Muestreo%20digital.pdf
http://webdelprofesor.ula.ve/ingenieria/jbriceno/transmisiones/comdiP2.pdf
http://es.slideshare.net/jhcordoba1/transmision-de-datos-14983712
http://es.slideshare.net/gracekam/transmisin-asncrona-y-sncrona
https://es.wikipedia.org/wiki/Modulaci%C3%B3n_por_ancho_de_pulsos
https://es.wikibooks.org/wiki/Manual_de_Ingenier%C3%ADa_Inform%C3%A1tica/Teor%C3%ADa_
de_la_Informaci%C3%B3n_y_la_Codificaci%C3%B3n
http://telefonia.blog.tartanga.net/shannon-nyquist-fourier-y-otros/el-teorema-de-shannon/
http://glossarium.bitrum.unileon.es/Home/teoremas-fundamentales-de-shannon
http://operacionesdealmacenaje.wikispaces.com/Codificaci%C3%B3n
https://percibir.wikispaces.com/Teor%C3%ADa+de+Detecci%C3%B3n+de+Se%C3%B1ales
CONCLUSION
La modulación es una técnica que permite enviar información a través de una onda
portadora, esta va a variar dependiendo si es digital o analógica. Las ventajas de alterar la
información es que permite una mayor captación o recepción en la información.
Las modulaciones se van hacer en función de los equipos que estemos utilizando.
La modulación no solo se usa entre receptor y el transmisor si no en los distintos puntos de
ellos mismo, es decir, un transmisor está compuesto por diferentes partes y en esas partes se hacen
diferentes modulaciones antes de enviar o disparar la información hacia el receptor esto va a variar
dependiendo del equipo que se utiliza.
Para tener una transmisión optima hay que evaluar una serie de parámetros (no los voy a
nombrar todos solo los referentes en el trabajo) como los la sincronización que hay entre transmisor
y receptor, la capacidad de información que puede enviar, capacidad del canal, la potencia necesaria
en las fuentes muchos factores a comprender a la hora de enviar información.
Estos factores se pueden calcular o estimar de diferentes métodos como es la teoría de
Shannon que habla de la capacidad del canal, en cuanto información se puede enviar. También esta
Nyquist que establece la máxima velocidad que puede viajar los datos.
Otro factor que hay que tener en cuenta es la cantidad de información que se va enviar ya
que esto hace variar la modulación, para grandes cantidades de datos digitales se usan las
modulaciones cuadráticas que es una doble modulación. Esta modulación permite mayor velocidad
de transmisión de datos y mayor rendimiento.
Luego de esto cálculos y compatibilidad del equipo se realiza el disparo de información del
transmisor al receptor (caso de antenas).