Volumen 16, Numero 64

70

description

Universidad, Ciencia y Tecnologia.

Transcript of Volumen 16, Numero 64

Page 1: Volumen 16, Numero 64
Page 2: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA

y TECNOLOGÍA

Vol. 16, Nº 64, septiembre 2012

Revista trimestral editada por la Universidad Nacional

Experimental Politécnica “Antonio José de Sucre”,

UNEXPO, Vicerrectorado Puerto Ordaz.

INDIZADA EN:

Actualidad Iberoamericana

Aluminium Industry Abstracts

Corrosion Abstracts

CSA Engineering Research Database

CSA Materials Research Database with METADEX

CSA Recent References Related to Technology

CSA Technology Research Database

Environment Abstracts

LATINDEX

Mechanical & Transportation Engineering Abstracts

METADEX

REVENCYT

Colección SciELO Venezuela (www.scielo.org.ve)

REGISTRADA EN:

Ulrich΄s Internacional Periodicals Directory

Nuestra Portada:

Parque eólico marino de

Jiansu Rudong de 48,3

MW de potencia.

El parque de Jaingsu,

provisto de 21 aero-

generadores Siemens

SWT 2,3-101 (de 2,3

MW de potencia y rotor de

101 metros de diámetro), se ubica en el

este del mar de China. Los cimientos de los

aerogeneradores se encuentran a cinco metros bajo el

nivel del mar durante la marea alta. En marea baja, están

totalmente descubiertos.

Fuente: Revista Energías Renovables.

DIRECTORIO DE LA REVISTA UNIVERSIDAD,

CIENCIA Y TECNOLOGÍA

Directora: Dra. Minerva Arzola

Editor: Dr. Luis Rosales

Comité Editorial (en orden alfabético):

Dr. Angel Custodio

Dra. Mayra D’Armas

Dr. Herman Fernández

Dra. Linda Gil

Dr. Luis Rosales

Dr. Ovidio León

MSc. Sady Zurita

Autoridades Nacionales de la UNEXPO

Rectora: Lic. Rita Añez

Vice-Rectora Académica: Dra. Fraisa Codecido

Vice-Rectora Administrativa: Msc. Mazra Morales

Secretaria: Ing. Magly de Peraza

Autoridades Regionales, Vicerrectorado Puerto Ordaz

Vice-Rector: Dr. Ovidio León

Director Académico: Ing. Carlos Pietri

Director Administrativo: Msc. Miguel Leyton

Directora de Investig. y Postgrado: Dra. Minerva Arzola

Administración y transcripciones

TSU Zorelys Romero

Diseño Portada

Tec. Miguel Torres

Composición:

Dra. Mayra D’Armas

Impresión:

Dirección de Investigación y Postgrado, UNEXPO Puerto

Ordaz

Publicación Financiada por:

Dirección de Investigación y Postgrado, UNEXPO,

Vicerrectorado Puerto Ordaz.

Los artículos, opiniones y colaboraciones que se publican en esta revista no representan necesariamente la filosofía informativa ni institucional de la

UNEXPO y podrán ser reproducidos previa autorización del Editor. En caso de reproducción se agradece citar la fuente y enviar ejemplares del medio

utilizado a la UNEXPO, a la siguiente dirección: Dirección de Investigación y Postgrado, UNEXPO, Vicerrectorado Puerto Ordaz, Alta Vista Sur, Urb. Villa Asia, Final Calle China, Apdo. Postal 8050. Puerto Ordaz, Estado Bolívar, Venezuela. Telf./fax (0286) 9625245-9611382. Email:

[email protected], [email protected]

Page 3: Volumen 16, Numero 64

152

CONTENIDO UNIVERSIDAD, CIENCIA

y TECNOLOGÍA

Vol. 16, Nº 64, Septiembre 2012

ISSN 1316-4821

Árbitros

ENERGÍAS ALTERNATIVAS

L.G. González, E. Figueres, G. Garcerá, O. Carranza. Comparación de Técnicas de Control

Vectorial aplicadas a GSIP en Sistemas de Conversión de Energía Eólica.

ELECTRICIDAD

Roberto Álvarez, Luis Rosales. Simulación de Descargas Atmosféricas y su efecto en Redes

Eléctricas de Potencia.

ELECTRÓNICA

Georges Jabbour, Jose Luis Paredes. Análisis de la Eficiencia del Algoritmo de

Reconstrucción de Señales basado en la Mediana Ponderada a través de la Regresión de Cox.

FÍSICA

Kurt Gerhardt Lange, Ronald Fries. ¿La Gravitación Terrestre, Un Misterio?

REDES NEURONALES

Alejandro Zambrano, Víctor Collazo, Numan Troncone, Jesús Rodríguez. NIS: Una

Herramienta Computacional para la Identificación de Sistemas Dinámicos en Lazo Cerrado

empleando Redes Neuronales Artificiales.

SIMULACIÓN

Sergio Velásquez, Ronny Velásquez. Modelado con Variables Aleatorias en Simulink utilizando

Simulacion Montecarlo.

NOTA TÉCNICA

Keila Candotti, Dimas Mavares. Entorno de Simulación para Sistemas de Comunicaciones

Inalámbricos de Alta Capacidad usando Matlab.

Normas de Publicación

153

161

173

181

1905

212

154

218

203

Page 4: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 153

Árbitros

Dr. Genni Aguilar-Hospital de Clínicas Caroní,

Puerto Ordaz

Dr. Alberto Jesús Andrade-LUZ

Dra. Minerva Arzola-UNEXPO Puerto Ordaz

Dr. Orlando Ayala-UDO, Puerto la Cruz

Dr. Máximo Benavides-UNEXPO Puerto Ordaz

Dra. Ingrid Berrueta-UNEXPO, Barquisimeto

Dr. Ali Bahsar-ULA

Dra. María Carolina Blanco-UNEXPO Barquisimeto

MSc. José Borjas-UNEXPO Puerto Ordaz

MSc. Antonio Bravo-UNET

MSc. Edwuin Carrasquero- UCV

Dr. José Contreras-ULA

Dr. Roberto Corral-Universidad de La Habana

Dr. Julio Cruz- USB

Dr. Ángel Custodio-UNEXPO Puerto Ordaz

Dra. Mayra D’Armas- UNEXPO Puerto Ordaz

Dr. Ramón Depool- UNEXPO Barquisimeto

Dr. Héctor Fernández- UNEXPO Puerto Ordaz

Dr. Herman Fernández- UNEXPO Puerto Ordaz

Dr. José Folgueras- ICID, La Habana

MSc. Zulay Franco- UNEXPO Puerto Ordaz

Dr. Luis Galván- USB

Dr. Francisco García Sánchez- USB

Dr. Luis García- UNEXPO Puerto Ordaz

MSc. Charlo González- UNEXPO Puerto Ordaz

Ing. Dosinda González- USB

Dra. Gema González- IVIC

MSc. Jesús González- UNEXPO Puerto Ordaz

Dr. Leonardo González- UNEXPO Puerto Ordaz

Dr. Rafael Guevara- UNEXPO Puerto Ordaz

Lic. Huáscar Guilarte-UNEXPO, Puerto Ordaz

Dr. Víctor Guzmán- USB

Dr. Diego Jugo- ULA

Dr. Jesús López- UNEXPO Puerto Ordaz

Dra. Gertrudis Márquez- VENALUM

Dr. Jairo Márquez- ULA

Dra. Olga Márquez- ULA

Dr. Dimas Mavares- UNEXPO Barquisimeto

Dr. Franklin Mendoza- UNEXPO Puerto Ordaz

Dr. Agustín Mejías- Universidad de Carabobo

Dr. Fernando Mora- USB

MSc. Scandra Mora- UNEXPO Puerto Ordaz

Dr. Luis Moreno- Royal Institute of Technology, Suecia

Dr. Jorge Mostany- USB

MSc. Ángel Olivier- UNEXPO Puerto Ordaz

Dr. Adelmo Ortiz Conde- USB

Dr. Gianfranco Passariello- USB

Dr. Rafael Pérez Jiménez-Univ.de las Palmas, Gran

Canarias

Dr. Dester Perdomo- CUJAE, La Habana

Dra. Olga Prado- SIDOR

Dr. Eli Saúl Puchi- UCV

MSc. Richard Resplandor- UNEXPO Puerto Ordaz

Dra. Rosa Reyes- USB

Dr. Ernesto Rodríguez Denis- ISPJAE, La Habana

MSc. Gonzalo Rodríguez- EDELCA, Caracas

Ing. Luis Rojas Malavé- UNEXPO Barquisimeto

Dr. Rubén Rojas- ULA

Dr. Francisco Javier Rosas-ULA

Dr. Luis Rosales- UNEXPO Puerto Ordaz

Dr. Augusto Ruiz- USB

Dr. José Ramón Rus- Fundación Instituto de

Ingeniería, Caracas

MSc. Luz Esther Salazar- UNEXPO Puerto Ordaz

Dr. Eugenio César Sánchez-ISPJAE, La Habana

Dr. Miguel Sánchez Gómez-LUZ

Ing. José Sánchez Medina- UNEXPO Puerto Ordaz

Dr. José Sarabia- UNEXPO Barquisimeto

Dr. Benjamín Scharifker- USB

Dr. José Manuel Sierra-Universidad de Oviedo, España

Dra. Mariana Staia- UCV

Dr. Nando Troyani- UDO Puerto La Cruz

Dra. Carmen Luisa Vásquez- UNEXPO Barquisimeto

Dr. Vijande-Universidad de Oviedo, España

Dra. Sara Wong- USB

Page 5: Volumen 16, Numero 64

NIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 154

COMPARACIÓN DE TÉCNICAS DE CONTROL VECTORIAL

APLICADAS A GSIP EN SISTEMAS DE CONVERSIÓN DE

ENERGÍA EÓLICA

L.G. González1, E. Figueres

2, G. Garcerá

2, O. Carranza

3

(Recibido febrero 2012, Aceptado junio 2012) 1 Departamento de Electrónica y Comunicaciones, Universidad de los Andes, núcleo la Hechicera, 5101, Mérida-Venezuela.

2 Grupo de Sistemas Electrónicos Industriales, Universidad Politécnica de Valencia, Camino de vera s/n, 46022, Valencia-España. 3 Escuela Superior de Computo, Instituto Politécnico Nacional, Av. Juan de Dios Bátiz s/n, 07738, DF-México.

Resumen: Este artículo se presenta un estudio comparativo de las principales técnicas de control vectorial

aplicadas a Generadores Síncronos de Imanes Permanentes (GSIP) utilizados en Sistemas de Conversión de

Energía Eólica (SCEE), la comparación de las técnicas están basadas en el modelado del generador, cuantificando

en rendimiento presente en cada una de estas técnicas de manera analítica, adicionalmente las técnicas que

resultaron más eficientes son comparadas experimentalmente en un prototipo del SCEE con un Convertidor de

potencia Back-to-Back, controlado por un DSP modelo TMS320F2812 de Texas Instruments.

Palabras clave: Control Vectorial/ Generador Sincrónico de Imanes Permanentes/ Energías renovables/ Energía

eólica/ Convertidor back-to-back.

COMPARISON OF VECTOR CONTROL TECHNIQUES

APPLIED TO SYSTEMS GSIP WIND ENERGY CONVERSION

Abstract: In this work is presented a study and are compared the mains vectorial control techniques which are

applied in conversion systems of wind energy the techniques are compared using in the generator, additionally the

techniques more efficient are experimentally compared in a prototype of a convertion system of wind energy with a

power converter Back to Back, controlled by a DSP, Model Tm5320F2812 of Texas instruments.

Keywords: Vectorial Control/ Permanent Magnet Synchronous Generator/ Renewables/ Wind Power/ Converter

back-to-back.

I. INTRODUCCIÓN

El uso de las energías renovables se ha incrementado en la

última década no solo por el aumento de los combustibles

fósiles sino también por la reducción de las emisiones de

CO2 de los países industrializados. Particularmente los

Sistemas de Conversión de Energía Eólica (SCEE) son

considerados como los más efectivos y rentables de las

fuentes de energía alternativa [1]. En algunos países como

Alemania, USA y España la potencia generada a partir de

SCEE es comparable con la generación de energía a partir

de las fuentes convencionales.

En los SCEE de velocidad variable, el sistema de control

es uno de los elementos más importantes, debido a que

define el punto de operación en todo momento para

aprovechar al máximo la energía del viento. Además el

uso de Generadores Sincrónicos de Imanes Permanentes

(GSIP) en los SCEE es cada vez más frecuente, debido

que estos pueden ser diseñados con un elevado número de

polos, razón por la cual pueden utilizarse sin caja de

engranajes entre la turbina eólica-generador y aumentar la

eficiencia del sistema.

En el diseño de los SCEE de velocidad variable, es

necesario tomar en cuentas dos aspectos fundamentales

para el desempeño de los mismos, el primero de ellos es la

impredecible disponibilidad del viento, y la segunda, es la

dependencia que existe entre la aerodinámica de la

turbina, velocidad del generador y la cantidad de potencia

que puede ser extraída del viento. Existen varias

estrategias de control, que toman en cuentas estos

aspectos para tratar extraer en todo momento la máxima

potencia disponible del viento [2]-[5].

En el caso de las maquinas sincrónicas, las técnicas de

control vectorial permiten que estas sean utilizadas en una

amplia variedad de aplicaciones, debido a que permiten

un manejo de velocidad y par mecánico con elevada

precisión.

Las técnicas de control vectorial en máquinas sincrónicas

de imanes permanentes han sido estudiadas por [6]-[7]-[8]

Page 6: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 155

entre otros, y para el caso de esta investigación

específicamente se tratan por ser las más importantes: 1.-

Corriente reactiva igual a cero (id=0), 2.- Factor de

Potencia Unitario (UPF). 3.- Máximo par por unidad de

corriente. 4.- Flujo constante. En el caso de cada una de

estas técnicas se desarrolla utilizando el sistema de

referencia síncrono (SRF) y el modelo en estado

estacionario (dq) del GSIP, para poder determinar el

rendimiento en cada una de las técnicas estudiadas.

El esquema general de control del SCEE, se muestra en la

Figura 1, en el mismo se utiliza un GSIP acoplado

directamente a la turbina eólica y a su vez eléctricamente

a un convertidor trifásico back to-back. En relación a la

estrategia de control, la etapa rectificadora e inversora

utiliza un modulador PWM respectivamente, además se

utiliza un estimador de la posición angular y velocidad

mediante técnicas sensorless [9]-[10], que permite

alcanzar la sincronía entre el GSIP y las variables de

referencia del sistema de control.

Figura 1. Esquema general de control del SCEE

El artículo está compuesto por las siguientes secciones: El

modelo del GSIP en el sistema de referencia síncrono, es

presentado en la sección 2. En la sección 3, se desarrollan

las técnicas de control vectorial aplicadas al GSIP. En la

sección 4, se comparan de manera teórica las técnicas de

control vectorial estudiadas. En la sección 5 de presentan

y analizan los resultados experimentales, y finalmente se

presentan las conclusiones en la sección 6.

II. DESARROLLO

1. Modelo del Generador Sincrónico de Imanes

Permanentes (GSIP)

El circuito equivalente por fases del GSIP con una

distribución sinusoidal es modelado en el sistema de

referencia estacionario αβ [11], mostrada en la ecuación

(1). Donde rs es la resistencia por fase, y Ls es la

inductancia equivalente, esta inductancia incluye las

inductancias mutuas entre las fases y la de fugas,

es el voltaje en bornes, ( es la fuerza electromotriz

(EMF) estimada por los imanes permanentes, y

son las corrientes de línea. En las ecuaciones (2) y (3)

Muestra el modelo del GSIP en el sistema de referencia

síncrono (Park) dq, Figura 2.

(1)

(2)

(3)

Ldisd

rs

+

ωLqisq

vsd

+

-

Lqisq rs

+

-ωLdisd+ωΨm

vsq

+

-

Figura 2. Circuito equivalente del GSIP en el sistema de

referencia síncrono dq.

El flujo inducido en el estator en el sistema dq está

descrito por las ecuaciones (4) y (5):

(4)

Page 7: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 156

(5)

En las ecuaciones anteriores, es la velocidad angular

del voltaje y corrientes en el GSIP, también es el flujo

producido por los imanes permanentes. y son los

voltajes en bornes, y son las corrientes del generador

en el sistema de referencia síncrono dq, y son la

inductancia del estator en sistema de referencia síncrono

dq. El par electromagnético aplicado al rotor del GSIP es

mostrado en la ecuación (6). Si el GSIP es de rotor liso, se

cumple ( ), el par electromagnético es

simplificado como se muestra en la ecuación (7).

(6)

(7)

Donde P es el número de pares de polos. En las maquinas

sincrónicas, la velocidad de rotor presenta una relación

lineal con la velocidad angular de tensión y corriente de

línea del GSIP, mediante la ecuación (8).

(8)

2. Técnicas de control vectorial en GSIP

Las técnicas de control vectorial, permiten manipular el

factor de potencia de la máquina con precisión, mediante

la descomposición y control independiente de las

componente activa y reactiva de la corriente en el GSIP,

de manera que se pueda manejar indirectamente el par

ejercido por la máquina y controlar la velocidad de una

manera más eficiente. Para el control de maquinas

sincrónicas se han propuesto otras técnicas como el

control directo de par (DTC), que presenta el

inconveniente de generar mayor distorsión en las

corrientes de línea que en el caso del control vectorial [6].

En consecuencia se ha preferido el control vectorial para

esta aplicación.

Para realizar el análisis teórico de las técnicas de control

estudiadas en este articulo, es necesario definir el modelo

en estado estacionario del GSIP, que parte de las

ecuaciones (2) y (3), asumiendo las condiciones de rotor

liso (Ld=Lq=L), y suprimiendo los términos dependiente

del tiempo, obteniendo así las ecuaciones (9) y (10).

(9)

(10)

La comparación de estas técnicas estará definida por su

rendimiento, en función de la ecuación (11).

(11)

Donde es la potencia mecánica efectiva de entrada

(12), y es la potencia eléctrica de salida definida en

la ecuación (13).

(12)

(13)

2.1. Corriente reactiva igual a cero (id=0)

Esta técnica pretende mantener la corriente reactiva

identificada como id en el sistema de referencia síncrono

sea nula, bajo esta condición se cumple la ecuación (14), y

la corriente por fase del generador en el sistema de ejes

a,b,c está determinada por la ecuación (15).

(14)

(15)

El diagrama vectorial de las corrientes y tensiones de esta

técnica puede observarse en la Figura 3.

Figura 3. Diagrama vectorial en estado estacionario para la

técnica Id=0.

Esta técnica es utilizada comúnmente en generadores de

rotor liso, ya que cuando la diferencia de reluctancias es

significativa, el rendimiento de la máquina se reduce. La

potencia de entrada a la máquina está dada por la ecuación

(16).

(16)

Page 8: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 157

Y la potencia de salida está dada por la ecuación (17), y

su rendimiento es mostrado en la ecuación (18).

(17)

(18)

2.2. Factor de potencia unitario UPF

Esta técnica se fundamenta en mantener el factor de

potencia unitario en bornes de la máquina, es decir, la

corriente y tensión se encuentren en fase en el punto de

conexión. Dado que el generador no entrega potencia

reactiva, la relación entre la tensión en directo y en

cuadratura es igual a la relación entre la corriente en

directo y en cuadratura, como se observa en la ecuación

(19).

(19)

El diagrama vectorial de la técnica UPF es mostrado en la

Figura 4.

Figura 4. Diagrama vectorial en estado estacionario para la

técnica UPF.

A partir de las ecuaciones (9), (10) y (19), es posible

encontrar la corriente reactiva en función de la corriente

activa como se muestra en la ecuación (20).

(20)

La potencia de entrada a la máquina está dada por la

ecuación (21):

(21)

Y la potencia de salida está dada por la ecuación (22) y el

rendimiento está expresado mediante (23).

-

-

-

(22)

-

- (23)

2.3. Máximo par por unidad de corriente

Esta técnica permite maximizar el par por unidad de

corriente y minimizar las pérdidas por el efecto joule en

los conductores [12]. Con esta técnica se consigue la

máxima eficiencia del generador en función a la relación

entre la corriente directa y en cuadratura. Para relacionar

las corrientes de línea en el sistema de referencia

estacionario id e iq, en función al ángulo de desfase de la

corriente de línea en el sistema de referencia a,b,c y el

flujo magnético producto de los imanes permanentes, es

utilizado el conjunto de ecuaciones (24) y (25).

(24)

(25)

Donde es el valor pico de la corriente de línea en el

GSIP, y es el ángulo de desfase entre la corriente de

línea y el flujo magnético . Sustituyendo la ecuación

(25), en la ecuación de par mostrada en la ecuación (7), se

obtiene la ecuación (26).

(26)

De manera que el par electromagnético depende del

ángulo de desfase . El par máximo ocurre cuando la

derivada de la ecuación (26) en función de cumple con

la condición mostrada en la ecuación (27).

(27)

En el caso del generador de rotor liso el par máximo

ocurre cuando , de manera que (id=0), situación

que se cumple con la técnica de corriente reactiva igual a

cero.

Desde otra perspectiva mediante la cual se maximice el

rendimiento, puede ser vista mediante la sustitución de la

ecuación (24) y (25) en (13), se obtienen las ecuaciones

(28) y (29) que representan la potencia de entrada y salida

Page 9: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 158

en función del ángulo de la corriente en el sistema abc y

el eje d del sistema de referencia síncrono dq.

(28)

(29)

La ecuación (30), representa el rendimiento del generador

en función de las ecuaciones (28) y (29).

(30)

Donde:

(31)

Maximizando la ecuación (30), mediante su derivada

mostrada en la ecuación (31), se obtiene cuando α=90°, de

manera que la técnica de máximo par por unidad de

corriente, también puede llamarse la de máximo

rendimiento.

2.4. Técnica de flujo constante

En esta técnica se pretende mantener el flujo constante en

el generador, este flujo equivalente es producto de la suma

vectorial del flujo magnético de los imanes permanentes y

de las corrientes en el estator. Esta técnica limita el par

asociado a la máquina, teniendo que aumentar la

velocidad de operación para manejar la potencia nominal

[6]. La ecuación que permite mantener el flujo constante

está dada por la ecuación (32).

(32)

La ecuación (33), representa la corriente del eje d, en

función de iq, para la técnica de control vectorial flujo

constante.

(33)

El rendimiento de esta técnica está determinado por la

ecuación (34).

(34)

3. Comparación de las técnicas de control vectorial

Una vez analizadas las técnicas de control vectorial más

utilizadas en máquinas sincrónicas se puede llevar a cabo

un estudio comparativo que parte del prototipo disponible

en el laboratorio mostrado en la Figura 6. En concreto, las

técnicas han sido evaluadas para una potencia de entrada

de 2Kw y un rango de velocidades de rotación entre 100 y

650rpm. En la Figura 5a, se muestra el rendimiento

obtenido para velocidades de rotación inferiores a

318rpm, en esta región la potencia de salida es limitada

por la corriente de línea, la cual puede observarse en la

Figura 5b. En relación al rendimiento, se observa que la

técnica Id=0 presenta el mejor desempeño, seguido de la

técnica de flujo constante y por último la de factor de

potencia unitario, con una diferencia de 0.4% respecto a la

técnica Id=0. En relación a la corriente de operación en la

región limitada por la potencia, región que opera en

velocidades mayores a 318rpm, la corriente de línea en el

GSIP es mayor con la técnica UPF, y menor con la

técnica Id=0.

(a) (b)

Figura 5. Comparación de desempeño de técnicas de control vectorial.

pout=3

2 mis sin α -rs

3

2is cos α

2

+ 3

2is sin α

2

Page 10: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 159

4. Resultados Experimentales

Con el fin de comprobar de manera experimental en el

prototipo mostrado en la Figura 6, con los valores

mostrados en la Tabla I, son evaluadas las técnicas Id=0 y

UPF, con una potencia de entrada al convertidor Back-to-

Back de 1300w, y una velocidad de rotor de 330rpm.

Tabla I. Parámetros de prototipo experimental

Figura 6. Prototipo Sistema de Conversión de Energía Eólica.

En la Figura 7, se muestran las corrientes del rectificador

controlado e inversor para la fase a, para ambas técnicas.

Obsérvese que en ambas figuras la corriente del inversor

tiene un valor rms de 1.87A, esta corriente representa que

en ambos casos la potencia entregada a la red es igual si

se asume que la tensión de línea permanece constante. En

relación a la corriente de línea en la etapa rectificadora, se

observa que cuando es aplicada la técnica id=0, esta es

menor. En relación al sistema de control de la etapa

inversora, se ha realizado como en ¡Error! No se encuentra el origen de la referencia.], donde se

aplica la técnica id=0, pero no es objetivo de este artículo.

(a) (b)

Figura 7. Corriente de la fase a, rectificador e inversor; (a) Id=0, (b) UPF

Numero de Polos 12 Velocidad máxima GSIP 650rpm

Resistencia estator (rs) 5 Ω DC link Voltaje Vdc_ref 800V

Inductancia de línea GSIP (L) 25mH Coeficiente de inercia 0.5kg·m2

Coeficiente de flujo magnético ( ) 0.97v∙s/rad Tiempo de muestreo (Ts) 10µs

Frecuencia de conmutación

5 kHz

Rectificador Inversor

Rectificador Inversor

Page 11: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160 160

Si se determinan las perdidas en el GSIP, en estado

estacionario, mediante la corriente de línea de la máquina

en ambos casos, para la técnica Id=0 y UPF, se obtienen

las pérdidas en el cobre, mostradas en (35).

(35)

De las pérdidas calculadas anteriormente, es posible

demostrar que las pérdidas en la máquina utilizando la

técnica UPF aumentan un 4% en comparación a la técnica

Id=0, siendo el rendimiento del GSIP η=87.39%, mientras

que para la técnica UPF es η=86.95%. La diferencia entre

las dos técnicas es de ∆η=0.44%, diferencia que puede

aumentar a medida que el punto de operación se acerque

al de potencia nominal.

La diferencia de fase entre las corrientes de línea y la

fuerza electromotriz estimada no puede apreciarse de

manera experimental debido a la velocidad de respuesta

del módulo de intercambio de datos en tiempo real del

DSP.

III. CONCLUSIONES

1. En conclusión a las técnicas de control vectorial

estudiadas, es importante destacar que la técnica Id=0,

presenta un mejor rendimiento, dado que se reducen

las pérdidas en la GSIP, la cuales se reflejan en el

aumento de la temperatura de operación y por lo tanto

disminución de la vida útil del generador.

2. La eficiencia de las técnicas de control vectorial

depende en gran medida de la estimación de la

posición del rotor, dado que la diferencia entre las

corrientes de referencia para cada una de las técnicas

es similar.

3. La diferencia entre las técnicas de control vectorial es

apreciable a medida que aumenta la potencia de la

máquina, dado que aumenta las corrientes de línea de

éstas, variable que influye directamente sobre las

pérdidas eléctricas.

IV. REFERENCIAS

1. Yang H, Wei Z, Chengzhi L, Optimal design and

techno-economic analysis of a hybrid solar–wind

power generation system, Applied Energy

2009;86(2):163-169.

2. H. Camblong, I. Martinez de Alegria, M. Rodriguez,

G. Abad, Experimental evaluation of wind turbines

maximum power point tracking controllers, Energy

Conversion & Management 2006;47(18):2846-58.

3. Y.Y. Hong, S.D. Lu, C.S. Chiou, MPPT for PM wind

generator using gradient approximation, Energy

Conversion and Management 2009; 50(1):82–89.

4. E. Koutroulis, K. Kalaitzakis, Desing of a Maximum

Power Tracking System for Wind-Energy-Conversion

Applications, IEEE Transactions on Industrial

Electronics 2006;53(2):486-94.

5. B.M. Nagai, K. Ameku, J.N. Roy, Performance of a

3kW wind turbine generator with variable pitch

control system, Applied Energy 2009;86(9):1774-

1782.

6. Kazmierkowski MP, Blaabjerg F, Krishnan R. Control

in Power Electronics Selected Problems. San Diego,

California: Elsevier; 2002.

7. Zhang B., Pong M.H., Maximum Torque Control and

Vector Control of Permanent Magnet Synchronous

Motor, In International Conference on Power

electronics and Drive Systems, Singapure, May 1997.

8. Christos Mademlis, Nikos Margaris, Loss

Minimization in Vector-Controlled Interior

Permanent-Magnet Synchronous Motor Drives, IEEE

Transactions on Industrial Electronics

2002;49(6):1344-1347.

9. Brahmi J, Krichen L, Ouali A, A comparative study

between three sensorless control strategies for PMSG

in wind energy conversion system, Applied Energy

2009;86(9):1565-73.

10. L.G. González, E. Figueres, G. Garcerá, O. Carranza,

”Synchronization techniques comparison for

sensorless control applied to PMSG”, International

Conference on Renewable Energies and Power

Quality (ICREPQ´09), ISBN 978-980-84-612-8014-

8,(15-17 April, 2009)

11. Yin M, Li G, Zhou M, Zhao C. Modeling of the wind

turbine with a permanent magnet synchronous

generator for integration. In: IEEE power engineering

society general meeting, Tampa, Florida; June 24–28,

2007.

12. Chinchilla M, Arnaltes S, Burgos JC, Control of

permanent-magnet generators applied to variable-

speed wind-energy systems connected to the grid,

IEEE Trans Energy Conversion 2006;21(1):130-135.

13. Figueres E, Garcerá G, Sandia J, González-Espín F,

Calvo Rubio J, Sensitivity Study of the Dynamics of

Three-Phase Photovoltaic Inverters With an LCL Grid

Filter, IEEE Trans Ins. Electron 2009;56(3):706-717.

AGRADECIMIENTOS

El primer autor agradece al Grupo de Sistemas Electrónicos Industriales (GSEI) de la Universidad Politécnica de Valencia

(UPV) por el financiamiento recibido y uso de su infraestructura para realizar esta investigación.

Page 12: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 161

SIMULACIÓN DE DESCARGAS ATMOSFÉRICAS Y SU EFECTO

EN REDES ELÉCTRICAS DE POTENCIA

Alvarez, Roberto 1 Rosales, Luis

2

(Recibido mayo 2010, Aceptado febrero 2012) 1 Ingeniero Electricista, egresado de la UNEXPO Vicerrectorado Puerto Ordaz, Venezuela

2 Sección de Física, UNEXPO Vicerrectorado Puerto Ordaz, Venezuela

[email protected]

Resumen: En este trabajo se halla una solución numérica a la Ecuación de Heaviside para simular las

Descargas Parciales de origen Atmosférico, con parámetros ambientales presentes al norte del Estado

Bolívar, Venezuela, que inciden en los Sistemas Eléctricos de Potencia.

Palabras claves: Simulación/ Ecuación del telegrafista/ Descargas atmosféricas/ Redes eléctrica

SIMULATION OF LIGHTING STROKES AND THEIR EFECT ON

A POWER ELECTRICAL GRID Abstract: This paper finds a numerical solution to the Heaviside equation to simulate partial discharges

of origin Atmospheric, with environmental parameters present in the north of Bolivar State, affecting

the Electric Power Systems.

Keywords: Simulation/ Telegraphis Equation/ Atmospheric Discharges/ Power Electrical Grid.

I. INTRODUCCIÓN

Diariamente, a nivel mundial se producen alrededor de 5

millones de descargas eléctricas atmosféricas (DEAT). El

impacto de estos eventos implican desde pérdidas de

activos y bienes materiales, hasta pérdidas de vidas

humanas por accidentes relacionados directa o

indirectamente con dichas descargas. La naturaleza

aleatoria de este fenómeno hace difícil su entendimiento,

y después de muchos años de desarrollos científicos aún

son desconocidos muchos de sus principales

características.

Para el estudio científico es necesaria la medición,

representación y simulación de las variables, es por ello

que para la comprensión de las descargas, es necesaria la

caracterización del mismo, haciendo proyecciones que

posteriormente sirvan para el análisis y desarrollo de

mejoras al servicio eléctrico.

Con las nuevas tecnologías y el continuo desarrollo de

estas, en la actualidad se cuenta con técnicas confiables

que miden las variables asociadas al fenómeno, que por su

complejidad es necesario el soporte de computadores cada

vez más rápidos y de métodos numéricos que permitan

representarlo. Con los parámetros que describen la

descarga atmosférica, obtener un modelo de sobretensión

para este fenómeno y determinar de manera más exacta

las perturbaciones que está genera en todos los elementos

pertenecientes a la red eléctrica nacional en Venezuela, es

el principal objetivo de esta investigación.

En el año 2004, Miramare realizó la revisión de la

coordinación de aislamiento del patio de distribución de

Caruachi a 400 kV ante el fenómeno de DEAT, utilizando

como herramienta el programa ATPDraw. Fernández,

realizó el Estudio para disminuir la tasa de salida anual

por DEAT de la línea Palital-Furrial a 400 KV, el cual

mostró la forma de disminuir la tasa de salida por DEAT

de dicha línea de transmisión haciendo uso de un modelo

hecho con el software T-flash. Para el año 2006,

Fernández, realizó el estudio del comportamiento de la

línea de transmisión Las Claritas-Santa Elena a 230 KV

cuando es sometida a sobretensiones provocadas por

DEAT. Luego en el 2007, Pedroza, realizó un estudio

del comportamiento en estado transitorio de las

perturbaciones producidas en los sistemas de control de la

S/E Tocoma Construcción 230/34,5/13,8 KV causados

por eventos asociados a DEAT.

En el año 2008, Rodríguez, realizó el Estudio de la

Variación Espacial-Temporal de los Parámetros de la

Descargas Atmosféricas en Venezuela y tuvo como

objetivo estudiar el comportamiento y parámetros de este

fenómeno.

Page 13: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 162

Las condiciones de aislamiento en subestaciones de

transmisión requieren la consideración de magnitud,

frecuencia de ocurrencia y tipo de sobretensiones que

puedan presentarse durante su operación.

Una sobretensión transitoria importante es la producida

por las DEAT que inciden en la subestación; bien sea que

lleguen a través de la línea de transmisión o que se deban

a descargas directas sobre los equipos de la subestación,

producidas por fallas del apantallamiento. Este último

tipo de descargas conlleva a unas condiciones difíciles

para los aislamientos.

Cuando una DEAT alcanza un sistema de potencia, una

sobretensión elevada aparece a través de los equipos en la

subestación. Si la sobretensión excede la rigidez del

aislamiento, ésta se romperá y aparecerá un arco eléctrico

que será mantenido por la tensión a la frecuencia

industrial del sistema. Se hace necesaria entonces la

operación de interruptores para eliminar el cortocircuito.

Si la descarga se produce a través del aire, en una cadena

de aisladores o de equipos con aislamiento

autorregenerativo, generalmente no se producen daños. Si

por otra parte la descarga se produce en aislamientos no

regenerativos como motores o transformadores entonces

el daño es permanente.

En la práctica, la función del apantallamiento consiste en

proteger a los equipos de la subestación contra descargas

directas. El conocimiento de la formación de las DEAT es

de gran utilidad para entender como los diversos

elementos (cables de guarda, mástiles, etc.) ofrecen

protección.

En este trabajo se estudian las descargas parciales de

origen atmosférico basado en la solución numérica de la

ecuación Heaviside, la cual es una ecuación diferencial en

derivadas parciales de segundo orden del tipo hiperbólica,

y determinar su influencia en redes eléctricas de potencia

tomando en cuenta los parámetros de información

geográfica y ambiental de la zona donde ocurran estos

eventos.

II. DESARROLLO

El análisis estadístico que se muestra a continuación se

hizo con la información recibida por parte del

Departamento de Gestión Información Geográfica y

Ambiental, adscrito a la Gerencia de Gestión Ambiental

de Corpoelec Región Sur, en la que se muestra la fecha,

ubicación y magnitud de las DEAT registradas en la zona

seleccionada durante los años 2000 al 2005. Fueron

seleccionados estos años pues fue en ese período donde se

registró la mayor actividad de tormentas y el mejor

desempeño del SDDA. En cuando a la zona de estudio,

fue seleccionada tomando en cuenta la importancia de la

línea de transmisión Guri-Guayana B para el suministro

eléctrico del parque industrial de la región.

1. Información estadística de la ocurrencia de DEAT

por cada año

Una vez procesada toda la información recibida por los

operadores del SDDA, se procedió a la obtención de

variables estadísticas básicas cuyos resultados se reflejan

en la Tabla I.

Tabla I. Análisis estadístico a los datos recogidos del

SDDA de Corpoelec agrupados por año.

Año 2000 2001 2002 2003 2004 2005

Máximo (KA) -48 -4 58 68 103 18

Mínimo (KA) -185 -60 -138 -194 -184 -558

Número de

DEAT 26 31 1759 3776 2424 810

Corriente

promedio (KA) 84,13 17,58 24,04 23 25,75 33,91

Desviación estándar (δ)

36,124 17,58 18,62 17,90 21,207 59,95

Varianza (δ2) 1248,2 157,21 346,45 320,512 449,589 3590,43

Para el año 2000, el periodo de tormentas se inició en el

mes de junio y se extendió hasta el mes de noviembre,

registrándose un total de 26 DEAT. Si bien en cierto esta

año no fue muy activo en lo a DEAT se refiere, en él se

registró el promedio más alto en cuanto a la intensidad de

las DEAT. Durante el año 2001 solamente se registraron

31 DEAT, todas ellas de baja intensidad, en el mes de

abril.

En el año 2002, con excepción de los meses de febrero y

diciembre, se registraron tormentas durante todo el año.

Esto queda evidenciado con un número total de DEAT de

1759. La actividad fue bastante uniforme, no se

encontraron valores de corriente sobresalientes en la

muestra. Durante el año 2003 fueron registradas entre los

meses de mayo y diciembre un total de 3776 DEAT,

siendo este el año con mayor actividad atmosférica. En

este año particularmente fue muy común registrar el

fenómeno de descargas múltiples idénticas.

En el año 2004 se registraron la cantidad de 2424 DEAT

entre los meses de mayo y diciembre, teniendo un

comportamiento parecido al año anterior. Durante este

año se registra una intensa actividad tormentosa con

DEAT que superan frecuentemente los 100 kA.

Ya en el año 2005, con solo 810 DEAT entre los meses de

abril y diciembre, se registraron con frecuencia DEAT

con magnitudes superiores a los 300 kA, incluso para los

meses de junio y junio se registraron valores superiores a

los 500 kA, siendo estos valores completamente atípicos

para esta región.

La variación de estos valores deja en evidencia la

“Hipótesis de la Variación Espacio-Tiempo de los

Parámetros de una DEAT” y la cambiante actividad

atmosférica presente en las zonas inter-tropicales cercana

a la Zona de Convección Tropical. Esto quiere decir que

los parámetros característicos de las DEAT cambian

anualmente y responden a variaciones en sistemas

Page 14: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 163

mesoclimáticos, es decir, a cambios que no se limitan

solamente a nuestra región geográfica en estudio.

Es por ello que se recomienda hacer un estudio de estas

variables antes de proceder a la especificación de sistemas

de protección contra DEAT y demás elementos en un

sistema eléctrico de potencia.

2. Localización espacial de las DEAT

Con la ayuda de la información de ubicación (latitud y

longitud) de las DEAT dada por SDDA en nuestra región

de estudio, se procedió a su localización mediante un

programa de gestión de imágenes satelitales, eso con el fin

de conocer cual zona presenta la mayor incidencia de

DEAT, así como conocer el lugar donde se han producido

singularidades como corriente de retorno positivas y

corrientes cuya intensidad puede ser calificada como

excepcional.

Durante los 6 años de los que se compone la muestra de

nuestro estudio las zonas aledañas a las Centrales

Francisco de Miranda (Caruachi) y la José Felix Rivas

(Tocoma) son las que presentan la mayor concentración

de DEAT.

También puede apreciarse que durante el mes de Julio del

año 2005, mes donde se registraron las DEAT de mayor

intensidad (≥ 400 kA), gran número de éstas ocurrieron en

las adyacencias del Distribuidor Puente Orinoquia, en las

afueras de la Zona Industrial De Ciudad Guayana,

pudiéndose plantear como posible hipótesis de este

fenómeno polución debida a elementos metálicos

presentes en la zona que pueden disminuir

considerablemente la resistencia eléctrica del canal de

descarga.

3. Ecuación de Heaviside (Telegrafista)

Con este modelo se representa el canal de descarga de una

DEAT como un circuito eléctrico de una línea disipativa,

este sistema continuo es representado por las ecuaciones

Ec.1 y Ec.2.

(1)

(2)

para t>0, x ϵ (0,λ), siendo λ la altura del canal de

descarga.

4. Métodos numéricos y esquema de discretización

El método de diferencias finitas es una clásica

aproximación para encontrar la solución numérica de las

ecuaciones que gobiernan el modelo matemático de un

sistema continuo. Es valioso familiarizarse con ésta

aproximación porque tal conocimiento reforzará la

comprensión de los procedimientos de elementos finitos.

Como resultado de la aproximación, la ecuación

diferencial parcial que describe el problema es

reemplazada por un número finito de ecuaciones

algebraicas, escritas en términos de los valores de la

variable dependiente en puntos seleccionados. Las

ecuaciones son lineales si las ecuaciones diferenciales

parciales son también lineales.

Diferencias finitas

Del teorema de Taylor para funciones de dos variables y

truncamiento a segundo orden, se deduce que:

Donde se evalúa en el punto (xi,tj) la derivada de primer

orden y en (xi+∆x, tj) la de segundo orden, siendo el error

0.(Δx) igual en ambos casos, queda:

(3)

(4)

La primera derivada y segunda derivada son evaluadas en

los puntos (i,j) y (i+1,j). Sumando las Ec.3 y Ec.4 queda:

(5)

Despejando el término derivativo a segundo orden,

finalmente queda:

(6)

Podemos entonces aproximar la segunda derivada como

se ve en la Ec.6, donde el error de aproximación sería

0(∆x2).

Para determinar la aproximación de primer orden

partimos igualmente de las Ec.3 y Ec.4 pero con un

truncamiento a primer orden, quedando:

(7)

(8)

Si restamos Ec.7 y Ec.8, nos queda:

(9)

Despejando el término derivativo a primer orden,

finalmente queda:

(10)

(7)

(8)

(10)

(9)

(3

)

(4

)

(5

)

(6

)

x)0(2

x)0(2

2

22

,,1

2

22

,,1

x

Ix

x

IxII

x

Ix

x

IxII

n

ji

n

ji

n

ji

n

ji

x)0(..22

22

,,1,1

x

IxIII n

ji

n

ji

n

ji

2

,1,,1

2

2 2

x

III

x

In

ji

n

ji

n

ji

x)0(

x)0(

,,1

,,1

x

IxII

x

IxII

n

ji

n

ji

n

ji

n

ji

x

IxII n

ji

n

ji

..2,1,1

x

II

x

I jiji txtx

n

.2

),1(),1(

Page 15: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 164

Discretización de un espacio-tiempo continúo

El desarrollo anteriormente expuesto tiene como propósito

resolver sistemas diferenciales continuos. En sistemas

discretos se resuelven mediante aproximaciones finitas,

esto se logra mediante la creación de un número finitos de

nodos o puntos que dividen cada eje en pasos o

diferenciales.

Figura 1. Espacio mallado donde se aplica la discretización.

5. Discretización de la Ecuación de Heaviside

La idea básica de las diferencias finitas es sustituir al

espacio-tiempo continuo por un conjunto discreto de

puntos. Las distancias entre los puntos de esta red no tiene

porqué ser uniformes.

En este paso se sustituyen las Ec.6 y Ec.10 en Ec.3 y Ec.4,

dando como resultado una expresión algebraica

representada en la ecuación.

(11)

Posteriormente, para obtener un “término futuro” o

garantizar el avance en el tiempo del modelo propuesto, se

procede al despeje del término Ii,j+1, el cual se visualiza en

Ec.12:

jiI

CLLGCRt

GRt

jiI

jiI

jiI

CLLGCRtx

t

jiI

jiI

CLLGCRt

CL

jiI

CLLGCRt

LGCRt

jiI

,..2)..(

..2.2

),1,

.2,1

()..2)..((2

2.2

),

.21,

(..2)...(

..2

1,..2)...(

)...(

1,

(12)

6. Resultados

Para validar e ilustrar este método se represente la nube y

la tierra como un capacitor cilíndrico de placas paralelas

de 1 Km de radio y el canal de descarga de unos 20 cm de

diámetro. En el problema se toma una altura típica de

1000 m la cual se divide en 250 elementos con un paso de

tiempo Δt de 0.5 µs.

Los valores usados en nuestra simulación como

parámetros eléctricos para el canal de descarga se

muestran en la Tabla 2.

Tabla 2. Parámetros eléctricos del canal de descarga de una

DEAT

Altura (X) 1000 m

Inductancia (L) 2.18 mH

Capacitancia (C) 6.95 pF

Conductancia (G) 5 µS

Resistencia (R) 1000 a 5000 Ω

Una vez discretizada la ecuación de Heaviside (Ec.11) se

procedió a implementarla numéricamente en MATLAB

usando los parámetros mostrados en la Tabla 2,

adicionalmente a ello se utilizó la variación de R y G para

mostrar el comportamiento disipativo del canal de

descarga. En este mismo orden de ideas, para demostrar la

estabilidad del código de usaron diferentes valores de dx,

esto con el fin de corroborar la condición CFL.

En la Figura 2 puede apreciarse una comparación entre las

ondas obtenidas numéricamente (tanto para G=0 y G≠0) y

la onda generada a partir de una función analítica. Puede

notarse la notoria diferente para la gráfica con G=0, esto

se debe a que no es están tomando en cuenta las

características disipativas del canal de descarga,

provocando así una atenuación menor.

Figura 2. Comparación entre las soluciones numéricas (G=0

y G≠0) y la analítica (Heidler)

En la Figura 3 se aprecia el detalle de las crestas de las

ondas representadas en la Figura 2, esto con el fin de

visualizar mejor el momento en que ocurren los picos de

corriente y también con el fin de apreciar el “frente de

onda” de las mismas.

(11)

0,

..2

1,,.2

1,

.2

1,1,)..(

2

,1,.2

,1

jiIGR

t

jiI

jiI

jiI

LC

t

jiI

jiI

LGCRx

jiI

jiI

jiI

Page 16: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 165

Figura 3. Detalle de los valores picos de las soluciones

numéricas (G=0 y G≠0) y la analítica (Heidler)

Una vez comparada la solución númerica implementada

con la solución analítica conocida procedimos a simular

distintos modelos.

La Figura 4 nuestra la corriente calculada a partir de la la

Ec.11 para distintos valores de G. En todos los casos el

tiempo de arranque y los diferenciales fueron los mismos,

lo que las diferencia es la atenuación y la estabilidad del

código.

Figura 4. Solución numérica con diferentes valores de G.

Las Figursa 5 y 6 nuestran una serie de gráficas para

diferentes valores de R tanto para G=0 y G≠0, esto con el

fín de simular las diferentes resistividades presentes en la

atmósfera al tener zonas con mayor humedad y polución

que otras.

Figura 5. Solución numérica con diferentes valores de R

para G=0

Figura 6. Solución numérica con diferentes valores de R

para G≠0

6.1. Pruebas y Validación

Como prueba y validación de los modelos propuestos en

las Figura 7 y Figura 8 se muestran una serie de gráficas

para G=0 y G≠0 para diferentes números de nodos, esto

con el fin de hacer variar el tamaño de los diferenciales

espaciales y poner a prueba los criterios de estabilidad

anteriormente expuestos.

Nótese que para un número de nodos N≥1000 el código

comienza a romper la condicion CFL y se aprecian

oscilaciones, lo que represente un comportamiento atípico

para un fenómeno de estas características.

Para un N≤200 se viola la relación de los Δt y Δx, lo que

quiere decir que el tamaño de los diferenciales es mayor a

la unidad característica de tiempo del sistema con lo cual

la discretización no representaría una aproximación

adecuada a la solución del sistema, Nótese en la Figura 8

que la onda para un N=5 y N=105 no posee una

atenuación adecuada.

Page 17: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 166

Figura 7. Solución numérica para diferentes valores de dx

para G=0

Figura 8. Solución numérica para diferentes valores de dx

para G≠0

Simulación del impacto de una DEAT en un Sistema

Eléctrico de Potencia

Ya analizado numéricamente el comportamiento del pulso

de corriente característico de una DEAT, se procedió a la

implementación un modelo de fuente de corriente

dependiente, con el cual se implementó un elemento

activo perturbativo, a fin de representar el impacto de una

DEAT en la simulación de un sistema eléctrico conocido.

Descripción del modelo de una línea de transmisión

A. Modelo de parámetros concentrados (modelo π)

Los circuitos π son una aproximación discreta a los

parámetros distribuidos constantes.Corresponde a los

modelos que se utilizaron como primera solución al

estudio de transitoriosen líneas, tanto mediante programas

como el EMTP (Electro Magnetic Transient Program),

como en los analizadores de transitorios.

Los circuitos π no son generalmente el mejor modelo para

estudios de transitorios, puesto que la solución por

parámetros distribuidos es más rápida y usualmente más

precisa.

Figura 9. Modelo circuital de una línea de transmisión π

B. Modelo de parámetros distribuidos

El modelo de parámetros distribuidos constantes calcula

la propagación de diferentes componentes de modo,

siendo estos modos desacoplados. En cada extremo de la

línea se convierten los valores de modo a valores de fase

mediante la matriz de transformación.

Geometría de la línea de transmisión implementada

Con el fin de obtener los resultados más cercanos a

valores reales, el modelo eléctrico a implementar está

basado en datos de líneas de transmisión en operación, en

tal sentido se seleccionó una sistema de 230 kV

apantallado con doble cable de guarda. En sistemas de

transmisión de mayor potencial, debido a sus

características y especificaciones técnicas, las

perturbaciones causadas por el impacto de una DEAT no

son notorias, esto se debe a la robustez de su coordinación

de aislamientos, al igual que estadísticamente son los

menos impactados.

En la Figura 10 se muestra la geometría de la línea de

transmisión Guri-Guayana A, estos datos fueron usados

para alimentar en el simulador de transitorios

electromagnéticos en sistema eléctricos de potencia

PSCAD con el fin de determinar la impedancia

característica de este sistema de transmisión.

Representación de una línea de transmisión en PSCAD

El primer paso para la creación de un modelo unifilar en

la simulación de sistemas eléctricos de potencia es la

implementación de las líneas de transmisión que

comunican los nodos o barras del sistema. En el caso

particular de PSCAD, se logra con la función “T-LINE”,

con el cual se inserta genéricamente una línea de

transmisión en el diagrama unifilar a modelar, mediante

su interface gráfica al usuario (GUI). En la Figura 11 se

muestra la presentación del elemento “T-LINE” bajo su

configuración de terminales remotos, esta configuración

gráfica es especialmente útil cuando se desean realizar

mediciones individuales en cada fase del sistema de

potencia a simular.

Page 18: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 167

Figura 10. Geometría de una línea de transmisión de 230 kV

Figura 11. Representación gráfica del elemento “T-LINE”

entre dos barras en PSCAD

Una vez realizada la interconexión de los nodos mediante

la función “T-LINE”, se procedió a llenar los parámetros

característicos de la misma. Bajo este orden de ideas, en

la Figura 12 se muestra la pantalla de configuración

longitudinal de la línea de transmisión a implementar.

Figura 12. Configuración del elemento “T-LINE” en PSCAD

Para completar el proceso de configuración de una línea

de transmisión en PSCAD, se inserta la información

correspondiente a la sección transversal de la misma,

también conocida como la geometría de la línea de

transmisión. En esta parte también se especifican las

opciones de dependencia de la frecuencia del modelo a

implementar, esto es particularmente útil para los estudio

de transitorios electromagnéticos.

Como puede observarse en la Figura 13, otro parámetro

importante es el tipo de conductor del que se compone la

línea de transmisión a simular, la resistividad del suelo y

la forma en que se producen los incrementos de la

frecuencia. Cabe destacar que en los simuladores de redes

eléctricas de potencia la información referente a la

geometría es traducida a los valores de R, L y C

característicos de esta, el único parámetro relevante que se

usa con unidades de longitud es longitud de la misma

línea.

Figura 13. Representación de la configuración del corte

transversal (geometría) del elemento “T-LINE”

C. Implementación en PSCAD de una fuente de

corriente con los parámetros de una DEAT

Con la finalidad de crear un elemento perturbativo, se

procedió a modelar una fuente de corriente dependiente, a

fin de poder representar el impacto directo de una DEAT

usando la forma de onda y valores obtenidos

numéricamente. En PSCAD, esto se logra mediante la

herramienta de diseño de componentes, ya que esté

estudio en particular no está precargado en su librería.

El parámetro de control de la fuente de corriente a

implementar es el componente llamando “Pulse Shaper” o

definidor de pulso. Este componente usa como

parámetros de entrada los tiempos de frente y de cola de

una DEAT, así como su magnitud. Dentro del módulo se

encuentra una rutina de enlace con la solución numérica

hecha en MATLAB, esto con el fin de adaptar la forma de

Page 19: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 168

onda calculada con los parámetros de entrada colocados.

A la salida del módulo “Pulse Shaper” se encuentra un

elemento de registro analógico de formas de onda y un

cuadro multiplicador

Figura 14. Fuente de corriente dependiente junto a su

representación gráfica

Figura 15. Forma de onda del pulso de corriente inyectado

en el sistema representado en la Figura 14.

D. Representación del modelo de un sistema eléctrico

de potencia en PSCAD al ser impactado por una

DEAT

Se propuso un estudio por casos, esto con el fin de

extender el análisis en, por lo menos, dos tipos de

condiciones presentes en la industria eléctrica: el caso 1

corresponde al impacto directo en uno de los cables de

fase de una línea de transmisión, para el caso 2 se estudió

el impacto directo en los cables de guarda de una línea de

transmisión. Debido a la corta duración del impacto de

una DEAT, en ambos casos se consideran que los

sistemas se encuentran sin carga y a tensión cero. La

ventaja de usar estas condiciones es el hecho de aislar las

variables de estudio de otros efectos dinámicos presentes

en los sistemas de potencia eléctrica. Los resultados a

tensión nominal pueden aproximarse por superposición ya

que las sobretensiones obtenidas tienen sus componentes

en DC.

Caso 1: Impacto de una DEAT en uno de los cables de

fase de una línea de transmisión.

El modelo representado en la Figura.16 consta de dos

barras, a las cuales se conecta la línea de transmisión a

analizar, características ya descritas. Mediante el uso de

una fuente de corriente controlada se hizo incidir una

DEAT en uno de sus extremos y en el otro extremo se

encuentran los elementos de medición analógica en cada

fase. A los terminales de cada barra se conectaron

resistencias, para hacer que el pulso de corriente circule

por la línea de transmisión y no por el aterramiento.

El pulso de corriente inicia en un t=0 y tiene una duración

aproximada de 300 µs.

Figura 16. Diagrama unifilar donde se simula el impacto de

una DEAT en los cables de fase de una línea de transmisión

de 230 kV.

Caso 2: Impacto de una DEAT en los cables de guarda de

una línea de transmisión.

El modelo representado en la Figura 17 es un segmento

del sistema de transmisión anteriormente descrito donde

sólo de muestran vanos, cada uno de ellos representado

como una línea de transmisión de longitudes distintas pero

de igual sección transversal, el resto del sistema se

representa mediante terminales equivalentes de línea.

También las figuras de 4 torres de transmisión, realizadas

igualmente con la ayuda del módulo de diseño de

componentes. Dentro de ellas se colocan los parámetros

eléctricos referentes a la impedancia de la cadena de

aisladores y la resistencia de conductor de puesta a tierra

de los cables de guarda. Esta representación gráfica de las

torres antes mencionadas no guarda relación alguna con la

geometría de la sección transversal de la línea de

transmisión implementada (Ver Figura 13).

Los elementos de medición se colocaron en tres

posiciones diferentes, siendo el criterio de ubicación de

Page 20: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 169

éstos la distancia desde el punto de impacto. Bajo este

orden de ideas se tienen las siguientes posiciones para la

medición de las sobretensiones: medición en la torre de

impacto, medición al final del primer vano y medición al

final del segundo vano. Con esta metodología de buscó

representar los cambios en los perfiles de tensión

presentes para cada una de estas condiciones.

Figura 17. Representación unifilar del circuito donde se

simula el impacto de una DEAT en los cables de guarda de

una línea de transmisión de 230 kV.

E. Perturbaciones en sistemas eléctricos de potencia a

causa del impacto de una DEAT

Se presentan un conjunto de gráficas de tensión (voltaje)

en función del tiempo correspondiente a los perfiles

observados en el sistema, para diferentes puntos de

medición, durante el impacto de una DEAT. Con relación

al caso 1, solo se presenta un par de gráficas de tensión;

respecto al caso 2, se presentan 3 conjuntos de gráficas,

las cuales corresponden a las tres posibles ubicaciones de

los sistemas de medición con relación al punto de

impacto.

i. Perfil de tensión del impacto de una DEAT en el

cable de fase de una línea de transmisión

En la Figura 18 se observan dos gráficas, en la primera de

ellas se muestra el perfil de tensión de la fase impactada

por la DEAT, en la segunda por su parte se muestra el

perfil de tensión de una de las fases vecinas. Nótese que

la duración de esta perturbación, bajo estas condiciones

ideales, se acerca a los 10ms, es decir, poco más de medio

ciclo.

También es importante notar la magnitud de las tensiones,

produciéndose picos de superiores a los 200 kV para el

caso de la fase impactada y los 35 kV para la fase vecina.

Debido a los efectos de la inducción electromagnética, las

gráficas presentadas tienen polaridades opuestas. La

envolvente de ambas gráficas se aproxima bastante bien a

la forma de onda de la DEAT que incide en ellas.

Figura 18. Formas de onda de los voltajes de fase en función

del tiempo, ocasionados por el impacto de una DEAT con

forma de onda descripta en la Figura 15.

ii. Perfil de tensión del impacto de una DEAT en los

cables de guarda de una línea de transmisión

Medición en el punto de impacto

La Figura19 muestra la ampliación de un detalle de la

Figura17, en ella se observa la ubicación de los sistemas

de medición analógica con respecto al punto de impacto

de la DEAT. Con esta configuración se busca registrar la

forma de onda de la DEAT sin los efectos atenuadores de

la medición de esta onda a través del segmento de línea de

transmisión.

Figura.19: Detalle de la ubicación de los registradores

analógicos en el punto de impacto de la DEAT

Se observa en la Figura 20 que los perfiles de tensión son

registrados en el origen, es decir, de manera inmediata

con el impacto de la DEAT, nótese que también se

obtienen las mayores magnitudes debito a que no actúan

los efectos de atenuación de la línea de transmisión al

circular el frente de onda por ésta.

Page 21: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 170

Figura 20. Perfiles de tensión obtenidos para la medición

ubicada en el mismo punto de impacto de la DEAT.

Medición a través del primer vano

La Figura 21 muestra la ubicación de los puntos de

medición al final del primer vano, esto con el fin de

registrar los efectos del tránsito del frente de onda a través

de él. Con la presente configuración se están tomando en

cuenta dos fuentes de atenuación de la señal, la primera de

ellas debida a las características eléctricas del canal de

conducción, y la segunda fuente de atenuación del frente

de onda corresponde a los elemento de fuga (resistencias

y reactancias) que se consideraron en la implementación

de las torres de transmisión que unen a los vanos.

Aparte de la atenuación presente en las gráficas de la

Figura 22, puede notarse también el desplazamiento en el

tiempo o retardo en registro o medición del frente de

onda.

Figura 21. Detalle de la ubicación de los registradores

analógicos al final del primer vano con relación al punto de

impacto de la DEAT.

Figura 22. Perfiles de tensión obtenidos por los sistemas de

medición ubicados al final del primer vano.

Medición al término del segundo vano

Ya en la Figura 23, la ubicación de los puntos de

medición es al final del segundo vano. En este caso, el

frente de onda originado por el impacto de la DEAT

deberá circular ahora por 4 fuentes de atenuación para

luego ser registrada por los sistemas de medición.

Figura.23: Detalle de la ubicación de los registradores

analógicos al final del segundo vano.

Page 22: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 171

La atenuación y el retardo observados en la Figura 24 son

aún más pronunciados, quedando incluso la tensión en el

cable de guarda por debajo de los 0,30 kV, valor que por

sí mismo es muy bajo como para ser considerado una

sobertensión, resultado que es completamente coherente a

lo que se espera en un sistema de transmisión en

operación.

La magnitud de la perturbación registrada en los cables de

fase, debido a los efectos inductivos, presenta una

atenuación mucho menor, ya que estos conductores se

encuentran aislados, quedando de parte de otros elementos

activos del sistema de potencia o incluso de la dinámica

del sistema en sí mismo la supresión de esta perturbación.

Los valores registrados están lejos de ser considerados

como factores de riesgo para el aislamiento o la dinámica

del sistema de potencia.

Figura 24. Perfiles de tensión obtenidos por los sistemas de

medición ubicados al final del segundo vano.

III. CONCLUSIONES

Una vez presentados los resultados, se concluye en base a:

Resultados del análisis estadístico:

1. La variación espacio-tiempo de los parámetros de

las Descargas Atmosféricas expuesta por Horario

Torres-Sánchez, cada año, en las zonas de

convección intertropical, se presentan variaciones

en la intensidad y ocurrencia de las descargas,

estos cambios se repiten cíclicamente, esta

variación se presenta también al norte del estado

Bolívar.

2. Las zonas con mayor cantidad de impactos

registrados son las correspondientes a las cercanías

de las centrales hidroeléctricas Caruachi y

Tocoma.

3. En estudios referentes a las Descargas

Atmosféricas, como la tasa de salida anual de una

línea de transmisión, donde comúnmente es usado

el valor ceráunio del sitio, las curvas de la densidad

de la probabilidad de la corriente de retorno

también deben ser tomadas en cuenta.

4. Debido a los altos niveles de polución de

elementos metálicos, que pudiesen reducir la

resistencia eléctrica del canal de descarga, en zonas

cercanas a las empresas básicas de Guayana se

produjeron singularidades como corrientes de

retorno positivas y picos de corriente superiores a

los 400 kA.

5. Tomando en cuenta el inicio de la temporadas de

lluvias de cada año, los datos históricos de los

niveles del embalse de Guri y la actividad de

tormentas en la zona, queda en evidencia una

relación directa entre la estación lluviosa en los

embalses del Bajo Caroní y los parámetros de las

descargas atmosféricas registradas al norte del

estado Bolívar.

Resultados de la solución numérica de la ecuación de

Heaviside:

1. Se demostró que el código es estable y convergente

para diferentes tipos de malla, siendo los mejores

resultados los obtenidos con un número de nodos

comprendido entre los 300 y 400.

2. La magnitud de la corriente de retorno de una

DEAT se ve afectada de manera inversamente

proporcional por el valor de la resistencia del canal

de conducción.

3. Los tiempos de cola se ven afectados por la

conductividad (G) presente en el canal de descarga.

4. El código es oscilante e inestable para valores de G

superiores a los 0.001 mho

5. Con derivadas (rampas) de frente de onda

superiores 71kA/µs y tiempo de atenuación

menores a los 100 µs, estos valores presentados

por las ecuaciones de doble Exponencial y Heidler,

las cuales fueron diseñadas para zonas de estudio

no tropicales, son notablemente diferentes a los

datos arrojados por la solución numérica propuesta

en este trabajo.

6. Los paquetes informáticos tradicionales (T-flash)

no presentan una solución exacta de los fenómenos

asociados a las Descargas Atmosféricas, se basan

en soluciones probabilísticas.

Resultados de la simulación de un sistema eléctrico de

potencia en PSCAD:

1. En base al primer caso de simulación, donde no se

consideran en su totalidad las características

constructivas de un sistema de transmisión con el

fin de tener condiciones ideal y mínimas de

operación, las sobretensiones inducidas en los

sistemas de transmisión de hasta 230 kV tienen

tiempos de duración equivalentes a 10 tiempos de

cola de la Descargas Atmosféricas que índicen en

ellos.

Page 23: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172 172

2. En base al segundo caso de simulación, donde se

toman en cuenta condiciones reales en sistemas de

transmisión en subestaciones, los sistemas de

transmisión superiores a los 230 kV no se ven

afectados por sobretensiones inducidas por

Descargas Atmosféricas debido a sus

características constructivas, éstas son: sistema de

pararrayos, rigidez dieléctrica de la cadena de

aislamiento, distancia de separación entre fases y

sistema de coordinación de aislamientos.

3. Debido al aterramiento de los cables de guarda, la

sobretensión inducida por éstos en los cables de

fase tienden a ser más extensas, siendo únicamente

suprimidas por la inercia eléctrica, por la operación

del sistema eléctrico o interrupción del mismo.

4. Debido a la naturaleza de onda viajera del

fenómeno, el tiempo de registro del frente de onda

va a presentar un desplazamiento horizontal

respecto al tiempo de inicio de la perturbación,

esto dependerá de la ubicación relativa del punto

de medición.

IV. REFERENCIAS

1. El Rayo, Horacio Torres-Sanchez, 2004.

2. EMTP PSCAD Reference Guide, Manitoba Research

Center, 2007.

3. MATLAB Reference Guide, MathWorks, 2011.

4. Simulación de elementos axial simétricos en

relatividad general mediante diferencias finitas, 2001,

Luis Rosales.

Page 24: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 173

ANÁLISIS DE LA EFICIENCIA DEL ALGORITMO DE

RECONSTRUCCIÓN DE SEÑALES BASADO EN LA MEDIANA

PONDERADA A TRAVÉS DE LA REGRESIÓN DE COX

Jabbour George 1 y Paredes Jose Luis

1

(Recibido febrero 2012, Aceptado mayo 2012) 1Universidad de los Andes

[email protected]

Resumen: En el presente artículo se analiza, a través del modelo de regresión de Cox, la eficiencia del

algoritmo de reconstrucción de señales basado en la regresión de Mediana Ponderada, en el contexto del

Sensado Comprimido. Se realizaron 1620 reconstrucciones de señales de diferente tamaño, con

diferente tamaño de soporte (K), y variando además, el número de medidas (M) y el parámetro de

regularización (α), que forma parte esencial del algoritmo bajo estudio. Entre los resultados más

importantes obtenidos se encuentra que la eficiencia del algoritmo tiene un comportamiento parabólico

invertido con respecto a α, alcanzando su máximo en α=0.8. Además, se encontró que este algoritmo

tiende a ser sensible a variaciones de α y M, de manera que con ligeros cambios en estos parámetros el

algoritmo puede cambiar radicalmente su velocidad de convergencia. Así, ajustando adecuadamente el

valor de M se logra controlar el comportamiento inestable antes descrito, pues si la relación M/K pasa

de 7 a 9, la probabilidad de que el algoritmo presente un buen desempeño aumenta del 40% al 70%. De

igual manera, si el valor de α cambia de 0.5 a 0.9, la probabilidad de que el algoritmo presente un buen

desempeño aumenta de 0.14 a 0.96.

Palabras clave: Reconstrucción de señales/ Sensado comprimido/ Mediana ponderada/ Regresión de Cox/ Análisis

de supervivencia.

ANALYSIS OF THE EFFICIENCY OF WEIGHTED MEDIAN-

BASED SIGNAL RECONSTRUCTION ALGORITHM THROUGH

COX REGRESSION Abstract: In this paper, the efficiency of the algorithm for compressive sensing (CS) signal reconstruction based on

weighted median regression (WMR) is analyzed through a Cox-regression model. We perform 1620

reconstructions for signals with different dimension (N), sparsity (K), number of measurements (M) and

regularization parameter (α) that induces sparsity in the solution. Among the most relevant results, we find that the

algorithm efficiency, as a function of the regularization parameter, follows an inverted parabolic function reaching

its maximum at α = 0.8. Furthermore, we show that the reconstruction algorithm is quite sensible to α and M. Thus,

a slight change on those parameters leads to a notable variation on the algorithm’s convergence speed. Therefore,

by suitably tunning the number of measurements, we can control the volatile described above. Thus, if the ratio

N/M goes from 7 to 9, the probability of having a good performance increases from 0.4 to 0.7. Furthermore, if α

changes from 0.5 to 0.9 this probability increases from 0.14 to 0.96.

Keywords: Signal Reconstruction/ Compressive Sensing/ Weighted Median/ Cox Regression/ Survival Analysis.

I. INTRODUCCIÓN

En el campo del muestreo/reconstrucción de señales, el

teorema de Shannon-Nyquist establece que no habrá

pérdida de información si la señal original es muestreada

con una frecuencia de al menos el doble del ancho de

banda de la misma [1]. Dependiendo de las características

de la señal original, esta condición puede representar una

seria limitación, especialmente, cuando la señal es de

banda ultra-ancha, demandando el uso de sensores o

dispositivos de adquisición de datos extremadamente

rápidos; o cuando la señal es de alta resolución (p.e. una

fotografía de alta resolución o un video de alta calidad),

requiriendo de espacio de almacenamiento, canal de

comunicación y procesamiento (hardware y suministro de

energía) de gran escala [2][3][7]. Adicionalmente, en el

área de telecomunicaciones siempre ha existido un mar-

cado interés por reducir el tamaño de las señales a trans-

mitir, y con ello, disminuir los costos de transmisión [4].

Page 25: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 174

En definitiva, es indiscutible el gran beneficio que

representa el disponer de una herramienta que sea capaz

de generar representaciones de señales de baja

dimensionalidad (por debajo de la tasa de Nyquist) con

poca o ninguna pérdida de información; y es esto

precisamente lo que ha servido de punto de partida para la

génesis del método llamado Sensado Comprimido (SC)

[5][6], cuya eficacia no depende del ancho de banda de la

señal bajo análisis sino de la cantidad de información de

la misma [9]. En este sentido, el SC ha surgido como una

técnica vanguardista en el campo del

muestreo/reconstrucción de señales, permitiendo

representar señales mediante un número reducido de

medidas, y a su vez, ofreciendo herramientas capaces de

reconstruir las señales originales con muy poca pérdida de

información. Así, el SC simplifica el proceso de

adquisición a un costo de tener una mayor complejidad en

el proceso de reconstrucción.

Aún así, existe la necesidad de mejorar los resultados de

este novedoso enfoque de adquisición de señales,

apuntando a simplificar su aplicación, y a su vez, hacerlo

cada vez más robusto, ya que entre sus principales

desventajas se encuentra la complejidad y la gran cantidad

de cómputos asociados a sus algoritmos en la fase de

reconstrucción [2][3][4][7][8]. Por esta razón, el presente

artículo pretende generar resultados que permitan a los

investigadores y usuarios de este tipo de métodos conocer

aspectos técnicos relacionados con la eficiencia de los

algoritmos que forman parte del mismo, y así, facilitar su

uso. Específicamente, se realiza un análisis estadístico de

la influencia de las características relativas a la señal a

recuperar/reconstruir y del parámetro de regularización

sobre la eficiencia del algoritmo de reconstrucción de

señales basado en la regresión de mediana ponderada. Se

escoge este algoritmo de reconstrucción en particular

dado que según fue mostrado en [8], es robusto a una gran

variedad de tipos de ruido que pudiera contaminar las

mediciones, además de la facilidad para seleccionar el

parámetro de regularización que define el grado de

densidad de la señal a reconstruir.

La organización del artículo es como sigue. Primero, en

las secciones 2 y 3, se presentan los fundamentos básicos

que forman parte del método SC, el método de

reconstrucción de señales basado en la mediana

ponderada, así como el modelo de regresión de Cox;

luego, en la sección 4 se describen los experimentos

realizados, y en la sección 5 se presentan los resultados

obtenidos. Finalmente, en la sección 6, se presentan las

conclusiones.

II. DESARROLLO

1. Sensado Comprimido

1.1 Muestreo/compresión de señales

Dada una señal real en tiempo discreto, finita y

comprimible, x[n] (n=1,2,…,N), el objetivo del método

SC radica en encontrar una secuencia de medidas, y[m]

(m=1,2,…,M), de manera que sea posible reconstruir la

señal original x[n] a partir de y[m] con ninguna o poca

pérdida de información, siendo M un valor mucho menor

que N (un M muy pequeño implica una alta tasa de

compresión pero con relativa baja probabilidad de

reconstrucción, y viceversa) [8][9]. La condición de que la

señal de interés debe ser discreta en tiempo obedece al

único propósito de simplificar la presentación del método,

sin embargo, el concepto de SC puede ser aplicado a

señales analógicas donde el proceso de proyección ocurre

en el dominio analógico.

Matemáticamente, la secuencia de medidas, y[m], se

obtiene al proyectar el vector x=[x[1],…,x[N]]T en un

nuevo espacio M-dimensional, representado por una base

obtenida aleatoriamente. Esto es:

xy ;

N

MNM

N

1

1

111

;

TMnnn 1 ; (n=1,…,N) (1)

en donde Φ es conocida como la matriz de proyecciones

aleatorias o matriz de medidas, cuyas componentes son

realizaciones de una variable aleatoria tipo Gaussiana o

Bernoulli. Para que la proyección resultante, y[m],

contenga la información relevante que permita reconstruir

a x[n] con una pérdida de información despreciable, ésta

última debe ser una señal poco densa en un dominio Ψ

denominado diccionario de representación y la matriz de

proyección debe ser incoherente con este diccionario [9].

Estrictamente hablando, x[n] debe ser una señal con K

componentes no nulos en el dominio del tiempo o en

cualquier otro dominio creado por funciones

parametrizadas que conformen un diccionario, tal como se

define a continuación:

Señal K-sparse. Sea Ψ=[Ψ1 … ΨN]; Ψn=[ψ1n,…,ψNn]T

(n=1,…,N); una base ortonormal que define los elementos

de un diccionario, y s=[s1,…,sN] un vector de coeficientes

tales que:

N

n

nns

1

sx (2)

Así, x es una señal K-sparse si es posible aproximarla

como una combinación lineal de sólo K vectores de Ψ, es

decir, si K coeficientes sn poseen valores significativos

[10]. Obviamente, sólo son de interés aquellos casos en

donde K es mucho menor que N (K<<N), pues esto

significa que x es poco densa, y por lo tanto, es

comprimible en un vector de medidas, y, de menor

dimensión, justificándose así el uso de esta técnica.

1.2 Selección del diccionario

Es necesario encontrar una matriz Ψ (que es un espacio

N-dimensional) tal que exista una secuencia s con sólo

K elementos no nulos, y cuya proyección sobre Ψ genere

Page 26: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 175

a la señal x. Si x es K-sparse en el dominio del tiempo no

es necesario proyectarla en un espacio alternativo, y en su

lugar, simplemente se asume s=x, lo cual implica Ψ=I; es

decir, si x es K-sparse en el dominio del tiempo, entonces,

el diccionario se puede tomar como la matriz identidad de

rango N. En este caso, se dice que la señal es poco densa

en el dominio canónico.

En caso de que x no sea poco densa en el dominio

canónico, el vector s no presenta las características

deseadas, de manera que se hace necesario seleccionar un

diccionario diferente, como por ejemplo, un diccionario

conformado por las bases de la transformada de Fourier,

de la transformada del coseno, o de la transformada

wavelet, o incluso de la combinación de estas bases

ortogonales [9]. De esta forma, en alguno de estos

diccionarios la señal x tendrá una representación con sólo

K coeficientes significativos

Otro aspecto a tomar en cuenta en la selección del

diccionario trata sobre su relación con la matriz de

proyecciones. En concreto, la matriz de proyecciones se

debe seleccionar de manera que sea incoherente con el

diccionario donde la señal tiene una representación poco

densa, según se describe a continuación.

1.3 Incoherencia entre el diccionario Ψ y la matriz de

proyecciones Φ

La coherencia entre las matrices Φ y Ψ es una medida que

refleja el grado de correlación que existe entre estas dos

matrices, lo cual incide sobre la probabilidad de

reconstruir la señal original con la menor pérdida de

información posible: a menor coherencia entre Φ y Ψ,

mayor probabilidad de éxito en la reconstrucción se

tendría. Esta medida se define como sigue:

NnMm

nmn

1;1

,max*),( (3)

En la Ec. (3), φm es la m-ésima fila de Φ, ψn es la n-ésima

columna de Ψ y ‹.,.› denota el producto escalar. Mientras

más grande sea la correlación entre estos vectores (en

valor absoluto), mayor será la coherencia entre las

matrices Φ y Ψ [9]. Se ha probado que si los elementos ϕij

siguen una distribución gaussiana o de Bernoulli, la

matriz resultante es incoherente con una gran variedad de

diccionarios, entre ellos los creados a partir de las bases

de Fourier, DCT y wavelet.

1.4 Reconstrucción de la señal original: enfoque

basado en estimaciones obtenidas mediante la

regresión de mediana ponderada

La reconstrucción de una señal consiste en realizar el

proceso inverso al de su compresión, es decir: a partir del

vector de medidas, y, y la matriz de proyecciones, Φ, el

objetivo es obtener la secuencia x original, aquella cuya

compresión condujo precisamente a y [8][9]. Dado que Nx ,

My y M<N, existen múltiples soluciones al

problema inverso, por lo que se plantea la minimización

de la diferencia entre la señal original y la señal

reconstruida en el espacio de las proyecciones, y esto

implica que esta última señal posea el mismo grado de

densidad presente en la señal original, lo cual añade una

considerable dificultad al proceso de reconstrucción.

Matemáticamente, la señal reconstruida se obtiene al

resolver el siguiente problema de optimización [8]:

21

minargˆpp ll

XXyX

x (4)

donde pl

. denota la norma lp, de órdenes p1 y p2, cuyos

valores inciden notablemente sobre el error presente en la

señal reconstruida, así como el grado de densidad (tamaño

del soporte) de la misma. El primer término de (4),

asociado a la norma lp1, tiene el propósito de reducir el

error entre la señal medida y la señal proyectada, por lo

cual, generalmente se establece p1=2 inducido por la

suposición de Gaussianidad asociada al ruido que

contamina las proyecciones. Esto conduce a una

optimización por mínimos cuadrados. También es común

encontrar el uso de p1=1, norma que es óptima bajo el

criterio de máxima verosimilitud cuando el ruido es

Laplaciano. Esta norma conduce a una minimización de

desviación absoluta. Sin embargo, este primer término por

sí solo no resuelve por completo el problema bajo

consideración, ya que además de la necesidad de un error

mínimo (al utilizar p1=1 ó p1=2) existe el requerimiento

de que la señal reconstruida sea poco densa al igual que la

señal original. La probabilidad de que esta última

condición sea satisfecha por una optimización basada sólo

en el primer término (mínimos cuadrados o mínima

desviación absoluta) es sumamente baja; razón por la cual

se incorpora el término asociado a la norma lp2, cuyo rol

en el proceso de optimización se centra en controlar que el

tamaño del soporte de la señal reconstruida no sea mayor

que K. Esto se logra estableciendo p2=0, es decir,

haciendo que el segundo término de (4) se corresponda

con el tamaño de soporte (seudo-norma l0) del vector X,

buscando así, que la optimización genere una señal que no

solo presente un error mínimo sino que también tenga un

tamaño de soporte adecuado. Adicionalmente, se tiene el

parámetro de regularización, τ, cuya función es establecer

un compromiso entre la magnitud del error y el tamaño de

soporte de la señal reconstruida, pues τ=0 equivale a

ignorar el requerimiento relacionado con el tamaño del

soporte, mientras que un τ muy grande generaría una

señal con un tamaño de soporte pequeño, pero con una

diferencia grande con respecto a la señal original, de

manera que es importante ajustar este parámetro

adecuadamente, para así obtener una solución que sea

satisfactoria desde ambos puntos de vista.

La solución del problema de optimización planteado en

(4) se puede obtener a través de múltiples métodos, cada

uno de los cuales se especializa en determinadas

situaciones, dependiendo principalmente del grado de

densidad y de las características de la contaminación de la

señal original [8][9][10].

Page 27: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 176

En el caso particular de este trabajo, se hace uso de un

método que consiste en un enfoque regresivo basado en

estimaciones obtenidas mediante el operador de Mediana

Ponderada [9]. Este método es de especial interés cuando

la señal original está contaminada con ruido cuya

distribución estadística presenta colas con una densidad

mayor que la de una distribución normal, lo que lo hace

robusto ante la presencia de ruido de naturaleza

impulsiva. Este enfoque consiste en dividir el problema de

optimización N-dimensional (definido en (4)) en N

problemas unidimensionales, de la forma:

00

1

][minargˆln

M

i

ninX

n XXiyxn

; n=1,…,N (5)

cuya solución, nx , se obtiene como la mediana

ponderada de la señal residuo, seguido de un proceso de

umbralización, esto es [8]:

caso otroen 0

ˆ1

ˆ][

ˆ 0

;1

11

lnnln

in

N

njj jij

inn

x-rrsii

MxiyMediana

x (6)

para n=1,…,N.

En donde

N

njjjjn xyr

;1ˆ , Φn es la n-ésima

columna de Φ y pl

. denota la norma lp. Esta expresión se

utiliza iterativamente para estimar los N elementos de la

secuencia original, aunque, dado que en cada

optimización individual se toma en cuenta una sola

variable a la vez, con N iteraciones (una iteración para

cada variable) muy difícilmente se logre alcanzar el

óptimo global N-dimensional. Esto conlleva a la

necesidad de repetir múltiples ciclos de estimación para

alcanzar la solución óptima global, en donde se define

como ciclo al proceso de estimar a cada xi una vez, es

decir, un ciclo corresponde a N iteraciones. Uno de los

criterios más utilizados para detener al algoritmo se basa

en la energía residual normalizada, en donde, el algoritmo

se detiene cuando se cumple que 2

2

2

2/ˆ yxy ; y

como segundo criterio está el número máximo de ciclos,

del cual no se puede prescindir puesto que no existe una

garantía de que el criterio anterior se vaya a satisfacer en

algún momento, ya que Ɛ es fijado en función del grado

de exactitud que se desea obtener en la señal reconstruida

y en función del tiempo de ejecución del algoritmo. Para

finalizar, vale la pena señalar que el umbral τ, que en el

primer ciclo toma el valor τ0, va disminuyendo

progresivamente de un ciclo a otro con el fin de permitir

la incorporación de nuevos elementos no nulos a la

secuencia X. El algoritmo inicia el proceso de cálculo

asumiendo que x[i]=0 (i=1,…,N), y dependiendo de la

importancia de cada elemento se van asignando valores no

nulos a los mismos, y a medida que se disminuye el valor

del umbral, más elementos se van incorporando al soporte

de la secuencia a recuperar. Es por esto que, en el k-ésimo

ciclo, el umbral se define como τk=τ0αk, en donde α es una

constante comprendida en el intervalo (0,1); haciendo que

el umbral vaya reduciéndose gradualmente. El valor de τ0

fue seleccionado siguiendo los criterios establecidos en

[6].

2. Análisis de Supervivencia a través de la Regresión

de Cox

En el análisis de supervivencia, uno de los principales

objetivos consiste en determinar la influencia que poseen

ciertos factores sobre el tiempo que transcurre desde que

se inicia algún proceso en particular hasta que ocurre

cierto evento de interés [10].

Entre los conceptos asociados al análisis de supervivencia,

son de especial interés el tiempo de supervivencia, la

función de supervivencia, la función de riesgo y la

esperanza de vida [12]. En detalle, el tiempo de

supervivencia, T, es una variable aleatoria no negativa que

representa el tiempo que transcurre desde que se comienza

a observar el individuo hasta que ocurre cierto evento de

interés llamado muerte. Mientras no ocurra el evento de

interés, o muerte, se asume que el individuo se encuentra

vivo, o en estado de supervivencia. En general, T es una

variable aleatoria continua con función de densidad de

probabilidad fT(t), y función de densidad acumulada

FT(t)=P(T≤t). La función de supervivencia se define como

S(t)=1-F(t), y representa la probabilidad de que cierto

individuo esté vivo en el instante t. Por otro lado, la

función de riesgo es una medida alternativa para

caracterizar a la supervivencia, y se define como

H(t)=f(t)/S(t), de manera que la función riesgo es

inversamente proporcional a la función de supervivencia,

y por lo tanto, a mayor supervivencia menor riesgo, y

viceversa. Por último, se tiene el concepto de esperanza

de vida, que no es más que la esperanza estadística de T.

Si la presencia de cierto factor aumenta la esperanza de

vida de un individuo, significa que contribuye a

incrementar el tiempo esperado que transcurre hasta que

ocurre el evento muerte, es decir, aumenta la función de

supervivencia, o equivalentemente, disminuye la función

de riesgo [12][13].

Dentro del conjunto de métodos que forman parte del

análisis de supervivencia se encuentra la regresión de

Cox, la cual se basa en un modelo que permite determinar

la influencia que poseen ciertos factores sobre la función

de riesgo, y por ende, sobre el tiempo esperado que

transcurre hasta la ocurrencia del evento muerte en un

contexto dado. Por lo tanto, el modelo de regresión de

Cox es una función cuya variable dependiente es el riesgo

en el que se encuentra un individuo en el instante t, y

cuyas variables independientes son factores que se cree

que pueden influir sobre tal riesgo [13]; específicamente:

pp XXXetHtH

...

02211)()( (7)

en donde, H0(t) es el riesgo en el que se encontraría el

individuo en el instante t si X1=X2=…=Xp=0. Es un riesgo

referencial, que equivale a ignorar el efecto de las

variables independientes. La interpretación de H0(t) es

Page 28: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 177

irrelevante, ya que no está relacionado con ninguna de las

variables independientes del modelo, que representan el

objetivo del estudio. Por otro lado, el interés se centra en

las variables independientes, cuyo efecto se mide

directamente a través de sus coeficientes βi (i=1,…,p). Si

βi>0, entonces la presencia del i-ésimo factor aumenta el

riesgo, mientras que, si βi˂0, entonces el i-ésimo factor

reduce el riesgo [13].

3. Descripción de los Experimentos

En el contexto de esta investigación se desea analizar la

influencia de los factores S (señal madre), N (tamaño de

la señal), K (soporte de la señal), M (número de

mediciones) y α (parámetro de regularización) sobre el

número de ciclos necesarios hasta que el algoritmo de la

mediana ponderada regresiva alcance la condición de

energía residual normalizada menor a 0.1, es decir:

12

2

2

210/ˆ yxy , haciendo uso de la regresión de

Cox. Para tal fin se realizaron pruebas de reconstrucción

para 12 señales, obtenidas a partir de 3 señales madre, S1,

S2 y S3, generadas aleatoriamente y con una longitud de

1024 cada una. A partir de cada una de estas 3 señales se

generaron 4 señales: desde el componente 1 hasta el

componente N=256*L, para L=1, 2, 3, 4; de manera que

en total se tienen 3 señales de longitud 256, 3 de 512, 3 de

768 y 3 de 1024. Para N=256, se utilizaron valores de K

(en el sentido K-sparse) de 10, 14 y 18; para N=512, se

utilizaron valores de K de 20, 28 y 36; para N=768, se

utilizaron valores de K de 30, 42 y 54; y N=1024, se

utilizaron valores de K de 40, 56 y 72. Además, Para cada

valor de N (de cada una de las señales madre) y K, se

utilizaron 3 valores de M: 7*K, 8*K y 9*K. Por otro lado,

para cada combinación de parámetros descritos

anteriormente, se aplicó el algoritmo de las mediana

ponderada para valores de α comprendidos entre 0.2 y 0.9,

con incrementos de 0.05: α = 0.20, 0.25, …, 0.90. En

resumen, se realizaron 1620 (3S x 4N x 3K x 3M x 15α)

pruebas de reconstrucción, para las cuales se ha registrado

el número de ciclos (denotado por C) para el cual se

alcanzó la condición 12

2

2

210/ˆ yxy .

Adicionalmente, se utilizó la misma matriz de

proyecciones para todas pruebas para garantizar que estas

se realizaran en las mismas condiciones, pues no es

conveniente comparar los resultados de dos pruebas si

estas se han basado en diferentes matrices de proyección.

En cuanto a la aplicación del modelo de regresión de Cox,

se utiliza a la variable C como el tiempo de supervivencia,

y se dice que ocurre el evento muerte si C≤100, y por lo

tanto, a partir de los valores de C se estima el riesgo para

cada caso. Además como variables independientes de este

modelo se toman las variables S, N, K, M y α; con lo cual,

el modelo de regresión a evaluar tendría la siguiente

forma:

54321)()( 0

MKNS

etHtH (8)

Los resultados de este modelo aportarán evidencia

estadística sobre la forma en la que influye cada uno de

los parámetros bajo estudio.

4. Resultados

A continuación se presentan resultados estadísticos tanto

descriptivos como analíticos de acuerdo a lo planteado

anteriormente, haciendo énfasis en los parámetros α y M

puesto que estos valores son establecidos por el

investigador, mientras que los demás valores (S, N y K)

son propios de la señal, y por lo tanto, no forman parte del

proceso de toma de decisiones al momento de aplicar el

algoritmo bajo estudio.

4.1 Análisis descriptivo

De las 1620 reconstrucciones de señal llevadas a cabo, en

552 casos ocurrió el evento de interés (en una prueba

ocurre el evento de interés si C≤100): 22 casos (3.4%)

para α≤0.45 y 530 casos (54.53%) para α≥0.5. Dado que

es necesario contar con resultados en donde exista

diversidad de casos para poder analizar los factores que

influyen sobre el desempeño del algoritmo bajo estudio,

se descartan los registros asociados a α≤0.45, dado que los

mismos no ofrecen tal diversidad, pues en el 96.6% de

estas pruebas no ocurrió el evento de interés, y esto a su

vez conlleva a un primer resultado que indica que no es

recomendable utilizar valores de α inferiores a 0.5, ya que

indiferentemente de los valores de los parámetros

restantes, el algoritmo va a ser ineficiente con muy alta

probabilidad, lo cual concuerda con lo expuesto por los

autores de este método, quienes recomienda utiliza un

0.75≤α≤0.95 [7]. En consecuencia, el análisis que se

realiza en lo sucesivo se basa sólo en las 972

reconstrucciones de señal asociadas a α≥0.5, en donde, en

530 casos ocurrió el evento de interés, distribuidos de la

siguiente manera:

Tabla I. Resultados según el valor de α

α C No. de Casos % Casos

0.50 7 15 13.89

0.55 9 21 19.44

0.60 9.08 39 36.11

0.65 8.92 36 33.33

0.70 8.56 54 50.00

0.75 9.88 78 72.22

0.80 9.86 87 80.56

0.85 10.53 96 88.89

0.90 11.91 104 96.30

Tabla II. Resultados según la relación M/K

M/K C No. de Casos % Casos

7 10.69 128 39.51

8 10.07 177 54.63

9 9.6 225 69.44

En las Tablas I y II, C denota el promedio de ciclos

registrados en las pruebas asociadas al respectivo caso,

pero sólo en donde ocurrió el evento de interés; “No. de

Page 29: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 178

Casos” se refiere al número de casos en donde ocurrió el

evento de interés, mientras que “% Casos” indica el

porcentaje de casos en los cuales ocurrió el evento de

interés, que a su vez puede ser interpretado como una

estimación de la probabilidad de que ocurra el evento de

interés.

En los 530 casos en los que ocurrió el evento de interés,

los valores de C se mantuvieron dentro del rango [6,16],

con un promedio de 10.02, es decir, que el error

establecido (Ɛ=10-1) o era alcanzado en 6≤C≤16 (en 530

casos) o era alcanzando en C>100 (en los 442 casos

restantes), es decir, ninguna de las 972 corridas duró entre

17 y 100 ciclos. Esta brecha puede ser interpretada como

un indicador de la inestabilidad del algoritmo, o

alternativamente, que la velocidad de convergencia del

algoritmo es altamente no lineal con respecto a las

características de la señal y con respecto al parámetro de

regularización α, de manera que en algunos casos el

algoritmo es muy rápido y en los demás casos es lento, sin

posibilidad de términos medios. Lo antes afirmado puede

significar simultáneamente una ventaja y una desventaja,

ya que si el usuario posee el nivel de conocimiento

adecuado sobre este algoritmo, encontrará en el mismo

una herramienta sumamente eficiente, y viceversa.

Así mismo, en la Tabla I se puede observar que a mayor

valor de α, más tarda el algoritmo para alcanzar el error

establecido (Ɛ=10-1

), aunque logra esta meta con mayor

probabilidad. Por ejemplo, con α=0.5 hicieron falta sólo 7

ciclos en promedio ( C =7), pero apenas en el 13.89% de

los casos ocurrió el evento de interés, mientras con α=0.9

el evento de interés se alcanzó en el 96.30% de los casos.

Lo antes afirmado refleja una fuerte sensibilidad del

desempeño del algoritmo de reconstrucción con respecto a

α. Así, si el parámetro de regularización decae muy

rápidamente, el algoritmo de reconstrucción no puede

seleccionar adecuadamente el soporte de la señal de

interés, induciendo errores de reconstrucción; y por el

contrario, si el parámetro de regularización decae

lentamente, el algoritmo detecta correctamente el soporte

de la señal y estima sus valores apropiadamente a un costo

de requerir un mayor número de ciclos.

Por otro lado, se tiene la relación M/K, que indica cuántas

medidas se utilizan por cada elemento no nulo de la señal

original. En la Tabla II se puede apreciar que mientras

más grande sea el vector de medidas con respecto al grado

de densidad de la señal original, más rápido será el

algoritmo, y además, existe una mayor probabilidad de

ocurrencia del evento de interés, siendo esto último la más

significativo del resultado, ya que si en vez de utilizar 7

medidas se utilizan 9 por cada elemento no nulo de la

señal original, se logra aumentar de 39.51% a 69.44% tal

probabilidad.

4.2 Resultados del modelo de regresión de Cox

En las Tablas III y IV se resumen los resultados

correspondientes a los parámetros del modelo de

regresión de Cox (correspondiente a la ec. 8), en donde se

asume que todas las variables son cuantitativas, excepto S

(indicadora de la señal madre) que es una variable

categórica:

Tabla III. Resultados del modelo de Cox asumiendo a α

como variable cuantitativa.

Var β Wald Sig.

N -.001 10.690 .001

K -.078 34.735 .000

M .011 58.498 .000

α 4.571 168.663 .000

S .003 .998

S(1) .003 .001 .978

S(2) -.003 .001 .977

Var: nombre de la variable; β: valor de su coeficiente en el modelo de Cox (βi); Wald: valor del estadístico de Wald, que es un estadístico de

prueba de la hipótesis nula que establece que la respectiva variable no es

significativa (su coeficiente es nulo). Sig: nivel de significancia del

estadístico de Wald. Si Sig<p, 0≤p≤1, entonces la respectiva variable es

significativa al 100*(1-p)%.

Tabla IV. Prueba del Omnibus (bondad de ajuste).

D = -2 Log (Verosimilitud) Chi-cuadrado GL Sig.

6731.064 254.624 6 .000

D: es un estadístico de prueba de la bondad de ajuste del modelo, cuya

hipótesis nula establece que todos los coeficientes del modelo son nulos, y por lo tanto, el modelo no se ajusta bien a los datos. Este estadístico se

distribuye chi-cuadrado con GL grados de libertad. Sig: nivel de

significancia del estadístico antes mencionado. Si Sig<p, 0≤p≤1, entonces se rechaza la hipótesis nula, y en tal caso, se concluye que el

modelo se ajusta bien a los datos con un nivel de confianza del 100*(1-

p)%.

En primer lugar, la Tabla III indica que, según la prueba

del Omnibus [13], no se rechaza la hipótesis de que el

modelo se ajusta bien a los datos, lo cual indica que el

modelo es válido. Por otro lado, según la Tabla IV, se

puede concluir con un 99.9% de confianza lo siguiente: a

mayor valor de N y K (mientras más grande sea la

secuencia, y mientras mayor sea su soporte), menor

riesgo, o equivalentemente, mayor supervivencia, y por lo

tanto, mayor será el número de ciclos necesarios hasta que

los residuos alcancen el error establecido. Por el contrario,

a mayor valor de M y α en el intervalo [0.5 - 0.9] menor

será el número de ciclos necesarios. En cuanto a las

señales madre, estas no han influido en lo absoluto sobre

los resultados, es decir, los resultados han sido

independientes de las señales madre que se utilizaron.

Entre los resultado antes presentados, causa especial

inquietud el relacionado con el coeficiente α, para el cual

se afirmó que a mayor valor del mismo, mayor será la

velocidad de convergencia del algoritmo, sin embargo,

vale la pena investigar si esta afirmación es absolutamente

cierta, o si este comportamiento simplemente refleja una

tendencia general, pero que analizada en detalle, se

pudiese descubrir algún otro comportamiento un tanto

más complejo, diferente a la influencia monótona

obtenida en los resultados anteriores. Para investigar este

aspecto, se decidió asumir al coeficiente α como una

Page 30: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 179

variable cualitativa, con el fin de analizar por separado el

efecto de cada uno de sus posibles valores. Al realizar este

cambio, y reestimar los parámetros del modelo de Cox, se

obtuvieron los siguientes resultados:

Tabla V. Resultados del modelo de Cox asumiendo a α como

variable cualitativa.

Var β Wald Sig.

N -.001 10.947 .001

K -.085 40.800 .000

M .012 69.034 .000

α 178.999 .000

α(1) -2,033 53.716 .000

α(2) -1,684 49.000 .000

α(3) -.915 23.381 .000

α(4) -.973 24.956 .000

α(5) -.306 3.269 .071

α(6) .117 .595 .440

α(7) .292 3.926 .048

α(8) .227 2.540 .111

S .009 .996

S(1) .008 .006 .937

S(2) .000 .000 .999

Los significados de las columnas de esta tabla son los mismos que los de la Tabla IV.

En este caso, se tomó α=0.90 como la categoría de

referencia, y se codificaron los valores de 0.50, 0.55, …

0.85 como α(1), α(2), …, α(8). En la Tabla V se puede

observar que a medida que se incrementa a α, el algoritmo

se acelera hasta llegar a α=0.80, α(7), en donde el

algoritmo alcanza su máxima eficiencia, para comenzar a

desmejorar en los siguientes valores de α. El siguiente

gráfico permite visualizar de una forma más adecuada el

efecto de los valores de α sobre la eficiencia del

algoritmo:

Figura 1. α vs. βi

En este gráfico, el eje horizontal representa los diferentes valores de α

evaluados (de 0.50 hasta 0.90), mientras que el eje vertical corresponde a los coeficientes del modelo de Cox asociados a cada valor de α.

En la Figura 1, la curva obtenida demuestra que la

relación entre la eficiencia del algoritmo con respecto a α

no es monótona creciente sino que sigue,

aproximadamente, una parábola invertida que alcanza su

máximo en α=0.80, de manera que entre 0 y 0.8 la

eficiencia del algoritmo mejora a medida que α aumenta,

y a partir de ahí, comienza a desmejorar. Es importante

señalar que estos resultados no contradicen lo presentado

en la Tabla I, ya que en ese caso, C fue calculado

tomando en cuenta sólo las pruebas en donde el algoritmo

convergió (C≤100), a diferencia de los resultados del

modelo de Cox, en donde se consideran todas las pruebas

realizadas.

III. CONCLUSIONES

1. Los resultados obtenidos en esta investigación

permiten llegar a las siguientes conclusiones sobre el

desempeño del algoritmo de reconstrucción de señales

basado en la regresión de mediana ponderada.

2. A pesar de la gran variedad de condiciones, cuando el

algoritmo alcanzó el error establecido (Ɛ=10-1

), lo hizo

recorriendo entre 10 y 16 ciclos, lo cual es

considerado como un buen desempeño, mientras que

en los demás casos se realizaron 100 ciclos sin que

esto ocurriera, de manera que se evidencian dos tipos

de comportamientos sumamente homogéneos y

diferentes entre sí: uno lento y otro rápido; sin la

posibilidad de resultados intermedios.

3. Sin embargo, ajustando adecuadamente los valores de

α y M se puede reducir drásticamente la probabilidad

de que el algoritmo se comporte en forma lenta: con

α=0.5 hicieron falta sólo 7 ciclos en promedio ( C =7),

pero apenas en el 13.89% de los casos el algoritmo

requirió menos de 100 ciclos para converger, mientras

con α=0.9 hicieron falta en promedio 11.91 ciclos,

pero la convergencia se logró en el 96.30% de los

casos. En ningún caso es recomendable utilizar

α≤0.45, pues con estos valores se obtuvo que en el

96.6% de los casos el algoritmo fue ineficiente,

indiferentemente de los valores de los parámetros

restantes.

4. Por otro lado, existe la posibilidad de ajustar el valor

de M con el fin de aumentar la probabilidad de que el

algoritmo se comporte en forma rápida, por ejemplo,

si en vez de utilizar M=7K se utiliza M=9K, se logra

aumentar de 39.51% a 69.44% tal probabilidad. En

este caso, es importante tener presente que es de

interés que M sea lo más pequeño posible, o lo que es

equivalente, que N/M sea lo más grande posible, pues

uno de los objetivos del SC es comprimir las señales,

por lo tanto, es necesario tener cuidado al aumentar el

valor de M.

5. En cuanto al resto de las características de la señal,

según el modelo de regresión de Cox, se obtuvo que a

mayor valor de N y K, menor riesgo (mayor

supervivencia), y por lo tanto, mayor será el número

de ciclos necesarios hasta que los residuos alcancen el

error establecido. Además, con este modelo se

confirmaron los resultados asociados a α y M,

expuestos anteriormente; aunque en el caso de α, se

obtuvo una información adicional que indica que la

relación entre la eficiencia del algoritmo con respecto

a α no es monótona creciente sino que sigue,

Page 31: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180 180

aproximadamente, una parábola invertida que alcanza

su máximo en α=0.80, valor que representa un punto

de equilibrio entre un número de ciclos bajo y la

probabilidad de que el algoritmo no se desempeñe en

forma lenta.

V. REFERENCIAS

1. Mitra, S., Digital Signal Processing, A Computer

Based Approach, 3era Edición, pp. 117-232, McGraw

Hill, 2006.

2. Majumdar, A., y Ward, R., Compressed Sensing of

Color Images. Signal Processing, Elsevier, Vol. 90,

No. 12, pp. 3122-3127, 2010.

3. Han, B., Wu, F., y Wu, D., Image representation by

compressive sensing for visual sensor networks.

Journal of Visual Communication and Image

Representation, Vol. 21, No. 4, pp. 325-333, 2010.

4. Bajwa, W., Sayeed, A., y Nowak, R., Compressed

Sensing of Wireless Channels in Time, Frequency,

and Space. Proc. 42nd Asilomar Conf. Signals,

Systems, and Computers, Pacific Grove, CA, 2008.

5. Donoho, D., Compressed Sensing. IEEE Trans. on

Information Theory, Vol. 52, No. 4, pp. 1289–1306,

2006.

6. Candes, E., Compressive Sampling, Proc. Int. Cong.

Mathematicians, Madrid, Spain, Vol. 3, pp. 1433–

1452, 2006.

7. Paredes, J., Arce, G., y Wang, Z., Ultra-Wideband

Compressed Sensing: Channel Estimation. IEEE

Journal of Selected Topics in Signal Processing, Vol.

1, No. 3, pp 383-395, 2007.

8. Paredes, J., y Arce, G., Compressive Sensing Signal

Reconstruction by Weighted Median Regression

Estimates. IEEE Transactions on Signal Processing,

Vol. 59, No. 6, pp. 2585-2601, 2011.

9. Baraniuk, R., Compressive Sensing. IEEE Signal

Processing Magazine, Vol. 24, pp. 118-124, 2007.

10. Tropp, J., y Gilbert, A., Signal Recovery From

Random Measurements Via Orthogonal Matching

Pursuit. IEEE Transactions on Information Theory,

Vol. 53, No. 12, pp 4655-4666, 2007.

11. Chen, Q., Oppenheim, A., y Wang, D., Encyclopedia

of Data Warehousing and Mining, pp. 1077-1082, Idea

Group Inc., 2006.

12. Berry, M., y Linoff, G., Data Mining Techniques, 2da

Edicion, pp. 383-420, Wiley, 2004.

13. Harrell, F., Regression Modeling Strategies: With

Applications to Linear Models, Logistic Regression,

and Survival Analysis, 1era Edición, pp. 465 – 507,

Springer, 2001.

Page 32: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 181

¿LA GRAVITACIÓN TERRESTRE, UN MISTERIO?

Lange, Kurt Gerhardt Fries, Ronald

(Recibido mayo 2012, Aceptado agosto 2012) [email protected], [email protected]

Resumen: Este trabajo nos da una visión alternativa para explicar la gravedad terrestre. Las leyes existentes están

respectadas y la física no está básicamente cuestionada. Por lo contrario, las leyes existentes están mejoradas y

analizadas en una explicación lógica con fórmulas sencillas, como lo preconcebía Einstein. Estas formulas

representan la base de este trabajo resultando de más de 30 años de investigaciones. La aceleración de la gravedad

es la resultante de fuerzas gravitacionales y levitacionales simultáneas. Es el producto de los tamaños de un cuerpo

en doble rotación, alrededor de su eje de referencia y bajo la influencia de un trío de fuerzas: centrifuga, centrípeta

y aceleración de Coriolis de las cuales los tamaños exactos se derivan de la velocidad real del cuerpo en rotación. El

eje de referencia es siempre el de la órbita, cuya referencia al campo director es conocida.

Palabras clave: Gravitación / Newton / Einstein / Teoría General de la Relatividad / Lorentz / Coriolis / Energía

TERRESTRIAL GRAVITATION, A MISTERY? Abstract: This study gives an alternate vision to explain gravity. Existing laws are respected and basic physics is

not questioned. In contrast, existing laws are completed and analyzed in a logical explanation with simple formulas,

as recommended by Einstein. These formulas are the basis of this work resulting from more than 30 years of

research. The acceleration of gravity is the resultant of simultaneous gravitation and levitation forces. It is the

product of the sizes of a body in two rotations around its reference-axis and under the influence of a trio of forces:

centrifugal, centripetal and Coriolis acceleration of which the exact sizes of the real rate derived from the partial

body rotation. The reference axis is always that of the orbit, the reference to the field director is known.

Keywords: Gravitation / Newton / Einstein / Theory of General Relativity / Lorentz / Coriolis / Energy.

I. INTRODUCCIÓN

Esta pregunta es muy válida en relación de las dos teorías

reconocidas de la gravedad. Es generalmente conocido

que el efecto gravitatorio, y su causa, representa uno de

los mayores enigmas de la Física Teórica en general. En

este sentido, la Física Teórica está buscando un camino

que permite resolver este enigma de manera científica y

matemática. La pregunta es: ¿por dónde empezar a buscar

esta solución?

Se podría empezar con la búsqueda de errores y

contradicciones en las teorías existentes. En general se

acepta que las teorías existentes de la gravitación, como

tal, no pueden describirla ni explicarla. Describen sus

efectos, pero la causa, la esencia, de la gravedad sigue

siendo un misterio.

Las teorías científicas nacen, en parte, por la necesidad de

cubrir huecos que las teorías precedentes no lograban. Es

un hecho que a medida que se hacen nuevos

descubrimientos las teorías van fortaleciéndose, lo hacen

hasta que llegando a un punto, esos mismos

descubrimientos empiezan a resquebrajarlas. Entonces

aparece una teoría superior que integra el conocimiento

anterior y que explica los hechos sin contradicciones

aparentes. Las fallas que tenían las teorías precursoras

desaparecen en la nueva. La nueva teoría es tan poderosa

que servirá durante un tiempo para explicar los nuevos

descubrimientos que todavía no se han producido. Este es

el ánimo de nuestra nueva teoría:

La teoría más moderna de la gravedad es la teoría de la

relatividad general de Einstein. Según la opinión general,

Einstein integra en su teoría la de Newton y se postula que

la gravedad de Newton es “un caso especial” (?) de la

teoría de Einstein.

La física y con ella las matemáticas representan una

ciencia absolutamente exacta. Debido a esto yo también

soy un gran admirador de Karl Popper y sus argumentos a

favor de la lógica de la epistemología científica. En este

sentido surge una ilógica evidente a partir de lo

anteriormente postulado sobre la física teórica. ¡En la

naturaleza hay sólo una gravitación! ¡Diferenciar la

gravedad en dos teorías, una de Newton y otra de Einstein

es, por su naturaleza, físicamente y/o teóricamente

imposible! Las leyes físicas de la naturaleza son las

mismas en todo el Universo!

El siguiente trabajo tiene como meta de aclarar si, hasta la

fecha, estas leyes son todas reconocidas y comprendidas.

Page 33: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 182

Como las teorías no pueden darnos una explicación

lógica, muchos científicos, buscando alternativas, meten

en cuestión todo el conocimiento de la física teórica. Por

lo tanto, creemos que tiene mucho más sentido buscar

inconsistencias lógicas en las teorías existentes y la base

de estas contradicciones para conseguir soluciones

alternativas, siempre en el sentido de Popper.

Ya que la Teoría General de la Relatividad de Einstein

“debe” incluir la teoría Newton nos concentremos en esto.

Sobre todo porque nos parece muy discutible que fue

Einstein que la integrado en su propia teoría…

Esto nos parece muy poco probable por las evidentes

inconsistencias lógicas que resultan de esto.

Particularmente cuestionable para nosotros es que todos

los físicos y matemáticos en el mundo nunca se dieron

cuenta de estas contradicciones.

¿Por qué?

II. DESARROLLO

1. Formula de la energía de Einstein:

En este sentido inicio con la ecuación básica de la energía

del campo gravitacional. Usted la puede conseguir en

cualquier libro de de física y se encuentra en esta forma:

(1)

y kappa escrito como:

(2)

Ambas ecuaciones son comunes y bien conocidas. El

tamaño de kappa (k), a la derecha del signo igual, presenta

contradicciones lógicas, sin embargo difícilmente

reconocibles. Pensando en la mundialmente famosa

declaración de Einstein:

"Nada es absoluto, todo es relativo"

Es muy difícil aceptar que el propio Einstein, en su

ecuación básica, pudo contradecirla de manera tan

grotesca introduciendo valores constantes que van

totalmente en contradicción de su teoría de relatividad.

La única constante existente es la velocidad de la luz, c.

¿Qué pasa con el 8, Pi y G?

El origen no es nuestra interpretación, sino precisamente

la reportada en la literatura.

2. Primera contradicción:

Primero el 8 resulta a partir de la analogía de la ley de la

gravitación de Newton con la ley de la electrostática de

Coulomb. La analogía es evidente cuando se comparan

los dos:

Ley de Newton (3)

Ley de de Coulomb (4)

Simplificando tenemos:

(5) Es igual a: (6)

Ahora es comprensible que en la ecuación con Kappa

aparecen el 8 y Pi.

Debido a esta relación, la física teórica habla de un campo

gravito magnético.

Y así siguen dos contradicciones.

La analogía matemática es evidente en ambas leyes, pero

también ¿lo son en el sentido análogo físico?

En la ley de la gravitación de Newton tenemos la constante

gravitacional (G = 6,67384(80)x10-11

) y en la ley de

Coulomb la constante del campo eléctrico (є0= 8.854187

x10-12

).

Ambos valores son claramente desiguales.

Es matemática y físicamente imposible integrar ambos

valores sin violar de manera masiva las reglas. Y debido a

que todos los físicos y matemáticos saben que es

imposible, ¿se define G con y0?

Se escribe que Einstein no utilizó el valor de y0 (y

seguramente nunca lo habría hecho…). Por supuesto, tanto

él como nadie más lo usa. También es imposible para

nadie, porque no hay ninguna posibilidad para especificar

un valor numérico o tamaño para y0.

Él es puro producto de la imaginación, y si no existe la

posibilidad de integrar en una ecuación valores numéricos,

nunca llegaremos a un resultado solucionándola.

3. Segunda contradicción:

Esta contradicción se deduce de la lingüística: gravito

magnético. Suponiendo que es en realidad un campo

gravito magnético, sigue la pregunta de ¿por qué no está

aquí la constante del campo magnético (μ0 =

12,56637x10-7

N/A2) sino la de la electricidad?

La respuesta está en la analogía ya mencionada, debido a

que la interacción resulta entre dos cargas opuestas, una

positiva y la otra negativa. De manera similar Newton

postula una interacción entre las masas m y M (planetas).

¿La realidad esta de tal forma?

Entonces, de acuerdo con la ley de Coulomb, las masas

que interactúan también deben tener cargas opuestas. Sólo

hay dos cargas diferentes (positiva y negativa), pero un

gran número de planetas y ¿tendrían que tener un 50% de

carga positiva o negativa?

Si esto fuera así, la vida no existiría en la forma real del

Universo. Las cargas opuestas se aniquilarían entre sí y el

Universo, con la suma de todas sus energías, ¡sería sólo

radiación!

kTgR

R 2

T

c

Gg

RR

4

8

2

2r

mMGg

2

21

04

1

r

QQE

04

1

F

04

1

yG

Page 34: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 183

¡Exactamente este es uno de los hallazgos de la física en

absoluto!

No hay ninguna oportunidad de describir el campo

gravitatorio como campo gravito magnético.

El hecho es que la Tierra tiene un campo magnético. Este

campo magnético proviene del viento solar y se puede

deformar, más o menos, dependiendo de su tamaño.

Por lo contrario, el campo gravitacional no puede ser

deformado.

Son claramente dos campos separados que se

sobreponen entre sí y deben considerarse y

representarse de manera separada.

Esto es fácilmente comprensible y demostrable cuando se

comparan las líneas de un campo magnético con las de un

campo gravitatorio. Un campo magnético, como se sabe,

se extiende del polo positivo al polo negativo. El polo

norte de la Tierra es el polo positivo, ya que la Tierra gira

de oeste a este, y la dirección de rotación se ve desde el

Polo Norte a la izquierda, es decir positiva. Visto desde el

polo sur, la dirección es negativa. De esta manera las

líneas corren, ligeramente desplazadas, desde el Polo

Norte al Polo Sur.

Figura 1. Campo dipolar

Las líneas de campo de un campo gravitatorio se definen

por la aceleración real y efectiva de la gravedad, por lo

tanto, en cada punto de la superficie de la Tierra en 89,9 °,

sólo casi perpendicular a ella.

Figura 2. Campo gravitatorio

En la vista no se reflejan únicamente el orden simétrico de

las líneas del campo norte y sur con su curvatura radial,

sino también y con precisión el tamaño espacial de un

campo gravitatorio, como Einstein lo señaló, en su Teoría

General de la Relatividad, que es limitado.

Nota: En la vista presentada no hay relación ninguna con

el tamaño real del campo gravitatorio (dibujo de

principio).

Esto afecta ahora a la parte izquierda de su ecuación de la

energía. Además de la curvatura radial, el campo

gravitatorio tiene una torsión (axial) dependiente de la

velocidad de rotación. Su valor numérico es definido por

el tensor energía-impulso (Tμυ) a la derecha del signo

igual.

4. Einstein y la descripción geométrica del campo

gravitatorio:

Einstein empieza la descripción geométrica del campo

gravitacional con bases ciertas (axiomáticas). Para

describir esto, la geometría euclidiana no es suficiente. A

la izquierda del signo igual de su ecuación de la energía

son el tensor de Ricci (Ruv) y el tensor métrico (guv

función de distancia). Juntos forman el llamado tensor de

Einstein. Es generalmente conocido que la representación

matemática de estos tensores es sólo posible sobre la base

de la geometría esférica (exceso esférico). Igualmente se

sabe que pi no es aplicable y no se utiliza en la geometría

esférica porque conduce a resultados incorrectos. David

Hilbert - uno de los mejores matemáticos del mundo de su

tiempo (!) - estaba al lado de Einstein y participo

activamente en el desarrollo de las ecuaciones de la TGR.

Ellos sabían muy bien, al igual que todos los físicos y

matemáticos actualmente, que pi no es aplicable en el

exceso esférico. ¿Sin embargo, Einstein introduce el

número pi como una constante absoluta en su propia

teoría? ¿Quién puede explicar correctamente como los dos

podrían cometer un error tan flagrante?

Personalmente, no puedo aceptar tal cosa.

Esto lleva a la pregunta de: ¿cómo es posible que durante

casi 100 años lo consideramos correcto, lo aprendemos y

lo enseñamos? ¿Lo escribió Einstein esto realmente así?

Las ecuaciones en el guión original, escritas manualmente

por Einstein, eran altamente no linearizadas y se

linearizaron y retardizaron ulteriormente.

¿Por qué?

Incluso ecuaciones no linearizadas se resuelven! ¿Por qué

razón las ecuaciones originales se modificaron?

Respuesta: Porque en la ecuación original de la energía

del campo gravitatorio de Einstein, el no escribió Kappa

como supuesta “constante de Einstein”, sino más bien el

tamaño de X (Ji). La ecuación original de Einstein era la

siguiente:

Rca - ½ Rgca = -XTca (7)

La diferencia fundamental radica en la sustitución de la

variable X (Ji) en el original con el tamaño K (kappa) en la

Page 35: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 184

forma actual de la ecuación. El problema, en la época y

ahora, reside que en el Universo no hay y no puede haber

constante, ¡a excepción de la velocidad de la luz c!

¡Por esta razón el no incluimos la también conocida

constante gravitacional G (!) en su formula!

El tamaño del X (Ji) en la ecuación de la energía original

de Einstein es la constante de gravitación relativista!

Ciertamente, no es fácil de entender los procesos de

pensamiento de Einstein y una cantidad física que es a la

vez “relativamente constante”. Probablemente, muchos

críticos internacionales dudaron de su cordura. Sospecho

que tanto Paul Drude como editor de los “Die Annalen der

Physik”, y Max Planck como editor de la primera

publicación del guión original de Einstein, tenían las

mismas dudas que llevaron a la retirada y sustitución de Ji

X con kappa. ¡Felizmente, Einstein demostró en este

sentido, tanto a sus dos compañeros como a sus otros

críticos, ser científicamente superior a todos ellos! La

constante gravitacional relativista es para cada sistema

inercial (planeta) una constante y al mismo tiempo tan

relativa como los planetas, en sus parámetros físicos, son

diferentes. Es decir, cada planeta tiene su propia constante

de la gravitación y se conoce como el valor CODATA

(véase más arriba) es una constante absoluta aquí en la

Tierra, ¡pero solamente aquí! Exactamente lo que se

muestra en la ecuación original de Einstein y Planck con

Drude lo reconocieron al instante. El tamaño de Ji sigue

de:

-X = 8 P g / c4

(8)

Aparece una sola constante que se encuentra en el

Universo: c. El numerador de la fracción tiene 3 variables

(relativas). Einstein quería demostrar el ejemplo con

referencia a la Tierra y por lo tanto 8 no es tan sólo un pre

factor algébrico derivado de la analogía anterior. Este 8 es

un tamaño relativo y resulta con exactitud de las

conocidas variables reales de movimiento de la Tierra que

son:

149,6 millones de km = radio de la órbita de la Tierra

alrededor del Sol.

6378,139 km = radio ecuatorial de la Tierra

0,000072925 rad/s = velocidad angular de la Tierra

(rotación natural)

0,000000199 rad/s = velocidad angular de la rotación

orbital alrededor del Sol

Y sigue la ecuación muy sencilla:

0003,8000000199,0/000072925,0

137,6378/149600000 (9)

Sustituyendo en esta ecuación, los datos de movimiento

de cualquier otro planeta se obtiene por supuesto un valor

muy diferente de pre-factor y por lo tanto el tamaño es tan

relativo como todo lo demás. El símbolo P (rho) define la

densidad de energía y el contenido de energía (cinética)

del campo gravitatorio y g es la aceleración de la

gravedad (diferente para cada planeta). Debido a que

todas estas variables son relativas y no hay ninguna

constante, Einstein llamo esta teoría: la teoría de la

relatividad y no ¡la teoría de las constantes!

Por supuesto, primero se debe calcular el valor numérico

específico antes de integrarlo en la formula. Por lo tanto,

la ecuación básica se basa en 10 ecuaciones acopladas,

con la que estos valores se calculan. Estas ecuaciones

existen en forma linearizadas y retardizadas, esto es

también conocido. Hasta la fecha, no existe un físico o un

matemático en el mundo que haya tenido éxito para

resolver numéricamente estas ecuaciones obteniendo

resultados con cifras verificables. Eso no será posible en

el futuro porque con X (Ji) surgen otras ecuaciones.

5. Constante gravitacional:

Considerando ahora las consecuencias de la visión de

Einstein - la relatividad de la constante gravitacional -

para toda la física, cada persona normalmente inteligente

podría entender el terror de Drude y Planck cuando

entendieron lo que representaba X. Si hay evidencia de

que la constante de gravitación no es constante, colapsan

todas las teorías existentes, es también válido para hoy

como para la época de Einstein. La constante

gravitacional G es una cantidad fundamental en todo

el modelo de pensamiento de la física teórica. No hay

en la cosmología, casi ningún proceso, o parte de proceso,

que puede representarse sin esta constante y sin embargo

el la gravedad, como tal, ¿sigue siendo, un misterio?

¿Eso quiere decir que tenemos que desmentir las teorías

de Einstein y asumir que son en realidad una tontería,

como muchos críticos pretenden a nivel internacional?

¡No, este no es el caso!

Es cierto que las modificaciones, a su sentido original,

surgen probablemente debido a un conflicto de intereses.

Por ahora, si dejamos de un lado la constante kappa y

utilizamos X como en el original de Einstein, obtenemos

un sistema completamente diferente de ecuaciones que no

tiene nada que ver con lo conocido, ni siquiera

remotamente. Sin embargo, este sistema de ecuaciones

proporciona cifras claras al 100% con resultados

numéricos precisos.

Esta es, otra vez, para confirmar que todas las

declaraciones de Einstein están correctas. Lo mismo se

aplica a la constante fundamental de la gravedad, cuya

relatividad puede ser demostrada de manera matemática.

Este valor es conocido hasta hoy como un valor de

medición y nadie puede calcularlo en absoluto. Tomando

las declaraciones de Einstein, esto nos da la posibilidad de

desarrollar formulas muy sencillas que nos conducen,

entre otras cosas, a soluciones para calcular la constante

de gravitación:

(10)

11

2

1067415391,6999815129,0

789515119,9

19410

G

Page 36: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 185

Más abajo tenemos el factor de corrección para la

ubicación de Zúrich (Suiza), donde hay el experimento de

última generación y de alta precisión para la medición de

G. Este factor de corrección se refiere a la latitud del

lugar. Para cada conjunto de valores, hay una prueba

matemática precisa. La unidad de la constante

gravitacional se omitió deliberadamente, porque

objetivamente no se conoce. Las justificaciones o

derivaciones de la misma son muy diversas, y necesitan la

comprensión de los fundamentos para entenderlas. La

explicación de los detalles se podría publicar en un

artículo separado hacer por razones de espacio. Lo

importante es, sin duda, apoyar la declaración de Einstein

que afirma que las leyes de la física son las mismas en

todos los sistemas inerciales. ¡Iguales son también todas

las ecuaciones inerciales! El 19’410 m/s de la velocidad

orbital solar vale para todos los planetas. Si insertamos los

tamaños específicos de cada planeta en las ecuaciones,

obtendremos en cada uno la constante gravitacional

ecuatorial.

6. Fórmula alternativa para calcular la gravitación

terrestre:

(11)

La segundo raíz de la relación de la fracción es el valor

numérico de la constante de gravitación en el ecuador y en

el nivel del mar (NN). El valor de 19’410 m/s es la

velocidad orbital del Sol y de su sistema planetario

medido por la astronomía por medio de la distancia

definida hasta las estrellas fijas. 9,789’515’119 m/s2 es la

gravedad exacta de la Tierra en el ecuador al nivel del mar

(NN) que no es se puede calcular con tanta precisión con

la teoría de Newton.

Constante calculada según esta descripción:

Tabla I. Constante de gravitación

Planeta Aceleración de la gravedad Constante

Mercurio 3,7 m/s ² 8,510571820 10-15

Venus 8,87 m/s ² 6,839517717 10-14

Tierra 9,7895215119 m/s ² 6,672921527 10-11

Marte 3,71 m/s ² 8,504776526 10-12

Júpiter 23,12 m/s ² 5,382814658 10-12.

Saturno 8,96 m/s ² 6,822277513 10-13

Cada lector notara que sólo la Tierra tiene la mayor

constante de gravitación, a pesar de que no es ni el más

grande ni el más pequeño de los planetas del sistema

solar. Hay otra vez una excelente explicación matemática.

La Tierra es el único planeta del sistema solar cuya órbita

en relación con los datos relativos a la magnitud de su

campo gravitacional dan como resultado 1:

(12)

Para explicar los detalles debemos, otra vez por razones

de espacio, referirnos a futuros artículos. Es importante

demostrar que se confirma, una vez más, la evidencia de

Einstein del tamaño espacialmente limitado de un campo

gravitatorio.

Como uno de los primeros y más citados ejemplos para la

confirmación de la exactitud de su teoría de la relatividad

general, es la ecuación de Einstein para probar los 43

segundos de arco incomprendidos de la rotación

perihelica de Mercurio.

(13)

Lo que significan los símbolos individuales es conocido y

no necesita ninguna explicación adicional. La ecuación da

el ángulo de rotación, y sólo por la multiplicación de los

radianes y los resultados de 3’600 se obtienen los 43

segundos de arco.

Matemáticamente, esta ecuación debe ser considerada

como correcta. La pregunta es si esto se aplica también a

la interpretación correcta de la causa física de la rotación

del perihelio.

¡Es evidente que Einstein inserta aquí, en el numerador de

la fracción, Pi y G que son dos constantes presuntamente

absolutas, que en realidad no son constantes! Sin

embargo, no está describiendo las propiedades de un

campo gravitatorio, sino la resultante de la interacción

entre los campos gravitacionales.

Aunque el pensamiento de Einstein es correcto, contiene

un error lógico de análisis fácilmente explicable. Einstein

señala de forma absolutamente correcta, que las leyes de

la física son las mismas en todos los sistemas inerciales,

¡entonces esta ecuación debe ser aplicable a todos los

otros planetas!. Exactamente esto es imposible y los

resultados lo demuestran.

Cualquiera que conozca la literatura sabe que el cálculo

del perihelio de los planetas se diferencia en las teorías de

Einstein de las de Newton. Ambos métodos de cálculo

dan resultados diferentes y por lo tanto no son exactos.

Tenemos una sola naturaleza, un Universo, una gravedad,

y por lo tanto cada planeta tiene su propia rotación

perihelica. ¡No hay ninguna rotación del perihelio que se

adapta a las teorías de Newton o de Einstein! Ella resulta

de la geometría real y del movimiento, si esto no es

exactamente conocido o comprendido, se producirán

errores en las representaciones matemáticas.

El error en la explicación de la geometría de movimiento

de los planetas se radica en el hecho de que el perihelio

del planeta no es lo único: la rotación total de los planetas

2

75

2

75.

/789515119,9

)99,1/2925,7/(3600

6378137/5680525,4671

99,1/2925,7

3600

sm

g res

000002053,173904,478

74003,478

651,50825,7cos4

141592,345,23cos

91097,29651,508

aa

221

6

ceaP

MG

Page 37: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 186

0,42896"2

2056,0

14937793,4180

579090002439

2439243365,187,47 6

Periastro

está compuesta por el perihelio y el periastro, los dos se

superponen. Con Mercurio y el Sol, el centro de gravedad

común - el periastro – se sitúa dentro del Sol y sólo a unos

pocos kilómetros de su centro geométrico. Por lo tanto

hay conexión directa con la excentricidad, que no tenemos

con la rotación del perihelio. La ecuación antes citada de

Einstein describe con exactitud la rotación del perihelio.

Sólo porque el periastro es tan cerca del centro

geométrico del Sol, visualmente las dos rotaciones

parecen una misma cosa. Debido a que no lo tomamos en

cuenta, no diferenciamos rotaciones del perihelio y del

periastro, obtenemos resultados matemáticos imposibles.

Figura 3. Rotación del periastro

Figura 4. Rotación correcta del perihelio

En consecuencia, la tarea es de desarrollar ecuaciones que

toman en cuenta estas diferencias y que se basa en las

declaraciones originales de Einstein. Esto es posible. Una

constante gravitatoria o la masa de los valores numéricos

no son necesarias para esto porque no están relacionados

con la geometría del movimiento.

Rotación anual del periastro de la Tierra

Perihelio anual de la Tierra

(14)

Sumando estos dos resultados se obtiene 5.7469965

segundos de arco por año de la Tierra y los 574,7

segundos de arco por siglo, como se puede leer en la

literatura. Ellos se obtienen exclusiva y precisamente de

las variables de reales movimientos que se miden por la

astronomía. Ninguno de los números usados es ficticio o

calculado. Todos los números, pueden leerse en los

buenos atlas de astronomía. Y estos son sólo los

resultados de Mercurio. Uno puede fácilmente aplicar

estas ecuaciones a todos los otros planetas del sistema

solar.

Lo hicimos y aquí pueden ver los resultados en la

siguiente Tabla:

Tabla II. Aplicación de las ecuaciones a todos los otros planetas del sistema solar.

1 2 3 4 5 6 7

Radio orbital

Mio. Km

Revolución

anual

Periastro

rotaciones

Perihelio

rotaciones

Días

rev. sideral

Precesión

geodésica

Suma

Periastro +

Perihelio

Mercurio 57,909 4,14937793 0,42896065 5,318 88,025 3,499 5,74696

Venus 108,160 1,6254976 0,22238278 7,248 224,701 3,489 7,47038

Tierra 149,600 1 4,02313275 8,516 365,252 3,489 12,53913

Mars 227,990 0,53167836 4,94036725 10,516 686,980 3,490 15,45637

Júpiter 778,360 0,084317 14,2449612 19,428 4331,890 3,491 33,67296

Saturno 1433,400 0,0339478 18,7849536 26,374 10759,240 3,514 45,15895

Uranus 2872,400 0,0119032 20,7553356 37,319 30685,220 3,493 58,07434

Neptuno 4495,000 0,00606833 26,8305055 46,639 60189,943 3,487 73,46951

"3180365,53600

992546151,0

6,353.796.363

Rotacion del periastro

(13)

Page 38: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 187

El resultado es exactamente lo contrario! Tanto la rotación

del periastro como la del perihelio, al aumentar la

distancia con el Sol se ponen siempre más grandes. Esto

no puede ser de otra manera, en la parte externa los

períodos orbitales se ponen siempre más largos con

velocidad constante del Sol. Ahora tenemos que poner

especialmente atención en la columna 6. La precesión

geodésica de todos los planetas está dada por:

( / T) r (15)

es el perihelio (columna 4), T es el período sideral

(columna 5) y r es el radio orbital (columna 1). Todos

estos valores están generalmente disponibles en los atlas

de astronomía. Ahora comparamos los valores de la

precesión geodésica (columna 6) con la tercera Ley de

Kepler. La analogía con su declaración es flagrante y sería

posible añadir una cuarta ley a las tres leyes de Kepler. La

evidencia de que las ecuaciones son correctas se

proporciona con ella.

En consecuencia, los resultados sobre la base de la

precesión geodésica del planeta son ahora claramente

detectables como base para el cálculo de los cambios

relativos de la cifra Pi.

Cada planeta tiene, debido a sus propios movimientos

espaciales, su propio valor de Pi.

El resultado del mayor o menor grado de curvatura

dependiendo de la aceleración gravitatoria del planeta, las

líneas del campo gravitatorio (Einstein habla de la

curvatura del espacio) tienen una forma (curva) diferente.

De acuerdo con esta curvatura Pi también no puede ser

constante. Esta cifra será siempre mayor que 3.141592 en

presencia de campos gravitatorios con signo positivo, y

menor con campos gravitacionales de signo negativo. La

prueba de la veracidad del argumento puede ser

proporcionada por simple verificación matemática:

(16)

Se está dando a partir de su precesión geodésica de nuevo

con la velocidad espacial del Sol. La precesión geodésica

de la Tierra es 3,489° en órbita alrededor del Sol,

3,158064 su cifra especial de PI y la famosa “constante”

matemática pi representa el plano ecuatorial del Sol (no

curvado).

La desviación mínima del valor real medido es debido al

redondeo del radio (media) orbital. El cálculo se basa en

los datos de la astronomía, y aquí es indicado el radio

orbital de 149,6 millones de kilómetros. Ahora podemos

discutir si este radio tiene 100 kilómetros más o menos,

pero esto no tiene una importancia fundamental. El radio

orbital en un movimiento constante, nunca puede ser tan

constante, de todos modos.

De ello se desprende, sin embargo, la importante cuestión

de cómo calcular correctamente la variación relativa de la

cifra Pi. También por razones de espacio no se puede dar

aquí una explicación detallada. Sólo queda la posibilidad

de posteriores artículos…

En un resumen como este es posible publicar la ecuación

correspondiente a la Tierra para Pi, con cifras claras:

(17)

Y con cifras claras:

(18)

La adición o sustracción del valor constante de la cifra Pi

se debe a la seña del campo gravitatorio local que puede

ser positivo o negativo. Cg es el valor numérico de la

curvatura radial de las líneas de campo de un campo

gravitatorio. Delta Phi (Δφ) es la precesión geodésica (ver

arriba) y rd el radián de 180/3,141592.

Sobre la base de estos “fragmentos” de explicaciones

dadas en el presente texto, seguramente que muchas

personas no van a entender la totalidad de las

explicaciones.

Los valores numéricos que nos dan resultados de la más

alta precisión surgen de números de radiantes relativos

calculados con las cifras relativas (específicas) de Pi. Por

lo tanto, no es posible comprender adecuadamente sobre

la base de fragmentos de todo un sistema o tirar

conclusiones científicas (evaluar).

Sólo puede ser entendido en su contexto y,

lamentablemente, es al menos tan difícil como entender la

teoría de Einstein…

Cabe señalar un aspecto importante en relación con la

aplicación del exceso esférico. Las representaciones de la

física teórica se basan en el hecho de que una imagen de

un triángulo proyectada en la superficie esférica, siempre

tiene una suma de los ángulos mayores que 180°. De

nuevo, esto sólo se aplica a campos gravitatorios con

signo positivo.

¡Para signo negativo, la suma de los ángulos debe ser

inferior a 180°!

Esta representación se explica a menudo por el llamado

puntero fijo, que se extiende desde el polo al ecuador, y

luego una línea sobre el ecuador y, finalmente, se mueve

de nuevo hacia al polo. La trayectoria del puntero

definiendo dicho triángulo. Sobre la base de una esfera

con las dimensiones de la Tierra se puede calcular con

exactitud, por medio de la curvatura radial, y con la cifra

relativa Pi , la suma de los ángulos:

Figura 5.

rd

Cg

141592,3

3,489⋅√(3,158064⋅ cos7,25)⋅3,141592= 19 ,40073 km/s

π= 3,141592+( 3,291942415

3,488⋅57 ,29579)= 3,158064254

Page 39: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 188

(19)

Los significados:

56,99694496 es el radiante de la circunferencia a partir del

número especial (pi) de la Tierra

180/3,158064 = 56,99694496

3,291942415 es el grado de curvatura radial de Cg que se

calcula a partir de los momentos de movimientos reales.

En principio, esta representación no es falsa, pero tiene un

defecto fundamental: la suma calculada de los ángulos es

correcta ¡sólo si la bola no se mueve!

Por lo tanto, no se logra cualquier representación de

campos gravitacionales sobre la base de la geometría

esférica. Los campos gravitacionales reales, en la

naturaleza, están relacionados con cuerpos que se

mueven de forma permanente. La geometría de una

pelota inmóvil, no puede permitir eso. Importante no es

únicamente el camino recorrido por el puntero, sino

también su dirección y velocidad. ¡Este resultado (esfera

en rotación) devuelve otros resultados, otras formas de

áreas y otros ángulos para la suma del triángulo!

Figura 6.

Determinante no sólo la rapidez del puntero, sino también

si se mueve a lo largo del ecuador en sentido opuesto o

con la rotación del planeta. Esto resulta, en ambos casos,

con triángulos completamente diferentes. Así, por la

ecuación anterior un factor de corrección es indispensable

para este hecho:

(20)

Este factor de corrección, según la dirección del

movimiento, nunca puede ser igual o mayor que 1. Esta

es una de las principales razones porque las ecuaciones

de la TGR, en la forma actual, no pueden ser resueltas.

Einstein fue también muy consciente de este hecho.

Porque si el puntero se mueve en una esfera en

movimiento, resultan dos caminos simultáneos. La

velocidad, para cada uno de los dos, resultada de la

distancia/tiempo es decir 2x (ds/dt) al mismo tiempo! Pero

el tiempo es lo mismo para los dos movimientos.

Entonces la pregunta es:

¿Cuál es la resultante de las dos velocidades?

¡En este punto, Einstein era consciente del conflicto, que

era obligatoriamente tanto en su definición del espacio-

tiempo como en la relatividad de la simultaneidad!

Él no hizo caso omiso, pero lo señaló muy claramente y

escribió:

"Las complejas ecuaciones del campo gravitatorio sólo

pueden ser resueltas cuando se encontrara una

condición matemática simple para estas ecuaciones,

dando una solución integral o parcial al problema".

Hasta hoy, ningún matemático o científico en el mundo

logro responder a esta condición.

Esta es una de las principales razones porque la

gravitación, como tal, sigue siendo un misterio.

III. CONCLUSIONES

Así que permítanme formular esta condición:

1. Las propiedades de un campo gravitatorio resultan

de la geometría especial del movimiento del cuerpo

giratorio y de su velocidad.

2. Las velocidades simultáneas angulares del cuerpo

sobre su propio eje de rotación (Tierra) y el eje

principal del centro de gravedad de todo el sistema

(Sol) determinan todos los tamaños y propiedades de

los campos de fuerza.

3. Puesto que la velocidad angular de la rotación

circulante se refiere al centro del sistema global, se

da y define de una vez la interacción con el campo

guía superpuesto.

4. Basado en esta condición y en conjunción con Ji

(véase más arriba) se traduce en un sistema

completamente diferente de ecuaciones. Debido a

esto, el sistema alternativo de ecuaciones

∑ Angulo180

cosα(56 ,99694496

3,291942415)=

180

0,9546877= 188 ,543332 °

r

v

Cg

rdAngulo

1

cos

180

Page 40: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189 189

desarrolladas basa únicamente en los parámetros de

movimiento reales geométricos y sus velocidades

angulares simultáneas.

5. Además, no hay en absoluto constantes, excepto c, y

los valores numéricos de la masa m (planetaria) o la

constante gravitatoria G no son la base de los

cálculos.

6. Por lo tanto, la solución numérica de la ecuación de

la energía de Einstein del campo gravitatorio es

posible y demostrable.

IV. REFERENCIAS

1. Kurt Gerhardt “Klimakatastrophe?Gibt es eine

Lösung?” Verlag Pro Business. Berlin 2008 ISBN

978-3-86805-277-0

2. Albert Einstein “Annalen der Physik” N°4. Vierte

Folge – Band 55 – 1918 .“Prinzipielles zur

allgemeinen Relativitätstheorie”

Page 41: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 190

NIS: UNA HERRAMIENTA COMPUTACIONAL PARA LA

IDENTIFICACIÓN DE SISTEMAS DINÁMICOS EN LAZO

CERRADO EMPLEANDO REDES NEURONALES

ARTIFICIALES

Zambrano Alejandro1, Collazo Víctor

2, Troncone Numan

2, Rodríguez Jesús

2

(Recibido febrero 2011, Aceptado junio 2012) 1 Sidor

2 CORPOELEC

[email protected], [email protected]

Resumen: El presente trabajo muestra el diseño e implementación de una herramienta computacional para

identificación de sistemas dinámicos mediante aplicación de la tecnología de las Redes Neuronales Artificiales. El

Neuro-Identificador de Sistemas (NIS), presenta dos componentes principales: un hardware de estímulo y

adquisición de señales, y una interfaz humano-máquina, que ha sido desarrollada bajo arquitectura PC empleando la

herramienta MATLAB®. El NIS permite obtener un modelo aproximado que se ajusta a la dinámica de la planta

real, que posteriormente puede ser evaluado en lazo abierto. El NIS genera automáticamente funciones de

transferencia de Primer Orden Más Tiempo Muerto (P.O.M.T.M.), y funciones de transferencia de segundo orden si

la respuesta del sistema es sub-amortiguada. El sistema ha sido aplicado en la identificación de modelos bajo

entorno de simulación y de circuitos eléctricos de primer y segundo orden. Los modelos obtenidos satisfacen las

hipótesis, obteniéndose un factor de correlación cuadrática multivariable de 0.9670 en la estimación de un sistema

de primer orden.

Palabras clave: Identificación de Sistemas Dinámicos/ Redes Neuronales Artificiales/ Interfaz Hombre-Máquina.

NIS: A COMPUTER TOOL FOR CLOSED-LOOP DYNAMICAL

SYSTEM IDENTIFICATION THROUGH ARTIFICIAL NEURAL

NETWORKS Abstract: This paper shows the design and implementation of a computational tool for dynamical system

identification by applying the technology of Artificial Neural Networks. The Systems Neuro-Identifier (NIS), has

two main components: a stimulation and data acquisition hardware, and a human-machine interface. The NIS

automatically generates first order transfer functions plus dead time (F.O.P.D.T.) and second order transfer

functions if the system response is sub-damped. The tool has been applied in the identification of models under

simulation environment and electrical circuits of first and second order. The models obtained matched the

hypotheses regarding the dynamics of the plants identified, obtaining a cuadratic multivariable correlation factor of

0.9670 in the first order identified systems.

Keywords: Dynamical System Identification/ Artificial Neural Networks/ Human-Machine Interface.

I. INTRODUCCIÓN Y ANTECEDENTES

Las redes neuronales artificiales constituyen una

excelente herramienta para el aprendizaje de relaciones

complejas a partir de un conjunto de ejemplos. Gracias a

esto se ha generado un gran interés en la utilización de

redes neuronales en la identificación de sistemas

dinámicos con no linealidades desconocidas. Además,

debido a sus capacidades de aproximación, así como a sus

inherentes características de adaptabilidad, las redes

neuronales artificiales presentan una importante

alternativa en el modelado de sistemas dinámicos no

lineales [1]. El objetivo principal del presente trabajo es

mostrar el diseño e implementación de una herramienta

computacional denominada Neuro-Identificador de

Sistemas (NIS), que permita estimar la función de

transferencia ó identificación, mediante aplicación de la

tecnología de redes neuronales artificiales, de sistemas

lineales invariantes en el tiempo (LTI) y sistemas con no

linealidades desconocidas, de una sola entrada y una sola

salida (SISO) que se encuentren en un lazo de control

realimentado.

La motivación del proyecto es la implementación de un

software y su conexión a una interfaz de hardware para la

adquisición de señales del sistema dinámico a ser

identificado, que permita la obtención de modelos

matemáticos de sistemas electro-mecánicos que ayuden

Page 42: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 191

en la detección de desajustes y permitan la compensación

de controladores de posición de paletas directrices en el

esquema de gobernación de velocidad en máquinas

hidrogeneradoras de centrales hidroeléctricas. En este

caso, mantener la producción de energía eléctrica es

fundamental, por lo que no se pueden desconectar éste

tipo de controladores y aplicar técnicas tradicionales de

modelado, como la identificación empírica realizando

pruebas en el sistema en lazo abierto y ajustando los

parámetros de la respuesta temporal a una función de

transferencia [2]. El desgaste mecánico en éste tipo de

máquinas ocasiona cambios importantes en la función de

transferencia que, en algunos casos, pueden ser no

linealidades que afectan el desempeño de los

compensadores PI y PID presentes en el esquema de

regulación.

Desde el punto de vista de la teoría de control, según [3],

un sistema dinámico o proceso está formado por un

conjunto de elementos relacionados entre sí que ofrecen

señales de salida en función de señales o datos de entrada.

Es importante resaltar el hecho de que no es necesario

conocer el funcionamiento interno, o cómo actúan entre sí

los diversos elementos, para caracterizar el sistema. Para

ello, sólo se precisa conocer la relación que existe entre la

entrada y la salida del proceso que realiza el mismo

(principio de caja negra). El aspecto más importante de un

sistema es el conocimiento de su dinámica, es decir, cómo

se comporta la señal de salida frente a una variación de la

señal de entrada. Un conocimiento preciso de la relación

entrada-salida permite predecir la respuesta del sistema y

seleccionar la acción de control adecuada para mejorarla.

En sentido práctico, el conocimiento de dicha relación

permite además, detectar posibles malfuncionamientos

producto de desgastes o averías, en el caso de sistemas

mecánicos o electrónicos, a través del análisis y

comparación de las respuestas del sistema en diferentes

instantes en el tiempo de vida útil de dichos sistemas.

Diversos avances se han suscitado en materia de

caracterización y obtención de modelos que representan la

dinámica y la relación entrada-salida de sistemas. El

modelado empírico de procesos contempla análisis en el

dominio temporal y en el dominio de la frecuencia, que se

realizan utilizando datos de entrada y salida obtenidos

experimentalmente a partir de la excitación del proceso

que se desea identificar bajo una condición nominal de

operación. En este sentido, [4] constituye el antecedente

más representativo de la investigación que se documenta

en estas páginas, ya que trata la identificación de un

sistema en la empresa venezolana CORPOELEC

(anteriormente EDELCA): el sistema de gobernación de

una unidad hidrogeneradora, que según el autor “… el

sistema completo es bastante complejo, con varios lazos

de retroalimentación…”. Pese a ésta y otras dificultades,

la reducción de los elementos que conforman dicho

sistema a una representación en diagrama de bloques

resumida, que contempla al proceso como una relación

entrada-salida, permitió simplificar la identificación.

Mediante ensayos escalón realizados bajo velocidad

nominal, y con aplicación de perturbaciones inferiores al -

3%, el autor logra obtener un modelo aproximado del

sistema, mediante la implementación directa de un

algoritmo denominado por el autor “método desarrollado

por la USB”. La obtención del modelo matemático

permitió, entonces, re-entonar el controlador de

gobernación de velocidad de la unidad hidrogeneradora,

que en su oportunidad, para el año 2007, presentaba

fuertes oscilaciones que comprometían la estabilidad del

sistema.

Pese al éxito de la solución vista en [4], aplicada a una

unidad hidrogeneradora, el método utilizado para la

obtención del modelo matemático debió adaptarse a las

particularidades de sistema en el momento, y no se

contaba con una herramienta computacional de propósito

específico para tal fin. Una de las principales razones por

la cual se realiza modelado empírico de procesos y

sistemas dinámicos es el hecho de que la obtención de un

modelo fundamental, basado en principios físicos o

químicos (según sea la naturaleza del proceso) resulta

impráctico en la realidad, por lo que se acude a la

obtención de parámetros que representen el

comportamiento del sistema y se ajusten a una ecuación

matemática. En otros casos, el modelado debe aplicarse

cuando se desconoce total o parcialmente la ecuación del

proceso y se requiere su obtención para bien conocer la

relación entre la(s) variable(s) del proceso, o para entonar

o adaptar controladores.

En el contexto que motiva la presente investigación,

debido a que sólo se pueden realizar mediciones de la

entrada y la salida del sistema a identificar, y con la

restricción en lazo cerrado, se propone la aplicación de

redes neuronales para caracterizar la respuesta de

sistemas dinámicos LTI, a través de una herramienta

diseñada específicamente para tal fin. La aplicación de

redes neuronales además, permitirá en el futuro la

realización de pruebas para la identificación de sistemas

no lineales [5] e identificación en línea.

Las redes neuronales artificiales son un paradigma de

procesamiento inspirado en la forma en que funciona el

sistema nervioso de los humanos, y está caracterizado por

su capacidad de generalización, robustez y tolerancia a

fallos [6]. La tecnología de las redes neuronales ha sido

utilizada en problemas de generalización o aproximación

de funciones de complejidad arbitraria, por lo que el

diseño propuesto se vale de esta característica para

representar la respuesta de un sistema cualquiera de una

entrada y una salida, mediante el entrenamiento de una

red neuronal tipo multicapa alimentada hacia adelante, a

través del algoritmo Backpropagation [7].

Es notable destacar a [8]-[12], ya que presentan de manera

formal la aplicación de redes neuronales alimentadas

hacia delante (feedforward), con memoria en la entrada

(tapped delay) entrenadas fuera de línea mediante un

algoritmo de retropropagación, como identificadores de

sistemas dinámicos. Cabe resaltar que estos enfoques no

Page 43: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 192

permiten la identificación de sistemas con parámetros

variables en el tiempo debido a que la red es incapaz de

ajustar sus pesos en línea. En esos casos, [13] y [14]

proponen la utilización de redes neuronales de base radial

(RBF) dinámicas, es decir, de tamaño variable que puede

ser entrenada en línea e implementarse en tiempo real. En

[15], se exponen algunas consideraciones no formales,

basadas en simulaciones de sistemas no lineales, sobre la

selección de las funciones de transferencia de las neuronas

que conforman la RNA empleada en la identificación de

los casos mostrados en dicho trabajo, que permiten una

estimación de modelos con menor error. En estos trabajos

no se muestran las realizaciones prácticas de los

experimentos, ni su aplicación en la identificación de

sistemas en lazo cerrado, sino que presentan enfoques más

teóricos.

La herramienta desarrollada y presentada en este trabajo

se vale del carácter adaptativo de las redes neuronales

artificiales para almacenar conocimiento relativo a la

dinámica del sistema a ser identificado. El NIS presenta

dos componentes principales: un hardware de estímulo y

adquisición de señales, y un software que ha sido

desarrollado bajo arquitectura PC empleando las

herramientas MATLAB/Simulink®, Neural Networks

Toolbox™ y Data Acquisition Toolbox™. La herramienta

permite obtener un modelo aproximado de primer orden

más tiempo muerto o uno de segundo orden, que

posteriormente puede ser evaluado en lazo abierto

empleando cualquier herramienta computacional utilizada

en el análisis de sistemas de control. Mediante el ajuste de

pocos parámetros, el NIS permite identificar diversos

sistemas LTI cuya función de transferencia es

desconocida. En este artículo se muestran los resultados

obtenidos en la fase de diseño y puesta en operación de la

herramienta, aplicada a la identificación en entorno de

simulación y de circuitos eléctricos utilizados para validar

su funcionamiento.

El trabajo está estructurado de la siguiente manera: en la

sección 2 se presenta todo el desarrollo de la

investigación: los fundamentos teóricos de la

identificación de sistemas y de las redes neuronales

artificiales con entrenamiento supervisado, el método de

identificación seleccionado y el diseño e implementación

del NIS. En la sección 3 se presentan los resultados y

discusión del funcionamiento del NIS en la identificación

de sistemas dinámicos. En la sección 4 se presentan las

conclusiones y en la sección 5 las referencias

bibliográficas.

II. DESARROLLO

1. Identiicación de Sistemas

La mayoría de los sistemas dinámicos pueden ser

representados en forma discreta por un conjunto de

ecuaciones [16]:

)()()1( , kkk uxx

)()( kk xy (1)

Donde x, u e y son secuencias de tiempo discreto. Cuando

las funciones Γ y Ψ son desconocidas, estamos ante un

problema de identificación.

Si el sistema descrito en (1) es lineal e invariante en el

tiempo, las ecuaciones que describen al sistema se pueden

expresar como:

)()()1( .. kkk uBxAx

)()( . kk xCy

(2)

En este caso A, B y C son matrices y el sistema puede ser

parametrizado por el conjunto (A, B y C). Para este tipo

de sistemas, si el orden es conocido, se puede escoger la

estructura del modelo y resulta un problema de estimación

de parámetros.

En general un sistema no lineal descrito por (1) puede ser

representado en términos de entrada-salida de la siguiente

manera:

;,...,,[ )1()1()()1( nkkkk yyyfy

],...,, )1()1()( mkkk uuu

(3)

El problema de la identificación consiste en seleccionar

un modelo apropiado y ajustar sus parámetros de acuerdo

a alguna ley adaptativa de forma que la respuesta del

modelo ante una señal de entrada, o un conjunto de

señales de entrada, se aproxime a la respuesta del sistema

real ante esa misma entrada.

Específicamente, en la investigación se ha considerado

obtener un modelo que represente la dinámica del sistema

real, mediante redes neuronales artificiales, para luego

analizar su curva de reacción y luego aplicar uno de los

dos métodos de modelado empírico de procesos en el

dominio temporal: a) modelado basado en la curva de

reacción del proceso aproximando a una función de

transferencia de P.O.M.T.M., o b) modelado basado en la

curva de reacción del proceso aproximando a una función

de transferencia de segundo orden cuando el sistema a

modelar es sub-amortiguada. Tales métodos han sido

seleccionados en función de la gran cantidad de sistemas

reales cuya respuesta puede ser generalizada a modelos

P.O.M.T.M. o de Segundo Orden. La entrada de prueba

utilizada en ambos casos es el escalón, de allí que los

ensayos que se hacen se les conocen como Pruebas de

Cambio de Escalón [2].

Page 44: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 193

2. Modelado Empírico de Procesos aproximándolos a una

Función de Transferencia de Primer Orden Más Tiempo

Muerto (P.O.M.T.M.)

La función de transferencia general utilizada en la

estimación del modelo de primer orden más tiempo

muerto, para este caso, está representada por [2]:

1

0

)(

S

KeG

St

S

(4)

Donde:

K la ganancia de estado estable del proceso.

t0 el tiempo muerto efectivo del proceso.

τ la constante de tiempo efectiva del proceso.

Las ecuaciones de interés, que han sido codificadas e

incorporadas a la herramienta desarrollada en el proyecto

de investigación, son las siguientes:

El valor de estado estable será:

KAyss (5)

De (5) obtenemos:

A

YK ss (6)

El método propone que t0

y τ sean seleccionados de tal

manera que la respuesta real y del modelo ante iguales condiciones de excitación coincidan en dos puntos en la

región de máxima pendiente de su curva de reacción. Los

dos puntos son:

301

tt (7)

02 tt (8)

Para localizar dichos puntos se utiliza la ecuación,

resultado de la aplicación del método de fracciones

parciales y la inversa de la transformada de Laplace a la

función de transferencia de un sistema de primer orden:

00

0

1 ttttueKAtc

tt

(9)

Cuando t = t0 + τ/3 se tiene que:

ssss yyeKAtty %3.28283.013

3

1

01

(10)

Y cuando t = t0 + τ se tiene que:

ssss yyeKAtty %2.63632.01 1

02 (11)

De (7) y (8), finalmente t0

y τ se expresan como:

20 tt (12)

122

3tt

(13)

Si bien es cierto que esta aproximación es válida para

sistemas en tiempo contínuo, al muestrear las señales de

entrada y salida del sistema a identificar bajo un criterio

de sobremuestreo, y luego de un postprocesamiento o

filtrado anti-aliasing, la respuesta del sistema en tiempo

discreto puede aproximarse a la respuesta de un sistema

de tiempo contínuo, y así aplicarse la formulación antes

descrita.

La Figura 1 permite explicar el método de modelado

empírico expuesto:

Figura 1. Gráfico del método de modelo empírico de

sistemas P.O.M.T.M.

3. Redes Neuronales Artificiales con Entrenamiento

Supervisado

El cerebro humano contiene aproximadamente 1011

elementos intensamente conectados llamados neuronas

[17]. Para efectos de la obtención de su modelo artificial,

estas neuronas tienen tres componentes principales: las

dendritas, el cuerpo o soma de la neurona y el axón. Las

dendritas son redes receptivas similares a un árbol de

fibras nerviosas que transportan señales eléctricas a la

parte interior del cuerpo de la neurona. El cuerpo de la

célula suma y umbraliza estas nuevas señales. El axón es

una única fibra larga que transporta la señal desde el

cuerpo de la célula hacia otras neuronas. El punto de

contacto entre un axón de una célula y una dendrita de

otra célula es llamado sinapsis. El arreglo de las neuronas

y las fuerzas de las sinapsis individuales están

determinados por un complejo proceso químico, que

establece la función de la red neuronal.

Page 45: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 194

Las redes neuronales artificiales son redes

interconectadas, que operan en paralelo mediante

procesadores simples (usualmente adaptativos) y con

organización jerárquica, las cuales intentan interactuar

con los objetos del mundo real, del mismo modo que lo

hace el sistema nervioso central. Las redes neuronales

responden a un modelo biológico de interconexión entre

elementos de procesamiento denominados neuronas

artificiales. El aprendizaje en los seres vivos, en particular

los animales, se realiza por ensayo y error, mediante

ejemplos o demostraciones. Las redes neuronales

biológicas ajustan dinámicamente parámetros internos

(pesos y tendencias) que rigen la representación de la

información o conocimiento, adoptando la capacidad de

generalizar respuestas ante eventos nunca antes

suscitados. De manera análoga, se representan estos

procesos, mediante algoritmos o circuitos electrónicos.

Mediante la herramienta NNT de MATLAB [18], se han

implementado las funciones que permiten la

parametrización de las redes neuronales aplicadas en la

identificación del sistema, y por lo tanto no es objetivo del

trabajo, codificar las ecuaciones relativas a la arquitectura

de RNA.

4. Método de Identificación empleando Redes

Neuronales Artificiales

El proceso de identificación de sistemas mediante

aplicación de redes neuronales considerado en el

desarrollo de la aplicación, según [16], responde al

diagrama mostrado en la Figura 2.

Figura 2. Fases del modelado neuronal.

Se hará especial hincapié en la selección de la estructura

de modelo de identificación, en la estimación y en la

validación.

El modelado empírico de procesos se fundamenta,

esencialmente, en el ajuste de funciones de transferencia

generales, de primer o segundo orden, mediante un

conjunto de operaciones realizadas sobre datos

experimentales extraídos del sistema real que se quiere

identificar, por lo que el problema de la identificación de

sistemas no lineales puede ser abordado mediante la

aplicación de la tecnología de las redes neuronales

artificiales, específicamente a través de los modelos con

entrenamiento supervisado. Mediante información de la

entrada y la salida de un sistema con función de

transferencia desconocida, una estructura de identificación

basada en redes neuronales artificiales puede realizar el

mapeo de un conjunto de vectores de entrada asociados a

unas clases de salidas, y representar a través de sus

parámetros internos (pesos y tendencias) la dinámica de

dicho sistema. El Dr. K. Narendra [8]-[9] presenta un

estudio formal sobre identificación y control de sistemas

dinámicos empleando redes neuronales con memoria en la

entrada. Dado que el sistema real es desconocido, se debe

asumir que corresponde a un tipo determinado, y que un

modelo parametrizado basado en (3) puede en teoría

representar el comportamiento de entrada – salida de

cualquier sistema de ese tipo. La estructura de modelo de

identificación implementada se muestra en la Figura 3.

Figura 3. Estructura de identificación implementada.

Sea X(k) el vector de entradas hacia la red neuronal, la

cual almacenará mediante sus parámetros internos, la

dinámica del sistema a identificar. En este modelo, las

entradas de la red neuronal son la entrada del sistema real

u(k), las entradas Xn+m-1(k) que representan estados

anteriores de la misma señal de entrada u(k); y la salida

del sistema, representada como entrada a la red neuronal

por X1(k) y sus respectivos valores en estados anteriores,

Xn(k). El número de entradas retardadas a considerar

depende directamente del orden estimado del sistema a

identificar. La capacidad de la red neuronal de almacenar

un comportamiento dinámico realmente es otorgada a

través de la presentación de estados anteriores, tanto de la

entrada del sistema a identificar, como de su salida. Esto

se conoce como memoria a la entrada (tapped delay).

Page 46: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 195

Como se verá en el apartado de diseño, el modelo

seleccionado es el de una red neuronal tipo perceptrón

multicapa con algoritmo de entrenamiento Levenberg-

Marquardt Backpropagation [7] y [18]. Los elementos

arquitectónicos de la red son variables. Las ecuaciones

relativas a los algoritmos de entrenamiento, se encuentran

codificadas en la NNT de MATLAB.

5. Diseño del Neuro-Identificador de Sistemas

A continuación se presentan las fases de diseño e

implementación de la herramienta desarrollada.

5.1. Diseño General

El diseño del Neuro-Identificador de Sistemas, ha sido

realizado considerando que el producto final debe ser una

herramienta de uso sencillo, con una interfaz gráfica de

usuario que permita el acceso a todas las funcionalidades

en consonancia con la estrategia de identificación, y con

elementos software y hardware de buen rendimiento

computacional. El diseño ha sido subdividido en dos

grandes etapas que pueden apreciarse en la Figura 4.

Figura 4. Diseño del Neuro-Identificador de Sistemas.

La etapa de software comprende la configuración del

origen de datos del modelo, esto es, la configuración de

las tarjetas de adquisición de datos con las que el usuario

captura los datos experimentales, o bien la selección y

configuración de un modelo MATLAB/Simulink® para

ensayos basados en simulación. Dicha etapa contempla,

en el mismo orden del esquema de identificación

mediante redes neuronales visto en la Figura 2, opciones

para llevar a cabo cada una de las fases de dicho esquema,

así como también las operaciones típicas sobre archivos

asociados al NIS, y la ayuda. La interfaz gráfica ha sido

desarrollada bajo el módulo GUIDE™, de MATLAB®.

Para la etapa de hardware, se ha utilizado un computador

portátil como elemento de procesamiento y

almacenamiento, y una tarjeta de adquisición de datos

junto a un equipo terminal de interconexión entre las

señales eléctricas provenientes del sistema a identificar y

la tarjeta mencionada. El software permite seleccionar y

configurar los parámetros principales de la tarjeta de

adquisición: frecuencia de muestreo, canales de entrada y

salida, y tiempo de adquisición. El NIS está provisto de

una interfaz con funciones de la Data Acquisition

Toolbox™ de MATLAB®, lo que permite dar prioridad

en el software, a las interrupciones causadas por la tarjeta

de adquisición de datos al sistema operativo embebido en

el computador portátil.

5.2. Diagrama de Flujo del Software

El diagrama de flujo del software y sus distintos módulos

se muestran en la Figura 5.

En el diagrama de flujo presentado en la Figura 5 se

aprecian los seis módulos principales que integran el

software de la herramienta implementada. Los módulos se

encuentran delimitados por un recuadro que representa la

interfaz gráfica de usuario principal, o GUI principal.

El bloque función Selección Origen de Datos del Modelo,

permitirá seleccionar la fuente de los datos del sistema

que se requiera identificar; existen dos posibilidades:

origen de los datos desde un modelo Simulink, y origen

de los datos desde una Tarjeta de Adquisición de Datos

(DAQ). Para el primer caso, se desplegará una ventana

que permite seleccionar y cargar un modelo Simulink

cualquiera creado por el usuario. Si por el contrario se

escoge la opción de origen desde DAQ, se desplegará una

ventana que permite seleccionar el modelo de tarjeta, y

una ventana que permite desplegar la información del

dispositivo, en tiempo de ejecución del software.

El bloque Captura de Datos (1) puede ejecutar dos vías

distintas, dependiendo del origen de datos seleccionado en

el bloque anterior. En el caso de origen de datos desde

modelo Simulink, la captura de datos realiza la acción de

ejecutar la simulación del modelo seleccionado por el

usuario. Para el segundo caso, cuando el origen de datos

es una DAQ, la captura de datos despliega una nueva

ventana de Adquisición de Datos, que luego debe ser

parametrizada para su ejecución.

El bloque Acondicionamiento de Señales (2) permite,

mediante una interfaz gráfica, aplicarle un

acondicionamiento con Spline Cúbica tras ingresar un

factor de atenuación, a las variables adquiridas en la etapa

anterior. A través de éste método, es posible eliminar

señales espurias no deseadas, adquiridas por lo general

mediante una DAQ. Esta técnica permite eliminar el

efecto de cuantización o discretización de las señales

muestreadas, a efectos de aplicar asunciones propias de

sistemas dinámicos en tiempo continuo.

El bloque Configuración de Red Neuronal Artificial (3)

permite seleccionar la estructura de identificación que el

usuario requiere utilizar para identificar un determinado

sistema dinámico; luego, una ventana permitirá

seleccionar y parametrizar la arquitectura de la red

neuronal artificial. El conjunto de entrenamiento de la red

neuronal es conformado por un vector de muestras de la

entrada del sistema a identificar, y un vector de muestras

de la salida del sistema a identificar. Este conjunto de

entrenamiento se constituye automáticamente vía

software.

El bloque Identificación de Sistemas (4) permite ejecutar

el entrenamiento de la red neuronal, mostrando en tiempo

Page 47: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 196

real la curva de error de la clasificación del conjunto de

entrenamiento realizada por la red.

El bloque Validación (5) genera un bloque Simulink que

representa a la red neuronal previamente entrenada. Luego

se carga un modelo Simulink para validar y comparar el

desempeño de la red neuronal con datos reales de

validación del sistema identificado. El modelo permite

también realizar una prueba escalón a la red neuronal.

Por último, el bloque Aproximación de Función de

Transferencia (6) realiza un procesamiento gráfico de la

curva de reacción del sistema identificado según las

ecuaciones presentadas en la sección 2.1 de este artículo,

grafica dicha curva y estima los parámetros necesarios

para construir una función de transferencia de

P.O.M.T.M. o una función de transferencia de segundo

orden.

Figura 5. Diagrama de flujo del software del NIS.

5.3. Hardware de Adquisición y Procesamiento de

Datos

La Figura 6 muestra el hardware para adquisición de datos

utilizados, así como también el hardware requerido para el

almacenamiento, procesamiento y ejecución del NIS.

Figura 6. Hardware del NIS.

El hardware de adquisición (Fig. 6 - A) está conformado

por la tarjeta de adquisición DAQ Card 6062E, cuya

máxima frecuencia de muestreo es 500 kS/s. El hardware

de estímulo de señales de excitación para las plantas a ser

identificadas, es un generador de señales programable del

fabricante Yokogawa, modelo FG300, cuya máxima

frecuencia de salida para señales programadas por diskette

de 31/2

es 15 kHz. El hardware de procesamiento (Fig.6 -

B), almacenamiento y ejecución del software es un

computador portátil del fabricante Síragon, modelo

Canaima 3050P, con procesador Intel Pentium M 2.1

GHz., 1 Gb de RAM y sistema operativo Microsoft

Windows XP. Los requerimientos de software para la

ejecución del NIS son: MATLAB 7.0 o superior, Drivers

NI-DAQ.

5.4. Acabado Final

El aspecto definitivo de la ventana principal del software

de la herramienta desarrollada se muestra en la Figura 7.

Page 48: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 197

Figura 7. Ventana principal del software.

Este software sirve como Interfaz Gráfica de Usuario para

la parametrización de la herramienta NIS; esto es, su

hardware y el conjunto de ecuaciones a fin de realizar la

identificación de sistemas dinámicos según las fases de

modelado neuronal. Un conjunto de menús adicionales

permiten realizar operaciones sobre archivo, acceder a la

ayuda de la herramienta, y parametrizar el hardware de

adquisición de datos.

III. RESULTADOS Y DISCUSIÓN

Para validar el correcto funcionamiento de la herramienta

diseñada y evaluar su desempeño general, se identificaron

sistemas bajo el entorno Simulink, y se identificaron

circuitos electrónicos de laboratorio.

1. Identificación de Sistemas en Entorno

MATLAB/Simulink®

La Figura 8 muestra el diagrama de bloques, con un

sistema cuya función de transferencia ha sido

seleccionada arbitrariamente; dicho sistema ha sido

identificado mediante obtención de datos de su entrada y

salida, mediante el osciloscopio de Simulink. El sistema

se encuentra en un lazo cerrado, y fue excitado con una

señal aleatoria. Esta prueba ha permitido validar el

funcionamiento de los módulos software que conforman a

la herramienta NIS.

Figura 8. Sistema desconocido – modelo Simulink.

Page 49: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 198

Las señales de entrada y salida de la planta, que fueron

muestreadas utilizando el osciloscopio de Simulink, se

muestran en las Figuras 9 y 10.

Figura 9. Entrada muestreada de la planta – modelo

Simulink.

Figura 10. Salida muestreada de la planta – modelo

Simulink.

La cota de error alcanzada por el algoritmo de

entrenamiento Levenberg – Marquardt Backpropagation,

aplicado a la arquitectura de red neuronal establecida para

la identificación del circuito de primer orden, en este caso

ha sido 3.85194 x 10-10

en 1551 épocas de entrenamiento.

La Figura 11 muestra el gráfico de validación del modelo

de red neuronal, donde se somete a la misma señal

aleatoria, tanto a la planta como a la red neuronal artificial

previamente entrenada, en condición de lazo abierto.

La Figura 12 muestra la respuesta de la planta y de la red

neuronal en lazo abierto, ante una entrada escalón de

amplitud 1. El error en la aproximación se puede asumir,

considerando que la obtención de un modelo empírico con

un error inferior al 20% es tolerable en la mayoría de los

casos. Para reducir el error se hace necesario ejecutar el

entrenamiento de la red neuronal en un mayor número de

épocas, o bien ajustar parámetros del algoritmo de

entrenamiento como la tasa de aprendizaje.

Figura 11. Respuesta de la red neuronal y del sistema ante

la misma entrada aleatoria.

Figura 12. Respuesta de la red neuronal y del sistema ante

entrada escalón.

Las Figuras 13 y 14 muestran respectivamente, la función

de transferencia aproximada por el Neuro-Identificador y

la salida del modelo Simulink.

Figura 13. Función de transferencia aproximada por el NIS.

0 10 20 30 40 50 60 70 80 90 100-10

-8

-6

-4

-2

0

2

4

6

8

10

Plant Input

0 10 20 30 40 50 60 70 80 90 100-6

-4

-2

0

2

4

6

0 10 20 30 40 50 60 70 80 90 100-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8Neural Network Output

Plant Output

0 10 20 30 40 50 60 70 80 90 1000

0.5

1

1.5

2

2.5

3

3.5

4

Neural Network Output

Plant Output

Page 50: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 199

Figura 14. Salida del sistema Simulink y salida

aproximada por el NIS.

2. Identificación de una Planta de Primer Orden

La Figura 15 muestra el circuito de primer orden que ha

sido identificado mediante obtención de datos

experimentales en laboratorio. Esta prueba ha permitido

probar el NIS completo: su software y su hardware.

Las señales de entrada y salida de la planta, que fueron

muestreadas utilizando el hardware de adquisición de

datos, se muestran en la Figuras 16 y 17. La frecuencia de

muestreo de las señales fue seleccionada excitando la

entrada del circuito y observando hasta que punto la

frecuencia atenuaba la salida de la planta. En este caso, la

frecuencia de muestreo ha sido de 80 Hz.

Figura 15. Circuito de primer orden.

Figura 16. Entrada muestreada del circuito de primer

orden.

Figura 17. Salida muestreada del circuito de primer

orden.

0 10 20 30 40 50 60 70 80 90 100-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

Plant Output

Aprox. Plant Output

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5-0.2

-0.15

-0.1

-0.05

0

0.05

0.1

0.15

0.2

0.25

Plant Input

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5-0.1

-0.05

0

0.05

0.1

0.15

0.2

0.25

Plant Output

Page 51: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 200

La cota de error alcanzada por el algoritmo de

entrenamiento Descenso de Gradiente, aplicado a la

arquitectura de RNA establecida para la identificación del

circuito de primer orden, ha sido 2.98 x 10-6

en 10000

épocas de entrenamiento. Para reducir el error se hace

necesario ejecutar el NIS en una arquitectura de cómputo

de mayor velocidad, a fin de que el algoritmo converja

más rápidamente.

La Figura 18 muestra una entrada de excitación aleatoria,

mientras que la Figura 19 muestra el gráfico de validación

del modelo de red neuronal, donde se somete a la misma

señal aleatoria, tanto a la planta como a la red neuronal

artificial previamente entrenada, en condición de lazo

abierto.

Figura 18. Entrada de validación para el modelo obtenido.

Figura 19. Respuesta de la red neuronal y del circuito ante

la misma entrada aleatoria.

La Figura 20 muestra la respuesta de la planta y de la red

neuronal en lazo abierto, ante una entrada escalón.

Figura 20. Respuesta de la red neuronal y de la planta, en

lazo abierto, ante entrada escalón.

Las Figuras 21 y 22 muestran respectivamente, la función

de transferencia aproximada por el Neuro-Identificador y

la salida real del circuito de primer orden.

Figura 21. Función de transferencia aproximada por el NIS

– caso circuito de primer orden.

Figura 22. Salida del circuito de primer orden y salida de la

planta aproximada por el NIS.

Cuantitativamente, el grado de confiabilidad del modelo

se ha evaluado mediante un factor de correlación

cuadrática multivariable. En probabilidad y estadística, la

correlación indica la fuerza y la dirección de una relación

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5-5

-4

-3

-2

-1

0

1

2

3

4

5Validation Input

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5-4

-3

-2

-1

0

1

2

3

4

Aprox. Plant Output

Real Plant Output

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5-0.2

0

0.2

0.4

0.6

0.8

1

1.2

Real Plant Output

Aprox. Plant Output

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

Real Plant Output

Aprox. Plant Output

Input

Page 52: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 201

lineal entre dos variables aleatorias. Se considera que dos

variables cuantitativas están correladas cuando los valores

de una de ellas varían sistemáticamente con respecto a los

valores homónimos de la otra: si tenemos dos variables (A

y B) existe correlación si al aumentar los valores de A lo

hacen también los de B y viceversa. Se ha utilizado la

ecuación:

1

ˆ

11

1

2

1

2

2

n

i

i

n

i

i

y

Y

Y

R (14)

Que expresa la fuerza de la relación lineal entre el

conjunto de datos de salida del modelo aproximado,iY , y

el conjunto de datos de salida del sistema o planta real, iY ,

ante una misma entrada cualquiera. El cuadrado del factor

de correlación únicamente indica que es una expresión

cuadrática. La ecuación ha sido ajustada de forma tal que,

indistintamente del sentido que arroje la correlación, el

factor siempre sea positivo e inferior o igual a la unidad,

donde la unidad representa una correlación total. Valores

superiores a 0.96 en el factor de correlación, indican

claramente que el modelo aproximado está correlado con

el modelo real. Así, para el modelo de primer orden

aproximado se tiene:

9670.02yR (15)

Que, junto a la correspondencia visual mostrada en las

gráficas anteriores, confirma la validez del modelo

identificado con el NIS.

IV. CONCLUSIONES

1. El Neuro-Identificador de Sistemas hace uso efectivo

de la metodología empleada para la identificación

mediante Redes Neuronales Artificiales.

2. La herramienta implementada permite, mediante el

ajuste de pocos parámetros, identificar sistemas

dinámicos LTI - SISO. A través del experimento

realizado, se demuestra que es válido utilizar el

modelado neuronal en la identificación de sistemas

LTI que se encuentren en un lazo de control

realimentado.

3. En relación al desempeño, se observa que el error

cuadrático medio obtenido en la fase de entrenamiento

de la red neuronal debe ser inferior a 10-10

para

obtener un modelo que permite obtener correlaciones

cuadráticas multivariables superiores a 0.96.

4. Por último, se demuestra que es posible después de

obtener el modelo de red neuronal que representa la

dinámica del sistema LTI, realizar pruebas escalón y,

aplicando técnicas de modelado empírico de procesos

sobre la red neuronal previamente entrenada,

aproximar una función de transferencia.

V. REFERENCIAS

1. Gil R. Páez D., “Identificación de Sistemas Dinámicos utilizando Redes Neuronales RBF”, Revista

Iberoamericana de Automática e Informática

Industrial, vol. 4, núm. 2, Comité Español de

Automática, Madrid, España, pp. 32-42.

2. Sarmiento S., “Identificación Empírica de Modelos”, UNEXPO Vicerrectorado Puerto Ordaz, Puerto Ordaz,

Venezuela, Marzo, 2003. pp 173-188.

3. Ogata K., “Modern Control Engineering”, Third Edition. Prentice Hall, 1998. 997 p.

4. Contreras R., “Tuning of Governance System of a 805 MVA Generator Unit at Guri Plant After 25 Years of

Service”, 1st Venezuelan Congress on Networks and

Electrical Energy, Anzoátegui, Venezuela. November,

2007. pp. 1-9.

5. Hangos K. M., Bokor J., Szederkényi G., “Analysis

and Control of Nonlinear Process Systems”, Springer-

Verlag London Limited, 2004.

6. Zambrano A., Pinto L., “Aplicación de las Redes Neuronales Artificiales en Procesadores Digitales de

Señales: Caracterización de Sensores Infrarrojos”,

Revista Universidad, Ciencia y Tecnología, vol. 13,

UNEXPO Vicerrectorado Puerto Ordaz, Puerto Ordaz,

Venezuela, pp. 20-27.

7. Demuth H., Beale M., Hagan M., “Neural Network

Design”, PWS Publishing Company, Boston, EUA,

1996.

8. Narendra, K. S., Parthasarathy, K., “Backpropagation

in Dynamical Systems containing Neural Networks”,

Technical Report 8905, Centre for Systems Science,

Department of Electrical Engineering, Yale

University, 1989.

9. Narendra, K. S., Parthasarathy, K., “Identification and Control of Dynamical Systems Using Neural

Networks,” IEEE Transactions on Neural Networks,

Vol. 1, No. 1, pp. 4-27, 1990.

10. Kuschewsky G. J., Hui S., Zak S.H., “Application of feedforward neural networks to dynamical system

identification and control”, IEEE Transactions on

Control Systems Technology, Vol. 1, No. 1, 1993, pp.

37-49.

11. Chi S.R., Shoureshi R., Tenorio M., “Neural Networks for System Identification”, IEEE Control Systems

Magazine, No. 10, 1990, p.p. 31-34.

12. Chen S., Billings S.A., Grant P.M., “Nonlinear System Identification using Neural Networks”, International

Journal of Control, Vol. 51, No. 6, 1990, p.p. 1191-

1214.

13. Poggio T., Girosi F., “A Theory of Networks for Approximation and Learning”, Artificial Intelligence

Memo No. 1140, Massachusetts Institute of

Technology, 1989.

14. Sanner R.M., Slotine J.E., “Stable Adaptive Control and Recursive Identification using Radial Gaussian

Page 53: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202 202

Networks”, Proceedings of 30th

on Decision and

Control, Brighton, England, 1991.

15. Nechyba M., Xu Y., “Neural Network Approach to Control System Identification with Variable

Activation Functions”, The Robotics Institute,

Carnegie Mellon University, Pittsburg, EUA, 2000.

16. Cañete J., “Modeling and Control using Neural Networks”, Malaga University, PhD Program on

Mechatronics Engineering, Málaga, Spain. April,

2008.

17. Troncone N., “Introducción a las Redes Neurales”. Trabajo de Ascenso, UNEXPO Vicerrectorado Puerto

Ordaz. Puerto Ordaz, Venezuela. Diciembre, 2002. pp

10-50.

18. The Mathworks Inc., “MATLAB 7.0 Neural Networks Toolbox Help Notes”, May, 2006.

Page 54: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 203

MODELADO CON VARIABLES ALEATORIAS EN SIMULINK

UTILIZANDO SIMULACION MONTECARLO

Velásquez, Sergio1 Velásquez, Ronny

1

(Recibido enero 2012, Aceptado junio 2012)

1 Dpto. de Ingeniería Electrónica, UNEXPO Vicerrectorado Puerto Ordaz

[email protected];

Resumen: Este artículo presenta el Modelado Con Variables Aleatorias En Simulink Utilizando Simulación

Montecarlo, muchos modelos de sistemas reales contienen elementos que precisan o admiten un modelado

estadístico, Sistemas de comunicaciones, Sistemas de conmutación, Sistemas sensores, Modelado toma forma

definiendo, Variables aleatorias que rigen ciertos comportamientos del sistema Procesos estocásticos para

modelar variación de entradas en el tiempo, como lo son las fluctuaciones en la bolsa de valores e ciertos

productos. Se deben definir métodos para generar muestras de variables aleatorias y muestras de procesos

estocásticos. Entre ellos está el método de Montecarlo, el modelo implementado mostro la capacidad proponer

precios optativos al precio de mercado ante cambios en el precio de un producto. Las simulaciones permitieron

conocer con mayor exactitud la versatilidad del Método ante otros Métodos usados, prediciendo con gran exactitud

las fluctuaciones de precios ocurridas en el producto de prueba.

Palabras clave: Simulink/ MonteCarlo/ Vainilla/ Gaussiano/ Modelo.

MODELING WITH RANDOM VARIABLES IN SIMULINK

USING MONTECARLO SIMULATIONS

Abstract: This article presents the model with random variables in Monte CarloSimulation Using Simulink, many

models of real systems contain elements that require or permit a statistical modeling, communication

systems,switching systems, sensor systems, modeling takes definite shape, random variables governing certain

stochastic processes system behavior modelinginputs change over time, as are the fluctiaciones in the stock market

andsome products. You must define methods to generate samples of random variables and stochastic samples.

Among them is the Monte Carlo method, the implemented model showed the ability to propose optional pricing to

the market price to changes in the price of a product. The simulations allowed to know more precisely the

versatility of the method to other methods used, predicting with great accuracy the price fluctuations that occurred

in the trial product.

Keywords: Simulink/ MonteCarlo/ Vanilla/ Gaussian/ Model.

I. INTRODUCCION

Simulación de sistemas dinámicos, donde se supone que

conocemos el valor exacto de todos los parámetros del

modelo no representa adecuadamente el mundo real. La

mayoría de las veces el diseñador de un sistema quiere

saber lo que ocurre cuando uno o más componentes están

sujetos a la incertidumbre.

El modelado de la incertidumbre cubre dos temas

relacionados: variables aleatorias y los procesos

estocásticos. Las variables aleatorias pueden modelar la

incertidumbre en los experimentos en un solo evento se

produce, lo que resulta en un valor numérico para algunos

observables. Un ejemplo de esto ser el valor de un

parámetro (o varios parámetros) especificado en el diseño.

En el proceso de construcción del sistema, estos pueden

cambiar al azar debido a la fabricación u otros errores.

Simulink ofrece los bloques que se pueden utilizar para

modelar variables aleatorias con las dos distribuciones

estándar de probabilidad: uniforme y de Gauss o normal.

Procesos estocásticos, en contraste con variables

aleatorias, son funciones del tiempo o alguna otra variable

independiente (o variables). La matemática de estos

procesos es un poco más complicada debido a la

interrelación entre el azar y la variable independiente.

En este artículo se analiza el uso de Simulink para

modelar los dos tipos de incertidumbre. Se presenta los

dos tipos de variables aleatorias disponibles en Simulink y

se muestra cómo crear otras distribuciones de

probabilidad para su uso en los fenómenos de modelado

que son más complejas. Se hace llegar las ideas de

variables aleatorias para el más simple de procesos

estocásticos, donde en cada uno de los tiempos de la

muestra en un sistema discreto se selecciona una nueva

variable aleatoria. Finalmente, se muestran los procesos

Page 55: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 204

de tiempo discreto, que concurren a los procesos de

tiempo continuo en el límite donde los intervalos de

tiempo son cada vez más pequeños. [1].

II. DESARROLLO

La forma más sencilla de incertidumbre que se podría

necesitar para el modelo son los valores de los parámetros

de una simulación. Estas incertidumbres de los

parámetros pueden ser los errores debidos a las

tolerancias de fabricación, las incertidumbres en los

valores físicos, debido a errores de medición y los errores

en los parámetros del modelo por el desgaste del sistema.

Simulaciones de Monte Carlo utilizan los parámetros

entre las distribuciones de probabilidad conocida. Los

parámetros son entonces variables aleatorias, por lo que

cada simulación más simple incertidumbres uno que tenga

que modelo son los valores de los parámetros de una

simulación.

Estas incertidumbres de los parámetros pueden ser los

errores debidos alas tolerancias de fabricación, las

incertidumbres en los valores físicos, debido a errores de

medición y los errores en los parámetros del modelo por

el desgaste del sistema. Simulaciones de Monte Carlo

utilizan los parámetros entre las distribuciones de

probabilidad conocida.

Los parámetros son entonces variables aleatorias, (por lo

que cada uno tiene una estructura de simulación.)

1. El azar

Es una causalidad presente en diversos fenómenos que se

caracterizan por causas complejas y no lineales.

Dependiendo del ámbito al que se aplique, se pueden

distinguir cuatro tipos de azar:

1.1. Azar en Matemáticas.

En matemáticas, pueden existir series numéricas con la

propiedad de no poder ser obtenidas mediante un

algoritmo más corto que la serie misma. Es lo que se

conoce como aleatoriedad. La rama de las matemáticas

que estudia este tipo de objetos es la teoría de la

probabilidad. Cuando esta teoría se aplica a fenómenos

reales se prefiere hablar de estadística.

1.2. Azar en la Física.

Los sistemas de la física pueden incluir procesos

deterministas y también indeterministas, es decir

azarosos. En los sistemas indeterministas no se puede

determinar de antemano cuál será el suceso siguiente,

como sucede en la desintegración de un núcleo atómico.

Esta dinámica, azarosa, es intrínseca a los procesos que

estudia la mecánica cuántica, es decir aquellos

subatómicos. Dentro de los procesos deterministas,

también se da el azar en la dinámica de sistemas

complejos impredecibles, también conocidos como

sistemas caóticos.

1.3. Azar en Biología.

Las mutaciones genéticas son generadas por el azar. Las

mutaciones se conservan en el acervo genético,

aumentando así las oportunidades de supervivencia y

reproducción que los genes mutados confieren a los

individuos que los poseen. Normalmente las

características de un organismo se deben a la genética y al

entorno, pero también las recombinaciones genéticas son

obra del azar.

1.4. Azar como encuentro accidental

Esta situación se considera azar porque los procesos que

coinciden son independientes, no hay relación causal

entre ellos, aunque cada uno tenga una causa que actúe de

modo necesario. Así, un macetero cae por una causa

necesaria: la gravedad; pero es azaroso que en su

trayectoria coincida con un peatón.

2. La probabilidad

La teoría de la probabilidad es la parte de las matemáticas

que estudia los fenómenos aleatorios. Estos deben

contraponerse a los fenómenos determinísticos, los cuales

son resultados únicos y/o previsibles de experimentos

realizados bajo las mismas condiciones determinadas, por

ejemplo, si se calienta agua a 100 grados Celsius a nivel

del mar se obtendrá vapor. Los fenómenos aleatorios, por

el contrario, son aquellos que se obtienen como resultado

de experimentos realizados, otra vez, bajo las mismas

condiciones determinadas pero como resultado posible

poseen un conjunto de alternativas, por ejemplo, el

lanzamiento de un dado o de un dardo.

3. Variable aleatoria

Una variable es aleatoria si su valor está determinado por

el azar. En gran número de experimentos aleatorios es

necesario, para su tratamiento matemático, cuantificar los

resultados de modo que se asigne un número real a cada

uno de los resultados posibles del experimento. De este

modo se establece una relación funcional entre elementos

del espacio muestral asociado al experimento y números

reales.

Una variable aleatoria (variable aleatoria) X es una

función real definida en el espacio muestral asociado a un

experimento aleatorio, Ω

Ω (1)

Se llama rango de una variable aleatoria X y lo

denotaremos RX, al conjunto de los valores reales que ésta

puede tomar, según la aplicación X. Dicho de otro modo,

el rango de una variable aleatoria es el recorrido de la

función por la que ésta queda definida:

Ω (2)

Page 56: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 205

3.1. Distribución de probabilidad

La distribución de probabilidad de una variable aleatoria

X, también llamada función de distribución de X es la

función FX(x), que asigna a cada evento definido sobre X

una probabilidad dada por la siguiente expresión:

(3)

y de manera que se cumplan las siguientes tres

condiciones:

1.

2. Es continua por la derecha.

3. Es monótona no decreciente.

La distribución de probabilidad de una variable aleatoria

describe teóricamente la forma en que varían los

resultados de un experimento aleatorio. Intuitivamente se

trataría de una lista de los resultados posibles de un

experimento con las probabilidades que se esperarían ver

asociadas con cada resultado.

4. Proceso estocástico

En estadística, y específicamente en la teoría de la

probabilidad, un proceso estocástico es un concepto

matemático que sirve para caracterizar una sucesión de

variables aleatorias (estocásticas) que evolucionan en

función de otra variable, generalmente el tiempo. Cada

una de las variables aleatorias del proceso tiene su propia

función de distribución de probabilidad y, entre ellas,

pueden estar correlacionadas o no.

Cada variable o conjunto de variables sometidas a

influencias o impactos aleatorios constituye un proceso

estocástico.

Un proceso estocástico se puede definir equivalentemente

de dos formas diferentes:

Como un conjunto de realizaciones temporales y un

índice aleatorio que selecciona una de ellas.

Como un conjunto de variables aleatorias Xt indexadas

por un índice t, dado que t pertenece a T, con .

T puede ser continuo si es un intervalo (el número de sus

valores es ilimitado) o discreto si es numerable

(solamente puede asumir determinados valores). Las

variables aleatorias Xt toman valores en un conjunto que

se denomina espacio probabilístico. Sea Ω un

espacio probabilístico. En una muestra aleatoria de

tamaño n se observa un suceso compuesto E formado por

sucesos elementales :

Ω (4)

de manera que .

El suceso compuesto es un subconjunto contenido en el

espacio muestral y es un álgebra de Boole B. A cada

suceso le corresponde un valor de una variable aleatoria

V, de manera que V es función de :

Ω (5)

El dominio de esta función o sea el campo de variabilidad

del suceso elemental, es el espacio muestral, y su

recorrido, o sea el de la variable aleatoria, es el campo de

los números reales. Se llama proceso aleatorio al valor en

(A,A) de un elemento Ω , donde para

todo es una variable aleatoria del valor en

(A,A).

Si se observa el suceso en un momento t de tiempo:

Ω (6)

V define así un proceso estocástico.

Si es una filtración, se llama proceso aleatorio

adaptado, al valor en (A,A), de un elemento , donde es una variable aleatoria -medible del valor en (A,A). La función

(7)

se llama la trayectoria asociada al suceso .

5. El método de Montecarlo

El método de Montecarlo es un método no determinístico

o estadístico numérico, usado para aproximar expresiones

matemáticas complejas y costosas de evaluar con

exactitud. El método se llamó así en referencia al Casino

de Montecarlo (Principado de Mónaco) por ser “la capital

del juego de azar”, al ser la ruleta un generador simple de

números aleatorios. El nombre y el desarrollo sistemático

de los métodos de Montecarlo datan aproximadamente de

1944 y se mejoraron enormemente con el desarrollo de la

computadora.

El uso de los métodos de Montecarlo como herramienta

de investigación, proviene del trabajo realizado en el

desarrollo de la bomba atómica durante la Segunda

Guerra Mundial en el Laboratorio en EE.UU. Este trabajo

conllevaba la simulación de problemas probabilísticos de

hidrodinámica concernientes a la difusión de neutrones en

el material de fisión. Esta difusión posee un

comportamiento eminentemente aleatorio.

En la actualidad es parte fundamental de los algoritmos de

Raytracing para la generación de imágenes 3D.

En la primera etapa de estas investigaciones, John von

Neumann y Stanislaw Ulam refinaron esta ruleta rusa y

los métodos "de división" de tareas. Sin embargo, el

desarrollo sistemático de estas ideas tuvo que esperar al

trabajo de Harris y Herman Kahn en1948. [2].

Aproximadamente en el mismo año, Enrico Fermi,

Nicholas Metropolis y Ulam obtuvieron estimadores para

los valores característicos de la ecuación de Schrödinger

para la captura de neutrones a nivel nuclear usando este

método.

El método de Montecarlo proporciona soluciones

aproximadas a una gran variedad de problemas

matemáticos posibilitando la realización de experimentos

Page 57: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 206

con muestreos de números pseudoaleatorios en una

computadora. El método es aplicable a cualquier tipo de

problema, ya sea estocástico o determinista. A diferencia

de los métodos numéricos que se basan en evaluaciones

en N puntos en un espacio M-dimensional para producir

una solución aproximada, el método de Montecarlo tiene

un error absoluto de la estimación que decrece como

en virtud del teorema del límite central.

6. Teorema del Límite Central

El Teorema del Límite Central o Teorema Central del

Límite indica que, en condiciones muy generales, si Sn es

la suma de n variables aleatorias independientes, entonces

la función de distribución de Sn «se aproxima bien» a una

distribución normal (también llamada distribución

gaussiana, curva de Gauss o campana de Gauss). Así

pues, el teorema asegura que esto ocurre cuando la suma

de estas variables aleatorias e independientes es lo

suficientemente grande

Sea la función de densidad de la distribución

normal definida como

(8)

con una media µ y una varianza σ2. El caso en el que su

función de densidad es , a la distribución se le

conoce como normal estándar.

Se define Sn como la suma de n variables aleatorias,

independientes, idénticamente distribuidas, y con una

media µ y varianza σ2 finitas (σ

2≠0):

(9)

de manera que, la media de Sn es n·µ y la varianza n·σ2,

dado que son variables aleatorias independientes. Con tal

de hacer más fácil la comprensión del teorema y su

posterior uso, se hace una estandarización de Sn como

(10)

para que la media de la nueva variable sea igual a 0 y la

desviación estándar sea igual a 1. Así, las variables Zn

convergerán en distribución a la distribución normal

estándar N (0,1), cuando n tienda a infinito. Como

consecuencia, si Φ (z) es la función de distribución de

N(0,1), para cada número real z:

(11)

Donde Pr( ) indica probabilidad y lim se refiere a límite

matemático.

III. RESULTADOS Y DISCUSIÓN

Se ha realizado un experimento numérico en el que se han

hecho corridas múltiples de generadores de números

aleatorios (Figura 1), creando la función de densidad de

probabilidad para los resultados y se ve que el resultado

es gaussiano como predice la teoría. Esto es exactamente

lo que el análisis de Monte Carlo se supone que debe

hacer. En las situaciones donde se utiliza, las matemáticas

necesarias para desarrollar la distribución de probabilidad

son tan complejas que este método es la única manera de

lograr el entendimiento necesario.

Figura 1. Corridas múltiples de generadores de números aleatorios

En la simulación anterior, generar 100 millones de

variables aleatorias para crear el histograma (50 millones

de variables en MATLAB antes de empezar el modelo, y

50 millones de variables en todos los intervalos de tiempo

en el modelo).

Page 58: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 207

Figura 2. Modelo en Simulink para comprobación de Teorema de Límite Central usando simulación de MonteCarlo.

El resultado de la ejecución de este modelo con n =

10.000 se muestra en la Figura 3. Tenga en cuenta que la

distribución es casi exactamente gaussiana, con media

cero y varianza como las demandas teorema de límite

central. Por lo tanto, hemos hecho un experimento

numérico en el que se ha hecho corridas múltiples de

generadores de números aleatorios, y se crea la función de

densidad de probabilidad para los resultados y se observa

que el resultado es gaussiana como predice la teoría.

Figura 3. Histograma Resultado, Ilustrando Simulación de Monte Carlo y el Teorema del Límite

Central (distribución de probabilidad)

En las situaciones donde se utiliza, las matemáticas

necesarias para desarrollarla distribución de probabilidad

son tan complejos que este método es la única manera de

lograr el entendimiento necesario.

Es importante ver cómo los parámetros se establecieron

en el cuadro de diálogo para la distribución binomial. Se

utilizó la "banda limitada White Noise", que genera una

variable aleatoria gaussiana en cada paso de tiempo, y

luego se extrajeron de esta una variable aleatoria que es

uno cuando el signo es positivo y -1 si es negativo.

Se utiliza el sgn (signo) box de la Biblioteca de

Matemáticas de Simulink. Se Añade los elementos en el

vector resultante para crear una variable aleatoria que se

encuentra entre y , por lo que se trata de una

distribución binomial. El cuadro de diálogo para la banda

limitada de bloquear el ruido blanco tiene el valor de la

semilla aleatoria establecido en

La semilla debe ser un vector de valores diferentes para

que cada uno de los n / 2 variables aleatorias generadas es

Page 59: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 208

independiente. A partir de esta discusión, usted debería

ser capaz de ver la forma de crear una simulación que

contiene variables aleatorias, ya sea usando los

generadores de números aleatorios en Simulink o

comandos usando MATLAB para generar números

aleatorios. Sin embargo, se podría pensar en el ejemplo de

que las únicas opciones para las variables aleatorias son

distribuciones uniformes o de Gauss.

Figura 4. Precios Activos en el Mercado de la Vainilla

Al realizar el experimento del método en una Cartera de

simulación (Monte Carlo) utilizando la función

herramientas financieras se llamo a la simulación de la

cartera para simular escenarios de 10000. [3].

Por supuesto, la correlación se conservan se asumió un

horizonte de 6 días hábiles * 22, es decir, seis meses de

vencimiento en el precio de la vainilla y se hizo una

predicción según la información obtenida. [4].

Aplicando el método de Montecarlo se genero el siguiente

histograma, donde observamos el precio día de la vainilla.

De igual manera se genera la apreciación para el precio

anual del mismo vista en la Figura 6.

Todo esto para generar un panorama de pronóstico de

precio en el mercado para la vainilla en un horizonte de

un año hábil.

Figura 5. Precio de la vainilla a diario con pasos de 3 meses

Page 60: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 209

Figura 6. Precio de la vainilla por año con pasos de 3 meses

Figura 7. Opción de precio de la vainilla por año con pasos de 3 meses

De igual manera el método de Montecarlo muestra su

efectividad al ser comparado con otros métodos más

elaborados [5] y poco prácticos al momento de un

entendimiento simple de las simulaciones [6] como lo

muestra la Figura 8.

Además se puede apreciar como el intervalo de

confidencia absoluta disminuye en el método de

Montecarlo simple [7] y el método de Montecarlo con

control de variable como lo muestra Figura 9.

Page 61: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 210

Figura 8. Comparación de los métodos en el problema del precio de la vainilla

Figura 9. Intervalo de confianza absoluta para los diferentes métodos

IV. CONCLUSIONES

Las funciones de densidad de probabilidad usadas para la

obtención de resultados generan resultados gaussianos

como predice la teoría. Demostrando que Matlab

reproduce exactamente el análisis de Monte Carlo se

supone que debe hacer. En las situaciones donde se

utiliza, las matemáticas necesarias para desarrollar la

distribución de probabilidad son tan complejas que este

método es la única manera de lograr el entendimiento

simple necesario para analizar los modelos desarrollados.

Para el experimento del mercado del precio vainilla se

demostró la efectividad del método en la apreciación y

pronostico de precios, además, de su versatilidad y su

eficacia contra otros métodos como lo muestran las Figura

8 y 9.

Page 62: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211 211

V. REFERENCIAS

1. Dagum, Camilo y Estela M. Bee de Dagum.

Introducción a la Econometría. México: Siglo XXI

editores, 2008.

2. Grinstead, Charles M. y J. Laurie Snell. «Central

Limit Theorem.» Grinstead, Charles M. y J. Laurie

Snell. Introduction to Probability. AMS, 1997. 325-

360.

3. http://www.bolsa.es/. http://www.bolsa.es/. 12 de 11

de 2010. 03 de 02 de 2011 <http://www.bolsa.es/>.

4. Landro, Alberto. Elementos de Econometría de los

Fenómenos Dinámicos. Buenos Aires: Ediciones

Cooperativas, 2009.

5. Peña Sánchez de Rivera, Daniel. Fundamentos de

Estadística . Alianza Editorial, 2008.

6. Ricardo Vicente Solé, Susanna C. Manrubia. Orden y

caos en sistemas complejos: fundamentos. Edicions

UPC, 2001.

7. Ropero Moriones, Eva. Manual de estadística

empresarial . Delta Publicaciones, 2009.

Page 63: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012

Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 212

NOTA TÉCNICA

ENTORNO DE SIMULACIÓN PARA SISTEMAS DE

COMUNICACIONES INALÁMBRICOS DE ALTA CAPACIDAD

USANDO MATLAB

Candotti, Keila M1 Mavares, Dimas T

2.

(Recibido diciembre 2011, Aceptado mayo 2012) 1 Dpto. de Ingeniería de Ingeniería Electrónica. UNEXPO Vicerrectorado Barquisimeto

2 Egresada de la Maestría en Ingeniería Electrónica, UNEXPO

[email protected], [email protected]

Resumen: En este artículo, se presenta un entorno de simulación desarrollado para un sistema MIMO

multiportadora y de portadora única. El entorno permite simular el proceso de banda base de sistemas que

involucren técnicas de acceso a la capa física tales como CDMA, OFDMA y técnicas de diversidad en transmisión

como OSTBC y V-BLAST. Es posible incluir distintas técnicas de modulación, codificación de canal,

multicanalización y técnicas de acceso múltiple. Mediante la interfaz de usuario del programa, se puede observar

gráficamente el rendimiento del sistema a través de la curva de la tasa de bits errados (BER) en relación a la

energía de bit por densidad de ruido (Eb/No). Como medio de validación de la herramienta, se compararon las

simulaciones con resultados publicados en la literatura para SC-CDMA, sistemas de multiplexación espacial y

sistemas OFDM, encontrando buena correspondencia.

Palabras clave: Sistemas de Comunicaciones/ MIMO/ OFDM/ CDMA/ Simulación de Sistemas de

Comunicaciones.

SIMULATION ENVIRONMENT FOR HIGH CAPACITY

WIRELESS COMUNICATION SYSTEMS USING MATLAB

Abstract: In this paper, a simulation environment for multicarrier and single carrier MIMO systems is presented.

The environment allows simulating the baseband stage of systems involving physical layer access techniques, such

as CDMA and OFDMA, and transmitting diversity techniques, such as OSTBC and V-BLAST. It is possible to

include different modulation techniques, as well as channel coding, multiplexing and multiple access techniques.

Through the GUI, graphical results are shown in terms of bit error rate (BER) against bit energy per noise (Eb/No).

As validation of the tool, simulations were compared with results available in the literature for SC-CDMA, spatial

multiplexing, and OFDM systems, finding a good correspondence.

Keywords: Communication Systems/ MIMO/ OFDM/ CDMA/ Simulation of Communication Systems.

I. INTRODUCCIÓN

Los sistemas de comunicaciones inalámbricos tienen

características particulares dependiendo de la técnica de

acceso que usen, el ancho de banda, la frecuencia de

operación y el uso o no de diversidad, entre otros

aspectos. En el caso particular de las comunicaciones

inalámbricas, tanto los sistemas de 3G (tercera

generación) como los de 4G (cuarta generación), son

exigentes en cuanto a satisfacer los requerimientos de alto

volumen de información. Para lograr este objetivo, es

imprescindible aprovechar los recursos de tiempo y ancho

de banda. Las técnicas de acceso al medio, de

multiplexación espacial y de múltiples entradas y salidas

(MIMO) a través del uso de múltiples antenas en

transmisión y en recepción, juegan un papel fundamental

en alcanzar las capacidades requeridas por los sistemas

4G.

La simulación de sistemas es una importante herramienta

utilizada para la caracterización y análisis de los procesos

en diferentes disciplinas de la ingeniería. Esta estrategia

permite hacer investigación con relativamente pocos

equipos y materiales, además le brinda la oportunidad al

investigador de alcanzar un alto nivel de comprensión

acerca del sistema simulado. Con respecto a los sistemas

de comunicaciones, permanentemente se desarrollan

nuevos entornos de simulación [1][2][3]. En el contexto

de los sistemas de comunicaciones inalámbricas, la

complejidad de las técnicas de acceso como CDMA

(acceso múltiple por división de código) requiere disponer

de herramientas que simulen su comportamiento, como en

[4], en donde se presenta un simulador que implementa

Page 64: Volumen 16, Numero 64

Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 213

diversos tipos de modulación para diferentes sistemas

CDMA, utilizando códigos de esparcimiento como

ortogonales. Por otra parte, el uso de múltiples antenas

transmisoras y receptoras ofrece la posibilidad de obtener

altas tasas de transmisión con respecto a un sistema de

antena única. En este contexto, en [5] se simula el

rendimiento de la técnica de multiplexación espacial V-

BLAST (espacio tiempo de capas verticales de la Bell

Labs) a través del algoritmo descrito en [6], para ocho

antenas transmisoras y doce antenas receptoras logrando

mejorar la eficiencia espectral del sistema.

Para lograr el uso eficiente del espectro en las redes

inalámbricas 4G, los sistemas OFDM (multiplexación

por división ortogonal de frecuencia) se plantean como la

principal alternativa para dar soporte a este tipo de

sistemas. Esta tecnología permite la transmisión de datos

en subportadoras a diferentes frecuencias, así como la

cancelación de la ISI (interferencia entre símbolos) con la

adición del CP (prefijo cíclico). En [7] se presenta la

simulación de un sistema OFDM bajo el estándar IEEE

802.16, implementando Matlab®. Se utiliza inserción de

pilotos, inserción de guardas y la adición de prefijo

cíclico, se modela la fuente de datos, el

modulador/transmisor OFDM, el canal multitrayecto, el

demodulador/receptor OFDM y se realiza la medición de

la BER.

En el contexto de los sistemas de comunicaciones,

algunos componentes se pueden simular utilizando el

toolbox de comunicaciones de Matlab®. Sin embargo,

para considerar sistemas más complejos, se requiere la

programación de otras funciones adicionales. En este

trabajo se presenta un entorno de simulación bajo

Matlab® para sistemas OFDM, sistemas CDMA, sistemas

con multiplexación espacial V-BLAST y sistemas MIMO

usando OSTBC (código ortogonales espacio-tiempo por

bloques). La herramienta permite la simulación del

proceso de banda base utilizando distintas técnicas de

modulación, codificación de canal, multicanalización y

acceso múltiple. Desde la interfaz de usuario o desde el

command window de Matlab® se puede observar

gráficamente como es el rendimiento de determinado

sistema a través de la curva de la BER en relación a

Eb/No.

El presente artículo se organiza como sigue. En la

siguiente sección se presenta el desarrollo del trabajo, el

cual se divide en apartados. En el apartado 1 se describen

las tecnologías implementadas en la simulación. En el

apartado 2, se establece la metodología a seguir para

realizar las simulaciones, dentro de la misma se definen

los sistemas a estudiar. En el apartado 3 se presenta el

resultado de las simulaciones a través de las curvas de la

BER respecto a Eb/No para los diferentes sistemas.

Finalmente, en la sección III se presentan las

conclusiones.

II. DESARROLLO

1. Aspectos Teóricos

1.1. Acceso Múltiple por División de Código:

La técnica CDMA es una tecnología digital de

transmisión que permite a un número de usuarios acceder

a un canal de radiofrecuencia, asignando un código

diferente a cada usuario. La capacidad del sistema

dependerá de muchos factores. Cada dispositivo que

utiliza CDMA está programado con un pseudocódigo, el

cual se usa para extender una señal de baja potencia sobre

un espectro de frecuencias amplio. La estación base

utiliza el mismo código para desensanchar y reconstruir la

señal original. Los códigos asociados a otros usuarios

permanecen extendidos, indistinguibles del ruido de

fondo.

Dentro de la tecnología CDMA, existen dos familias de

códigos ampliamente empleadas, los códigos PN

(pseudoaleatorios) y los códigos ortogonales. Los códigos

PN son secuencias pseudoaleatorias generadas por un

registro de desplazamiento realimentado. Los más

utilizados se generan a través de un registro de

desplazamiento de línea. Las secuencias Walsh son los

códigos ortogonales más comúnmente utilizados para el

ensanchamiento del espectro y para la separación de

canales o de usuarios en sistemas W-CDMA [8].

1.2. Multiplexión Ortogonal por División de

Frecuencias

OFDM es una técnica que consiste en enviar la

información modulada sobre un conjunto de portadoras de

diferentes frecuencias. Normalmente se realiza el

procesamiento correspondiente a OFDM tras pasar la

señal por un codificador de canal con el objetivo de

corregir los errores producidos en la transmisión. Debido

al problema técnico que supone la generación y la

detección en tiempo continuo de los cientos de

portadoras equiespaciadas que forman una palabra

OFDM, los procesos de modulación y demodulación se

realizan en tiempo discreto mediante la IDFT

(Transformada Inversa de Fourier Discreta) y la DFT

(Transformada de Fourier Discreta) respectivamente.

En OFDM, la data se distribuye sobre un generalmente

largo número de portadoras que son espaciadas en

determinados rangos de frecuencias. Este espaciado

provee la ortogonalidad en esta técnica, al permitir la

recepción de cada subportadora sin interferencia por parte

de las restantes subportadoras. En la Figura 1 se muestra

un diagrama de bloques de un sistema OFDM. En el

transmisor, la señal es definida en el dominio de la

frecuencia. Cada portadora OFDM corresponde a un

elemento del espectro de la transformada de Fourier.

Page 65: Volumen 16, Numero 64

Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 214

Figura 1. Diagrama esquemático de un sistema OFDM.

Con el objetivo de evitar la interferencia íntersimbólica

causada por la dispersión de retardo del canal

multitrayecto, se introduce un intervalo de guarda. En el

receptor se utiliza un ecualizador para corregir las

variaciones de amplitud y fase introducida por el canal.

El intervalo de guarda puede consistir de información

nula, es decir, de ausencia de señal. En ese caso, sin

embargo, es posible que se genere el problema de una

interferencia entre portadoras (ICI). La ICI es un tipo de

interferencia generada por una subportadora sobre alguna

otra subportadora. En presencia de ICI, la señal OFDM

puede perder la ortogonalidad entre subportadoras. Para

evitar tanto la ICI como la ISI, el intervalo de guarda se

obtiene extendiendo cíclicamente la palabra OFDM en el

periodo de guarda [9].

1.3. Multiplexación espacial

Foschini et. al. [6] propusieron el uso del multiplexación

espacial mediante la arquitectura espacio-tiempo por

capas de la Bell Labs (BLAST) para explotar los sistemas

de múltiples antenas. El objetivo de la técnica de

multiplexación espacial, a diferencia de la codificación

espacio-temporal, es maximizar la tasa de transmisión, es

decir, la eficiencia espectral. En esta técnica se transmiten

flujos de información independientes por cada antena,

ocupando todos ellos el mismo ancho de banda y el

mismo “slot” temporal. Gracias a la decorrelación entre

canales producida por el multicamino y al conocimiento

del canal en el receptor, es posible separar los distintos

flujos de información. Así en un sistema M×N, M

símbolos independientes se transmiten simultáneamente

en un periodo de símbolo, luego la tasa del código para

una longitud de trama unitaria es M.

2. Materiales y Métodos:

Como primer paso del procedimiento establecido, se

realizó una revisión del toolbox de comunicaciones de

Matlab®. Como resultado, se obtuvo un listado de

funciones ya disponibles utilizables en el proyecto, como

por ejemplo:

- randint: generación de números aleatorios.

- normrnd: genera vectores o matrices con una

distribución normal.

- convenc: código convolucional.

- poly2trellis: genera la estructura trellis a partir del

polinomio generador que utiliza la función convenc para

codificar.

A continuación, se definieron los sistemas a simular con

sus respectivos diagramas de bloques y de flujo: SISO

(única entrada – única salida) de portadora única, SISO-

OFDM, MIMO-OFDM con códigos ortogonales espacio-

tiempo (OSTBC) y espacio-frecuencia (OSFBC), SISO-

CDMA y V-BLAST. Se construyó el código de los

programas necesarios para cada bloque de los sistemas

mencionados. Para la simulación del canal radio, se

construyó una función en lenguaje C como un archivo

ejecutable de Matlab® para obtener la convolución de la

señal transmitida con la respuesta impulsiva del canal

multitrayecto variante en el tiempo. Posteriormente, se

diseñó una interfaz de usuario que permite ejecutar el

programa de una forma amigable.

3. Resultados y discusión

El entorno de simulación aquí presentado permite estudiar

sistemas SISO de portadora única, SISO-OFDM, SISO-

CDMA, V-BLAST y MIMO-OFDM con OSTBC y

OSFBC, donde se implementó específicamente el código

de Alamouti y el código ortogonal esporádico de tasa ¾

para cuatro antenas transmisoras [10]. En cada uno de

estos sistemas, se puede utilizar cualquiera de los

siguientes sistemas de modulación: BPSK, QPSK, 8PSK,

16PSK, 16QAM y 64QAM. Como sistema de

codificación de canal se puede incluir codificación

convolucional. Como canal radio se consideran canales

multitrayecto definidos en la literatura, o con perfil

potencia – retardo (PDP) definido por el usuario, con la

sola limitación de que la estadística de cada multitrayecto

obedezca a la distribución de Rayleigh. El ruido aditivo se

tomó como blanco. En general, los resultados son

presentados a través de curvas de la BER en función de

X0,1

X1,1

.

.

.

.

XN-1,1

CP D/A

I

D

F

T

M

U

X

.

.

.

.

.

.

g(;t) A/D + CP

D

E

M

U

X

D

F

T

.

.

.

.

.

.

y0,1

y1,1

.

.

.

.

yN-1,1

ñ(t)

S[k] S(t) r(t) r[k]

TRANSMISOR RECEPTOR CANAL

Page 66: Volumen 16, Numero 64

Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 215

Eb/No, pero es posible utilizar las funciones del entorno

para considerar otras figuras de mérito. Adicionalmente,

se incluye una rutina asistente al diseño de un sistema

OFDM.

A continuación, se presentan los resultados de algunas

simulaciones realizadas con el entorno de simulación. El

objetivo de esta exposición es la de mostrar algunas de las

capacidades y la versatilidad del entorno construido. En la

Figura 2 se muestran los resultados de la simulación para

un sistema SISO-OFDM sin entrelazado y un sistema

SISO-OFDM con entrelazado. Se observa un mejor

rendimiento del sistema cuando se utiliza el entrelazado,

notando una disminución de la BER. La simulación se ha

realizado con un canal correlado (utilizando un filtro

Doppler) con una profundidad del desvanecimiento

medida en número de muestras del canal (100 muestras

para un intercalado de 100 bits). La profundidad del

entrelazado se calcula como el producto de la profundidad

del desvanecimiento y el número de bits por símbolo. En

este caso, el número de bits por símbolo es igual a uno

para modulación BPSK.

Figura 2. Rendimiento de un Sistema SISO-OFDM sin entrelazado y un SISO-OFDM con entrelazado.

La implementación de códigos de bloque ortogonales en

Matlab se realizó tanto con OSTBC como con OSFBC.

En caso de utilizarse dos antenas transmisoras con el

código espacio-tiempo de Alamouti, se transmiten dos

señales simultáneas desde dos antenas en un periodo de

símbolo, en el siguiente periodo de símbolo se transmite

las mismas dos señales pero codificadas. La codificación

también se puede hacer en espacio-frecuencia pero en

lugar de dos periodos de símbolos adyacentes se usarían

dos subportadoras adyacentes [11]. En la codificación

espacio-tiempo, el canal se mantiene constante durante

dos intervalos de tiempo, mientras que en la codificación

espacio frecuencia, el canal es constante en dos

subportadoras sucesivas. En la figura 3 se muestran los

resultados de la simulación para ambos sistemas usando el

código de Alamouti. Se observa la misma curva de la

BER respecto a Eb/No para ambos tipo de codificación

ortogonal en presencia de un canal plano.

En la Figura 4 se muestra el rendimiento de un sistema

SISO-OFDM para diferentes longitudes del prefijo

cíclico, un sistema CDMA utilizando un receptor RAKE

con códigos PN u ortogonales, y un sistema V-BLAST

con detección a través de cancelación sucesiva de

interferencias con forzado a cero. El canal utilizado para

la simulación presentada en esta figura fue un SUI tipo IV

de [12] con un τrms (dispersión de retardo) de 1257 ns,

típico de ambientes externos. En el caso de los sistemas

OFDM, se puede observar que la BER aumenta al reducir

la longitud del CP, debido a la introducción de ISI. Se

muestran también resultados relativos a un sistema SISO-

CDMA utilizando códigos de esparcimiento ortogonales o

pseudoleatorios, así como un receptor RAKE, en

presencia de ocho usuarios. Se puede observar la

variación del rendimiento al utilizar diferentes tipos de

códigos de esparcimiento. Adicionalmente, se pueden

observar resultados relativos a un sistema V-BLAST con

dos antenas transmisoras y cuatro antenas receptoras.

Page 67: Volumen 16, Numero 64

Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 216

Figura 4. Rendimiento de diferentes tipos de sistemas.

III. CONCLUSIONES

1. Se construyó un entorno de simulación para sistemas

de comunicaciones inalámbricos, multiportadora o

de portadora única, con una o más antenas

transmisoras o receptoras, el cual permite simular

técnicas de modulación, de acceso y de diversidad

ampliamente utilizadas en la actualidad.

2. Utilizando esta herramienta, es posible simular

sistemas SISO de portadora única, SISO-CDMA,

SISO-OFDM, MIMO-OFDM y V-BLAST, tomando

como figura de mérito la tasa de bits errados.

3. El entorno de simulación se desarrolló bajo Matlab®

y puede ser utilizado en forma de comandos desde la

línea de comandos de Matlab® o desde una interfaz

Figura 3. Rendimiento de sistemas MISO y MIMO con OSTBC y OSFBC Alamouti

Page 68: Volumen 16, Numero 64

Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217 217

de usuario.

IV. REFERENCIAS

1. Tsirakakis, G. and Clarkson, T. Simulation tools for

multilayer fault restoration. IEEE

Communications Magazine, vol 47, issue 3, pp. 128-

134. March 2009.

2. Gao Y., Zhang X., Dacheng Y. and Jiang Y. Unified

simulation evaluation for mobile broadband

technologies. IEEE Communications Magazine, vol

47, issue 3, pp. 142-149. March 2009.

3. Kasch, W., Ward, J. and Andrusenko, J.

Wireless network modeling and simulation

tools for designers and developers. IEEE

Communications Magazine, vol 47, issue 3, pp. 120-

127. March 2009.

4. Barbancho, P. A. y Entrambasaguas, M. J.

Simulador CDMA para comunicaciones móviles.

Trabajo de Grado de Ingeniería. Universidad de

Málaga. Ingeniería de Telecomunicación. España.

2000.

5. Yapici, Y. V-BLAST/MAP: A new symbol

detection algorithm for MIMO channels. Master

Thesis. Institute of Engineering and Science of

Bilkent University. Turkey. 2005.

6. Wolniansky, P. y Foschini, G.V-BLAST: An

architecture for realizing very high data rates

over the rich-scattering wireless channel. Bell

Lab. Tech. J.,vol. 1,N. 2, pp. 41-59, 1996.

7. Hasan, M. Performance evaluation of

WIMAX/IEEE 802.16 OFDM physical layer.

Master Thesis. Helsinki University of Technology.

Espoo. Finland. 2007.

8. Molisch, F. A. Wireless Communications. Editorial

John Wiley & Sons. Inglaterra 2006.

9. Van, N. R. y Prasad, R. OFDM for Wireless

Multimedia Communications. Artech House

Editorial. Boston. 2000.

10. Tarokh V., Jafarkhani H., and Calderbank A. Space-

time block coding for wireless communications:

performance results. IEEE Journal on Selected

Areas in Communications, vol. 17, pp. 451–460,

Mar. 1999.

11. Mavares, D., and Torres, R. Space-time code

selection for transmit antenna diversity systems. IEEE Transactions on Vehicular Technology, vol.

57, no1, Jan 2008. pp. 620-629.

12. Hari. K. Interim channel models for G2 MMDS

fixed wireless applications. IEEE 802.16 working

group meeting, Tampa Fl, Nov 2000.

Page 69: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 218

NORMAS DE PUBLICACIÓN

“Universidad, Ciencia y Tecnología” (UCT), es una

publicación, indizada y arbitrada, que se edita en cuatro

números anuales que constituyen un volumen, siendo

marzo, junio, septiembre y diciembre los meses de

publicación. La revista está destinada a dar a conocer,

dentro y fuera del país, las realizaciones científicas y

tecnológicas de la UNEXPO, así como las que se realicen

en otras universidades y centros de investigación

industrial en el país y en el exterior, en las especialidades

de Ingeniería Eléctrica, Ingeniería Electrónica, Ingeniería

Metalúrgica, Ingeniería Mecánica, Ingeniería Industrial,

Bioingeniería, Ambiente, Ciencias de la Ingeniería,

Mecatrónica, Telecomunicaciones, Rural, Ferroviaria,

Energética e Hidráulica y áreas conexas.

1. Condiciones Generales

Las contribuciones técnicas que se publiquen deberán

estar enmarcadas en los requisitos fijados por la presente

norma y aceptadas por el Comité Editorial.

Los trabajos publicados en UCT son de su propiedad, con

las excepciones que se estipulan en el Convenio de

Publicación y no podrán ser reproducidos por ningún

medio sin la autorización escrita del Editor.

Los autores deberán indicar nombre y apellido, título

académico, lugar de trabajo, cargo que desempeñan y

dirección completa, incluyendo teléfono, fax y correo

electrónico.

2. Contribuciones

El Comité Editorial acepta seis tipos de contribuciones

para publicación: Artículos Técnicos, Artículos de

Ingeniería Aplicada, Comunicaciones, Revisiones, Notas

Técnicas y Cartas al Editor

2.1. Artículos Técnicos

Son aquellas contribuciones que además de informar

novedades y adelantos en las especialidades que abarca

UCT, son el resultado de un trabajo de investigación, bien

sea bibliográfico o experimental, en el que se han

obtenido resultados, se discutieron y se llegaron a

conclusiones que signifiquen un aporte innovativo en

Ciencia y Tecnología.

2.2. Artículos de Ingeniería Aplicada

Son el resultado de trabajos de grado (Especialización,

Maestría y Doctorado) o de investigación en el ámbito

universitario e industrial, bien sea experimental y/o no

experimental, que signifiquen un aporte tecnológico para

la resolución de problemas específicos en el sector

industrial.

2.3. Comunicaciones

Son reportes de resultados originales de investigaciones

de cualquier campo de las ciencias básicas o aplicadas,

dirigidas a una audiencia especializada. Podrán ser hasta

de ocho (8) páginas.

2.4. Revisiones

Son artículos solicitados por invitación del Comité

Editorial y comentan la literatura más reciente sobre un

tema especializado

2.5. Notas Técnicas

Son aquellas contribuciones producto de investigaciones

destinadas a informar novedades y/o adelantos en las

especialidades que abarca UCT. Podrán presentarse en

una extensión máxima de diez (10) páginas, incluyendo

un máximo de 10 figuras y tablas, las que deberán

cumplir las condiciones que para ellas se establece en el

ítem 5.

2.6. Cartas al Editor

Son aquellas que reportan una idea sin entrar en detalles.

El Comité Editorial se reserva el derecho de seleccionar

los Artículos Técnicos y los Artículos de Ingeniería

Aplicada consignados para publicación, después de

consultar por lo menos a dos árbitros.

Los artículos remitidos para su publicación tienen que ser

inéditos. No serán aceptados aquellos que contengan

material que haya sido reportado en otras publicaciones o

que hubieran sido ofrecidos por el autor o los autores a

otros órganos de difusión nacional o internacional para su

publicación.

3. Presentación

Todas las contribuciones deberán prepararse en

procesador de palabras Microsoft Office Word® tipeadas

a una sola columna, a espacio sencillo, en papel tamaño

carta, tipo de letra Times New Roman, tamaño 10,

justificado, con un espaciado (6 puntos) entre párrafos, sin

sangría y con márgenes de por lo menos 2,5 cm.

Anexando su versión digital.

Los Artículos Técnicos y los de Ingeniería Aplicada

deberán tener una extensión máxima de 15 páginas,

incluyendo un máximo de 10 ilustraciones (figuras +

tablas) (Ver ítem 5)

4. Composición

Los Artículos Técnicos y de Ingeniería Aplicada deberán

ordenarse en las siguientes secciones: Título en español,

Nombre completo de los autores, Resumen en castellano y

palabras clave, Titulo en inglés, Resumen en inglés

(Abstract) y “Key words”, Introducción, Desarrollo,

Conclusiones, Referencias Bibliográficas.

a) Título en español. Debe ser breve, preciso y

codificable, sin abreviaturas, paréntesis, fórmulas ni

caracteres desconocidos, que contenga la menor cantidad

de palabras que expresen el tema que trata el artículo y

pueda ser registrado en índices internacionales. El autor

deberá indicar también un título más breve para ser

Page 70: Volumen 16, Numero 64

UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 219

utilizado como encabezamiento de cada página.

b) Nombre completo de los autores. Además de indicar

nombre y apellido de los autores, en página aparte se

citará título académico, lugar de trabajo, cargo y dirección

completa, incluyendo teléfono, fax y correo electrónico.

c) Resumen en castellano y palabras clave, señalando

en forma concisa los Objetivos, Metodología, Resultados

y Conclusiones más relevantes del estudio, con una

extensión máxima de 200 palabras. No debe contener

abreviaturas ni referencias bibliográficas y su contenido

se debe poder entender sin tener que recurrir al texto,

tablas y figuras. Al final del resumen incluir de 3 a 10

palabras clave que describan el tema del trabajo, con el fin

de facilitar la inclusión en los índices internacionales.

d) Título, Resumen y Palabras clave en inglés

(Abstract y key words). Es la versión en inglés de Título,

Resumen y Palabras Clave en castellano.

e) INTRODUCCIÓN. En ella se expone en forma

concisa el problema, el objetivo del trabajo y se resume el

fundamento del estudio y la metodología utilizada. Se

debe hacer mención además al contenido del Desarrollo

del artículo.

f) DESARROLLO. Se presenta en diversos capítulos.

Métodos y Materiales: donde se describe el diseño

de la investigación y se explica cómo se llevó a la

práctica, las especificaciones técnicas de los

materiales, cantidades y métodos de preparación.

Resultados: donde se presenta la información y/o

producto pertinente a los objetivos del estudio y los

hallazgos en secuencia lógica

Discusión de resultados: donde se examinan e

interpretan los resultados y se sacan las conclusiones

derivadas de esos resultados con los respectivos

argumentos que las sustentan.

g) CONCLUSIONES. En este capítulo se resume, sin los

argumentos que las soportan, las conclusiones extraídas

en la Discusión de los Resultados, expresadas en frases

cortas, sucintas.

h) REFERENCIAS BIBLIOGRÁFICAS (o

simplemente REFERENCIAS). Debe evitarse toda

referencia a comunicaciones y documentos privados de

difusión limitada, no universalmente accesibles. Las

referencias deben ser citadas y numeradas

secuencialmente en el texto con números arábigos entre

corchetes. (Sistema Orden de Citación) Al final del

artículo se indicarán las fuentes, como se expresa a

continuación, en el mismo orden en que fueron citadas en

el texto, según se trate de:

Libros: Autor (es) (apellido e iniciales de los nombres),

título del libro, número de tomo o volumen (si hubiera

más de uno), número de edición (2da en adelante), lugar

de edición (ciudad), nombre de la editorial, año de

publicación, número(s) de página(s).

Artículos de revistas: Autor(es) del artículo (apellido e

iniciales de los nombres), título del artículo, nombre de la

revista, número del volumen, número del ejemplar, fecha

de publicación, número(s) de página(s).

Trabajos presentados en eventos: Autor(es), (apellido e

iniciales de los nombres), título del trabajo, nombre del

evento, organizador del evento, lugar, fecha, número(s) de

página(s).

Publicaciones en medios electrónicos: si se trata de

Información consultada en Internet, se consignarán todos

los datos como se indica para libros, artículos de revista y

trabajos presentados en eventos, agregando página Web y

fecha de consulta; si se trata de otros medios electrónicos,

se indicarán los datos que faciliten la localización de la

publicación.

En cualquiera de los casos, si los autores fueran más de

tres, citar solamente al primero y añadir a continuación “et

al”.

5. Ilustraciones. Incluir en el texto un máximo de 10

(diez) ilustraciones (Figuras + Tablas)

5.1. Figuras

Todos los gráficos, dibujos, fotografías, esquemas

deberán ser llamados figuras, numerados con números

arábigos en orden correlativo, con la leyenda explicativa

que no se limite a un título o a una referencia del texto en

la parte inferior y ubicadas inmediatamente después del

párrafo en que se citan en el texto.

Las figuras deben ser en original, elaboradas por los

autores. No se aceptan figuras escaneadas. Las fotografías

deben ser nítidas y bien contrastadas, sin zonas demasiado

oscuras o extremadamente claras.

5.2. Tablas

Las tablas deberán numerarse con números romanos y

leyendas en la parte superior y ubicarse también

inmediatamente después del párrafo en que se citan en el

texto. Igual que para las figuras, las leyendas deberán ser

explicativas y no limitarse a un título o a una referencia

del texto.

6. Unidades

Se recomienda usar las unidades del Sistema Métrico

Decimal. Si hubiera necesidad de usar unidades del

sistema anglosajón (pulgadas, libras, etc.), se deberán

indicar las equivalencias con el Sistema Métrico Decimal.

7. Siglas y abreviaturas

Si se emplean siglas y abreviaturas poco conocidas, se

indicará su significado la primera vez que se mencionen

en el texto y en las demás menciones bastará con la sigla o

la abreviatura.

8. Fórmulas y Ecuaciones

Los artículos que contengan ecuaciones y fórmulas en

caracteres arábigos deberán ser generadas por editores de

ecuaciones actualizados con numeración a la derecha.