CALIDAD Y TRANSPARENCIA DE LAS ENCUESTAS ELECTORALES … · Palabras clave: encuestas electorales,...
Transcript of CALIDAD Y TRANSPARENCIA DE LAS ENCUESTAS ELECTORALES … · Palabras clave: encuestas electorales,...
CALIDAD Y TRANSPARENCIA DE LAS ENCUESTAS
ELECTORALES EN ESPAÑA
Manuel Trujillo Carmona ([email protected]) y Sara Pasadas del Amo ([email protected]).
Instituto de Estudios Sociales Avanzados (IESA-CSIC)
Resumen
En las épocas preelectorales nos encontramos con la realización de un gran número de encuestas. Este año este número se ha disparado, pudiendo
contar encuestas de hasta 20 empresas distintas, la mayoría de ellas habiendo hecho repetidas encuestas en los últimos meses. El interés por las
encuestas es indudable, y además en esta legislatura ha sido incuestionable su influencia, teniendo mucho que ver con el surgimiento y
consolidación de dos fuerzas políticas como Ciudadanos y Podemos. Pero a la vez también ha habido muchas voces que han puesto en duda la
calidad de las estimaciones realizadas, e incluso su intencionalidad.
En España no tenemos una regulación muy específica sobre cómo debe ser la realización y publicación de encuestas, algo que se echa en falta
siendo un asunto de tanta influencia sobre la opinión pública. Pero las encuestas realizadas en período de elecciones sí que tienen una normativa,
que parece ser que es bastante desconocida:
La Ley Orgánica 5/1985, del Régimen Electoral General, en su artículo 69 regula la publicación de encuestas electorales desde el día de la
convocatoria, siendo muy conocida la prohibición de realizar sondeos en los últimos 5 días antes de las elecciones, pero también especifica unos
contenidos que deben acompañar acompañar a la publicación, sobre el organismo que encarga y ejecuta, las características de la muestra, y el
cuestionario. Estos contenidos casi nunca se publican, incumpliéndose la ley.
Pero la discusión sobre la calidad y la posible manipulación de las encuestas puede ir mucho más allá. Para ser verdaderamente creíbles deberían
publicar el proceso seguido para realizar las estimaciones de voto –y esta crítica también se puede extender al CIS-. O al menos deberían dar las
variables que de forma más importante intervienen en esta estimación, como pueden ser el voto directo, la simpatía y el recuerdo de voto.
Parece que, en el mejor de los casos, nos tenemos que conformar con el tamaño muestral para saber la calidad de la encuesta, cuando ese es un
dato que puede llegar a ser secundario, habría que pedir datos como la tasa de cobertura del marco utilizado, o las tasas de contacto y de rechazo.
En esta comunicación analizaremos hasta qué punto se cumple la normativa especificada por la ley y en qué medida con la información
publicada se puede conocer la calidad de las encuestas.
Palabras clave: encuestas electorales, ficha técnica, metodología, voto, estimación
Calidad y transparencia de las encuestas electorales en España
1. Introducción
En las épocas preelectorales nos encontramos con la realización de un gran número de encuestas. En las elecciones generales del año 2015 este
número se ha disparado, pudiendo contar encuestas de hasta 20 empresas distintas, la mayoría de ellas habiendo hecho repetidas encuestas en los
últimos meses.
En España no tenemos una regulación muy específica sobre cómo debe ser la realización y publicación de encuestas, algo que se echa en falta
siendo un asunto de tanta influencia sobre la opinión pública. Pero las encuestas realizadas en período de elecciones sí que tienen una normativa,
que parece ser que es bastante desconocida. En esta regulación se establecen una serie de condiciones para la publicación de encuestas en este
periodo y se encarga a la Junta Electoral Central de velar porque se cumplan esas condiciones y porque las encuestas publicadas sean auténticas.
A día de hoy es dudoso que las encuestas publicadas estén cumpliendo las condiciones de transparencia que impone la ley, pero además estas
condiciones son claramente insuficientes para que se pueda garantizar la calidad de las encuestas y la objetividad frente a posibles
manipulaciones. Estamos en la era de la información, y si antes los periódicos eran los que publicaban las encuestas, y tenían una importante
limitación de espacio que hacía que las fichas técnicas tuvieran que ser muy reducidas, hoy se pueden acompañar de páginas web donde se puede
incluir toda la información necesaria.
2. Regulación
En el año 1985 se promulgó la Ley Orgánica 5/85, del Régimen Electoral General, heredera en la regulación de las encuestas de la Ley 14/80
sobre régimen de encuestas electorales. La aparición de esa ley de 1980 se explica por la aparición antes de las elecciones de 1979 de una
avalancha de sondeos electorales, muchos de ellos realizados sin ningún rigor metodológico (Gálvez, 2000). Esta situación, junto con la
evidencia de que los sondeos habían podido tener alguna influencia en el resultado de las elecciones, hizo que se planteara la necesidad de una
regulación.
Creemos que ya nadie puede poner en duda la influencia de los sondeos en el resultado de las elecciones. Aunque son muchos los efectos que
puede haber, es indudable que el crecimiento en los últimos tiempos de algunos partidos y el hundimiento de otros está directamente relacionado
con las expectativas creadas por las encuestas. Igualmente, el voto útil o estratégico, muy relevante en sistemas electorales como el que regula
nuestras elecciones generales, con algunas circunscripciones pequeñas, es claramente guiado por las encuestas. Por ello, hoy como hace 35 años,
es sumamente importante que las encuestas publicadas tengan ese rigor metodológico y esa transparencia, teniendo en cuenta también que
tenemos y vamos a tener una nueva avalancha de encuestas, probablemente tendiendo cada vez más a metodologías que pueden no estar
suficientemente avaladas teóricamente. También hoy se levantan muchas voces poniendo en duda su calidad e incluso cuestionando su
intencionalidad.
La Ley Orgánica 5/1985, del Régimen Electoral General, en su artículo 69 regula la publicación de encuestas electorales desde el día de la
convocatoria, siendo muy conocida la prohibición de realizar sondeos en los últimos 5 días antes de las elecciones, especificando que cualquier
encuesta publicada debe acompañarse de:
a) Denominación y domicilio del organismo o entidad, pública o privada o de la persona física que haya realizado el sondeo, así como de la que
haya encargado su realización.
b) Características técnicas del sondeo, que incluyan necesariamente los siguientes extremos: sistema de muestreo, tamaño de la muestra, margen
de error de la misma, nivel de representatividad, procedimiento de selección de los encuestados y fecha de realización del trabajo de campo.
c) Texto íntegro de las cuestiones planteadas y número de personas que no han contestado a cada una de ellas.
También en el apartado segundo, dice:
«La Junta Electoral Central vela porque los datos e informaciones de los sondeos publicados no contengan falsificaciones, ocultaciones o
modificaciones deliberadas, así como por el correcto cumplimiento de las especificaciones a que se refiere el párrafo anterior [la publicación de
las características técnicas del sondeo] y por el respeto a la prohibición establecida en el apartado 7 de este artículo.»
3. Metodología y encuestas analizadas
En este artículo se van a estudiar todas las encuestas publicadas en diversos medios, a cuyos resultados se ha tenido acceso en general vía
internet, desde el 27 de octubre, fecha en que se publicó en BOE la convocatoria de elecciones, hasta el límite legal para publicarlas. No
incluiremos estimaciones de resultados que sean derivados de agregaciones de encuestas o de metodologías distintas a las encuestas.
Analizaremos cual es la información que se ofrece en la misma publicación donde aparece la encuesta –sea ésta un periódico, televisión o página
web- y también qué otra información aparece en otras fuentes como blogs o webs de las empresas que las realiza.
En conjunto se han estudiado 57 encuestas, correspondientes a 20 publicaciones distintas, y 19 organismos que realizan encuestas (hay un caso
en que la misma empresa publica distintas encuestas en dos medios, con distinto formato, por lo que la hemos tratado diferenciadamente). De
ellas 50 encuestas y 16 publicaciones son de encuestas telefónicas, 3 son encuestas on-line (MyWord, Encuestamos y GIEyOP), y una es
presencial, la del CIS. Dos de ellas son de organismos públicos (el CIS y el GIPEyOP de la Universidad de Valencia) y el resto son de empresas
privadas.
En casi todas las encuestas telefónicas en que se especifica el sistema de muestreo es similar: o bien aleatorio simple o bien estratificado, con
cuotas. Hay que comentar separadamente las tres encuestas on-line, ya que cada una tiene una metodología distinta.
En el caso de Myword, utiliza el panel comercial de Nestquest, que es un panel cerrado, es decir, que solo se puede participar por invitación. En
este panel se invita a personas a colaborar, para multitud de encuestas, y se incentiva su participación. Según su web, en este momento tienen
163.000 panelistas. Dentro de este marco para cada encuesta se elige una muestra específica.
Encuestamos es un panel abierto, es decir, que cualquiera que quiera puede participar. De momento parece que se centra en cuestiones de opinión
pública. No aparece el dato de número de panelistas.
Las estimaciones del grupo de investigación en Procesos Electorales y Opinión Pública de la Universitat de València provienen de 14.005
entrevistas a personas seleccionadas por muestreo encadenado o bola de nieve (Pavía-Miralles y otros, 2015).
Tabla 1: Resumen de información aparecida en las encuestas
Med
io d
e
com
un
icac
ión
Org
anis
mo
qu
e
real
iza
la
encu
est
a
Nº
de
encu
esta
s
Do
mic
ilio
4
Sist
ema
de
mu
estr
eo
Tam
año
de
mu
estr
a
Mar
gen
de
erro
r
y n
ivel
de
rep
rese
nta
tivi
dad
Pro
ced
imie
nto
de
sele
cció
n d
e lo
s en
cue
stad
os
Fech
a d
e
real
izac
ión
Text
o ín
tegr
o d
e
las
pre
gun
tas
Nº
de
pe
rso
nas
qu
e n
o c
on
test
an
Rec
uer
do
de
voto
Dat
o b
ruto
de
inte
nci
ón
de
voto
Nº
apar
tad
os
de
la L
OR
EG q
ue
incu
mp
le
CIS CIS 1 Sí Sí Sí Sí Sí Sí Sí Sí Sí Sí 0
Eldiario.es Celeste-tel 6 Sí No Sí Sí No1
Sí No No No Sí2
4
El País Metroscopia 3 Sí Sí Sí Sí Sí Sí No No No Sí 2
El Mundo Sigma Dos 2 Sí No Sí Sí No Sí No No No No 4
Telecinco Sigma Dos 2 Sí No Sí3
Sí No Sí3
No No No No 4
La Razón NC-Report 3 Sí Sí Sí Sí Sí Sí No No No No 2
El Periódico GESOP 2 Sí No Sí Sí Sí Sí No No Sí3
Sí3 3
Simple Lógica 2 Sí Sí Sí Sí Sí Sí No No No No 2
La Sexta Invymark 3 Sí No No No No Sí No No No No 6
EsRadio/ Libertad Digital
Demoscopia y Servicios
3 No
No Sí Sí Sí Sí No Sí No Sí 3
ABC GAD3 7 Sí No Sí3
Sí3
No Sí3
No No No Sí3 3
Antena 3 TNS Demoscopia 7 Sí No Sí No5
No No5
No No No No 6
El Confidencial DYM 2 Sí No Sí Sí No Sí No No No No 4
Última Hora IBES 2 Sí No Sí Sí No Sí3
No No No Sí 4
La Voz de Galicia Sondaxe 2 Sí Sí Sí Sí Sí Sí No No No No 2
Redondo & Asociados
2 Sí No Sí Sí No Sí No No No No 4
La Provincia Hamalgama 1 Sí No Sí Sí No Sí No No No No 4
Métrica
20 Minutos A+M 1 Sí Sí Sí Sí Sí Sí No No No No 2
Cadena SER MyWord 1 Sí No Sí Sí Sí Sí No No No No 3
Encuestamos 5 Sí No Sí No1
No No1
No No No No 6
GIPEYOP 1 Sí Sí Sí No Sí Sí No No No No 3
1: En alguna encuesta se incluye una descripción más completa del sistema de muestreo en un informe en la web de la empresa 2: Voto directo + simpatía 3: En alguna encuesta no aparece 4: Aunque en realidad casi ninguna publicación incluye este dato, hemos considerado que lo cumple si se puede consultar en la web de la empresa 5: Aparece en la web de la empresa, pero no en la televisión ni en su web
4. Cumplimiento de la LOREG
Vemos en la Tabla 1 que hay distinto grado de cumplimiento de cada uno de los
requisitos que marca la LOREG.
a) Domicilio de la empresa
El apartado a), el domicilio de la empresa que encarga la encuesta y de quien lo publica,
no lo cumple casi ninguna. Esta falta puede ser menor en la mayoría de los casos, ya
que en general se trata de empresas conocidas, con su propia página web, y
normalmente es fácil obtener cuál es su domicilio. Sin embargo hay un caso, el de
Demoscopia y Servicios, que creemos que hay que destacar ya que esta empresa no
tiene página web, siendo por tanto bastante más difícil obtener su domicilio, además de
la poca tranquilidad que da una empresa que se dedica a hacer encuestas –y ofrecer
servicios de restauración, por cierto- y ni siquiera tiene página web.
b) Sistema de muestreo
Los términos de la LOREG son a veces bastante poco detallados, y así es con la
referencia al sistema de muestreo. Esto se podría dar con más o menos detalle, pero nos
hemos limitado a poner sí cuando al menos se menciona algo sobre el sistema de
muestreo. Solo en 7 de las 20 encuestas se menciona algún detalle sobre el sistema de
muestreo.
c) Tamaño de muestra
Sí está prácticamente generalizado el tamaño de la muestra, que al final se vende como
el único indicador de calidad –dado que el nivel de error va a venir directamente
determinado por el tamaño-. Las encuestas publicadas en La Sexta son las únicas en que
no aparece este detalle, ni ningún otro, careciendo totalmente de ficha técnica, lo que
incumple claramente la ley.
d) Margen de error y nivel de representatividad
En la LOREG aparece que se debe incluir margen de error y el nivel de
representatividad. Creemos que sería muy importante que se introdujeran indicadores de
representatividad, como se dirá más adelante. Pero suponemos que en este apartado
cuando se dice nivel de representatividad se refiere a nivel de confianza. En este caso
todas las encuestas publicadas por televisiones omiten este dato, aunque Antena 3 lo da
en la web de la empresa que realiza las encuestas, TNS Demoscopia. También lo omiten
las encuestas realizadas por Encuestamos y GIPEyOP. En el último caso se aduce que
por su metodología totalmente no probabilística no es posible aplicar ningún margen de
error. En el caso de Encuestamos, también con un muestreo totalmente no
probabilístico, esa razón no parece que sea esa la razón, ya que en un caso sí que lo
incluyen.
El nivel de confianza –o nivel de representatividad- aparece siempre que aparece el
margen de error, además con una unanimidad total: en todas se adopta el 95,5%
Sin embargo, el que aparezca un margen de error no significa que sea correcto. Como
dice en algunas fichas técnicas, como la del CIS, ese margen de error sería el que se
aplicarían en el supuesto de muestreo aleatorio simple. En primer lugar es dudoso que
un muestreo por cuotas pueda asimilarse a un muestreo aleatorio, pero además en
algunos casos ese muestreo no es simple, sino que hay estratificación y, al menos en el
caso del CIS, conglomerados. En muchos casos, al no aparecer el sistema de muestreo,
no lo sabemos. Creemos que al menos debería tenerse en cuenta estos factores en el
cálculo del margen de error. En casos como los paneles de las encuestas on-line,
creemos que el método de selección no es ni remotamente probabilístico, por lo que
entendemos que no debería de calcularse, y sin embargo, sí que se publica en la
encuesta de Myword y en una de las publicaciones de Encuestamos.
e) Procedimiento de selección de los encuestados
Esto también es más complejo que poner una frase, pero hemos evaluado como que se
incluye cuando se hace mención, por ejemplo a que se utilicen cuotas. Con este criterio,
10 de las 20 publicaciones incluirían este asunto, la otra mitad no hace ninguna
mención.
f) Fecha de realización del trabajo de campo
Esta información sí aparece en casi todas las publicaciones, aunque en el caso de las
encuestas de Antena 3 no aparece en la información aparecida en la televisión sino en el
blog de la empresa, y en alguna otra encuesta suelta de algunas publicaciones tampoco
aparece. No aparece tampoco en la mayoría de las actualizaciones de datos publicados
por Encuestamos, aunque sí en el informe final.
g) Texto íntegro de las preguntas
Aquí tocamos en hueso, son muy pocas las publicaciones en que aparece el texto íntegro
de las preguntas realizadas, especialmente las más interesantes aquí, las utilizadas para
determinar la intención de voto. Y ello es lógico si tenemos en cuenta, como se verá
más adelante, que casi de ninguna encuesta se publican los datos brutos, sino que solo
se publican estimaciones. Por ello en realidad ninguna encuesta, salvo la del CIS,
publica el texto íntegro de las preguntas. Por tanto, un nuevo incumplimiento flagrante y
generalizado de la LOREG.
h) Número de personas que no contestan
Por el mismo motivo que en el caso anterior, es decir, que solo se publican
estimaciones, tampoco se publica el número de personas que no contestan. Solo en el
caso de las encuestas para EsRadio y Libertad Digital, de Demoscopia y Servicios, y
por supuesto en el CIS, se publica este dato.
Por tanto, podemos concluir que, con la excepción del CIS, todas las encuestas
publicadas incumplen la LOREG, aunque con distinto grado de incumplimiento cada
una de ellas. En todos los casos, salvo el CIS, se producen al menos dos
incumplimientos, llevándose la peor nota La Sexta y Encuestamos, con 6
incumplimientos. Las más cumplidoras, con 2 faltas, serían El País, La Razón, Simple
Lógica, La Voz de Galicia y 20 Minutos.
Por apartados (tabla 2) los apartados que se incumplen por casi todos son el texto
íntegro de las preguntas y el número de personas que no contestan, y con la mitad o más
de incumplimiento el sistema de muestreo y el procedimiento de selección de los
encuestados.
La total falta de reacción de la Junta Electoral Central, tan activa en otros ámbitos, en
este asunto, viola claramente el apartado 2 del artículo.
Tabla 2: Grado de cumplimiento de cada apartado
Apartado % de medios que lo cumplen
Domicilio de la empresa 95%
Sistema de muestreo 35%
Tamaño de la muestra 95%
Margen de error y nivel de representatividad 90%
Procedimiento de selección de los encuestados 50%
Fecha de realización del trabajo de campo 95%
Texto íntegro de las preguntas 5%
Número de personas que no contestan 10%
Fuente: Elaboración propia
5. Panorama internacional sobre transparencia
Se puede decir que Estados Unidos y Gran Bretaña destacan en cuanto al nivel de
transparencia y auto-organización de las empresas que publican sondeos, estando
asociadas la mayoría al National Council o Public Polls (EEUU) y al British Polling
Council (RU). Estas asociaciones marcan unos niveles de transparencia y publicidad
mucho más altos. En concreto, el NCPP marca tres niveles de transparencia
(información obtenida de Mateos y Penadés, 2013):
Nivel 1. Las organizaciones intentarán que los medios de comunicación den cuenta de
lo siguiente: Entidad patrocinadora, fechas del trabajo de campo, tipo de muestreo,
población del estudio, tamaño de la muestra, submuestra relevante para el informe,
método de administración del cuestionario, trascripción literal y ordenada de las
preguntas sobre las que se informa, distribución de frecuencias de los datos de los que
se informa.
Nivel 2. Las organizaciones pondrán esta información a disposición de quien la solicite:
Cobertura estimada de la población, método de selección final de los entrevistados,
número de intentos por respuesta, texto de la introducción del cuestionario, trascripción
del cuestionario en cualquier idioma en el que se haya administrado, tamaño ponderado
y no ponderado de cualquier subgrupo citado en el informe del estudio, número mínimo
de respuestas para considerar la entrevista como una entrevista completada, si los
entrevistadores fueron o no remunerados, incentivos para la respuesta, ponderaciones
que se hayan utilizado para generalizar los resultados de la muestra a la población,
información adecuada para el cómputo de los contactos y las tasas de cooperación y de
respuesta.
Nivel 3. Se recomienda muy fuertemente a las organizaciones lo siguiente: Distribuir la
matriz de datos anonimizados (en formato ASCII, CSV o similar) de cualquier sondeo
que se publique. Exponer en una página Web por un mínimo de dos semanas la relación
completa de las preguntas y los marginales de respuesta. Dar publicidad a la adhesión a
las reglas del APC
Se puede ver que las recomendaciones de nivel 1 son más o menos las mismas que
marca la LOREG (y que de hecho no se cumplen en España), mientras que las de nivel
2 introducen elementos que serían muy valiosos para poder determinar la calidad de los
trabajos realizados. Finalmente, el nivel 3, la publicación de microdatos, es una medida
muy deseable, que parece que en España se va a abriendo paso, aunque precisamente en
época preelectoral solo una encuesta, la primera de GESOP, hizo público los
microdatos, no así la última y definitiva.
En EEUU y Gran Bretaña los sondeos publicados por las empresas prestigiosas siguen
las recomendaciones especificadas, publicando los microdatos en el caso de EEUU en el
Roper Center de la Universidad de Connecticut, explican con gran detalle como se
realizan las estimaciones (Mateos y Penadés, 2013).
6. El reconocimiento de la calidad en las encuestas
Como hemos visto, la mayoría de las encuestas telefónicas difieren poco en los datos
que publican o no sobre cómo se ha realizado su trabajo, y difícil es saber cuál se ha
hecho con más calidad y cual se ha hecho peor. Incluso aunque se publicaran todos los
datos exigidos por la LOREG aún habría pocos criterios para poder diferenciar los
trabajos de calidad y los que no lo son. Ello lleva a un mercado de encuestas de opinión
muy poco transparente, donde lo mismo vale un recién llegado con un teléfono en la
mano, que un trabajo de una solvencia acreditada. Incluso algunas encuestas on-line,
con una metodología muy distinta, pueden hacer pasar su trabajo como equivalente a
otras, dado que al final lo que se publica no difiere demasiado.
La única evaluación que finalmente existe es la propia comparación a posteriori con los
resultados electorales, lo cual no deja de ser indeseable, ya que, como se repite
continuamente en las propias estimaciones de las encuestas, estas son una fotografía de
un momento, y no tienen porqué acertar. Además estas estimaciones, especialmente
cuando se acercan las elecciones (Mateos y Penadés, 2013), tienden a acercarse
bastante, lo que puede hacernos dudar de si una estimación parecida a las otras viene de
un sondeo de calidad o viene de una estimación realizada con un ojo puesto en las
demás.
Creemos que debería hacerse mucho más por explicar cual es el proceso de realización
de la encuesta, con el fin de poder tener una idea de la calidad de la misma, y también
debería haber más transparencia en el proceso de estimación, lo cual también nos
ayudaría a valorar como de fiable es esta, siguiendo en buena medida las
recomendaciones del NCPP.
Para ello, analizaremos los procesos y los factores que influyen en los resultados finales
de las estimaciones, dividiéndolo en cinco apartados:
a) La cobertura del marco utilizado
b) La recogida de datos
c) Datos de la muestra obtenida
d) Las estimaciones realizadas
e) Cálculo de escaños
a) Cobertura del marco
La primera condición para que una encuesta sea representativa es que todas las unidades
que forman el universo o población de referencia tengan alguna probabilidad de entrar
en la muestra. Cualquier desviación de esta condición será una merma en la calidad de
la muestra. Este es además el primer factor que aparece en las recomendaciones de
transparencia del NCPP.
La mayoría de las encuestas que se publican son telefónicas, pero nada se dice del
marco utilizado para realizarlas. Solo en un caso, una encuesta de DYM para El
Confidencial, se menciona que la encuesta ha incluido teléfonos fijos y móviles.
En estos momentos habría tres posibilidades para utilizar marcos en las encuestas: En
primer lugar utilizar un directorio comercial de teléfonos fijos. El más utilizado es el de
INFOBEL. Este directorio, procedente de las “páginas blancas” de telefónica, contiene,
según su web, 6.700.000 números de teléfono en su edición de 2016, lo que significa un
fuerte descenso con el total que contenía en 2013, que eran 8.797.079. En la web no
especifica cuantos son hogares en 2016, pero sí tenemos el dato de 2013. En ese año
INFOBEL contenía 7.568.940, de los cuales solo 6.081.013 se podían utilizar para
marketing, lo cual nos llevaba solo a un 33,4% de cobertura de esta base de datos, que al
haberse reducido más aún en este año tendrá una cobertura bastante menor. Por tanto, la
utilización de INFOBEL o cualquier otro directorio que no tenga un número de registros
considerablemente más alto conllevaría una cobertura bajísima de la población, y ello
sería un indicador de una calidad muy pobre.
La otra opción como marco de teléfonos fijos es utilizar marcación aleatoria, lo que sí
nos llevaría a una cobertura total de la población con teléfono fijo. Sin embargo, esto no
nos resuelve el problema de la población que no dispone de teléfono fijo, que está
alrededor del 20% (INE, Encuesta TIC Hogares, 2014). Además, este hecho puede estar
influyendo en los sesgos de predicción de las encuestas (Pasadas del Amo, 2014).
Por tanto, una medida de transparencia y decisiva para definir la calidad del marco
utilizado en encuestas telefónicas sería dar el tamaño del marco utilizado, o mejor
todavía decir cuales han sido los marcos utilizados y como se han construido, en caso de
que hayan sido construidos por la propia empresa.
Lo mismo se puede decir para las encuestas on-line: la forma en que se han construido
los marcos y los tamaños de los mismos son la información más valiosa y necesaria para
darle crédito a estas encuestas.
b) Recogida de datos
La fase de recogida de datos es la parte más importante de la ejecución del muestreo.
Aquí podemos distinguir:
i) la selección de los números de teléfono, relacionado con el problema del marco que se
ha comentado antes, pero que en general hay que suponer que se hará correctamente.
ii) Una vez seleccionado el hogar (en teléfonos fijos), la selección de la persona a
encuestar. Se podría hacer mediante procedimientos aleatorios, pero aparentemente
ninguna empresa lo hace. Como no se especifica cómo se selecciona a la persona, hay
que suponer que se elige a cualquier persona del hogar que satisfaga las cuotas de sexo
y edad que utilizan las empresas.
iii) Respuesta del hogar y de la persona
Aun partiendo del mismo procedimiento de muestreo y de selección del entrevistado,
que debería especificarse lo más detalladamente posible, otro dato clave para saber la
calidad de las encuestas es qué parte de la muestra de teléfonos seleccionada ha acabado
formando parte de la muestra, y cuales han sido las causas por las que los otros
teléfonos no han entrado en la muestra. Una encuesta aleatoria perfecta requeriría que el
100% de las personas que entran en la muestra respondan a la misma. Ello es imposible,
pero una tasa de respuesta alta es un buen indicador de calidad, relacionado con el
indicador del NCPP sobre número de intentos por respuesta. Por supuesto, hay guías
sobre la utilización de las medidas de calidad relacionadas con las tasas de respuesta,
como la de la AAPOR (2008).
Utilizando la tasa de respuesta estimada de la AAPOR (RR3), por ejemplo, las
encuestas del INE tienen entre una tasa de respuesta que oscila entre el 62% de la EPF y
el 86% de la EPA. Alrededor del 70% están también otros estudios con metodología
completamente probabilística, como la ola de 2013 de la Encuesta Social Europea
(Universidad Pompeu Fabra) o el estudio ISSP que realiza el CIS.
El CIS no publica habitualmente el dato de incidencias de sus encuestas, que nos
permitiría calcular las medidas de calidad. Pero en algunos artículos en el pasado sí se
han publicado estos resultados, concretamente en Díaz de Rada y Núñez Villuendas
(2008) y Díaz de Rada (2014). Con estos datos se puede estimar que la tasa de respuesta
RR3 de los barómetros del CIS ha pasado del 16% en 2004 al 10% en 2011.
Por desgracia no disponemos de datos de incidencias de ninguna empresa privada que
nos permita calcular estas tasas, que podrían ser bastante dispares. Pero sí tenemos los
datos correspondientes a encuestas del IESA entre el año 2011 y 2013. En estas
encuestas la tasa de respuesta, con teléfonos fijos seleccionados por RDD, está en el
29%.
Para las encuestas basadas en paneles on-line la información pertinente no sería solo la
tasa de respuesta en el momento de realizar la encuesta, sino también cual es la tasa de
respuesta en el proceso de captación, cuando esta solo se produce a requerimiento de la
empresa.
No es solo qué parte de la muestra se ha conseguido realizar, también es importante
cuales son las causas. Dos problemas hay básicamente para conseguir la muestra. Por un
lado, conseguir el contacto, y por otro lado, conseguir la cooperación de la persona
elegida una vez que se contacta. Por ello, junto a la tasa de respuesta sería necesario
incluir la tasa de cooperación (COOP3 en AAPOR) y la tasa de contacto (CON2).
La tasa de cooperación está entre el 78% y el 93% en las encuestas probabilísticas. Para
el CIS pasa del 28,6% al 20,8% del 2004 al 2011, y para la encuesta telefónica del IESA
es del 40,8%.
La tasa de contacto está entre el 78% y el 93% en las encuestas probabilísticas. Para el
CIS pasa del 28,6% al 20,8% y para la telefónica del IESA es del 81,9%.
Unas diferencias tan enormes nos dan al menos varios niveles de calidad distintos,
como es lógico. Poder saber estas medidas de calidad para las encuestas nos informaría
muchísimo sobre qué encuesta se ha realizado con una metodología más rigurosa.
Tabla 3: Medidas de calidad para distintas encuestas
RR3 COOP2 CON2
EPA 2014 (INE, probabilística) 86,6 93,0 93,4
TIC 2013 (INE, probabilística) 76,4 83,4 91,6
EPF 2012 (INE, probabilística) 62,0 78,0 79,4
ECV 2011 (INE, probabilística) 68,7 79,1 86,8
ESS 2013 (UPF, probabilística) 71,2 85,2 83,5
ISSP 2012 (CIS, probabilística) 69,1 86,8 79,7
CIS 2004 (Rutas) 15,8 28,6 55,3
CIS 2011(Rutas) 10,3 20,8 39,2
IESA 2013 (Telefónica) 29,0 40,8 81,9
Fuente: Elaboración propia a partir de documentos de evaluación de las encuestas y los artículos mencionados
c) Datos de la muestra obtenida
La información de la muestra obtenida es también un elemento muy importante para
valorar la correspondencia de la misma con la realidad, y en qué medida ha sido
necesario cocinar los datos originales. Evidentemente lo ideal sería tener la base de
datos completa, cosa que habitualmente publica la empresa GESOP. Sin embargo, en
esta ocasión solo ha hecho con la primera encuesta publicada, y no con la definitiva.
Pero una información mínima necesaria sería la frecuencia del recuerdo de voto, para
así conocer su correspondencia con las elecciones de referencia. En estas encuestas pre-
electorales ninguna empresa ha publicado este dato, aparte de la mencionada GESOP
solo en una encuesta, y el CIS. Es aún más llamativo y lamentable porque en encuestas
anteriores a la convocatoria electoral sí había algunas que publicaban el recuerdo de
voto. Lo han hecho Celeste-tel, en sus informes mensuales, y Metroscopia, en sus
barómetros hasta abril de 2015, así como Myword en su encuesta de octubre, previa a la
convocatoria. Para tener una idea de como pueden ser los datos de recuerdo de voto,
miraremos estos resultados y los del CIS.
Vemos como hay algunas importantes desviaciones del recuerdo de voto a la realidad,
que pueden ser atribuibles a distintas causas, como posibles sesgos en la muestra, o
errores en la respuesta de los encuestados. Son difícilmente comparables las encuestas,
por estar hechas en distintas fechas y con distintas metodologías, pero sí se puede
advertir de que en general hay una infraestimación del PP y de la abstención, y en casi
todos los casos una sobreestimación del PSOE e IU.
Tabla 4: Recuerdo de voto en diferentes encuestas
Voto Elecciones 2011
CIS preelectoral
GESOP diciembre
Celeste-tel noviembre
Metroscopia abril
Myword octubre
PP 31,6 24,8 27,6 23,7 27,6 21,6
PSOE 20,3 24,6 28,1 20,3 30,0 18,5
IU-LV 4,9 6,2 8,3 4,5 8,0 6,8
UPyD 3,3 1,8 2,8 2,1 3,1 5,1
Otros 9,7 7,9 8,7 8,0 9,0 12,6
Nulo/blanco 1,9 2,3 2,2 3,5 2,3 6,1
Abstención 28,3 20,0 12,5 25,3 8,4 14,1
NS/NR/NC 12,4 9,8 12,6 11,6 15,2
d) Estimaciones realizadas
El resultado principal y casi único que se muestra en las publicaciones de encuestas
analizadas es la estimación de voto. Dicha estimación no procede casi nunca de los
datos directos de las encuestas realizadas, sino que en medio se aplican una serie de
procedimientos, que en parte pueden estar automatizados y en parte ser más subjetivos.
La credibilidad de las empresas y organismos que publican estas estimaciones debería
pasar necesariamente por justificar como se han realizado esas estimaciones. Y en ese
paquete hay que incluir al CIS, que no ha explicado nunca con detalle cómo realizan sus
estimaciones, avivando de esa manera las críticas a posible tendenciosidad de las
mismas. Igualmente, si las empresas que realizan las estimaciones no explican como las
han hecho, y no las defienden, las sospechas de que las estimaciones sean interesadas
son legítimas. No es así, ninguna de las encuestas tiene una mínima explicación de
cómo se llegan a las estimaciones que dan, dejando la puerta abierta a la arbitrariedad y
la duda.
Un dato que para nosotros sería imprescindible, y que complementaría el recuerdo de
voto del que se ha hablado anteriormente, sería el dato bruto de intención de voto,
extraído directamente de la encuesta. Este dato además está en el espíritu de la LOREG
al pedir el porcentaje de personas que no contestan la encuesta. Sin embargo, aparte del
CIS, son pocas las encuestas que publican este dato: lo publican Metroscopia, Celeste-
Tel (el voto directo+simpatía), una de las encuestas de GESOP, Demoscopia y
Servicios, GAD3 (aunque no en todas), y IBES.
e) Estimación de escaños
La mayoría de encuestas preelectorales no se limitan a estimar porcentajes de votos,
sino que también asignan escaños. En las propias recomendaciones de ANEIMO se dice
que para realizar una estimación de escaños la muestra debería ser al menos de 10.000
unidades, lo que no se ha hecho en estas elecciones en ningún caso. Y así es, dado que
la circunscripción electoral es la provincia, para realizar una asignación de escaños hace
falta tener una buena estimación para cada provincia. Evidentemente no es así como se
hace en estas encuestas, sino que se utilizan algunas hipótesis de estabilidad en la
distribución del voto por provincias de acuerdo con resultados anteriores. Sería
necesario también explicitar cuáles son esas hipótesis y el procedimiento utilizado.
7. Conclusiones
Las encuestas preelectorales españoles están entre las menos transparentes de España,
incumpliendo incluso la legislación actual. Ello tiene como consecuencia por un lado un
acentuado descrédito de las mismas, y la sospecha de manipulación y de estar al
servicio de intereses políticos o empresariales, y por otro lado una espiral descendiente
de calidad, ya que al no haber ningún tipo de medida de calidad sobre las mismas,
cualquiera puede hacer una encuesta con escasos medios y conocimientos, perjudicando
a los buenos profesionales del sector, sin que haya forma de distinguir unas de otras.
Por ello aquí sostenemos la necesidad de que por un lado los poderes legislativos pero
también por su propio interés las empresas que realizan encuestas tomen las medidas
para que se exija un control de la calidad de las encuestas que se realizan, y den una
información mínima sobre las encuestas, que, en la línea del NCPP, podría ser:
1. Marco utilizado y su tasa de cobertura
2. Tasa de respuesta, tasa de cooperación y tasa de contacto, según los estándares
de la AAPOR.
3. Frecuencias de la variable de recuerdo de voto.
4. Datos brutos de la intención directa de voto.
5. Procedimiento de estimación utilizado
6. Modelos aplicados al calcular los escaños.
Idealmente además sería muy bueno que se hicieran públicas las matrices de datos.
Parece que en algunas de las encuestas realizadas con posterioridad a las elecciones está
empezando a haber una tendencia a una mayor transparencia de los datos. Esperemos
que esta tendencia se consolide.
Anexo: Fichas técnicas de encuestas publicadas
Centro de Investigaciones Sociológicas
Ámbito: Nacional.
Universo: Población española de ambos sexos de 18 y más años.
Tamaño de la muestra: Diseñada: 17.615 entrevistas. Realizada: 17.452 entrevistas.
La distribución provincial se incluye en el Cuadro 1, al final de esta ficha técnica.
Afijación: No proporcional.
Ponderación: Para tratar la muestra en su conjunto es necesaria la aplicación de los
coeficientes de ponderación que figuran en el Cuadro 1, al final de esta ficha técnica.
Puntos de muestreo: 1.151 municipios y 50 provincias.
La distribución provincial se incluye en el Cuadro 1, al final de esta ficha técnica.
Procedimiento de muestreo: Polietápico, estratificado por conglomerados, con selección
de las unidades primarias de muestreo (municipios) y de las unidades secundarias
(secciones) de forma aleatoria proporcional, y de las unidades últimas (individuos) por
rutas aleatorias y cuotas de sexo y edad.
Los estratos se han formado por el cruce de las 17 comunidades autónomas y las dos
ciudades autónomas con el tamaño de hábitat dividido en 7 categorías: menor o igual a
2.000 habitantes; de 2.001 a 10.000; de 10.001 a 50.000; de 50.001 a 100.000; de
100.001 a 400.000; de 400.001 a 1.000.000, y más de 1.000.000 de habitantes.
Los cuestionarios se han aplicado mediante entrevista personal en los domicilios.
Error muestral: Para un nivel de confianza del 95,5% (dos sigmas) y P = Q, el error real
es de ±0,76% para el conjunto de la muestra y en el supuesto de muestreo aleatorio
simple.
Los errores correspondientes a cada una de las provincias se encuentran en el Cuadro 1,
al final de esta ficha técnica.
Fecha de realización: Del 27 de octubre al 16 de noviembre de 2015
Eldiario.es (Celeste-tel)
Universo: Ciudadanos y ciudadanas con derecho a voto.
Tamaño de la muestra: 1.100 entrevistas.
Trabajo de campo: segunda semana de noviembre.
Metodología: Telefónica.
Nivel de confianza y error muestral: Para un nivel de confianza del 95,45% (2 sigmas) y
para P=Q, el error es del 3,1%
Ficha técnica ampliada (solo en encuesta 11/11):
Muestreo: Polietápico. Estratificado por conglomerados. Unidad primaria de muestreo:
municipio. Selección aleatoria proporcional. Unidad secundaria de muestreo: sección
electoral. Selección aleatoria proporcional. Unidad terciaria de muestreo: Ciudadanos y
ciudadanas. Selección aleatoria por cuotas de edad, sexo y recuerdo de voto. Afijación
no proporcional.
El País (Metroscopia)
Sondeo efectuado mediante entrevistas telefónicas a una muestra nacional de personas
mayores de 18 años. Se han completado 2.800 entrevistas, estratificadas por la
intersección hábitat/comunidad autónoma y distribuidas de manera proporcional al total
de cada región, con cuotas de sexo y edad aplicadas a la unidad última (persona
entrevistada). Partiendo de los criterios de muestreo aleatorio simple, para un nivel de
confianza del 95,5% (que es el habitualmente adoptado) y en la hipótesis más
desfavorable de máxima indeterminación (p=q=50), el margen de error de los datos
referidos al total de la muestra es de ± 1,9 puntos.
Recogida y tratamiento de la información realizada en Metroscopia. Realización del
trabajo de campo: del 7 al 10 de diciembre de 2015.
Sigma Dos (El Mundo)
Universo: Mayores de 18 años.
Ámbito: Nacional. Muestra: 1.500 entrevistas con un margen de error ±2,52% para los
datos globales, con un nivel de confianza del 95.5% (dos sigma) y un p/q=50/50.
Selección: Estratificada, aleatoria.
Entrevista: Telefónica.
Fecha del trabajo de campo: Del 24 al 26 de noviembre de 2015.
Realización: SIGMA DOS. Dirección: José Miguel de Elías
La Razón (NC-Report)
Universo: Españoles con 18 años y más. Ámbito nacional. Muestra estratificada: 1.500
entrevistas con un margen de error aproximado de 2,58%, para los datos globales y un
nivel de confianza del 95,5% dos sigma y p/q=50/50. Muestreo selección aleatoria
proporcional de los municipios y de los entrevistados por tablas de números aleatorios y
cuotas de edad y género. Entrevistas: Metodología telefónica. Distribución de la
muestra: 123 municipios de las 17 CCAA. Trabajo de campo: 23 de noviembre a 4 de
diciembre de 2015. Empresa: NC Report
El Periódico (GESOP)
-Empresa responsable: GESOP.
-Técnica: entrevistas telefónicas asistidas por ordenador.
-Ámbito geográfico: España.
-Universo: población de 18 años y más con derecho a voto.
-Número de entrevistas: 1.816 entrevistas, 1.200 distribuidas proporcionalmente en el
conjunto de España y una ‘sobremuestra’ de 616 en Catalunya.
-Error de la muestra: +/- 2,7% para un nivel de confianza del 95% y p=q=0,5.
-Muestreo: estratificado por comunidad autónoma y dimensión de municipio. Selección
aleatoria de los hogares. Cuotas cruzadas de sexo y edad para la selección de las
personas a entrevistar. Los resultados finales se han ponderado para dar a Catalunya y al
resto de comunidades autónomas el peso que les corresponde en el conjunto de la
muestra.
-Trabajo de campo: del 23 al 28 de noviembre del 2015.
Simple Lógica
Ámbito: España
Universo: Población de 18 y más años de edad
Muestra: 1.746 casos
Entrevistas: Telefónicas asistidas por ordenador
Selección: Aleatoria del hogar sobre listado telefónico y según cuotas de sexo y edad
para la determinación de los individuos
Trabajo de campo: Del 2 al 16 de noviembre de 2015
Margen de error: ± 2,39% para p=q=0,5 y un nivel de confianza del 95,5% para datos
globales
Instituto responsable: SIMPLE LÓGICA INVESTIGACIÓN, S.A. miembro de
AEDEMO y acogido al código deontológico Internacional ICC/ESOMAR de Marketing
e Investigación social.
Libertad Digital /EsRadio (Demoscopia Servicios)
Sondeo efectuado entre el 29 de octubre y el 6 de noviembre mediante entrevistas
telefónicas a 1.800 personas mayores de 18 años escogidas de forma aleatoria y
proporcional por sexo y edad con un error máximo posible de 2,31% para un nivel de
confianza del 95,5% y p/q=50/50. Demoscopia Servicios
ABC (GAD3)
Universo: Residentes en España de 18 años y más.
Tamaño: 2.800 entrevistas, 800 nuevas desde la publicación de la encuesta del 21 de
octubre.
Error muestral: ±1,9 por ciento, para un grado de confianza del 95,5 por ciento.
Procedimiento: Entrevista telefónica asistida por ordenador.
Campo: 14 al 29 de octubre.
Antena 3 (TNS Demoscopia) (En la web de TNS Demoscopia)
Realizado mediante una media de 500 entrevistas telefónicas semanales distribuidas
proporcionalmente por CC.AA. y provincias, y entre los diversos niveles de hábitat, a
hombres y mujeres de 18 años y más, efectuadas diariamente (de lunes a domingo) y de
forma ininterrumpida. Resultados semanales a través de medias móviles de dos semanas
de campo.
Otra versión (en las dos últimas encuestas)
Técnica: Entrevista telefónica (Sistema CATI)
Ámbito: Conjunto del territorio español
Universo: Hombres y mueres, de 18 años en adelante
Muestra: Una media de 500 entrevistas semanales (aprox. 1000 cada quincena),
distribuidas proporcionalmente por CC.AA. y niveles de hábitat. Selección aleatoria de
teléfonos-hogares en cada estrato muestral, y cumplimentación por cuotas de sexo y
edad para la selección final de la persona a encuestar
Error estadístico: En cada ola del estudio, un error máximo de ±3,2% para datos
globales, bajo los estándares del muestreo aleatorio puro, en el peor de los casos
(p=q=50) y con nivel de confianza del 95,5%
Trabajo de campo: Efectuado diariamente (de lunes a domingo) y de forma
ininterrumpida
El Confidencial (DYM)
Ficha técnica:
Ámbito: nacional.
Universo: población española de 18-75 años.
Método de recogida de la información: entrevistas telefónicas asistidas por ordenador
(CATI) realizadas a teléfonos fijos y móviles mediante la administración de un
cuestionario estructurado.
Tamaño y distribución de la muestra: 1.012 entrevistas seleccionadas aleatoriamente. Se
han aplicado cuotas de sexo y edad, actividad laboral, zona geográfica y tamaño de
hábitat.
Error de muestreo: partiendo de los criterios del muestreo aleatorio simple y para un
nivel de confianza del 95,5% (dos sigmas) y en la hipótesis más desfavorable (p=q=50),
el margen de error para los datos en el total de la muestra es del ±3,2%.
Fechas de trabajo de campo: 27 de noviembre a 9 de diciembre de 2015 .
Última hora (IBES)
Universo: Población residente en todas las provincias de España, de 18 o más años.
Tamaño: 2.508 entrevistas en tracking continuo desde julio de 2015. Sistema de cálculo:
Ponderación por fecha creciente y estimación de voto con reponderación por recuerdo.
Muestreo: Circunscripción provincial, proporcional a los censos municipales INE.
Error:<3% para un nivel de confianza de 2 alfa. Metodología: Encuesta telefónica
asistida por ordenador. Gestión de datos: SPSS. Controles de calidad: CCI/ESOMAR y
LOPD. IBES es miembro de AEDEMO (Asociación española de estudios de mercado y
opinión) y SIPIE (Sociedad para la Investigación mediante encuestas)
La Voz de Galicia (Sondaxe)
Ámbito: España. Universo: Población residente con derecho a voto (no se incluyen los
residentes ausentes). Tipo de entrevista: Telefónica, asistida por ordenador (sistema
CATI). Tamaño de la muestra: 1.000 entrevistas. Tipo de muestreo: Polietápico,
independiente para cada comunidad autónoma, estratificado por tamaño de provincia de
residencia. Selección aleatoria de hogares sobre una base de datos telefónica. Selección
de individuos mediante un sistema de cuatro cuotas cruzadas de género y ocupación y
tres cuotas de edad. Error muestral: En la hipótesis más desfavorable (p=q=50 %) y con
un nivel de confianza del 95,5 %, el error máximo admitido para una magnitud del total
de la muestra es de +/-3,16 %. Fechas de realización: Del 28 de octubre al 9 de
noviembre. Instituto responsable: Instituto SONDAXE, S.L. Polígono de Sabón,
Avenida de la Prensa, parcela 84-85, 15142 Arteixo, A Coruña. Tel: 981167300; Fax:
981180210. Correo electrónico [email protected]. Sitio web: www.sondaxe.com
Redondo & Asociados
A partir de 1.500 entrevistas realizadas, sobre una base nacional de 12.000, entre el 25
de noviembre y el 1 de diciembre, con registro de resultados de hasta nivel provincial,
La Provincia (Hamalgama Metrica y Agora Integral) (muestra canaria, no he encontrado
la ficha técnica nacional)
Realización de 1600 encuestas telefónicas del 5 al 12 de diciembre de 2015 en todos los
municipios canarios. Se ha llevado a cabo un muestreo aleatorio bietápico de muestra
aproporcional por islas por sus correspondientes pesos poblacionales con un error
muestral del ±2,45, con p=q=0,5 (hipótesis más desfavorable) y un intervalo de
confianza del 95,5%
20 Minutos y Grupo Heraldo (A+M)
ÁMBITO España
UNIVERSO Mayores de 18 años
MUESTRA 5.000 unidades
MÉTODO Entrevista telefónica
MUESTREO Proporcional a cada circunscripción. Aleatorio simple para el elemento
muestral con cuotas de sexo y edad
NIVEL DE CONFIANZA 94,5 (para dos sigmas p=q=50%)
MARGEN DE ERROR +/- 1,41 %
TRABAJO DE CAMPO Del 23 de noviembre al 4 de diciembre de 2015
DIRECCIÓN TÉCNICA A+M
Cadena SER (Myword)
Ámbito: nacional.
Universo: población española de 18 años y más.
Tamaño de la muestra: 1.500 entrevistas calibradas por sexo, edad, comunidad
autónoma y hábitat. En todos los casos, las cuotas se aplican en función de la población
general y no en función de la población internauta.
Error muestral: para un nivel de confianza del 95,5%, el margen de error de la muestra
es del ±2,5%.
Trabajo de campo: entrevistas online a partir de un panel (comunidad de internautas) de
captación activa (sólo por invitación) certificado con la norma ISO026362.
Fechas de realización del trabajo de campo: del 3 al 9 de diciembre de 2015.
Encuestamos
En este estudio que cuenta con un margen de error del +/- 2’25 % y un nivel de
confianza del 95’5 %, han participado 2.000 españoles de diferentes edades, localidades
y niveles de estudios y renta.
Grupo de investigación en Procesos Electorales y Opinión Pública de la Universitat
de València
Método de recogida de información
Los datos básicos en los que se basan los resultados presentados en este informe han
sido obtenidos a través de internet, mediante la cumplimentación de cuestionarios
autoadministrados.
Periodo muestral
Las estimaciones presentadas en este informe están basadas en las respuestas
recolectadas entre las 8:15 del 27/11/2015 (instante de inicio del trabajo de campo) y las
12:00 del 14/12/2015 (instante elegido para realizar el corte para presentar, respetando
la legislación electoral vigente, los resultados a la sociedad). Por motivos científicos, la
encuesta permanecerá abierta, y continuaremos recibiendo respuestas, hasta el día
previo a la jornada electoral (19/12/2012).
Método de selección muestral
Los encuestados han sido reclutados por muestreo encadenado (‘bola de nieve’). Los
datos disponibles no pueden considerarse una muestra aleatoria simple y difícilmente
una muestra representativa. El método de recolección provoca que el procedimiento de
selección introduzca necesariamente sesgos de cobertura y auto-selección en la muestra.
La cuestión de la no-representatividad teórica de la muestra no constituye un hecho
diferencial de nuestros datos. Todas las muestras de opinión electoral sufren en mayor o
menor medida del problema de la representatividad, debido principalmente a la no-
respuesta diferencial que los encuestadores encuentran durante el trabajo de campo. En
nuestro caso, sin embargo, la falta de aleatoriedad y representatividad vienen
exacerbados por el método de recogida empleado, que provocan que dispongamos de
una muestra significativamente más sesgada.
Referencias
AAPOR (2008). Standard Definitions Final Dispositions of Case Codes and Outcome
Rates for Surveys.
Díaz de Rada, Vidal (2014). «Análisis de las incidencias en encuestas presenciales:
mejoras en el trabajo de campo». Revista Española de Investigaciones Sociológicas,
145: 43-72.
Gálvez Muñoz, Luis. (2000). Organismos de sondeos, encuestas electorales y derecho.
Revista de Estudios Políticos (Nueva época), nº 100.
Mateos, Araceli y Alberto Penadés (2013). Las encuestas electorales en la prensa escrita
(2008-2011). Errores, sesgos y transparencia. Metodología de Encuestas Volumen 15,
2013, 99-119
Pasadas del Amo, Sara (2014). Población ‘solo-móvil’ y precisión de las encuestas pre-
electorales basadas en el modo de administración telefónico. El caso de las elecciones
andaluzas de 2.012. Tesis doctoral. Universidad Pública de Navarra.
Pavía-Miralles, José Manuel, Salvador Carrasco-Arroyo, Vicente Coll-Serrano, José
Antonio Álvarez-Jareño y Alfredo Rubio-Mataix (2015). Informe elecciones generales
2015 GIPEYOP