Y para que no os quejéis, os lo pongo resumido aquí.
CÁLCULO DE LA ANOMALÍA GLOBAL Y SU ERROR (RESUMEN)Según Smith y Raynolds (2004 y 2005), tanto la componente SST como la componente LST son construidas por separado mediante el análisis de anomalías de baja y alta frecuencia. Las anomalías de baja frecuencia son analizadas mediante un filtro espacial y temporal cuando se dispone de datos suficientes (
explicado más abajo).
El filtrado espacial se realiza mediante un promedio de anomalías de regiones de más de 10-15 grados de latitud-longitud y el filtrado temporal se realiza mediante el promedio y la mediana de más de 15 años. El análisis de la baja frecuencia se separa para reducir al mínimo el amortiguamiento de las señales. La amortiguación de la frecuencia baja se puede producir si se analiza por su proyección en un conjunto de modos fijos que no resuelve plenamente todas sus variaciones.
Las señales de alta frecuencia residuales del análisis de baja frecuencia se analizan por separado para su ajuste a un conjunto de modos de detección de covarianza que representan a gran escala los patrones mensuales de la temperatura. Se supone que el período de base para los modos es el tiempo suficiente para resolver las variaciones de alta frecuencia. La anomalía total se calcula entonces con la suma de las anomalías de baja y alta frecuencia. Además de la anomalía, se calcula también el error del análisis combinado.Por lo tanto, si no he entendido mal:
Anomalía = Anomalía_frec_baja(>15 años) + Anomaliía_frec_alta(<15 años, por ejemplo mes)
Error = cuadratic[ error_bajo(15 años) + error_alto(residual) ]
Ciertas regiones como las latitudes polares son casi siempre mal muestreadas y por lo tanto las anomalías tienden a cero en el análisis total (Smith y Raynolds, 2004 y 2005). Esto se debe a que el error del muestreo es grande en dichas regiones. Entonces para evitar esa propagación de errores en la media mundial, las regiones con grandes errores de muestreo están excluidos de la media mundial (
creo que algo similar hace el GISS con el método Handsen).
El error del muestreo se normaliza con la desviación estándar, y eso sirve para definir el criterio de exclusión.
Según estos mismos autores, se probó con varios criterios y finalmente se decidió excluir aquellos que presentan un error normalizado de muestreo superior al 0,5. Obviamente la cantidad de área global excluida es mayor en el siglo IXX, que es del 20%-30%. Para el siglo XX la zona de exclusión es inferior al 20% y a partir de 1950 es inferior al 15%.Fuente: Este resumen está basado en su mayor parte en una traducción aproximada de esta
nota publicada en la NOAA.
Y si no he entendido mal, el error final viene por la coherencia de las anomalías de las diferentes regiones. Es decir, el error mide el grado de similitud de las anomalías de las regiones no excluidas. De ese modo se reduce el error.
Ahora bien, yo no soy experto en estadística, pero esos artículos han sido revisados por gente que sabe mucho más que yo en ese tema, por lo que no me atrevo a juzgar si eso está "bien", "mal", ideal o no ideal. A simple vista me parece una estimación razonable, y más teniendo en cuenta que el error estimado para las últimas décadas se ajusta a la perfección con los datos de satélite, mientras que los datos del s. IXX se "parecen" bastante a la
media de reconstrucciones paleoclimáticas (digo media para reducir el error), por lo que tan mal no debe estar todo.
Fuente:
https://foro.tiempo.com/index.php/topic,78991.msg1741370.html#msg1741370Saludos