Estrada20!!
Te haces la misma pregunta que me he hecho yo muchas veces.
¿ en que se basan los modelos, el GFS, el UKMO.....etcc.....para hacer sus prediciones a tantosd dias??
Bueno, soy un simple aficionado, pero intentaré responderos con lo que se acerca del fucionamiento de los modelos
:
-Descomponen la superficie terrestre en celdillas de unas décimas de grado (de longitud-latitud) o algo más de un grado.
-La atmosfera la representan con varios niveles, también subdivididos en celdillas. Al final el sistema tierra-atmósfera queda representado como por "tableros de ajedrez" superpuestos. En realidad es una matriz tridimensional.
-Se vuelcan en cada superficie los datos medidos a la hora de inicio del modelo (procedentes de estaciones meteorológicas, boyas oceánicas, radiosondeos etc). Logicamente quedan muchas celdas "vacías" (sin datos). Mediante un proceso de interpolación (lo que se ha hecho toda la vida para sacar esos mapas de isobaras del telediario) se "rellena" toda la matriz para las diferentes variables que "alimentan" el modelo
-Para la superficie terrestre se introducen también la altitud, el albedo, la temperatura y cuantos datos sean relevantes (pensad que, en los modelos globales cada celda puede ser de 50 x 50 km, por lo que los valores que se introducen son valores promedio, nada de microclimas)
-Los datos de los satélites meteorológicos (temperatura, vapor de agua) supongo que también se introducirán
-Una vez que tiene los datos (en los modelos globales, para todo el planeta!!) ya está listo para el proceso de cálculo (se "corre" el modelo
).
-Ahora llega la termodinámica.
Para cada celda se calculan cuales son las transferencias de masa y de energía con sus celdas vecinas (todo esto es física dura, ecuaciones diferenciales y demás)... va saliendo el primer mapa (el de +6 horas, o las que sean) que tiene ya una probabilidad (alta) de ocurrencia. Bueno, se generan una serie de mapas básicos (presión, temperatura...) y luego se derivan los productos (precipitación, nubes...). Hay que tener en cuenta que para derivar estos productos no se tiene en cuenta ningún factor local (seguimos con las celdas gordas
)
-Ya tenemos la primera ronda del modelo... y ahora viene lo bueno:
El mapa resultante de este primer ciclo (+6h) se utiliza como entrada de datos para el siguiente (+12h, por ejemplo). Es decir, ya no estamos alimentando el modelo con datos reales, sino con datos simulados. El resultado con mayor probabilidad de las 12 horas alimenta el tercer ciclo (+18h) y el resultado de este a su vez alimenta el cuarto ciclo etc etc
Fijaos que en cada ciclo vamos "abriendo el abanico de posibilidades" y va bajando la probabilidad del pronóstico. En el GFS, el mapa a 10 días es la estimación mas probable de la estimación más probable de la estimación más probable... de ahí su baja probabilidad.
No obstante, los modelos se sofistican cada vez más. Se corren en superordenadores cada vez más potentes y los resultados cada vez son mejores.
Hasta tres días son muy fiables, hasta seis bastante y después... bastante menos.
Mi experiencia es que los mejores pronósticos para España los dan los modelos "regionales" (MASS, HIRLAM, BOLAM, DALAM, SKIRON...)
Estos tienen un ámbito de aplicación más pequeño pero mayor resolución espacial, por lo que ya introducen factores locales (orografía más detallada etc...). Realmente se alimentan de los pronósticos iniciales de los modelos globales, pero luego se corren con valores locales (resolución de 10x10 km por ejemplo). Ahora bien...no suelen llegar más allá de tres días, entre otras cosas porque para saber lo que va a pasar en la atmósfera local a medio plazo hay que conocer toda la atmósfera.
Espero que se me haya entendido