Buenas noches:
Perdonad mi intervención, por si no corresponde al tema tratado.
Desde mi punto de vista, el problema es que muchas veces utilizamos esta técnica de forma inadecuada, pasando de trabajar con un número reducido de modelos deterministas (GFS, Europeo,GME, NOGAPS, etc...) a sumar a ese conjunto las 20 perturbaciones, junto con su media y la de control del GEFS, y cuando están disponibles las del Europeo, tratandolas al mismo nivel de determinación.
Como bien sabéis, las salidas correspondientes a las predicciones no deterministas ("ensembles" o conjuntos) corresponden a la ejecución del modelo con diferentes valores iniciales, de tal forma que se intenta, de alguna manera, paliar la incertidumbre en la información de entrada al modelo, incertidumbre que se transmite a los resultados dado el carácter no lineal del sistema a modelizar y las aproximaciones necesarias para la resolución numérica de las ecuaciones implicadas, como acertadamente indicáis.
Las fuentes de esa incertidumbre sobre los datos de entrada son variadas, y abarcan desde las inherentes a la precisión instrumental y desigual densidad geográfica de las observaciones, hasta el preproceso de las mismas para ajustarlas a una malla homogénea que se utilizará para alimentar el modelo (gridding).
Dada esta limitación, el planteamiento de las técnicas no deterministas se centra, no tanto en la obtención de soluciones exactas, como en acotar el espacio de soluciones factibles.
Puedes correr el modelo metiendo infinitas variaciones en las condiciones iniciales y por tanto obtendrás infinitas evoluciones y muchas de ellas y lo sabemos,son irreales pues el modelo tiende a exagerar sobremanera los parámetros meteorológicos a largo plazo porque las ecuaciones que rigen la dinámica atmosférica son ecuaciones no lineales que si fueramos estrictos,ni si quiera tendrían solución analítica y de hecho se hacen muchas aproximaciones para poder utilizar esas ecuaciones.
Lógicamente, no resultaría útil simular las infinitas variaciones de las condiciones iniciales, y en la práctica se simulan sólo un número reducido de ellas, pero, y aquí viene lo interesante, estas variaciones no se escogen al azar, sino que se escogen de forma que actúan sobre las combinaciones de variables que producen la mayor variabilidad sobre los resultados, lo que lleva, combinada con las limitaciones de los modelos, a las "exageraciones" citadas.
Despues de este tocho, a mi modo de ver la verdadera utilidad de estas predicciones reside (aunque resulta mucho menos emocionante) en permitir identificar las situaciones que NO deberían ocurrir, frente al planteamiento tradicional de identificar lo que SI debería ocurrir, o en todo caso permitir establecer límites de confianza para las situaciones previstas a partir de una "gaussificación" de los resultados.
Muchas gracias por vuestra atención.
Saludos