(https://foro.tiempo.com/imagenes/imagen-no-existe.png)
Solo comentar que me hace gracia cuando leo en modelos estas tipicas frases, algunas escritas hace bien poco:
-- los modelos a mas de 180 horas no sirven para nada...
-- y ya los ensembles del GFS son ciencia ficcion...
Pues digo yo que quizas lo que falla no son los modelos, sino los foreros (mira que rima mas guapa), que quizas, mas que coger ese ensemble cuando salio y decir "bah", debieron mirar ese ensemble, otros ensembles, meteogramas, otros modelos, etc., y a partir de ahi, analizar y deducir...
Saludejos... 8)
Asi, asi metiendo el dedo en la yaga ;D
Por pura logica muchas de los ensembles aunque sean a muchas horas vista, se cumpliran... lo quieras o no, el modelo se basa en ecuaciones matematicas, o sea, ciencia pura.
El problema es que a muchos gustaria mirar un modelo a tantas horas y que lo que saque, siempre se cumpla... aun no estamos en ese punto, y no se si algun dia se llegara... supongo que con la mejora de modelos, de nuevas estaciones, de mas dinero... quizas algun dia acierten mas que fallan.
Si,los ensembles del gfs son super realistas :P
(https://foro.tiempo.com/imagenes/imagen-no-existe.png)
(https://foro.tiempo.com/imagenes/imagen-no-existe.png)
(https://foro.tiempo.com/imagenes/imagen-no-existe.png)
(https://foro.tiempo.com/imagenes/imagen-no-existe.png)
(https://foro.tiempo.com/imagenes/imagen-no-existe.png)
(https://foro.tiempo.com/imagenes/imagen-no-existe.png)
(https://foro.tiempo.com/imagenes/imagen-no-existe.png)
(https://foro.tiempo.com/imagenes/imagen-no-existe.png)
El día que se cumpla uno de estos mapas,nevará en madrid con una nortada :mucharisa: :D
Cita de: fobitos en Sábado 17 Octubre 2009 22:47:11 PM
Si,los ensembles del gfs son super realistas :P
¿Y quien ha dicho que TODOS sean realistas?... de nuevo, un topic como hace poco... fijate en las horas del plazo: 228, 348, 276, 384, 264, 372, 300 y 384... cuando vea que el ensemble del europeo, a esos plazos, no saca esas burradas, quizas me calle la boca...
De todos modos, yo uso los ensembles del GFS para mis pronosticos a largo plazo, y el europeo solo lo uso de apoyo, y no creo equivocarme tanto, asi que quizas si sirven de algo...
Los ensembles en realidad son algo irreal,el gfs nos muestra 20 ensembles,20 variaciones distintas en las condiciones iniciales y el europeo son 50,pero es que en realidad hay infinitos ensembles.Puedes correr el modelo metiendo infinitas variaciones en las condiciones iniciales y por tanto obtendrás infinitas evoluciones y muchas de ellas y lo sabemos,son irreales pues el modelo tiende a exagerar sobremanera los parámetros meteorológicos a largo plazo porque las ecuaciones que rigen la dinámica atmósferica son ecuaciones no lineales que si fueramos estrictos,ni si quiera tendrían solución análitica y de hecho se hacen muchas aproximaciones para poder utilizar esas ecuaciones.
Aun y asi,yo también los miro,lo reconozco sobretodo en primavera y otoño donde la variabilidad y movimientos de las masas de aire,la mayor movilidad de estas hace que estas exageraciones modelísticas a largo plazo no sean tan bestias.
Cita de: fobitos en Sábado 17 Octubre 2009 23:26:20 PM
Los ensembles en realidad son algo irreal,el gfs nos muestra 20 ensembles,20 variaciones distintas en las condiciones iniciales y el europeo son 50,pero es que en realidad hay infinitos ensembles.
Eso ya lo se fobos, puede haber tantos ensembles como se quieran, pero cuando los meteorologos los corren sera por algo... supongo que tendra un gasto investigar, correr, estudiar, aplicar, manejar, etc. esos ensembles, si no sirvieran de nada se habrian mandado a hacer puñetas hace tiempo...
Ademas, es que es logico que existan, ya que la cantidad de variables de partida que necesita un modelo determinista para ejecutarse es tan grande, que es casi imposible que esas variables esten tomadas o tengan valores correctos (reales), ya sea por falta del propio dato, por error en la medida, etc...
Yo siempre he pensado que el problema es en buena parte "cartográfico".
Imagínate que quieres representar en un mapa las posibilidades de lugar de caída de una piedra tirada desde un primer piso, y haces una cartografía lógica para eso dividida en centímetros con curvas de posibilidad y muy detallada, evidentemente para ese nivel de precisión esperable, la cartografía será representativa y adecuada, e imaginemos que quieres cartografiar las posibilidades de lugar de caída de la piedra tirada desde una avioneta...utilizando la misma cartografía y dividiendo también dicha cartografía en centímetros.
Cuando a uno le presentan ya sea una cartografía o una división de precisión en una unidad tienen automáticamente a pensar que esa es la precisión esperable del estudio y aquí pasa un fenómeno parecido, si presentas las mismas líneas definidas de temperatura, de presión etc a 288 la gente (que no esté muy metida) la interpretará como si tuviese la misma posibilidad de ocurrencia que a 12h .
Si a 288 h se presentasen los modelos como unas pocas degradaciones de color que mostrasen exclusivamente los movimientos generales de las grandes masas de acción evitando dibujar "isos -10 que entran hasta Castellón pero esquivan Teruel" sería mucho más representativo y cartográficamente lógico.
Y este problema no se dá sólamente en el caso de los paneles del gfs, sino es un problema muy generalizado en la muestra cartográfica de acontecimientos de posibilidad temáticos.
Cita de: The MeT^^Teacher en Sábado 17 Octubre 2009 11:25:01 AM
El problema es que a muchos gustaria mirar un modelo a tantas horas y que lo que saque, siempre se cumpla... aun no estamos en ese punto, y no se si algun dia se llegara... supongo que con la mejora de modelos, de nuevas estaciones, de mas dinero... quizas algun dia acierten mas que fallan.
espero que nunca haya tal avance como para predecir las situaciones mejor que ahora, y si las hay que sean medios privados, solo para los estados a la hora de realizar avisos
perderia la gracia hacer seguimientos sinceramente ::)
Buenas noches:
Perdonad mi intervención, por si no corresponde al tema tratado.
Desde mi punto de vista, el problema es que muchas veces utilizamos esta técnica de forma inadecuada, pasando de trabajar con un número reducido de modelos deterministas (GFS, Europeo,GME, NOGAPS, etc...) a sumar a ese conjunto las 20 perturbaciones, junto con su media y la de control del GEFS, y cuando están disponibles las del Europeo, tratandolas al mismo nivel de determinación.
Como bien sabéis, las salidas correspondientes a las predicciones no deterministas ("ensembles" o conjuntos) corresponden a la ejecución del modelo con diferentes valores iniciales, de tal forma que se intenta, de alguna manera, paliar la incertidumbre en la información de entrada al modelo, incertidumbre que se transmite a los resultados dado el carácter no lineal del sistema a modelizar y las aproximaciones necesarias para la resolución numérica de las ecuaciones implicadas, como acertadamente indicáis.
Las fuentes de esa incertidumbre sobre los datos de entrada son variadas, y abarcan desde las inherentes a la precisión instrumental y desigual densidad geográfica de las observaciones, hasta el preproceso de las mismas para ajustarlas a una malla homogénea que se utilizará para alimentar el modelo (gridding).
Dada esta limitación, el planteamiento de las técnicas no deterministas se centra, no tanto en la obtención de soluciones exactas, como en acotar el espacio de soluciones factibles.
Cita de: FobitosPuedes correr el modelo metiendo infinitas variaciones en las condiciones iniciales y por tanto obtendrás infinitas evoluciones y muchas de ellas y lo sabemos,son irreales pues el modelo tiende a exagerar sobremanera los parámetros meteorológicos a largo plazo porque las ecuaciones que rigen la dinámica atmosférica son ecuaciones no lineales que si fueramos estrictos,ni si quiera tendrían solución analítica y de hecho se hacen muchas aproximaciones para poder utilizar esas ecuaciones.
Lógicamente, no resultaría útil simular las infinitas variaciones de las condiciones iniciales, y en la práctica se simulan sólo un número reducido de ellas, pero, y aquí viene lo interesante, estas variaciones no se escogen al azar, sino que se escogen de forma que actúan sobre las combinaciones de variables que producen la mayor variabilidad sobre los resultados, lo que lleva, combinada con las limitaciones de los modelos, a las "exageraciones" citadas.
Despues de este tocho, a mi modo de ver la verdadera utilidad de estas predicciones reside (aunque resulta mucho menos emocionante) en permitir identificar las situaciones que NO deberían ocurrir, frente al planteamiento tradicional de identificar lo que SI debería ocurrir, o en todo caso permitir establecer límites de confianza para las situaciones previstas a partir de una "gaussificación" de los resultados.
Muchas gracias por vuestra atención.
Saludos
[Mode Tocapelotas ON]
Me parece muy bien, Vigorro, pero estamos todavía a 18 de octubre. La información gráfica que muestras es una predicción para el 20. ¿No sería mejor haber esperado al día 21 para abrir este tópic? Más que nada porque la predicción todavía no se ha cumplido, aunque las probabilidades son altas para que así sea y las predicciones actuales vayan en esa dirección. ::)
[/Mode Tocapelotas OFF]
Por otro lado, muy interesantes y didácticas las intervenciones de Fobitos y Erierab. Gracias. ;)
Saludos. :)
Vigorro, por curiosidad, la evolución de ese ensembre es la misma que la evolución de lo que ahora se prevee??? Creo que no tienes los mapas, puesto que aparentemente sólo se copió esta imagen, pero bueno, por si acaso los tuvieras.
Y por otro lado, la evolución para llegar a esta situación fue parecida a la situación que hemos tenido???
No son preguntas con maldad, no malinterpretes, pero cabe la posibilidad que no haya sido así y que para llegar a esa situación ha pasado por una serie de visicitudes con contempladas en la actualidad, hmmmm, no me convencería ya que en ese caso se demostraría que ha sido pura casualidad.
20 ensembles, por 4 salidas al día, por 7 días a la semana... son 560 mapas diferentes:
Si con 560 mapas no hay uno que acierte... apaga y vámonos....
Cita de: golfo en Domingo 18 Octubre 2009 09:38:22 AM
Vigorro, por curiosidad, la evolución de ese ensembre es la misma que la evolución de lo que ahora se prevee??? Creo que no tienes los mapas, puesto que aparentemente sólo se copió esta imagen, pero bueno, por si acaso los tuvieras.
Y por otro lado, la evolución para llegar a esta situación fue parecida a la situación que hemos tenido???
No son preguntas con maldad, no malinterpretes, pero cabe la posibilidad que no haya sido así y que para llegar a esa situación ha pasado por una serie de visicitudes con contempladas en la actualidad, hmmmm, no me convencería ya que en ese caso se demostraría que ha sido pura casualidad.
No golfo, no tengo los mapas de evolucion de ese ensemble, a veces guardo las de algunos, pero en esta ocasion no ha sido asi... :-\
De todos modos, y pensando precisamente en que los ensembles pueden ser infinitos y dar por tanto soluciones infinitas, es bastante dificil imaginar que ese ensemble llego a esa situacion tras un camino distinto al que se ha dado realmente... quiero decir que si el dia 8 el ensemble 13 predijo lo que muestra, es casi seguro que el camino que mostro fue muy parecido al que realmente ha tenido lugar...
dani, parece que creas que los ensembles estan puestos a voleo, que se usan sin rigor, no se... eso no es asi, como bien ha explicado erierab... existen por algo (incapacidad de conocer todas las variables que ocurren en el momento de partida del modelo determinista) y tienen una finalidad, no se trata de hacer 400.000 ensembles por si alguno acierta...
Es mas, estamos hartos de ver situaciones en las que 8 ensembles de los 20 que muestra meteociel dan una solucion parecida a 6 dias vista, por ejemplo...
A ver, cojamos la salida del GFS de las 00 horas de hoy... vayamonos a un plazo largo, es decir, suceptible de fallos... y cojamos los ensembles... vemos esto en el ensemble 1...
(http://images.meteociel.fr/im/3879/gens-1-1-180_own4.png)
Aqui no hay que coger las cosas al dedillo, sino quedarse con las tendencias... yo veo estos centros de accion:
-- centro de altas presiones por Terranova o al este de Terranova...
-- gran zona depresionaria en buena parte del Atlantico norte...
-- dorsal asomando el morro por la peninsula...
-- bajas presiones, sobre todo en altura, en el Mediterraneo y Europa del este...
-- gran centro de altas presiones en Rusia/Escandinavia...
Ahora cojamos los ensembles 2, 3 y 4 para ese mismo plazo:
(http://images.meteociel.fr/im/8642/gens-2-1-180_pgw0.png)
(http://images.meteociel.fr/im/7144/gens-3-1-180_wfg5.png)
(http://images.meteociel.fr/im/472/gens-4-1-180_noo1.png)
Basicamente son iguales (y otros muchos, practicamente la situacion esta definida para ese dia), asi que dudo que esten puestos "para ver si alguno acierta"...
Sin embargo, si nos vamos a 300 horas vemos situaciones muy distintas: pasillo abierto en la peninsula para borrascas atlanticas, dorsal emergiendo sobre nosotros, etc... ¿esto quiere decir que el modelo sea malo, que los ensembles no sirven, que estan hechos por "catetos", etc.?: no... lo unico que quiere decir es que entre las 180 y las 300 horas hay un momento en que la situacion general de la atmosfera puede evolucionar por distintos caminos, y logicamente los ensembles se dispersan...
erierab, muy buena exposicion... me quedo con dos cosas que has dicho:
-- las salidas correspondientes a las predicciones no deterministas ("ensembles" o conjuntos) corresponden a la ejecución del modelo con diferentes valores iniciales, de tal forma que se intenta, de alguna manera, paliar la incertidumbre en la información de entrada al modelo, incertidumbre que se transmite a los resultados dado el carácter no lineal del sistema a modelizar y las aproximaciones necesarias para la resolución numérica de las ecuaciones implicadas, como acertadamente indicáis. Las fuentes de esa incertidumbre sobre los datos de entrada son variadas, y abarcan desde las inherentes a la precisión instrumental y desigual densidad geográfica de las observaciones, hasta el preproceso de las mismas para ajustarlas a una malla homogénea que se utilizará para alimentar el modelo (gridding).
Es decir, son NECESARIOS...
-- Dada esta limitación, el planteamiento de las técnicas no deterministas se centra, no tanto en la obtención de soluciones exactas, como en acotar el espacio de soluciones factibles.
O lo que es lo mismo, o por lo menos yo lo llamo asi, para ver TENDENCIAS...
De todos modos, hay algo que no comparto, o quizas no te he entendido bien:
Lógicamente, no resultaría útil simular las infinitas variaciones de las condiciones iniciales, y en la práctica se simulan sólo un número reducido de ellas, pero, y aquí viene lo interesante, estas variaciones no se escogen al azar, sino que se escogen de forma que actúan sobre las combinaciones de variables que producen la mayor variabilidad sobre los resultados, lo que lleva, combinada con las limitaciones de los modelos, a las "exageraciones" citadas.
¿Estas seguro de que las alternativas iniciales al modelo determinista se cogen para "buscar la maxima variabilidad posible en las soluciones"?... ¿con que objeto, cual seria el motivo de esto?... ademas, a priori, antes de ejecutar los ensembles, no conocemos las soluciones, asi que no entiendo tu afirmacion... :-\
¿O quieres decir que se sabe a priori, y para cualquier momento, cuales son las variaciones de las condiciones iniciales que dan lugar a la maxima variabilidad de soluciones?... a ver, un burdo ejemplo: si se tratara de buscar las soluciones mas dispares, bastaria con meter en el modelo datos "ridiculos", asi nos asegurariamos soluciones muy distintas...
Perdona, pero no te he entendido... :-X
Yo no creo que se acoten para conseguir la mayor variabilidad posible, no,
para mi lo que se buscan son "justificaciones" a los procesos que hacen que el modelo determine una salida,
vamos, que es lo que hace que el modelo de esa salida en concreto,...., no exactamente la tendencia, si no los procesos que producen esa tendencia,
si algunos son incoherentes con los datos verificables, al poco darán salidas locas (por mucho que la tendencia vaya a piñon fijo),...
eso es lo que podemos buscar en los ensembles, los procesos que dan una determinada salida, y que, como buenos humanos que somos, debemos saber discernir aplicando nuestra experiencia y visión de conjunto,
para los modelos la realidad son las fórmulas, para nosotros la realidad es nuestro mundo, caocidad y modelos incluidos.
y para mi si, al menos el GFS indicaba esta situación, desde hace semanas,
que si añadimos la situación ciclónica atlántica, el verano que hemos tenido (estado de la dorsal sahariana), como va evolucionando el ártico, la corriente de chorro,..., no era tan descabellado tomar como una buena "tendencia",..., solo había que acertar cuando tendríamos la primera,....
y viendo como están las cosas también me aventuro a decir que tendremos más de una entrada atlántica,... y más de dos ;D
Cita de: dani en Domingo 18 Octubre 2009 10:54:21 AM
20 ensembles, por 4 salidas al día, por 7 días a la semana... son 560 mapas diferentes:
Si con 560 mapas no hay uno que acierte... apaga y vámonos....
eso mismo...
no me valen tus argumentos vigorrín, es como si yo hago predicciones para el futuro a dos semanas vista y doy 50 opiniones diferentes, barajando las posibilidades más coherentes...
esto es como las cabañuelas más o menos, que dicen que en verano hará calor y en invierno nevará por los altos
:mucharisa: ;)
Un poco de luz:
https://www.tiempo.com/ram/2104/interpretacin-de-mapas-y-productos-meteorolgicos/
https://www.tiempo.com/ram/2489/qu-modelo-numrico-operativo-de-prediccin-del-tiempo-es-el-mejor-del-mundo/
Bye
PD. Sabéis que el modelo determinista del CEPPM va a pasar de 25 a 15 km muy pronto y el EPS-CEPPM (50 + 1 escenarios) va a pasar de los 50 km a 25 km desde el D+0 al D+10, de resolución horizontal.
De aquí a unos años, el Determinista del CEPPM pasará a ser un modelo de MESOESCALA GLOBAL de 10 km de resolución horizontal y MAS de 91 niveles en la vertical.
ALGUIEN DA MÁS
Gracias por los comentarios, y en especial a Nimbus por su contribución a mejorar el conocimiento del tema.
Cita de: Vigorro...Estás seguro de que las alternativas iniciales al modelo determinista se cogen para "buscar la máxima variabilidad posible en las soluciones?... ¿con que objeto, cual seria el motivo de esto?... además, a priori, antes de ejecutar los ensembles, no conocemos las soluciones, así que no entiendo tu afirmación... Undecided
¿O quieres decir que se sabe a priori, y para cualquier momento, cuales son las variaciones de las condiciones iniciales que dan lugar a la máxima variabilidad de soluciones?... a ver, un burdo ejemplo: si se tratara de buscar las soluciones mas dispares, bastaría con meter en el modelo datos "ridículos", así nos asegurariamos soluciones muy distintas...
Perdona, pero no te he entendido... Lips Sealed
Perdoname tú, tal vez me he explicado mal, o de forma incompleta.
Como es sabido, los sistemas no lineales son especialmente sensibles a pequeños cambios en sus condiciones iniciales, y lo que se hace con estas técnicas es ejecutar varias veces el modelo con pequeñas variaciones en las mismas (perturbaciones). De esta forma, cada una de las condiciones iniciales que se introducen al modelo puede ser considerada como la suma del valor "observado", que sería el que alimenta el modelo determinista, y un pequeño término de perturbación en el que se va a recoger la incertidumbre de los valores procedentes de la observación (Observa la tercera figura del primer artículo citado por Nimbus).
El ideal sería poder correr el modelo para todos los posibles puntos del espacio de fases (en nuestro caso los valores de las distintas variables que definen el estado de la atmósfera en un instante determinado) que están en la región señalada como momento inicial, y en función de los resultados obtenidos establecer una función de densidad de probabilidad para cada punto, pero por motivos evidentes, eso no sería factible en los plazos necesarios para su utilización operativa.
Esta limitación nos lleva a tener que escoger únicamente unos pocos de esos puntos para las inicializaciones (al final es "casi" un problema de muestreo), pero cuáles?, pues aquellos que mejor conserven la variabilidad en los que se obtendría en los resultados si hubiésemos realizado el proceso indicado en el paso anterior, lo que se consigue aplicando, al valor "observado", distintas perturbaciones sobre las variables que sean especialmente sensibles en su respuesta ante pequeños cambios, ya que éstas van a ser las responsables de la mayor parte de la varianza de los resultados obtenidos. Por tanto no se trata simplemente de generar soluciones dispares porque sí.
Vamos a ver con un par de figuras:
(http://img17.imageshack.us/img17/2323/sensibilidadvariable.jpg)
Fijandonos en la Fig. 1 (es un esquema muy simplificado para ver si nos entendemos), la respuesta a los cambios de la variable en la función (si quieres al modelo) roja es mucho menor que en el azul, por lo que las incertidumbres sobre el valor de la variable tendrán una repercusión mayor sobre la variabilidad ( o su cuantificación la varianza) en el caso azul que en el rojo.
Incluso (Fig.2) la sensibilidad no tiene porqué ser constante, sino que puede depender del valor de la variable, y por extensión, ser diferente entre las distintas pasadas diarias del modelo.
La forma de escoger las perturbaciones de la forma mas adecuada es diferente en el ECMWF (ENSMN) y el GFS (GEFS).Mientras el ECMWF (ENSMN) utiliza la técnica llamada de vectores singulares relacionada con el álgebra matricial, el modelo americano utiliza un enfoque totalmente diferente mediante los llamados Modos de generación del crecimiento del error, de menor coste en términos de utilización de ordenador.
Aparte de la información amablemente proporcionada por Nimbus, os aconsejo echar un vistazo al módulo sobre "Predicciones de Conjunto" (Predecibilidad->Predicciones de conjunto) del Curso de Predicción numérica de Euromet ( http://euromet.meteo.fr/euromet/spanish/navig/beginn.htm )
Espero que esta vez haya resultado un poco mas claro el sentido del párrafo citado por Vigorro.
Cita de: _00_ eso es lo que podemos buscar en los ensembles, los procesos que dan una determinada salida, y que, como buenos humanos que somos, debemos saber discernir aplicando nuestra experiencia y visión de conjunto,
para los modelos la realidad son las fórmulas, para nosotros la realidad es nuestro mundo, caocidad y modelos incluidos.
Eso mismo se puede aplicar también a los modelos deterministas, lo que debemos tener claro, y en eso estoy de acuerdo contigo, es que cualquier modelo, del tipo que sea, no es una bola de cristal. En cualquier caso el componente humano es, hoy por hoy, muy importante.
Cita de: MaJaLiJaRno me valen tus argumentos vigorrín, es como si yo hago predicciones para el futuro a dos semanas vista y doy 50 opiniones diferentes, barajando las posibilidades más coherentes...
Es que lo normal es que ocurra lo mas coherente. ::)
Disculpas por el "peñazo".
Saludos
Cita de: Nimbus en Domingo 18 Octubre 2009 21:37:29 PM
Un poco de luz:
https://www.tiempo.com/ram/2104/interpretacin-de-mapas-y-productos-meteorolgicos/
https://www.tiempo.com/ram/2489/qu-modelo-numrico-operativo-de-prediccin-del-tiempo-es-el-mejor-del-mundo/
Bye
PD. Sabéis que el modelo determinista del CEPPM va a pasar de 25 a 15 km muy pronto y el EPS-CEPPM (50 + 1 escenarios) va a pasar de los 50 km a 25 km desde el D+0 al D+10, de resolución horizontal.
De aquí a unos años, el Determinista del CEPPM pasará a ser un modelo de MESOESCALA GLOBAL de 10 km de resolución horizontal y MAS de 91 niveles en la vertical.
ALGUIEN DA MÁS
Gratis y accesible? ::)
Cita de: dani en Lunes 19 Octubre 2009 08:00:08 AM
Cita de: Nimbus en Domingo 18 Octubre 2009 21:37:29 PM
Un poco de luz:
https://www.tiempo.com/ram/2104/interpretacin-de-mapas-y-productos-meteorolgicos/
https://www.tiempo.com/ram/2489/qu-modelo-numrico-operativo-de-prediccin-del-tiempo-es-el-mejor-del-mundo/
Bye
PD. Sabéis que el modelo determinista del CEPPM va a pasar de 25 a 15 km muy pronto y el EPS-CEPPM (50 + 1 escenarios) va a pasar de los 50 km a 25 km desde el D+0 al D+10, de resolución horizontal.
De aquí a unos años, el Determinista del CEPPM pasará a ser un modelo de MESOESCALA GLOBAL de 10 km de resolución horizontal y MAS de 91 niveles en la vertical.
ALGUIEN DA MÁS
Gratis y accesible? ::)
Subo un poco el topic que a mi la pregunta de Dani tambien me interesa mucho ;D
Si por mi fuera gratis y con regalo de EFI.
Bye