Brecha digital: no vemos la misma internet

No todos vemos la misma internet

Hasta hace poco cuando hablábamos de brecha digital se usaban métricas de penetración de internet, cantidad de dispositivos o líneas de datos de ADSL entre la población, cantidad de personas que decían haber utilizado internet en el último mes. Esto hace rato que ha quedado atrás. En el mundo muchas cosas han cambiado y no es raro encontrar números bastante altos de porcentaje de líneas móviles en países africanos, donde un móvil con una conexión es algo básico para la supervivencia.

La brecha digital también se transforma, y ahora el precipicio se abre entre las formas en las que usamos la red unos y otros. Incluso en países donde casi todos tenemos internet, un grupo de la población, el de las personas mayores, se está quedando afuera y reclaman su inclusión.

El primer estudio con análisis masivo de datos de telecomunicaciones de un país entero, europeo, desarrollado, revela que con un acceso igualitario hay dos grandes grupos de comportamiento en la red, que sobre todo, están relacionados fuertemente con la renta media y el nivel educativo de la población. Cuando leí el estudio, enseguida me puse en contacto con dos de sus investigadores, Esteban Moro e Iñaki Úcar, para hacerles muchas preguntas. "Nosotros vimos que no todos veían la misma internet", me dijo Esteban.

Casi todo lo he dejado anotado en este reportaje para Newtral. [Archivo]

Foto de mentatdgt en Pexels

Censura en redes sociales 2015-2022

Mapa de censura a redes sociales en el mundo 2015-2022

Los gobiernos de casi uno de cada tres países han censurado redes sociales desde 2015. La excusa es la seguridad, pero los cortes suceden en momentos de protesta social y conflictividad política. Sólo el año pasado se registraron cierres de redes sociales o apagones completos de internet en al menos 17 países, que afectaron a 250 millones de personas en todo el mundo.  Esto ha resultado en la paralización de la comunicación entre millones de ciudadanos en un año de pandemia y zozobra política.

Las redes más censuradas: Facebook, WhatsApp, Twitter

Las plataformas más censuradas desde 2015 según la base de datos del estudio de Surfshark, son Facebook (48), WhatsApp (42), Twitter (38), YouTube (36), Instagram (28), seguidas de otras como Telegram (21), Skype (20) y Messenger (17). El estudio también pudo identificar censura o bloqueos específicos de otras plataformas: Tiktok, Linkedin, Zoom, Tinder, Vimeo, Signal, Snapchat, Viber, Facetime, Duo, y Soundcloud. 

Todos los datos están en este artículo publicado en Newtral el 26/1/2022 [Archive]

El seguimiento del teléfono de Diana Quer reabre el debate entre seguridad y privacidad

Rueda de prensa de Diana Quer

El antiguo debate seguridad versus privacidad ha aparecido esta semana en la rueda de prensa en la que la Guardia Civil dedicó casi dos horas a explicar de manera muy detallada por qué han tardado más de un año en esclarecer el crimen y detener al presunto asesino de Diana Quer.

El coronel de la Unidad Central Operativa (UCO), Manuel Sanchez Corbí ha agradecido la estrecha colaboración de las empresas de telefonía, y ha dejado en claro la importancia que tuvo en esta investigación el análisis de los datos de geolocalización de los teléfonos móviles de víctima y sospechoso.

“Si las compañías no hubieran conservado los datos no hubiéramos resuelto el caso. Aprovecho para decir que en la Comisión Europea hay un debate para que en aras de la privacidad, las compañías no guarden los datos. Me parece perfecto. Habrá casos que no se resuelvan. Los datos hay que guardarlos”.

Lo de “me parece perfecto” iba en tono irónico. Sánchez Corbí se refería a la obligación que ha establecido el Tribunal de Justicia de la UE de modificar la regulación de retención de datos, cuya directiva europea fue derogada en 2014 y que establecía que todos los datos de comunicaciones electrónicas de todos los ciudadanos debían ser guardados por al menos un período de dos años. El Tribunal entiende que una conservación masiva de datos como esta tiene que estar motivada, o al menos ser por tiempo limitado, por lo que la retención con carácter preventivo no estaría permitida como ahora.

En España, la ley 25/2007 de 18 de octubre obliga a la conservación de los metadatos de comunicaciones móviles (entre los que se encuentran los de geolocalización) durante 12 meses y sigue vigente a pesar de la derogación de la directiva europea. En diciembre de 2016, una segunda sentencia del Tribunal europeo ratificó la anulación de la directiva de retención de datos y volvió a cuestionar las legislaciones nacionales que continúan vigentes.

La conservación masiva de datos

En la mezcla de sensibilidades que produce el esclarecimiento de este caso que ha tenido en vilo a la sociedad durante casi un año y medio, puede costar poner en perspectiva lo que implica la conservación preventiva de todo tipo de datos de la ciudadanía.

Las reformas legales previstas que cuestiona el coronel se refieren a un terreno donde se intenta proteger a nivel colectivo uno de los derechos fundamentales del ser humano: el derecho a la privacidad. Así lo establecen la Declaración Universal de los Derechos Humanos, en su artículo 12; el Pacto Internacional de Derechos Civiles y Políticos, adoptado por la Asamblea General de Naciones Unidas, artículo 17; la Directiva Europea 95/46 CE de 24 de octubre del Parlamento Europeo y la Constitución española, en el artículo 18. La historia nos ha enseñado que la vigilancia de la sociedad a nivel masivo está relacionada estrechamente con regímenes autoritarios y de control, y que este tipo de poder nunca ha resultado en el progreso de esas sociedades sino más bien todo lo contrario.

Sergio Carrasco, abogado experto en tecnología, ve sensata la resolución del Tribunal de Justicia de la UE. Consultado por Vozpópuli, dice que “el problema aquí es que estamos hablando de la conservación masiva de datos, es decir la conservación completa de datos de todas las personas y además por un período no corto, estamos hablando de dos años al menos. Conservar absolutamente todos los datos durante períodos tan grandes no se encuentra justificado”. Esto es lo que se sigue haciendo actualmente en España pero que las reformas legales de la UE no permitirán en un futuro.

Hay diferentes tipos de datos y también son diferentes las formas de conseguirlos para un investigador: no es lo mismo “pescar” en una cantidad masiva de datos obtenidas de modo preventivo (aunque sea con orden judicial), que los procedimientos habituales comprendidos por la ley en los que un juez puede ordenar un seguimiento o vigilancia de las comunicaciones de un sospechoso.

Fuentes policiales han asegurado a Vozpópuli que lo que los investigadores quieren es que los datos de la operadoras telefónicas se guarden «cuanto más tiempo mejor». Y cuando el juez y el fiscal lo crean necesario, que se pueda acceder a ellos.

«En este momento, la forma de actuar es esta: cuando se tiene una sospecha se piden los datos a las compañías telefónicas, que entonces guardan los datos. Pero en las investigaciones hay casos en el que las pistas se descubren, por ejemplo dentro de tres años, y entonces te contestan que ya no los tienen». Según las mismas fuentes, “hoy en día en la telefonía se guardan muy poco tiempo los datos, y cada vez menos por temas de privacidad. Sólo se guardan si los piden los jueces o fiscales, y si no, se destruyen. Por eso queremos que se guarden durante el mayor tiempo posible”.

Carrasco ve posible utilizar otros mecanismos para la investigación, como por ejemplo la lista de llamadas, que por temas de facturación, ya se tiene, sin que sea necesaria la retención total de los datos. “Se ha dejado caer lo del anonimato en redes sociales, ahora lo del tema de la conservación de datos, y al final lo que se quiere, haciendo referencia a casos concretos -cuya solución final al final no tiene tanto que ver con lo que proponen-, pues es crear una percepción social de la necesidad de conservar estos datos”, concluye.

Más control judicial

José Luis Escobar es un abogado valenciano que participó en la acusación en el “caso petroleras”, en el que se investigaba el pacto de precios de Repsol, Cepsa, Disa, Galp y Meroil.

Escobar está a favor de obligar a las empresas a conservar datos a modo preventivo, para cuando necesiten ser recuperados para investigaciones, como las de corrupción. En casos donde se requiere judicialmente la información de cuentas bancarias, si han pasado más de 5 años, los bancos no entregan esa información, porque no están obligados. “Es muy habitual”, dice Escobar. “Los tienen, porque sé que cuando los clientes los piden se los dan”.

Al igual que la Guardia Civil, Escobar está a favor de la conservación total de datos. ¿Qué nos diferencia como sociedad de un régimen totalmente autoritario que tiene acceso casi total a lo que piensan y dicen sus ciudadanos? “Primero, seguridad judicial; segundo, la ley, que se cumpla; y tercero, control judicial. Eso nos diferencia”, responde Escobar. Para todo ello la garantía es cómo se accede, cómo se ve ese rastro y que haya un riguroso control del poder judicial, ya que siempre habrá gente que tenga acceso a esos datos. Ese es el problema que ve Escobar: “actualmente en España nadie sabe quién tiene acceso y qué hace con esos datos, por ejemplo con Sitel, lo cual es gravísimo”.

Sitel es el sistema por el que las fuerzas de seguridad del Estado pueden acceder a contenidos y metadatos de las comunicaciones, en los casos en que la ley contempla y previa autorización judicial. Hasta ahí la teoría, porque existe la sospecha de interceptaciones previas a la autorización judicial para obtener indicios que justifiquen posteriormente la petición del “pinchazo”.

Las dudas siempre han existido: en 2009 miembros del PP acusaron a Pérez Rubalcaba, entonces ministro del Interior, de usar Sitel con fines políticos, a raíz de grabaciones relacionadas con el caso Gurtel. La falta de control judicial en parte del proceso hizo que en 2010 dos magistrados del Supremo, Manuel Marchena Gómez y José Manuel Maza Martín, cuestionaran la legalidad del sistema.

Para Escobar, está claro que con las tecnologías actuales se puede recoger y custodiar los datos, pero no se puede dejar eso a la policía, sino que todo tendría que estar bajo control judicial, “además mediante un auto y bien justificado”.

Unas garantías jurídicas que, según lo que dice, no parece que tengamos en España. “Con Sitel por ejemplo, debería haber una ley orgánica -porque el objeto es un derecho fundamental, el derecho a la intimidad, que regule quién y cómo puede ver esos datos. Pero en España esa ley no existe. Está siendo suplida mal que bien por la jurisprudencia”.

¿Hacia una sociedad orwelliana?

Han pasado unos años de las revelaciones del espionaje masivo a ciudadanos que fue denunciado por Edward Snowden y una gran mayoría ha tomado conciencia de la importancia de la privacidad de nuestros datos personales en la era de internet.

Pensadores como Daniel Solove sostienen que la privacidad promueve y alienta la autonomía moral de los ciudadanos, un requisito fundamental de una democracia. Renata Ávila es una abogada especializada en nuevas tecnologías y derechos humanos. Considera que la conservación de datos para investigaciones a posteriori “es una medida no necesaria, desproporcionada y contraria con los estándares internacionales de derechos humanos. Guardar los datos de todos y acumular dossiers de todos los ciudadanos es orwelliano. Tu gobierno, con los metadatos de tu teléfono, puede saber exactamente dónde estuviste y cuánto tiempo, por años”, grafica.

Ávila señala una tendencia al aumento de la retención de datos por motivos de seguridad. “El ejemplo más reciente es Italia donde sin mayor debate aumentaron la retención de datos a seis años, el año pasado, a pesar de oponerse no solamente grupos de derechos civiles, sino las empresas, en las que impone un costo innecesario y mayor responsabilidad de custodia”.

La falsa dicotomía que tan bien funcionó después de los atentados del 11S en Estados Unidos, seguridad versus privacidad, parece volver con cada caso sensible. Como sociedad, ¿estamos dando más importancia más importancia a la seguridad que a la privacidad? Carrasco cree que no en general pero sí en casos concretos. “Después de un acto de terrorismo o de uno tan mediático como Diana Quer, lo que piensa la sociedad es que hay que darle más importancia a la seguridad. Lo que buscan es eso, crear esa falsa dicotomía, que o estás seguro o tienes privacidad”.

Escobar observa el hecho de que haya tantas cámaras en la calle y cree que sí hay una tendencia a primar la seguridad sobre la intimidad. Advierte que solamente se pueden prescindir de estos derechos fundamentales en los estados de excepción y de sitio de la Constitución.

“Es un tema muy serio. Yo sí que me alarmo cuando oigo que Estados Unidos ha estado espiando a Merkel y también a Rajoy. Eso ya es un casus belli. Sin embargo Rajoy no dijo nada. Dijo: no tengo nada que ocultar, pero no es eso. Es que lo tuyo es tuyo y los demás no pueden entrar a menos que tú lo autorices. Y siendo un presidente de gobierno, tu interés es el de todos”.

Recuerda que le causó alarma que eso no fuera objeto de escándalo nacional a nivel jurídico. “Pareció que como los EEUU tienen capacidad para hacerlo, es normal. Pues no, no es normal, es un hecho delictivo”, subraya.

Este artículo se publicó originalmente en Vozpópuli el 3/1/2018

El Gobierno de Trump se dispone a acabar con la neutralidad de la red

Donald Trump vs. la neutralidad de la red

No es retórico decir que esta tarde puede empezar el fin de la internet que conocemos. Uno de sus principales fundamentos puede acabar hoy, el día en que la Comisión Federal de Comunicaciones presenta en el Congreso su informe para terminar con las leyes de la neutralidad de la red, y dibujar un nuevo escenario donde operadores, gigantes tecnológicos, medios, proveedores de contenidos y usuarios tendrán que establecer nuevas relaciones con reglas de juego diferentes.

Ajit Pai, exabogado de Verizon que ha sido elegido por Donald Trump para dirigir la Comisión, quiere eliminar la normativa actual. Obama, con los Demócratas controlando la FCC, logró en 2015 aprobar las leyes de la neutralidad de la red y definió el acceso a la banda ancha como un servicio público, al igual que la electricidad y el teléfono.

Esto significa garantizar que todo el tráfico sea tratado por igual, y dar acceso a comunicaciones, información, cultura y oportunidades económicas para todos, al prohibir a los operadores bloquear o ralentizar el acceso a sitios web particulares. Operadores de banda ancha y telefonía como Comcast y AT&T se han opuesto a considerar internet un servicio público alegando que significa una intromisión del Estado y menos incentivos para mejorar el servicio.

La preocupación por la posibilidad de que operadores puedan bloquear el tráfico lleva varios años de batalla por parte de los usuarios de internet y asociaciones de consumidores, ya que esta práctica suele suponer abrir una puerta para la llamada internet de dos velocidades, en la que los participantes pequeños, medios o startups, se quedan fuera de las autopistas de pago, que estarán reservadas a los gigantes tecnológicos.

Ya hubo casos en los que los operadores han intentado o logrado intervenir en el tráfico de la red en su favor. Por ejemplo en 2007, la Associated Press reveló que Comcast estaba bloqueando o ralentizando el compartir archivos. AT&T bloqueó Skype y otros servicios para hacer llamadas por internet en el iPhone hasta 2009.

Saltarse la neutralidad también supondrá que cualquier operador del mundo pueda ofrecer paquetes con ofertas de zero-rating. Esta práctica, también conocida como tasa cero, significa que ciertos contenidos de internet se entregan al usuarios final a un costo considerablemente reducido o de forma gratuita, como la polémica oferta que Vodafone presentó hace unos meses. Vendida como algo beneficioso para el consumidor final, en realidad implica una discriminación hacia los medios o compañías más pequeñas proveedoras de contenidos en la red. Una oferta anterior similar de la misma operadora había sido denunciada por Xnet, que se encuentra esperando respuesta del Ministerio de Industria, Turismo y Agenda Digital.

La intención de la administración Trump de desarticular las leyes de la neutralidad de Obama se conocía desde marzo de este año, y en abril Pai ya había propuesto limitar el concepto amplio de la neutralidad de la red. Sin embargo ha sido hace unas semanas en la carrera hacia la votación en el Congreso cuando activistas y usuarios se han levantado en múltiples protestas contra el hombre de Trump en la FCC.

Los tres miembros republicanos de la FCC, incluyendo a Pai, han dicho que votarán por la propuesta para dejar sin efecto las leyes de la neutralidad, que prohíben a los proveedores de servicios de internet bloquear o cobrar más a los sitios web por un mejor acceso de sus usuarios. También dejaría sin efecto la consideración de internet como un servicio público. El voto de los tres ganaría al de los dos comisarios (demócratas) restantes.

En los últimos días, la FCC ha recibido una marea de 22 millones de comentarios de los ciudadanos a la propuesta, según el Registro Federal, el diario oficial del Gobierno. Según programas que han analizado el contenido, un 98% de los comentarios manifiestan su rechazo a la propuesta de Pai.

La masividad de envíos y el posible uso de tecnologías para duplicarlos (spambots) o incluso provocar envíos “fake” han hecho que un miembro de la FCC, miembros del Congreso y fiscales generales del Estado pidan que la votación se aplace hasta que los comentarios puedan ser analizados. Pai ha declarado que no pretende hacerlo.

Este artículo se publicó originalmente el 14/12/2017 en Vozpópuli

Foto: Gage Skidmore, CC BY-SA 2.0 https://creativecommons.org/licenses/by-sa/2.0, via Wikimedia Commons

Marenostrum 4: El superordenador español encerrado en una capilla amplía su capacidad

Marenostrum 4: El superordenador español encerrado en una capilla

El conserje pide disculpas porque en la capilla hay un solo baño. “Al final del pasillo”, señala. Lo que no dice es que al atravesar ese pasillo nos encontraremos de repente con una galería de ordenadores antiguos, como inmensos muebles. Uno tras otro hablan calladamente de los pasos de gigante que ha dado la computación en estos últimos años: el teléfono que llevo en el bolsillo tiene hoy una capacidad de procesamiento equivalente a varios de estos superordenadores, que eran los más potentes hace 20 años.

Estoy en el Centro Nacional de Supercomputación de Barcelona (BSC por sus siglas en inglés), dentro del edificio que alberga el Marenostrum 4. Este es el supercomputador más potente de España, uno de los más poderosos de Europa, y está íntegramente destinado a la generación de conocimiento científico. Es conocido porque además de inteligente, es bello: se encuentra colocado en una urna de cristal dentro de una capilla, donde la austeridad de la piedra contrasta con los cables y los racks.

Al entrar, el cubo de cristal resplandece en la penumbra de la capilla y deja ver los 48 racks (o torres de máquinas) alineados en su interior, llenos de lucecitas titilantes. Dentro de ellos hay más de 3.400 nodos equipados con chips Intel Xeon y una memoria central de 390 Terabytes. Debajo del suelo se ven las tuberías de la refrigeración y los gruesos manojos de cables de la fibra óptica. Desde arriba entra la luz filtrada por los vitrales de la capilla.

El juego entre historia y futuro ha fascinado a muchos y es desde luego uno de los principales reclamos para dar a conocer la ciencia al gran público. Justamente en estos días está participando en un concurso para ser elegido “el centro de datos más bonito del mundo”.

Cualquier persona puede pedir una visita guiada y ya han desfilado por allí mas de 50.000 visitantes, “muchos de ellos sin bautizar”, bromea Mateo Valero, su director. Uno de ellos es Dan Brown, el autor de El Código Da Vinci, quien hace unos años al pasar por el BSC pensó que esto merecía un libro y ha terminado metiendo en su última novela, Origen, al Marenostrum, a la capilla y al mismo Valero como personaje.

Mateo Valero, doctor y profesor, fue el primer catedrático en informática en España. Es director del BSC

En junio de este año se ha desmantelado el anterior, el Marenostrum 3, instalado entre 2012 y 2013, para montar el Marenostrum 4, que ha costado 34 millones de euros y ya está en funcionamiento. Tiene una potencia pico de más de 11,1 Petaflop por segundo, lo que quiere decir que realiza más de 11.100 billones de operaciones por segundo, diez veces más que el Marenostrum 3. En computación, los FLOPS (floating point operations per second, operaciones de coma flotante por segundo, traducido del inglés) son una medida del rendimiento de una computadora, especialmente en cálculos científicos. Una forma de hacer entrar estos números en nuestra cabeza es pensar que un supercomputador es capaz de hacer en una hora lo que un ordenador común necesitaría años para procesar.

El reto no sólo es aumentar en velocidad sino también en tener una mayor eficiencia energética. Con esa potencia diez veces mayor este año por parte del Marenostrum 4, su consumo de electricidad sólo aumenta un 30 %, es decir que gasta 1,3 megavatios-hora al año.

El Marenostrum 4 es el tercer computador más rápido de Europa y el decimotercero del mundo, según el ranking Top500, que es una lista que se basa en la rapidez de los superordenadores para ejecutar un programa llamado linpack. El primero en la lista es un chino, el Sunway TaihuLight, que tiene más de 10 millones de procesadores y gasta unos 20 megavatios-hora al año, unos 20 millones de factura de electricidad. Cincuenta máquinas como la china se comerían toda la electricidad nuclear que produce una central como Vandellós.

Ranking de supercomputadores mundiales

Como en todos los rankings, aquí también parece haber un gran componente de ego y hype. “Nosotros, con el dinero que nos ha dado el ministerio, podríamos haber sido terceros en esa lista si hubiéramos querido”, afirma Valero. Explica que pueden ponerse aceleradores específicos para que esta prueba salga bien, “pero al día siguiente muy pocas personas podrían usarlo, y lo que hay que tener es una máquina a la que los investigadores le saquen provecho”. Sergio Girona, director de operaciones, explica la diferencia entre pico -aquellos 13,7 Petaflop por segundo- y rendimiento con una imagen: “El pico es cuánto puede correr mi Ferrari; el rendimiento es cuánto corre pilotada por un piloto experto”.

Proyectos de investigación de toda Europa concursan para obtener horas de procesador y son evaluados en función de su calidad por comités ajenos al BSC, consorcio público participado por el Ministerio de Economía (60%), la Generalitat de Catalunya (30%) y la Universidad Politécnica de Cataluña (10%).

Lo normal es que la máquina esté al total de ocupación por parte de la comunidad científica. La distribución es de 80 % para proyectos europeos de la red de computación más avanzada de Europa (Partnership for Advancing Computing in Europe, PRACE), 16 % para científicos españoles de la Red Española de Supercomputación y un 4 % que se reservan para investigadores del BSC. El tiempo de procesador que se otorga es gratuito y está garantizado, aunque también confiesan hacer overbooking para aprovechar imprevistos.

Para qué sirve un supercomputador

Mucha de los avances en torno a la Inteligencia Artificial actual son resultado de teorías que se conocían hace tiempo pero no podían ser aplicadas por falta de poder de cálculo. Toda esta potencia computacional es necesaria para crear modelos, ejecutar simulaciones complejas y tratar grandes cantidades de información de estudios científicos. “Siempre que aparece un nuevo instrumento, como telescopios, microscopios, los aceleradores de partículas o las plataformas de secuenciación de genomas, por ejemplo, la ciencia o la ingeniería que usan ese instrumento avanzan”, dice Valero.

La comparación de la teoría con lo que se mide es fundamental para el avance de la ciencia, y en eso los computadores son la última pieza evolutiva del paradigma de la investigación. La simulación de modelos numéricos y el análisis de datos ha ayudado a reducir costos, evitar sufrimiento y hacer experimentos que no podrían realizarse en el mundo real por ser demasiado caros, demasiado peligrosos o simplemente imposibles.

Uno de los 3.400 nodos con dos CPUs y 48 núcleos que tiene el superprocesador

Marenostrum ha colaborado con más de 16 millones de horas de procesador a la detección de ondas gravitacionales, con datos procedentes de los interferómetros LIGO. También trabaja con proyectos de ADN, y es capaz de detectar genes alterados en el genoma de la célula cancerosa, información que puede servir para trabajar en tratamientos de medicina personalizada. Otro de sus proyectos en marcha es el de estudiar el cambio climático. “En este campo, la previsión es la única herramienta que tenemos para intentar predecir algo”, dice Valero. ú

Contra el cambio climático

Estas máquinas de computación son complejas y también lo son los modelos que se construyen para analizar los datos. Por esto gran parte del éxito del BSC está en la colaboración entre científicos -que tienen el conocimiento en clima, en meteorología, en composición atmosférica-, con ingenieros informáticos.

Kim Serradell es uno de ellos, es responsable de Ciencias de la Tierra en el BSC, y lo primero que me dice es que no se va a meter a opinar si hay cambio climático, que él sólo dará datos. En su equipo trabajan con la predicción climática y aunque son especialistas en el medio plazo, también tienen modelos para predecir qué pasará en una escala de centenares de años.

El equipo de composición atmosférica investiga lo que está pasando en la atmósfera con todos los contaminantes que generamos en ciudades y con modelos de dispersión de polvo en suspensión, como el que se distribuye y llega desde el Sahara. En el BSC son responsables de la previsión de partículas en el aire hasta 48 horas antes para ciudades como Madrid o Barcelona, que han permitido a los ayuntamientos tomar medidas para bajar esos niveles. Este mismo sistema, que se llama Caliope, ha sido implantado en México, y está siendo aplicado en un índice de calidad del aire que se muestra en apps para Android y iOS.

Sin una máquina como el Marenostrum no se podría modelizar el clima. Además de trabajar en todas las escalas temporales, se necesita validar los modelos, analizar los datos de millones de sensores que tienen en todo el mundo, y hacerlo en un plazo razonable de tiempo.

Modelo para la predicción climática

Para el estudio del cambio climático se utiliza un modelo llamado EC-EARTH conjuntamente con 15 instituciones en Europa. En un modelo climático es importante ver qué pasa con la atmósfera (capa gris) pero también es necesario usar información de lo que pasa en los océanos y en los polos, con el hielo. Cuando estos tres modelos están corriendo a la vez, usan un acoplador. “Os lo podéis imaginar como un camarero que va distribuyendo los datos y va pasando la temperatura del océano a la atmósfera, y de la misma forma, los vientos los pasan al océano”.

Lo que describe Serradell son tres sistemas complejos de correr, ya que cada uno está programado de manera distinta. Además, el gran reto para poder obtener mejores resultados es reducir el tamaño de los cuadrados en esa rejilla: si tenemos cuadrados de menos de 10 km podremos ver más procesos -por ejemplo las perturbaciones en la dinámica de corrientes en el mar. Más detalle a costa de más recursos computacionales.

Para esto sirven los superordenadores como el Marenostrum, cuya arquitectura computacional le ha valido el título de “el más diverso e interesante del mundo”, según expertos internacionales. Quizás dentro de unas semanas también pueda ganar el concurso de belleza, si los chinos se olvidan de votar al suyo.

Este artículo fue publicado originalmente en Vozpópuli el 13/11/2017 [Archivo] BSC