Publicaciones en Amics del País
L'impacte de la supercomputació a la ciència i a la societat | Josep Maria Martorell
Director asociado al Barcelona Supercomputing Center (BSC)
- SEBAP
- Textos Amigos del País
- Data: 16/03/2023
- 1647 lecturas
Conferencia pronunciada en el acto solemne de la entrega de los Premios Anuales de Amics del País celebrado en el Saló de Cent del Ajuntament de Barcelona
Muchas gracias señor Miquel Roca, presidente de Amics del País, primer teniente de alcalde, miembros de la junta de la SEBAP. Es un gran honor tener la oportunidad de estar aquí hoy, y no sólo por el maravilloso escenario, esta sala del Consell de Cent, sino también para poder compartir con vosotros algunas reflexiones que el señor Miquel Roca ya ha esbozado.
Cuando uno debe hablar públicamente, como me ocurre a mí de vez en cuando a causa de mi trabajo, puede ser difícil hacerlo ante un público tan diverso, compuesto por personas con trayectorias profesionales impresionantes, familias orgullosas de sus hijos e hijas y jóvenes con un talento excepcional. Por tanto, no es sencillo ajustar el tono del discurso. Sin embargo, me dirigiré sobre todo a los más jóvenes, que me dará la libertad de ser, quizás no del todo preciso técnicamente, pero sí, divulgativo. Espero que los expertos presentes me disculpen.
'No es que Barcelona pueda ser capital mundial a nivel científico-tecnológico, sino que Barcelona ya es capital, al menos a nivel europeo, de la supercomputación'
Quisiera empezar profundizando un poco más en la idea fundamental que el señor Miquel Roca ya ha presentado sobre el rol de nuestra ciudad en el mundo. No es que Barcelona pueda ser (en condicional) una capital mundial a nivel científico-tecnológico, sino que quiero hablaros de un ámbito donde Barcelona ya es capital, al menos a nivel europeo. Me gustaría presentarles la realidad de esta ciudad en el ámbito de las tecnologías computacionales y digitales profundas.
En primer lugar, me gustaría empezar explicándoos qué está pasando ahora mismo en el ámbito IA y las tecnologías digitales, en general, y por qué. Estos días, cuando entramos en Twitter o cualquier diario digital, vemos noticias sobre el chatGPT contínuamente. Quisiera explicaros, tecnológicamente, por qué ocurre esto, exactamente ahora, y por qué es fruto de una convergencia de tecnologías. En segundo lugar, me gustaría transmitirles un poco el impacto que esto tiene, no sólo, en la sociedad, la economía o los debates éticos, que hay muchos, sino en la actividad científica y cómo los científicos trabajan de forma diferente debido a esta convergencia digital. En tercer lugar, me gustaría explicarles que esto no sólo afecta a la ciencia, sino también a la industria y muchas empresas. Y, por supuesto, un tema que es importante para la ciencia y la industria tiene un impacto geopolítico muy claro. Por tanto, me gustaría hablaros del papel que creemos que puede jugar Europa, y en particular Barcelona, en esta carrera entre los grandes países del mundo para el control de la tecnología digital. Y, finalmente, quisiera discutir sobre el futuro, hacia dónde nos dirigimos y qué tecnologías llegarán posteriormente (o complementariamente) al dominio del silicio.
La convergencia de las tecnologías digitales
Permítanme empezar insistiendo en que seré técnicamente poco preciso, así que me disculpo con aquellos que saben más que yo, algunos presentes en esta sala. Dicho esto, empiezo con dos ejemplos con los que quiero mostrar hasta qué punto la tecnología de computación ha avanzado en las últimas décadas. Una es el ENIAC, uno de los primeros ordenadores instalados en Estados Unidos a finales de los años cuarenta y hasta mediados de los cincuenta del siglo pasado, en Pensilvania. La otra es el Frontier, actualmente el supercomputador reconocido como el más potente del mundo de acuerdo con el ranking del Top500, instalado por nuestros colegas de Oak Ridge en Estados Unidos, en un centro dependiente del Departamento de Energía del Gobierno estadounidense.
El Frontier es el primer ordenador conocido que ha roto la barrera del exascale, es decir, la capacidad de realizar un millón de millones de millones (un trillón europeo) de operaciones matemáticas por segundo. Lo importante es que, en las siete décadas que separan estos dos ejemplos, existe una diferencia de aproximadamente dieciséis órdenes de magnitud. Y dieciséis órdenes de magnitud equivalen a un “1” seguido de dieciséis ceros. Y un “1” seguido de dieciséis ceros es algo que, no sé ustedes, pero yo no comprendo con profundidad. Un '1' seguido de dieciséis ceros son diez mil millones de millones. ¿Alguien puede imaginar qué significa que una cosa sea diez mil millones de millones mayor que otra? Entramos en una zona en la que un cero más o un cero menos ya te hace perder un poco la capacidad de entender las cosas. El Frontier, pues, tal y como he mencionado antes, adecuadamente programada, es capaz de llegar al llamado exaflop, que significa que hace diez a la dieciocho, es decir, un millón de millones de millones de operaciones matemáticas por segundo.
Yo no soy capaz de comprender qué significa que una máquina realice un millón de millones de millones de operaciones matemáticas cada segundo, pero sí puedo tratar de entender qué provoca esta inmensa capacidad de cálculo. La tecnología digital es probablemente la única tecnología humana que ha avanzado exponencialmente sin detenerse durante décadas. Esto significa, por ejemplo, que el ordenador portátil que lleva en la mochila o quizá el móvil que lleva en el bolsillo habría sido seguramente el ordenador más potente del mundo hace menos de treinta años. Es decir, que ustedes son capaces de hacer en casa lo que el ordenador más potente del mundo podía hacer hace tres décadas. Por tanto, si seguimos con esta tendencia, ¿qué podremos hacer con el dispositivo que llevamos en el bolsillo dentro de dos o tres décadas? Todo esto suponiendo, por supuesto, que seamos capaces de continuar con el mismo ritmo de crecimiento en los próximos años.
Y esta es la primera pregunta que quisiera responder: ¿seremos capaces? Una mala noticia, no para los investigadores porque significa reto, es que cada vez nos cuesta más dar el siguiente salto. Habitualmente hablamos de saltos de mil en mil: tera, peta, exa, etc., con estos prefijos. Antes saltábamos mil veces cada ocho o diez años, después cada doce, después cada catorce. Ahora, si queremos llegar al siguiente nivel, que es lo que llamamos zettaescala, diez elevado a veintiuna operaciones matemáticas por segundo, no sabemos cuánto tardaremos porque el desafío tecnológico es de una magnitud como nunca antes se había visto. Pronto ya no podremos hacer transistores más pequeños. Ahora hay fábricas capaces de hacer transistores de tres milímetros, quizás veremos de dos milímetros, quizás algún día de un milímetro..., pero basta, son demasiado pocos átomos de silicio dispuestos allí dentro. Por tanto, no es nada evidente que a medio plazo seamos capaces de seguir evolucionando como hasta ahora con nuestras capacidades computacionales
“Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses. Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplica por diez en un año, por cien en dos años, y así sucesivamente.”
Ahora bien, alguien podría preguntar: 'Vale, pero espere un momento, miles de millones de millones de operaciones matemáticas por segundo... Sí, pero, ¿realmente son necesarias? ¿Por qué queremos ordenadores aún más potentes que los que se están instalando? ¿Hay algún problema matemático, físico o de ingeniería que requiera tanta capacidad tecnológica?'. Lo ilustro con el ejemplo del procesamiento del lenguaje natural, esos modelos de lenguaje masivos que ocupan las noticias durante todo el día. Las redes neuronales que existen bajo estos modelos de lenguaje tienen miles de millones de parámetros para entrenar sobre enormes volúmenes de datos, lo que requiere unas capacidades computacionales enormes.
Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses, que esencialmente es lo que somos capaces de hacer poniendo más transistores dentro de un chip (siguiendo la ley de Moore). Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplicará por diez en un año, por cien en dos años, y así sucesivamente. No podemos seguir a ese ritmo. No hay tecnología humana hoy que sea capaz de seguir ese ritmo, aunque hay mucha demanda de problemas científicos, y no sólo científicos, que necesitan incrementos de capacidad computacional como éstos. Dejo para el final la respuesta a la pregunta de cómo lo haremos, pero de entrada sí, existen problemas reales que seguirán requiriendo mayor capacidad de cálculo.
El impacto de esta convergencia en la ciencia y en la industria
Así pues, la primera idea es poner de relieve esta explosión de capacidad computacional. A partir de ahí, la cuestión es: ¿cómo afecta a la ciencia todo esto?
Quisiera empezar compartiendo una idea muy conceptual, pero que para mí es tremendamente importante. Desde hace siglos, la ciencia avanza siguiendo el método científico. Esto significa, entre otras cosas, la existencia de un diálogo continuo y fructífero entre la teoría y la experimentación. Existe un marco teórico, unas fórmulas o unas ecuaciones que nos describen un cierto fenómeno natural. Luego, experimento a la realidad y verifico si lo que observo es coherente con lo que predice la teoría. Si la teoría es válida, la experimentación coincide con lo que predice ésta. Entonces, cada vez que aparece un telescopio, un microscopio, un secuenciador, un acelerador de partículas, que me permite mirar más lejos, más adentro, más cerca, llegar a lugares a los que nunca había llegado, todo esto me permite hacer una experimentación diferente. Y allí, seguramente, descubriré algo que no concuerda con la teoría en vigor y, por tanto, podré dar un paso adelante como científico, descubriendo nuevos fenómenos que no encajan con la teoría hasta entonces considerada válida. A continuación, vuelvo al marco teórico, lo rectifico, lo amplío, lo modifico y la ciencia avanza. La ciencia avanza en ese continuo diálogo entre el marco teórico y el marco experimental.
Mi mensaje, por tanto, es que la ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. ¿Y qué relación tiene esto con la capacidad computacional? Pues que ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico. Herramientas que permiten, en vez de experimentar con la realidad, simularla. Habrá casos en los que experimentar con la realidad será la mejor opción, sin duda. Habrá casos, en cambio, en los que simular la realidad será la única posibilidad. Porque si investigas el cambio climático y quieres predecir la evolución del clima, la simulación computacional probablemente sea la única forma de hacerlo. Y si trabajas con plegamientos de proteínas, la inteligencia artificial será una gran aliada para darte marcos teóricos que expliquen o predigan el comportamiento de una determinada proteína.
El consenso de la comunidad científica dice hoy que combinar la experimentación con la simulación es una buena forma de hacer avanzar la ciencia. Por tanto, la segunda idea que expongo aquí es que, en casi todas las áreas de conocimiento científico (podemos hablar de la ingeniería, la química, la física, el clima, la aerodinámica, los materiales, etc.), cada vez más, la computación masiva y la experiencia se combinan para hacer avanzar a la ciencia más eficazmente. Y esto es porque hemos llegado a lo que llamamos la convergencia entre la supercomputación, esa capacidad masiva de calcular, y lo que llamamos la inteligencia artificial, la capacidad de desarrollar algoritmos profundos que, gracias a la supercomputación, se entrenan en cantidades masivas de datos.
“La ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. Ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico.”
Esta reflexión, que es muy conceptual, se puede ejemplificar con varios casos de interacciones donde el uso de estos “instrumentos” que llamamos supercomputadores es imprescindible. Y, teniendo en cuenta estas ideas, podría proporcionaros algún ejemplo de cosas que la ciencia es capaz de hacer gracias a estos instrumentos llamados supercomputadores. Ofreceré algunos ejemplos, empezando por uno del campo de la astronomía. En el BSC desarrollamos un proyecto, junto con la Agencia Espacial Europea, que tiene por objetivo observar todo lo que existe en la Vía Láctea y obtener información de cada objeto: la posición, la velocidad relativa, la luminosidad, la espectrografía, etc., a partir de los datos de una sonda llamada Gaia que orbita y cartografía la Vía Láctea. Debe tenerse en cuenta, de entrada, que la Vía Láctea contiene entre cien mil y doscientos mil millones de astros, lo que implica un reto científico y tecnológico de primer orden. Por tanto, podríamos empezar centrándonos en nuestro sistema solar, donde hay unos ciento cincuenta mil asteroides orbitando alrededor del Sol.
Éste es un caso del que conocemos a la perfección las leyes que gobiernan el problema, las leyes que rigen el movimiento de los objetos en el sistema solar. Obviamente, es mecánica clásica, son leyes conocidas desde hace mucho tiempo. Pero conocer las leyes y ser capaz de resolverlas en un caso como éste, con tantos objetos involucrados, es otro diferente. El poder de las técnicas computacionales complementa (no sustituye) la labor científica experimental. Tratar ciento cincuenta mil objetos simultáneamente sólo es posible mediante la simulación computacional y la gestión de grandes bases de datos.
Si bajamos a nuestro planeta, nos encontramos con nuevos casos de uso científico de la supercomputación. ¿Qué sabemos hoy de nuestro planeta? ¿Cómo cambia el clima, cómo evolucionará el clima en los próximos años y en las próximas décadas? Lo sabemos a nivel planetario gracias al uso de los supercomputadores y, cada vez más, podemos acercarnos y conocerlo a nivel continental, regional, urbano. Podemos trabajar con un ayuntamiento para simular la realidad de una ciudad para predecir qué va a pasar en función de cómo actuamos, de la misma manera que sabemos qué le va a pasar al Mediterráneo dentro de unas décadas. Todo esto, basado en la ciencia experimental y en las ecuaciones matemáticas que gobiernan el clima, no sería posible sin el apoyo de las técnicas computacionales.
Déjeme proporcionar aún otro ejemplo relacionado con la salud humana, la medicina, la biología, el diseño de fármacos, la simulación de nuevas enzimas. En todos estos ámbitos experimentalmente se pueden hacer muchas cosas y, en nuestros laboratorios, hemos avanzado enormemente. Sin embargo, cada vez más, allá donde no llega un aparato experimental, llega la simulación computacional. Por ejemplo, con ambas técnicas, se puede simular la evolución de las células en un tumor en función de la intensidad del fármaco que se administra y comprobar si esto, experimentalmente, ocurre exactamente igual. Cada vez más, la investigación en salud avanza gracias a la combinación de modelos teóricos, la investigación experimental y clínica y las herramientas computacionales. La combinación de todo esto está abriendo puertas hasta ahora inimaginables.
Déjeme ofrecer otro ejemplo extremadamente impresionante. Todos estamos entusiasmados últimamente con el ChatGPT y los modelos masivos de lenguaje. Sin embargo, en la misma línea de los grandes modelos de inteligencia artificial, para nosotros, seguramente, lo más espectacular es lo que ha realizado la empresa DeepMind con el programa AlphaFold. Se trata de un algoritmo que, de una sola vez -y disculpad si simplifico-, resuelve un problema biológico que estaba siendo investigado por toda la comunidad científica desde hacía cuarenta años: el problema del plegamiento de las proteínas. En una primera aproximación, el objetivo es ser capaces de saber cómo una proteína se pliega sobre sí misma (lo que en inglés se llama protein folding). Es extremadamente revolucionario lo que ha logrado DeepMind con esta IA, sobre todo porque ha alcanzado un porcentaje de éxito en la predicción del plegamiento de las proteínas que nunca nadie había logrado. Esto también deja entrever un gran reto: la explicabilidad del algoritmo no es obvia. Sabemos que lo hace bien, pero no comprendemos en profundidad por qué lo hace bien. Y éste es uno de los motivos por los que DeepMind, inmediatamente, ha abierto su algoritmo para que toda la comunidad científica internacional pueda interactuar con él, trabajar con él y pueda ayudar, con innovación abierta, a entender cómo funciona esto.
Por tanto, desde la cosmología hasta el clima, pasando por la medicina o la biología, diversas áreas científicas están avanzando enormemente también gracias a la computación. La siguiente pregunta que podríamos hacernos es si este impacto se limita sólo a la ciencia o bien tiene repercusión en las empresas y en el mundo industrial. Para responder a esta pregunta fijémonos, en primer lugar, en el ordenador que está instalando Meta, la matriz de Facebook. No sabemos exactamente lo que están instalando, pero afirman que será el más potente del mundo. Lo sea o no, es probable que sea una máquina extremadamente potente y muy útil para sus planes de futuro con el metaverso y otros proyectos.
Pero esto no sólo concierne a las grandes empresas tecnológicas, que uno ya imagina que están haciendo grandes inversiones en este campo. Hoy en día, esto afecta a casi todo lo relacionado con el mundo industrial de la ingeniería: la combustión, la aerodinámica, el sector aeroespacial, los gemelos digitales de la industria, simular cómo cambia la aerodinámica de un coche en diversas circunstancias, simular cómo quema un nuevo combustible que hemos diseñado en el laboratorio. Cada vez más, estas técnicas son cruciales para que las empresas mejoren su competitividad frente a los retos de esta naturaleza. O, dicho de otro modo, el uso de estas tecnologías da, a quien las utiliza, una ventaja competitiva muy importante.
Está claro que esta tecnología es de una importancia crucial tanto para la ciencia como para la industria. Y es fácil concluir que algo importante para la ciencia y la industria lo es también desde el punto de vista de la geoestrategia.
También podemos hablar de nuevo de la medicina y analizar el ejemplo de una compañía de dispositivos médicos como Medtronic, que prueba una nueva geometría o un nuevo material en un stent cardíaco. Esto sólo se podría hacer mediante experimentación animal, pero hacerlo en el laboratorio es extremadamente complicado por varias razones: por un lado, no escala, es decir, no es posible realizar cientos de pruebas diferentes en una escala de tiempo razonable; por otra parte, la necesaria experimentación animal presenta problemas éticos no menores. Sin embargo, este proceso de buscar nuevas configuraciones de un dispositivo médico sí se puede realizar computacionalmente. Si los métodos que se desarrollan y los supercomputadores disponibles lo permiten, se pueden simular las distintas opciones superando los límites del método experimental. De hecho, podemos decir que cada vez más el ensayo de nuevos dispositivos médicos incorporará estas tecnologías digitales, complementando el enfoque experimental. No tardaremos en ver ensayos clínicos que incorporen de forma masiva estas tecnologías y permitan realizar algunas fases in silico en vez de in vitro o in vivo.
Me gustaría exponer también otros ámbitos donde la simulación numérica que permiten estos supercomputadores es útil a nivel industrial. He hablado de grandes compañías tecnológicas, empresas biomédicas, casos de uso industriales, etc. Me permito terminar los ejemplos con una imagen que quizá saben identificar fácilmente: se trata del Camp Nou, más concretamente, de una simulación numérica sobre cómo las personas se pueden mover por una instalación como ésta, dependiendo de las intervenciones que se hagan. Por tanto, somos capaces de simular desde asteroides moviéndose alrededor de una estrella hasta movimientos de un gran número de personas en torno a una instalación deportiva.
El impacto geopolítico de la supercomputación
Está claro que esta tecnología es de una importancia crucial tanto para la ciencia como para la industria. Y es fácil concluir que algo importante para la ciencia y la industria lo es también desde el punto de vista de la geoestrategia. Así pues, preguntémonos a continuación ¿cómo se posicionan en esta tecnología Estados Unidos, China, Europa? y, más concretamente, ¿dónde nos encontramos nosotros como ciudad y como país?
Hemos visto la cantidad de cosas que son posibles gracias a ordenadores como el que tenemos instalado en el campus norte de la Politécnica (siempre que lo menciono no puedo evitar invitarles a visitarnos si no lo han hecho ya: veinte mil personas lo hacen cada año y más de doscientas mil personas han visitado nuestras instalaciones desde el primer MareNostrum). Hasta ahora, nuestro MareNostrum formaba parte de una red europea (Prace), donde cada país grande tenía uno o dos grandes superordenadores para atender las necesidades de sus científicos y, de forma coordinada, todos estos ordenadores daban servicio a la comunidad científica. Este sistema ha funcionado bastante bien en la última década, pero hace ya unos años que nos dimos cuenta de la dificultad de seguir el enorme ritmo de inversiones que las grandes potencias mundiales estaban haciendo en este campo. Diciéndolo de forma sencilla, si seguíamos actuando país por país en Europa, nunca podríamos competir del todo con el volumen de inversiones necesarias como las que están haciendo Estados Unidos, China o Japón.
Esto llevó a las autoridades europeas a subrayar la magnitud del reto que teníamos por delante. El primero fue el antiguo presidente de la Comisión Europea, Jean Claude Juncker, quien en otoño de 2015 ya dijo que deberíamos consensuar los esfuerzos y poner todos los recursos en favor de un mismo proyecto común. De esta forma podríamos decidir, como europeos y de forma consensuada, dónde instalar las grandes máquinas de computación en nuestro continente. Si no lo hacíamos, resultaba evidente que las grandes potencias nos superarían. ¿Y por qué era tan importante esto? Porque cada vez tenemos más claro que necesitamos garantizar a nuestros científicos el acceso a grandes máquinas de computación, para seguir siendo competitivos en su investigación y seguir colaborando y compitiendo con sus colegas de todo el mundo. Recientemente, la actual presidenta de la Comisión, Ursula Von der Leyen, ha subrayado que es muy importante tener grandes máquinas de computación y que debemos preocuparnos por incorporar tanta tecnología europea como sea posible. Es decir, que la soberanía tecnológica europea en el campo de los semiconductores y chips es tan estratégica como proveer de los recursos computacionales necesarios a nuestros científicos.
¿Qué se ha hecho hasta ahora? ¿Estas declaraciones han ido acompañadas de acciones en la misma dirección o simplemente han sido declaraciones bienintencionadas sin mayor concreción? La buena noticia es que la Comisión Europea ha sido capaz de consensuar con los Estados Miembros de la Unión y algunos países asociados un trabajo conjunto en este ámbito, lo que ha provocado la creación de la empresa común Joint Undertaking, conocida como EuroHPC JU. A través de este instrumento, se ha tomado una primera decisión muy importante: cuáles son las instituciones europeas que acogerán durante esta década las grandes máquinas de cálculo científico en nuestro continente.
El análisis del mapa acordado permite ver cómo habrá algunas máquinas más pequeñas aquí y allá, porque es importante mantener cierto tejido de instalaciones importantes en todo el continente. Pero destacan claramente las tres grandes máquinas aprobadas, todas ellas operando en lo que llamamos la pre-exascala: Lumi, en el norte de Finlandia, que está operativo desde el pasado mes de junio y es hoy la tercera máquina más potente del mundo; Leonardo, que está instalada en el norte de Italia por nuestros compañeros de Bolonia y que está operativa desde el pasado mes de diciembre, siendo la número 4 del mundo; y nuestro MareNostrum5.
“Estamos convencidos de que podemos convertir a Barcelona en uno de los lugares más importantes del mundo en el diseño de chips con tecnología europea para las grandes máquinas del futuro.”
Y es que la tercera máquina que completa este trío es precisamente el MareNostrum 5, que si nos visita de ahora hasta el verano de este 2023 lo verá en proceso de instalación. Sólo mirando las imágenes del espacio que acogerá ya se da cuenta de que no podemos abordar esta cuestión país por país, sino que debemos decidir conjuntamente dónde instalar las grandes máquinas y realizar inversiones conjuntas significativas. Esta visión conjunta y ambiciosa a nivel europeo nos ha permitido llegar al MareNostrum 5, propiedad de la EuroHPC Joint Undertaking y que posiciona a Barcelona como uno de los grandes lugares de Europa donde suceden cosas relevantes en este ámbito.
De hecho, podría haber empezado diciendo que Barcelona es muy importante en este campo, pero seguramente me hubiera costado convencer al auditorio sin aportar datos. Por eso, en primer lugar, he querido explicar por qué esta tecnología es tan crucial y como, sin ella, gran parte de la ciencia y la industria no pueden ser competitivas a nivel mundial. Y, a partir de aquí, es fácil entender por qué tener instalaciones como estas en nuestro país sitúa a nuestra ciudad en una posición tan favorable en este marco competitivo de la ciencia.
No quiero olvidarme, sin embargo, del segundo gran objetivo que tenemos como europeos, y que la presidenta Von der Leyen ha puesto sobre la mesa: debemos integrar tanta tecnología europea como podamos en estos proyectos. Actualmente, a riesgo de simplificar algo, podemos decir que Europa ocupa una posición razonable en el software, pero que es casi irrelevante en el hardware. Y este reto de hacerse un hueco en el hardware de alto rendimiento es mucho más complejo que el primero (dar acceso a nuestra comunidad científica a grandes máquinas de cálculo). El primer desafío, poner de acuerdo a veintisiete estados miembros y a la Comisión Europea en estas inversiones ya ha sido bastante complicado. Pero este segundo reto es aún más difícil, puesto que no se trata sólo de un acuerdo político, sino de un esfuerzo tecnológico y científico extremadamente complejo. Sin embargo, estamos avanzando y lo estamos haciendo bien. Estamos progresando en colaboración con las administraciones y con algunos socios como Cisco, Intel y otras grandes empresas que empiezan a darse cuenta de que, en Barcelona, ocurren cosas relevantes en el diseño de chips.
“Podemos convertir a Barcelona en uno de los lugares más importantes del mundo en el diseño de chips con tecnología europea para las grandes máquinas del futuro.”
Creemos que probablemente nuestro entorno no se centrará en la manufactura ni la fabricación. Puede que esto ocurra en otros lugares de Europa, con un mayor ecosistema industrial en el ámbito de la microelectrónica. No debemos descartarlo, pero tampoco obsesionarnos con él. Sin embargo, estamos convencidos de que podemos convertir a Barcelona en uno de los lugares más importantes del mundo en el diseño de chips con tecnología europea para las grandes máquinas del futuro. Si nos visita, verá una máquina grande y espectacular instalada, aún, con tecnología mayoritariamente americana. Pero, si viene dentro de cinco o seis años, es posible que comience a ver el futuro MareNostrum6 con una parte de tecnología europea. Estamos convencidos de que como ciudad tenemos los ingredientes necesarios para posicionarnos como el valle europeo del diseño de chips.
El futuro de la computación
Quisiera acabar con una mirada al futuro, en lo que respecta a las nuevas arquitecturas computacionales. Hemos concluido anteriormente que la demanda para mayor capacidad computacional existe (el ejemplo de los modelos masivos de lenguaje lo ilustra), pero también nos topamos con las limitaciones de la tecnología actual de semiconductores basada en silicio. Es conocido en nuestro campo que la capacidad de miniaturizar más los transistores tiene un límite y, por tanto, es necesario explorar nuevas aproximaciones que permitan seguir incrementando la capacidad computacional al servicio de la ciencia. ¿Cuáles son las principales tendencias de futuro en este campo? ¿Y qué papel jugará Barcelona en todo esto? ¿Nos dirigimos hacia un futuro en el que las grandes máquinas incorporarán tecnología criogénica, chips neuromórficos, chips fotónicos o chips cuánticos? A estas alturas, debemos confesar que no lo sabemos con certeza.
Todas estas tecnologías son emergentes y muy prometedoras, pero nadie puede predecir cuál será la tecnología dominante o si coexistirán diversas tecnologías. Probablemente nos dirigimos hacia un futuro en el que las máquinas serán cada vez más complejas y la tecnología clásica del silicio irá incorporando otras tecnologías como la computación cuántica. De hecho, si nos visita dentro de unos meses, verá que no sólo tendremos instalado el MareNostrum 5, sino que también estaremos poniendo en marcha nuestros primeros ordenadores cuánticos.
'Aunque no estamos seguros de cuál será exactamente la tecnología que acabará revolucionando la computación en el futuro, ni cuáles convivirán, nuestra responsabilidad es estar siempre a la vanguardia del conocimiento.'
¿Por qué es tan importante ahora entrar en la computación cuántica si no sabemos con seguridad qué tecnologías dominarán el futuro? Es crucial porque, aunque no estamos seguros de cuál será exactamente la tecnología que acabará revolucionando la computación en el futuro, ni cuáles van a convivir, nuestra responsabilidad es estar siempre a la vanguardia del conocimiento. Por tanto, no sólo disponemos de grandes máquinas para permitir a los científicos investigar en la frontera del conocimiento, que también; no sólo tenemos el objetivo de diseñar la tecnología europea que se encontrará dentro de estas máquinas, que también; sino que incluso aspiramos a estar a la vanguardia en el diseño de la tecnología del futuro, aunque actualmente no podamos determinar a ciencia cierta cuál será.
Tal y como señalaba el sr. Miguel Roca anteriormente, cada acierto suele venir precedido por varios errores y la ciencia propone siempre avanzar a través del ensayo, el experimento, la prueba, la integración de nuevas tecnologías y la permanencia en la frontera del conocimiento. Es pues tan importante invertir en las grandes máquinas ya operativas, como investigar en las opciones de futuro que, aún inciertas, pueden permitirnos seguir liderando este ámbito a nivel europeo.
Conclusión
Para resumir y concluir, las ideas expuestas han sido sencillas, pero he intentado reflejar un mensaje fundamental: Barcelona se encuentra en una posición privilegiada, al menos en nuestro campo de conocimiento. Nos encontramos en un momento en que la evolución de la supercomputación y su convergencia con la inteligencia artificial hace aflorar innovaciones revolucionarias, que, a su vez, impulsa avances significativos en la ciencia y, cada vez más, en la industria. Y es evidente que lo que afecta a la ciencia y la industria también afecta a la geopolítica.
La buena noticia es que Europa se ha despertado, se está posicionando en este ámbito y ha comprendido la necesidad de alcanzar autonomía estratégica para competir en este complejo mundo. Y, dentro de Europa, de forma modesta pero decidida, Barcelona desempeña un papel muy importante en este proceso. No caigamos en la complacencia, pero sintámonos orgullosos del liderazgo que mantenemos y hagamos que esto nos espolee a seguir haciendo crecer el talento y la creatividad de esta ciudad.
Muchas gracias.