Conferencia pronunciada en el acto solemne de la entrega de los Premios Anuales de Amics del País celebrado en el Saló de Cent del Ajuntament de Barcelona
Muchas gracias señor Miquel Roca, presidente de Amics del País, primer teniente de alcalde, miembros de la junta de la SEBAP. Es un gran honor tener la oportunidad de estar aquí hoy, y no sólo por el maravilloso escenario, esta sala del Consell de Cent, sino también para poder compartir con vosotros algunas reflexiones que el señor Miquel Roca ya ha esbozado.
Cuando uno debe hablar públicamente, como me ocurre a mí de vez en cuando a causa de mi trabajo, puede ser difícil hacerlo ante un público tan diverso, compuesto por personas con trayectorias profesionales impresionantes, familias orgullosas de sus hijos e hijas y jóvenes con un talento excepcional. Por tanto, no es sencillo ajustar el tono del discurso. Sin embargo, me dirigiré sobre todo a los más jóvenes, que me dará la libertad de ser, quizás no del todo preciso técnicamente, pero sí, divulgativo. Espero que los expertos presentes me disculpen.
‘No es que Barcelona pueda ser capital mundial a nivel científico-tecnológico, sino que Barcelona ya es capital, al menos a nivel europeo, de la supercomputación’
Quisiera empezar profundizando un poco más en la idea fundamental que el señor Miquel Roca ya ha presentado sobre el rol de nuestra ciudad en el mundo. No es que Barcelona pueda ser (en condicional) una capital mundial a nivel científico-tecnológico, sino que quiero hablaros de un ámbito donde Barcelona ya es capital, al menos a nivel europeo. Me gustaría presentarles la realidad de esta ciudad en el ámbito de las tecnologías computacionales y digitales profundas.
En primer lugar, me gustaría empezar explicándoos qué está pasando ahora mismo en el ámbito IA y las tecnologías digitales, en general, y por qué. Estos días, cuando entramos en Twitter o cualquier diario digital, vemos noticias sobre el chatGPT contínuamente. Quisiera explicaros, tecnológicamente, por qué ocurre esto, exactamente ahora, y por qué es fruto de una convergencia de tecnologías. En segundo lugar, me gustaría transmitirles un poco el impacto que esto tiene, no sólo, en la sociedad, la economía o los debates éticos, que hay muchos, sino en la actividad científica y cómo los científicos trabajan de forma diferente debido a esta convergencia digital. En tercer lugar, me gustaría explicarles que esto no sólo afecta a la ciencia, sino también a la industria y muchas empresas. Y, por supuesto, un tema que es importante para la ciencia y la industria tiene un impacto geopolítico muy claro. Por tanto, me gustaría hablaros del papel que creemos que puede jugar Europa, y en particular Barcelona, en esta carrera entre los grandes países del mundo para el control de la tecnología digital. Y, finalmente, quisiera discutir sobre el futuro, hacia dónde nos dirigimos y qué tecnologías llegarán posteriormente (o complementariamente) al dominio del silicio.
La convergencia de las tecnologías digitales
Permítanme empezar insistiendo en que seré técnicamente poco preciso, así que me disculpo con aquellos que saben más que yo, algunos presentes en esta sala. Dicho esto, empiezo con dos ejemplos con los que quiero mostrar hasta qué punto la tecnología de computación ha avanzado en las últimas décadas. Una es el ENIAC, uno de los primeros ordenadores instalados en Estados Unidos a finales de los años cuarenta y hasta mediados de los cincuenta del siglo pasado, en Pensilvania. La otra es el Frontier, actualmente el supercomputador reconocido como el más potente del mundo de acuerdo con el ranking del Top500, instalado por nuestros colegas de Oak Ridge en Estados Unidos, en un centro dependiente del Departamento de Energía del Gobierno estadounidense.

El Frontier es el primer ordenador conocido que ha roto la barrera del exascale, es decir, la capacidad de realizar un millón de millones de millones (un trillón europeo) de operaciones matemáticas por segundo. Lo importante es que, en las siete décadas que separan estos dos ejemplos, existe una diferencia de aproximadamente dieciséis órdenes de magnitud. Y dieciséis órdenes de magnitud equivalen a un “1” seguido de dieciséis ceros. Y un “1” seguido de dieciséis ceros es algo que, no sé ustedes, pero yo no comprendo con profundidad. Un ‘1’ seguido de dieciséis ceros son diez mil millones de millones. ¿Alguien puede imaginar qué significa que una cosa sea diez mil millones de millones mayor que otra? Entramos en una zona en la que un cero más o un cero menos ya te hace perder un poco la capacidad de entender las cosas. El Frontier, pues, tal y como he mencionado antes, adecuadamente programada, es capaz de llegar al llamado exaflop, que significa que hace diez a la dieciocho, es decir, un millón de millones de millones de operaciones matemáticas por segundo.
Yo no soy capaz de comprender qué significa que una máquina realice un millón de millones de millones de operaciones matemáticas cada segundo, pero sí puedo tratar de entender qué provoca esta inmensa capacidad de cálculo. La tecnología digital es probablemente la única tecnología humana que ha avanzado exponencialmente sin detenerse durante décadas. Esto significa, por ejemplo, que el ordenador portátil que lleva en la mochila o quizá el móvil que lleva en el bolsillo habría sido seguramente el ordenador más potente del mundo hace menos de treinta años. Es decir, que ustedes son capaces de hacer en casa lo que el ordenador más potente del mundo podía hacer hace tres décadas. Por tanto, si seguimos con esta tendencia, ¿qué podremos hacer con el dispositivo que llevamos en el bolsillo dentro de dos o tres décadas? Todo esto suponiendo, por supuesto, que seamos capaces de continuar con el mismo ritmo de crecimiento en los próximos años.
Y esta es la primera pregunta que quisiera responder: ¿seremos capaces? Una mala noticia, no para los investigadores porque significa reto, es que cada vez nos cuesta más dar el siguiente salto. Habitualmente hablamos de saltos de mil en mil: tera, peta, exa, etc., con estos prefijos. Antes saltábamos mil veces cada ocho o diez años, después cada doce, después cada catorce. Ahora, si queremos llegar al siguiente nivel, que es lo que llamamos zettaescala, diez elevado a veintiuna operaciones matemáticas por segundo, no sabemos cuánto tardaremos porque el desafío tecnológico es de una magnitud como nunca antes se había visto. Pronto ya no podremos hacer transistores más pequeños. Ahora hay fábricas capaces de hacer transistores de tres milímetros, quizás veremos de dos milímetros, quizás algún día de un milímetro…, pero basta, son demasiado pocos átomos de silicio dispuestos allí dentro. Por tanto, no es nada evidente que a medio plazo seamos capaces de seguir evolucionando como hasta ahora con nuestras capacidades computacionales
“Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses. Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplica por diez en un año, por cien en dos años, y así sucesivamente.”
Ahora bien, alguien podría preguntar: ‘Vale, pero espere un momento, miles de millones de millones de operaciones matemáticas por segundo… Sí, pero, ¿realmente son necesarias? ¿Por qué queremos ordenadores aún más potentes que los que se están instalando? ¿Hay algún problema matemático, físico o de ingeniería que requiera tanta capacidad tecnológica?’. Lo ilustro con el ejemplo del procesamiento del lenguaje natural, esos modelos de lenguaje masivos que ocupan las noticias durante todo el día. Las redes neuronales que existen bajo estos modelos de lenguaje tienen miles de millones de parámetros para entrenar sobre enormes volúmenes de datos, lo que requiere unas capacidades computacionales enormes.
Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses, que esencialmente es lo que somos capaces de hacer poniendo más transistores dentro de un chip (siguiendo la ley de Moore). Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplicará por diez en un año, por cien en dos años, y así sucesivamente. No podemos seguir a ese ritmo. No hay tecnología humana hoy que sea capaz de seguir ese ritmo, aunque hay mucha demanda de problemas científicos, y no sólo científicos, que necesitan incrementos de capacidad computacional como éstos. Dejo para el final la respuesta a la pregunta de cómo lo haremos, pero de entrada sí, existen problemas reales que seguirán requiriendo mayor capacidad de cálculo.
El impacto de esta convergencia en la ciencia y en la industria
Así pues, la primera idea es poner de relieve esta explosión de capacidad computacional. A partir de ahí, la cuestión es: ¿cómo afecta a la ciencia todo esto?

Quisiera empezar compartiendo una idea muy conceptual, pero que para mí es tremendamente importante. Desde hace siglos, la ciencia avanza siguiendo el método científico. Esto significa, entre otras cosas, la existencia de un diálogo continuo y fructífero entre la teoría y la experimentación. Existe un marco teórico, unas fórmulas o unas ecuaciones que nos describen un cierto fenómeno natural. Luego, experimento a la realidad y verifico si lo que observo es coherente con lo que predice la teoría. Si la teoría es válida, la experimentación coincide con lo que predice ésta. Entonces, cada vez que aparece un telescopio, un microscopio, un secuenciador, un acelerador de partículas, que me permite mirar más lejos, más adentro, más cerca, llegar a lugares a los que nunca había llegado, todo esto me permite hacer una experimentación diferente. Y allí, seguramente, descubriré algo que no concuerda con la teoría en vigor y, por tanto, podré dar un paso adelante como científico, descubriendo nuevos fenómenos que no encajan con la teoría hasta entonces considerada válida. A continuación, vuelvo al marco teórico, lo rectifico, lo amplío, lo modifico y la ciencia avanza. La ciencia avanza en ese continuo diálogo entre el marco teórico y el marco experimental.
Mi mensaje, por tanto, es que la ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. ¿Y qué relación tiene esto con la capacidad computacional? Pues que ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico. Herramientas que permiten, en vez de experimentar con la realidad, simularla. Habrá casos en los que experimentar con la realidad será la mejor opción, sin duda. Habrá casos, en cambio, en los que simular la realidad será la única posibilidad. Porque si investigas el cambio climático y quieres predecir la evolución del clima, la simulación computacional probablemente sea la única forma de hacerlo. Y si trabajas con plegamientos de proteínas, la inteligencia artificial será una gran aliada para darte marcos teóricos que expliquen o predigan el comportamiento de una determinada proteína.
El consenso de la comunidad científica dice hoy que combinar la experimentación con la simulación es una buena forma de hacer avanzar la ciencia. Por tanto, la segunda idea que expongo aquí es que, en casi todas las áreas de conocimiento científico (podemos hablar de la ingeniería, la química, la física, el clima, la aerodinámica, los materiales, etc.), cada vez más, la computación masiva y la experiencia se combinan para hacer avanzar a la ciencia más eficazmente. Y esto es porque hemos llegado a lo que llamamos la convergencia entre la supercomputación, esa capacidad masiva de calcular, y lo que llamamos la inteligencia artificial, la capacidad de desarrollar algoritmos profundos que, gracias a la supercomputación, se entrenan en cantidades masivas de datos.
“La ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. Ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico.”
Esta reflexión, que es muy conceptual, se puede ejemplificar con varios casos de interacciones donde el uso de estos “instrumentos” que llamamos supercomputadores es imprescindible. Y, teniendo en cuenta estas ideas, podría proporcionaros algún ejemplo de cosas que la ciencia es capaz de hacer gracias a estos instrumentos llamados supercomputadores. Ofreceré algunos ejemplos, empezando por uno del campo de la astronomía. En el BSC desarrollamos un proyecto, junto con la Agencia Espacial Europea, que tiene por objetivo observar todo lo que existe en la Vía Láctea y obtener información de cada objeto: la posición, la velocidad relativa, la luminosidad, la espectrografía, etc., a partir de los datos de una sonda llamada Gaia que orbita y cartografía la Vía Láctea. Debe tenerse en cuenta, de entrada, que la Vía Láctea contiene entre cien mil y doscientos mil millones de astros, lo que implica un reto científico y tecnológico de primer orden. Por tanto, podríamos empezar centrándonos en nuestro sistema solar, donde hay unos ciento cincuenta mil asteroides orbitando alrededor del Sol.
Éste es un caso del que conocemos a la perfección las leyes que gobiernan el problema, las leyes que rigen el movimiento de los objetos en el sistema solar. Obviamente, es mecánica clásica, son leyes conocidas desde hace mucho tiempo. Pero conocer las leyes y ser capaz de resolverlas en un caso como éste, con tantos objetos involucrados, es otro diferente. El poder de las técnicas computacionales complementa (no sustituye) la labor científica experimental. Tratar ciento cincuenta mil objetos simultáneamente sólo es posible mediante la simulación computacional y la gestión de grandes bases de datos.
Si bajamos a nuestro planeta, nos encontramos con nuevos casos de uso científico de la supercomputación. ¿Qué sabemos hoy de nuestro planeta? ¿Cómo cambia el clima, cómo evolucionará el clima en los próximos años y en las próximas décadas? Lo sabemos a nivel planetario gracias al uso de los supercomputadores y, cada vez más, podemos acercarnos y conocerlo a nivel continental, regional, urbano. Podemos trabajar con un ayuntamiento para simular la realidad de una ciudad para predecir qué va a pasar en función de cómo actuamos, de la misma manera que sabemos qué le va a pasar al Mediterráneo dentro de unas décadas. Todo esto, basado en la ciencia experimental y en las ecuaciones matemáticas que gobiernan el clima, no sería posible sin el apoyo de las técnicas computacionales.

Déjeme proporcionar aún otro ejemplo relacionado con la salud humana, la medicina, la biología, el diseño de fármacos, la simulación de nuevas enzimas. En todos estos ámbitos experimentalmente se pueden hacer muchas cosas y, en nuestros laboratorios, hemos avanzado enormemente. Sin embargo, cada vez más, allá donde no llega un aparato experimental, llega la simulación computacional. Por ejemplo, con ambas técnicas, se puede simular la evolución de las células en un tumor en función de la intensidad del fármaco que se administra y comprobar si esto, experimentalmente, ocurre exactamente igual. Cada vez más, la investigación en salud avanza gracias a la combinación de modelos teóricos, la investigación experimental y clínica y las herramientas computacionales. La combinación de todo esto está abriendo puertas hasta ahora inimaginables.
Déjeme ofrecer otro ejemplo extremadamente impresionante. Todos estamos entusiasmados últimamente con el ChatGPT y los modelos masivos de lenguaje. Sin embargo, en la misma línea de los grandes modelos de inteligencia artificial, para nosotros, seguramente, lo más espectacular es lo que ha realizado la empresa DeepMind con el programa AlphaFold. Se trata de un algoritmo que, de una sola vez -y disculpad si simplifico-, resuelve un problema biológico que estaba siendo investigado por toda la comunidad científica desde hacía cuarenta años: el problema del plegamiento de las proteínas. En una primera aproximación, el objetivo es ser capaces de saber cómo una proteína se pliega sobre sí misma (lo que en inglés se llama protein folding). Es extremadamente revolucionario lo que ha logrado DeepMind con esta IA, sobre todo porque ha alcanzado un porcentaje de éxito en la predicción del plegamiento de las proteínas que nunca nadie había logrado. Esto también deja entrever un gran reto: la explicabilidad del algoritmo no es obvia. Sabemos que lo hace bien, pero no comprendemos en profundidad por qué lo hace bien. Y éste es uno de los motivos por los que DeepMind, inmediatamente, ha abierto su algoritmo para que toda la comunidad científica internacional pueda interactuar con él, trabajar con él y pueda ayudar, con innovación abierta, a entender cómo funciona esto.
Por tanto, desde la cosmología hasta el clima, pasando por la medicina o la biología, diversas áreas científicas están avanzando enormemente también gracias a la computación. La siguiente pregunta que podríamos hacernos es si este impacto se limita sólo a la ciencia o bien tiene repercusión en las empresas y en el mundo industrial. Para responder a esta pregunta fijémonos, en primer lugar, en el ordenador que está instalando Meta, la matriz de Facebook. No sabemos exactamente lo que están instalando, pero afirman que será el más potente del mundo. Lo sea o no, es probable que sea una máquina extremadamente potente y muy útil para sus planes de futuro con el metaverso y otros proyectos.
Pero esto no sólo concierne a las grandes empresas tecnológicas, que uno ya imagina que están haciendo grandes inversiones en este campo. Hoy en día, esto afecta a casi todo lo relacionado con el mundo industrial de la ingeniería: la combustión, la aerodinámica, el sector aeroespacial, los gemelos digitales de la industria, simular cómo cambia la aerodinámica de un coche en diversas circunstancias, simular cómo quema un nuevo combustible que hemos diseñado en el laboratorio. Cada vez más, estas técnicas son cruciales para que las empresas mejoren su competitividad frente a los retos de esta naturaleza. O, dicho de otro modo, el uso de estas tecnologías da, a quien las utiliza, una ventaja competitiva muy importante.
Está claro que esta tecnología es de una importancia crucial tanto para la ciencia como para la industria. Y es fácil concluir que algo importante para la ciencia y la industria lo es también desde el punto de vista de la geoestrategia.
También podemos hablar de nuevo de la medicina y analizar el ejemplo de una compañía de dispositivos médicos como Medtronic, que prueba una nueva geometría o un nuevo material en un stent cardíaco. Esto sólo se podría hacer mediante experimentación animal, pero hacerlo en el laboratorio es extremadamente complicado por varias razones: por un lado, no escala, es decir, no es posible realizar cientos de pruebas diferentes en una escala de tiempo razonable; por otra parte, la necesaria experimentación animal presenta problemas éticos no menores. Sin embargo, este proceso de buscar nuevas configuraciones de un dispositivo médico sí se puede realizar computacionalmente. Si los métodos que se desarrollan y los supercomputadores disponibles lo permiten, se pueden simular las distintas opciones superando los límites del método experimental. De hecho, podemos decir que cada vez más el ensayo de nuevos dispositivos médicos incorporará estas tecnologías digitales, complementando el enfoque experimental. No tardaremos en ver ensayos clínicos que incorporen de forma masiva estas tecnologías y permitan realizar algunas fases in silico en vez de in vitro o in vivo.
Me gustaría exponer también otros ámbitos donde la simulación numérica que permiten estos supercomputadores es útil a nivel industrial. He hablado de grandes compañías tecnológicas, empresas biomédicas, casos de uso industriales, etc. Me permito terminar los ejemplos con una imagen que quizá saben identificar fácilmente: se trata del Camp Nou, más concretamente, de una simulación numérica sobre cómo las personas se pueden mover por una instalación como ésta, dependiendo de las intervenciones que se hagan. Por tanto, somos capaces de simular desde asteroides moviéndose alrededor de una estrella hasta movimientos de un gran número de personas en torno a una instalación deportiva.
Muchas gracias señor Miquel Roca, presidente de Amics del País, primer teniente de alcalde, miembros de la junta de la SEBAP. Es un gran honor tener la oportunidad de estar aquí hoy, y no sólo por el maravilloso escenario, esta sala del Consell de Cent, sino también para poder compartir con vosotros algunas reflexiones que el señor Miquel Roca ya ha esbozado.
Cuando uno debe hablar públicamente, como me ocurre a mí de vez en cuando a causa de mi trabajo, puede ser difícil hacerlo ante un público tan diverso, compuesto por personas con trayectorias profesionales impresionantes, familias orgullosas de sus hijos e hijas y jóvenes con un talento excepcional. Por tanto, no es sencillo ajustar el tono del discurso. Sin embargo, me dirigiré sobre todo a los más jóvenes, que me dará la libertad de ser, quizás no del todo preciso técnicamente, pero sí, divulgativo. Espero que los expertos presentes me disculpen.
‘No es que Barcelona pueda ser capital mundial a nivel científico-tecnológico, sino que Barcelona ya es capital, al menos a nivel europeo, de la supercomputación’
Quisiera empezar profundizando un poco más en la idea fundamental que el señor Miquel Roca ya ha presentado sobre el rol de nuestra ciudad en el mundo. No es que Barcelona pueda ser (en condicional) una capital mundial a nivel científico-tecnológico, sino que quiero hablaros de un ámbito donde Barcelona ya es capital, al menos a nivel europeo. Me gustaría presentarles la realidad de esta ciudad en el ámbito de las tecnologías computacionales y digitales profundas.
En primer lugar, me gustaría empezar explicándoos qué está pasando ahora mismo en el ámbito IA y las tecnologías digitales, en general, y por qué. Estos días, cuando entramos en Twitter o cualquier diario digital, vemos noticias sobre el chatGPT contínuamente. Quisiera explicaros, tecnológicamente, por qué ocurre esto, exactamente ahora, y por qué es fruto de una convergencia de tecnologías. En segundo lugar, me gustaría transmitirles un poco el impacto que esto tiene, no sólo, en la sociedad, la economía o los debates éticos, que hay muchos, sino en la actividad científica y cómo los científicos trabajan de forma diferente debido a esta convergencia digital. En tercer lugar, me gustaría explicarles que esto no sólo afecta a la ciencia, sino también a la industria y muchas empresas. Y, por supuesto, un tema que es importante para la ciencia y la industria tiene un impacto geopolítico muy claro. Por tanto, me gustaría hablaros del papel que creemos que puede jugar Europa, y en particular Barcelona, en esta carrera entre los grandes países del mundo para el control de la tecnología digital. Y, finalmente, quisiera discutir sobre el futuro, hacia dónde nos dirigimos y qué tecnologías llegarán posteriormente (o complementariamente) al dominio del silicio.
La convergencia de las tecnologías digitales
Permítanme empezar insistiendo en que seré técnicamente poco preciso, así que me disculpo con aquellos que saben más que yo, algunos presentes en esta sala. Dicho esto, empiezo con dos ejemplos con los que quiero mostrar hasta qué punto la tecnología de computación ha avanzado en las últimas décadas. Una es el ENIAC, uno de los primeros ordenadores instalados en Estados Unidos a finales de los años cuarenta y hasta mediados de los cincuenta del siglo pasado, en Pensilvania. La otra es el Frontier, actualmente el supercomputador reconocido como el más potente del mundo de acuerdo con el ranking del Top500, instalado por nuestros colegas de Oak Ridge en Estados Unidos, en un centro dependiente del Departamento de Energía del Gobierno estadounidense.

El Frontier es el primer ordenador conocido que ha roto la barrera del exascale, es decir, la capacidad de realizar un millón de millones de millones (un trillón europeo) de operaciones matemáticas por segundo. Lo importante es que, en las siete décadas que separan estos dos ejemplos, existe una diferencia de aproximadamente dieciséis órdenes de magnitud. Y dieciséis órdenes de magnitud equivalen a un “1” seguido de dieciséis ceros. Y un “1” seguido de dieciséis ceros es algo que, no sé ustedes, pero yo no comprendo con profundidad. Un ‘1’ seguido de dieciséis ceros son diez mil millones de millones. ¿Alguien puede imaginar qué significa que una cosa sea diez mil millones de millones mayor que otra? Entramos en una zona en la que un cero más o un cero menos ya te hace perder un poco la capacidad de entender las cosas. El Frontier, pues, tal y como he mencionado antes, adecuadamente programada, es capaz de llegar al llamado exaflop, que significa que hace diez a la dieciocho, es decir, un millón de millones de millones de operaciones matemáticas por segundo.
Yo no soy capaz de comprender qué significa que una máquina realice un millón de millones de millones de operaciones matemáticas cada segundo, pero sí puedo tratar de entender qué provoca esta inmensa capacidad de cálculo. La tecnología digital es probablemente la única tecnología humana que ha avanzado exponencialmente sin detenerse durante décadas. Esto significa, por ejemplo, que el ordenador portátil que lleva en la mochila o quizá el móvil que lleva en el bolsillo habría sido seguramente el ordenador más potente del mundo hace menos de treinta años. Es decir, que ustedes son capaces de hacer en casa lo que el ordenador más potente del mundo podía hacer hace tres décadas. Por tanto, si seguimos con esta tendencia, ¿qué podremos hacer con el dispositivo que llevamos en el bolsillo dentro de dos o tres décadas? Todo esto suponiendo, por supuesto, que seamos capaces de continuar con el mismo ritmo de crecimiento en los próximos años.
Y esta es la primera pregunta que quisiera responder: ¿seremos capaces? Una mala noticia, no para los investigadores porque significa reto, es que cada vez nos cuesta más dar el siguiente salto. Habitualmente hablamos de saltos de mil en mil: tera, peta, exa, etc., con estos prefijos. Antes saltábamos mil veces cada ocho o diez años, después cada doce, después cada catorce. Ahora, si queremos llegar al siguiente nivel, que es lo que llamamos zettaescala, diez elevado a veintiuna operaciones matemáticas por segundo, no sabemos cuánto tardaremos porque el desafío tecnológico es de una magnitud como nunca antes se había visto. Pronto ya no podremos hacer transistores más pequeños. Ahora hay fábricas capaces de hacer transistores de tres milímetros, quizás veremos de dos milímetros, quizás algún día de un milímetro…, pero basta, son demasiado pocos átomos de silicio dispuestos allí dentro. Por tanto, no es nada evidente que a medio plazo seamos capaces de seguir evolucionando como hasta ahora con nuestras capacidades computacionales
“Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses. Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplica por diez en un año, por cien en dos años, y así sucesivamente.”
Ahora bien, alguien podría preguntar: ‘Vale, pero espere un momento, miles de millones de millones de operaciones matemáticas por segundo… Sí, pero, ¿realmente son necesarias? ¿Por qué queremos ordenadores aún más potentes que los que se están instalando? ¿Hay algún problema matemático, físico o de ingeniería que requiera tanta capacidad tecnológica?’. Lo ilustro con el ejemplo del procesamiento del lenguaje natural, esos modelos de lenguaje masivos que ocupan las noticias durante todo el día. Las redes neuronales que existen bajo estos modelos de lenguaje tienen miles de millones de parámetros para entrenar sobre enormes volúmenes de datos, lo que requiere unas capacidades computacionales enormes.
Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses, que esencialmente es lo que somos capaces de hacer poniendo más transistores dentro de un chip (siguiendo la ley de Moore). Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplicará por diez en un año, por cien en dos años, y así sucesivamente. No podemos seguir a ese ritmo. No hay tecnología humana hoy que sea capaz de seguir ese ritmo, aunque hay mucha demanda de problemas científicos, y no sólo científicos, que necesitan incrementos de capacidad computacional como éstos. Dejo para el final la respuesta a la pregunta de cómo lo haremos, pero de entrada sí, existen problemas reales que seguirán requiriendo mayor capacidad de cálculo.
El impacto de esta convergencia en la ciencia y en la industria
Así pues, la primera idea es poner de relieve esta explosión de capacidad computacional. A partir de ahí, la cuestión es: ¿cómo afecta a la ciencia todo esto?

Quisiera empezar compartiendo una idea muy conceptual, pero que para mí es tremendamente importante. Desde hace siglos, la ciencia avanza siguiendo el método científico. Esto significa, entre otras cosas, la existencia de un diálogo continuo y fructífero entre la teoría y la experimentación. Existe un marco teórico, unas fórmulas o unas ecuaciones que nos describen un cierto fenómeno natural. Luego, experimento a la realidad y verifico si lo que observo es coherente con lo que predice la teoría. Si la teoría es válida, la experimentación coincide con lo que predice ésta. Entonces, cada vez que aparece un telescopio, un microscopio, un secuenciador, un acelerador de partículas, que me permite mirar más lejos, más adentro, más cerca, llegar a lugares a los que nunca había llegado, todo esto me permite hacer una experimentación diferente. Y allí, seguramente, descubriré algo que no concuerda con la teoría en vigor y, por tanto, podré dar un paso adelante como científico, descubriendo nuevos fenómenos que no encajan con la teoría hasta entonces considerada válida. A continuación, vuelvo al marco teórico, lo rectifico, lo amplío, lo modifico y la ciencia avanza. La ciencia avanza en ese continuo diálogo entre el marco teórico y el marco experimental.
Mi mensaje, por tanto, es que la ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. ¿Y qué relación tiene esto con la capacidad computacional? Pues que ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico. Herramientas que permiten, en vez de experimentar con la realidad, simularla. Habrá casos en los que experimentar con la realidad será la mejor opción, sin duda. Habrá casos, en cambio, en los que simular la realidad será la única posibilidad. Porque si investigas el cambio climático y quieres predecir la evolución del clima, la simulación computacional probablemente sea la única forma de hacerlo. Y si trabajas con plegamientos de proteínas, la inteligencia artificial será una gran aliada para darte marcos teóricos que expliquen o predigan el comportamiento de una determinada proteína.
El consenso de la comunidad científica dice hoy que combinar la experimentación con la simulación es una buena forma de hacer avanzar la ciencia. Por tanto, la segunda idea que expongo aquí es que, en casi todas las áreas de conocimiento científico (podemos hablar de la ingeniería, la química, la física, el clima, la aerodinámica, los materiales, etc.), cada vez más, la computación masiva y la experiencia se combinan para hacer avanzar a la ciencia más eficazmente. Y esto es porque hemos llegado a lo que llamamos la convergencia entre la supercomputación, esa capacidad masiva de calcular, y lo que llamamos la inteligencia artificial, la capacidad de desarrollar algoritmos profundos que, gracias a la supercomputación, se entrenan en cantidades masivas de datos.
“La ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. Ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico.”
Esta reflexión, que es muy conceptual, se puede ejemplificar con varios casos de interacciones donde el uso de estos “instrumentos” que llamamos supercomputadores es imprescindible. Y, teniendo en cuenta estas ideas, podría proporcionaros algún ejemplo de cosas que la ciencia es capaz de hacer gracias a estos instrumentos llamados supercomputadores. Ofreceré algunos ejemplos, empezando por uno del campo de la astronomía. En el BSC desarrollamos un proyecto, junto con la Agencia Espacial Europea, que tiene por objetivo observar todo lo que existe en la Vía Láctea y obtener información de cada objeto: la posición, la velocidad relativa, la luminosidad, la espectrografía, etc., a partir de los datos de una sonda llamada Gaia que orbita y cartografía la Vía Láctea. Debe tenerse en cuenta, de entrada, que la Vía Láctea contiene entre cien mil y doscientos mil millones de astros, lo que implica un reto científico y tecnológico de primer orden. Por tanto, podríamos empezar centrándonos en nuestro sistema solar, donde hay unos ciento cincuenta mil asteroides orbitando alrededor del Sol.
Éste es un caso del que conocemos a la perfección las leyes que gobiernan el problema, las leyes que rigen el movimiento de los objetos en el sistema solar. Obviamente, es mecánica clásica, son leyes conocidas desde hace mucho tiempo. Pero conocer las leyes y ser capaz de resolverlas en un caso como éste, con tantos objetos involucrados, es otro diferente. El poder de las técnicas computacionales complementa (no sustituye) la labor científica experimental. Tratar ciento cincuenta mil objetos simultáneamente sólo es posible mediante la simulación computacional y la gestión de grandes bases de datos.
Si bajamos a nuestro planeta, nos encontramos con nuevos casos de uso científico de la supercomputación. ¿Qué sabemos hoy de nuestro planeta? ¿Cómo cambia el clima, cómo evolucionará el clima en los próximos años y en las próximas décadas? Lo sabemos a nivel planetario gracias al uso de los supercomputadores y, cada vez más, podemos acercarnos y conocerlo a nivel continental, regional, urbano. Podemos trabajar con un ayuntamiento para simular la realidad de una ciudad para predecir qué va a pasar en función de cómo actuamos, de la misma manera que sabemos qué le va a pasar al Mediterráneo dentro de unas décadas. Todo esto, basado en la ciencia experimental y en las ecuaciones matemáticas que gobiernan el clima, no sería posible sin el apoyo de las técnicas computacionales.

Déjeme proporcionar aún otro ejemplo relacionado con la salud humana, la medicina, la biología, el diseño de fármacos, la simulación de nuevas enzimas. En todos estos ámbitos experimentalmente se pueden hacer muchas cosas y, en nuestros laboratorios, hemos avanzado enormemente. Sin embargo, cada vez más, allá donde no llega un aparato experimental, llega la simulación computacional. Por ejemplo, con ambas técnicas, se puede simular la evolución de las células en un tumor en función de la intensidad del fármaco que se administra y comprobar si esto, experimentalmente, ocurre exactamente igual. Cada vez más, la investigación en salud avanza gracias a la combinación de modelos teóricos, la investigación experimental y clínica y las herramientas computacionales. La combinación de todo esto está abriendo puertas hasta ahora inimaginables.
Déjeme ofrecer otro ejemplo extremadamente impresionante. Todos estamos entusiasmados últimamente con el ChatGPT y los modelos masivos de lenguaje. Sin embargo, en la misma línea de los grandes modelos de inteligencia artificial, para nosotros, seguramente, lo más espectacular es lo que ha realizado la empresa DeepMind con el programa AlphaFold. Se trata de un algoritmo que, de una sola vez -y disculpad si simplifico-, resuelve un problema biológico que estaba siendo investigado por toda la comunidad científica desde hacía cuarenta años: el problema del plegamiento de las proteínas. En una primera aproximación, el objetivo es ser capaces de saber cómo una proteína se pliega sobre sí misma (lo que en inglés se llama protein folding). Es extremadamente revolucionario lo que ha logrado DeepMind con esta IA, sobre todo porque ha alcanzado un porcentaje de éxito en la predicción del plegamiento de las proteínas que nunca nadie había logrado. Esto también deja entrever un gran reto: la explicabilidad del algoritmo no es obvia. Sabemos que lo hace bien, pero no comprendemos en profundidad por qué lo hace bien. Y éste es uno de los motivos por los que DeepMind, inmediatamente, ha abierto su algoritmo para que toda la comunidad científica internacional pueda interactuar con él, trabajar con él y pueda ayudar, con innovación abierta, a entender cómo funciona esto.
Por tanto, desde la cosmología hasta el clima, pasando por la medicina o la biología, diversas áreas científicas están avanzando enormemente también gracias a la computación. La siguiente pregunta que podríamos hacernos es si este impacto se limita sólo a la ciencia o bien tiene repercusión en las empresas y en el mundo industrial. Para responder a esta pregunta fijémonos, en primer lugar, en el ordenador que está instalando Meta, la matriz de Facebook. No sabemos exactamente lo que están instalando, pero afirman que será el más potente del mundo. Lo sea o no, es probable que sea una máquina extremadamente potente y muy útil para sus planes de futuro con el metaverso y otros proyectos.
Pero esto no sólo concierne a las grandes empresas tecnológicas, que uno ya imagina que están haciendo grandes inversiones en este campo. Hoy en día, esto afecta a casi todo lo relacionado con el mundo industrial de la ingeniería: la combustión, la aerodinámica, el sector aeroespacial, los gemelos digitales de la industria, simular cómo cambia la aerodinámica de un coche en diversas circunstancias, simular cómo quema un nuevo combustible que hemos diseñado en el laboratorio. Cada vez más, estas técnicas son cruciales para que las empresas mejoren su competitividad frente a los retos de esta naturaleza. O, dicho de otro modo, el uso de estas tecnologías da, a quien las utiliza, una ventaja competitiva muy importante.
Está claro que esta tecnología es de una importancia crucial tanto para la ciencia como para la industria. Y es fácil concluir que algo importante para la ciencia y la industria lo es también desde el punto de vista de la geoestrategia.
También podemos hablar de nuevo de la medicina y analizar el ejemplo de una compañía de dispositivos médicos como Medtronic, que prueba una nueva geometría o un nuevo material en un stent cardíaco. Esto sólo se podría hacer mediante experimentación animal, pero hacerlo en el laboratorio es extremadamente complicado por varias razones: por un lado, no escala, es decir, no es posible realizar cientos de pruebas diferentes en una escala de tiempo razonable; por otra parte, la necesaria experimentación animal presenta problemas éticos no menores. Sin embargo, este proceso de buscar nuevas configuraciones de un dispositivo médico sí se puede realizar computacionalmente. Si los métodos que se desarrollan y los supercomputadores disponibles lo permiten, se pueden simular las distintas opciones superando los límites del método experimental. De hecho, podemos decir que cada vez más el ensayo de nuevos dispositivos médicos incorporará estas tecnologías digitales, complementando el enfoque experimental. No tardaremos en ver ensayos clínicos que incorporen de forma masiva estas tecnologías y permitan realizar algunas fases in silico en vez de in vitro o in vivo.
Me gustaría exponer también otros ámbitos donde la simulación numérica que permiten estos supercomputadores es útil a nivel industrial. He hablado de grandes compañías tecnológicas, empresas biomédicas, casos de uso industriales, etc. Me permito terminar los ejemplos con una imagen que quizá saben identificar fácilmente: se trata del Camp Nou, más concretamente, de una simulación numérica sobre cómo las personas se pueden mover por una instalación como ésta, dependiendo de las intervenciones que se hagan. Por tanto, somos capaces de simular desde asteroides moviéndose alrededor de una estrella hasta movimientos de un gran número de personas en torno a una instalación deportiva.
Tipo de publicación
Data
16-03-2023
Muchas gracias señor Miquel Roca, presidente de Amics del País, primer teniente de alcalde, miembros de la junta de la SEBAP. Es un gran honor tener la oportunidad de estar aquí hoy, y no sólo por el maravilloso escenario, esta sala del Consell de Cent, sino también para poder compartir con vosotros algunas reflexiones que el señor Miquel Roca ya ha esbozado.
Cuando uno debe hablar públicamente, como me ocurre a mí de vez en cuando a causa de mi trabajo, puede ser difícil hacerlo ante un público tan diverso, compuesto por personas con trayectorias profesionales impresionantes, familias orgullosas de sus hijos e hijas y jóvenes con un talento excepcional. Por tanto, no es sencillo ajustar el tono del discurso. Sin embargo, me dirigiré sobre todo a los más jóvenes, que me dará la libertad de ser, quizás no del todo preciso técnicamente, pero sí, divulgativo. Espero que los expertos presentes me disculpen.
‘No es que Barcelona pueda ser capital mundial a nivel científico-tecnológico, sino que Barcelona ya es capital, al menos a nivel europeo, de la supercomputación’
Quisiera empezar profundizando un poco más en la idea fundamental que el señor Miquel Roca ya ha presentado sobre el rol de nuestra ciudad en el mundo. No es que Barcelona pueda ser (en condicional) una capital mundial a nivel científico-tecnológico, sino que quiero hablaros de un ámbito donde Barcelona ya es capital, al menos a nivel europeo. Me gustaría presentarles la realidad de esta ciudad en el ámbito de las tecnologías computacionales y digitales profundas.
En primer lugar, me gustaría empezar explicándoos qué está pasando ahora mismo en el ámbito IA y las tecnologías digitales, en general, y por qué. Estos días, cuando entramos en Twitter o cualquier diario digital, vemos noticias sobre el chatGPT contínuamente. Quisiera explicaros, tecnológicamente, por qué ocurre esto, exactamente ahora, y por qué es fruto de una convergencia de tecnologías. En segundo lugar, me gustaría transmitirles un poco el impacto que esto tiene, no sólo, en la sociedad, la economía o los debates éticos, que hay muchos, sino en la actividad científica y cómo los científicos trabajan de forma diferente debido a esta convergencia digital. En tercer lugar, me gustaría explicarles que esto no sólo afecta a la ciencia, sino también a la industria y muchas empresas. Y, por supuesto, un tema que es importante para la ciencia y la industria tiene un impacto geopolítico muy claro. Por tanto, me gustaría hablaros del papel que creemos que puede jugar Europa, y en particular Barcelona, en esta carrera entre los grandes países del mundo para el control de la tecnología digital. Y, finalmente, quisiera discutir sobre el futuro, hacia dónde nos dirigimos y qué tecnologías llegarán posteriormente (o complementariamente) al dominio del silicio.
La convergencia de las tecnologías digitales
Permítanme empezar insistiendo en que seré técnicamente poco preciso, así que me disculpo con aquellos que saben más que yo, algunos presentes en esta sala. Dicho esto, empiezo con dos ejemplos con los que quiero mostrar hasta qué punto la tecnología de computación ha avanzado en las últimas décadas. Una es el ENIAC, uno de los primeros ordenadores instalados en Estados Unidos a finales de los años cuarenta y hasta mediados de los cincuenta del siglo pasado, en Pensilvania. La otra es el Frontier, actualmente el supercomputador reconocido como el más potente del mundo de acuerdo con el ranking del Top500, instalado por nuestros colegas de Oak Ridge en Estados Unidos, en un centro dependiente del Departamento de Energía del Gobierno estadounidense.

El Frontier es el primer ordenador conocido que ha roto la barrera del exascale, es decir, la capacidad de realizar un millón de millones de millones (un trillón europeo) de operaciones matemáticas por segundo. Lo importante es que, en las siete décadas que separan estos dos ejemplos, existe una diferencia de aproximadamente dieciséis órdenes de magnitud. Y dieciséis órdenes de magnitud equivalen a un “1” seguido de dieciséis ceros. Y un “1” seguido de dieciséis ceros es algo que, no sé ustedes, pero yo no comprendo con profundidad. Un ‘1’ seguido de dieciséis ceros son diez mil millones de millones. ¿Alguien puede imaginar qué significa que una cosa sea diez mil millones de millones mayor que otra? Entramos en una zona en la que un cero más o un cero menos ya te hace perder un poco la capacidad de entender las cosas. El Frontier, pues, tal y como he mencionado antes, adecuadamente programada, es capaz de llegar al llamado exaflop, que significa que hace diez a la dieciocho, es decir, un millón de millones de millones de operaciones matemáticas por segundo.
Yo no soy capaz de comprender qué significa que una máquina realice un millón de millones de millones de operaciones matemáticas cada segundo, pero sí puedo tratar de entender qué provoca esta inmensa capacidad de cálculo. La tecnología digital es probablemente la única tecnología humana que ha avanzado exponencialmente sin detenerse durante décadas. Esto significa, por ejemplo, que el ordenador portátil que lleva en la mochila o quizá el móvil que lleva en el bolsillo habría sido seguramente el ordenador más potente del mundo hace menos de treinta años. Es decir, que ustedes son capaces de hacer en casa lo que el ordenador más potente del mundo podía hacer hace tres décadas. Por tanto, si seguimos con esta tendencia, ¿qué podremos hacer con el dispositivo que llevamos en el bolsillo dentro de dos o tres décadas? Todo esto suponiendo, por supuesto, que seamos capaces de continuar con el mismo ritmo de crecimiento en los próximos años.
Y esta es la primera pregunta que quisiera responder: ¿seremos capaces? Una mala noticia, no para los investigadores porque significa reto, es que cada vez nos cuesta más dar el siguiente salto. Habitualmente hablamos de saltos de mil en mil: tera, peta, exa, etc., con estos prefijos. Antes saltábamos mil veces cada ocho o diez años, después cada doce, después cada catorce. Ahora, si queremos llegar al siguiente nivel, que es lo que llamamos zettaescala, diez elevado a veintiuna operaciones matemáticas por segundo, no sabemos cuánto tardaremos porque el desafío tecnológico es de una magnitud como nunca antes se había visto. Pronto ya no podremos hacer transistores más pequeños. Ahora hay fábricas capaces de hacer transistores de tres milímetros, quizás veremos de dos milímetros, quizás algún día de un milímetro…, pero basta, son demasiado pocos átomos de silicio dispuestos allí dentro. Por tanto, no es nada evidente que a medio plazo seamos capaces de seguir evolucionando como hasta ahora con nuestras capacidades computacionales
“Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses. Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplica por diez en un año, por cien en dos años, y así sucesivamente.”
Ahora bien, alguien podría preguntar: ‘Vale, pero espere un momento, miles de millones de millones de operaciones matemáticas por segundo… Sí, pero, ¿realmente son necesarias? ¿Por qué queremos ordenadores aún más potentes que los que se están instalando? ¿Hay algún problema matemático, físico o de ingeniería que requiera tanta capacidad tecnológica?’. Lo ilustro con el ejemplo del procesamiento del lenguaje natural, esos modelos de lenguaje masivos que ocupan las noticias durante todo el día. Las redes neuronales que existen bajo estos modelos de lenguaje tienen miles de millones de parámetros para entrenar sobre enormes volúmenes de datos, lo que requiere unas capacidades computacionales enormes.
Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses, que esencialmente es lo que somos capaces de hacer poniendo más transistores dentro de un chip (siguiendo la ley de Moore). Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplicará por diez en un año, por cien en dos años, y así sucesivamente. No podemos seguir a ese ritmo. No hay tecnología humana hoy que sea capaz de seguir ese ritmo, aunque hay mucha demanda de problemas científicos, y no sólo científicos, que necesitan incrementos de capacidad computacional como éstos. Dejo para el final la respuesta a la pregunta de cómo lo haremos, pero de entrada sí, existen problemas reales que seguirán requiriendo mayor capacidad de cálculo.
El impacto de esta convergencia en la ciencia y en la industria
Así pues, la primera idea es poner de relieve esta explosión de capacidad computacional. A partir de ahí, la cuestión es: ¿cómo afecta a la ciencia todo esto?

Quisiera empezar compartiendo una idea muy conceptual, pero que para mí es tremendamente importante. Desde hace siglos, la ciencia avanza siguiendo el método científico. Esto significa, entre otras cosas, la existencia de un diálogo continuo y fructífero entre la teoría y la experimentación. Existe un marco teórico, unas fórmulas o unas ecuaciones que nos describen un cierto fenómeno natural. Luego, experimento a la realidad y verifico si lo que observo es coherente con lo que predice la teoría. Si la teoría es válida, la experimentación coincide con lo que predice ésta. Entonces, cada vez que aparece un telescopio, un microscopio, un secuenciador, un acelerador de partículas, que me permite mirar más lejos, más adentro, más cerca, llegar a lugares a los que nunca había llegado, todo esto me permite hacer una experimentación diferente. Y allí, seguramente, descubriré algo que no concuerda con la teoría en vigor y, por tanto, podré dar un paso adelante como científico, descubriendo nuevos fenómenos que no encajan con la teoría hasta entonces considerada válida. A continuación, vuelvo al marco teórico, lo rectifico, lo amplío, lo modifico y la ciencia avanza. La ciencia avanza en ese continuo diálogo entre el marco teórico y el marco experimental.
Mi mensaje, por tanto, es que la ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. ¿Y qué relación tiene esto con la capacidad computacional? Pues que ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico. Herramientas que permiten, en vez de experimentar con la realidad, simularla. Habrá casos en los que experimentar con la realidad será la mejor opción, sin duda. Habrá casos, en cambio, en los que simular la realidad será la única posibilidad. Porque si investigas el cambio climático y quieres predecir la evolución del clima, la simulación computacional probablemente sea la única forma de hacerlo. Y si trabajas con plegamientos de proteínas, la inteligencia artificial será una gran aliada para darte marcos teóricos que expliquen o predigan el comportamiento de una determinada proteína.
El consenso de la comunidad científica dice hoy que combinar la experimentación con la simulación es una buena forma de hacer avanzar la ciencia. Por tanto, la segunda idea que expongo aquí es que, en casi todas las áreas de conocimiento científico (podemos hablar de la ingeniería, la química, la física, el clima, la aerodinámica, los materiales, etc.), cada vez más, la computación masiva y la experiencia se combinan para hacer avanzar a la ciencia más eficazmente. Y esto es porque hemos llegado a lo que llamamos la convergencia entre la supercomputación, esa capacidad masiva de calcular, y lo que llamamos la inteligencia artificial, la capacidad de desarrollar algoritmos profundos que, gracias a la supercomputación, se entrenan en cantidades masivas de datos.
“La ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. Ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico.”
Esta reflexión, que es muy conceptual, se puede ejemplificar con varios casos de interacciones donde el uso de estos “instrumentos” que llamamos supercomputadores es imprescindible. Y, teniendo en cuenta estas ideas, podría proporcionaros algún ejemplo de cosas que la ciencia es capaz de hacer gracias a estos instrumentos llamados supercomputadores. Ofreceré algunos ejemplos, empezando por uno del campo de la astronomía. En el BSC desarrollamos un proyecto, junto con la Agencia Espacial Europea, que tiene por objetivo observar todo lo que existe en la Vía Láctea y obtener información de cada objeto: la posición, la velocidad relativa, la luminosidad, la espectrografía, etc., a partir de los datos de una sonda llamada Gaia que orbita y cartografía la Vía Láctea. Debe tenerse en cuenta, de entrada, que la Vía Láctea contiene entre cien mil y doscientos mil millones de astros, lo que implica un reto científico y tecnológico de primer orden. Por tanto, podríamos empezar centrándonos en nuestro sistema solar, donde hay unos ciento cincuenta mil asteroides orbitando alrededor del Sol.
Éste es un caso del que conocemos a la perfección las leyes que gobiernan el problema, las leyes que rigen el movimiento de los objetos en el sistema solar. Obviamente, es mecánica clásica, son leyes conocidas desde hace mucho tiempo. Pero conocer las leyes y ser capaz de resolverlas en un caso como éste, con tantos objetos involucrados, es otro diferente. El poder de las técnicas computacionales complementa (no sustituye) la labor científica experimental. Tratar ciento cincuenta mil objetos simultáneamente sólo es posible mediante la simulación computacional y la gestión de grandes bases de datos.
Si bajamos a nuestro planeta, nos encontramos con nuevos casos de uso científico de la supercomputación. ¿Qué sabemos hoy de nuestro planeta? ¿Cómo cambia el clima, cómo evolucionará el clima en los próximos años y en las próximas décadas? Lo sabemos a nivel planetario gracias al uso de los supercomputadores y, cada vez más, podemos acercarnos y conocerlo a nivel continental, regional, urbano. Podemos trabajar con un ayuntamiento para simular la realidad de una ciudad para predecir qué va a pasar en función de cómo actuamos, de la misma manera que sabemos qué le va a pasar al Mediterráneo dentro de unas décadas. Todo esto, basado en la ciencia experimental y en las ecuaciones matemáticas que gobiernan el clima, no sería posible sin el apoyo de las técnicas computacionales.

Déjeme proporcionar aún otro ejemplo relacionado con la salud humana, la medicina, la biología, el diseño de fármacos, la simulación de nuevas enzimas. En todos estos ámbitos experimentalmente se pueden hacer muchas cosas y, en nuestros laboratorios, hemos avanzado enormemente. Sin embargo, cada vez más, allá donde no llega un aparato experimental, llega la simulación computacional. Por ejemplo, con ambas técnicas, se puede simular la evolución de las células en un tumor en función de la intensidad del fármaco que se administra y comprobar si esto, experimentalmente, ocurre exactamente igual. Cada vez más, la investigación en salud avanza gracias a la combinación de modelos teóricos, la investigación experimental y clínica y las herramientas computacionales. La combinación de todo esto está abriendo puertas hasta ahora inimaginables.
Déjeme ofrecer otro ejemplo extremadamente impresionante. Todos estamos entusiasmados últimamente con el ChatGPT y los modelos masivos de lenguaje. Sin embargo, en la misma línea de los grandes modelos de inteligencia artificial, para nosotros, seguramente, lo más espectacular es lo que ha realizado la empresa DeepMind con el programa AlphaFold. Se trata de un algoritmo que, de una sola vez -y disculpad si simplifico-, resuelve un problema biológico que estaba siendo investigado por toda la comunidad científica desde hacía cuarenta años: el problema del plegamiento de las proteínas. En una primera aproximación, el objetivo es ser capaces de saber cómo una proteína se pliega sobre sí misma (lo que en inglés se llama protein folding). Es extremadamente revolucionario lo que ha logrado DeepMind con esta IA, sobre todo porque ha alcanzado un porcentaje de éxito en la predicción del plegamiento de las proteínas que nunca nadie había logrado. Esto también deja entrever un gran reto: la explicabilidad del algoritmo no es obvia. Sabemos que lo hace bien, pero no comprendemos en profundidad por qué lo hace bien. Y éste es uno de los motivos por los que DeepMind, inmediatamente, ha abierto su algoritmo para que toda la comunidad científica internacional pueda interactuar con él, trabajar con él y pueda ayudar, con innovación abierta, a entender cómo funciona esto.
Por tanto, desde la cosmología hasta el clima, pasando por la medicina o la biología, diversas áreas científicas están avanzando enormemente también gracias a la computación. La siguiente pregunta que podríamos hacernos es si este impacto se limita sólo a la ciencia o bien tiene repercusión en las empresas y en el mundo industrial. Para responder a esta pregunta fijémonos, en primer lugar, en el ordenador que está instalando Meta, la matriz de Facebook. No sabemos exactamente lo que están instalando, pero afirman que será el más potente del mundo. Lo sea o no, es probable que sea una máquina extremadamente potente y muy útil para sus planes de futuro con el metaverso y otros proyectos.
Pero esto no sólo concierne a las grandes empresas tecnológicas, que uno ya imagina que están haciendo grandes inversiones en este campo. Hoy en día, esto afecta a casi todo lo relacionado con el mundo industrial de la ingeniería: la combustión, la aerodinámica, el sector aeroespacial, los gemelos digitales de la industria, simular cómo cambia la aerodinámica de un coche en diversas circunstancias, simular cómo quema un nuevo combustible que hemos diseñado en el laboratorio. Cada vez más, estas técnicas son cruciales para que las empresas mejoren su competitividad frente a los retos de esta naturaleza. O, dicho de otro modo, el uso de estas tecnologías da, a quien las utiliza, una ventaja competitiva muy importante.
Está claro que esta tecnología es de una importancia crucial tanto para la ciencia como para la industria. Y es fácil concluir que algo importante para la ciencia y la industria lo es también desde el punto de vista de la geoestrategia.
También podemos hablar de nuevo de la medicina y analizar el ejemplo de una compañía de dispositivos médicos como Medtronic, que prueba una nueva geometría o un nuevo material en un stent cardíaco. Esto sólo se podría hacer mediante experimentación animal, pero hacerlo en el laboratorio es extremadamente complicado por varias razones: por un lado, no escala, es decir, no es posible realizar cientos de pruebas diferentes en una escala de tiempo razonable; por otra parte, la necesaria experimentación animal presenta problemas éticos no menores. Sin embargo, este proceso de buscar nuevas configuraciones de un dispositivo médico sí se puede realizar computacionalmente. Si los métodos que se desarrollan y los supercomputadores disponibles lo permiten, se pueden simular las distintas opciones superando los límites del método experimental. De hecho, podemos decir que cada vez más el ensayo de nuevos dispositivos médicos incorporará estas tecnologías digitales, complementando el enfoque experimental. No tardaremos en ver ensayos clínicos que incorporen de forma masiva estas tecnologías y permitan realizar algunas fases in silico en vez de in vitro o in vivo.
Me gustaría exponer también otros ámbitos donde la simulación numérica que permiten estos supercomputadores es útil a nivel industrial. He hablado de grandes compañías tecnológicas, empresas biomédicas, casos de uso industriales, etc. Me permito terminar los ejemplos con una imagen que quizá saben identificar fácilmente: se trata del Camp Nou, más concretamente, de una simulación numérica sobre cómo las personas se pueden mover por una instalación como ésta, dependiendo de las intervenciones que se hagan. Por tanto, somos capaces de simular desde asteroides moviéndose alrededor de una estrella hasta movimientos de un gran número de personas en torno a una instalación deportiva.