Moltes gràcies senyor Miquel Roca, president d’Amics del País, primer tinent d’alcalde, membres de la junta de la SEBAP. És un gran honor tenir l’oportunitat de ser aquí avui, i no només pel meravellós escenari, aquesta sala del Consell de Cent, sinó també per poder compartir amb vosaltres algunes reflexions que el senyor Miquel Roca ja ha esbossat.
Quan un ha de parlar públicament, com em passa a mi de tant en tant a causa de la meva feina, pot ser difícil fer-ho davant d’un públic tan divers, compost per persones amb trajectòries professionals impressionants, pares i mares orgullosos dels seus fills i filles i joves amb un talent excepcional. Per tant, no és senzill ajustar el to del discurs. Tenint en compte que abans d’entrar he saludat uns quants catedràtics i professors amb grans trajectòries, experts a nivell científic en aquesta matèria, em dirigiré sobretot als més joves, que em donarà la llibertat de ser, potser no del tot precís tècnicament, però sí, divulgatiu. Espero que els experts presents em disculpin.
“No és que Barcelona pugui ser capital mundial a nivell científic-tecnològic, sinó que Barcelona ja és capital, com a mínim a nivell europeu, de la supercomputació”
Voldria començar aprofundint una mica més en la idea fonamental que el senyor Miquel Roca ja ha presentat sobre el rol de la nostra ciutat al món. No és que Barcelona pugui ser (en condicional) una capital mundial a nivell científic-tecnològic, sinó que vull parlar-vos d’un àmbit on Barcelona ja ho és, de capital, com a mínim a nivell europeu. M’agradaria presentar-vos la realitat d’aquesta ciutat en l’àmbit de les tecnologies computacionals i digitals profundes, i ho faré a través d’aquestes quatre idees que us avanço per començar.
En primer lloc, m’agradaria explicar-vos per què passa tot això que passa ara mateix en l’àmbit de la IA i les tecnologies digitals, en general. Aquests dies, quan obrim Twitter o qualsevol diari digital, veiem notícies sobre el chatGPT contínuament. Voldria explicar-vos, tecnològicament, per què passa això, exactament ara, i per què és fruit d’una convergència de tecnologies. En segon lloc, m’agradaria transmetre-us una mica l’impacte que això té, no només, en la societat, l’economia o els debats ètics, que n’hi ha molts, sinó en l’activitat científica i com els científics treballen d’una manera diferent a causa d’aquesta convergència digital. En tercer lloc, m’agradaria explicar-vos que això no només afecta la ciència, sinó també la indústria i moltes empreses. I, evidentment, un tema que és important per a la ciència i la indústria té un impacte geopolític molt clar. Per tant, m’agradaria parlar-vos del paper que creiem que pot jugar Europa, i en particular Barcelona, en aquesta carrera entre els grans països del món per al control de la tecnologia digital. I, finalment, voldria discutir sobre el futur, on anem i quines tecnologies arribaran posteriorment (o complementàriament) al domini del silici.
La convergència de les tecnologies digitals
Permeteu-me començar insistint que seré tècnicament poc precís, així que em disculpo amb aquells que en saben més que jo, alguns presents en aquesta sala. Dit això, començo amb dos exemples amb els quals vull mostrar fins a quin punt la tecnologia de computació ha avançat en les últimes dècades. Una és l’ENIAC, un dels primers ordinadors instal·lats als Estats Units a finals dels anys quaranta i fins a mitjans dels cinquanta del segle passat, a Pennsylvania. L’altra és el Frontier, actualment el supercomputador reconegut com el més potent del món d’acord amb el rànquing del Top500, instal·lat pels nostres col·legues d’Oak Ridge als Estats Units, en un centre dependent del Departament d’Energia del Govern nord-americà.

El Frontier és el primer ordinador conegut que ha trencat la barrera de l’exascale, és a dir, la capacitat de fer un milió de milions de milions (un trilió europeu) d’operacions matemàtiques per segon. L’important és que, en les set dècades que separen aquests dos exemples, hi ha una diferència d’aproximadament setze ordres de magnitud. I setze ordres de magnitud equivalen a un “1” seguit de setze zeros. I un “1” seguit de setze zeros és una cosa que, no sé vostès, però, jo no comprenc amb profunditat. Un “1” seguit de setze zeros són deu mil milions de milions. Algú pot imaginar què significa que una cosa sigui deu mil milions de milions més gran que una altra? Entrem en una zona on un zero més o un zero menys ja et fa perdre una mica la capacitat d’entendre les coses. El Frontier, doncs, tal i com he mencionat abans, adequadament programada, és capaç d’arribar a l’anomenat exaflop, que vol dir que fa deu a la divuit, és a dir, un milió de milions de milions d’operacions matemàtiques per segon.
Jo no soc capaç de comprendre què vol dir que una màquina realitzi un milió de milions de milions d’operacions matemàtiques cada segon, però sí que puc provar d’entendre què provoca aquesta immensa capacitat de càlcul. La tecnologia digital és probablement l’única tecnologia humana que ha avançat exponencialment sense aturar-se durant dècades. Això vol dir, per exemple, que l’ordinador portàtil que porteu a la motxilla o potser el mòbil que porteu a la butxaca hauria estat segurament l’ordinador més potent del món fa menys de trenta anys. És a dir, que vosaltres sou capaços de fer a casa el que l’ordinador més potent del món podia fer fa tres dècades. Per tant, si seguim amb aquesta tendència, ¿què podrem fer a casa nostra amb el dispositiu que portem a la butxaca d’aquí a dues o tres dècades? Tot això suposant, és clar, que siguem capaços de continuar amb el mateix ritme de creixement els propers anys.
I aquesta és la primera pregunta que voldria respondre: en serem capaços? Una mala notícia, no per als investigadors perquè significa repte, és que cada vegada ens costa més fer el següent salt. Habitualment parlem de salts de mil en mil: tera, peta, exa, etc., amb aquests prefixos. Abans saltàvem mil vegades cada vuit o deu anys, després cada dotze, després cada catorze. Ara, si volem arribar al següent nivell, que és el que anomenem zettaescala, deu elevat a vint-i-una operacions matemàtiques per segon, no sabem quant trigarem perquè el desafiament tecnològic és d’una magnitud com mai abans s’havia vist. Aviat ja no podrem fer transistors més petits. Ara hi ha fàbriques capaces de fer transistors de tres mil·límetres, potser en veurem de dos mil·límetres, potser algun dia d’un mil·límetre…, però prou, són massa pocs àtoms de silici disposats allà dins. Per tant, no és gens evident que a mig termini siguem capaços de seguir evolucionant com fins ara amb les nostres capacitats computacionals
“Fins fa deu anys, la necessitat computacional es duplicava cada divuit o vint-i-quatre mesos. Actualment, la quantitat de capacitat computacional necessària comença a duplicar-se cada tres o quatre mesos. I qualsevol cosa que es duplica cada tres o quatre mesos es multiplica per deu en un any, per cent en dos anys, i així successivament.”
Ara bé, algú podria preguntar: ‘D’acord, però esperi un moment, milers de milions de milions d’operacions matemàtiques per segon… Sí, però, ¿realment són necessàries? ¿Per què volem ordinadors encara més potents que els que esteu instal·lant i que després ens mostrareu? ¿Hi ha algun problema matemàtic, físic o d’enginyeria que requereixi tanta capacitat tecnològica?’. Ho il·lustro amb l’exemple del processament del llenguatge natural, aquests models de llenguatge massius que ocupen les notícies durant tot el dia. Les xarxes neuronals que hi ha sota aquests models de llengua tenen milers de milions de paràmetres per entrenar sobre enormes volums de dades, i això requereix unes capacitats computacionals enormes.

Fins fa deu anys, la necessitat computacional es duplicava cada divuit o vint-i-quatre mesos, que, essencialment, és el que som capaços de fer posant més transistors dins d’un xip (seguint la llei de Moore). Actualment, la quantitat de capacitat computacional necessària comença a duplicar-se cada tres o quatre mesos. I qualsevol cosa que es duplica cada tres o quatre mesos es multiplica per deu en un any, per cent en dos anys, i així successivament. No podem continuar a aquest ritme. No hi ha tecnologia humana avui que sigui capaç de seguir aquest ritme, malgrat que hi ha molta demanda de problemes científics, i no només científics, que necessiten increments de capacitat computacional com aquests. Deixo per al final la resposta a la pregunta de com ho farem, però d’entrada sí, existeixen problemes reals que seguiran requerint de més capacitat de càlcul.
L’impacte d’aquesta convergència en la ciència i en la indústria
Així doncs, la primera idea és posar en relleu aquesta explosió de capacitat computacional. A partir d’aquí, la qüestió és: com afecta la ciència tot això?
Voldria començar compartint una idea molt conceptual, però que per a mi és tremendament important. Des de fa segles, la ciència avança seguint el mètode científic. Això vol dir, entre d’altres coses, l’existència d’un diàleg continu i fructífer entre la teoria i l’experimentació. Existeix un marc teòric, unes fórmules o unes equacions que ens descriuen un cert fenomen natural. Després, experimento a la realitat i verifico si el que observo és coherent amb el que prediu la teoria. Si la teoria és vàlida, l’experimentació coincideix amb el que prediu aquesta. Aleshores, cada cop que apareix un telescopi, un microscopi, un seqüenciador, un accelerador de partícules, que em permet mirar més lluny, més endins, més a prop, arribar a llocs on no havia arribat mai, tot això em permet fer una experimentació diferent. I allà, segurament, descobriré alguna cosa que no concorda amb la teoria en vigor i, per tant, podré fer un pas endavant com a científic, descobrint nous fenòmens que no encaixen amb la teoria fins aleshores considerada vàlida. Tot seguit, torno al marc teòric, el rectifico, l’amplio, el modifico i la ciència avança. La ciència avança en aquest continu diàleg entre el marc teòric i el marc experimental.
El meu missatge, per tant, és que la ciència porta segles progressant gràcies al mètode científic, que es basa en part en l’experimentació natural i en disposar d’instruments o aparells que em permeten observar allò que no podia observar abans de la creació d’aquests dispositius. I quina relació té això amb la capacitat computacional? Doncs que ara disposem de nous dispositius anomenats supercomputadors, que són, ni més ni menys, eines per fer avançar el coneixement científic. Eines que permeten, en comptes d’experimentar amb la realitat, simular-la. Hi haurà casos en què experimentar amb la realitat serà el millor, sens dubte. Hi haurà casos, en canvi, en què simular la realitat serà l’única possibilitat. Perquè si investigues el canvi climàtic i vols predir l’evolució del clima, la simulació computacional probablement sigui l’única manera de fer-ho. I si treballes amb plegaments de proteïnes, la intel·ligència artificial serà una gran aliada per donar-te marcs teòrics que expliquen o prediuen el comportament d’una determinada proteïna.
El consens de la comunitat científica diu avui que combinar l’experimentació amb la simulació és una bona manera de fer avançar la ciència. Per tant, la segona idea que exposo aquí és que, en gairebé totes les àrees de coneixement científic (podem parlar de l’enginyeria, la química, la física, el clima, l’aerodinàmica, els materials, etc.), cada vegada més, la computació massiva i l’experiència es combinen per fer avançar la ciència més eficaçment. I això és perquè hem arribat al que anomenem la convergència entre la supercomputació, aquesta capacitat massiva de calcular, i el que anomenem la intel·ligència artificial, la capacitat de desenvolupar algoritmes profunds que, gràcies a la supercomputació, s’entrenen en quantitats massives de dades.
“La ciència porta segles progressant gràcies al mètode científic, que es basa en part en l’experimentació natural i en disposar d’instruments o aparells que em permeten observar allò que no podia observar abans de la creació d’aquests dispositius. Ara disposem de nous dispositius anomenats supercomputadors, que són, ni més ni menys, eines per fer avançar el coneixement científic.”
Aquesta reflexió, que és molt conceptual, es pot exemplificar amb diversos casos d’interaccions on l’ús d’aquests “instruments” que anomenem supercomputadors és del tot imprescindible. I, tenint en compte aquestes idees, podria proporcionar-vos algun exemple de coses que la ciència és capaç de fer gràcies a aquests instruments anomenats supercomputadors. Us n’oferiré alguns, començant per un exemple del camp de l’astronomia. Al BSC desenvolupem un projecte, juntament amb l’Agència Espacial Europea, que té per objectiu observar tot el que hi ha a la Via Làctia i obtenir informació de cada objecte: la posició, la velocitat relativa, la lluminositat, l’espectrografia, etc., a partir de les dades d’una sonda anomenada Gaia que orbita i cartografia la Via Làctia. Cal tenir en compte, d’entrada, que la Via Làctia conté entre cent mil i dos-cents mil milions d’astres, la qual cosa implica un repte científic i tecnològic de primer ordre. Per tant, podríem començar centrant-nos en el nostre sistema solar, on hi ha uns cent cinquanta mil asteroides orbitant al voltant del Sol.
Aquest és un cas del qual coneixem a la perfecció les lleis que governen el problema, en aquest cas, les lleis que regeixen el moviment dels objectes en el sistema solar. Òbviament, és mecànica clàssica, són lleis conegudes des de fa molt de temps. Però conèixer les lleis és una cosa i ser capaç de resoldre-les en un cas com aquest, amb tants objectes involucrats, és un altre del tot diferent. El poder de les tècniques computacionals complementen (no substitueixen) la tasca científica experimental. Tractar cent cinquanta mil objectes simultàniament només és possible mitjançant la simulació computacional i la gestió de grans bases de dades.

Si baixem cap al nostre planeta, ens trobem amb nous casos d’ús científic de la supercomputació. Què en sabem avui del nostre planeta? Com canvia el clima, com evolucionarà el clima en els propers anys i les properes dècades? Ho sabem a nivell planetari gràcies a l’ús dels supercomputadors i, cada vegada més, ens podem apropar i conèixer-ho a nivell continental, regional, urbà. Podem treballar amb un ajuntament per simular la realitat d’una ciutat per tal de predir què passarà en funció de com actuem, de la mateixa manera que sabem què li passarà al Mediterrani d’aquí a unes quantes dècades. Tot això, que està basat en la ciència experimental i en les equacions matemàtiques que governen el clima, no seria possible sense el suport de les tècniques computacionals.
Deixeu-me proporcionar encara un altre exemple relacionat amb la salut humana, la medicina, la biologia, el disseny de fàrmacs, la simulació de nous enzims. En tots aquests àmbits experimentalment es poden fer moltes coses i, en els nostres laboratoris, hi hem avançat enormement. No obstant això, cada vegada més, allà on no arriba un aparell experimental, hi arriba la simulació computacional. Per exemple, amb ambdues tècniques, es pot simular l’evolució de les cèl·lules en un tumor en funció de la intensitat del fàrmac que s’administra i comprovar si això, experimentalment, es produeix exactament igual. Cada cop més, la recerca en salut avança gràcies a la combinació dels models teòrics, la recerca experimental i clínica i les eines computacionals. La combinació de tot plegat està obrint portes fins ara inimaginables.
Deixeu-me oferir un altre exemple extremadament impressionant. Tots estem entusiasmats, darrerament, amb el ChatGPT i els models massius de llenguatge. Però, en la mateixa línia dels grans models d’intel·ligència artificial, per a nosaltres, segurament, el més espectacular és el que ha realitzat l’empresa DeepMind amb el programa AlphaFold. Es tracta d’un algoritme que, d’una sola vegada -i disculpeu si simplifico-, resol un problema biològic que estava sent investigat per tota la comunitat científica des de feia quaranta anys: el problema del plegament de les proteïnes. En una primera aproximació, l’objectiu és ser capaços de saber com una proteïna es plega sobre si mateixa (el que en anglès s’anomena protein folding). És extremadament revolucionari el que ha aconseguit DeepMind amb aquesta IA, sobretot perquè ha assolit un percentatge d’èxit en la predicció del plegament de les proteïnes que mai ningú havia aconseguit. Això també deixa entreveure un gran repte: l’explicabilitat de l’algoritme no és òbvia. Sabem que ho fa bé, però no comprenem amb profunditat per què ho fa bé. I aquest és un dels motius pels quals DeepMind, immediatament, ha obert el seu algoritme perquè tota la comunitat científica internacional pugui interactuar-hi, treballar-hi i pugui ajudar, amb innovació oberta, a entendre com funciona això.
Per tant, des de la cosmologia fins al clima, passant per la medicina o la biologia, diverses àrees científiques estan avançant enormement també gràcies a la computació. La següent pregunta que ens podríem fer és si aquest impacte es limita només a la ciència o bé té repercussió en les empreses i en el món industrial. Per respondre a aquesta pregunta fixem-nos, en primer lloc, en l’ordinador que està instal·lant Meta, la matriu de Facebook. No sabem exactament què estan instal·lant, però afirmen que serà el més potent del món. Ho sigui o no, és probable que sigui una màquina extremadament potent i molt útil per als seus plans de futur amb el metavers i altres projectes.
Però això no només concerneix a les grans empreses tecnològiques, que un ja s’imagina que estan fent grans inversions en aquest camp. Avui en dia, això afecta gairebé tot el que està relacionat amb el món industrial de l’enginyeria: la combustió, l’aerodinàmica, el sector aeroespacial, els bessons digitals de la indústria, simular com canvia l’aerodinàmica d’un cotxe en diverses circumstàncies, simular com crema un nou combustible que hem dissenyat al laboratori. Cada vegada més, aquestes tècniques són crucials perquè les empreses millorin la seva competitivitat davant els reptes d’aquesta naturalesa. O, dit d’una altra manera, l’ús d’aquestes tecnologies dona, a qui les fa servir, un avantatge competitiu molt important.
‘Queda clar que aquesta tecnologia és d’una importància crucial tant per a la ciència com per a la indústria. I és fàcil de concloure que quelcom important per a la ciència i la indústria ho és també des del punt de vista de la geoestratègia.’
També podem parlar un altre cop de la medicina i analitzar l’exemple d’una companyia de dispositius mèdics com Medtronic, que prova una nova geometria o un nou material en un stent cardíac. Això només es podria fer mitjançant experimentació animal, però fer-ho al laboratori és extremadament complicat per diverses raons: d’una banda, no escala, és a dir, no és possible fer centenars de proves diferents en una escala de temps raonable; d’altra banda, l’experimentació animal necessària presenta problemes ètics no menors. No obstant, aquest procés de buscar noves configuracions d’un dispositiu mèdic sí que es pot fer computacionalment. Si els mètodes que es desenvolupen i els superodinadors disponibles ho permeten, es poden simular les diferents opcions superant els límits del mètode experimental. De fet, podem dir que, cada vegada més, l’assaig de nous dispositius mèdics incorporarà aquestes tecnologies digitals, complementant l’enfocament experimental. No trigarem en veure assajos clínics que incorporin de manera massiva aquestes tecnologies i permetin fer algunes fases in silico en comptes de in vitro o in vivo.
Moltes gràcies senyor Miquel Roca, president d’Amics del País, primer tinent d’alcalde, membres de la junta de la SEBAP. És un gran honor tenir l’oportunitat de ser aquí avui, i no només pel meravellós escenari, aquesta sala del Consell de Cent, sinó també per poder compartir amb vosaltres algunes reflexions que el senyor Miquel Roca ja ha esbossat.
Quan un ha de parlar públicament, com em passa a mi de tant en tant a causa de la meva feina, pot ser difícil fer-ho davant d’un públic tan divers, compost per persones amb trajectòries professionals impressionants, pares i mares orgullosos dels seus fills i filles i joves amb un talent excepcional. Per tant, no és senzill ajustar el to del discurs. Tenint en compte que abans d’entrar he saludat uns quants catedràtics i professors amb grans trajectòries, experts a nivell científic en aquesta matèria, em dirigiré sobretot als més joves, que em donarà la llibertat de ser, potser no del tot precís tècnicament, però sí, divulgatiu. Espero que els experts presents em disculpin.
“No és que Barcelona pugui ser capital mundial a nivell científic-tecnològic, sinó que Barcelona ja és capital, com a mínim a nivell europeu, de la supercomputació”
Voldria començar aprofundint una mica més en la idea fonamental que el senyor Miquel Roca ja ha presentat sobre el rol de la nostra ciutat al món. No és que Barcelona pugui ser (en condicional) una capital mundial a nivell científic-tecnològic, sinó que vull parlar-vos d’un àmbit on Barcelona ja ho és, de capital, com a mínim a nivell europeu. M’agradaria presentar-vos la realitat d’aquesta ciutat en l’àmbit de les tecnologies computacionals i digitals profundes, i ho faré a través d’aquestes quatre idees que us avanço per començar.
En primer lloc, m’agradaria explicar-vos per què passa tot això que passa ara mateix en l’àmbit de la IA i les tecnologies digitals, en general. Aquests dies, quan obrim Twitter o qualsevol diari digital, veiem notícies sobre el chatGPT contínuament. Voldria explicar-vos, tecnològicament, per què passa això, exactament ara, i per què és fruit d’una convergència de tecnologies. En segon lloc, m’agradaria transmetre-us una mica l’impacte que això té, no només, en la societat, l’economia o els debats ètics, que n’hi ha molts, sinó en l’activitat científica i com els científics treballen d’una manera diferent a causa d’aquesta convergència digital. En tercer lloc, m’agradaria explicar-vos que això no només afecta la ciència, sinó també la indústria i moltes empreses. I, evidentment, un tema que és important per a la ciència i la indústria té un impacte geopolític molt clar. Per tant, m’agradaria parlar-vos del paper que creiem que pot jugar Europa, i en particular Barcelona, en aquesta carrera entre els grans països del món per al control de la tecnologia digital. I, finalment, voldria discutir sobre el futur, on anem i quines tecnologies arribaran posteriorment (o complementàriament) al domini del silici.
La convergència de les tecnologies digitals
Permeteu-me començar insistint que seré tècnicament poc precís, així que em disculpo amb aquells que en saben més que jo, alguns presents en aquesta sala. Dit això, començo amb dos exemples amb els quals vull mostrar fins a quin punt la tecnologia de computació ha avançat en les últimes dècades. Una és l’ENIAC, un dels primers ordinadors instal·lats als Estats Units a finals dels anys quaranta i fins a mitjans dels cinquanta del segle passat, a Pennsylvania. L’altra és el Frontier, actualment el supercomputador reconegut com el més potent del món d’acord amb el rànquing del Top500, instal·lat pels nostres col·legues d’Oak Ridge als Estats Units, en un centre dependent del Departament d’Energia del Govern nord-americà.

El Frontier és el primer ordinador conegut que ha trencat la barrera de l’exascale, és a dir, la capacitat de fer un milió de milions de milions (un trilió europeu) d’operacions matemàtiques per segon. L’important és que, en les set dècades que separen aquests dos exemples, hi ha una diferència d’aproximadament setze ordres de magnitud. I setze ordres de magnitud equivalen a un “1” seguit de setze zeros. I un “1” seguit de setze zeros és una cosa que, no sé vostès, però, jo no comprenc amb profunditat. Un “1” seguit de setze zeros són deu mil milions de milions. Algú pot imaginar què significa que una cosa sigui deu mil milions de milions més gran que una altra? Entrem en una zona on un zero més o un zero menys ja et fa perdre una mica la capacitat d’entendre les coses. El Frontier, doncs, tal i com he mencionat abans, adequadament programada, és capaç d’arribar a l’anomenat exaflop, que vol dir que fa deu a la divuit, és a dir, un milió de milions de milions d’operacions matemàtiques per segon.
Jo no soc capaç de comprendre què vol dir que una màquina realitzi un milió de milions de milions d’operacions matemàtiques cada segon, però sí que puc provar d’entendre què provoca aquesta immensa capacitat de càlcul. La tecnologia digital és probablement l’única tecnologia humana que ha avançat exponencialment sense aturar-se durant dècades. Això vol dir, per exemple, que l’ordinador portàtil que porteu a la motxilla o potser el mòbil que porteu a la butxaca hauria estat segurament l’ordinador més potent del món fa menys de trenta anys. És a dir, que vosaltres sou capaços de fer a casa el que l’ordinador més potent del món podia fer fa tres dècades. Per tant, si seguim amb aquesta tendència, ¿què podrem fer a casa nostra amb el dispositiu que portem a la butxaca d’aquí a dues o tres dècades? Tot això suposant, és clar, que siguem capaços de continuar amb el mateix ritme de creixement els propers anys.
I aquesta és la primera pregunta que voldria respondre: en serem capaços? Una mala notícia, no per als investigadors perquè significa repte, és que cada vegada ens costa més fer el següent salt. Habitualment parlem de salts de mil en mil: tera, peta, exa, etc., amb aquests prefixos. Abans saltàvem mil vegades cada vuit o deu anys, després cada dotze, després cada catorze. Ara, si volem arribar al següent nivell, que és el que anomenem zettaescala, deu elevat a vint-i-una operacions matemàtiques per segon, no sabem quant trigarem perquè el desafiament tecnològic és d’una magnitud com mai abans s’havia vist. Aviat ja no podrem fer transistors més petits. Ara hi ha fàbriques capaces de fer transistors de tres mil·límetres, potser en veurem de dos mil·límetres, potser algun dia d’un mil·límetre…, però prou, són massa pocs àtoms de silici disposats allà dins. Per tant, no és gens evident que a mig termini siguem capaços de seguir evolucionant com fins ara amb les nostres capacitats computacionals
“Fins fa deu anys, la necessitat computacional es duplicava cada divuit o vint-i-quatre mesos. Actualment, la quantitat de capacitat computacional necessària comença a duplicar-se cada tres o quatre mesos. I qualsevol cosa que es duplica cada tres o quatre mesos es multiplica per deu en un any, per cent en dos anys, i així successivament.”
Ara bé, algú podria preguntar: ‘D’acord, però esperi un moment, milers de milions de milions d’operacions matemàtiques per segon… Sí, però, ¿realment són necessàries? ¿Per què volem ordinadors encara més potents que els que esteu instal·lant i que després ens mostrareu? ¿Hi ha algun problema matemàtic, físic o d’enginyeria que requereixi tanta capacitat tecnològica?’. Ho il·lustro amb l’exemple del processament del llenguatge natural, aquests models de llenguatge massius que ocupen les notícies durant tot el dia. Les xarxes neuronals que hi ha sota aquests models de llengua tenen milers de milions de paràmetres per entrenar sobre enormes volums de dades, i això requereix unes capacitats computacionals enormes.

Fins fa deu anys, la necessitat computacional es duplicava cada divuit o vint-i-quatre mesos, que, essencialment, és el que som capaços de fer posant més transistors dins d’un xip (seguint la llei de Moore). Actualment, la quantitat de capacitat computacional necessària comença a duplicar-se cada tres o quatre mesos. I qualsevol cosa que es duplica cada tres o quatre mesos es multiplica per deu en un any, per cent en dos anys, i així successivament. No podem continuar a aquest ritme. No hi ha tecnologia humana avui que sigui capaç de seguir aquest ritme, malgrat que hi ha molta demanda de problemes científics, i no només científics, que necessiten increments de capacitat computacional com aquests. Deixo per al final la resposta a la pregunta de com ho farem, però d’entrada sí, existeixen problemes reals que seguiran requerint de més capacitat de càlcul.
L’impacte d’aquesta convergència en la ciència i en la indústria
Així doncs, la primera idea és posar en relleu aquesta explosió de capacitat computacional. A partir d’aquí, la qüestió és: com afecta la ciència tot això?
Voldria començar compartint una idea molt conceptual, però que per a mi és tremendament important. Des de fa segles, la ciència avança seguint el mètode científic. Això vol dir, entre d’altres coses, l’existència d’un diàleg continu i fructífer entre la teoria i l’experimentació. Existeix un marc teòric, unes fórmules o unes equacions que ens descriuen un cert fenomen natural. Després, experimento a la realitat i verifico si el que observo és coherent amb el que prediu la teoria. Si la teoria és vàlida, l’experimentació coincideix amb el que prediu aquesta. Aleshores, cada cop que apareix un telescopi, un microscopi, un seqüenciador, un accelerador de partícules, que em permet mirar més lluny, més endins, més a prop, arribar a llocs on no havia arribat mai, tot això em permet fer una experimentació diferent. I allà, segurament, descobriré alguna cosa que no concorda amb la teoria en vigor i, per tant, podré fer un pas endavant com a científic, descobrint nous fenòmens que no encaixen amb la teoria fins aleshores considerada vàlida. Tot seguit, torno al marc teòric, el rectifico, l’amplio, el modifico i la ciència avança. La ciència avança en aquest continu diàleg entre el marc teòric i el marc experimental.
El meu missatge, per tant, és que la ciència porta segles progressant gràcies al mètode científic, que es basa en part en l’experimentació natural i en disposar d’instruments o aparells que em permeten observar allò que no podia observar abans de la creació d’aquests dispositius. I quina relació té això amb la capacitat computacional? Doncs que ara disposem de nous dispositius anomenats supercomputadors, que són, ni més ni menys, eines per fer avançar el coneixement científic. Eines que permeten, en comptes d’experimentar amb la realitat, simular-la. Hi haurà casos en què experimentar amb la realitat serà el millor, sens dubte. Hi haurà casos, en canvi, en què simular la realitat serà l’única possibilitat. Perquè si investigues el canvi climàtic i vols predir l’evolució del clima, la simulació computacional probablement sigui l’única manera de fer-ho. I si treballes amb plegaments de proteïnes, la intel·ligència artificial serà una gran aliada per donar-te marcs teòrics que expliquen o prediuen el comportament d’una determinada proteïna.
El consens de la comunitat científica diu avui que combinar l’experimentació amb la simulació és una bona manera de fer avançar la ciència. Per tant, la segona idea que exposo aquí és que, en gairebé totes les àrees de coneixement científic (podem parlar de l’enginyeria, la química, la física, el clima, l’aerodinàmica, els materials, etc.), cada vegada més, la computació massiva i l’experiència es combinen per fer avançar la ciència més eficaçment. I això és perquè hem arribat al que anomenem la convergència entre la supercomputació, aquesta capacitat massiva de calcular, i el que anomenem la intel·ligència artificial, la capacitat de desenvolupar algoritmes profunds que, gràcies a la supercomputació, s’entrenen en quantitats massives de dades.
“La ciència porta segles progressant gràcies al mètode científic, que es basa en part en l’experimentació natural i en disposar d’instruments o aparells que em permeten observar allò que no podia observar abans de la creació d’aquests dispositius. Ara disposem de nous dispositius anomenats supercomputadors, que són, ni més ni menys, eines per fer avançar el coneixement científic.”
Aquesta reflexió, que és molt conceptual, es pot exemplificar amb diversos casos d’interaccions on l’ús d’aquests “instruments” que anomenem supercomputadors és del tot imprescindible. I, tenint en compte aquestes idees, podria proporcionar-vos algun exemple de coses que la ciència és capaç de fer gràcies a aquests instruments anomenats supercomputadors. Us n’oferiré alguns, començant per un exemple del camp de l’astronomia. Al BSC desenvolupem un projecte, juntament amb l’Agència Espacial Europea, que té per objectiu observar tot el que hi ha a la Via Làctia i obtenir informació de cada objecte: la posició, la velocitat relativa, la lluminositat, l’espectrografia, etc., a partir de les dades d’una sonda anomenada Gaia que orbita i cartografia la Via Làctia. Cal tenir en compte, d’entrada, que la Via Làctia conté entre cent mil i dos-cents mil milions d’astres, la qual cosa implica un repte científic i tecnològic de primer ordre. Per tant, podríem començar centrant-nos en el nostre sistema solar, on hi ha uns cent cinquanta mil asteroides orbitant al voltant del Sol.
Aquest és un cas del qual coneixem a la perfecció les lleis que governen el problema, en aquest cas, les lleis que regeixen el moviment dels objectes en el sistema solar. Òbviament, és mecànica clàssica, són lleis conegudes des de fa molt de temps. Però conèixer les lleis és una cosa i ser capaç de resoldre-les en un cas com aquest, amb tants objectes involucrats, és un altre del tot diferent. El poder de les tècniques computacionals complementen (no substitueixen) la tasca científica experimental. Tractar cent cinquanta mil objectes simultàniament només és possible mitjançant la simulació computacional i la gestió de grans bases de dades.

Si baixem cap al nostre planeta, ens trobem amb nous casos d’ús científic de la supercomputació. Què en sabem avui del nostre planeta? Com canvia el clima, com evolucionarà el clima en els propers anys i les properes dècades? Ho sabem a nivell planetari gràcies a l’ús dels supercomputadors i, cada vegada més, ens podem apropar i conèixer-ho a nivell continental, regional, urbà. Podem treballar amb un ajuntament per simular la realitat d’una ciutat per tal de predir què passarà en funció de com actuem, de la mateixa manera que sabem què li passarà al Mediterrani d’aquí a unes quantes dècades. Tot això, que està basat en la ciència experimental i en les equacions matemàtiques que governen el clima, no seria possible sense el suport de les tècniques computacionals.
Deixeu-me proporcionar encara un altre exemple relacionat amb la salut humana, la medicina, la biologia, el disseny de fàrmacs, la simulació de nous enzims. En tots aquests àmbits experimentalment es poden fer moltes coses i, en els nostres laboratoris, hi hem avançat enormement. No obstant això, cada vegada més, allà on no arriba un aparell experimental, hi arriba la simulació computacional. Per exemple, amb ambdues tècniques, es pot simular l’evolució de les cèl·lules en un tumor en funció de la intensitat del fàrmac que s’administra i comprovar si això, experimentalment, es produeix exactament igual. Cada cop més, la recerca en salut avança gràcies a la combinació dels models teòrics, la recerca experimental i clínica i les eines computacionals. La combinació de tot plegat està obrint portes fins ara inimaginables.
Deixeu-me oferir un altre exemple extremadament impressionant. Tots estem entusiasmats, darrerament, amb el ChatGPT i els models massius de llenguatge. Però, en la mateixa línia dels grans models d’intel·ligència artificial, per a nosaltres, segurament, el més espectacular és el que ha realitzat l’empresa DeepMind amb el programa AlphaFold. Es tracta d’un algoritme que, d’una sola vegada -i disculpeu si simplifico-, resol un problema biològic que estava sent investigat per tota la comunitat científica des de feia quaranta anys: el problema del plegament de les proteïnes. En una primera aproximació, l’objectiu és ser capaços de saber com una proteïna es plega sobre si mateixa (el que en anglès s’anomena protein folding). És extremadament revolucionari el que ha aconseguit DeepMind amb aquesta IA, sobretot perquè ha assolit un percentatge d’èxit en la predicció del plegament de les proteïnes que mai ningú havia aconseguit. Això també deixa entreveure un gran repte: l’explicabilitat de l’algoritme no és òbvia. Sabem que ho fa bé, però no comprenem amb profunditat per què ho fa bé. I aquest és un dels motius pels quals DeepMind, immediatament, ha obert el seu algoritme perquè tota la comunitat científica internacional pugui interactuar-hi, treballar-hi i pugui ajudar, amb innovació oberta, a entendre com funciona això.
Per tant, des de la cosmologia fins al clima, passant per la medicina o la biologia, diverses àrees científiques estan avançant enormement també gràcies a la computació. La següent pregunta que ens podríem fer és si aquest impacte es limita només a la ciència o bé té repercussió en les empreses i en el món industrial. Per respondre a aquesta pregunta fixem-nos, en primer lloc, en l’ordinador que està instal·lant Meta, la matriu de Facebook. No sabem exactament què estan instal·lant, però afirmen que serà el més potent del món. Ho sigui o no, és probable que sigui una màquina extremadament potent i molt útil per als seus plans de futur amb el metavers i altres projectes.
Però això no només concerneix a les grans empreses tecnològiques, que un ja s’imagina que estan fent grans inversions en aquest camp. Avui en dia, això afecta gairebé tot el que està relacionat amb el món industrial de l’enginyeria: la combustió, l’aerodinàmica, el sector aeroespacial, els bessons digitals de la indústria, simular com canvia l’aerodinàmica d’un cotxe en diverses circumstàncies, simular com crema un nou combustible que hem dissenyat al laboratori. Cada vegada més, aquestes tècniques són crucials perquè les empreses millorin la seva competitivitat davant els reptes d’aquesta naturalesa. O, dit d’una altra manera, l’ús d’aquestes tecnologies dona, a qui les fa servir, un avantatge competitiu molt important.
‘Queda clar que aquesta tecnologia és d’una importància crucial tant per a la ciència com per a la indústria. I és fàcil de concloure que quelcom important per a la ciència i la indústria ho és també des del punt de vista de la geoestratègia.’
També podem parlar un altre cop de la medicina i analitzar l’exemple d’una companyia de dispositius mèdics com Medtronic, que prova una nova geometria o un nou material en un stent cardíac. Això només es podria fer mitjançant experimentació animal, però fer-ho al laboratori és extremadament complicat per diverses raons: d’una banda, no escala, és a dir, no és possible fer centenars de proves diferents en una escala de temps raonable; d’altra banda, l’experimentació animal necessària presenta problemes ètics no menors. No obstant, aquest procés de buscar noves configuracions d’un dispositiu mèdic sí que es pot fer computacionalment. Si els mètodes que es desenvolupen i els superodinadors disponibles ho permeten, es poden simular les diferents opcions superant els límits del mètode experimental. De fet, podem dir que, cada vegada més, l’assaig de nous dispositius mèdics incorporarà aquestes tecnologies digitals, complementant l’enfocament experimental. No trigarem en veure assajos clínics que incorporin de manera massiva aquestes tecnologies i permetin fer algunes fases in silico en comptes de in vitro o in vivo.
Moltes gràcies senyor Miquel Roca, president d’Amics del País, primer tinent d’alcalde, membres de la junta de la SEBAP. És un gran honor tenir l’oportunitat de ser aquí avui, i no només pel meravellós escenari, aquesta sala del Consell de Cent, sinó també per poder compartir amb vosaltres algunes reflexions que el senyor Miquel Roca ja ha esbossat.
Quan un ha de parlar públicament, com em passa a mi de tant en tant a causa de la meva feina, pot ser difícil fer-ho davant d’un públic tan divers, compost per persones amb trajectòries professionals impressionants, pares i mares orgullosos dels seus fills i filles i joves amb un talent excepcional. Per tant, no és senzill ajustar el to del discurs. Tenint en compte que abans d’entrar he saludat uns quants catedràtics i professors amb grans trajectòries, experts a nivell científic en aquesta matèria, em dirigiré sobretot als més joves, que em donarà la llibertat de ser, potser no del tot precís tècnicament, però sí, divulgatiu. Espero que els experts presents em disculpin.
“No és que Barcelona pugui ser capital mundial a nivell científic-tecnològic, sinó que Barcelona ja és capital, com a mínim a nivell europeu, de la supercomputació”
Voldria començar aprofundint una mica més en la idea fonamental que el senyor Miquel Roca ja ha presentat sobre el rol de la nostra ciutat al món. No és que Barcelona pugui ser (en condicional) una capital mundial a nivell científic-tecnològic, sinó que vull parlar-vos d’un àmbit on Barcelona ja ho és, de capital, com a mínim a nivell europeu. M’agradaria presentar-vos la realitat d’aquesta ciutat en l’àmbit de les tecnologies computacionals i digitals profundes, i ho faré a través d’aquestes quatre idees que us avanço per començar.
En primer lloc, m’agradaria explicar-vos per què passa tot això que passa ara mateix en l’àmbit de la IA i les tecnologies digitals, en general. Aquests dies, quan obrim Twitter o qualsevol diari digital, veiem notícies sobre el chatGPT contínuament. Voldria explicar-vos, tecnològicament, per què passa això, exactament ara, i per què és fruit d’una convergència de tecnologies. En segon lloc, m’agradaria transmetre-us una mica l’impacte que això té, no només, en la societat, l’economia o els debats ètics, que n’hi ha molts, sinó en l’activitat científica i com els científics treballen d’una manera diferent a causa d’aquesta convergència digital. En tercer lloc, m’agradaria explicar-vos que això no només afecta la ciència, sinó també la indústria i moltes empreses. I, evidentment, un tema que és important per a la ciència i la indústria té un impacte geopolític molt clar. Per tant, m’agradaria parlar-vos del paper que creiem que pot jugar Europa, i en particular Barcelona, en aquesta carrera entre els grans països del món per al control de la tecnologia digital. I, finalment, voldria discutir sobre el futur, on anem i quines tecnologies arribaran posteriorment (o complementàriament) al domini del silici.
La convergència de les tecnologies digitals
Permeteu-me començar insistint que seré tècnicament poc precís, així que em disculpo amb aquells que en saben més que jo, alguns presents en aquesta sala. Dit això, començo amb dos exemples amb els quals vull mostrar fins a quin punt la tecnologia de computació ha avançat en les últimes dècades. Una és l’ENIAC, un dels primers ordinadors instal·lats als Estats Units a finals dels anys quaranta i fins a mitjans dels cinquanta del segle passat, a Pennsylvania. L’altra és el Frontier, actualment el supercomputador reconegut com el més potent del món d’acord amb el rànquing del Top500, instal·lat pels nostres col·legues d’Oak Ridge als Estats Units, en un centre dependent del Departament d’Energia del Govern nord-americà.

El Frontier és el primer ordinador conegut que ha trencat la barrera de l’exascale, és a dir, la capacitat de fer un milió de milions de milions (un trilió europeu) d’operacions matemàtiques per segon. L’important és que, en les set dècades que separen aquests dos exemples, hi ha una diferència d’aproximadament setze ordres de magnitud. I setze ordres de magnitud equivalen a un “1” seguit de setze zeros. I un “1” seguit de setze zeros és una cosa que, no sé vostès, però, jo no comprenc amb profunditat. Un “1” seguit de setze zeros són deu mil milions de milions. Algú pot imaginar què significa que una cosa sigui deu mil milions de milions més gran que una altra? Entrem en una zona on un zero més o un zero menys ja et fa perdre una mica la capacitat d’entendre les coses. El Frontier, doncs, tal i com he mencionat abans, adequadament programada, és capaç d’arribar a l’anomenat exaflop, que vol dir que fa deu a la divuit, és a dir, un milió de milions de milions d’operacions matemàtiques per segon.
Jo no soc capaç de comprendre què vol dir que una màquina realitzi un milió de milions de milions d’operacions matemàtiques cada segon, però sí que puc provar d’entendre què provoca aquesta immensa capacitat de càlcul. La tecnologia digital és probablement l’única tecnologia humana que ha avançat exponencialment sense aturar-se durant dècades. Això vol dir, per exemple, que l’ordinador portàtil que porteu a la motxilla o potser el mòbil que porteu a la butxaca hauria estat segurament l’ordinador més potent del món fa menys de trenta anys. És a dir, que vosaltres sou capaços de fer a casa el que l’ordinador més potent del món podia fer fa tres dècades. Per tant, si seguim amb aquesta tendència, ¿què podrem fer a casa nostra amb el dispositiu que portem a la butxaca d’aquí a dues o tres dècades? Tot això suposant, és clar, que siguem capaços de continuar amb el mateix ritme de creixement els propers anys.
I aquesta és la primera pregunta que voldria respondre: en serem capaços? Una mala notícia, no per als investigadors perquè significa repte, és que cada vegada ens costa més fer el següent salt. Habitualment parlem de salts de mil en mil: tera, peta, exa, etc., amb aquests prefixos. Abans saltàvem mil vegades cada vuit o deu anys, després cada dotze, després cada catorze. Ara, si volem arribar al següent nivell, que és el que anomenem zettaescala, deu elevat a vint-i-una operacions matemàtiques per segon, no sabem quant trigarem perquè el desafiament tecnològic és d’una magnitud com mai abans s’havia vist. Aviat ja no podrem fer transistors més petits. Ara hi ha fàbriques capaces de fer transistors de tres mil·límetres, potser en veurem de dos mil·límetres, potser algun dia d’un mil·límetre…, però prou, són massa pocs àtoms de silici disposats allà dins. Per tant, no és gens evident que a mig termini siguem capaços de seguir evolucionant com fins ara amb les nostres capacitats computacionals
“Fins fa deu anys, la necessitat computacional es duplicava cada divuit o vint-i-quatre mesos. Actualment, la quantitat de capacitat computacional necessària comença a duplicar-se cada tres o quatre mesos. I qualsevol cosa que es duplica cada tres o quatre mesos es multiplica per deu en un any, per cent en dos anys, i així successivament.”
Ara bé, algú podria preguntar: ‘D’acord, però esperi un moment, milers de milions de milions d’operacions matemàtiques per segon… Sí, però, ¿realment són necessàries? ¿Per què volem ordinadors encara més potents que els que esteu instal·lant i que després ens mostrareu? ¿Hi ha algun problema matemàtic, físic o d’enginyeria que requereixi tanta capacitat tecnològica?’. Ho il·lustro amb l’exemple del processament del llenguatge natural, aquests models de llenguatge massius que ocupen les notícies durant tot el dia. Les xarxes neuronals que hi ha sota aquests models de llengua tenen milers de milions de paràmetres per entrenar sobre enormes volums de dades, i això requereix unes capacitats computacionals enormes.

Fins fa deu anys, la necessitat computacional es duplicava cada divuit o vint-i-quatre mesos, que, essencialment, és el que som capaços de fer posant més transistors dins d’un xip (seguint la llei de Moore). Actualment, la quantitat de capacitat computacional necessària comença a duplicar-se cada tres o quatre mesos. I qualsevol cosa que es duplica cada tres o quatre mesos es multiplica per deu en un any, per cent en dos anys, i així successivament. No podem continuar a aquest ritme. No hi ha tecnologia humana avui que sigui capaç de seguir aquest ritme, malgrat que hi ha molta demanda de problemes científics, i no només científics, que necessiten increments de capacitat computacional com aquests. Deixo per al final la resposta a la pregunta de com ho farem, però d’entrada sí, existeixen problemes reals que seguiran requerint de més capacitat de càlcul.
L’impacte d’aquesta convergència en la ciència i en la indústria
Així doncs, la primera idea és posar en relleu aquesta explosió de capacitat computacional. A partir d’aquí, la qüestió és: com afecta la ciència tot això?
Voldria començar compartint una idea molt conceptual, però que per a mi és tremendament important. Des de fa segles, la ciència avança seguint el mètode científic. Això vol dir, entre d’altres coses, l’existència d’un diàleg continu i fructífer entre la teoria i l’experimentació. Existeix un marc teòric, unes fórmules o unes equacions que ens descriuen un cert fenomen natural. Després, experimento a la realitat i verifico si el que observo és coherent amb el que prediu la teoria. Si la teoria és vàlida, l’experimentació coincideix amb el que prediu aquesta. Aleshores, cada cop que apareix un telescopi, un microscopi, un seqüenciador, un accelerador de partícules, que em permet mirar més lluny, més endins, més a prop, arribar a llocs on no havia arribat mai, tot això em permet fer una experimentació diferent. I allà, segurament, descobriré alguna cosa que no concorda amb la teoria en vigor i, per tant, podré fer un pas endavant com a científic, descobrint nous fenòmens que no encaixen amb la teoria fins aleshores considerada vàlida. Tot seguit, torno al marc teòric, el rectifico, l’amplio, el modifico i la ciència avança. La ciència avança en aquest continu diàleg entre el marc teòric i el marc experimental.
El meu missatge, per tant, és que la ciència porta segles progressant gràcies al mètode científic, que es basa en part en l’experimentació natural i en disposar d’instruments o aparells que em permeten observar allò que no podia observar abans de la creació d’aquests dispositius. I quina relació té això amb la capacitat computacional? Doncs que ara disposem de nous dispositius anomenats supercomputadors, que són, ni més ni menys, eines per fer avançar el coneixement científic. Eines que permeten, en comptes d’experimentar amb la realitat, simular-la. Hi haurà casos en què experimentar amb la realitat serà el millor, sens dubte. Hi haurà casos, en canvi, en què simular la realitat serà l’única possibilitat. Perquè si investigues el canvi climàtic i vols predir l’evolució del clima, la simulació computacional probablement sigui l’única manera de fer-ho. I si treballes amb plegaments de proteïnes, la intel·ligència artificial serà una gran aliada per donar-te marcs teòrics que expliquen o prediuen el comportament d’una determinada proteïna.
El consens de la comunitat científica diu avui que combinar l’experimentació amb la simulació és una bona manera de fer avançar la ciència. Per tant, la segona idea que exposo aquí és que, en gairebé totes les àrees de coneixement científic (podem parlar de l’enginyeria, la química, la física, el clima, l’aerodinàmica, els materials, etc.), cada vegada més, la computació massiva i l’experiència es combinen per fer avançar la ciència més eficaçment. I això és perquè hem arribat al que anomenem la convergència entre la supercomputació, aquesta capacitat massiva de calcular, i el que anomenem la intel·ligència artificial, la capacitat de desenvolupar algoritmes profunds que, gràcies a la supercomputació, s’entrenen en quantitats massives de dades.
“La ciència porta segles progressant gràcies al mètode científic, que es basa en part en l’experimentació natural i en disposar d’instruments o aparells que em permeten observar allò que no podia observar abans de la creació d’aquests dispositius. Ara disposem de nous dispositius anomenats supercomputadors, que són, ni més ni menys, eines per fer avançar el coneixement científic.”
Aquesta reflexió, que és molt conceptual, es pot exemplificar amb diversos casos d’interaccions on l’ús d’aquests “instruments” que anomenem supercomputadors és del tot imprescindible. I, tenint en compte aquestes idees, podria proporcionar-vos algun exemple de coses que la ciència és capaç de fer gràcies a aquests instruments anomenats supercomputadors. Us n’oferiré alguns, començant per un exemple del camp de l’astronomia. Al BSC desenvolupem un projecte, juntament amb l’Agència Espacial Europea, que té per objectiu observar tot el que hi ha a la Via Làctia i obtenir informació de cada objecte: la posició, la velocitat relativa, la lluminositat, l’espectrografia, etc., a partir de les dades d’una sonda anomenada Gaia que orbita i cartografia la Via Làctia. Cal tenir en compte, d’entrada, que la Via Làctia conté entre cent mil i dos-cents mil milions d’astres, la qual cosa implica un repte científic i tecnològic de primer ordre. Per tant, podríem començar centrant-nos en el nostre sistema solar, on hi ha uns cent cinquanta mil asteroides orbitant al voltant del Sol.
Aquest és un cas del qual coneixem a la perfecció les lleis que governen el problema, en aquest cas, les lleis que regeixen el moviment dels objectes en el sistema solar. Òbviament, és mecànica clàssica, són lleis conegudes des de fa molt de temps. Però conèixer les lleis és una cosa i ser capaç de resoldre-les en un cas com aquest, amb tants objectes involucrats, és un altre del tot diferent. El poder de les tècniques computacionals complementen (no substitueixen) la tasca científica experimental. Tractar cent cinquanta mil objectes simultàniament només és possible mitjançant la simulació computacional i la gestió de grans bases de dades.

Si baixem cap al nostre planeta, ens trobem amb nous casos d’ús científic de la supercomputació. Què en sabem avui del nostre planeta? Com canvia el clima, com evolucionarà el clima en els propers anys i les properes dècades? Ho sabem a nivell planetari gràcies a l’ús dels supercomputadors i, cada vegada més, ens podem apropar i conèixer-ho a nivell continental, regional, urbà. Podem treballar amb un ajuntament per simular la realitat d’una ciutat per tal de predir què passarà en funció de com actuem, de la mateixa manera que sabem què li passarà al Mediterrani d’aquí a unes quantes dècades. Tot això, que està basat en la ciència experimental i en les equacions matemàtiques que governen el clima, no seria possible sense el suport de les tècniques computacionals.
Deixeu-me proporcionar encara un altre exemple relacionat amb la salut humana, la medicina, la biologia, el disseny de fàrmacs, la simulació de nous enzims. En tots aquests àmbits experimentalment es poden fer moltes coses i, en els nostres laboratoris, hi hem avançat enormement. No obstant això, cada vegada més, allà on no arriba un aparell experimental, hi arriba la simulació computacional. Per exemple, amb ambdues tècniques, es pot simular l’evolució de les cèl·lules en un tumor en funció de la intensitat del fàrmac que s’administra i comprovar si això, experimentalment, es produeix exactament igual. Cada cop més, la recerca en salut avança gràcies a la combinació dels models teòrics, la recerca experimental i clínica i les eines computacionals. La combinació de tot plegat està obrint portes fins ara inimaginables.
Deixeu-me oferir un altre exemple extremadament impressionant. Tots estem entusiasmats, darrerament, amb el ChatGPT i els models massius de llenguatge. Però, en la mateixa línia dels grans models d’intel·ligència artificial, per a nosaltres, segurament, el més espectacular és el que ha realitzat l’empresa DeepMind amb el programa AlphaFold. Es tracta d’un algoritme que, d’una sola vegada -i disculpeu si simplifico-, resol un problema biològic que estava sent investigat per tota la comunitat científica des de feia quaranta anys: el problema del plegament de les proteïnes. En una primera aproximació, l’objectiu és ser capaços de saber com una proteïna es plega sobre si mateixa (el que en anglès s’anomena protein folding). És extremadament revolucionari el que ha aconseguit DeepMind amb aquesta IA, sobretot perquè ha assolit un percentatge d’èxit en la predicció del plegament de les proteïnes que mai ningú havia aconseguit. Això també deixa entreveure un gran repte: l’explicabilitat de l’algoritme no és òbvia. Sabem que ho fa bé, però no comprenem amb profunditat per què ho fa bé. I aquest és un dels motius pels quals DeepMind, immediatament, ha obert el seu algoritme perquè tota la comunitat científica internacional pugui interactuar-hi, treballar-hi i pugui ajudar, amb innovació oberta, a entendre com funciona això.
Per tant, des de la cosmologia fins al clima, passant per la medicina o la biologia, diverses àrees científiques estan avançant enormement també gràcies a la computació. La següent pregunta que ens podríem fer és si aquest impacte es limita només a la ciència o bé té repercussió en les empreses i en el món industrial. Per respondre a aquesta pregunta fixem-nos, en primer lloc, en l’ordinador que està instal·lant Meta, la matriu de Facebook. No sabem exactament què estan instal·lant, però afirmen que serà el més potent del món. Ho sigui o no, és probable que sigui una màquina extremadament potent i molt útil per als seus plans de futur amb el metavers i altres projectes.
Però això no només concerneix a les grans empreses tecnològiques, que un ja s’imagina que estan fent grans inversions en aquest camp. Avui en dia, això afecta gairebé tot el que està relacionat amb el món industrial de l’enginyeria: la combustió, l’aerodinàmica, el sector aeroespacial, els bessons digitals de la indústria, simular com canvia l’aerodinàmica d’un cotxe en diverses circumstàncies, simular com crema un nou combustible que hem dissenyat al laboratori. Cada vegada més, aquestes tècniques són crucials perquè les empreses millorin la seva competitivitat davant els reptes d’aquesta naturalesa. O, dit d’una altra manera, l’ús d’aquestes tecnologies dona, a qui les fa servir, un avantatge competitiu molt important.
‘Queda clar que aquesta tecnologia és d’una importància crucial tant per a la ciència com per a la indústria. I és fàcil de concloure que quelcom important per a la ciència i la indústria ho és també des del punt de vista de la geoestratègia.’
També podem parlar un altre cop de la medicina i analitzar l’exemple d’una companyia de dispositius mèdics com Medtronic, que prova una nova geometria o un nou material en un stent cardíac. Això només es podria fer mitjançant experimentació animal, però fer-ho al laboratori és extremadament complicat per diverses raons: d’una banda, no escala, és a dir, no és possible fer centenars de proves diferents en una escala de temps raonable; d’altra banda, l’experimentació animal necessària presenta problemes ètics no menors. No obstant, aquest procés de buscar noves configuracions d’un dispositiu mèdic sí que es pot fer computacionalment. Si els mètodes que es desenvolupen i els superodinadors disponibles ho permeten, es poden simular les diferents opcions superant els límits del mètode experimental. De fet, podem dir que, cada vegada més, l’assaig de nous dispositius mèdics incorporarà aquestes tecnologies digitals, complementant l’enfocament experimental. No trigarem en veure assajos clínics que incorporin de manera massiva aquestes tecnologies i permetin fer algunes fases in silico en comptes de in vitro o in vivo.
Tipus de publicació
Data
16-03-2023
Moltes gràcies senyor Miquel Roca, president d’Amics del País, primer tinent d’alcalde, membres de la junta de la SEBAP. És un gran honor tenir l’oportunitat de ser aquí avui, i no només pel meravellós escenari, aquesta sala del Consell de Cent, sinó també per poder compartir amb vosaltres algunes reflexions que el senyor Miquel Roca ja ha esbossat.
Quan un ha de parlar públicament, com em passa a mi de tant en tant a causa de la meva feina, pot ser difícil fer-ho davant d’un públic tan divers, compost per persones amb trajectòries professionals impressionants, pares i mares orgullosos dels seus fills i filles i joves amb un talent excepcional. Per tant, no és senzill ajustar el to del discurs. Tenint en compte que abans d’entrar he saludat uns quants catedràtics i professors amb grans trajectòries, experts a nivell científic en aquesta matèria, em dirigiré sobretot als més joves, que em donarà la llibertat de ser, potser no del tot precís tècnicament, però sí, divulgatiu. Espero que els experts presents em disculpin.
“No és que Barcelona pugui ser capital mundial a nivell científic-tecnològic, sinó que Barcelona ja és capital, com a mínim a nivell europeu, de la supercomputació”
Voldria començar aprofundint una mica més en la idea fonamental que el senyor Miquel Roca ja ha presentat sobre el rol de la nostra ciutat al món. No és que Barcelona pugui ser (en condicional) una capital mundial a nivell científic-tecnològic, sinó que vull parlar-vos d’un àmbit on Barcelona ja ho és, de capital, com a mínim a nivell europeu. M’agradaria presentar-vos la realitat d’aquesta ciutat en l’àmbit de les tecnologies computacionals i digitals profundes, i ho faré a través d’aquestes quatre idees que us avanço per començar.
En primer lloc, m’agradaria explicar-vos per què passa tot això que passa ara mateix en l’àmbit de la IA i les tecnologies digitals, en general. Aquests dies, quan obrim Twitter o qualsevol diari digital, veiem notícies sobre el chatGPT contínuament. Voldria explicar-vos, tecnològicament, per què passa això, exactament ara, i per què és fruit d’una convergència de tecnologies. En segon lloc, m’agradaria transmetre-us una mica l’impacte que això té, no només, en la societat, l’economia o els debats ètics, que n’hi ha molts, sinó en l’activitat científica i com els científics treballen d’una manera diferent a causa d’aquesta convergència digital. En tercer lloc, m’agradaria explicar-vos que això no només afecta la ciència, sinó també la indústria i moltes empreses. I, evidentment, un tema que és important per a la ciència i la indústria té un impacte geopolític molt clar. Per tant, m’agradaria parlar-vos del paper que creiem que pot jugar Europa, i en particular Barcelona, en aquesta carrera entre els grans països del món per al control de la tecnologia digital. I, finalment, voldria discutir sobre el futur, on anem i quines tecnologies arribaran posteriorment (o complementàriament) al domini del silici.
La convergència de les tecnologies digitals
Permeteu-me començar insistint que seré tècnicament poc precís, així que em disculpo amb aquells que en saben més que jo, alguns presents en aquesta sala. Dit això, començo amb dos exemples amb els quals vull mostrar fins a quin punt la tecnologia de computació ha avançat en les últimes dècades. Una és l’ENIAC, un dels primers ordinadors instal·lats als Estats Units a finals dels anys quaranta i fins a mitjans dels cinquanta del segle passat, a Pennsylvania. L’altra és el Frontier, actualment el supercomputador reconegut com el més potent del món d’acord amb el rànquing del Top500, instal·lat pels nostres col·legues d’Oak Ridge als Estats Units, en un centre dependent del Departament d’Energia del Govern nord-americà.

El Frontier és el primer ordinador conegut que ha trencat la barrera de l’exascale, és a dir, la capacitat de fer un milió de milions de milions (un trilió europeu) d’operacions matemàtiques per segon. L’important és que, en les set dècades que separen aquests dos exemples, hi ha una diferència d’aproximadament setze ordres de magnitud. I setze ordres de magnitud equivalen a un “1” seguit de setze zeros. I un “1” seguit de setze zeros és una cosa que, no sé vostès, però, jo no comprenc amb profunditat. Un “1” seguit de setze zeros són deu mil milions de milions. Algú pot imaginar què significa que una cosa sigui deu mil milions de milions més gran que una altra? Entrem en una zona on un zero més o un zero menys ja et fa perdre una mica la capacitat d’entendre les coses. El Frontier, doncs, tal i com he mencionat abans, adequadament programada, és capaç d’arribar a l’anomenat exaflop, que vol dir que fa deu a la divuit, és a dir, un milió de milions de milions d’operacions matemàtiques per segon.
Jo no soc capaç de comprendre què vol dir que una màquina realitzi un milió de milions de milions d’operacions matemàtiques cada segon, però sí que puc provar d’entendre què provoca aquesta immensa capacitat de càlcul. La tecnologia digital és probablement l’única tecnologia humana que ha avançat exponencialment sense aturar-se durant dècades. Això vol dir, per exemple, que l’ordinador portàtil que porteu a la motxilla o potser el mòbil que porteu a la butxaca hauria estat segurament l’ordinador més potent del món fa menys de trenta anys. És a dir, que vosaltres sou capaços de fer a casa el que l’ordinador més potent del món podia fer fa tres dècades. Per tant, si seguim amb aquesta tendència, ¿què podrem fer a casa nostra amb el dispositiu que portem a la butxaca d’aquí a dues o tres dècades? Tot això suposant, és clar, que siguem capaços de continuar amb el mateix ritme de creixement els propers anys.
I aquesta és la primera pregunta que voldria respondre: en serem capaços? Una mala notícia, no per als investigadors perquè significa repte, és que cada vegada ens costa més fer el següent salt. Habitualment parlem de salts de mil en mil: tera, peta, exa, etc., amb aquests prefixos. Abans saltàvem mil vegades cada vuit o deu anys, després cada dotze, després cada catorze. Ara, si volem arribar al següent nivell, que és el que anomenem zettaescala, deu elevat a vint-i-una operacions matemàtiques per segon, no sabem quant trigarem perquè el desafiament tecnològic és d’una magnitud com mai abans s’havia vist. Aviat ja no podrem fer transistors més petits. Ara hi ha fàbriques capaces de fer transistors de tres mil·límetres, potser en veurem de dos mil·límetres, potser algun dia d’un mil·límetre…, però prou, són massa pocs àtoms de silici disposats allà dins. Per tant, no és gens evident que a mig termini siguem capaços de seguir evolucionant com fins ara amb les nostres capacitats computacionals
“Fins fa deu anys, la necessitat computacional es duplicava cada divuit o vint-i-quatre mesos. Actualment, la quantitat de capacitat computacional necessària comença a duplicar-se cada tres o quatre mesos. I qualsevol cosa que es duplica cada tres o quatre mesos es multiplica per deu en un any, per cent en dos anys, i així successivament.”
Ara bé, algú podria preguntar: ‘D’acord, però esperi un moment, milers de milions de milions d’operacions matemàtiques per segon… Sí, però, ¿realment són necessàries? ¿Per què volem ordinadors encara més potents que els que esteu instal·lant i que després ens mostrareu? ¿Hi ha algun problema matemàtic, físic o d’enginyeria que requereixi tanta capacitat tecnològica?’. Ho il·lustro amb l’exemple del processament del llenguatge natural, aquests models de llenguatge massius que ocupen les notícies durant tot el dia. Les xarxes neuronals que hi ha sota aquests models de llengua tenen milers de milions de paràmetres per entrenar sobre enormes volums de dades, i això requereix unes capacitats computacionals enormes.

Fins fa deu anys, la necessitat computacional es duplicava cada divuit o vint-i-quatre mesos, que, essencialment, és el que som capaços de fer posant més transistors dins d’un xip (seguint la llei de Moore). Actualment, la quantitat de capacitat computacional necessària comença a duplicar-se cada tres o quatre mesos. I qualsevol cosa que es duplica cada tres o quatre mesos es multiplica per deu en un any, per cent en dos anys, i així successivament. No podem continuar a aquest ritme. No hi ha tecnologia humana avui que sigui capaç de seguir aquest ritme, malgrat que hi ha molta demanda de problemes científics, i no només científics, que necessiten increments de capacitat computacional com aquests. Deixo per al final la resposta a la pregunta de com ho farem, però d’entrada sí, existeixen problemes reals que seguiran requerint de més capacitat de càlcul.
L’impacte d’aquesta convergència en la ciència i en la indústria
Així doncs, la primera idea és posar en relleu aquesta explosió de capacitat computacional. A partir d’aquí, la qüestió és: com afecta la ciència tot això?
Voldria començar compartint una idea molt conceptual, però que per a mi és tremendament important. Des de fa segles, la ciència avança seguint el mètode científic. Això vol dir, entre d’altres coses, l’existència d’un diàleg continu i fructífer entre la teoria i l’experimentació. Existeix un marc teòric, unes fórmules o unes equacions que ens descriuen un cert fenomen natural. Després, experimento a la realitat i verifico si el que observo és coherent amb el que prediu la teoria. Si la teoria és vàlida, l’experimentació coincideix amb el que prediu aquesta. Aleshores, cada cop que apareix un telescopi, un microscopi, un seqüenciador, un accelerador de partícules, que em permet mirar més lluny, més endins, més a prop, arribar a llocs on no havia arribat mai, tot això em permet fer una experimentació diferent. I allà, segurament, descobriré alguna cosa que no concorda amb la teoria en vigor i, per tant, podré fer un pas endavant com a científic, descobrint nous fenòmens que no encaixen amb la teoria fins aleshores considerada vàlida. Tot seguit, torno al marc teòric, el rectifico, l’amplio, el modifico i la ciència avança. La ciència avança en aquest continu diàleg entre el marc teòric i el marc experimental.
El meu missatge, per tant, és que la ciència porta segles progressant gràcies al mètode científic, que es basa en part en l’experimentació natural i en disposar d’instruments o aparells que em permeten observar allò que no podia observar abans de la creació d’aquests dispositius. I quina relació té això amb la capacitat computacional? Doncs que ara disposem de nous dispositius anomenats supercomputadors, que són, ni més ni menys, eines per fer avançar el coneixement científic. Eines que permeten, en comptes d’experimentar amb la realitat, simular-la. Hi haurà casos en què experimentar amb la realitat serà el millor, sens dubte. Hi haurà casos, en canvi, en què simular la realitat serà l’única possibilitat. Perquè si investigues el canvi climàtic i vols predir l’evolució del clima, la simulació computacional probablement sigui l’única manera de fer-ho. I si treballes amb plegaments de proteïnes, la intel·ligència artificial serà una gran aliada per donar-te marcs teòrics que expliquen o prediuen el comportament d’una determinada proteïna.
El consens de la comunitat científica diu avui que combinar l’experimentació amb la simulació és una bona manera de fer avançar la ciència. Per tant, la segona idea que exposo aquí és que, en gairebé totes les àrees de coneixement científic (podem parlar de l’enginyeria, la química, la física, el clima, l’aerodinàmica, els materials, etc.), cada vegada més, la computació massiva i l’experiència es combinen per fer avançar la ciència més eficaçment. I això és perquè hem arribat al que anomenem la convergència entre la supercomputació, aquesta capacitat massiva de calcular, i el que anomenem la intel·ligència artificial, la capacitat de desenvolupar algoritmes profunds que, gràcies a la supercomputació, s’entrenen en quantitats massives de dades.
“La ciència porta segles progressant gràcies al mètode científic, que es basa en part en l’experimentació natural i en disposar d’instruments o aparells que em permeten observar allò que no podia observar abans de la creació d’aquests dispositius. Ara disposem de nous dispositius anomenats supercomputadors, que són, ni més ni menys, eines per fer avançar el coneixement científic.”
Aquesta reflexió, que és molt conceptual, es pot exemplificar amb diversos casos d’interaccions on l’ús d’aquests “instruments” que anomenem supercomputadors és del tot imprescindible. I, tenint en compte aquestes idees, podria proporcionar-vos algun exemple de coses que la ciència és capaç de fer gràcies a aquests instruments anomenats supercomputadors. Us n’oferiré alguns, començant per un exemple del camp de l’astronomia. Al BSC desenvolupem un projecte, juntament amb l’Agència Espacial Europea, que té per objectiu observar tot el que hi ha a la Via Làctia i obtenir informació de cada objecte: la posició, la velocitat relativa, la lluminositat, l’espectrografia, etc., a partir de les dades d’una sonda anomenada Gaia que orbita i cartografia la Via Làctia. Cal tenir en compte, d’entrada, que la Via Làctia conté entre cent mil i dos-cents mil milions d’astres, la qual cosa implica un repte científic i tecnològic de primer ordre. Per tant, podríem començar centrant-nos en el nostre sistema solar, on hi ha uns cent cinquanta mil asteroides orbitant al voltant del Sol.
Aquest és un cas del qual coneixem a la perfecció les lleis que governen el problema, en aquest cas, les lleis que regeixen el moviment dels objectes en el sistema solar. Òbviament, és mecànica clàssica, són lleis conegudes des de fa molt de temps. Però conèixer les lleis és una cosa i ser capaç de resoldre-les en un cas com aquest, amb tants objectes involucrats, és un altre del tot diferent. El poder de les tècniques computacionals complementen (no substitueixen) la tasca científica experimental. Tractar cent cinquanta mil objectes simultàniament només és possible mitjançant la simulació computacional i la gestió de grans bases de dades.

Si baixem cap al nostre planeta, ens trobem amb nous casos d’ús científic de la supercomputació. Què en sabem avui del nostre planeta? Com canvia el clima, com evolucionarà el clima en els propers anys i les properes dècades? Ho sabem a nivell planetari gràcies a l’ús dels supercomputadors i, cada vegada més, ens podem apropar i conèixer-ho a nivell continental, regional, urbà. Podem treballar amb un ajuntament per simular la realitat d’una ciutat per tal de predir què passarà en funció de com actuem, de la mateixa manera que sabem què li passarà al Mediterrani d’aquí a unes quantes dècades. Tot això, que està basat en la ciència experimental i en les equacions matemàtiques que governen el clima, no seria possible sense el suport de les tècniques computacionals.
Deixeu-me proporcionar encara un altre exemple relacionat amb la salut humana, la medicina, la biologia, el disseny de fàrmacs, la simulació de nous enzims. En tots aquests àmbits experimentalment es poden fer moltes coses i, en els nostres laboratoris, hi hem avançat enormement. No obstant això, cada vegada més, allà on no arriba un aparell experimental, hi arriba la simulació computacional. Per exemple, amb ambdues tècniques, es pot simular l’evolució de les cèl·lules en un tumor en funció de la intensitat del fàrmac que s’administra i comprovar si això, experimentalment, es produeix exactament igual. Cada cop més, la recerca en salut avança gràcies a la combinació dels models teòrics, la recerca experimental i clínica i les eines computacionals. La combinació de tot plegat està obrint portes fins ara inimaginables.
Deixeu-me oferir un altre exemple extremadament impressionant. Tots estem entusiasmats, darrerament, amb el ChatGPT i els models massius de llenguatge. Però, en la mateixa línia dels grans models d’intel·ligència artificial, per a nosaltres, segurament, el més espectacular és el que ha realitzat l’empresa DeepMind amb el programa AlphaFold. Es tracta d’un algoritme que, d’una sola vegada -i disculpeu si simplifico-, resol un problema biològic que estava sent investigat per tota la comunitat científica des de feia quaranta anys: el problema del plegament de les proteïnes. En una primera aproximació, l’objectiu és ser capaços de saber com una proteïna es plega sobre si mateixa (el que en anglès s’anomena protein folding). És extremadament revolucionari el que ha aconseguit DeepMind amb aquesta IA, sobretot perquè ha assolit un percentatge d’èxit en la predicció del plegament de les proteïnes que mai ningú havia aconseguit. Això també deixa entreveure un gran repte: l’explicabilitat de l’algoritme no és òbvia. Sabem que ho fa bé, però no comprenem amb profunditat per què ho fa bé. I aquest és un dels motius pels quals DeepMind, immediatament, ha obert el seu algoritme perquè tota la comunitat científica internacional pugui interactuar-hi, treballar-hi i pugui ajudar, amb innovació oberta, a entendre com funciona això.
Per tant, des de la cosmologia fins al clima, passant per la medicina o la biologia, diverses àrees científiques estan avançant enormement també gràcies a la computació. La següent pregunta que ens podríem fer és si aquest impacte es limita només a la ciència o bé té repercussió en les empreses i en el món industrial. Per respondre a aquesta pregunta fixem-nos, en primer lloc, en l’ordinador que està instal·lant Meta, la matriu de Facebook. No sabem exactament què estan instal·lant, però afirmen que serà el més potent del món. Ho sigui o no, és probable que sigui una màquina extremadament potent i molt útil per als seus plans de futur amb el metavers i altres projectes.
Però això no només concerneix a les grans empreses tecnològiques, que un ja s’imagina que estan fent grans inversions en aquest camp. Avui en dia, això afecta gairebé tot el que està relacionat amb el món industrial de l’enginyeria: la combustió, l’aerodinàmica, el sector aeroespacial, els bessons digitals de la indústria, simular com canvia l’aerodinàmica d’un cotxe en diverses circumstàncies, simular com crema un nou combustible que hem dissenyat al laboratori. Cada vegada més, aquestes tècniques són crucials perquè les empreses millorin la seva competitivitat davant els reptes d’aquesta naturalesa. O, dit d’una altra manera, l’ús d’aquestes tecnologies dona, a qui les fa servir, un avantatge competitiu molt important.
‘Queda clar que aquesta tecnologia és d’una importància crucial tant per a la ciència com per a la indústria. I és fàcil de concloure que quelcom important per a la ciència i la indústria ho és també des del punt de vista de la geoestratègia.’
També podem parlar un altre cop de la medicina i analitzar l’exemple d’una companyia de dispositius mèdics com Medtronic, que prova una nova geometria o un nou material en un stent cardíac. Això només es podria fer mitjançant experimentació animal, però fer-ho al laboratori és extremadament complicat per diverses raons: d’una banda, no escala, és a dir, no és possible fer centenars de proves diferents en una escala de temps raonable; d’altra banda, l’experimentació animal necessària presenta problemes ètics no menors. No obstant, aquest procés de buscar noves configuracions d’un dispositiu mèdic sí que es pot fer computacionalment. Si els mètodes que es desenvolupen i els superodinadors disponibles ho permeten, es poden simular les diferents opcions superant els límits del mètode experimental. De fet, podem dir que, cada vegada més, l’assaig de nous dispositius mèdics incorporarà aquestes tecnologies digitals, complementant l’enfocament experimental. No trigarem en veure assajos clínics que incorporin de manera massiva aquestes tecnologies i permetin fer algunes fases in silico en comptes de in vitro o in vivo.
