Autor: Amics del País

  • | |

    ‘Cultura: bé global’ | Barcelona Tribuna con Miquel Iceta

    ‘Cultura: bé global’ | Barcelona Tribuna con Miquel Iceta

    Barcelona Tribuna

    21-04-2023

    Hora
    Hora

    09:00

    Hora
    Lugar

    Hotel Melià Sarrià, Av. de Sarrià, 50
    08029 Barcelona

    Agenda Barcelona Tribuna 21-04-2023 Barcelona Tribuna de Amics del País organiza la conferencia y coloquio “Cultura: bé global” con el ministro de Cultura y Deportes del gobierno de España, el Excmo. Sr. Miquel Iceta Llorens. El acto será presentado por Miquel Roca Junyent, presidente de Amics del País, y el encargado de moderar el debate…

    Barcelona Tribuna de Amics del País organiza la conferencia y coloquio “Cultura: bé global” con el ministro de Cultura y Deportes del gobierno de España, el Excmo. Sr. Miquel Iceta Llorens. El acto será presentado por Miquel Roca Junyent, presidente de Amics del País, y el encargado de moderar el debate será el periodista de La Vanguardia, Miquel Molina.

    La cultura reclama, desde hace tiempo, un mayor apoyo y reconocimiento por parte de las administraciones públicas en tanto que es eje vertebrador de las sociedades democráticas, generadora de conocimiento, de diálogo y de oportunidades. En este sentido, hemos invitado a Miquel Iceta a reflexionar sobre los retos del sector y de qué manera se están abordando desde el ministerio.

     

    El acto tendrá lugar el próximo viernes 21 de abril a las 9h00 en el hotel Melià Sarrià. El aforo es limitado y es necesaria inscripción previa a través del formulario.

     

    PROGRAMA:

    9h00 Presentación

    9h10. Conferencia

    9h35. Coloquio

    10h15. Fin del acto.

     

    Precio general: 25 euros

    Precio socio Amigos del País: 20 euros

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • | |

    ‘Cultura: bé global’ | Barcelona Tribuna con Miquel Iceta

    ‘Cultura: bé global’ | Barcelona Tribuna con Miquel Iceta

    Barcelona Tribuna

    Hora
    Tipo de publicación

    Resumen de actividades

    Hora
    Data

    21-04-2023

    “La cultura es un bien esencial, es el aire que respiramos. La cultura es la diferencia entre vivir y sobrevivir”, afirmó Miquel Iceta Llorens, ministro de Cultura y Deportes del gobierno de España, en la conferencia y almuerzo-coloquio “Cultura: bien global”, organizada por Barcelona Tribuna d ‘Amics del País el pasado viernes 21 de abril.…

    En este sentido, el ministro explicó que durante esta legislatura el presupuesto en cultura ha alcanzado ‘máximos históricos’, ‘se ha adaptado la legislación laboral, fiscal y de seguridad social a la intermitencia de la actividad cultural’ y se ha avanzado en la protección de la propiedad intelectual y los derechos de autor en el marco del Estatuto del artista; ‘se han creado figuras laborales y de contratación para hacer aflorar el trabajo no regulado que frecuentaba en el mundo de la cultura’; se ha creado el Bono Cultural joven y se han destinado más de 107 millones de euros a la industria audiovisual ‘para ayudar a la creación y captación de inversión extranjera’, entre otros.

    “Por primera vez tenemos una política cultural pensada en su globalidad, no limitándonos a un incremento presupuestario, sino impulsando también cambios estructurales” 

    Además, el Ministerio de Educación ha redactado el proyecto de Ley de Enseñanzas Artísticas y ‘ayer se cerró un acuerdo en el Congreso de los Diputados, a propuesta del PDeCAT, para aumentar las posibilidades del mecenazgo en todo el país’, aunque ‘no debemos detenernos hasta que tengamos una Ley del Mecenazgo con todos los ets i uts, que deberá encajar con una reforma fiscal más general’, añadió Iceta.

    Miquel Iceta i Llorens

    En relación al Bono Cultural joven, una dotación de 400 euros para destinar al consumo de actividades y bienes culturales, Iceta se felicitó de la cobertura de la medida en el conjunto del territorio español, llegando al 56%: “los expertos nos dicen que es un muy buen resultado”. Sin embargo, se lamentó que en ‘Catalunya no hemos estado a la altura’, ya que sólo el 48% de los jóvenes han aprovechado la ayuda, y pidió la colaboración de todos para aprovechar mejor las oportunidades que éste ofrece.

    ‘Uno de mis enemigos políticos más importantes no es ni una persona ni un partido, sino el victimismo’

    En cuanto a la comparación entre Barcelona y Madrid, el ministro declaró que ‘Madrid se está convirtiendo en un centro cultural muy importante’ con una capacidad de atracción ‘envidiable’. Y alertó de que ‘no podemos distraernos’ y que debemos aprovechar las oportunidades del impulso de Madrid. ‘Uno de mis enemigos políticos más importantes no es ni una persona ni un partido, sino el victimismo’, sentenció, ‘no va bien buscar excusas fuera para justificar que no hacemos lo suficiente’. En este sentido, resaltó la reactivación de los fondos de Cocapitalidad, 20 millones de euros para Barcelona incluidos en los Presupuestos Generales del Estado por este concepto, y alentó a “hacer más tándem con Madrid”.

    Miquel Molina i Miquel Iceta a Barcelona Tribuna

    Pero también se lamentó de no aprovechar suficientemente “los trumfos” que tiene Catalunya. ‘Si no lo hacemos nosotros, lo harán los demás’, afirmó, en referencia a la poca reivindicación de la importancia de Horta de Sant Joan y de Gòsol en la obra de Picasso ahora que se celebran los cincuenta años de la muerte del artista, en contraposición a “la pasión que está dedicando A Coruña por los cuatro o cinco años que el pintor vivió allí”. Sin embargo, el ministro mostró su preocupación en cuanto al boom latinoamericano: “yo no quiero dejar que Madrid sea el único puente con Latinoamérica”, y puso de relieve que Catalunya, “desde la defensa del catalán, también debe aprovechar y defender la parte que le toca del castellano, porque sin el castellano no se entiende el país y, además, porque nos interesa”.

    “Yo no quiero dejar que Madrid sea el único puente con Latinoamérica” 

    Preguntado por la Biblioteca de Barcelona, Iceta reveló que deseaba que hubiera “la ambición de hacer de la biblioteca algo más que un almacén de libros”, vinculando al mundo editorial y la red de bibliotecas públicas, etc., aparte de aprovecharla para representar el legado literario y recuperar los archivos que se marcharon a Madrid. Eso sí, el ministro pidió reflexionar sobre ‘por qué se nos han escapado algunos archivos’ y sugirió que, tal vez, ‘no los hemos tratado bien’.

    Miquel Molina i Miquel Iceta a Barcelona Tribuna

    Por otra parte, preguntado por el nombre que debería tener la Biblioteca, Iceta no quiso pronunciarse, ya que hay un acuerdo con la Generalitat, el Ayuntamiento y el gobierno español para que sea la Generalitat quien haga una propuesta, pero puntualizó que ‘Salvador Espriu me gusta mucho’. También reivindicó el nombre de Carme Balcells y del político Jordi Solé Tura. Sin embargo, ‘no es un problema de falta de nombres en Catalunya’, aunque ‘cuando alguien quiere que un equipamiento sea de referencia, hay que empezar por el nombre’, puntualizó.

    ‘Tenemos el talento, tenemos las herramientas, pero nos falta la Verge de l’Empenta” 

    Por último, Miquel Iceta concluyó que todas las instituciones (Ayuntamiento, Generalitat y Gobierno) deben “trabajar conjuntamente, acordar prioridades y distribuir responsabilidades para recuperar impulso. ‘Tenemos el talento, tenemos las herramientas, pero nos falta la Verge de l’Empenta, y a ella me encomiendo’. En este sentido, el ministro pidió también “reacción social”, que tanto las administraciones como la sociedad apuesten por la cultura de manera estratégica, considerándola y defendiéndola como bien público esencial y, por tanto, incrementando la exigencia y la demanda por parte de todos.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • | |

    ‘Gestió de finances personals, salut i esperança de vida’ | Debate Amics del País con Teodor Mas i Valls

    ‘Gestió de finances personals, salut i esperança de vida’ | Debate Amics del País con Teodor Mas i Valls

    Comisión Salud

    19-04-2023

    Hora
    Hora

    00:00

    Hora
    Lugar

    Seu Social Amics del País, C/ Basea8 1r 1a
    08003 Barcelona

    Agenda Comisión Salud 19-04-2023   La comisión Salud de Amics del País organiza el debate “Gestió de finances personals, salut i esperança de vida” con Teodor Mas i Valls, director de inversiones en Capital Cell, fundador de Barcelona Trading Ideas y escritor. El acto estará presentado por el Dr. Antoni Guerrero, presidente de la comisión.…

     

    La comisión Salud de Amics del País organiza el debate “Gestió de finances personals, salut i esperança de vida” con Teodor Mas i Valls, director de inversiones en Capital Cell, fundador de Barcelona Trading Ideas y escritor. El acto estará presentado por el Dr. Antoni Guerrero, presidente de la comisión.

    Teodor Mas i Valls es economista por la Universitat Autònoma de Barcelona y acaba de publicar el libro “Un método judeocatalán para ahorrar y hacerse rico” donde, a través de un repaso de su linaje familiar, extrae aprendizajes para gestionar bien el dinero y llegar a la libertad financiera.

    En el libro, Teodor Mas i Valls recomienda, entre otras cosas, ahorrar el 25% de los ingresos, planificar la vida y, además, defiende que la persona rica es la que tiene tiempo para sí misma. En esta línea, durante el acto nos ampliará la información con más consejos para una buena gestión de la economía personal para disminuir el estrés, vivir plenamente y, por tanto, conseguir más y mejores años de vida.

    El acto, que tendrá lugar en la sede social de Amics del País (C/ Basea, 8 1r 1a), tiene el aforo limitado y las reservas seran por orden estricto de inscripción a través del formulario.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • |

    Acto de entrega de los premios Amics del País 2023

    Acto de entrega de los premios Amics del País 2023

    16-03-2023

    Hora
    Hora

    18:30

    Hora
    Lugar

    Saló de Cent de l’Ajuntament de Barcelona, Pl. Sant Jaume, 1
    08003 Barcelona

    Agenda 16-03-2023 Amics del País y el Ayuntamiento de Barcelona presiden un año más el acto de entrega de los premios Amics del País, un firme compromiso con la excelencia investigadora de nuestro país y con la igualdad de oportunidades. Pronunciará el tradicional discurso de apertura el Sr. Josep Maria Martorell, director asociado del Barcelona…

    Amics del País y el Ayuntamiento de Barcelona presiden un año más el acto de entrega de los premios Amics del País, un firme compromiso con la excelencia investigadora de nuestro país y con la igualdad de oportunidades. Pronunciará el tradicional discurso de apertura el Sr. Josep Maria Martorell, director asociado del Barcelona Supercomputing Center (BSC), bajo el título ‘L’impacte de la supercomputació a la ciència i a la societat‘.

    Josep Maria Martorell es licenciado en Ciencias Físicas por la Universidad de Barcelona y doctor en Ciencias de la Computación por la Universidad Ramon Llull. Tiene una larga carrera profesional en el campo de la gestión académica y científica, tanto en instituciones universitarias como gubernamentales, siendo director general de Investigación de la Generalitat de Catalunya de 2011 a 2016.

    Para Josep Maria Martorell, Barcelona es una ciudad con vibrante tejido tecnológico y científico, y ahora, con la instalación del primer computador cuántico del sur de Europa en el BSC, tiene la oportunidad de liderar la recuperación de la soberanía tecnológica europea.

    Durante el acto, el presidente de Amics del País, Miquel Roca Junyent, hará entrega de 15 becas de movilidad para jóvenes investigadores de menos de 35 años, con el objetivo de promover el desarrollo de la investigación catalana en todo el mundo. Asimismo, también se entregará el premio Llegat Valldejuli, galardón dotado en 20.000 euros a una entidad del tercer sector que más haya destacado en la atención a los colectivos más vulnerables.

    El acto tendrá lugar el jueves 16 de marzo a las 18h30 en el Saló de Cent del Ayuntamiento de Barcelona y es necesaria inscripción previa a través del formulario.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • Amics del País celebra el acto anual de entrega de premios con el tradicional discurso de apertura a cargo de Josep Maria Martorell

    Amics del País celebra el acto anual de entrega de premios con el tradicional discurso de apertura a cargo de Josep Maria Martorell

    Hora
    Data

    16-03-2023

    Ayer, jueves 16 de marzo, Amics del País entregó más de 80.000 euros a través de los premios Amics del País en un acto en el Saló de Cent del Ayuntamiento de Barcelona presidido por la Ilma. Sra. Laia Bonet Rull, teniente de Alcaldía del Área de Agenda 2030, Transición Digital, Deportes y Coordinación Territorial…

    Este año, Amics del País otorgó 15 becas de movilidad para jóvenes investigadores, dotadas en 4.200 euros cada una. Los premiados de esta edición son Alex Jiménez (UPC, Instituto de Investigación Energética), Daniele Vico (UB, Facultad de Economía), Ragip Kaan Erdemli (UB, Facultad de Economía), Ana M. Sánchez (UB, Facultad de Derecho Penal), Abhinav Khemka (UB, Instituto de Economía de Barcelona), Gerard Domènech (UB, Facultad de Economía), Iván Rivet (UPC, Departamento de Ingeniería Civil), Darío Serrano (UB, Instituto de Economía de Barcelona), Jerònia Vadell (UAB, Departamento de Geografía), Alexandre Bretones (UAB, Departamento de Geografía), Alfonso Hernández (UB, Facultad de Economía y Empresa), Marouane Laabbas (URV, Facultad de Derecho público), Carlota de Miguel (Instituto de Investigación Hospital San Juan de Dios), Alejandro Jiménez (UB, Facultad de Derecho financiero y tributario) y Joaquim Motger (UPC, Grupo Ingeniería de Software).

    Guardonats als premis Amics del País 2023

    El premio Llegat Valldejuli 2023, dotado en 20.000 euros, reconoció la labor de FEMAREC, entidad referente del sector social que, desde hace más de treinta años, trabaja desde la perspectiva ecológica y de género por la inserción social, laboral y cultural de colectivos en riesgo de exclusión. Su presidenta, la Sra. Amèlia Clara Quintana, afirmó al recoger el premio que es gracias a reconocimientos como el que hace hoy Amics del País que ‘hemos cambiado el mundo’ ayudando a que todo el mundo pueda encontrar ‘su proyecto de vida’.

    Josep Maria Martorell a l

    Josep Maria Martorell: ‘Barcelona ya es capital de la supercomputación’

    Este año, el encargado de pronunciar el tradicional discurso de apertura fue el Sr. Josep Maria Martorell, director asociado del Barcelona Supercomputing Center (BSC). Bajo el título “L’impacte de la supercomputació a la ciència i a la societat”, Martorell reivindicó el tejido tecnológico y científico de Barcelona, que “ya es capital” en el ámbito de la supercomputación y que está situada en una “posición privilegiada” para liderar la recuperación de la soberanía tecnológica europea.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • |

    L’impacte de la supercomputació a la ciència i a la societat | Josep Maria Martorell

    Conferencia pronunciada en el acto solemne de la entrega de los Premios Anuales de Amics del País celebrado en el Saló de Cent del Ajuntament de Barcelona

    Muchas gracias señor Miquel Roca, presidente de Amics del País, primer teniente de alcalde, miembros de la junta de la SEBAP. Es un gran honor tener la oportunidad de estar aquí hoy, y no sólo por el maravilloso escenario, esta sala del Consell de Cent, sino también para poder compartir con vosotros algunas reflexiones que el señor Miquel Roca ya ha esbozado.

    Cuando uno debe hablar públicamente, como me ocurre a mí de vez en cuando a causa de mi trabajo, puede ser difícil hacerlo ante un público tan diverso, compuesto por personas con trayectorias profesionales impresionantes, familias orgullosas de sus hijos e hijas y jóvenes con un talento excepcional. Por tanto, no es sencillo ajustar el tono del discurso. Sin embargo, me dirigiré sobre todo a los más jóvenes, que me dará la libertad de ser, quizás no del todo preciso técnicamente, pero sí, divulgativo. Espero que los expertos presentes me disculpen.

    ‘No es que Barcelona pueda ser capital mundial a nivel científico-tecnológico, sino que Barcelona ya es capital, al menos a nivel europeo, de la supercomputación’

    Quisiera empezar profundizando un poco más en la idea fundamental que el señor Miquel Roca ya ha presentado sobre el rol de nuestra ciudad en el mundo. No es que Barcelona pueda ser (en condicional) una capital mundial a nivel científico-tecnológico, sino que quiero hablaros de un ámbito donde Barcelona ya es capital, al menos a nivel europeo. Me gustaría presentarles la realidad de esta ciudad en el ámbito de las tecnologías computacionales y digitales profundas.

    En primer lugar, me gustaría empezar explicándoos qué está pasando ahora mismo en el ámbito IA y las tecnologías digitales, en general, y por qué. Estos días, cuando entramos en Twitter o cualquier diario digital, vemos noticias sobre el chatGPT contínuamente. Quisiera explicaros, tecnológicamente, por qué ocurre esto, exactamente ahora, y por qué es fruto de una convergencia de tecnologías. En segundo lugar, me gustaría transmitirles un poco el impacto que esto tiene, no sólo, en la sociedad, la economía o los debates éticos, que hay muchos, sino en la actividad científica y cómo los científicos trabajan de forma diferente debido a esta convergencia digital. En tercer lugar, me gustaría explicarles que esto no sólo afecta a la ciencia, sino también a la industria y muchas empresas. Y, por supuesto, un tema que es importante para la ciencia y la industria tiene un impacto geopolítico muy claro. Por tanto, me gustaría hablaros del papel que creemos que puede jugar Europa, y en particular Barcelona, en esta carrera entre los grandes países del mundo para el control de la tecnología digital. Y, finalmente, quisiera discutir sobre el futuro, hacia dónde nos dirigimos y qué tecnologías llegarán posteriormente (o complementariamente) al dominio del silicio.

    La convergencia de las tecnologías digitales

    Permítanme empezar insistiendo en que seré técnicamente poco preciso, así que me disculpo con aquellos que saben más que yo, algunos presentes en esta sala. Dicho esto, empiezo con dos ejemplos con los que quiero mostrar hasta qué punto la tecnología de computación ha avanzado en las últimas décadas. Una es el ENIAC, uno de los primeros ordenadores instalados en Estados Unidos a finales de los años cuarenta y hasta mediados de los cincuenta del siglo pasado, en Pensilvania. La otra es el Frontier, actualmente el supercomputador reconocido como el más potente del mundo de acuerdo con el ranking del Top500, instalado por nuestros colegas de Oak Ridge en Estados Unidos, en un centro dependiente del Departamento de Energía del Gobierno estadounidense.

    Josep Maria Martorell a l

    El Frontier es el primer ordenador conocido que ha roto la barrera del exascale, es decir, la capacidad de realizar un millón de millones de millones (un trillón europeo) de operaciones matemáticas por segundo. Lo importante es que, en las siete décadas que separan estos dos ejemplos, existe una diferencia de aproximadamente dieciséis órdenes de magnitud. Y dieciséis órdenes de magnitud equivalen a un “1” seguido de dieciséis ceros. Y un “1” seguido de dieciséis ceros es algo que, no sé ustedes, pero yo no comprendo con profundidad. Un ‘1’ seguido de dieciséis ceros son diez mil millones de millones. ¿Alguien puede imaginar qué significa que una cosa sea diez mil millones de millones mayor que otra? Entramos en una zona en la que un cero más o un cero menos ya te hace perder un poco la capacidad de entender las cosas. El Frontier, pues, tal y como he mencionado antes, adecuadamente programada, es capaz de llegar al llamado exaflop, que significa que hace diez a la dieciocho, es decir, un millón de millones de millones de operaciones matemáticas por segundo.

    Yo no soy capaz de comprender qué significa que una máquina realice un millón de millones de millones de operaciones matemáticas cada segundo, pero sí puedo tratar de entender qué provoca esta inmensa capacidad de cálculo. La tecnología digital es probablemente la única tecnología humana que ha avanzado exponencialmente sin detenerse durante décadas. Esto significa, por ejemplo, que el ordenador portátil que lleva en la mochila o quizá el móvil que lleva en el bolsillo habría sido seguramente el ordenador más potente del mundo hace menos de treinta años. Es decir, que ustedes son capaces de hacer en casa lo que el ordenador más potente del mundo podía hacer hace tres décadas. Por tanto, si seguimos con esta tendencia, ¿qué podremos hacer con el dispositivo que llevamos en el bolsillo dentro de dos o tres décadas? Todo esto suponiendo, por supuesto, que seamos capaces de continuar con el mismo ritmo de crecimiento en los próximos años.

    Y esta es la primera pregunta que quisiera responder: ¿seremos capaces? Una mala noticia, no para los investigadores porque significa reto, es que cada vez nos cuesta más dar el siguiente salto. Habitualmente hablamos de saltos de mil en mil: tera, peta, exa, etc., con estos prefijos. Antes saltábamos mil veces cada ocho o diez años, después cada doce, después cada catorce. Ahora, si queremos llegar al siguiente nivel, que es lo que llamamos zettaescala, diez elevado a veintiuna operaciones matemáticas por segundo, no sabemos cuánto tardaremos porque el desafío tecnológico es de una magnitud como nunca antes se había visto. Pronto ya no podremos hacer transistores más pequeños. Ahora hay fábricas capaces de hacer transistores de tres milímetros, quizás veremos de dos milímetros, quizás algún día de un milímetro…, pero basta, son demasiado pocos átomos de silicio dispuestos allí dentro. Por tanto, no es nada evidente que a medio plazo seamos capaces de seguir evolucionando como hasta ahora con nuestras capacidades computacionales

    “Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses. Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplica por diez en un año, por cien en dos años, y así sucesivamente.”

    Ahora bien, alguien podría preguntar: ‘Vale, pero espere un momento, miles de millones de millones de operaciones matemáticas por segundo… Sí, pero, ¿realmente son necesarias? ¿Por qué queremos ordenadores aún más potentes que los que se están instalando? ¿Hay algún problema matemático, físico o de ingeniería que requiera tanta capacidad tecnológica?’. Lo ilustro con el ejemplo del procesamiento del lenguaje natural, esos modelos de lenguaje masivos que ocupan las noticias durante todo el día. Las redes neuronales que existen bajo estos modelos de lenguaje tienen miles de millones de parámetros para entrenar sobre enormes volúmenes de datos, lo que requiere unas capacidades computacionales enormes.

    Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses, que esencialmente es lo que somos capaces de hacer poniendo más transistores dentro de un chip (siguiendo la ley de Moore). Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplicará por diez en un año, por cien en dos años, y así sucesivamente. No podemos seguir a ese ritmo. No hay tecnología humana hoy que sea capaz de seguir ese ritmo, aunque hay mucha demanda de problemas científicos, y no sólo científicos, que necesitan incrementos de capacidad computacional como éstos. Dejo para el final la respuesta a la pregunta de cómo lo haremos, pero de entrada sí, existen problemas reales que seguirán requiriendo mayor capacidad de cálculo.

    El impacto de esta convergencia en la ciencia y en la industria

    Así pues, la primera idea es poner de relieve esta explosión de capacidad computacional. A partir de ahí, la cuestión es: ¿cómo afecta a la ciencia todo esto?

    Quisiera empezar compartiendo una idea muy conceptual, pero que para mí es tremendamente importante. Desde hace siglos, la ciencia avanza siguiendo el método científico. Esto significa, entre otras cosas, la existencia de un diálogo continuo y fructífero entre la teoría y la experimentación. Existe un marco teórico, unas fórmulas o unas ecuaciones que nos describen un cierto fenómeno natural. Luego, experimento a la realidad y verifico si lo que observo es coherente con lo que predice la teoría. Si la teoría es válida, la experimentación coincide con lo que predice ésta. Entonces, cada vez que aparece un telescopio, un microscopio, un secuenciador, un acelerador de partículas, que me permite mirar más lejos, más adentro, más cerca, llegar a lugares a los que nunca había llegado, todo esto me permite hacer una experimentación diferente. Y allí, seguramente, descubriré algo que no concuerda con la teoría en vigor y, por tanto, podré dar un paso adelante como científico, descubriendo nuevos fenómenos que no encajan con la teoría hasta entonces considerada válida. A continuación, vuelvo al marco teórico, lo rectifico, lo amplío, lo modifico y la ciencia avanza. La ciencia avanza en ese continuo diálogo entre el marco teórico y el marco experimental.

    Mi mensaje, por tanto, es que la ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. ¿Y qué relación tiene esto con la capacidad computacional? Pues que ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico. Herramientas que permiten, en vez de experimentar con la realidad, simularla. Habrá casos en los que experimentar con la realidad será la mejor opción, sin duda. Habrá casos, en cambio, en los que simular la realidad será la única posibilidad. Porque si investigas el cambio climático y quieres predecir la evolución del clima, la simulación computacional probablemente sea la única forma de hacerlo. Y si trabajas con plegamientos de proteínas, la inteligencia artificial será una gran aliada para darte marcos teóricos que expliquen o predigan el comportamiento de una determinada proteína.

    El consenso de la comunidad científica dice hoy que combinar la experimentación con la simulación es una buena forma de hacer avanzar la ciencia. Por tanto, la segunda idea que expongo aquí es que, en casi todas las áreas de conocimiento científico (podemos hablar de la ingeniería, la química, la física, el clima, la aerodinámica, los materiales, etc.), cada vez más, la computación masiva y la experiencia se combinan para hacer avanzar a la ciencia más eficazmente. Y esto es porque hemos llegado a lo que llamamos la convergencia entre la supercomputación, esa capacidad masiva de calcular, y lo que llamamos la inteligencia artificial, la capacidad de desarrollar algoritmos profundos que, gracias a la supercomputación, se entrenan en cantidades masivas de datos.

    “La ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. Ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico.”

    Esta reflexión, que es muy conceptual, se puede ejemplificar con varios casos de interacciones donde el uso de estos “instrumentos” que llamamos supercomputadores es imprescindible. Y, teniendo en cuenta estas ideas, podría proporcionaros algún ejemplo de cosas que la ciencia es capaz de hacer gracias a estos instrumentos llamados supercomputadores. Ofreceré algunos ejemplos, empezando por uno del campo de la astronomía. En el BSC desarrollamos un proyecto, junto con la Agencia Espacial Europea, que tiene por objetivo observar todo lo que existe en la Vía Láctea y obtener información de cada objeto: la posición, la velocidad relativa, la luminosidad, la espectrografía, etc., a partir de los datos de una sonda llamada Gaia que orbita y cartografía la Vía Láctea. Debe tenerse en cuenta, de entrada, que la Vía Láctea contiene entre cien mil y doscientos mil millones de astros, lo que implica un reto científico y tecnológico de primer orden. Por tanto, podríamos empezar centrándonos en nuestro sistema solar, donde hay unos ciento cincuenta mil asteroides orbitando alrededor del Sol.

    Éste es un caso del que conocemos a la perfección las leyes que gobiernan el problema, las leyes que rigen el movimiento de los objetos en el sistema solar. Obviamente, es mecánica clásica, son leyes conocidas desde hace mucho tiempo. Pero conocer las leyes y ser capaz de resolverlas en un caso como éste, con tantos objetos involucrados, es otro diferente. El poder de las técnicas computacionales complementa (no sustituye) la labor científica experimental. Tratar ciento cincuenta mil objetos simultáneamente sólo es posible mediante la simulación computacional y la gestión de grandes bases de datos.

    Si bajamos a nuestro planeta, nos encontramos con nuevos casos de uso científico de la supercomputación. ¿Qué sabemos hoy de nuestro planeta? ¿Cómo cambia el clima, cómo evolucionará el clima en los próximos años y en las próximas décadas? Lo sabemos a nivel planetario gracias al uso de los supercomputadores y, cada vez más, podemos acercarnos y conocerlo a nivel continental, regional, urbano. Podemos trabajar con un ayuntamiento para simular la realidad de una ciudad para predecir qué va a pasar en función de cómo actuamos, de la misma manera que sabemos qué le va a pasar al Mediterráneo dentro de unas décadas. Todo esto, basado en la ciencia experimental y en las ecuaciones matemáticas que gobiernan el clima, no sería posible sin el apoyo de las técnicas computacionales.

    Déjeme proporcionar aún otro ejemplo relacionado con la salud humana, la medicina, la biología, el diseño de fármacos, la simulación de nuevas enzimas. En todos estos ámbitos experimentalmente se pueden hacer muchas cosas y, en nuestros laboratorios, hemos avanzado enormemente. Sin embargo, cada vez más, allá donde no llega un aparato experimental, llega la simulación computacional. Por ejemplo, con ambas técnicas, se puede simular la evolución de las células en un tumor en función de la intensidad del fármaco que se administra y comprobar si esto, experimentalmente, ocurre exactamente igual. Cada vez más, la investigación en salud avanza gracias a la combinación de modelos teóricos, la investigación experimental y clínica y las herramientas computacionales. La combinación de todo esto está abriendo puertas hasta ahora inimaginables.

    Déjeme ofrecer otro ejemplo extremadamente impresionante. Todos estamos entusiasmados últimamente con el ChatGPT y los modelos masivos de lenguaje. Sin embargo, en la misma línea de los grandes modelos de inteligencia artificial, para nosotros, seguramente, lo más espectacular es lo que ha realizado la empresa DeepMind con el programa AlphaFold. Se trata de un algoritmo que, de una sola vez -y disculpad si simplifico-, resuelve un problema biológico que estaba siendo investigado por toda la comunidad científica desde hacía cuarenta años: el problema del plegamiento de las proteínas. En una primera aproximación, el objetivo es ser capaces de saber cómo una proteína se pliega sobre sí misma (lo que en inglés se llama protein folding). Es extremadamente revolucionario lo que ha logrado DeepMind con esta IA, sobre todo porque ha alcanzado un porcentaje de éxito en la predicción del plegamiento de las proteínas que nunca nadie había logrado. Esto también deja entrever un gran reto: la explicabilidad del algoritmo no es obvia. Sabemos que lo hace bien, pero no comprendemos en profundidad por qué lo hace bien. Y éste es uno de los motivos por los que DeepMind, inmediatamente, ha abierto su algoritmo para que toda la comunidad científica internacional pueda interactuar con él, trabajar con él y pueda ayudar, con innovación abierta, a entender cómo funciona esto.

    Por tanto, desde la cosmología hasta el clima, pasando por la medicina o la biología, diversas áreas científicas están avanzando enormemente también gracias a la computación. La siguiente pregunta que podríamos hacernos es si este impacto se limita sólo a la ciencia o bien tiene repercusión en las empresas y en el mundo industrial. Para responder a esta pregunta fijémonos, en primer lugar, en el ordenador que está instalando Meta, la matriz de Facebook. No sabemos exactamente lo que están instalando, pero afirman que será el más potente del mundo. Lo sea o no, es probable que sea una máquina extremadamente potente y muy útil para sus planes de futuro con el metaverso y otros proyectos.

    Pero esto no sólo concierne a las grandes empresas tecnológicas, que uno ya imagina que están haciendo grandes inversiones en este campo. Hoy en día, esto afecta a casi todo lo relacionado con el mundo industrial de la ingeniería: la combustión, la aerodinámica, el sector aeroespacial, los gemelos digitales de la industria, simular cómo cambia la aerodinámica de un coche en diversas circunstancias, simular cómo quema un nuevo combustible que hemos diseñado en el laboratorio. Cada vez más, estas técnicas son cruciales para que las empresas mejoren su competitividad frente a los retos de esta naturaleza. O, dicho de otro modo, el uso de estas tecnologías da, a quien las utiliza, una ventaja competitiva muy importante.

    Está claro que esta tecnología es de una importancia crucial tanto para la ciencia como para la industria. Y es fácil concluir que algo importante para la ciencia y la industria lo es también desde el punto de vista de la geoestrategia.

    También podemos hablar de nuevo de la medicina y analizar el ejemplo de una compañía de dispositivos médicos como Medtronic, que prueba una nueva geometría o un nuevo material en un stent cardíaco. Esto sólo se podría hacer mediante experimentación animal, pero hacerlo en el laboratorio es extremadamente complicado por varias razones: por un lado, no escala, es decir, no es posible realizar cientos de pruebas diferentes en una escala de tiempo razonable; por otra parte, la necesaria experimentación animal presenta problemas éticos no menores. Sin embargo, este proceso de buscar nuevas configuraciones de un dispositivo médico sí se puede realizar computacionalmente. Si los métodos que se desarrollan y los supercomputadores disponibles lo permiten, se pueden simular las distintas opciones superando los límites del método experimental. De hecho, podemos decir que cada vez más el ensayo de nuevos dispositivos médicos incorporará estas tecnologías digitales, complementando el enfoque experimental. No tardaremos en ver ensayos clínicos que incorporen de forma masiva estas tecnologías y permitan realizar algunas fases in silico en vez de in vitro o in vivo.

    Me gustaría exponer también otros ámbitos donde la simulación numérica que permiten estos supercomputadores es útil a nivel industrial. He hablado de grandes compañías tecnológicas, empresas biomédicas, casos de uso industriales, etc. Me permito terminar los ejemplos con una imagen que quizá saben identificar fácilmente: se trata del Camp Nou, más concretamente, de una simulación numérica sobre cómo las personas se pueden mover por una instalación como ésta, dependiendo de las intervenciones que se hagan. Por tanto, somos capaces de simular desde asteroides moviéndose alrededor de una estrella hasta movimientos de un gran número de personas en torno a una instalación deportiva.

    Muchas gracias señor Miquel Roca, presidente de Amics del País, primer teniente de alcalde, miembros de la junta de la SEBAP. Es un gran honor tener la oportunidad de estar aquí hoy, y no sólo por el maravilloso escenario, esta sala del Consell de Cent, sino también para poder compartir con vosotros algunas reflexiones que el señor Miquel Roca ya ha esbozado.

    Cuando uno debe hablar públicamente, como me ocurre a mí de vez en cuando a causa de mi trabajo, puede ser difícil hacerlo ante un público tan diverso, compuesto por personas con trayectorias profesionales impresionantes, familias orgullosas de sus hijos e hijas y jóvenes con un talento excepcional. Por tanto, no es sencillo ajustar el tono del discurso. Sin embargo, me dirigiré sobre todo a los más jóvenes, que me dará la libertad de ser, quizás no del todo preciso técnicamente, pero sí, divulgativo. Espero que los expertos presentes me disculpen.

    ‘No es que Barcelona pueda ser capital mundial a nivel científico-tecnológico, sino que Barcelona ya es capital, al menos a nivel europeo, de la supercomputación’

    Quisiera empezar profundizando un poco más en la idea fundamental que el señor Miquel Roca ya ha presentado sobre el rol de nuestra ciudad en el mundo. No es que Barcelona pueda ser (en condicional) una capital mundial a nivel científico-tecnológico, sino que quiero hablaros de un ámbito donde Barcelona ya es capital, al menos a nivel europeo. Me gustaría presentarles la realidad de esta ciudad en el ámbito de las tecnologías computacionales y digitales profundas.

    En primer lugar, me gustaría empezar explicándoos qué está pasando ahora mismo en el ámbito IA y las tecnologías digitales, en general, y por qué. Estos días, cuando entramos en Twitter o cualquier diario digital, vemos noticias sobre el chatGPT contínuamente. Quisiera explicaros, tecnológicamente, por qué ocurre esto, exactamente ahora, y por qué es fruto de una convergencia de tecnologías. En segundo lugar, me gustaría transmitirles un poco el impacto que esto tiene, no sólo, en la sociedad, la economía o los debates éticos, que hay muchos, sino en la actividad científica y cómo los científicos trabajan de forma diferente debido a esta convergencia digital. En tercer lugar, me gustaría explicarles que esto no sólo afecta a la ciencia, sino también a la industria y muchas empresas. Y, por supuesto, un tema que es importante para la ciencia y la industria tiene un impacto geopolítico muy claro. Por tanto, me gustaría hablaros del papel que creemos que puede jugar Europa, y en particular Barcelona, en esta carrera entre los grandes países del mundo para el control de la tecnología digital. Y, finalmente, quisiera discutir sobre el futuro, hacia dónde nos dirigimos y qué tecnologías llegarán posteriormente (o complementariamente) al dominio del silicio.

    La convergencia de las tecnologías digitales

    Permítanme empezar insistiendo en que seré técnicamente poco preciso, así que me disculpo con aquellos que saben más que yo, algunos presentes en esta sala. Dicho esto, empiezo con dos ejemplos con los que quiero mostrar hasta qué punto la tecnología de computación ha avanzado en las últimas décadas. Una es el ENIAC, uno de los primeros ordenadores instalados en Estados Unidos a finales de los años cuarenta y hasta mediados de los cincuenta del siglo pasado, en Pensilvania. La otra es el Frontier, actualmente el supercomputador reconocido como el más potente del mundo de acuerdo con el ranking del Top500, instalado por nuestros colegas de Oak Ridge en Estados Unidos, en un centro dependiente del Departamento de Energía del Gobierno estadounidense.

    Josep Maria Martorell a l

    El Frontier es el primer ordenador conocido que ha roto la barrera del exascale, es decir, la capacidad de realizar un millón de millones de millones (un trillón europeo) de operaciones matemáticas por segundo. Lo importante es que, en las siete décadas que separan estos dos ejemplos, existe una diferencia de aproximadamente dieciséis órdenes de magnitud. Y dieciséis órdenes de magnitud equivalen a un “1” seguido de dieciséis ceros. Y un “1” seguido de dieciséis ceros es algo que, no sé ustedes, pero yo no comprendo con profundidad. Un ‘1’ seguido de dieciséis ceros son diez mil millones de millones. ¿Alguien puede imaginar qué significa que una cosa sea diez mil millones de millones mayor que otra? Entramos en una zona en la que un cero más o un cero menos ya te hace perder un poco la capacidad de entender las cosas. El Frontier, pues, tal y como he mencionado antes, adecuadamente programada, es capaz de llegar al llamado exaflop, que significa que hace diez a la dieciocho, es decir, un millón de millones de millones de operaciones matemáticas por segundo.

    Yo no soy capaz de comprender qué significa que una máquina realice un millón de millones de millones de operaciones matemáticas cada segundo, pero sí puedo tratar de entender qué provoca esta inmensa capacidad de cálculo. La tecnología digital es probablemente la única tecnología humana que ha avanzado exponencialmente sin detenerse durante décadas. Esto significa, por ejemplo, que el ordenador portátil que lleva en la mochila o quizá el móvil que lleva en el bolsillo habría sido seguramente el ordenador más potente del mundo hace menos de treinta años. Es decir, que ustedes son capaces de hacer en casa lo que el ordenador más potente del mundo podía hacer hace tres décadas. Por tanto, si seguimos con esta tendencia, ¿qué podremos hacer con el dispositivo que llevamos en el bolsillo dentro de dos o tres décadas? Todo esto suponiendo, por supuesto, que seamos capaces de continuar con el mismo ritmo de crecimiento en los próximos años.

    Y esta es la primera pregunta que quisiera responder: ¿seremos capaces? Una mala noticia, no para los investigadores porque significa reto, es que cada vez nos cuesta más dar el siguiente salto. Habitualmente hablamos de saltos de mil en mil: tera, peta, exa, etc., con estos prefijos. Antes saltábamos mil veces cada ocho o diez años, después cada doce, después cada catorce. Ahora, si queremos llegar al siguiente nivel, que es lo que llamamos zettaescala, diez elevado a veintiuna operaciones matemáticas por segundo, no sabemos cuánto tardaremos porque el desafío tecnológico es de una magnitud como nunca antes se había visto. Pronto ya no podremos hacer transistores más pequeños. Ahora hay fábricas capaces de hacer transistores de tres milímetros, quizás veremos de dos milímetros, quizás algún día de un milímetro…, pero basta, son demasiado pocos átomos de silicio dispuestos allí dentro. Por tanto, no es nada evidente que a medio plazo seamos capaces de seguir evolucionando como hasta ahora con nuestras capacidades computacionales

    “Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses. Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplica por diez en un año, por cien en dos años, y así sucesivamente.”

    Ahora bien, alguien podría preguntar: ‘Vale, pero espere un momento, miles de millones de millones de operaciones matemáticas por segundo… Sí, pero, ¿realmente son necesarias? ¿Por qué queremos ordenadores aún más potentes que los que se están instalando? ¿Hay algún problema matemático, físico o de ingeniería que requiera tanta capacidad tecnológica?’. Lo ilustro con el ejemplo del procesamiento del lenguaje natural, esos modelos de lenguaje masivos que ocupan las noticias durante todo el día. Las redes neuronales que existen bajo estos modelos de lenguaje tienen miles de millones de parámetros para entrenar sobre enormes volúmenes de datos, lo que requiere unas capacidades computacionales enormes.

    Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses, que esencialmente es lo que somos capaces de hacer poniendo más transistores dentro de un chip (siguiendo la ley de Moore). Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplicará por diez en un año, por cien en dos años, y así sucesivamente. No podemos seguir a ese ritmo. No hay tecnología humana hoy que sea capaz de seguir ese ritmo, aunque hay mucha demanda de problemas científicos, y no sólo científicos, que necesitan incrementos de capacidad computacional como éstos. Dejo para el final la respuesta a la pregunta de cómo lo haremos, pero de entrada sí, existen problemas reales que seguirán requiriendo mayor capacidad de cálculo.

    El impacto de esta convergencia en la ciencia y en la industria

    Así pues, la primera idea es poner de relieve esta explosión de capacidad computacional. A partir de ahí, la cuestión es: ¿cómo afecta a la ciencia todo esto?

    Quisiera empezar compartiendo una idea muy conceptual, pero que para mí es tremendamente importante. Desde hace siglos, la ciencia avanza siguiendo el método científico. Esto significa, entre otras cosas, la existencia de un diálogo continuo y fructífero entre la teoría y la experimentación. Existe un marco teórico, unas fórmulas o unas ecuaciones que nos describen un cierto fenómeno natural. Luego, experimento a la realidad y verifico si lo que observo es coherente con lo que predice la teoría. Si la teoría es válida, la experimentación coincide con lo que predice ésta. Entonces, cada vez que aparece un telescopio, un microscopio, un secuenciador, un acelerador de partículas, que me permite mirar más lejos, más adentro, más cerca, llegar a lugares a los que nunca había llegado, todo esto me permite hacer una experimentación diferente. Y allí, seguramente, descubriré algo que no concuerda con la teoría en vigor y, por tanto, podré dar un paso adelante como científico, descubriendo nuevos fenómenos que no encajan con la teoría hasta entonces considerada válida. A continuación, vuelvo al marco teórico, lo rectifico, lo amplío, lo modifico y la ciencia avanza. La ciencia avanza en ese continuo diálogo entre el marco teórico y el marco experimental.

    Mi mensaje, por tanto, es que la ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. ¿Y qué relación tiene esto con la capacidad computacional? Pues que ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico. Herramientas que permiten, en vez de experimentar con la realidad, simularla. Habrá casos en los que experimentar con la realidad será la mejor opción, sin duda. Habrá casos, en cambio, en los que simular la realidad será la única posibilidad. Porque si investigas el cambio climático y quieres predecir la evolución del clima, la simulación computacional probablemente sea la única forma de hacerlo. Y si trabajas con plegamientos de proteínas, la inteligencia artificial será una gran aliada para darte marcos teóricos que expliquen o predigan el comportamiento de una determinada proteína.

    El consenso de la comunidad científica dice hoy que combinar la experimentación con la simulación es una buena forma de hacer avanzar la ciencia. Por tanto, la segunda idea que expongo aquí es que, en casi todas las áreas de conocimiento científico (podemos hablar de la ingeniería, la química, la física, el clima, la aerodinámica, los materiales, etc.), cada vez más, la computación masiva y la experiencia se combinan para hacer avanzar a la ciencia más eficazmente. Y esto es porque hemos llegado a lo que llamamos la convergencia entre la supercomputación, esa capacidad masiva de calcular, y lo que llamamos la inteligencia artificial, la capacidad de desarrollar algoritmos profundos que, gracias a la supercomputación, se entrenan en cantidades masivas de datos.

    “La ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. Ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico.”

    Esta reflexión, que es muy conceptual, se puede ejemplificar con varios casos de interacciones donde el uso de estos “instrumentos” que llamamos supercomputadores es imprescindible. Y, teniendo en cuenta estas ideas, podría proporcionaros algún ejemplo de cosas que la ciencia es capaz de hacer gracias a estos instrumentos llamados supercomputadores. Ofreceré algunos ejemplos, empezando por uno del campo de la astronomía. En el BSC desarrollamos un proyecto, junto con la Agencia Espacial Europea, que tiene por objetivo observar todo lo que existe en la Vía Láctea y obtener información de cada objeto: la posición, la velocidad relativa, la luminosidad, la espectrografía, etc., a partir de los datos de una sonda llamada Gaia que orbita y cartografía la Vía Láctea. Debe tenerse en cuenta, de entrada, que la Vía Láctea contiene entre cien mil y doscientos mil millones de astros, lo que implica un reto científico y tecnológico de primer orden. Por tanto, podríamos empezar centrándonos en nuestro sistema solar, donde hay unos ciento cincuenta mil asteroides orbitando alrededor del Sol.

    Éste es un caso del que conocemos a la perfección las leyes que gobiernan el problema, las leyes que rigen el movimiento de los objetos en el sistema solar. Obviamente, es mecánica clásica, son leyes conocidas desde hace mucho tiempo. Pero conocer las leyes y ser capaz de resolverlas en un caso como éste, con tantos objetos involucrados, es otro diferente. El poder de las técnicas computacionales complementa (no sustituye) la labor científica experimental. Tratar ciento cincuenta mil objetos simultáneamente sólo es posible mediante la simulación computacional y la gestión de grandes bases de datos.

    Si bajamos a nuestro planeta, nos encontramos con nuevos casos de uso científico de la supercomputación. ¿Qué sabemos hoy de nuestro planeta? ¿Cómo cambia el clima, cómo evolucionará el clima en los próximos años y en las próximas décadas? Lo sabemos a nivel planetario gracias al uso de los supercomputadores y, cada vez más, podemos acercarnos y conocerlo a nivel continental, regional, urbano. Podemos trabajar con un ayuntamiento para simular la realidad de una ciudad para predecir qué va a pasar en función de cómo actuamos, de la misma manera que sabemos qué le va a pasar al Mediterráneo dentro de unas décadas. Todo esto, basado en la ciencia experimental y en las ecuaciones matemáticas que gobiernan el clima, no sería posible sin el apoyo de las técnicas computacionales.

    Déjeme proporcionar aún otro ejemplo relacionado con la salud humana, la medicina, la biología, el diseño de fármacos, la simulación de nuevas enzimas. En todos estos ámbitos experimentalmente se pueden hacer muchas cosas y, en nuestros laboratorios, hemos avanzado enormemente. Sin embargo, cada vez más, allá donde no llega un aparato experimental, llega la simulación computacional. Por ejemplo, con ambas técnicas, se puede simular la evolución de las células en un tumor en función de la intensidad del fármaco que se administra y comprobar si esto, experimentalmente, ocurre exactamente igual. Cada vez más, la investigación en salud avanza gracias a la combinación de modelos teóricos, la investigación experimental y clínica y las herramientas computacionales. La combinación de todo esto está abriendo puertas hasta ahora inimaginables.

    Déjeme ofrecer otro ejemplo extremadamente impresionante. Todos estamos entusiasmados últimamente con el ChatGPT y los modelos masivos de lenguaje. Sin embargo, en la misma línea de los grandes modelos de inteligencia artificial, para nosotros, seguramente, lo más espectacular es lo que ha realizado la empresa DeepMind con el programa AlphaFold. Se trata de un algoritmo que, de una sola vez -y disculpad si simplifico-, resuelve un problema biológico que estaba siendo investigado por toda la comunidad científica desde hacía cuarenta años: el problema del plegamiento de las proteínas. En una primera aproximación, el objetivo es ser capaces de saber cómo una proteína se pliega sobre sí misma (lo que en inglés se llama protein folding). Es extremadamente revolucionario lo que ha logrado DeepMind con esta IA, sobre todo porque ha alcanzado un porcentaje de éxito en la predicción del plegamiento de las proteínas que nunca nadie había logrado. Esto también deja entrever un gran reto: la explicabilidad del algoritmo no es obvia. Sabemos que lo hace bien, pero no comprendemos en profundidad por qué lo hace bien. Y éste es uno de los motivos por los que DeepMind, inmediatamente, ha abierto su algoritmo para que toda la comunidad científica internacional pueda interactuar con él, trabajar con él y pueda ayudar, con innovación abierta, a entender cómo funciona esto.

    Por tanto, desde la cosmología hasta el clima, pasando por la medicina o la biología, diversas áreas científicas están avanzando enormemente también gracias a la computación. La siguiente pregunta que podríamos hacernos es si este impacto se limita sólo a la ciencia o bien tiene repercusión en las empresas y en el mundo industrial. Para responder a esta pregunta fijémonos, en primer lugar, en el ordenador que está instalando Meta, la matriz de Facebook. No sabemos exactamente lo que están instalando, pero afirman que será el más potente del mundo. Lo sea o no, es probable que sea una máquina extremadamente potente y muy útil para sus planes de futuro con el metaverso y otros proyectos.

    Pero esto no sólo concierne a las grandes empresas tecnológicas, que uno ya imagina que están haciendo grandes inversiones en este campo. Hoy en día, esto afecta a casi todo lo relacionado con el mundo industrial de la ingeniería: la combustión, la aerodinámica, el sector aeroespacial, los gemelos digitales de la industria, simular cómo cambia la aerodinámica de un coche en diversas circunstancias, simular cómo quema un nuevo combustible que hemos diseñado en el laboratorio. Cada vez más, estas técnicas son cruciales para que las empresas mejoren su competitividad frente a los retos de esta naturaleza. O, dicho de otro modo, el uso de estas tecnologías da, a quien las utiliza, una ventaja competitiva muy importante.

    Está claro que esta tecnología es de una importancia crucial tanto para la ciencia como para la industria. Y es fácil concluir que algo importante para la ciencia y la industria lo es también desde el punto de vista de la geoestrategia.

    También podemos hablar de nuevo de la medicina y analizar el ejemplo de una compañía de dispositivos médicos como Medtronic, que prueba una nueva geometría o un nuevo material en un stent cardíaco. Esto sólo se podría hacer mediante experimentación animal, pero hacerlo en el laboratorio es extremadamente complicado por varias razones: por un lado, no escala, es decir, no es posible realizar cientos de pruebas diferentes en una escala de tiempo razonable; por otra parte, la necesaria experimentación animal presenta problemas éticos no menores. Sin embargo, este proceso de buscar nuevas configuraciones de un dispositivo médico sí se puede realizar computacionalmente. Si los métodos que se desarrollan y los supercomputadores disponibles lo permiten, se pueden simular las distintas opciones superando los límites del método experimental. De hecho, podemos decir que cada vez más el ensayo de nuevos dispositivos médicos incorporará estas tecnologías digitales, complementando el enfoque experimental. No tardaremos en ver ensayos clínicos que incorporen de forma masiva estas tecnologías y permitan realizar algunas fases in silico en vez de in vitro o in vivo.

    Me gustaría exponer también otros ámbitos donde la simulación numérica que permiten estos supercomputadores es útil a nivel industrial. He hablado de grandes compañías tecnológicas, empresas biomédicas, casos de uso industriales, etc. Me permito terminar los ejemplos con una imagen que quizá saben identificar fácilmente: se trata del Camp Nou, más concretamente, de una simulación numérica sobre cómo las personas se pueden mover por una instalación como ésta, dependiendo de las intervenciones que se hagan. Por tanto, somos capaces de simular desde asteroides moviéndose alrededor de una estrella hasta movimientos de un gran número de personas en torno a una instalación deportiva.

    Hora
    Tipo de publicación

    Textos Amigos del País

    Hora
    Data

    16-03-2023

    Muchas gracias señor Miquel Roca, presidente de Amics del País, primer teniente de alcalde, miembros de la junta de la SEBAP. Es un gran honor tener la oportunidad de estar aquí hoy, y no sólo por el maravilloso escenario, esta sala del Consell de Cent, sino también para poder compartir con vosotros algunas reflexiones que el señor Miquel Roca ya ha esbozado.

    Cuando uno debe hablar públicamente, como me ocurre a mí de vez en cuando a causa de mi trabajo, puede ser difícil hacerlo ante un público tan diverso, compuesto por personas con trayectorias profesionales impresionantes, familias orgullosas de sus hijos e hijas y jóvenes con un talento excepcional. Por tanto, no es sencillo ajustar el tono del discurso. Sin embargo, me dirigiré sobre todo a los más jóvenes, que me dará la libertad de ser, quizás no del todo preciso técnicamente, pero sí, divulgativo. Espero que los expertos presentes me disculpen.

    ‘No es que Barcelona pueda ser capital mundial a nivel científico-tecnológico, sino que Barcelona ya es capital, al menos a nivel europeo, de la supercomputación’

    Quisiera empezar profundizando un poco más en la idea fundamental que el señor Miquel Roca ya ha presentado sobre el rol de nuestra ciudad en el mundo. No es que Barcelona pueda ser (en condicional) una capital mundial a nivel científico-tecnológico, sino que quiero hablaros de un ámbito donde Barcelona ya es capital, al menos a nivel europeo. Me gustaría presentarles la realidad de esta ciudad en el ámbito de las tecnologías computacionales y digitales profundas.

    En primer lugar, me gustaría empezar explicándoos qué está pasando ahora mismo en el ámbito IA y las tecnologías digitales, en general, y por qué. Estos días, cuando entramos en Twitter o cualquier diario digital, vemos noticias sobre el chatGPT contínuamente. Quisiera explicaros, tecnológicamente, por qué ocurre esto, exactamente ahora, y por qué es fruto de una convergencia de tecnologías. En segundo lugar, me gustaría transmitirles un poco el impacto que esto tiene, no sólo, en la sociedad, la economía o los debates éticos, que hay muchos, sino en la actividad científica y cómo los científicos trabajan de forma diferente debido a esta convergencia digital. En tercer lugar, me gustaría explicarles que esto no sólo afecta a la ciencia, sino también a la industria y muchas empresas. Y, por supuesto, un tema que es importante para la ciencia y la industria tiene un impacto geopolítico muy claro. Por tanto, me gustaría hablaros del papel que creemos que puede jugar Europa, y en particular Barcelona, en esta carrera entre los grandes países del mundo para el control de la tecnología digital. Y, finalmente, quisiera discutir sobre el futuro, hacia dónde nos dirigimos y qué tecnologías llegarán posteriormente (o complementariamente) al dominio del silicio.

    La convergencia de las tecnologías digitales

    Permítanme empezar insistiendo en que seré técnicamente poco preciso, así que me disculpo con aquellos que saben más que yo, algunos presentes en esta sala. Dicho esto, empiezo con dos ejemplos con los que quiero mostrar hasta qué punto la tecnología de computación ha avanzado en las últimas décadas. Una es el ENIAC, uno de los primeros ordenadores instalados en Estados Unidos a finales de los años cuarenta y hasta mediados de los cincuenta del siglo pasado, en Pensilvania. La otra es el Frontier, actualmente el supercomputador reconocido como el más potente del mundo de acuerdo con el ranking del Top500, instalado por nuestros colegas de Oak Ridge en Estados Unidos, en un centro dependiente del Departamento de Energía del Gobierno estadounidense.

    Josep Maria Martorell a l

    El Frontier es el primer ordenador conocido que ha roto la barrera del exascale, es decir, la capacidad de realizar un millón de millones de millones (un trillón europeo) de operaciones matemáticas por segundo. Lo importante es que, en las siete décadas que separan estos dos ejemplos, existe una diferencia de aproximadamente dieciséis órdenes de magnitud. Y dieciséis órdenes de magnitud equivalen a un “1” seguido de dieciséis ceros. Y un “1” seguido de dieciséis ceros es algo que, no sé ustedes, pero yo no comprendo con profundidad. Un ‘1’ seguido de dieciséis ceros son diez mil millones de millones. ¿Alguien puede imaginar qué significa que una cosa sea diez mil millones de millones mayor que otra? Entramos en una zona en la que un cero más o un cero menos ya te hace perder un poco la capacidad de entender las cosas. El Frontier, pues, tal y como he mencionado antes, adecuadamente programada, es capaz de llegar al llamado exaflop, que significa que hace diez a la dieciocho, es decir, un millón de millones de millones de operaciones matemáticas por segundo.

    Yo no soy capaz de comprender qué significa que una máquina realice un millón de millones de millones de operaciones matemáticas cada segundo, pero sí puedo tratar de entender qué provoca esta inmensa capacidad de cálculo. La tecnología digital es probablemente la única tecnología humana que ha avanzado exponencialmente sin detenerse durante décadas. Esto significa, por ejemplo, que el ordenador portátil que lleva en la mochila o quizá el móvil que lleva en el bolsillo habría sido seguramente el ordenador más potente del mundo hace menos de treinta años. Es decir, que ustedes son capaces de hacer en casa lo que el ordenador más potente del mundo podía hacer hace tres décadas. Por tanto, si seguimos con esta tendencia, ¿qué podremos hacer con el dispositivo que llevamos en el bolsillo dentro de dos o tres décadas? Todo esto suponiendo, por supuesto, que seamos capaces de continuar con el mismo ritmo de crecimiento en los próximos años.

    Y esta es la primera pregunta que quisiera responder: ¿seremos capaces? Una mala noticia, no para los investigadores porque significa reto, es que cada vez nos cuesta más dar el siguiente salto. Habitualmente hablamos de saltos de mil en mil: tera, peta, exa, etc., con estos prefijos. Antes saltábamos mil veces cada ocho o diez años, después cada doce, después cada catorce. Ahora, si queremos llegar al siguiente nivel, que es lo que llamamos zettaescala, diez elevado a veintiuna operaciones matemáticas por segundo, no sabemos cuánto tardaremos porque el desafío tecnológico es de una magnitud como nunca antes se había visto. Pronto ya no podremos hacer transistores más pequeños. Ahora hay fábricas capaces de hacer transistores de tres milímetros, quizás veremos de dos milímetros, quizás algún día de un milímetro…, pero basta, son demasiado pocos átomos de silicio dispuestos allí dentro. Por tanto, no es nada evidente que a medio plazo seamos capaces de seguir evolucionando como hasta ahora con nuestras capacidades computacionales

    “Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses. Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplica por diez en un año, por cien en dos años, y así sucesivamente.”

    Ahora bien, alguien podría preguntar: ‘Vale, pero espere un momento, miles de millones de millones de operaciones matemáticas por segundo… Sí, pero, ¿realmente son necesarias? ¿Por qué queremos ordenadores aún más potentes que los que se están instalando? ¿Hay algún problema matemático, físico o de ingeniería que requiera tanta capacidad tecnológica?’. Lo ilustro con el ejemplo del procesamiento del lenguaje natural, esos modelos de lenguaje masivos que ocupan las noticias durante todo el día. Las redes neuronales que existen bajo estos modelos de lenguaje tienen miles de millones de parámetros para entrenar sobre enormes volúmenes de datos, lo que requiere unas capacidades computacionales enormes.

    Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses, que esencialmente es lo que somos capaces de hacer poniendo más transistores dentro de un chip (siguiendo la ley de Moore). Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplicará por diez en un año, por cien en dos años, y así sucesivamente. No podemos seguir a ese ritmo. No hay tecnología humana hoy que sea capaz de seguir ese ritmo, aunque hay mucha demanda de problemas científicos, y no sólo científicos, que necesitan incrementos de capacidad computacional como éstos. Dejo para el final la respuesta a la pregunta de cómo lo haremos, pero de entrada sí, existen problemas reales que seguirán requiriendo mayor capacidad de cálculo.

    El impacto de esta convergencia en la ciencia y en la industria

    Así pues, la primera idea es poner de relieve esta explosión de capacidad computacional. A partir de ahí, la cuestión es: ¿cómo afecta a la ciencia todo esto?

    Quisiera empezar compartiendo una idea muy conceptual, pero que para mí es tremendamente importante. Desde hace siglos, la ciencia avanza siguiendo el método científico. Esto significa, entre otras cosas, la existencia de un diálogo continuo y fructífero entre la teoría y la experimentación. Existe un marco teórico, unas fórmulas o unas ecuaciones que nos describen un cierto fenómeno natural. Luego, experimento a la realidad y verifico si lo que observo es coherente con lo que predice la teoría. Si la teoría es válida, la experimentación coincide con lo que predice ésta. Entonces, cada vez que aparece un telescopio, un microscopio, un secuenciador, un acelerador de partículas, que me permite mirar más lejos, más adentro, más cerca, llegar a lugares a los que nunca había llegado, todo esto me permite hacer una experimentación diferente. Y allí, seguramente, descubriré algo que no concuerda con la teoría en vigor y, por tanto, podré dar un paso adelante como científico, descubriendo nuevos fenómenos que no encajan con la teoría hasta entonces considerada válida. A continuación, vuelvo al marco teórico, lo rectifico, lo amplío, lo modifico y la ciencia avanza. La ciencia avanza en ese continuo diálogo entre el marco teórico y el marco experimental.

    Mi mensaje, por tanto, es que la ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. ¿Y qué relación tiene esto con la capacidad computacional? Pues que ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico. Herramientas que permiten, en vez de experimentar con la realidad, simularla. Habrá casos en los que experimentar con la realidad será la mejor opción, sin duda. Habrá casos, en cambio, en los que simular la realidad será la única posibilidad. Porque si investigas el cambio climático y quieres predecir la evolución del clima, la simulación computacional probablemente sea la única forma de hacerlo. Y si trabajas con plegamientos de proteínas, la inteligencia artificial será una gran aliada para darte marcos teóricos que expliquen o predigan el comportamiento de una determinada proteína.

    El consenso de la comunidad científica dice hoy que combinar la experimentación con la simulación es una buena forma de hacer avanzar la ciencia. Por tanto, la segunda idea que expongo aquí es que, en casi todas las áreas de conocimiento científico (podemos hablar de la ingeniería, la química, la física, el clima, la aerodinámica, los materiales, etc.), cada vez más, la computación masiva y la experiencia se combinan para hacer avanzar a la ciencia más eficazmente. Y esto es porque hemos llegado a lo que llamamos la convergencia entre la supercomputación, esa capacidad masiva de calcular, y lo que llamamos la inteligencia artificial, la capacidad de desarrollar algoritmos profundos que, gracias a la supercomputación, se entrenan en cantidades masivas de datos.

    “La ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. Ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico.”

    Esta reflexión, que es muy conceptual, se puede ejemplificar con varios casos de interacciones donde el uso de estos “instrumentos” que llamamos supercomputadores es imprescindible. Y, teniendo en cuenta estas ideas, podría proporcionaros algún ejemplo de cosas que la ciencia es capaz de hacer gracias a estos instrumentos llamados supercomputadores. Ofreceré algunos ejemplos, empezando por uno del campo de la astronomía. En el BSC desarrollamos un proyecto, junto con la Agencia Espacial Europea, que tiene por objetivo observar todo lo que existe en la Vía Láctea y obtener información de cada objeto: la posición, la velocidad relativa, la luminosidad, la espectrografía, etc., a partir de los datos de una sonda llamada Gaia que orbita y cartografía la Vía Láctea. Debe tenerse en cuenta, de entrada, que la Vía Láctea contiene entre cien mil y doscientos mil millones de astros, lo que implica un reto científico y tecnológico de primer orden. Por tanto, podríamos empezar centrándonos en nuestro sistema solar, donde hay unos ciento cincuenta mil asteroides orbitando alrededor del Sol.

    Éste es un caso del que conocemos a la perfección las leyes que gobiernan el problema, las leyes que rigen el movimiento de los objetos en el sistema solar. Obviamente, es mecánica clásica, son leyes conocidas desde hace mucho tiempo. Pero conocer las leyes y ser capaz de resolverlas en un caso como éste, con tantos objetos involucrados, es otro diferente. El poder de las técnicas computacionales complementa (no sustituye) la labor científica experimental. Tratar ciento cincuenta mil objetos simultáneamente sólo es posible mediante la simulación computacional y la gestión de grandes bases de datos.

    Si bajamos a nuestro planeta, nos encontramos con nuevos casos de uso científico de la supercomputación. ¿Qué sabemos hoy de nuestro planeta? ¿Cómo cambia el clima, cómo evolucionará el clima en los próximos años y en las próximas décadas? Lo sabemos a nivel planetario gracias al uso de los supercomputadores y, cada vez más, podemos acercarnos y conocerlo a nivel continental, regional, urbano. Podemos trabajar con un ayuntamiento para simular la realidad de una ciudad para predecir qué va a pasar en función de cómo actuamos, de la misma manera que sabemos qué le va a pasar al Mediterráneo dentro de unas décadas. Todo esto, basado en la ciencia experimental y en las ecuaciones matemáticas que gobiernan el clima, no sería posible sin el apoyo de las técnicas computacionales.

    Déjeme proporcionar aún otro ejemplo relacionado con la salud humana, la medicina, la biología, el diseño de fármacos, la simulación de nuevas enzimas. En todos estos ámbitos experimentalmente se pueden hacer muchas cosas y, en nuestros laboratorios, hemos avanzado enormemente. Sin embargo, cada vez más, allá donde no llega un aparato experimental, llega la simulación computacional. Por ejemplo, con ambas técnicas, se puede simular la evolución de las células en un tumor en función de la intensidad del fármaco que se administra y comprobar si esto, experimentalmente, ocurre exactamente igual. Cada vez más, la investigación en salud avanza gracias a la combinación de modelos teóricos, la investigación experimental y clínica y las herramientas computacionales. La combinación de todo esto está abriendo puertas hasta ahora inimaginables.

    Déjeme ofrecer otro ejemplo extremadamente impresionante. Todos estamos entusiasmados últimamente con el ChatGPT y los modelos masivos de lenguaje. Sin embargo, en la misma línea de los grandes modelos de inteligencia artificial, para nosotros, seguramente, lo más espectacular es lo que ha realizado la empresa DeepMind con el programa AlphaFold. Se trata de un algoritmo que, de una sola vez -y disculpad si simplifico-, resuelve un problema biológico que estaba siendo investigado por toda la comunidad científica desde hacía cuarenta años: el problema del plegamiento de las proteínas. En una primera aproximación, el objetivo es ser capaces de saber cómo una proteína se pliega sobre sí misma (lo que en inglés se llama protein folding). Es extremadamente revolucionario lo que ha logrado DeepMind con esta IA, sobre todo porque ha alcanzado un porcentaje de éxito en la predicción del plegamiento de las proteínas que nunca nadie había logrado. Esto también deja entrever un gran reto: la explicabilidad del algoritmo no es obvia. Sabemos que lo hace bien, pero no comprendemos en profundidad por qué lo hace bien. Y éste es uno de los motivos por los que DeepMind, inmediatamente, ha abierto su algoritmo para que toda la comunidad científica internacional pueda interactuar con él, trabajar con él y pueda ayudar, con innovación abierta, a entender cómo funciona esto.

    Por tanto, desde la cosmología hasta el clima, pasando por la medicina o la biología, diversas áreas científicas están avanzando enormemente también gracias a la computación. La siguiente pregunta que podríamos hacernos es si este impacto se limita sólo a la ciencia o bien tiene repercusión en las empresas y en el mundo industrial. Para responder a esta pregunta fijémonos, en primer lugar, en el ordenador que está instalando Meta, la matriz de Facebook. No sabemos exactamente lo que están instalando, pero afirman que será el más potente del mundo. Lo sea o no, es probable que sea una máquina extremadamente potente y muy útil para sus planes de futuro con el metaverso y otros proyectos.

    Pero esto no sólo concierne a las grandes empresas tecnológicas, que uno ya imagina que están haciendo grandes inversiones en este campo. Hoy en día, esto afecta a casi todo lo relacionado con el mundo industrial de la ingeniería: la combustión, la aerodinámica, el sector aeroespacial, los gemelos digitales de la industria, simular cómo cambia la aerodinámica de un coche en diversas circunstancias, simular cómo quema un nuevo combustible que hemos diseñado en el laboratorio. Cada vez más, estas técnicas son cruciales para que las empresas mejoren su competitividad frente a los retos de esta naturaleza. O, dicho de otro modo, el uso de estas tecnologías da, a quien las utiliza, una ventaja competitiva muy importante.

    Está claro que esta tecnología es de una importancia crucial tanto para la ciencia como para la industria. Y es fácil concluir que algo importante para la ciencia y la industria lo es también desde el punto de vista de la geoestrategia.

    También podemos hablar de nuevo de la medicina y analizar el ejemplo de una compañía de dispositivos médicos como Medtronic, que prueba una nueva geometría o un nuevo material en un stent cardíaco. Esto sólo se podría hacer mediante experimentación animal, pero hacerlo en el laboratorio es extremadamente complicado por varias razones: por un lado, no escala, es decir, no es posible realizar cientos de pruebas diferentes en una escala de tiempo razonable; por otra parte, la necesaria experimentación animal presenta problemas éticos no menores. Sin embargo, este proceso de buscar nuevas configuraciones de un dispositivo médico sí se puede realizar computacionalmente. Si los métodos que se desarrollan y los supercomputadores disponibles lo permiten, se pueden simular las distintas opciones superando los límites del método experimental. De hecho, podemos decir que cada vez más el ensayo de nuevos dispositivos médicos incorporará estas tecnologías digitales, complementando el enfoque experimental. No tardaremos en ver ensayos clínicos que incorporen de forma masiva estas tecnologías y permitan realizar algunas fases in silico en vez de in vitro o in vivo.

    Me gustaría exponer también otros ámbitos donde la simulación numérica que permiten estos supercomputadores es útil a nivel industrial. He hablado de grandes compañías tecnológicas, empresas biomédicas, casos de uso industriales, etc. Me permito terminar los ejemplos con una imagen que quizá saben identificar fácilmente: se trata del Camp Nou, más concretamente, de una simulación numérica sobre cómo las personas se pueden mover por una instalación como ésta, dependiendo de las intervenciones que se hagan. Por tanto, somos capaces de simular desde asteroides moviéndose alrededor de una estrella hasta movimientos de un gran número de personas en torno a una instalación deportiva.

  • | |

    ‘Identificació personal i protecció de dades’ | Debate Amics del País con Genís Roca y Simona Levi

    ‘Identificació personal i protecció de dades’ | Debate Amics del País con Genís Roca y Simona Levi

    15-03-2023

    Hora
    Hora

    19:00

    Hora
    Lugar

    Seu Social Amics del País, C/ Basea8 1r 1a
    08003 Barcelona

    Agenda 15-03-2023 El Cercle per al Coneixement de Amics del País organiza, dentro del ciclo ‘Tecnología y sociedad‘, la mesa redonda ‘Identificación personal y protección de datos‘ con Genís Roca, presidente de la Fundación PuntCat; y Simona Levi, fundadora de Xnet. Presentará y moderará el acto Miquel Roca Junyent, presidente de Amics del País. En una sociedad cada vez más…

    El Cercle per al Coneixement de Amics del País organiza, dentro del ciclo ‘Tecnología y sociedad‘, la mesa redonda ‘Identificación personal y protección de datos‘ con Genís Roca, presidente de la Fundación PuntCat; y Simona Levi, fundadora de Xnet. Presentará y moderará el acto Miquel Roca Junyent, presidente de Amics del País.

    En una sociedad cada vez más hiperconectada, la adecuada gestión y preservación de los datos personales y la privacidad de las personas son claves para aprovechar las oportunidades democratizadoras del avance tecnológico. Sin embargo, el cambio de modelo al que empuja la digitalización no está exenta de riesgos. De los retos que tenemos delante hablamos con dos personas que tienen una larga trayectoria profesional en este campo.

    Genís Roca es arqueólogo, fundador de Roca Salvatella y comunicador que desde hace tiempo vincula los desafíos digitales y de negocio con las inquietudes culturales y sociales. Con este objetivo, ha ocupado distintos cargos de responsabilidad en entidades tanto privadas como públicas. Es presidente de la asociación Confluencia.cat y miembro de la junta directiva del RACC y de los patronatos de Fundació Enciclopèdia Catalana, Fundació Ship2B y Fundació Escoles Garbí. También es miembro de los consejos asesores de la Generalitat de Catalunya, del Ayuntamiento de Barcelona y de la Mobile World Capital, entre otros. Colabora habitualmente con Catalunya Ràdio, Rac 1 y es socio de JotDown y Crític y miembro del Consejo Editorial de Nació Digital y del Consejo de Redacción de la revista Barcelona Metròpolis.

    Simona Levi es directora de teatro, dramaturga y activista tecnopolítica focalizada en la renovación de la democracia en la era digital y el uso de las herramientas digitales para la organización, comunicación y acción democrática. Es divulgadora en medios de comunicación y asesora de organizaciones ciudadanas e instituciones como la Secretaría de Estado de Digitalización e Inteligencia Artificial del Gobierno de España, la Dirección de Sociedad Digital y la Dirección General de Administración Digital de la Generalitat de Catalunya y la Bithabitat, la Plataforma de Innovación Urbana del Ayuntamiento de Barcelona, etc.

    El debate tendrá lugar el miércoles, 15 de marzo, a las 19h en la sede social de Amics del País (C/ Basea, 8 1º 1ª). El aforo es limitado y las reservas serán por estricto orden de inscripción a través del formulario.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • | | |

    ‘Identificació personal i protecció de dades’ | Debate Amics del País con Genís Roca y Simona Levi

    ‘Identificació personal i protecció de dades’ | Debate Amics del País con Genís Roca y Simona Levi

    Cercle per al Coneixement

    Hora
    Tipo de publicación

    Resumen de actividades

    Hora
    Data

    15-03-2023

    Hace cuatrocientos mil años que los humanos convivimos con un cierto dominio del fuego y todavía hoy nos quemamos. A pesar de los riesgos, no queremos prescindir de éste.

    Utilizando el paralelismo del fuego, Genís Roca, presidente de la Fundació PuntCat, reivindicó la digitalización, a pesar de reconocer sus amenazas, en el debate “Identificació personal i protecció de dades” organizado por Amics del País el pasado 15 de marzo.

    En el acto también participó Simona Levi, fundadora del Instituto para la Digitalización Democrática Xnet, que expuso las propuestas para democratizar la digitalización en el seno de la Unión Europea.

    «El 92% de la digitalización europea se hace bajo el control y la opacidad de las big tech»

    «Debemos volver a discutir la arquitectura social pero no tenemos interlocutores legitimados»

    «Europa debe configurar una agenda para los próximos años»

    «Europa debe comprar Firefox»

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • |

    Memoria anual 2022

    Memoria anual 2022

    Hora
    Tipo de publicación

    Memorias anuales

    Hora
    Data

    01-03-2023

    Un año más os presentamos la memoria de actividades de la Societat Econòmica Barcelonesa d’Amics del País, y este año de manera especial, ya que es la memoria de los 200 años de historia de nuestra entidad, una historia humilde pero destacada de ideales y acciones, de contribuciones importantes y de iniciativas duraderas y, sobretodo,…

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • | |

    ‘Son i envelliment saludable. Anys a la vida, vida als anys’ | Debate Amics del País con el Dr. Antoni Esteve

    ‘Son i envelliment saludable. Anys a la vida, vida als anys’ | Debate Amics del País con el Dr. Antoni Esteve

    Comisión Salud

    22-02-2023

    Hora
    Hora

    19:00

    Hora
    Lugar

    Caixafòrum Macaya, Pg Sant Joan 108
    08037 Barcelona

    Agenda Comisión Salud 22-02-2023 El sueño es un determinante de salud y bienestar. Hoy ya no podemos distraernos. El conocimiento científico revela el papel destacado que desempeña el cerebro mientras dormimos: vela por un óptimo funcionamiento del organismo y cuida la personalidad de cada uno de nosotros en capacidades y competencias. En este sentido, cuanto…

    El sueño es un determinante de salud y bienestar. Hoy ya no podemos distraernos. El conocimiento científico revela el papel destacado que desempeña el cerebro mientras dormimos: vela por un óptimo funcionamiento del organismo y cuida la personalidad de cada uno de nosotros en capacidades y competencias. En este sentido, cuanto más respetemos nuestro descanso, más y mejor viviremos. Además, el sueño es un protagonista destacado en la lucha contra la enfermedad y, por tanto, el sueño se convierte en una oportunidad única para gestionar nuestro propio envejecimiento saludable.

    Para hablar de todo lo que la ciencia ha descubierto sobre el sueño como herramienta terapéutica de primera magnitud, la comisión de Salud de Amics del País organiza el debate “Son i envelliment saludable. Anys a la vida, vida als anys” con el Dr. Antoni Esteve, fundador de AdSalutem Institut, presidente del Institut Guttmann y académico numerario de las Reales Academias de Medicina y Farmacia de Cataluña.

    Antoni Esteve es doctor en farmacia por la Universidad de Barcelona. Entre 2005 y 2012 fue presidente de Esteve y hoy preside el AdSalutem Institute for Healthy Sleep. Durante su trayectoria profesional, siempre ha estado comprometido con la investigación, lo que le llevó a presidir la Fundación Catalana para la Investigación y la Innovación en 2011. También fue presidente del Banco de Sangre y Tejidos durante diez años (2003- 2013) y, actualmente, es miembro del Comité Científico de la Agencia Estatal de Investigación y presidente de la Comisión de Investigación de la UB.

    El acto estará presentado por el presidente de la comisión de Salud, el Dr. Antoni Guerrero, y tendrá lugar en el Caixafòrum Macaya el miércoles 22 de febrero a las 19h. El aforo es limitado.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos