Autor: Amics del País

  • | |

    ‘Gestió de finances personals, salut i esperança de vida’ | Debate Amics del País con Teodor Mas i Valls

    ‘Gestió de finances personals, salut i esperança de vida’ | Debate Amics del País con Teodor Mas i Valls

    Comisión Salud

    19-04-2023

    Hora
    Hora

    00:00

    Hora
    Lugar

    Seu Social Amics del País, C/ Basea8 1r 1a
    08003 Barcelona

    Agenda Comisión Salud 19-04-2023   La comisión Salud de Amics del País organiza el debate “Gestió de finances personals, salut i esperança de vida” con Teodor Mas i Valls, director de inversiones en Capital Cell, fundador de Barcelona Trading Ideas y escritor. El acto estará presentado por el Dr. Antoni Guerrero, presidente de la comisión.…

     

    La comisión Salud de Amics del País organiza el debate “Gestió de finances personals, salut i esperança de vida” con Teodor Mas i Valls, director de inversiones en Capital Cell, fundador de Barcelona Trading Ideas y escritor. El acto estará presentado por el Dr. Antoni Guerrero, presidente de la comisión.

    Teodor Mas i Valls es economista por la Universitat Autònoma de Barcelona y acaba de publicar el libro “Un método judeocatalán para ahorrar y hacerse rico” donde, a través de un repaso de su linaje familiar, extrae aprendizajes para gestionar bien el dinero y llegar a la libertad financiera.

    En el libro, Teodor Mas i Valls recomienda, entre otras cosas, ahorrar el 25% de los ingresos, planificar la vida y, además, defiende que la persona rica es la que tiene tiempo para sí misma. En esta línea, durante el acto nos ampliará la información con más consejos para una buena gestión de la economía personal para disminuir el estrés, vivir plenamente y, por tanto, conseguir más y mejores años de vida.

    El acto, que tendrá lugar en la sede social de Amics del País (C/ Basea, 8 1r 1a), tiene el aforo limitado y las reservas seran por orden estricto de inscripción a través del formulario.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • Amics del País celebra el acto anual de entrega de premios con el tradicional discurso de apertura a cargo de Josep Maria Martorell

    Amics del País celebra el acto anual de entrega de premios con el tradicional discurso de apertura a cargo de Josep Maria Martorell

    Hora
    Data

    16-03-2023

    Ayer, jueves 16 de marzo, Amics del País entregó más de 80.000 euros a través de los premios Amics del País en un acto en el Saló de Cent del Ayuntamiento de Barcelona presidido por la Ilma. Sra. Laia Bonet Rull, teniente de Alcaldía del Área de Agenda 2030, Transición Digital, Deportes y Coordinación Territorial…

    Este año, Amics del País otorgó 15 becas de movilidad para jóvenes investigadores, dotadas en 4.200 euros cada una. Los premiados de esta edición son Alex Jiménez (UPC, Instituto de Investigación Energética), Daniele Vico (UB, Facultad de Economía), Ragip Kaan Erdemli (UB, Facultad de Economía), Ana M. Sánchez (UB, Facultad de Derecho Penal), Abhinav Khemka (UB, Instituto de Economía de Barcelona), Gerard Domènech (UB, Facultad de Economía), Iván Rivet (UPC, Departamento de Ingeniería Civil), Darío Serrano (UB, Instituto de Economía de Barcelona), Jerònia Vadell (UAB, Departamento de Geografía), Alexandre Bretones (UAB, Departamento de Geografía), Alfonso Hernández (UB, Facultad de Economía y Empresa), Marouane Laabbas (URV, Facultad de Derecho público), Carlota de Miguel (Instituto de Investigación Hospital San Juan de Dios), Alejandro Jiménez (UB, Facultad de Derecho financiero y tributario) y Joaquim Motger (UPC, Grupo Ingeniería de Software).

    Guardonats als premis Amics del País 2023

    El premio Llegat Valldejuli 2023, dotado en 20.000 euros, reconoció la labor de FEMAREC, entidad referente del sector social que, desde hace más de treinta años, trabaja desde la perspectiva ecológica y de género por la inserción social, laboral y cultural de colectivos en riesgo de exclusión. Su presidenta, la Sra. Amèlia Clara Quintana, afirmó al recoger el premio que es gracias a reconocimientos como el que hace hoy Amics del País que ‘hemos cambiado el mundo’ ayudando a que todo el mundo pueda encontrar ‘su proyecto de vida’.

    Josep Maria Martorell a l

    Josep Maria Martorell: ‘Barcelona ya es capital de la supercomputación’

    Este año, el encargado de pronunciar el tradicional discurso de apertura fue el Sr. Josep Maria Martorell, director asociado del Barcelona Supercomputing Center (BSC). Bajo el título “L’impacte de la supercomputació a la ciència i a la societat”, Martorell reivindicó el tejido tecnológico y científico de Barcelona, que “ya es capital” en el ámbito de la supercomputación y que está situada en una “posición privilegiada” para liderar la recuperación de la soberanía tecnológica europea.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • |

    L’impacte de la supercomputació a la ciència i a la societat | Josep Maria Martorell

    Conferencia pronunciada en el acto solemne de la entrega de los Premios Anuales de Amics del País celebrado en el Saló de Cent del Ajuntament de Barcelona

    Muchas gracias señor Miquel Roca, presidente de Amics del País, primer teniente de alcalde, miembros de la junta de la SEBAP. Es un gran honor tener la oportunidad de estar aquí hoy, y no sólo por el maravilloso escenario, esta sala del Consell de Cent, sino también para poder compartir con vosotros algunas reflexiones que el señor Miquel Roca ya ha esbozado.

    Cuando uno debe hablar públicamente, como me ocurre a mí de vez en cuando a causa de mi trabajo, puede ser difícil hacerlo ante un público tan diverso, compuesto por personas con trayectorias profesionales impresionantes, familias orgullosas de sus hijos e hijas y jóvenes con un talento excepcional. Por tanto, no es sencillo ajustar el tono del discurso. Sin embargo, me dirigiré sobre todo a los más jóvenes, que me dará la libertad de ser, quizás no del todo preciso técnicamente, pero sí, divulgativo. Espero que los expertos presentes me disculpen.

    ‘No es que Barcelona pueda ser capital mundial a nivel científico-tecnológico, sino que Barcelona ya es capital, al menos a nivel europeo, de la supercomputación’

    Quisiera empezar profundizando un poco más en la idea fundamental que el señor Miquel Roca ya ha presentado sobre el rol de nuestra ciudad en el mundo. No es que Barcelona pueda ser (en condicional) una capital mundial a nivel científico-tecnológico, sino que quiero hablaros de un ámbito donde Barcelona ya es capital, al menos a nivel europeo. Me gustaría presentarles la realidad de esta ciudad en el ámbito de las tecnologías computacionales y digitales profundas.

    En primer lugar, me gustaría empezar explicándoos qué está pasando ahora mismo en el ámbito IA y las tecnologías digitales, en general, y por qué. Estos días, cuando entramos en Twitter o cualquier diario digital, vemos noticias sobre el chatGPT contínuamente. Quisiera explicaros, tecnológicamente, por qué ocurre esto, exactamente ahora, y por qué es fruto de una convergencia de tecnologías. En segundo lugar, me gustaría transmitirles un poco el impacto que esto tiene, no sólo, en la sociedad, la economía o los debates éticos, que hay muchos, sino en la actividad científica y cómo los científicos trabajan de forma diferente debido a esta convergencia digital. En tercer lugar, me gustaría explicarles que esto no sólo afecta a la ciencia, sino también a la industria y muchas empresas. Y, por supuesto, un tema que es importante para la ciencia y la industria tiene un impacto geopolítico muy claro. Por tanto, me gustaría hablaros del papel que creemos que puede jugar Europa, y en particular Barcelona, en esta carrera entre los grandes países del mundo para el control de la tecnología digital. Y, finalmente, quisiera discutir sobre el futuro, hacia dónde nos dirigimos y qué tecnologías llegarán posteriormente (o complementariamente) al dominio del silicio.

    La convergencia de las tecnologías digitales

    Permítanme empezar insistiendo en que seré técnicamente poco preciso, así que me disculpo con aquellos que saben más que yo, algunos presentes en esta sala. Dicho esto, empiezo con dos ejemplos con los que quiero mostrar hasta qué punto la tecnología de computación ha avanzado en las últimas décadas. Una es el ENIAC, uno de los primeros ordenadores instalados en Estados Unidos a finales de los años cuarenta y hasta mediados de los cincuenta del siglo pasado, en Pensilvania. La otra es el Frontier, actualmente el supercomputador reconocido como el más potente del mundo de acuerdo con el ranking del Top500, instalado por nuestros colegas de Oak Ridge en Estados Unidos, en un centro dependiente del Departamento de Energía del Gobierno estadounidense.

    Josep Maria Martorell a l

    El Frontier es el primer ordenador conocido que ha roto la barrera del exascale, es decir, la capacidad de realizar un millón de millones de millones (un trillón europeo) de operaciones matemáticas por segundo. Lo importante es que, en las siete décadas que separan estos dos ejemplos, existe una diferencia de aproximadamente dieciséis órdenes de magnitud. Y dieciséis órdenes de magnitud equivalen a un “1” seguido de dieciséis ceros. Y un “1” seguido de dieciséis ceros es algo que, no sé ustedes, pero yo no comprendo con profundidad. Un ‘1’ seguido de dieciséis ceros son diez mil millones de millones. ¿Alguien puede imaginar qué significa que una cosa sea diez mil millones de millones mayor que otra? Entramos en una zona en la que un cero más o un cero menos ya te hace perder un poco la capacidad de entender las cosas. El Frontier, pues, tal y como he mencionado antes, adecuadamente programada, es capaz de llegar al llamado exaflop, que significa que hace diez a la dieciocho, es decir, un millón de millones de millones de operaciones matemáticas por segundo.

    Yo no soy capaz de comprender qué significa que una máquina realice un millón de millones de millones de operaciones matemáticas cada segundo, pero sí puedo tratar de entender qué provoca esta inmensa capacidad de cálculo. La tecnología digital es probablemente la única tecnología humana que ha avanzado exponencialmente sin detenerse durante décadas. Esto significa, por ejemplo, que el ordenador portátil que lleva en la mochila o quizá el móvil que lleva en el bolsillo habría sido seguramente el ordenador más potente del mundo hace menos de treinta años. Es decir, que ustedes son capaces de hacer en casa lo que el ordenador más potente del mundo podía hacer hace tres décadas. Por tanto, si seguimos con esta tendencia, ¿qué podremos hacer con el dispositivo que llevamos en el bolsillo dentro de dos o tres décadas? Todo esto suponiendo, por supuesto, que seamos capaces de continuar con el mismo ritmo de crecimiento en los próximos años.

    Y esta es la primera pregunta que quisiera responder: ¿seremos capaces? Una mala noticia, no para los investigadores porque significa reto, es que cada vez nos cuesta más dar el siguiente salto. Habitualmente hablamos de saltos de mil en mil: tera, peta, exa, etc., con estos prefijos. Antes saltábamos mil veces cada ocho o diez años, después cada doce, después cada catorce. Ahora, si queremos llegar al siguiente nivel, que es lo que llamamos zettaescala, diez elevado a veintiuna operaciones matemáticas por segundo, no sabemos cuánto tardaremos porque el desafío tecnológico es de una magnitud como nunca antes se había visto. Pronto ya no podremos hacer transistores más pequeños. Ahora hay fábricas capaces de hacer transistores de tres milímetros, quizás veremos de dos milímetros, quizás algún día de un milímetro…, pero basta, son demasiado pocos átomos de silicio dispuestos allí dentro. Por tanto, no es nada evidente que a medio plazo seamos capaces de seguir evolucionando como hasta ahora con nuestras capacidades computacionales

    “Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses. Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplica por diez en un año, por cien en dos años, y así sucesivamente.”

    Ahora bien, alguien podría preguntar: ‘Vale, pero espere un momento, miles de millones de millones de operaciones matemáticas por segundo… Sí, pero, ¿realmente son necesarias? ¿Por qué queremos ordenadores aún más potentes que los que se están instalando? ¿Hay algún problema matemático, físico o de ingeniería que requiera tanta capacidad tecnológica?’. Lo ilustro con el ejemplo del procesamiento del lenguaje natural, esos modelos de lenguaje masivos que ocupan las noticias durante todo el día. Las redes neuronales que existen bajo estos modelos de lenguaje tienen miles de millones de parámetros para entrenar sobre enormes volúmenes de datos, lo que requiere unas capacidades computacionales enormes.

    Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses, que esencialmente es lo que somos capaces de hacer poniendo más transistores dentro de un chip (siguiendo la ley de Moore). Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplicará por diez en un año, por cien en dos años, y así sucesivamente. No podemos seguir a ese ritmo. No hay tecnología humana hoy que sea capaz de seguir ese ritmo, aunque hay mucha demanda de problemas científicos, y no sólo científicos, que necesitan incrementos de capacidad computacional como éstos. Dejo para el final la respuesta a la pregunta de cómo lo haremos, pero de entrada sí, existen problemas reales que seguirán requiriendo mayor capacidad de cálculo.

    El impacto de esta convergencia en la ciencia y en la industria

    Así pues, la primera idea es poner de relieve esta explosión de capacidad computacional. A partir de ahí, la cuestión es: ¿cómo afecta a la ciencia todo esto?

    Quisiera empezar compartiendo una idea muy conceptual, pero que para mí es tremendamente importante. Desde hace siglos, la ciencia avanza siguiendo el método científico. Esto significa, entre otras cosas, la existencia de un diálogo continuo y fructífero entre la teoría y la experimentación. Existe un marco teórico, unas fórmulas o unas ecuaciones que nos describen un cierto fenómeno natural. Luego, experimento a la realidad y verifico si lo que observo es coherente con lo que predice la teoría. Si la teoría es válida, la experimentación coincide con lo que predice ésta. Entonces, cada vez que aparece un telescopio, un microscopio, un secuenciador, un acelerador de partículas, que me permite mirar más lejos, más adentro, más cerca, llegar a lugares a los que nunca había llegado, todo esto me permite hacer una experimentación diferente. Y allí, seguramente, descubriré algo que no concuerda con la teoría en vigor y, por tanto, podré dar un paso adelante como científico, descubriendo nuevos fenómenos que no encajan con la teoría hasta entonces considerada válida. A continuación, vuelvo al marco teórico, lo rectifico, lo amplío, lo modifico y la ciencia avanza. La ciencia avanza en ese continuo diálogo entre el marco teórico y el marco experimental.

    Mi mensaje, por tanto, es que la ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. ¿Y qué relación tiene esto con la capacidad computacional? Pues que ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico. Herramientas que permiten, en vez de experimentar con la realidad, simularla. Habrá casos en los que experimentar con la realidad será la mejor opción, sin duda. Habrá casos, en cambio, en los que simular la realidad será la única posibilidad. Porque si investigas el cambio climático y quieres predecir la evolución del clima, la simulación computacional probablemente sea la única forma de hacerlo. Y si trabajas con plegamientos de proteínas, la inteligencia artificial será una gran aliada para darte marcos teóricos que expliquen o predigan el comportamiento de una determinada proteína.

    El consenso de la comunidad científica dice hoy que combinar la experimentación con la simulación es una buena forma de hacer avanzar la ciencia. Por tanto, la segunda idea que expongo aquí es que, en casi todas las áreas de conocimiento científico (podemos hablar de la ingeniería, la química, la física, el clima, la aerodinámica, los materiales, etc.), cada vez más, la computación masiva y la experiencia se combinan para hacer avanzar a la ciencia más eficazmente. Y esto es porque hemos llegado a lo que llamamos la convergencia entre la supercomputación, esa capacidad masiva de calcular, y lo que llamamos la inteligencia artificial, la capacidad de desarrollar algoritmos profundos que, gracias a la supercomputación, se entrenan en cantidades masivas de datos.

    “La ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. Ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico.”

    Esta reflexión, que es muy conceptual, se puede ejemplificar con varios casos de interacciones donde el uso de estos “instrumentos” que llamamos supercomputadores es imprescindible. Y, teniendo en cuenta estas ideas, podría proporcionaros algún ejemplo de cosas que la ciencia es capaz de hacer gracias a estos instrumentos llamados supercomputadores. Ofreceré algunos ejemplos, empezando por uno del campo de la astronomía. En el BSC desarrollamos un proyecto, junto con la Agencia Espacial Europea, que tiene por objetivo observar todo lo que existe en la Vía Láctea y obtener información de cada objeto: la posición, la velocidad relativa, la luminosidad, la espectrografía, etc., a partir de los datos de una sonda llamada Gaia que orbita y cartografía la Vía Láctea. Debe tenerse en cuenta, de entrada, que la Vía Láctea contiene entre cien mil y doscientos mil millones de astros, lo que implica un reto científico y tecnológico de primer orden. Por tanto, podríamos empezar centrándonos en nuestro sistema solar, donde hay unos ciento cincuenta mil asteroides orbitando alrededor del Sol.

    Éste es un caso del que conocemos a la perfección las leyes que gobiernan el problema, las leyes que rigen el movimiento de los objetos en el sistema solar. Obviamente, es mecánica clásica, son leyes conocidas desde hace mucho tiempo. Pero conocer las leyes y ser capaz de resolverlas en un caso como éste, con tantos objetos involucrados, es otro diferente. El poder de las técnicas computacionales complementa (no sustituye) la labor científica experimental. Tratar ciento cincuenta mil objetos simultáneamente sólo es posible mediante la simulación computacional y la gestión de grandes bases de datos.

    Si bajamos a nuestro planeta, nos encontramos con nuevos casos de uso científico de la supercomputación. ¿Qué sabemos hoy de nuestro planeta? ¿Cómo cambia el clima, cómo evolucionará el clima en los próximos años y en las próximas décadas? Lo sabemos a nivel planetario gracias al uso de los supercomputadores y, cada vez más, podemos acercarnos y conocerlo a nivel continental, regional, urbano. Podemos trabajar con un ayuntamiento para simular la realidad de una ciudad para predecir qué va a pasar en función de cómo actuamos, de la misma manera que sabemos qué le va a pasar al Mediterráneo dentro de unas décadas. Todo esto, basado en la ciencia experimental y en las ecuaciones matemáticas que gobiernan el clima, no sería posible sin el apoyo de las técnicas computacionales.

    Déjeme proporcionar aún otro ejemplo relacionado con la salud humana, la medicina, la biología, el diseño de fármacos, la simulación de nuevas enzimas. En todos estos ámbitos experimentalmente se pueden hacer muchas cosas y, en nuestros laboratorios, hemos avanzado enormemente. Sin embargo, cada vez más, allá donde no llega un aparato experimental, llega la simulación computacional. Por ejemplo, con ambas técnicas, se puede simular la evolución de las células en un tumor en función de la intensidad del fármaco que se administra y comprobar si esto, experimentalmente, ocurre exactamente igual. Cada vez más, la investigación en salud avanza gracias a la combinación de modelos teóricos, la investigación experimental y clínica y las herramientas computacionales. La combinación de todo esto está abriendo puertas hasta ahora inimaginables.

    Déjeme ofrecer otro ejemplo extremadamente impresionante. Todos estamos entusiasmados últimamente con el ChatGPT y los modelos masivos de lenguaje. Sin embargo, en la misma línea de los grandes modelos de inteligencia artificial, para nosotros, seguramente, lo más espectacular es lo que ha realizado la empresa DeepMind con el programa AlphaFold. Se trata de un algoritmo que, de una sola vez -y disculpad si simplifico-, resuelve un problema biológico que estaba siendo investigado por toda la comunidad científica desde hacía cuarenta años: el problema del plegamiento de las proteínas. En una primera aproximación, el objetivo es ser capaces de saber cómo una proteína se pliega sobre sí misma (lo que en inglés se llama protein folding). Es extremadamente revolucionario lo que ha logrado DeepMind con esta IA, sobre todo porque ha alcanzado un porcentaje de éxito en la predicción del plegamiento de las proteínas que nunca nadie había logrado. Esto también deja entrever un gran reto: la explicabilidad del algoritmo no es obvia. Sabemos que lo hace bien, pero no comprendemos en profundidad por qué lo hace bien. Y éste es uno de los motivos por los que DeepMind, inmediatamente, ha abierto su algoritmo para que toda la comunidad científica internacional pueda interactuar con él, trabajar con él y pueda ayudar, con innovación abierta, a entender cómo funciona esto.

    Por tanto, desde la cosmología hasta el clima, pasando por la medicina o la biología, diversas áreas científicas están avanzando enormemente también gracias a la computación. La siguiente pregunta que podríamos hacernos es si este impacto se limita sólo a la ciencia o bien tiene repercusión en las empresas y en el mundo industrial. Para responder a esta pregunta fijémonos, en primer lugar, en el ordenador que está instalando Meta, la matriz de Facebook. No sabemos exactamente lo que están instalando, pero afirman que será el más potente del mundo. Lo sea o no, es probable que sea una máquina extremadamente potente y muy útil para sus planes de futuro con el metaverso y otros proyectos.

    Pero esto no sólo concierne a las grandes empresas tecnológicas, que uno ya imagina que están haciendo grandes inversiones en este campo. Hoy en día, esto afecta a casi todo lo relacionado con el mundo industrial de la ingeniería: la combustión, la aerodinámica, el sector aeroespacial, los gemelos digitales de la industria, simular cómo cambia la aerodinámica de un coche en diversas circunstancias, simular cómo quema un nuevo combustible que hemos diseñado en el laboratorio. Cada vez más, estas técnicas son cruciales para que las empresas mejoren su competitividad frente a los retos de esta naturaleza. O, dicho de otro modo, el uso de estas tecnologías da, a quien las utiliza, una ventaja competitiva muy importante.

    Está claro que esta tecnología es de una importancia crucial tanto para la ciencia como para la industria. Y es fácil concluir que algo importante para la ciencia y la industria lo es también desde el punto de vista de la geoestrategia.

    También podemos hablar de nuevo de la medicina y analizar el ejemplo de una compañía de dispositivos médicos como Medtronic, que prueba una nueva geometría o un nuevo material en un stent cardíaco. Esto sólo se podría hacer mediante experimentación animal, pero hacerlo en el laboratorio es extremadamente complicado por varias razones: por un lado, no escala, es decir, no es posible realizar cientos de pruebas diferentes en una escala de tiempo razonable; por otra parte, la necesaria experimentación animal presenta problemas éticos no menores. Sin embargo, este proceso de buscar nuevas configuraciones de un dispositivo médico sí se puede realizar computacionalmente. Si los métodos que se desarrollan y los supercomputadores disponibles lo permiten, se pueden simular las distintas opciones superando los límites del método experimental. De hecho, podemos decir que cada vez más el ensayo de nuevos dispositivos médicos incorporará estas tecnologías digitales, complementando el enfoque experimental. No tardaremos en ver ensayos clínicos que incorporen de forma masiva estas tecnologías y permitan realizar algunas fases in silico en vez de in vitro o in vivo.

    Me gustaría exponer también otros ámbitos donde la simulación numérica que permiten estos supercomputadores es útil a nivel industrial. He hablado de grandes compañías tecnológicas, empresas biomédicas, casos de uso industriales, etc. Me permito terminar los ejemplos con una imagen que quizá saben identificar fácilmente: se trata del Camp Nou, más concretamente, de una simulación numérica sobre cómo las personas se pueden mover por una instalación como ésta, dependiendo de las intervenciones que se hagan. Por tanto, somos capaces de simular desde asteroides moviéndose alrededor de una estrella hasta movimientos de un gran número de personas en torno a una instalación deportiva.

    Muchas gracias señor Miquel Roca, presidente de Amics del País, primer teniente de alcalde, miembros de la junta de la SEBAP. Es un gran honor tener la oportunidad de estar aquí hoy, y no sólo por el maravilloso escenario, esta sala del Consell de Cent, sino también para poder compartir con vosotros algunas reflexiones que el señor Miquel Roca ya ha esbozado.

    Cuando uno debe hablar públicamente, como me ocurre a mí de vez en cuando a causa de mi trabajo, puede ser difícil hacerlo ante un público tan diverso, compuesto por personas con trayectorias profesionales impresionantes, familias orgullosas de sus hijos e hijas y jóvenes con un talento excepcional. Por tanto, no es sencillo ajustar el tono del discurso. Sin embargo, me dirigiré sobre todo a los más jóvenes, que me dará la libertad de ser, quizás no del todo preciso técnicamente, pero sí, divulgativo. Espero que los expertos presentes me disculpen.

    ‘No es que Barcelona pueda ser capital mundial a nivel científico-tecnológico, sino que Barcelona ya es capital, al menos a nivel europeo, de la supercomputación’

    Quisiera empezar profundizando un poco más en la idea fundamental que el señor Miquel Roca ya ha presentado sobre el rol de nuestra ciudad en el mundo. No es que Barcelona pueda ser (en condicional) una capital mundial a nivel científico-tecnológico, sino que quiero hablaros de un ámbito donde Barcelona ya es capital, al menos a nivel europeo. Me gustaría presentarles la realidad de esta ciudad en el ámbito de las tecnologías computacionales y digitales profundas.

    En primer lugar, me gustaría empezar explicándoos qué está pasando ahora mismo en el ámbito IA y las tecnologías digitales, en general, y por qué. Estos días, cuando entramos en Twitter o cualquier diario digital, vemos noticias sobre el chatGPT contínuamente. Quisiera explicaros, tecnológicamente, por qué ocurre esto, exactamente ahora, y por qué es fruto de una convergencia de tecnologías. En segundo lugar, me gustaría transmitirles un poco el impacto que esto tiene, no sólo, en la sociedad, la economía o los debates éticos, que hay muchos, sino en la actividad científica y cómo los científicos trabajan de forma diferente debido a esta convergencia digital. En tercer lugar, me gustaría explicarles que esto no sólo afecta a la ciencia, sino también a la industria y muchas empresas. Y, por supuesto, un tema que es importante para la ciencia y la industria tiene un impacto geopolítico muy claro. Por tanto, me gustaría hablaros del papel que creemos que puede jugar Europa, y en particular Barcelona, en esta carrera entre los grandes países del mundo para el control de la tecnología digital. Y, finalmente, quisiera discutir sobre el futuro, hacia dónde nos dirigimos y qué tecnologías llegarán posteriormente (o complementariamente) al dominio del silicio.

    La convergencia de las tecnologías digitales

    Permítanme empezar insistiendo en que seré técnicamente poco preciso, así que me disculpo con aquellos que saben más que yo, algunos presentes en esta sala. Dicho esto, empiezo con dos ejemplos con los que quiero mostrar hasta qué punto la tecnología de computación ha avanzado en las últimas décadas. Una es el ENIAC, uno de los primeros ordenadores instalados en Estados Unidos a finales de los años cuarenta y hasta mediados de los cincuenta del siglo pasado, en Pensilvania. La otra es el Frontier, actualmente el supercomputador reconocido como el más potente del mundo de acuerdo con el ranking del Top500, instalado por nuestros colegas de Oak Ridge en Estados Unidos, en un centro dependiente del Departamento de Energía del Gobierno estadounidense.

    Josep Maria Martorell a l

    El Frontier es el primer ordenador conocido que ha roto la barrera del exascale, es decir, la capacidad de realizar un millón de millones de millones (un trillón europeo) de operaciones matemáticas por segundo. Lo importante es que, en las siete décadas que separan estos dos ejemplos, existe una diferencia de aproximadamente dieciséis órdenes de magnitud. Y dieciséis órdenes de magnitud equivalen a un “1” seguido de dieciséis ceros. Y un “1” seguido de dieciséis ceros es algo que, no sé ustedes, pero yo no comprendo con profundidad. Un ‘1’ seguido de dieciséis ceros son diez mil millones de millones. ¿Alguien puede imaginar qué significa que una cosa sea diez mil millones de millones mayor que otra? Entramos en una zona en la que un cero más o un cero menos ya te hace perder un poco la capacidad de entender las cosas. El Frontier, pues, tal y como he mencionado antes, adecuadamente programada, es capaz de llegar al llamado exaflop, que significa que hace diez a la dieciocho, es decir, un millón de millones de millones de operaciones matemáticas por segundo.

    Yo no soy capaz de comprender qué significa que una máquina realice un millón de millones de millones de operaciones matemáticas cada segundo, pero sí puedo tratar de entender qué provoca esta inmensa capacidad de cálculo. La tecnología digital es probablemente la única tecnología humana que ha avanzado exponencialmente sin detenerse durante décadas. Esto significa, por ejemplo, que el ordenador portátil que lleva en la mochila o quizá el móvil que lleva en el bolsillo habría sido seguramente el ordenador más potente del mundo hace menos de treinta años. Es decir, que ustedes son capaces de hacer en casa lo que el ordenador más potente del mundo podía hacer hace tres décadas. Por tanto, si seguimos con esta tendencia, ¿qué podremos hacer con el dispositivo que llevamos en el bolsillo dentro de dos o tres décadas? Todo esto suponiendo, por supuesto, que seamos capaces de continuar con el mismo ritmo de crecimiento en los próximos años.

    Y esta es la primera pregunta que quisiera responder: ¿seremos capaces? Una mala noticia, no para los investigadores porque significa reto, es que cada vez nos cuesta más dar el siguiente salto. Habitualmente hablamos de saltos de mil en mil: tera, peta, exa, etc., con estos prefijos. Antes saltábamos mil veces cada ocho o diez años, después cada doce, después cada catorce. Ahora, si queremos llegar al siguiente nivel, que es lo que llamamos zettaescala, diez elevado a veintiuna operaciones matemáticas por segundo, no sabemos cuánto tardaremos porque el desafío tecnológico es de una magnitud como nunca antes se había visto. Pronto ya no podremos hacer transistores más pequeños. Ahora hay fábricas capaces de hacer transistores de tres milímetros, quizás veremos de dos milímetros, quizás algún día de un milímetro…, pero basta, son demasiado pocos átomos de silicio dispuestos allí dentro. Por tanto, no es nada evidente que a medio plazo seamos capaces de seguir evolucionando como hasta ahora con nuestras capacidades computacionales

    “Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses. Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplica por diez en un año, por cien en dos años, y así sucesivamente.”

    Ahora bien, alguien podría preguntar: ‘Vale, pero espere un momento, miles de millones de millones de operaciones matemáticas por segundo… Sí, pero, ¿realmente son necesarias? ¿Por qué queremos ordenadores aún más potentes que los que se están instalando? ¿Hay algún problema matemático, físico o de ingeniería que requiera tanta capacidad tecnológica?’. Lo ilustro con el ejemplo del procesamiento del lenguaje natural, esos modelos de lenguaje masivos que ocupan las noticias durante todo el día. Las redes neuronales que existen bajo estos modelos de lenguaje tienen miles de millones de parámetros para entrenar sobre enormes volúmenes de datos, lo que requiere unas capacidades computacionales enormes.

    Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses, que esencialmente es lo que somos capaces de hacer poniendo más transistores dentro de un chip (siguiendo la ley de Moore). Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplicará por diez en un año, por cien en dos años, y así sucesivamente. No podemos seguir a ese ritmo. No hay tecnología humana hoy que sea capaz de seguir ese ritmo, aunque hay mucha demanda de problemas científicos, y no sólo científicos, que necesitan incrementos de capacidad computacional como éstos. Dejo para el final la respuesta a la pregunta de cómo lo haremos, pero de entrada sí, existen problemas reales que seguirán requiriendo mayor capacidad de cálculo.

    El impacto de esta convergencia en la ciencia y en la industria

    Así pues, la primera idea es poner de relieve esta explosión de capacidad computacional. A partir de ahí, la cuestión es: ¿cómo afecta a la ciencia todo esto?

    Quisiera empezar compartiendo una idea muy conceptual, pero que para mí es tremendamente importante. Desde hace siglos, la ciencia avanza siguiendo el método científico. Esto significa, entre otras cosas, la existencia de un diálogo continuo y fructífero entre la teoría y la experimentación. Existe un marco teórico, unas fórmulas o unas ecuaciones que nos describen un cierto fenómeno natural. Luego, experimento a la realidad y verifico si lo que observo es coherente con lo que predice la teoría. Si la teoría es válida, la experimentación coincide con lo que predice ésta. Entonces, cada vez que aparece un telescopio, un microscopio, un secuenciador, un acelerador de partículas, que me permite mirar más lejos, más adentro, más cerca, llegar a lugares a los que nunca había llegado, todo esto me permite hacer una experimentación diferente. Y allí, seguramente, descubriré algo que no concuerda con la teoría en vigor y, por tanto, podré dar un paso adelante como científico, descubriendo nuevos fenómenos que no encajan con la teoría hasta entonces considerada válida. A continuación, vuelvo al marco teórico, lo rectifico, lo amplío, lo modifico y la ciencia avanza. La ciencia avanza en ese continuo diálogo entre el marco teórico y el marco experimental.

    Mi mensaje, por tanto, es que la ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. ¿Y qué relación tiene esto con la capacidad computacional? Pues que ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico. Herramientas que permiten, en vez de experimentar con la realidad, simularla. Habrá casos en los que experimentar con la realidad será la mejor opción, sin duda. Habrá casos, en cambio, en los que simular la realidad será la única posibilidad. Porque si investigas el cambio climático y quieres predecir la evolución del clima, la simulación computacional probablemente sea la única forma de hacerlo. Y si trabajas con plegamientos de proteínas, la inteligencia artificial será una gran aliada para darte marcos teóricos que expliquen o predigan el comportamiento de una determinada proteína.

    El consenso de la comunidad científica dice hoy que combinar la experimentación con la simulación es una buena forma de hacer avanzar la ciencia. Por tanto, la segunda idea que expongo aquí es que, en casi todas las áreas de conocimiento científico (podemos hablar de la ingeniería, la química, la física, el clima, la aerodinámica, los materiales, etc.), cada vez más, la computación masiva y la experiencia se combinan para hacer avanzar a la ciencia más eficazmente. Y esto es porque hemos llegado a lo que llamamos la convergencia entre la supercomputación, esa capacidad masiva de calcular, y lo que llamamos la inteligencia artificial, la capacidad de desarrollar algoritmos profundos que, gracias a la supercomputación, se entrenan en cantidades masivas de datos.

    “La ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. Ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico.”

    Esta reflexión, que es muy conceptual, se puede ejemplificar con varios casos de interacciones donde el uso de estos “instrumentos” que llamamos supercomputadores es imprescindible. Y, teniendo en cuenta estas ideas, podría proporcionaros algún ejemplo de cosas que la ciencia es capaz de hacer gracias a estos instrumentos llamados supercomputadores. Ofreceré algunos ejemplos, empezando por uno del campo de la astronomía. En el BSC desarrollamos un proyecto, junto con la Agencia Espacial Europea, que tiene por objetivo observar todo lo que existe en la Vía Láctea y obtener información de cada objeto: la posición, la velocidad relativa, la luminosidad, la espectrografía, etc., a partir de los datos de una sonda llamada Gaia que orbita y cartografía la Vía Láctea. Debe tenerse en cuenta, de entrada, que la Vía Láctea contiene entre cien mil y doscientos mil millones de astros, lo que implica un reto científico y tecnológico de primer orden. Por tanto, podríamos empezar centrándonos en nuestro sistema solar, donde hay unos ciento cincuenta mil asteroides orbitando alrededor del Sol.

    Éste es un caso del que conocemos a la perfección las leyes que gobiernan el problema, las leyes que rigen el movimiento de los objetos en el sistema solar. Obviamente, es mecánica clásica, son leyes conocidas desde hace mucho tiempo. Pero conocer las leyes y ser capaz de resolverlas en un caso como éste, con tantos objetos involucrados, es otro diferente. El poder de las técnicas computacionales complementa (no sustituye) la labor científica experimental. Tratar ciento cincuenta mil objetos simultáneamente sólo es posible mediante la simulación computacional y la gestión de grandes bases de datos.

    Si bajamos a nuestro planeta, nos encontramos con nuevos casos de uso científico de la supercomputación. ¿Qué sabemos hoy de nuestro planeta? ¿Cómo cambia el clima, cómo evolucionará el clima en los próximos años y en las próximas décadas? Lo sabemos a nivel planetario gracias al uso de los supercomputadores y, cada vez más, podemos acercarnos y conocerlo a nivel continental, regional, urbano. Podemos trabajar con un ayuntamiento para simular la realidad de una ciudad para predecir qué va a pasar en función de cómo actuamos, de la misma manera que sabemos qué le va a pasar al Mediterráneo dentro de unas décadas. Todo esto, basado en la ciencia experimental y en las ecuaciones matemáticas que gobiernan el clima, no sería posible sin el apoyo de las técnicas computacionales.

    Déjeme proporcionar aún otro ejemplo relacionado con la salud humana, la medicina, la biología, el diseño de fármacos, la simulación de nuevas enzimas. En todos estos ámbitos experimentalmente se pueden hacer muchas cosas y, en nuestros laboratorios, hemos avanzado enormemente. Sin embargo, cada vez más, allá donde no llega un aparato experimental, llega la simulación computacional. Por ejemplo, con ambas técnicas, se puede simular la evolución de las células en un tumor en función de la intensidad del fármaco que se administra y comprobar si esto, experimentalmente, ocurre exactamente igual. Cada vez más, la investigación en salud avanza gracias a la combinación de modelos teóricos, la investigación experimental y clínica y las herramientas computacionales. La combinación de todo esto está abriendo puertas hasta ahora inimaginables.

    Déjeme ofrecer otro ejemplo extremadamente impresionante. Todos estamos entusiasmados últimamente con el ChatGPT y los modelos masivos de lenguaje. Sin embargo, en la misma línea de los grandes modelos de inteligencia artificial, para nosotros, seguramente, lo más espectacular es lo que ha realizado la empresa DeepMind con el programa AlphaFold. Se trata de un algoritmo que, de una sola vez -y disculpad si simplifico-, resuelve un problema biológico que estaba siendo investigado por toda la comunidad científica desde hacía cuarenta años: el problema del plegamiento de las proteínas. En una primera aproximación, el objetivo es ser capaces de saber cómo una proteína se pliega sobre sí misma (lo que en inglés se llama protein folding). Es extremadamente revolucionario lo que ha logrado DeepMind con esta IA, sobre todo porque ha alcanzado un porcentaje de éxito en la predicción del plegamiento de las proteínas que nunca nadie había logrado. Esto también deja entrever un gran reto: la explicabilidad del algoritmo no es obvia. Sabemos que lo hace bien, pero no comprendemos en profundidad por qué lo hace bien. Y éste es uno de los motivos por los que DeepMind, inmediatamente, ha abierto su algoritmo para que toda la comunidad científica internacional pueda interactuar con él, trabajar con él y pueda ayudar, con innovación abierta, a entender cómo funciona esto.

    Por tanto, desde la cosmología hasta el clima, pasando por la medicina o la biología, diversas áreas científicas están avanzando enormemente también gracias a la computación. La siguiente pregunta que podríamos hacernos es si este impacto se limita sólo a la ciencia o bien tiene repercusión en las empresas y en el mundo industrial. Para responder a esta pregunta fijémonos, en primer lugar, en el ordenador que está instalando Meta, la matriz de Facebook. No sabemos exactamente lo que están instalando, pero afirman que será el más potente del mundo. Lo sea o no, es probable que sea una máquina extremadamente potente y muy útil para sus planes de futuro con el metaverso y otros proyectos.

    Pero esto no sólo concierne a las grandes empresas tecnológicas, que uno ya imagina que están haciendo grandes inversiones en este campo. Hoy en día, esto afecta a casi todo lo relacionado con el mundo industrial de la ingeniería: la combustión, la aerodinámica, el sector aeroespacial, los gemelos digitales de la industria, simular cómo cambia la aerodinámica de un coche en diversas circunstancias, simular cómo quema un nuevo combustible que hemos diseñado en el laboratorio. Cada vez más, estas técnicas son cruciales para que las empresas mejoren su competitividad frente a los retos de esta naturaleza. O, dicho de otro modo, el uso de estas tecnologías da, a quien las utiliza, una ventaja competitiva muy importante.

    Está claro que esta tecnología es de una importancia crucial tanto para la ciencia como para la industria. Y es fácil concluir que algo importante para la ciencia y la industria lo es también desde el punto de vista de la geoestrategia.

    También podemos hablar de nuevo de la medicina y analizar el ejemplo de una compañía de dispositivos médicos como Medtronic, que prueba una nueva geometría o un nuevo material en un stent cardíaco. Esto sólo se podría hacer mediante experimentación animal, pero hacerlo en el laboratorio es extremadamente complicado por varias razones: por un lado, no escala, es decir, no es posible realizar cientos de pruebas diferentes en una escala de tiempo razonable; por otra parte, la necesaria experimentación animal presenta problemas éticos no menores. Sin embargo, este proceso de buscar nuevas configuraciones de un dispositivo médico sí se puede realizar computacionalmente. Si los métodos que se desarrollan y los supercomputadores disponibles lo permiten, se pueden simular las distintas opciones superando los límites del método experimental. De hecho, podemos decir que cada vez más el ensayo de nuevos dispositivos médicos incorporará estas tecnologías digitales, complementando el enfoque experimental. No tardaremos en ver ensayos clínicos que incorporen de forma masiva estas tecnologías y permitan realizar algunas fases in silico en vez de in vitro o in vivo.

    Me gustaría exponer también otros ámbitos donde la simulación numérica que permiten estos supercomputadores es útil a nivel industrial. He hablado de grandes compañías tecnológicas, empresas biomédicas, casos de uso industriales, etc. Me permito terminar los ejemplos con una imagen que quizá saben identificar fácilmente: se trata del Camp Nou, más concretamente, de una simulación numérica sobre cómo las personas se pueden mover por una instalación como ésta, dependiendo de las intervenciones que se hagan. Por tanto, somos capaces de simular desde asteroides moviéndose alrededor de una estrella hasta movimientos de un gran número de personas en torno a una instalación deportiva.

    Hora
    Tipo de publicación

    Textos Amigos del País

    Hora
    Data

    16-03-2023

    Muchas gracias señor Miquel Roca, presidente de Amics del País, primer teniente de alcalde, miembros de la junta de la SEBAP. Es un gran honor tener la oportunidad de estar aquí hoy, y no sólo por el maravilloso escenario, esta sala del Consell de Cent, sino también para poder compartir con vosotros algunas reflexiones que el señor Miquel Roca ya ha esbozado.

    Cuando uno debe hablar públicamente, como me ocurre a mí de vez en cuando a causa de mi trabajo, puede ser difícil hacerlo ante un público tan diverso, compuesto por personas con trayectorias profesionales impresionantes, familias orgullosas de sus hijos e hijas y jóvenes con un talento excepcional. Por tanto, no es sencillo ajustar el tono del discurso. Sin embargo, me dirigiré sobre todo a los más jóvenes, que me dará la libertad de ser, quizás no del todo preciso técnicamente, pero sí, divulgativo. Espero que los expertos presentes me disculpen.

    ‘No es que Barcelona pueda ser capital mundial a nivel científico-tecnológico, sino que Barcelona ya es capital, al menos a nivel europeo, de la supercomputación’

    Quisiera empezar profundizando un poco más en la idea fundamental que el señor Miquel Roca ya ha presentado sobre el rol de nuestra ciudad en el mundo. No es que Barcelona pueda ser (en condicional) una capital mundial a nivel científico-tecnológico, sino que quiero hablaros de un ámbito donde Barcelona ya es capital, al menos a nivel europeo. Me gustaría presentarles la realidad de esta ciudad en el ámbito de las tecnologías computacionales y digitales profundas.

    En primer lugar, me gustaría empezar explicándoos qué está pasando ahora mismo en el ámbito IA y las tecnologías digitales, en general, y por qué. Estos días, cuando entramos en Twitter o cualquier diario digital, vemos noticias sobre el chatGPT contínuamente. Quisiera explicaros, tecnológicamente, por qué ocurre esto, exactamente ahora, y por qué es fruto de una convergencia de tecnologías. En segundo lugar, me gustaría transmitirles un poco el impacto que esto tiene, no sólo, en la sociedad, la economía o los debates éticos, que hay muchos, sino en la actividad científica y cómo los científicos trabajan de forma diferente debido a esta convergencia digital. En tercer lugar, me gustaría explicarles que esto no sólo afecta a la ciencia, sino también a la industria y muchas empresas. Y, por supuesto, un tema que es importante para la ciencia y la industria tiene un impacto geopolítico muy claro. Por tanto, me gustaría hablaros del papel que creemos que puede jugar Europa, y en particular Barcelona, en esta carrera entre los grandes países del mundo para el control de la tecnología digital. Y, finalmente, quisiera discutir sobre el futuro, hacia dónde nos dirigimos y qué tecnologías llegarán posteriormente (o complementariamente) al dominio del silicio.

    La convergencia de las tecnologías digitales

    Permítanme empezar insistiendo en que seré técnicamente poco preciso, así que me disculpo con aquellos que saben más que yo, algunos presentes en esta sala. Dicho esto, empiezo con dos ejemplos con los que quiero mostrar hasta qué punto la tecnología de computación ha avanzado en las últimas décadas. Una es el ENIAC, uno de los primeros ordenadores instalados en Estados Unidos a finales de los años cuarenta y hasta mediados de los cincuenta del siglo pasado, en Pensilvania. La otra es el Frontier, actualmente el supercomputador reconocido como el más potente del mundo de acuerdo con el ranking del Top500, instalado por nuestros colegas de Oak Ridge en Estados Unidos, en un centro dependiente del Departamento de Energía del Gobierno estadounidense.

    Josep Maria Martorell a l

    El Frontier es el primer ordenador conocido que ha roto la barrera del exascale, es decir, la capacidad de realizar un millón de millones de millones (un trillón europeo) de operaciones matemáticas por segundo. Lo importante es que, en las siete décadas que separan estos dos ejemplos, existe una diferencia de aproximadamente dieciséis órdenes de magnitud. Y dieciséis órdenes de magnitud equivalen a un “1” seguido de dieciséis ceros. Y un “1” seguido de dieciséis ceros es algo que, no sé ustedes, pero yo no comprendo con profundidad. Un ‘1’ seguido de dieciséis ceros son diez mil millones de millones. ¿Alguien puede imaginar qué significa que una cosa sea diez mil millones de millones mayor que otra? Entramos en una zona en la que un cero más o un cero menos ya te hace perder un poco la capacidad de entender las cosas. El Frontier, pues, tal y como he mencionado antes, adecuadamente programada, es capaz de llegar al llamado exaflop, que significa que hace diez a la dieciocho, es decir, un millón de millones de millones de operaciones matemáticas por segundo.

    Yo no soy capaz de comprender qué significa que una máquina realice un millón de millones de millones de operaciones matemáticas cada segundo, pero sí puedo tratar de entender qué provoca esta inmensa capacidad de cálculo. La tecnología digital es probablemente la única tecnología humana que ha avanzado exponencialmente sin detenerse durante décadas. Esto significa, por ejemplo, que el ordenador portátil que lleva en la mochila o quizá el móvil que lleva en el bolsillo habría sido seguramente el ordenador más potente del mundo hace menos de treinta años. Es decir, que ustedes son capaces de hacer en casa lo que el ordenador más potente del mundo podía hacer hace tres décadas. Por tanto, si seguimos con esta tendencia, ¿qué podremos hacer con el dispositivo que llevamos en el bolsillo dentro de dos o tres décadas? Todo esto suponiendo, por supuesto, que seamos capaces de continuar con el mismo ritmo de crecimiento en los próximos años.

    Y esta es la primera pregunta que quisiera responder: ¿seremos capaces? Una mala noticia, no para los investigadores porque significa reto, es que cada vez nos cuesta más dar el siguiente salto. Habitualmente hablamos de saltos de mil en mil: tera, peta, exa, etc., con estos prefijos. Antes saltábamos mil veces cada ocho o diez años, después cada doce, después cada catorce. Ahora, si queremos llegar al siguiente nivel, que es lo que llamamos zettaescala, diez elevado a veintiuna operaciones matemáticas por segundo, no sabemos cuánto tardaremos porque el desafío tecnológico es de una magnitud como nunca antes se había visto. Pronto ya no podremos hacer transistores más pequeños. Ahora hay fábricas capaces de hacer transistores de tres milímetros, quizás veremos de dos milímetros, quizás algún día de un milímetro…, pero basta, son demasiado pocos átomos de silicio dispuestos allí dentro. Por tanto, no es nada evidente que a medio plazo seamos capaces de seguir evolucionando como hasta ahora con nuestras capacidades computacionales

    “Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses. Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplica por diez en un año, por cien en dos años, y así sucesivamente.”

    Ahora bien, alguien podría preguntar: ‘Vale, pero espere un momento, miles de millones de millones de operaciones matemáticas por segundo… Sí, pero, ¿realmente son necesarias? ¿Por qué queremos ordenadores aún más potentes que los que se están instalando? ¿Hay algún problema matemático, físico o de ingeniería que requiera tanta capacidad tecnológica?’. Lo ilustro con el ejemplo del procesamiento del lenguaje natural, esos modelos de lenguaje masivos que ocupan las noticias durante todo el día. Las redes neuronales que existen bajo estos modelos de lenguaje tienen miles de millones de parámetros para entrenar sobre enormes volúmenes de datos, lo que requiere unas capacidades computacionales enormes.

    Hasta hace diez años, la necesidad computacional se duplicaba cada dieciocho o veinticuatro meses, que esencialmente es lo que somos capaces de hacer poniendo más transistores dentro de un chip (siguiendo la ley de Moore). Actualmente, la cantidad de capacidad computacional necesaria comienza a duplicarse cada tres o cuatro meses. Y cualquier cosa que se duplica cada tres o cuatro meses se multiplicará por diez en un año, por cien en dos años, y así sucesivamente. No podemos seguir a ese ritmo. No hay tecnología humana hoy que sea capaz de seguir ese ritmo, aunque hay mucha demanda de problemas científicos, y no sólo científicos, que necesitan incrementos de capacidad computacional como éstos. Dejo para el final la respuesta a la pregunta de cómo lo haremos, pero de entrada sí, existen problemas reales que seguirán requiriendo mayor capacidad de cálculo.

    El impacto de esta convergencia en la ciencia y en la industria

    Así pues, la primera idea es poner de relieve esta explosión de capacidad computacional. A partir de ahí, la cuestión es: ¿cómo afecta a la ciencia todo esto?

    Quisiera empezar compartiendo una idea muy conceptual, pero que para mí es tremendamente importante. Desde hace siglos, la ciencia avanza siguiendo el método científico. Esto significa, entre otras cosas, la existencia de un diálogo continuo y fructífero entre la teoría y la experimentación. Existe un marco teórico, unas fórmulas o unas ecuaciones que nos describen un cierto fenómeno natural. Luego, experimento a la realidad y verifico si lo que observo es coherente con lo que predice la teoría. Si la teoría es válida, la experimentación coincide con lo que predice ésta. Entonces, cada vez que aparece un telescopio, un microscopio, un secuenciador, un acelerador de partículas, que me permite mirar más lejos, más adentro, más cerca, llegar a lugares a los que nunca había llegado, todo esto me permite hacer una experimentación diferente. Y allí, seguramente, descubriré algo que no concuerda con la teoría en vigor y, por tanto, podré dar un paso adelante como científico, descubriendo nuevos fenómenos que no encajan con la teoría hasta entonces considerada válida. A continuación, vuelvo al marco teórico, lo rectifico, lo amplío, lo modifico y la ciencia avanza. La ciencia avanza en ese continuo diálogo entre el marco teórico y el marco experimental.

    Mi mensaje, por tanto, es que la ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. ¿Y qué relación tiene esto con la capacidad computacional? Pues que ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico. Herramientas que permiten, en vez de experimentar con la realidad, simularla. Habrá casos en los que experimentar con la realidad será la mejor opción, sin duda. Habrá casos, en cambio, en los que simular la realidad será la única posibilidad. Porque si investigas el cambio climático y quieres predecir la evolución del clima, la simulación computacional probablemente sea la única forma de hacerlo. Y si trabajas con plegamientos de proteínas, la inteligencia artificial será una gran aliada para darte marcos teóricos que expliquen o predigan el comportamiento de una determinada proteína.

    El consenso de la comunidad científica dice hoy que combinar la experimentación con la simulación es una buena forma de hacer avanzar la ciencia. Por tanto, la segunda idea que expongo aquí es que, en casi todas las áreas de conocimiento científico (podemos hablar de la ingeniería, la química, la física, el clima, la aerodinámica, los materiales, etc.), cada vez más, la computación masiva y la experiencia se combinan para hacer avanzar a la ciencia más eficazmente. Y esto es porque hemos llegado a lo que llamamos la convergencia entre la supercomputación, esa capacidad masiva de calcular, y lo que llamamos la inteligencia artificial, la capacidad de desarrollar algoritmos profundos que, gracias a la supercomputación, se entrenan en cantidades masivas de datos.

    “La ciencia lleva siglos progresando gracias al método científico, que se basa en parte en la experimentación natural y en disponer de instrumentos o aparatos que me permiten observar lo que no podía observar antes de la creación de estos dispositivos. Ahora disponemos de nuevos dispositivos llamados supercomputadores, que son herramientas para hacer avanzar el conocimiento científico.”

    Esta reflexión, que es muy conceptual, se puede ejemplificar con varios casos de interacciones donde el uso de estos “instrumentos” que llamamos supercomputadores es imprescindible. Y, teniendo en cuenta estas ideas, podría proporcionaros algún ejemplo de cosas que la ciencia es capaz de hacer gracias a estos instrumentos llamados supercomputadores. Ofreceré algunos ejemplos, empezando por uno del campo de la astronomía. En el BSC desarrollamos un proyecto, junto con la Agencia Espacial Europea, que tiene por objetivo observar todo lo que existe en la Vía Láctea y obtener información de cada objeto: la posición, la velocidad relativa, la luminosidad, la espectrografía, etc., a partir de los datos de una sonda llamada Gaia que orbita y cartografía la Vía Láctea. Debe tenerse en cuenta, de entrada, que la Vía Láctea contiene entre cien mil y doscientos mil millones de astros, lo que implica un reto científico y tecnológico de primer orden. Por tanto, podríamos empezar centrándonos en nuestro sistema solar, donde hay unos ciento cincuenta mil asteroides orbitando alrededor del Sol.

    Éste es un caso del que conocemos a la perfección las leyes que gobiernan el problema, las leyes que rigen el movimiento de los objetos en el sistema solar. Obviamente, es mecánica clásica, son leyes conocidas desde hace mucho tiempo. Pero conocer las leyes y ser capaz de resolverlas en un caso como éste, con tantos objetos involucrados, es otro diferente. El poder de las técnicas computacionales complementa (no sustituye) la labor científica experimental. Tratar ciento cincuenta mil objetos simultáneamente sólo es posible mediante la simulación computacional y la gestión de grandes bases de datos.

    Si bajamos a nuestro planeta, nos encontramos con nuevos casos de uso científico de la supercomputación. ¿Qué sabemos hoy de nuestro planeta? ¿Cómo cambia el clima, cómo evolucionará el clima en los próximos años y en las próximas décadas? Lo sabemos a nivel planetario gracias al uso de los supercomputadores y, cada vez más, podemos acercarnos y conocerlo a nivel continental, regional, urbano. Podemos trabajar con un ayuntamiento para simular la realidad de una ciudad para predecir qué va a pasar en función de cómo actuamos, de la misma manera que sabemos qué le va a pasar al Mediterráneo dentro de unas décadas. Todo esto, basado en la ciencia experimental y en las ecuaciones matemáticas que gobiernan el clima, no sería posible sin el apoyo de las técnicas computacionales.

    Déjeme proporcionar aún otro ejemplo relacionado con la salud humana, la medicina, la biología, el diseño de fármacos, la simulación de nuevas enzimas. En todos estos ámbitos experimentalmente se pueden hacer muchas cosas y, en nuestros laboratorios, hemos avanzado enormemente. Sin embargo, cada vez más, allá donde no llega un aparato experimental, llega la simulación computacional. Por ejemplo, con ambas técnicas, se puede simular la evolución de las células en un tumor en función de la intensidad del fármaco que se administra y comprobar si esto, experimentalmente, ocurre exactamente igual. Cada vez más, la investigación en salud avanza gracias a la combinación de modelos teóricos, la investigación experimental y clínica y las herramientas computacionales. La combinación de todo esto está abriendo puertas hasta ahora inimaginables.

    Déjeme ofrecer otro ejemplo extremadamente impresionante. Todos estamos entusiasmados últimamente con el ChatGPT y los modelos masivos de lenguaje. Sin embargo, en la misma línea de los grandes modelos de inteligencia artificial, para nosotros, seguramente, lo más espectacular es lo que ha realizado la empresa DeepMind con el programa AlphaFold. Se trata de un algoritmo que, de una sola vez -y disculpad si simplifico-, resuelve un problema biológico que estaba siendo investigado por toda la comunidad científica desde hacía cuarenta años: el problema del plegamiento de las proteínas. En una primera aproximación, el objetivo es ser capaces de saber cómo una proteína se pliega sobre sí misma (lo que en inglés se llama protein folding). Es extremadamente revolucionario lo que ha logrado DeepMind con esta IA, sobre todo porque ha alcanzado un porcentaje de éxito en la predicción del plegamiento de las proteínas que nunca nadie había logrado. Esto también deja entrever un gran reto: la explicabilidad del algoritmo no es obvia. Sabemos que lo hace bien, pero no comprendemos en profundidad por qué lo hace bien. Y éste es uno de los motivos por los que DeepMind, inmediatamente, ha abierto su algoritmo para que toda la comunidad científica internacional pueda interactuar con él, trabajar con él y pueda ayudar, con innovación abierta, a entender cómo funciona esto.

    Por tanto, desde la cosmología hasta el clima, pasando por la medicina o la biología, diversas áreas científicas están avanzando enormemente también gracias a la computación. La siguiente pregunta que podríamos hacernos es si este impacto se limita sólo a la ciencia o bien tiene repercusión en las empresas y en el mundo industrial. Para responder a esta pregunta fijémonos, en primer lugar, en el ordenador que está instalando Meta, la matriz de Facebook. No sabemos exactamente lo que están instalando, pero afirman que será el más potente del mundo. Lo sea o no, es probable que sea una máquina extremadamente potente y muy útil para sus planes de futuro con el metaverso y otros proyectos.

    Pero esto no sólo concierne a las grandes empresas tecnológicas, que uno ya imagina que están haciendo grandes inversiones en este campo. Hoy en día, esto afecta a casi todo lo relacionado con el mundo industrial de la ingeniería: la combustión, la aerodinámica, el sector aeroespacial, los gemelos digitales de la industria, simular cómo cambia la aerodinámica de un coche en diversas circunstancias, simular cómo quema un nuevo combustible que hemos diseñado en el laboratorio. Cada vez más, estas técnicas son cruciales para que las empresas mejoren su competitividad frente a los retos de esta naturaleza. O, dicho de otro modo, el uso de estas tecnologías da, a quien las utiliza, una ventaja competitiva muy importante.

    Está claro que esta tecnología es de una importancia crucial tanto para la ciencia como para la industria. Y es fácil concluir que algo importante para la ciencia y la industria lo es también desde el punto de vista de la geoestrategia.

    También podemos hablar de nuevo de la medicina y analizar el ejemplo de una compañía de dispositivos médicos como Medtronic, que prueba una nueva geometría o un nuevo material en un stent cardíaco. Esto sólo se podría hacer mediante experimentación animal, pero hacerlo en el laboratorio es extremadamente complicado por varias razones: por un lado, no escala, es decir, no es posible realizar cientos de pruebas diferentes en una escala de tiempo razonable; por otra parte, la necesaria experimentación animal presenta problemas éticos no menores. Sin embargo, este proceso de buscar nuevas configuraciones de un dispositivo médico sí se puede realizar computacionalmente. Si los métodos que se desarrollan y los supercomputadores disponibles lo permiten, se pueden simular las distintas opciones superando los límites del método experimental. De hecho, podemos decir que cada vez más el ensayo de nuevos dispositivos médicos incorporará estas tecnologías digitales, complementando el enfoque experimental. No tardaremos en ver ensayos clínicos que incorporen de forma masiva estas tecnologías y permitan realizar algunas fases in silico en vez de in vitro o in vivo.

    Me gustaría exponer también otros ámbitos donde la simulación numérica que permiten estos supercomputadores es útil a nivel industrial. He hablado de grandes compañías tecnológicas, empresas biomédicas, casos de uso industriales, etc. Me permito terminar los ejemplos con una imagen que quizá saben identificar fácilmente: se trata del Camp Nou, más concretamente, de una simulación numérica sobre cómo las personas se pueden mover por una instalación como ésta, dependiendo de las intervenciones que se hagan. Por tanto, somos capaces de simular desde asteroides moviéndose alrededor de una estrella hasta movimientos de un gran número de personas en torno a una instalación deportiva.

  • |

    Acto de entrega de los premios Amics del País 2023

    Acto de entrega de los premios Amics del País 2023

    16-03-2023

    Hora
    Hora

    18:30

    Hora
    Lugar

    Saló de Cent de l’Ajuntament de Barcelona, Pl. Sant Jaume, 1
    08003 Barcelona

    Agenda 16-03-2023 Amics del País y el Ayuntamiento de Barcelona presiden un año más el acto de entrega de los premios Amics del País, un firme compromiso con la excelencia investigadora de nuestro país y con la igualdad de oportunidades. Pronunciará el tradicional discurso de apertura el Sr. Josep Maria Martorell, director asociado del Barcelona…

    Amics del País y el Ayuntamiento de Barcelona presiden un año más el acto de entrega de los premios Amics del País, un firme compromiso con la excelencia investigadora de nuestro país y con la igualdad de oportunidades. Pronunciará el tradicional discurso de apertura el Sr. Josep Maria Martorell, director asociado del Barcelona Supercomputing Center (BSC), bajo el título ‘L’impacte de la supercomputació a la ciència i a la societat‘.

    Josep Maria Martorell es licenciado en Ciencias Físicas por la Universidad de Barcelona y doctor en Ciencias de la Computación por la Universidad Ramon Llull. Tiene una larga carrera profesional en el campo de la gestión académica y científica, tanto en instituciones universitarias como gubernamentales, siendo director general de Investigación de la Generalitat de Catalunya de 2011 a 2016.

    Para Josep Maria Martorell, Barcelona es una ciudad con vibrante tejido tecnológico y científico, y ahora, con la instalación del primer computador cuántico del sur de Europa en el BSC, tiene la oportunidad de liderar la recuperación de la soberanía tecnológica europea.

    Durante el acto, el presidente de Amics del País, Miquel Roca Junyent, hará entrega de 15 becas de movilidad para jóvenes investigadores de menos de 35 años, con el objetivo de promover el desarrollo de la investigación catalana en todo el mundo. Asimismo, también se entregará el premio Llegat Valldejuli, galardón dotado en 20.000 euros a una entidad del tercer sector que más haya destacado en la atención a los colectivos más vulnerables.

    El acto tendrá lugar el jueves 16 de marzo a las 18h30 en el Saló de Cent del Ayuntamiento de Barcelona y es necesaria inscripción previa a través del formulario.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • | | |

    ‘Identificació personal i protecció de dades’ | Debate Amics del País con Genís Roca y Simona Levi

    ‘Identificació personal i protecció de dades’ | Debate Amics del País con Genís Roca y Simona Levi

    Hora
    Tipo de publicación

    Resumen de actividades

    Hora
    Data

    15-03-2023

    Hace cuatrocientos mil años que los humanos convivimos con un cierto dominio del fuego y todavía hoy nos quemamos. A pesar de los riesgos, no queremos prescindir de éste. Utilizando el paralelismo del fuego, Genís Roca, presidente de la Fundació PuntCat, reivindicó la digitalización, a pesar de reconocer sus amenazas, en el debate “Identificació personal…

    ‘El 92% de la digitalización europea se hace bajo el control y la opacidad de las big tech 

    ‘Debemos volver a discutir la arquitectura social pero no tenemos interlocutores legitimados’ 

    ‘Europa debe configurar una agenda para los próximos años’

    “Europa debe comprar Firefox” 

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • | |

    ‘Identificació personal i protecció de dades’ | Debate Amics del País con Genís Roca y Simona Levi

    ‘Identificació personal i protecció de dades’ | Debate Amics del País con Genís Roca y Simona Levi

    15-03-2023

    Hora
    Hora

    19:00

    Hora
    Lugar

    Seu Social Amics del País, C/ Basea8 1r 1a
    08003 Barcelona

    Agenda 15-03-2023 El Cercle per al Coneixement de Amics del País organiza, dentro del ciclo ‘Tecnología y sociedad‘, la mesa redonda ‘Identificación personal y protección de datos‘ con Genís Roca, presidente de la Fundación PuntCat; y Simona Levi, fundadora de Xnet. Presentará y moderará el acto Miquel Roca Junyent, presidente de Amics del País. En una sociedad cada vez más…

    El Cercle per al Coneixement de Amics del País organiza, dentro del ciclo ‘Tecnología y sociedad‘, la mesa redonda ‘Identificación personal y protección de datos‘ con Genís Roca, presidente de la Fundación PuntCat; y Simona Levi, fundadora de Xnet. Presentará y moderará el acto Miquel Roca Junyent, presidente de Amics del País.

    En una sociedad cada vez más hiperconectada, la adecuada gestión y preservación de los datos personales y la privacidad de las personas son claves para aprovechar las oportunidades democratizadoras del avance tecnológico. Sin embargo, el cambio de modelo al que empuja la digitalización no está exenta de riesgos. De los retos que tenemos delante hablamos con dos personas que tienen una larga trayectoria profesional en este campo.

    Genís Roca es arqueólogo, fundador de Roca Salvatella y comunicador que desde hace tiempo vincula los desafíos digitales y de negocio con las inquietudes culturales y sociales. Con este objetivo, ha ocupado distintos cargos de responsabilidad en entidades tanto privadas como públicas. Es presidente de la asociación Confluencia.cat y miembro de la junta directiva del RACC y de los patronatos de Fundació Enciclopèdia Catalana, Fundació Ship2B y Fundació Escoles Garbí. También es miembro de los consejos asesores de la Generalitat de Catalunya, del Ayuntamiento de Barcelona y de la Mobile World Capital, entre otros. Colabora habitualmente con Catalunya Ràdio, Rac 1 y es socio de JotDown y Crític y miembro del Consejo Editorial de Nació Digital y del Consejo de Redacción de la revista Barcelona Metròpolis.

    Simona Levi es directora de teatro, dramaturga y activista tecnopolítica focalizada en la renovación de la democracia en la era digital y el uso de las herramientas digitales para la organización, comunicación y acción democrática. Es divulgadora en medios de comunicación y asesora de organizaciones ciudadanas e instituciones como la Secretaría de Estado de Digitalización e Inteligencia Artificial del Gobierno de España, la Dirección de Sociedad Digital y la Dirección General de Administración Digital de la Generalitat de Catalunya y la Bithabitat, la Plataforma de Innovación Urbana del Ayuntamiento de Barcelona, etc.

    El debate tendrá lugar el miércoles, 15 de marzo, a las 19h en la sede social de Amics del País (C/ Basea, 8 1º 1ª). El aforo es limitado y las reservas serán por estricto orden de inscripción a través del formulario.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • |

    Memoria anual 2022

    Memoria anual 2022

    Hora
    Tipo de publicación

    Memorias anuales

    Hora
    Data

    01-03-2023

    Un año más os presentamos la memoria de actividades de la Societat Econòmica Barcelonesa d’Amics del País, y este año de manera especial, ya que es la memoria de los 200 años de historia de nuestra entidad, una historia humilde pero destacada de ideales y acciones, de contribuciones importantes y de iniciativas duraderas y, sobretodo,…

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • | | |

    ‘Son i envelliment saludable. Anys a la vida i vida als anys’ | Debate Amics del País con el Dr. Antoni Esteve

    ‘Son i envelliment saludable. Anys a la vida i vida als anys’ | Debate Amics del País con el Dr. Antoni Esteve

    Comisión Salud

    Hora
    Tipo de publicación

    Resumen de actividades

    Hora
    Data

    22-02-2023

    Dormir entre siete y nueve horas diarias y tener una buena calidad del sueño en la etapa adulta es imprescindible para conseguir un envejecimiento saludable. Éste es el mensaje que transmitió el Dr. Antoni Esteve, fundador de AdSalutem Institut, presidente del Institut Guttmann y académico numerario de las Reales Academias de Medicina y Farmacia de…

    ‘El sueño dedicado a partir de la edad adulta determina la expectativa y la calidad de vida’, afirmó el Dr. Esteve, porque es mientras dormimos que el cerebro desencadena una serie de mecanismos que le permiten velar por el buen funcionamiento del organismo, por un lado, y reparar el tejido neuronal deteriorado y combatir el envejecimiento, por otro. En este sentido, para que el cerebro pueda desarrollar de forma óptima sus funciones, el fundador de Adsalutem explicó que el sueño se divide en dos etapas diferenciadas, de 90 minutos cada una, que se suceden, una tras otra, y se repiten hasta un máximo de cinco veces durante toda la noche.

    ‘El sueño dedicado a partir de la edad adulta determina la expectativa y la calidad de vida’

    La primera etapa es la REM (Rapid Eyes Movement), donde el cerebro se dedica a trabajar la memoria, la respuesta emocional, la personalidad del individuo y la plasticidad cerebral, encargada de la auto reparación del tejido neuronal dañado y, por tanto, de prevenir el deterioro. La segunda etapa es la fase NREM, de sueño profundo, donde el cerebro se encarga de fortalecer el sistema inmunológico, que al mismo tiempo ‘nos protege de agentes externos e identifica y bloquea desórdenes del propio cuerpo’. De esta forma, es fácil deducir que el tiempo y la calidad del sueño están íntimamente relacionados con el estado de salud.

    Debat Amics del País amb el Dr. Antoni Guerrero

    Relacionado con esto, el Dr. Esteve mencionó algunas de las enfermedades que podrían prevenirse con una buena gestión del sueño: el cáncer, las enfermedades autoinmunes, la diabetes, la obesidad, las enfermedades cardiovasculares, los trastornos mentales y las enfermedades neurodegenerativas, como por ejemplo el Parkinson y el Alzheimer. En este sentido, la Fundación Pascual Maragall ya sensibiliza sobre la importancia del sueño en las primeras fases de la demencia. “Nos estamos gastando muchos millones de euros en desarrollar nuevos fármacos para tratar el Alzheimer y, actualmente, sabemos que incorporando buenos hábitos de sueño ya estamos luchando para prevenirla”, sentenció el académico numerario de las Reales Academias de Medicina y Farmacia de Catalunya.

    El 30% de la población española tiene trastornos del sueño y el 10% duerme por debajo de las 6 horas

    Sin embargo, mientras que la ciencia confirma de forma categórica la importancia del sueño como determinante en la salud y la calidad de vida de las personas, la Sociedad Española del sueño alerta de que el 30% de la población española tiene trastornos del sueño, el 10% duerme por debajo de las 6 horas y que los horarios que tienen los españoles se alejan del tiempo de luz, alterando el ritmo circadiano y, consecuentemente, la fisiología del sueño.

    Dr. Antoni Esteve, fundador d

    Para conseguir una buena calidad del sueño, el Dr. Esteve enumeró algunos consejos enfocados a gestionar la actividad diurna de acuerdo con las ‘necesidades del cerebro’. Es decir, para que el cerebro pueda desarrollar sus funciones de forma óptima durante la noche, éste “establece una secuencia de hechos orgánicos y regulares que responden a una planificación cerebral” de acuerdo con el ritmo circadiano. Por tanto, “todo lo que hacemos durante el día debe ser cuidadoso con esta planificación orgánica”, afirmó.

    Esto significa tener buenas rutinas y hábitos de alimentación saludables, practicar actividad física diaria, cuidar la habitación donde dormimos (la ventilación, el colchón, los tejidos de las sábanas, la temperatura, etc.), evitar las pantallas antes de acostarse (porque la luz que emiten confunden el cerebro y retrasan la segregación de melatonía, la hormona del sueño), limitar el uso de la cama para dormir, tener una buena gestión y control emocional y, finalmente, hacer cada día una siesta que “no exceda de veinte minutos”, puntualizó el Dr. Esteve. Sobre este último punto, defendió que las siestas sirven para “resetear el cerebro y permitir que éste revise todo lo que ha hecho durante la víspera de acuerdo con su planificación orgánica” y llegar por la noche en condiciones óptimas para conseguir un sueño de calidad.

    Dr. Antoni Guerrero i Dr. Antoni Esteve

    Consumo excesivo en España de fármacos con actividad sobre el sistema central

    Además, el fundador de AdSalutem alertó del consumo excesivo en España de fármacos con actividad sobre el sistema central, como ansiolíticos, hipnóticos, etc. “Son productos maravillosos porque su actividad farmacológica es muy efectiva, pero su consumo sostenido en el tiempo altera de forma sustancial la arquitectura del sueño, el funcionamiento lógico del cerebro y esto tiene consecuencias clínicas negativas”, sentenció. Y añadió que es necesario ponerse en manos de profesionales a la hora de corregir los problemas relacionados con el sueño y sus trastornos.

    En conclusión, las sociedades occidentales verán incrementar la esperanza de vida de forma significativa en un futuro muy cercano, tensionando aún más los sistemas de salud. Incluir la importancia del sueño dentro de la práctica clínica, por un lado, y tomar conciencia del papel relevante del sueño en la calidad de vida y el envejecimiento saludable, por otro, puede permitir paliar algunos de estos efectos. ‘Si dormimos mejor, viviremos más años y mejor’, concluyó el Dr. Esteve.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • | |

    ‘Son i envelliment saludable. Anys a la vida, vida als anys’ | Debate Amics del País con el Dr. Antoni Esteve

    ‘Son i envelliment saludable. Anys a la vida, vida als anys’ | Debate Amics del País con el Dr. Antoni Esteve

    Comisión Salud

    22-02-2023

    Hora
    Hora

    19:00

    Hora
    Lugar

    Caixafòrum Macaya, Pg Sant Joan 108
    08037 Barcelona

    Agenda Comisión Salud 22-02-2023 El sueño es un determinante de salud y bienestar. Hoy ya no podemos distraernos. El conocimiento científico revela el papel destacado que desempeña el cerebro mientras dormimos: vela por un óptimo funcionamiento del organismo y cuida la personalidad de cada uno de nosotros en capacidades y competencias. En este sentido, cuanto…

    El sueño es un determinante de salud y bienestar. Hoy ya no podemos distraernos. El conocimiento científico revela el papel destacado que desempeña el cerebro mientras dormimos: vela por un óptimo funcionamiento del organismo y cuida la personalidad de cada uno de nosotros en capacidades y competencias. En este sentido, cuanto más respetemos nuestro descanso, más y mejor viviremos. Además, el sueño es un protagonista destacado en la lucha contra la enfermedad y, por tanto, el sueño se convierte en una oportunidad única para gestionar nuestro propio envejecimiento saludable.

    Para hablar de todo lo que la ciencia ha descubierto sobre el sueño como herramienta terapéutica de primera magnitud, la comisión de Salud de Amics del País organiza el debate “Son i envelliment saludable. Anys a la vida, vida als anys” con el Dr. Antoni Esteve, fundador de AdSalutem Institut, presidente del Institut Guttmann y académico numerario de las Reales Academias de Medicina y Farmacia de Cataluña.

    Antoni Esteve es doctor en farmacia por la Universidad de Barcelona. Entre 2005 y 2012 fue presidente de Esteve y hoy preside el AdSalutem Institute for Healthy Sleep. Durante su trayectoria profesional, siempre ha estado comprometido con la investigación, lo que le llevó a presidir la Fundación Catalana para la Investigación y la Innovación en 2011. También fue presidente del Banco de Sangre y Tejidos durante diez años (2003- 2013) y, actualmente, es miembro del Comité Científico de la Agencia Estatal de Investigación y presidente de la Comisión de Investigación de la UB.

    El acto estará presentado por el presidente de la comisión de Salud, el Dr. Antoni Guerrero, y tendrá lugar en el Caixafòrum Macaya el miércoles 22 de febrero a las 19h. El aforo es limitado.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • | |

    ‘La universitat i la LOSU, oportunitats i limitacions’ | Barcelona Tribuna con Joan Subirats Humet y Joaquim Nadal Farreras

    ‘La universitat i la LOSU, oportunitats i limitacions’ | Barcelona Tribuna con Joan Subirats Humet y Joaquim Nadal Farreras

    Hora
    Tipo de publicación

    Resumen de actividades

    Hora
    Data

    20-02-2023

    A finales de este mes entrará en vigor la nueva ley universitaria, la LOSU. Por este motivo, Barcelona Tribuna de Amics del País organizó, el pasado 20 de febrero, el debate ‘La universitat i la LOSU, oportunitats i limitacions’ con el ministro de Universidades del Gobierno de España, Joan Subirats Humet; y el consejero de…

    Necesidad de poner al día la universidad

    Joan Subirats inició su intervención definiendo la LOSU como una ‘necesidad de poner al día la universidad’. La última ley universitaria se aprobó en 2001. Durante estos años, ‘la transformación social y tecnológica ha sido espectacular’ y el ‘sistema debe adaptarse para encarar los nuevos desafíos’, afirmó.

    Joan Subirats i Humet a Barcelona Tribuna d

    Es con este objetivo que la LOSU ‘facilita la internacionalización‘ alargando el permiso de residencia de los estudiantes extranjeros, ‘refuerza la docencia‘ con un curso de formación y ‘simplifica la carrera académica’ para que, a los 35 años, aproximadamente, ya se pueda disponer de una posición permanente en la universidad. La ley también ‘bloquea el aumento de las tasas universitarias‘, aunque el ministro reconoció que siguen ‘estando por encima de las europeas’, introduce las microcredenciales para flexibilizar la formación a lo largo de la vida, incorpora la perspectiva de género y elementos de inclusión social y reduce la precariedad laboral, explicó Joan Subirats.

    Además, el ministro reconoció que la LOSU es ‘una ley complicada’ porque debe aceptar la situación europea, la descentralización del estado y la autonomía de las universidades. Sin embargo, Joan Subirats se mostró satisfecho con la nueva norma porque defiende ‘la pluralidad del sistema‘, evita la lógica homogeneizadora y trabaja en favor de la diversidad, que es ‘una riqueza del país’.

    LA LOSU,“un punto de partida y no de llegada”

    A su vez, Joaquim Nadal inició su intervención afirmando que la LOSU es ‘un punto de partida’ y no de llegada, ya que ‘podemos ir mucho más lejos’. Sin embargo, reconoce que ‘la ley hace un esfuerzo de equilibrio notable’ pese a ‘quedarse a medio camino’ en cuanto al reconocimiento de la pluralidad y diversidad de modelos.

    Joaquim Nadal i Farreras a Barcelona Tribuna d

    Además, el conseller lamentó que la nueva ley universitaria ‘no resuelve la falta de docentes permanentes’, el 53% de los cuales se jubilará en los próximos 8 años. Por otra parte, alertó de que la aplicación de la LOSU ‘generará disfunciones que habrá que resolver de forma inmediata’, sobre todo en relación al personal laboral. A esta qüestión, el ministro respondió que se han introducido enmiendas para facilitar la transición hacia la nueva normativa, ya que se entiende que la LOSU genera ‘un cierto sacudido del sistema’, aseguró.

    Relacionado con las limitaciones de las horas de los profesores asociados, el conseller de Investigación y Universidades también destacó el coste que esto implica y reclamó “una solución financiera” para resolver esta cuestión. ‘Si una ley paraguas del estado crea necesidades añadidas sobre el sistema’, ésta ‘debería venir acompañada de un pan bajo el brazo’, sentenció.

    Reforma de la LUC

    A modo de conclusión, Joaquim Nadal reclamó la necesidad de una ‘reflexión conceptual a fondo‘ sobre el futuro del sistema universitario y anunció que, ‘en el panorama actual’, Catalunya ‘no tendrá más remedio que emprender la reforma de la LUC (Llei d’Universitats de Catalunya) para dotar de “una nueva virtualidad y coherencia” al sistema.

    Barcelona Tribuna amb Joan Subirats i Joaquim Nadal

    En el turno de preguntas, el periodista de La Vanguardia Enric Sierra, encargado de moderar el debate, expuso la inquietud sobre el retraso en las homologaciones, lo que comporta trabas en el proceso de internacionalización del sistema universitario. En este sentido, el ministro explicó que en noviembre se aprobó un Decreto para agilizar esta cuestión y también anunció que el ministerio de Hacienda y Función Pública ha reforzado con 70 nuevas personas como “fuerza de choque” para reducir la “montañade expedientes que tenemos atrasados”.

    Infrafinanciación sostenida del sistema universitario

    Por su parte, el rector de la UPC, Daniel Crespo, denunció la infrafinanciación sostenida del sistema universitario y reclamó ‘consenso para trabajar y mejorar’ este déficit. En esta misma línea se expresó el ministro que, pese a afirmar que “estamos recuperando los niveles de financiación de 2009” y que la LOSU prevé un aumento de 2.500 millones de euros (1% del PIB), reclamó más esfuerzo para ”generar alianzas” con el territorio y el sector.

    Miquel Roca i Junyent i Joan Subirats a Barcelona Tribuna d

    Por su parte, el conseller Nadal respondió que ‘el gobierno de la Generalitat debería comprometer un nuevo modelo de financiación para las universidades de Catalunya‘, situando un horizonte, como mínimo, de cuatro años y con contratos programa, para asegurar un incremento razonable de recursos en el sistema. ‘Me parece de justicia’, sentenció. Eso sí, no perdió la ocasión para denunciar la falta de financiación por parte del estado.

    Miquel Roca Junyent clausuró el acto, celebrado en el Caixafòrum Macaya, al que asistieron personalidades destacadas del mundo económico y universitario, como el presidente del Consejo Económico y Social de España (CES), Antón Costas, y los rectores de las universidades del país. Durante su discurso, el presidente de Amics del País asumió el ‘compromiso solemne’ de la entidad a sumarse al consenso para pedir que se incremente el presupuesto de las universidades.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos