Autor: Victor Canivell Cretchley

  • | |

    LA ÉTICA Y LA CIENCIA

    LA ÉTICA Y LA CIENCIA

    Hora
    Tipo de publicación

    Resumen de actividades

    Hora
    Data

    09-12-2013

    Víctor Canivell, Presidente del Consejo de Administración de Integromics, empresa del sector biotecnológico, analiza cómo evoluciona la ética debido a los cambios que suponen los avances científicos, por un lado, y la ética que vertebra el desarrollo científico (cómo se hace la ciencia), por el otro. «La interacción de la ética y la ciencia inciden…

    La ética trasciende todo lo que hacemos, por lo que sin duda incide también en cómo hacemos la ciencia. Entendemos por ciencia el trabajo de descubrir cómo funciona el universo, cuáles son sus leyes de funcionamiento, cómo las podemos modelar, y en definitiva cómo podemos prever mejor el futuro. Los avances de la ciencia nos permiten aprovechar mejor los recursos naturales a través de las nuevas tecnologías a las que da lugar. La tecnología es la consecuencia práctica de la ciencia. La tecnología marca el cómo podemos vivir en sus aspectos prácticos (que se modula por la realidad de la economía); y la ciencia marca el cómo entendemos el mundo y nuestra posición en el mismo (en contraste y diálogo constante con la filosofía y la religión). Y en ambos casos, ciencia y tecnología, hemos de ver cómo conviven y cómo interaccionan con la ética. Nos vamos a centrar aquí en un par de dimensiones de este binomio “ciencia + ética”: 1) cómo aplicamos los resultados de la ciencia a través de la tecnología y cómo incide en ello la ética, y 2) cómo se hace la ciencia, cómo se desarrolla y cómo incide la ética en este proceso. Es un lugar común decir que la ciencia no es “ni buena ni mala” ya que, lo que es, es la constatación de nuestro modelo mental del universo. Se aventuran unos principios básicos y unas hipótesis matemáticas del modelo, se calculan sus proyecciones en situaciones prácticas y se miden dichas cantidades en la realidad. Si concuerdan y son repetibles, nos convencemos de que el modelo es adecuado, es decir, refleja adecuadamente la realidad en las circunstancias medidas. Con el tiempo dichos modelos abarcan cada vez más ámbitos de la realidad, de lo más sencillo a lo más complejo, de los componentes más básicos de la materia al universo astronómico, de los materiales inertes a los cuerpos vivos, de la estructura básica de la vida a todo el entorno cambiante del individuo y de su sociedad – y cada vez con más precisión. Realmente es una actividad apasionante. Pero saber es poder. Y la ética de cada cual es la que dictará la manera de cómo se aplican dichos conocimientos y las tecnologías correspondientes. La informática, las comunicaciones e internet nos han facilitado muchísimo la vida, nos dan acceso a mucha más información de manera mucho más rápida y económica – pero también pueden usarse para realizar ataques destructivos contra la privacidad, contra las instituciones financieras, y en un mundo del “internet de las cosas”, contra las infraestructuras físicas etc. Por ello hemos de dotarnos de unas reglas de convivencia, de unas leyes que reflejen el equilibrio adecuado entre la libertad de uso de las tecnologías con la protección necesaria de las personas y las instituciones que nos hemos dado. Dicho equilibrio adopta diferentes formas según el entorno social en que se desarrolla, y por tanto de la ética imperante. Encontrar y acordar dichos equilibrios se hace más difícil cuánto más rápido sea la evolución de la tecnología, y por tanto del status quo de lo que es económicamente factible para la mayoría de la sociedad. Un caso claro es la explosión tecnológica hasta nuestros días de las tecnologías de la información y de internet. En la base de dicha explosión está el descubrimiento de los semiconductores y la ciencia de los materiales. Esta revolución ha colapsado muchos de los modelos productivos y económicos de hace pocas décadas, a la vez que ha abierto un sinfín de nuevas oportunidades. La información está al alcance de todos – o de casi todos. Las situaciones planteadas por la defensa de los derechos de autor de productos digitalizables (como la literatura, la música, el video y el cine), por el impacto de Wikileaks y, recientemente, por las escuchas de la NSA demuestran a la vez lo fácil que es tener acceso a mucha/toda la información, como lo complejo de resolver el dilema de dónde está el punto de equilibrio que entre todos consideremos más oportuno, más justo. Y hay que decidirlo muy rápido, ya que la tecnología avanza de manera acelerada. Nuestro problema es que las instituciones no son capaces de digerir esta velocidad de cambio, y ello provoca claras disfunciones. Pero es claro que una guía fundamental para hacerlo es disponer de unos principios éticos básicos y ampliamente aceptados. Ello a su vez depende de una educación adecuada en unos valores éticos. La sociedad necesita acordar cuáles son los prioritarios, cómo trasladarlos a las nuevas generaciones y cómo adaptarlos en base a nuevos horizontes de conocimiento. Otro frente abierto en la actualidad es el correspondiente a la revolución de la biología molecular. Se dice que si el siglo XX fue el de la física, el siglo XXI será el de la biología. Estamos desentrañando el libro de la vida: cómo nos reproducimos, cómo nos desarrollamos y cómo morimos – desde un ser vivo mono-celular hasta una persona. De hecho estamos ante avances de biología sintética que es capaz de crear nuevos individuos a partir de códigos genéticos ad hoc, es decir, no directamente a partir de simples modificaciones de perfiles genómicos pre-existentes. También nos planteamos la posibilidad de atenuar, o de bloquear, el proceso del envejecimiento de las células. Todas estas posibilidades nos conducen a situaciones hasta ahora insospechadas y ante las cuáles la sociedad ha de plantearse qué normas éticas básicas aplicar y cómo adoptarlas. Finalmente nos planteamos también la ética de cómo se hace la ciencia. Los científicos en general relacionan sus éxitos, reconocimiento y capacidad de avanzar sus investigaciones con su producción de trabajos publicados en revistas de reconocido prestigio, los llamados “’índices de impacto”. Es un mundo muy competitivo, con una carrera constante de publicar más y más, ya que en ello se basa el avance profesional y la captación de nuevos recursos para seguir y ampliar las tareas investigadoras. Tanto es así, que la calidad puede peligrar, llegándose al caso de dar por buenos datos no adecuadamente contrastados y por ello erróneos. Por ejemplo, en el campo de la biotecnología, inciden muchos factores, incluidos los detalles de los protocolos de cómo se han llevado a cabo los experimentos así como las sutilezas de los métodos estadísticos utilizados en contextos de “big data”; por ello hay estimaciones de que la mitad de los resultados publicados son difícilmente replicables. Aquí entra en juego sin duda la ética de trabajo del investigador. Otro tema relacionado con la ética es el hecho de quiénes firman la autoría de los trabajos. Es cierto que en la actualidad hay una tendencia a la masificación de investigadores en ciertos ámbitos experimentales, y por ello la constatación de decenas de autores en ciertos trabajos. Aquí de nuevo entra en juego la ética de los autores, en suscribir la autoría sólo los investigadores que sí han contribuido a los resultados y conclusiones del trabajo. Finalmente podemos citar también el proceso de selección de candidatos para nuevas plazas de investigación y de docencia universitarios. Este es otro ámbito en que entra en juego la ética del tribunal, en realmente acordar unos criterios adecuados y luego aplicarlos correctamente y con coherencia. En definitiva, aunque la ciencia sea un ámbito neutro en el sentido de reflejar las leyes de la naturaleza, su uso a través de la tecnología, así como su elaboración, en cuanto son actividades humanas, se impregnan de la ética en su desarrollo. Y viceversa, los avances científicos, en cuanto a proveernos de una más completa comprensión del mundo y una mayor capacidad de interactuar con el mismo, pueden influir en el desarrollo de nuestros principios éticos. Se trata de dos ámbitos fundamentales de nuestra vida, y por ello es fundamental que la sociedad los conozca y module adecuadamente.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • |

    LAS TIC COMO PALANCA DE CAMBIO DE LA CIENCIA

    Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes.

    1. Introducción Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes. No sólo se trata de pode hacer más cálculos en sí, sino que los avances de la llamada ciencia de la computación, base de las tecnologías de la información y las comunicaciones, están influyendo en las nuevas herramientas conceptuales y tecnológicas utilizadas en la ciencia de sistemas complejos en campos como la biología, la medicina, los ecosistemas, las redes sociales, las redes de comunicaciones, la economía, etc. A su vez, el avance en el conocimiento de dichos sistemas complejos en biología y química permite vislumbrar un horizonte de computación molecular que abra nuevas fronteras en las capacidades de la computación y las comunicaciones. Se trata de sistemas adaptativos y autónomos que desarrollan respuestas coherentes a cambios en su entorno de gran complejidad, mucho más allá de lo que somos capaces de hacer con las tecnologías actuales. Por otro lado se vislumbra el horizonte de la computación cuántica que podría dar lugar en pocos lustros a capacidades de cálculo ilimitadas respecto a las actuales. Por ello no sólo son las TIC una palanca de avance fundamental de la ciencia, sino que, además, la ciencia es una palanca de avance fundamental de las TIC, en un círculo virtuoso acelerado de grandes implicaciones. En ambos casos se trata de avances espectaculares en nuestra comprensión del mundo que nos rodea, de nuestra capacidad de desarrollo tecnológico, y, por ende, de nuestro desarrollo económico y social. Estamos en el albor de una nueva manera de hacer ciencia. Es por ello crucial que la sociedad conozca las bases y el potencial de estos avances. Catalunya dispone de buenas infraestructuras técnicas TIC para la ciencia. Si aspiramos a convertirnos en una sociedad del conocimiento, con valor añadido en la generación de conocimiento, hemos de seguir invirtiendo en actualizarlas y en dar la formación a los jóvenes científicos para que las puedan aprovechar. Está demostrado que en el medio plazo hay una clara correlación entre el nivel de desarrollo científico y el de capacidad económica y bienestar social. 2. Las TIC como palanca de impulso de la Ciencia La física de materiales condujo hace medio siglo al desarrollo de los semiconductores, los transistores y los microprocesadores, los cuales han digitalizado y revolucionado las tecnologías de la computación y las comunicaciones (TIC). El progreso ha sido prodigioso. Es inimaginable hoy un mundo sin teléfonos móviles, sin internet, sin todos los sistemas electrónicos que regulan nuestros aparatos domésticos, automóviles, hospitales, industrias y un largo etcétera. Y estamos acostumbrados a su constante evolución siguiendo la llamada Ley de Moore (dos veces más de velocidad de cálculo y de capacidad de memoria cada 18 meses al mismo coste, es decir un orden de magnitud cada lustro desde hace cincuenta años). Pero, más allá de estos avances, es importante reconocer que en estos momentos son estas mismas tecnologías de la información y comunicaciones las que están revolucionando el avance de la ciencia. Y esta revolución tiene más de una dimensión: en primer lugar, la obvia, la de permitir el tratamiento de cada vez mayores cantidades de datos a mayores velocidades. Así ayudan a los científicos a “hacer” más ciencia más rápidamente. Pero más allá de estos avances de escala, las ciencias de la computación están influyendo en “cómo” se hace la ciencia. Los conceptos, teoremas y herramientas desarrollados en el seno de las llamadas ciencias de la computación se están adaptando como nuevas herramientas en las ciencias dedicadas al estudio de sistemas complejos, especialmente en las ciencias biológicas, así como en el estudio del clima, de fuentes energéticas, del cerebro, de los orígenes del universo, de los orígenes de la vida, etc. Estamos pues ante una nueva revolución. Las revoluciones científicas no son nada frecuentes, pero suelen ocurrir cuando se inventa una nueva herramienta conceptual (como el cálculo) o una nueva herramienta tecnológica (como el telescopio). Veamos algunos ejemplos. Fibonacci en el siglo XIII publicó el tratado “Liber Aci” en el que estableció una nueva rama de las matemáticas, el álgebra. El algebra permitió pasar de las matemáticas de palabras a la matemática de los símbolos. Hasta ese momento en Europa las matemáticas se escribían como palabras. Fibonacci “descubrió” el sistema numérico, que de hecho nació en la India hace 3.000 años, y que llegó a la Europa de la época a través del legado de la cultura árabe. El algebra permitió nuevos tipos de cálculos que cambiaron la sociedad, a través del estudio por ejemplo de los planetas, y de su impacto en el comercio y la religión. Unos 400 años más tarde Newton, en sus esfuerzos por entender las leyes de la naturaleza en base a las tasas de cambio del movimiento, usó el algebra para el desarrollo de una nueva rama de las matemáticas: el cálculo (coincidiendo con los trabajos de von Leibniz). Esta nueva herramienta permitió describir muchas nueves leyes de la naturaleza: tasas de cambio o dinámicas del calor, del sonido, de la luz, de los fluidos, de la electricidad, del magnetismo, etc. De manera parecida, el desarrollo de nuevas herramientas tecnológicas, como el telescopio de Galileo y el microscopio, ambos del siglo XVII, los rayos X del siglo XIX, las máquinas secuenciadoras de DNA de los años ‘60 también han transformado nuestra comprensión del mundo y del universo. El impacto de las TIC en el desarrollo de la ciencia, en el alcance sus resultados y en el impacto de sus herramientas y métodos para entornos complejos, tendrá una importancia al menos igual de significativa en las próximas décadas como lo ha sido estos últimos cincuenta años: impactará nuestra longevidad, nuestra calidad de vida, lo que sabemos de nosotros, de nuestro planeta, de nuestro universo, de cómo afrontar las enfermedades, de cómo gestionar los recursos de nuestro planeta, etc. Las TIC está cambiando la forma de hacer ciencia, proporcionando avances a través de nuevos tipos de experimentos. Estos experimentos generan nuevos tipos de datos, de complejidad y volúmenes exponencialmente mayores. Uno de las cuestiones a resolver es cómo usar, explotar y compartir esta avalancha de datos. Ejemplos de estas avalanchas de datos se dan por ejemplo en el caso del nuevo laboratorio “Large Hadron Collider” del CERN en Ginebra. Está previsto que produzca varios PetaBytes (diez elevado a 15 número de bytes, o PB) anuales. Para ello se ha implementado una arquitectura de tratamiento de estos datos de tipo “grid” que engloba una red internacional de centros de computación con más de 100k CPUs para analizar en cascada las informaciones y patrones más relevantes a las investigaciones en curso. La acumulación de grandes volúmenes de datos, medidos en PB y en ExaBytes (mil PB), se da con gran frecuencia en la ciencia actual, y no sólo en la física de altas energías, sino también en las técnicas de “high throuhgput” de genómica, proteómica, química combinatoria, estudios del clima, astronomía, etc. Pero además, y más allá de estos problemas de escala de volumen de datos, hay otros tipos de problemáticas como es la de tratar datos mucho más heterogéneas y con orígenes mucho más dispersos, como son los casos de biomedicina, astronomía y otros. Se trata de conceptualizar la amplitud y la profundidad de las relaciones y posibles relaciones en el seno de los datos correspondientes. Ello requiere herramientas cada vez más potentes para acceder, manipular, visualizar e interpretar estos datos de una manera eficaz, superando las barreras actuales de heterogeneidad de datos, plataformas y aplicaciones. Las técnicas que se están desarrollando incorporan conceptos de hardware como redes de equipos básicos tipo PC, y redes de agrupaciones de estos equipos para hacer cálculos hasta la fecha únicamente realizables en equipos de supercomputación. Como la cantidad de datos generados en este tipo de entornos excede la velocidad y capacidad de almacenamiento y las velocidades de las redes, se impone complementar las grandes bases de datos centrales con jerarquías federadas de bases de datos especializadas y más pequeñas. Por otro lado las nuevas herramientas de software incluyen conceptos como la semántica, o metadatos, es decir datos que describen los datos, su calidad, dónde y cuándo se han creado, su propiedad intelectual, etc. Y no es sólo para consumo humano, sino que de hecho lo utilizan fundamentalmente los “web services” entre aplicaciones para integrar, transformar y/o hacer cálculos con los datos subyacentes. La gestión de los datos científicos requiere pues avances en los sistemas de gestión de bases de datos que incluyan esta información semántica. Los principios que subyacen el desarrollo de las TIC se conocen como “ciencia de la computación” (“computer science”). Esta ciencia de la computación está contribuyendo en gran manera al avance de la ciencia, de las ciencias naturales. Pero va más allá que esto, está en gran medida reformulando las ciencias naturales. Las ciencias naturales se definen en relación al mundo en el que vivimos y que intentamos describir y predecir en base a estudios empíricos y postulados de teorías y leyes. La ciencia de la computación es más difícil de describir, no tiene las bases empíricas de las ciencias naturales, no se trata sólo razonamientos simbólicos (matemáticas) y no es sólo un compendio de principios de ingeniería y tecnología. Se puede decir que la mejor caracterización de la ciencia de la computación es la manera en que sus practicantes resuelven problemas, diseñan sistemas e interpretan el comportamiento humano en el contexto de dichos sistemas. Por ello se habla del “computational thinking”. Se trata de plantearse cuestiones como, “cuán difícil será de resolver”, “cuál es la mejor mana de resolverlo”, como reformular un problema complejo en otro que sabemos cómo resolver, quizá por reducción, transformación o simulación. Se trata de encontrar la representación más adecuada para un problema, en encontrar la modelización que lo hace tratable. Se trata de usar la abstracción y descomposición al analizar una tarea compleja o diseñar un sistema complejo. Se trata de tener la confianza de poder usar, modificar e influenciar un sistema complejo sin comprender todos sus detalles. Se trata de modularizar algo en anticipación a múltiples usuarios y/o de “pre-fetching” y “caching” futuros. Se trata de juzgar el diseño de un sistema en base a su simplicidad y elegancia. Se trat de pensar de manera recurrente. Se trata de pensar en términos de prevención, protección y recuperación ante los peores escenarios (violación de condiciones de contorno, entornos impredecibles) a través de redundancia, contención de daños y corrección de errores. En resumen, se trata de resolver problemas y diseñar sistemas usando los principios básicos de la ciencia de la computación. Hemos hecho énfasis en que las nuevas fronteras que las TIC ayudan a desarrollar en el mundo de la ciencia están relacionadas con la complejidad. Muchos de los aspectos más importantes de nuestro mundo se representan como sistemas complejos: biología, medicina (como redes intercelulares, sistemas de órganos, epidemiología), en entorno (ecosistemas, etc.), sistemas sociales (como transportes, ciudades, redes sociales), redes de comunicaciones, sistemas económicos, etc. Pero a pesar de que en general se entiende la complejidad como el resultado del comportamiento complejo de muchos elementos simples, de hecho en muchos casos se trata de lo contrario: sistemas altamente complejos que producen comportamientos coherentes. Probablemente una de las fronteras científicas más apasionantes a resolver es la de entender y predecir cómo dichos sistemas complejos producen comportamientos coherentes. Para ello una de las áreas más importantes trata de la codificación del conocimiento científico. Por ello se entiende la traducción del conocimiento en una representación codificada, en términos de datos y programas, susceptible de ser manipulada y analizable mecánicamente. Este proceso ya se ha llevado a cabo en muchas áreas de la ciencia, pero está llegando en otras. La biología es uno de los campos en que este tipo de codificación se ve como fundamental. En su estadio más básico tenemos la codificación del genoma: las estructuras del DNA de diferentes organismos se representan como largas cadenas con un alfabeto de cuatro letras. De esta manera se puede almacenar, buscar, comparar y analizar usando una gran variedad de herramientas computacionales. Ya en el año 2000 a través del proyecto del Genoma Humano se secuenciaron los tres mil millones de parejas de letras de DNA correspondientes. Se tardó trece años y costó tres mil millones de dólares. Debido a los avances en el coste de la secuenciación de DNA, hoy en día se vislumbran costes de sólo mil dólares en plazos de una hora. Este avance en la velocidad y la disminución de los costes de secuenciación de DNA es el equivalente a la ley de Moore para la computación. Y la combinación de ambos avances es lo que permite dar pasos de gigante en la biología de este siglo XXI. El siguiente nivel es el de la proteómica. En este caso las estructuras de datos son más complejas: se trata de cadenas con alfabetos de veinte letras (de aminoácidos) más información posicional tridimensional y más algunas anotaciones complementarias. Esta representación ahora está suficientemente estandarizada, y por ello ya se puede tratar con nuevas herramientas. Más allá hay que codificar las vías metabólicas y de señalización. En este caso lo que hay que almacenar, buscar, comparar, analizar e interpretar son las redes interacciones bioquímicas. Cómo hacerlo es un tema de actualidad. El problema general más complicado será cómo almacenar, buscar, comparar, analizar etc. los procesos biológicos. Se trata de interacciones dinámicas entre múltiplos componentes discretos, como la división de las células. Todo ello nos lleva a reflexionar acerca de la manera de hacer avanzar la ciencia, a partir de primeros principios y/o a partir de inferencias estadísticas. Se trata de vías complementarias y/o alternativas según los casos. Nos recuerda la dicotomía entre los procesos automáticos de traducción, los clásicos basados en el diccionario y los de tipo Google que se basan en el análisis de cantidades ingentes de traducciones de textos previos. En este caso, en el fondo se trata del mismo proceso, pero el segundo es mucho más ágil. Hasta cierto punto es un símil del mundo científico. El valor de las teorías científicas se determina generalmente por su habilidad en realizar predicciones. Pero muchas de las teorías tratan fenómenos tan alejados de nuestra experiencia e intuición diarias, que se hace difícil sino imposible su comprensión “lógica”. Las ecuaciones, los cálculos y las predicciones funcionan de manera pasmosa, pero no somos capaces de “entenderlo” más allá de dichas ecuaciones matemáticas. Piénsese sino en las grandes teorías de la física del siglo XX, como la relatividad y la mecánica cuántica. La certeza de sus predicciones es impresionante, pero no es posible entenderlas de manera intuitiva. Explican fenómenos alejados de nuestras escalas y experiencias. Y en las circunstancias más próxima a nuestra experiencia se transforman en las llamadas leyes de la mecánica clásica, que sí consideramos intuitivas en la actualidad. Pero incluso éstas no eran intuitivas en las épocas que fueron formuladas. Nadie en su sano juicio diría a priori que la manzana de Newton y la Tierra se atraen mutuamente y que ambos se mueven en una elipse alrededor de su centro de gravedad, lo que en la práctica quiere decir que la manzana cae verticalmente. Sólo se puede llegar a aceptar estudiando las trayectorias de los astros, y para ello hay que saber cómo se pueden medir. Así que en los dominios de la ciencia en que se conocen bien las ecuaciones, para realizar predicciones se requiere simplemente utilizar las técnicas numéricas más adecuadas. Sin embargo incluso en estos casos se pueden plantear muchas cuestiones debido a la eficiencia, exactitud numérica y validación del modelo matemático y del modelo de cálculo informático utilizado. Hay que reconocer de todas maneras que en la mayor parte de los campos de la ciencia no es posible llevar a cabo una simulación a partir de primeros principios con los recursos actuales de las TIC; ello es debido a la complejidad del tema o a la ausencia de modelos suficientemente precisos para el problema en cuestión. En estos casos se utilizan métodos estadísticos, incluidos los llamados “machine learning”. Mientras que la estadística clásica se centra en el análisis de los datos para probar las hipótesis planteadas, el objetivo de las técnicas de “machine learning” es la de utilizar métodos estadísticos para hacer predicciones. Esto se ha utilizado con éxito en casos como el de la modelización molecular, para descubrir los principios estructurales de las familias de plegamientos de proteínas, o en el de las predicciones de la toxicidad de pequeñas moléculas. Una de las líneas de desarrollo de los nuevos lenguajes de programación será sin duda el de la inferencia probabilística, en el que se incluyen conceptos tales como la incertidumbre en su base; con ello se acelerará la utilización de los principios del “machine learning”. La investigación de algoritmos y los principios del “machine learning” pueden contribuir a la investigación e uno de las áreas más importantes de la investigación científica, la de la comprensión de cómo se procesa la información en los sistemas biológicos, y en particular en el cerebro. Las dos maneras de realizar predicciones, las basadas en primeros principios, y las basadas en modelos estadísticos de los datos observados, no tienen por qué ser excluyentes, y de hecho hay mucho a ganar en usarlas de manera complementaria para el estudio de sistemas complejos. Por ejemplo en casos como la biología de poblaciones, un estudio completo probablemente requiere una combinación de elementos que provienen de la dinámica no lineal, de la ciencia de la complejidad, de la teoría de redes, de la teoría de procesos estocásticos y del “machine learning”. Este tipo de avances permite plantearse la realización de experimentos autónomos, que son de especial importancia en situaciones en que sería imposible llevarlos a cabo, sea por el volumen de información a analizar, sea por la incapacidad de la instrumentación científica en comunicar todos sus datos con los centros de decisión debido a limitaciones de ancho de banda, como por ejemplo en sondas espaciales o robots utilizados en entornos remotos u hostiles. Dichas técnicas computacionales permiten decidir de manera autónoma a partir de las observaciones previas qué pruebas realizar a continuación, cuándo realizarlas y cuándo suspenderlas. La mayoría de las sondas y robots enviados a entornos remotos sólo dispone de un ancho de banda limitado, lo que no le permite enviar todos los datos recogidos. Así dicho robot puede decidir localmente qué curso de pruebas realizar de manera autónoma. En la misma línea se está llevando a cabo grandes avances en redes inalámbricas y tecnologías de sensores en los chips, de manera a poder realizar grandes proyectos de monitorización del entorno ambiental. La distinción entre lo natural y lo artificial se está difuminando cada vez más debido a los avances en la intersección entre las TIC, la biología, la química y la ingeniería. Estos avances tienen el potencial de revolucionar no solo nuestra capacidad de modelizar, entender y reparar sistemas vivientes complejos, pero también de construir nuevas piezas biológicas que lleguen a ser la base de organismos completamente nuevos. Los temas tratados hasta aquí reflejan el rol de las TIC en transformar e incluso revolucionar la ciencia, es decir su rol de palanca de impulso de la ciencia. Los componentes de esta revolución son conceptos, herramientas y teoremas de la ciencia de la computación que se están transformando en nuevas herramientas conceptuales y tecnológicas de gran aplicabilidad en la ciencia, especialmente las ciencias que investigan sistemas complejos, y muy en particular en las ciencias biológicas. Hay quien defiende que estamos en el albor de una nueva manera de hacer ciencia. 3. La ciencia como palanca de las TIC Pero no únicamente las TIC revolucionan la ciencia. Existe la posibilidad de que pueda ocurrir, en base a dichos avances, justamente lo inverso: que dichos avances de la ciencia, especialmente en biología y química, pueden crear las bases de una revolución fundamental en el área de la computación y las TIC. Es decir, la ciencia puede convertirse en un futuro próximo en una palanca de impulso de las TIC, revolucionando sus bases. 3.1. El potencial de la computación cuántica La ley de Moore ha permitido pasar, de trabajar a escala de una micra, a trabajar a escalas de un nanómetro. Pero al seguir miniaturizando, y de mantenerse dicho ritmo de mejoras, hacia 2030 entraremos en los dominios de la física cuántica. Con ello lo que ganaremos ya no será más velocidad al procesar la información, ya no será una mejora cuantitativa como la que hemos tenido en las últimas décadas, sino que se producirá un cambio cualitativo, una manera totalmente nueva de procesar la información. En estos entornos se reemplazan los dígitos habituales, los 0s y los 1s, por los llamados bits cuánticos o “qubits”. Estos elementos, que pueden ser electrones, fotones, átomos o moléculas se rigen por la física cuántica, y como tales tienen la propiedad de existir a la vez como 0 y como 1 en el fenómeno llamado de la superposición. Ello permite a la computación cuántica procesar muchos cálculos a la vez. Se trata de de que un ordenador cuántico podría ejecutar en un solo paso la misma operación sobre N veces 2 números distintos codificados en forma de superposición de esos N bits: esto es lo que se conoce como paralelismo cuántico. En los ordenadores actuales los problemas se resuelven secuencialmente, mientras que en uno cuántico los problemas pueden combinarse e introducirse en el ordenador simultáneamente, ejecutándose al mismo tiempo. Por ello se llega a hablar de un horizonte de capacidades de cálculo ilimitadas en comparación con las actuales. El principio básico detrás de la computación cuántica es el entrelazamiento (“entanglement”), que permite establecer correlaciones a distancia, y que permite la superposición de dos sistemas y que permite añadir qubits al proceso. El entrelazamiento es el elemento clave detrás de los algoritmos cuánticos y de la criptografía cuántica. Hoy ya disponemos de soluciones comerciales basadas en criptografía cuántica. Aún tardaremos algunas décadas en poder disponer de ordenadores cuánticos con capacidades equivalentes a los actuales, para lo que se estima que hay que llegar a ordenadores que gestionen 100.000 qubits – hoy estamos en las decenas. La dificultad principal a resolver es la del aislamiento total de los qubits del mundo exterior. Pero se trata de un terreno fascinante de investigación científica y tecnológica por su impacto en las TIC. Es de destacar que la revista Science elija, como avance científico más destacado de 2010, el desarrollo de la primera “máquina cuántica”. Una máquina no es un ordenador, ni mucho menos, pero los avances son continuos y las oportunidades increíbles. 3.2. El potencial de la computación molecular Los ordenadores tal como los conocemos hoy responden muy bien a las tareas para los que fueron concebidos. Pero cada vez más podemos imaginar aplicaciones de las TIC para la que no se adapta bien la tecnología actual. Un caso serían dispositivos de cálculo que operasen dentro de organismos vivos, o incluso dentro de una célula. Su diseño requiere una arquitectura completa de computación menor que la de un transistor. Y no existe ninguna limitación fundamental para esta tecnología, como se demuestra con el procesamiento sofisticado de información que ocurre en los organismos vivos. De manera similar, en el área de robótica, el procesamiento en tiempo real de datos complejos en una unidad pequeña, con bajo consumo energético y de poco peso de momento no es viable – pero las comunidades de insectos sociales, como las hormigas, nos demuestran lo que sería posible con dichos tipos de robots dada la tecnología adecuada. El procesamiento de información es esencial para los sistemas biológicos,, tanto para mantener sus organizaciones intrincadas como para poder competir con formas de vida rivales. Por ello hasta los más simples organismos han desarrollado capacidades avanzadas de computación para abordar tareas complejas. Aún hemos de comprender adecuadamente los principios de estos sistemas naturales de computación informática, aunque el continuo avance de las ciencias biológicas nos muestra cada vez más detalles. Ello contribuye al desarrollo de los conceptos de la llamada computación molecular. Los ordenadores actuales se han diseñado siguiendo un formalismo estricto independiente de su implementación física. Las características físicas de los componentes físicos están camufladas gracias a una ingeniería muy completa, lo cual es muy útil para la programación. Pero ello se traduce en un uso ineficiente de los substratos, lo que resulta en equipos relativamente voluminosos que se basan en grandes redes
    1. Introducción Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes. No sólo se trata de pode hacer más cálculos en sí, sino que los avances de la llamada ciencia de la computación, base de las tecnologías de la información y las comunicaciones, están influyendo en las nuevas herramientas conceptuales y tecnológicas utilizadas en la ciencia de sistemas complejos en campos como la biología, la medicina, los ecosistemas, las redes sociales, las redes de comunicaciones, la economía, etc. A su vez, el avance en el conocimiento de dichos sistemas complejos en biología y química permite vislumbrar un horizonte de computación molecular que abra nuevas fronteras en las capacidades de la computación y las comunicaciones. Se trata de sistemas adaptativos y autónomos que desarrollan respuestas coherentes a cambios en su entorno de gran complejidad, mucho más allá de lo que somos capaces de hacer con las tecnologías actuales. Por otro lado se vislumbra el horizonte de la computación cuántica que podría dar lugar en pocos lustros a capacidades de cálculo ilimitadas respecto a las actuales. Por ello no sólo son las TIC una palanca de avance fundamental de la ciencia, sino que, además, la ciencia es una palanca de avance fundamental de las TIC, en un círculo virtuoso acelerado de grandes implicaciones. En ambos casos se trata de avances espectaculares en nuestra comprensión del mundo que nos rodea, de nuestra capacidad de desarrollo tecnológico, y, por ende, de nuestro desarrollo económico y social. Estamos en el albor de una nueva manera de hacer ciencia. Es por ello crucial que la sociedad conozca las bases y el potencial de estos avances. Catalunya dispone de buenas infraestructuras técnicas TIC para la ciencia. Si aspiramos a convertirnos en una sociedad del conocimiento, con valor añadido en la generación de conocimiento, hemos de seguir invirtiendo en actualizarlas y en dar la formación a los jóvenes científicos para que las puedan aprovechar. Está demostrado que en el medio plazo hay una clara correlación entre el nivel de desarrollo científico y el de capacidad económica y bienestar social. 2. Las TIC como palanca de impulso de la Ciencia La física de materiales condujo hace medio siglo al desarrollo de los semiconductores, los transistores y los microprocesadores, los cuales han digitalizado y revolucionado las tecnologías de la computación y las comunicaciones (TIC). El progreso ha sido prodigioso. Es inimaginable hoy un mundo sin teléfonos móviles, sin internet, sin todos los sistemas electrónicos que regulan nuestros aparatos domésticos, automóviles, hospitales, industrias y un largo etcétera. Y estamos acostumbrados a su constante evolución siguiendo la llamada Ley de Moore (dos veces más de velocidad de cálculo y de capacidad de memoria cada 18 meses al mismo coste, es decir un orden de magnitud cada lustro desde hace cincuenta años). Pero, más allá de estos avances, es importante reconocer que en estos momentos son estas mismas tecnologías de la información y comunicaciones las que están revolucionando el avance de la ciencia. Y esta revolución tiene más de una dimensión: en primer lugar, la obvia, la de permitir el tratamiento de cada vez mayores cantidades de datos a mayores velocidades. Así ayudan a los científicos a “hacer” más ciencia más rápidamente. Pero más allá de estos avances de escala, las ciencias de la computación están influyendo en “cómo” se hace la ciencia. Los conceptos, teoremas y herramientas desarrollados en el seno de las llamadas ciencias de la computación se están adaptando como nuevas herramientas en las ciencias dedicadas al estudio de sistemas complejos, especialmente en las ciencias biológicas, así como en el estudio del clima, de fuentes energéticas, del cerebro, de los orígenes del universo, de los orígenes de la vida, etc. Estamos pues ante una nueva revolución. Las revoluciones científicas no son nada frecuentes, pero suelen ocurrir cuando se inventa una nueva herramienta conceptual (como el cálculo) o una nueva herramienta tecnológica (como el telescopio). Veamos algunos ejemplos. Fibonacci en el siglo XIII publicó el tratado “Liber Aci” en el que estableció una nueva rama de las matemáticas, el álgebra. El algebra permitió pasar de las matemáticas de palabras a la matemática de los símbolos. Hasta ese momento en Europa las matemáticas se escribían como palabras. Fibonacci “descubrió” el sistema numérico, que de hecho nació en la India hace 3.000 años, y que llegó a la Europa de la época a través del legado de la cultura árabe. El algebra permitió nuevos tipos de cálculos que cambiaron la sociedad, a través del estudio por ejemplo de los planetas, y de su impacto en el comercio y la religión. Unos 400 años más tarde Newton, en sus esfuerzos por entender las leyes de la naturaleza en base a las tasas de cambio del movimiento, usó el algebra para el desarrollo de una nueva rama de las matemáticas: el cálculo (coincidiendo con los trabajos de von Leibniz). Esta nueva herramienta permitió describir muchas nueves leyes de la naturaleza: tasas de cambio o dinámicas del calor, del sonido, de la luz, de los fluidos, de la electricidad, del magnetismo, etc. De manera parecida, el desarrollo de nuevas herramientas tecnológicas, como el telescopio de Galileo y el microscopio, ambos del siglo XVII, los rayos X del siglo XIX, las máquinas secuenciadoras de DNA de los años ‘60 también han transformado nuestra comprensión del mundo y del universo. El impacto de las TIC en el desarrollo de la ciencia, en el alcance sus resultados y en el impacto de sus herramientas y métodos para entornos complejos, tendrá una importancia al menos igual de significativa en las próximas décadas como lo ha sido estos últimos cincuenta años: impactará nuestra longevidad, nuestra calidad de vida, lo que sabemos de nosotros, de nuestro planeta, de nuestro universo, de cómo afrontar las enfermedades, de cómo gestionar los recursos de nuestro planeta, etc. Las TIC está cambiando la forma de hacer ciencia, proporcionando avances a través de nuevos tipos de experimentos. Estos experimentos generan nuevos tipos de datos, de complejidad y volúmenes exponencialmente mayores. Uno de las cuestiones a resolver es cómo usar, explotar y compartir esta avalancha de datos. Ejemplos de estas avalanchas de datos se dan por ejemplo en el caso del nuevo laboratorio “Large Hadron Collider” del CERN en Ginebra. Está previsto que produzca varios PetaBytes (diez elevado a 15 número de bytes, o PB) anuales. Para ello se ha implementado una arquitectura de tratamiento de estos datos de tipo “grid” que engloba una red internacional de centros de computación con más de 100k CPUs para analizar en cascada las informaciones y patrones más relevantes a las investigaciones en curso. La acumulación de grandes volúmenes de datos, medidos en PB y en ExaBytes (mil PB), se da con gran frecuencia en la ciencia actual, y no sólo en la física de altas energías, sino también en las técnicas de “high throuhgput” de genómica, proteómica, química combinatoria, estudios del clima, astronomía, etc. Pero además, y más allá de estos problemas de escala de volumen de datos, hay otros tipos de problemáticas como es la de tratar datos mucho más heterogéneas y con orígenes mucho más dispersos, como son los casos de biomedicina, astronomía y otros. Se trata de conceptualizar la amplitud y la profundidad de las relaciones y posibles relaciones en el seno de los datos correspondientes. Ello requiere herramientas cada vez más potentes para acceder, manipular, visualizar e interpretar estos datos de una manera eficaz, superando las barreras actuales de heterogeneidad de datos, plataformas y aplicaciones. Las técnicas que se están desarrollando incorporan conceptos de hardware como redes de equipos básicos tipo PC, y redes de agrupaciones de estos equipos para hacer cálculos hasta la fecha únicamente realizables en equipos de supercomputación. Como la cantidad de datos generados en este tipo de entornos excede la velocidad y capacidad de almacenamiento y las velocidades de las redes, se impone complementar las grandes bases de datos centrales con jerarquías federadas de bases de datos especializadas y más pequeñas. Por otro lado las nuevas herramientas de software incluyen conceptos como la semántica, o metadatos, es decir datos que describen los datos, su calidad, dónde y cuándo se han creado, su propiedad intelectual, etc. Y no es sólo para consumo humano, sino que de hecho lo utilizan fundamentalmente los “web services” entre aplicaciones para integrar, transformar y/o hacer cálculos con los datos subyacentes. La gestión de los datos científicos requiere pues avances en los sistemas de gestión de bases de datos que incluyan esta información semántica. Los principios que subyacen el desarrollo de las TIC se conocen como “ciencia de la computación” (“computer science”). Esta ciencia de la computación está contribuyendo en gran manera al avance de la ciencia, de las ciencias naturales. Pero va más allá que esto, está en gran medida reformulando las ciencias naturales. Las ciencias naturales se definen en relación al mundo en el que vivimos y que intentamos describir y predecir en base a estudios empíricos y postulados de teorías y leyes. La ciencia de la computación es más difícil de describir, no tiene las bases empíricas de las ciencias naturales, no se trata sólo razonamientos simbólicos (matemáticas) y no es sólo un compendio de principios de ingeniería y tecnología. Se puede decir que la mejor caracterización de la ciencia de la computación es la manera en que sus practicantes resuelven problemas, diseñan sistemas e interpretan el comportamiento humano en el contexto de dichos sistemas. Por ello se habla del “computational thinking”. Se trata de plantearse cuestiones como, “cuán difícil será de resolver”, “cuál es la mejor mana de resolverlo”, como reformular un problema complejo en otro que sabemos cómo resolver, quizá por reducción, transformación o simulación. Se trata de encontrar la representación más adecuada para un problema, en encontrar la modelización que lo hace tratable. Se trata de usar la abstracción y descomposición al analizar una tarea compleja o diseñar un sistema complejo. Se trata de tener la confianza de poder usar, modificar e influenciar un sistema complejo sin comprender todos sus detalles. Se trata de modularizar algo en anticipación a múltiples usuarios y/o de “pre-fetching” y “caching” futuros. Se trata de juzgar el diseño de un sistema en base a su simplicidad y elegancia. Se trat de pensar de manera recurrente. Se trata de pensar en términos de prevención, protección y recuperación ante los peores escenarios (violación de condiciones de contorno, entornos impredecibles) a través de redundancia, contención de daños y corrección de errores. En resumen, se trata de resolver problemas y diseñar sistemas usando los principios básicos de la ciencia de la computación. Hemos hecho énfasis en que las nuevas fronteras que las TIC ayudan a desarrollar en el mundo de la ciencia están relacionadas con la complejidad. Muchos de los aspectos más importantes de nuestro mundo se representan como sistemas complejos: biología, medicina (como redes intercelulares, sistemas de órganos, epidemiología), en entorno (ecosistemas, etc.), sistemas sociales (como transportes, ciudades, redes sociales), redes de comunicaciones, sistemas económicos, etc. Pero a pesar de que en general se entiende la complejidad como el resultado del comportamiento complejo de muchos elementos simples, de hecho en muchos casos se trata de lo contrario: sistemas altamente complejos que producen comportamientos coherentes. Probablemente una de las fronteras científicas más apasionantes a resolver es la de entender y predecir cómo dichos sistemas complejos producen comportamientos coherentes. Para ello una de las áreas más importantes trata de la codificación del conocimiento científico. Por ello se entiende la traducción del conocimiento en una representación codificada, en términos de datos y programas, susceptible de ser manipulada y analizable mecánicamente. Este proceso ya se ha llevado a cabo en muchas áreas de la ciencia, pero está llegando en otras. La biología es uno de los campos en que este tipo de codificación se ve como fundamental. En su estadio más básico tenemos la codificación del genoma: las estructuras del DNA de diferentes organismos se representan como largas cadenas con un alfabeto de cuatro letras. De esta manera se puede almacenar, buscar, comparar y analizar usando una gran variedad de herramientas computacionales. Ya en el año 2000 a través del proyecto del Genoma Humano se secuenciaron los tres mil millones de parejas de letras de DNA correspondientes. Se tardó trece años y costó tres mil millones de dólares. Debido a los avances en el coste de la secuenciación de DNA, hoy en día se vislumbran costes de sólo mil dólares en plazos de una hora. Este avance en la velocidad y la disminución de los costes de secuenciación de DNA es el equivalente a la ley de Moore para la computación. Y la combinación de ambos avances es lo que permite dar pasos de gigante en la biología de este siglo XXI. El siguiente nivel es el de la proteómica. En este caso las estructuras de datos son más complejas: se trata de cadenas con alfabetos de veinte letras (de aminoácidos) más información posicional tridimensional y más algunas anotaciones complementarias. Esta representación ahora está suficientemente estandarizada, y por ello ya se puede tratar con nuevas herramientas. Más allá hay que codificar las vías metabólicas y de señalización. En este caso lo que hay que almacenar, buscar, comparar, analizar e interpretar son las redes interacciones bioquímicas. Cómo hacerlo es un tema de actualidad. El problema general más complicado será cómo almacenar, buscar, comparar, analizar etc. los procesos biológicos. Se trata de interacciones dinámicas entre múltiplos componentes discretos, como la división de las células. Todo ello nos lleva a reflexionar acerca de la manera de hacer avanzar la ciencia, a partir de primeros principios y/o a partir de inferencias estadísticas. Se trata de vías complementarias y/o alternativas según los casos. Nos recuerda la dicotomía entre los procesos automáticos de traducción, los clásicos basados en el diccionario y los de tipo Google que se basan en el análisis de cantidades ingentes de traducciones de textos previos. En este caso, en el fondo se trata del mismo proceso, pero el segundo es mucho más ágil. Hasta cierto punto es un símil del mundo científico. El valor de las teorías científicas se determina generalmente por su habilidad en realizar predicciones. Pero muchas de las teorías tratan fenómenos tan alejados de nuestra experiencia e intuición diarias, que se hace difícil sino imposible su comprensión “lógica”. Las ecuaciones, los cálculos y las predicciones funcionan de manera pasmosa, pero no somos capaces de “entenderlo” más allá de dichas ecuaciones matemáticas. Piénsese sino en las grandes teorías de la física del siglo XX, como la relatividad y la mecánica cuántica. La certeza de sus predicciones es impresionante, pero no es posible entenderlas de manera intuitiva. Explican fenómenos alejados de nuestras escalas y experiencias. Y en las circunstancias más próxima a nuestra experiencia se transforman en las llamadas leyes de la mecánica clásica, que sí consideramos intuitivas en la actualidad. Pero incluso éstas no eran intuitivas en las épocas que fueron formuladas. Nadie en su sano juicio diría a priori que la manzana de Newton y la Tierra se atraen mutuamente y que ambos se mueven en una elipse alrededor de su centro de gravedad, lo que en la práctica quiere decir que la manzana cae verticalmente. Sólo se puede llegar a aceptar estudiando las trayectorias de los astros, y para ello hay que saber cómo se pueden medir. Así que en los dominios de la ciencia en que se conocen bien las ecuaciones, para realizar predicciones se requiere simplemente utilizar las técnicas numéricas más adecuadas. Sin embargo incluso en estos casos se pueden plantear muchas cuestiones debido a la eficiencia, exactitud numérica y validación del modelo matemático y del modelo de cálculo informático utilizado. Hay que reconocer de todas maneras que en la mayor parte de los campos de la ciencia no es posible llevar a cabo una simulación a partir de primeros principios con los recursos actuales de las TIC; ello es debido a la complejidad del tema o a la ausencia de modelos suficientemente precisos para el problema en cuestión. En estos casos se utilizan métodos estadísticos, incluidos los llamados “machine learning”. Mientras que la estadística clásica se centra en el análisis de los datos para probar las hipótesis planteadas, el objetivo de las técnicas de “machine learning” es la de utilizar métodos estadísticos para hacer predicciones. Esto se ha utilizado con éxito en casos como el de la modelización molecular, para descubrir los principios estructurales de las familias de plegamientos de proteínas, o en el de las predicciones de la toxicidad de pequeñas moléculas. Una de las líneas de desarrollo de los nuevos lenguajes de programación será sin duda el de la inferencia probabilística, en el que se incluyen conceptos tales como la incertidumbre en su base; con ello se acelerará la utilización de los principios del “machine learning”. La investigación de algoritmos y los principios del “machine learning” pueden contribuir a la investigación e uno de las áreas más importantes de la investigación científica, la de la comprensión de cómo se procesa la información en los sistemas biológicos, y en particular en el cerebro. Las dos maneras de realizar predicciones, las basadas en primeros principios, y las basadas en modelos estadísticos de los datos observados, no tienen por qué ser excluyentes, y de hecho hay mucho a ganar en usarlas de manera complementaria para el estudio de sistemas complejos. Por ejemplo en casos como la biología de poblaciones, un estudio completo probablemente requiere una combinación de elementos que provienen de la dinámica no lineal, de la ciencia de la complejidad, de la teoría de redes, de la teoría de procesos estocásticos y del “machine learning”. Este tipo de avances permite plantearse la realización de experimentos autónomos, que son de especial importancia en situaciones en que sería imposible llevarlos a cabo, sea por el volumen de información a analizar, sea por la incapacidad de la instrumentación científica en comunicar todos sus datos con los centros de decisión debido a limitaciones de ancho de banda, como por ejemplo en sondas espaciales o robots utilizados en entornos remotos u hostiles. Dichas técnicas computacionales permiten decidir de manera autónoma a partir de las observaciones previas qué pruebas realizar a continuación, cuándo realizarlas y cuándo suspenderlas. La mayoría de las sondas y robots enviados a entornos remotos sólo dispone de un ancho de banda limitado, lo que no le permite enviar todos los datos recogidos. Así dicho robot puede decidir localmente qué curso de pruebas realizar de manera autónoma. En la misma línea se está llevando a cabo grandes avances en redes inalámbricas y tecnologías de sensores en los chips, de manera a poder realizar grandes proyectos de monitorización del entorno ambiental. La distinción entre lo natural y lo artificial se está difuminando cada vez más debido a los avances en la intersección entre las TIC, la biología, la química y la ingeniería. Estos avances tienen el potencial de revolucionar no solo nuestra capacidad de modelizar, entender y reparar sistemas vivientes complejos, pero también de construir nuevas piezas biológicas que lleguen a ser la base de organismos completamente nuevos. Los temas tratados hasta aquí reflejan el rol de las TIC en transformar e incluso revolucionar la ciencia, es decir su rol de palanca de impulso de la ciencia. Los componentes de esta revolución son conceptos, herramientas y teoremas de la ciencia de la computación que se están transformando en nuevas herramientas conceptuales y tecnológicas de gran aplicabilidad en la ciencia, especialmente las ciencias que investigan sistemas complejos, y muy en particular en las ciencias biológicas. Hay quien defiende que estamos en el albor de una nueva manera de hacer ciencia. 3. La ciencia como palanca de las TIC Pero no únicamente las TIC revolucionan la ciencia. Existe la posibilidad de que pueda ocurrir, en base a dichos avances, justamente lo inverso: que dichos avances de la ciencia, especialmente en biología y química, pueden crear las bases de una revolución fundamental en el área de la computación y las TIC. Es decir, la ciencia puede convertirse en un futuro próximo en una palanca de impulso de las TIC, revolucionando sus bases. 3.1. El potencial de la computación cuántica La ley de Moore ha permitido pasar, de trabajar a escala de una micra, a trabajar a escalas de un nanómetro. Pero al seguir miniaturizando, y de mantenerse dicho ritmo de mejoras, hacia 2030 entraremos en los dominios de la física cuántica. Con ello lo que ganaremos ya no será más velocidad al procesar la información, ya no será una mejora cuantitativa como la que hemos tenido en las últimas décadas, sino que se producirá un cambio cualitativo, una manera totalmente nueva de procesar la información. En estos entornos se reemplazan los dígitos habituales, los 0s y los 1s, por los llamados bits cuánticos o “qubits”. Estos elementos, que pueden ser electrones, fotones, átomos o moléculas se rigen por la física cuántica, y como tales tienen la propiedad de existir a la vez como 0 y como 1 en el fenómeno llamado de la superposición. Ello permite a la computación cuántica procesar muchos cálculos a la vez. Se trata de de que un ordenador cuántico podría ejecutar en un solo paso la misma operación sobre N veces 2 números distintos codificados en forma de superposición de esos N bits: esto es lo que se conoce como paralelismo cuántico. En los ordenadores actuales los problemas se resuelven secuencialmente, mientras que en uno cuántico los problemas pueden combinarse e introducirse en el ordenador simultáneamente, ejecutándose al mismo tiempo. Por ello se llega a hablar de un horizonte de capacidades de cálculo ilimitadas en comparación con las actuales. El principio básico detrás de la computación cuántica es el entrelazamiento (“entanglement”), que permite establecer correlaciones a distancia, y que permite la superposición de dos sistemas y que permite añadir qubits al proceso. El entrelazamiento es el elemento clave detrás de los algoritmos cuánticos y de la criptografía cuántica. Hoy ya disponemos de soluciones comerciales basadas en criptografía cuántica. Aún tardaremos algunas décadas en poder disponer de ordenadores cuánticos con capacidades equivalentes a los actuales, para lo que se estima que hay que llegar a ordenadores que gestionen 100.000 qubits – hoy estamos en las decenas. La dificultad principal a resolver es la del aislamiento total de los qubits del mundo exterior. Pero se trata de un terreno fascinante de investigación científica y tecnológica por su impacto en las TIC. Es de destacar que la revista Science elija, como avance científico más destacado de 2010, el desarrollo de la primera “máquina cuántica”. Una máquina no es un ordenador, ni mucho menos, pero los avances son continuos y las oportunidades increíbles. 3.2. El potencial de la computación molecular Los ordenadores tal como los conocemos hoy responden muy bien a las tareas para los que fueron concebidos. Pero cada vez más podemos imaginar aplicaciones de las TIC para la que no se adapta bien la tecnología actual. Un caso serían dispositivos de cálculo que operasen dentro de organismos vivos, o incluso dentro de una célula. Su diseño requiere una arquitectura completa de computación menor que la de un transistor. Y no existe ninguna limitación fundamental para esta tecnología, como se demuestra con el procesamiento sofisticado de información que ocurre en los organismos vivos. De manera similar, en el área de robótica, el procesamiento en tiempo real de datos complejos en una unidad pequeña, con bajo consumo energético y de poco peso de momento no es viable – pero las comunidades de insectos sociales, como las hormigas, nos demuestran lo que sería posible con dichos tipos de robots dada la tecnología adecuada. El procesamiento de información es esencial para los sistemas biológicos,, tanto para mantener sus organizaciones intrincadas como para poder competir con formas de vida rivales. Por ello hasta los más simples organismos han desarrollado capacidades avanzadas de computación para abordar tareas complejas. Aún hemos de comprender adecuadamente los principios de estos sistemas naturales de computación informática, aunque el continuo avance de las ciencias biológicas nos muestra cada vez más detalles. Ello contribuye al desarrollo de los conceptos de la llamada computación molecular. Los ordenadores actuales se han diseñado siguiendo un formalismo estricto independiente de su implementación física. Las características físicas de los componentes físicos están camufladas gracias a una ingeniería muy completa, lo cual es muy útil para la programación. Pero ello se traduce en un uso ineficiente de los substratos, lo que resulta en equipos relativamente voluminosos que se basan en grandes redes
    Hora
    Tipo de publicación

    Posicionamientos

    Hora
    Data

    07-01-2011

    1. Introducción Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes. No sólo se trata de pode hacer más cálculos en sí, sino que los avances de la llamada ciencia de la computación, base de las tecnologías de la información y las comunicaciones, están influyendo en las nuevas herramientas conceptuales y tecnológicas utilizadas en la ciencia de sistemas complejos en campos como la biología, la medicina, los ecosistemas, las redes sociales, las redes de comunicaciones, la economía, etc. A su vez, el avance en el conocimiento de dichos sistemas complejos en biología y química permite vislumbrar un horizonte de computación molecular que abra nuevas fronteras en las capacidades de la computación y las comunicaciones. Se trata de sistemas adaptativos y autónomos que desarrollan respuestas coherentes a cambios en su entorno de gran complejidad, mucho más allá de lo que somos capaces de hacer con las tecnologías actuales. Por otro lado se vislumbra el horizonte de la computación cuántica que podría dar lugar en pocos lustros a capacidades de cálculo ilimitadas respecto a las actuales. Por ello no sólo son las TIC una palanca de avance fundamental de la ciencia, sino que, además, la ciencia es una palanca de avance fundamental de las TIC, en un círculo virtuoso acelerado de grandes implicaciones. En ambos casos se trata de avances espectaculares en nuestra comprensión del mundo que nos rodea, de nuestra capacidad de desarrollo tecnológico, y, por ende, de nuestro desarrollo económico y social. Estamos en el albor de una nueva manera de hacer ciencia. Es por ello crucial que la sociedad conozca las bases y el potencial de estos avances. Catalunya dispone de buenas infraestructuras técnicas TIC para la ciencia. Si aspiramos a convertirnos en una sociedad del conocimiento, con valor añadido en la generación de conocimiento, hemos de seguir invirtiendo en actualizarlas y en dar la formación a los jóvenes científicos para que las puedan aprovechar. Está demostrado que en el medio plazo hay una clara correlación entre el nivel de desarrollo científico y el de capacidad económica y bienestar social. 2. Las TIC como palanca de impulso de la Ciencia La física de materiales condujo hace medio siglo al desarrollo de los semiconductores, los transistores y los microprocesadores, los cuales han digitalizado y revolucionado las tecnologías de la computación y las comunicaciones (TIC). El progreso ha sido prodigioso. Es inimaginable hoy un mundo sin teléfonos móviles, sin internet, sin todos los sistemas electrónicos que regulan nuestros aparatos domésticos, automóviles, hospitales, industrias y un largo etcétera. Y estamos acostumbrados a su constante evolución siguiendo la llamada Ley de Moore (dos veces más de velocidad de cálculo y de capacidad de memoria cada 18 meses al mismo coste, es decir un orden de magnitud cada lustro desde hace cincuenta años). Pero, más allá de estos avances, es importante reconocer que en estos momentos son estas mismas tecnologías de la información y comunicaciones las que están revolucionando el avance de la ciencia. Y esta revolución tiene más de una dimensión: en primer lugar, la obvia, la de permitir el tratamiento de cada vez mayores cantidades de datos a mayores velocidades. Así ayudan a los científicos a “hacer” más ciencia más rápidamente. Pero más allá de estos avances de escala, las ciencias de la computación están influyendo en “cómo” se hace la ciencia. Los conceptos, teoremas y herramientas desarrollados en el seno de las llamadas ciencias de la computación se están adaptando como nuevas herramientas en las ciencias dedicadas al estudio de sistemas complejos, especialmente en las ciencias biológicas, así como en el estudio del clima, de fuentes energéticas, del cerebro, de los orígenes del universo, de los orígenes de la vida, etc. Estamos pues ante una nueva revolución. Las revoluciones científicas no son nada frecuentes, pero suelen ocurrir cuando se inventa una nueva herramienta conceptual (como el cálculo) o una nueva herramienta tecnológica (como el telescopio). Veamos algunos ejemplos. Fibonacci en el siglo XIII publicó el tratado “Liber Aci” en el que estableció una nueva rama de las matemáticas, el álgebra. El algebra permitió pasar de las matemáticas de palabras a la matemática de los símbolos. Hasta ese momento en Europa las matemáticas se escribían como palabras. Fibonacci “descubrió” el sistema numérico, que de hecho nació en la India hace 3.000 años, y que llegó a la Europa de la época a través del legado de la cultura árabe. El algebra permitió nuevos tipos de cálculos que cambiaron la sociedad, a través del estudio por ejemplo de los planetas, y de su impacto en el comercio y la religión. Unos 400 años más tarde Newton, en sus esfuerzos por entender las leyes de la naturaleza en base a las tasas de cambio del movimiento, usó el algebra para el desarrollo de una nueva rama de las matemáticas: el cálculo (coincidiendo con los trabajos de von Leibniz). Esta nueva herramienta permitió describir muchas nueves leyes de la naturaleza: tasas de cambio o dinámicas del calor, del sonido, de la luz, de los fluidos, de la electricidad, del magnetismo, etc. De manera parecida, el desarrollo de nuevas herramientas tecnológicas, como el telescopio de Galileo y el microscopio, ambos del siglo XVII, los rayos X del siglo XIX, las máquinas secuenciadoras de DNA de los años ‘60 también han transformado nuestra comprensión del mundo y del universo. El impacto de las TIC en el desarrollo de la ciencia, en el alcance sus resultados y en el impacto de sus herramientas y métodos para entornos complejos, tendrá una importancia al menos igual de significativa en las próximas décadas como lo ha sido estos últimos cincuenta años: impactará nuestra longevidad, nuestra calidad de vida, lo que sabemos de nosotros, de nuestro planeta, de nuestro universo, de cómo afrontar las enfermedades, de cómo gestionar los recursos de nuestro planeta, etc. Las TIC está cambiando la forma de hacer ciencia, proporcionando avances a través de nuevos tipos de experimentos. Estos experimentos generan nuevos tipos de datos, de complejidad y volúmenes exponencialmente mayores. Uno de las cuestiones a resolver es cómo usar, explotar y compartir esta avalancha de datos. Ejemplos de estas avalanchas de datos se dan por ejemplo en el caso del nuevo laboratorio “Large Hadron Collider” del CERN en Ginebra. Está previsto que produzca varios PetaBytes (diez elevado a 15 número de bytes, o PB) anuales. Para ello se ha implementado una arquitectura de tratamiento de estos datos de tipo “grid” que engloba una red internacional de centros de computación con más de 100k CPUs para analizar en cascada las informaciones y patrones más relevantes a las investigaciones en curso. La acumulación de grandes volúmenes de datos, medidos en PB y en ExaBytes (mil PB), se da con gran frecuencia en la ciencia actual, y no sólo en la física de altas energías, sino también en las técnicas de “high throuhgput” de genómica, proteómica, química combinatoria, estudios del clima, astronomía, etc. Pero además, y más allá de estos problemas de escala de volumen de datos, hay otros tipos de problemáticas como es la de tratar datos mucho más heterogéneas y con orígenes mucho más dispersos, como son los casos de biomedicina, astronomía y otros. Se trata de conceptualizar la amplitud y la profundidad de las relaciones y posibles relaciones en el seno de los datos correspondientes. Ello requiere herramientas cada vez más potentes para acceder, manipular, visualizar e interpretar estos datos de una manera eficaz, superando las barreras actuales de heterogeneidad de datos, plataformas y aplicaciones. Las técnicas que se están desarrollando incorporan conceptos de hardware como redes de equipos básicos tipo PC, y redes de agrupaciones de estos equipos para hacer cálculos hasta la fecha únicamente realizables en equipos de supercomputación. Como la cantidad de datos generados en este tipo de entornos excede la velocidad y capacidad de almacenamiento y las velocidades de las redes, se impone complementar las grandes bases de datos centrales con jerarquías federadas de bases de datos especializadas y más pequeñas. Por otro lado las nuevas herramientas de software incluyen conceptos como la semántica, o metadatos, es decir datos que describen los datos, su calidad, dónde y cuándo se han creado, su propiedad intelectual, etc. Y no es sólo para consumo humano, sino que de hecho lo utilizan fundamentalmente los “web services” entre aplicaciones para integrar, transformar y/o hacer cálculos con los datos subyacentes. La gestión de los datos científicos requiere pues avances en los sistemas de gestión de bases de datos que incluyan esta información semántica. Los principios que subyacen el desarrollo de las TIC se conocen como “ciencia de la computación” (“computer science”). Esta ciencia de la computación está contribuyendo en gran manera al avance de la ciencia, de las ciencias naturales. Pero va más allá que esto, está en gran medida reformulando las ciencias naturales. Las ciencias naturales se definen en relación al mundo en el que vivimos y que intentamos describir y predecir en base a estudios empíricos y postulados de teorías y leyes. La ciencia de la computación es más difícil de describir, no tiene las bases empíricas de las ciencias naturales, no se trata sólo razonamientos simbólicos (matemáticas) y no es sólo un compendio de principios de ingeniería y tecnología. Se puede decir que la mejor caracterización de la ciencia de la computación es la manera en que sus practicantes resuelven problemas, diseñan sistemas e interpretan el comportamiento humano en el contexto de dichos sistemas. Por ello se habla del “computational thinking”. Se trata de plantearse cuestiones como, “cuán difícil será de resolver”, “cuál es la mejor mana de resolverlo”, como reformular un problema complejo en otro que sabemos cómo resolver, quizá por reducción, transformación o simulación. Se trata de encontrar la representación más adecuada para un problema, en encontrar la modelización que lo hace tratable. Se trata de usar la abstracción y descomposición al analizar una tarea compleja o diseñar un sistema complejo. Se trata de tener la confianza de poder usar, modificar e influenciar un sistema complejo sin comprender todos sus detalles. Se trata de modularizar algo en anticipación a múltiples usuarios y/o de “pre-fetching” y “caching” futuros. Se trata de juzgar el diseño de un sistema en base a su simplicidad y elegancia. Se trat de pensar de manera recurrente. Se trata de pensar en términos de prevención, protección y recuperación ante los peores escenarios (violación de condiciones de contorno, entornos impredecibles) a través de redundancia, contención de daños y corrección de errores. En resumen, se trata de resolver problemas y diseñar sistemas usando los principios básicos de la ciencia de la computación. Hemos hecho énfasis en que las nuevas fronteras que las TIC ayudan a desarrollar en el mundo de la ciencia están relacionadas con la complejidad. Muchos de los aspectos más importantes de nuestro mundo se representan como sistemas complejos: biología, medicina (como redes intercelulares, sistemas de órganos, epidemiología), en entorno (ecosistemas, etc.), sistemas sociales (como transportes, ciudades, redes sociales), redes de comunicaciones, sistemas económicos, etc. Pero a pesar de que en general se entiende la complejidad como el resultado del comportamiento complejo de muchos elementos simples, de hecho en muchos casos se trata de lo contrario: sistemas altamente complejos que producen comportamientos coherentes. Probablemente una de las fronteras científicas más apasionantes a resolver es la de entender y predecir cómo dichos sistemas complejos producen comportamientos coherentes. Para ello una de las áreas más importantes trata de la codificación del conocimiento científico. Por ello se entiende la traducción del conocimiento en una representación codificada, en términos de datos y programas, susceptible de ser manipulada y analizable mecánicamente. Este proceso ya se ha llevado a cabo en muchas áreas de la ciencia, pero está llegando en otras. La biología es uno de los campos en que este tipo de codificación se ve como fundamental. En su estadio más básico tenemos la codificación del genoma: las estructuras del DNA de diferentes organismos se representan como largas cadenas con un alfabeto de cuatro letras. De esta manera se puede almacenar, buscar, comparar y analizar usando una gran variedad de herramientas computacionales. Ya en el año 2000 a través del proyecto del Genoma Humano se secuenciaron los tres mil millones de parejas de letras de DNA correspondientes. Se tardó trece años y costó tres mil millones de dólares. Debido a los avances en el coste de la secuenciación de DNA, hoy en día se vislumbran costes de sólo mil dólares en plazos de una hora. Este avance en la velocidad y la disminución de los costes de secuenciación de DNA es el equivalente a la ley de Moore para la computación. Y la combinación de ambos avances es lo que permite dar pasos de gigante en la biología de este siglo XXI. El siguiente nivel es el de la proteómica. En este caso las estructuras de datos son más complejas: se trata de cadenas con alfabetos de veinte letras (de aminoácidos) más información posicional tridimensional y más algunas anotaciones complementarias. Esta representación ahora está suficientemente estandarizada, y por ello ya se puede tratar con nuevas herramientas. Más allá hay que codificar las vías metabólicas y de señalización. En este caso lo que hay que almacenar, buscar, comparar, analizar e interpretar son las redes interacciones bioquímicas. Cómo hacerlo es un tema de actualidad. El problema general más complicado será cómo almacenar, buscar, comparar, analizar etc. los procesos biológicos. Se trata de interacciones dinámicas entre múltiplos componentes discretos, como la división de las células. Todo ello nos lleva a reflexionar acerca de la manera de hacer avanzar la ciencia, a partir de primeros principios y/o a partir de inferencias estadísticas. Se trata de vías complementarias y/o alternativas según los casos. Nos recuerda la dicotomía entre los procesos automáticos de traducción, los clásicos basados en el diccionario y los de tipo Google que se basan en el análisis de cantidades ingentes de traducciones de textos previos. En este caso, en el fondo se trata del mismo proceso, pero el segundo es mucho más ágil. Hasta cierto punto es un símil del mundo científico. El valor de las teorías científicas se determina generalmente por su habilidad en realizar predicciones. Pero muchas de las teorías tratan fenómenos tan alejados de nuestra experiencia e intuición diarias, que se hace difícil sino imposible su comprensión “lógica”. Las ecuaciones, los cálculos y las predicciones funcionan de manera pasmosa, pero no somos capaces de “entenderlo” más allá de dichas ecuaciones matemáticas. Piénsese sino en las grandes teorías de la física del siglo XX, como la relatividad y la mecánica cuántica. La certeza de sus predicciones es impresionante, pero no es posible entenderlas de manera intuitiva. Explican fenómenos alejados de nuestras escalas y experiencias. Y en las circunstancias más próxima a nuestra experiencia se transforman en las llamadas leyes de la mecánica clásica, que sí consideramos intuitivas en la actualidad. Pero incluso éstas no eran intuitivas en las épocas que fueron formuladas. Nadie en su sano juicio diría a priori que la manzana de Newton y la Tierra se atraen mutuamente y que ambos se mueven en una elipse alrededor de su centro de gravedad, lo que en la práctica quiere decir que la manzana cae verticalmente. Sólo se puede llegar a aceptar estudiando las trayectorias de los astros, y para ello hay que saber cómo se pueden medir. Así que en los dominios de la ciencia en que se conocen bien las ecuaciones, para realizar predicciones se requiere simplemente utilizar las técnicas numéricas más adecuadas. Sin embargo incluso en estos casos se pueden plantear muchas cuestiones debido a la eficiencia, exactitud numérica y validación del modelo matemático y del modelo de cálculo informático utilizado. Hay que reconocer de todas maneras que en la mayor parte de los campos de la ciencia no es posible llevar a cabo una simulación a partir de primeros principios con los recursos actuales de las TIC; ello es debido a la complejidad del tema o a la ausencia de modelos suficientemente precisos para el problema en cuestión. En estos casos se utilizan métodos estadísticos, incluidos los llamados “machine learning”. Mientras que la estadística clásica se centra en el análisis de los datos para probar las hipótesis planteadas, el objetivo de las técnicas de “machine learning” es la de utilizar métodos estadísticos para hacer predicciones. Esto se ha utilizado con éxito en casos como el de la modelización molecular, para descubrir los principios estructurales de las familias de plegamientos de proteínas, o en el de las predicciones de la toxicidad de pequeñas moléculas. Una de las líneas de desarrollo de los nuevos lenguajes de programación será sin duda el de la inferencia probabilística, en el que se incluyen conceptos tales como la incertidumbre en su base; con ello se acelerará la utilización de los principios del “machine learning”. La investigación de algoritmos y los principios del “machine learning” pueden contribuir a la investigación e uno de las áreas más importantes de la investigación científica, la de la comprensión de cómo se procesa la información en los sistemas biológicos, y en particular en el cerebro. Las dos maneras de realizar predicciones, las basadas en primeros principios, y las basadas en modelos estadísticos de los datos observados, no tienen por qué ser excluyentes, y de hecho hay mucho a ganar en usarlas de manera complementaria para el estudio de sistemas complejos. Por ejemplo en casos como la biología de poblaciones, un estudio completo probablemente requiere una combinación de elementos que provienen de la dinámica no lineal, de la ciencia de la complejidad, de la teoría de redes, de la teoría de procesos estocásticos y del “machine learning”. Este tipo de avances permite plantearse la realización de experimentos autónomos, que son de especial importancia en situaciones en que sería imposible llevarlos a cabo, sea por el volumen de información a analizar, sea por la incapacidad de la instrumentación científica en comunicar todos sus datos con los centros de decisión debido a limitaciones de ancho de banda, como por ejemplo en sondas espaciales o robots utilizados en entornos remotos u hostiles. Dichas técnicas computacionales permiten decidir de manera autónoma a partir de las observaciones previas qué pruebas realizar a continuación, cuándo realizarlas y cuándo suspenderlas. La mayoría de las sondas y robots enviados a entornos remotos sólo dispone de un ancho de banda limitado, lo que no le permite enviar todos los datos recogidos. Así dicho robot puede decidir localmente qué curso de pruebas realizar de manera autónoma. En la misma línea se está llevando a cabo grandes avances en redes inalámbricas y tecnologías de sensores en los chips, de manera a poder realizar grandes proyectos de monitorización del entorno ambiental. La distinción entre lo natural y lo artificial se está difuminando cada vez más debido a los avances en la intersección entre las TIC, la biología, la química y la ingeniería. Estos avances tienen el potencial de revolucionar no solo nuestra capacidad de modelizar, entender y reparar sistemas vivientes complejos, pero también de construir nuevas piezas biológicas que lleguen a ser la base de organismos completamente nuevos. Los temas tratados hasta aquí reflejan el rol de las TIC en transformar e incluso revolucionar la ciencia, es decir su rol de palanca de impulso de la ciencia. Los componentes de esta revolución son conceptos, herramientas y teoremas de la ciencia de la computación que se están transformando en nuevas herramientas conceptuales y tecnológicas de gran aplicabilidad en la ciencia, especialmente las ciencias que investigan sistemas complejos, y muy en particular en las ciencias biológicas. Hay quien defiende que estamos en el albor de una nueva manera de hacer ciencia. 3. La ciencia como palanca de las TIC Pero no únicamente las TIC revolucionan la ciencia. Existe la posibilidad de que pueda ocurrir, en base a dichos avances, justamente lo inverso: que dichos avances de la ciencia, especialmente en biología y química, pueden crear las bases de una revolución fundamental en el área de la computación y las TIC. Es decir, la ciencia puede convertirse en un futuro próximo en una palanca de impulso de las TIC, revolucionando sus bases. 3.1. El potencial de la computación cuántica La ley de Moore ha permitido pasar, de trabajar a escala de una micra, a trabajar a escalas de un nanómetro. Pero al seguir miniaturizando, y de mantenerse dicho ritmo de mejoras, hacia 2030 entraremos en los dominios de la física cuántica. Con ello lo que ganaremos ya no será más velocidad al procesar la información, ya no será una mejora cuantitativa como la que hemos tenido en las últimas décadas, sino que se producirá un cambio cualitativo, una manera totalmente nueva de procesar la información. En estos entornos se reemplazan los dígitos habituales, los 0s y los 1s, por los llamados bits cuánticos o “qubits”. Estos elementos, que pueden ser electrones, fotones, átomos o moléculas se rigen por la física cuántica, y como tales tienen la propiedad de existir a la vez como 0 y como 1 en el fenómeno llamado de la superposición. Ello permite a la computación cuántica procesar muchos cálculos a la vez. Se trata de de que un ordenador cuántico podría ejecutar en un solo paso la misma operación sobre N veces 2 números distintos codificados en forma de superposición de esos N bits: esto es lo que se conoce como paralelismo cuántico. En los ordenadores actuales los problemas se resuelven secuencialmente, mientras que en uno cuántico los problemas pueden combinarse e introducirse en el ordenador simultáneamente, ejecutándose al mismo tiempo. Por ello se llega a hablar de un horizonte de capacidades de cálculo ilimitadas en comparación con las actuales. El principio básico detrás de la computación cuántica es el entrelazamiento (“entanglement”), que permite establecer correlaciones a distancia, y que permite la superposición de dos sistemas y que permite añadir qubits al proceso. El entrelazamiento es el elemento clave detrás de los algoritmos cuánticos y de la criptografía cuántica. Hoy ya disponemos de soluciones comerciales basadas en criptografía cuántica. Aún tardaremos algunas décadas en poder disponer de ordenadores cuánticos con capacidades equivalentes a los actuales, para lo que se estima que hay que llegar a ordenadores que gestionen 100.000 qubits – hoy estamos en las decenas. La dificultad principal a resolver es la del aislamiento total de los qubits del mundo exterior. Pero se trata de un terreno fascinante de investigación científica y tecnológica por su impacto en las TIC. Es de destacar que la revista Science elija, como avance científico más destacado de 2010, el desarrollo de la primera “máquina cuántica”. Una máquina no es un ordenador, ni mucho menos, pero los avances son continuos y las oportunidades increíbles. 3.2. El potencial de la computación molecular Los ordenadores tal como los conocemos hoy responden muy bien a las tareas para los que fueron concebidos. Pero cada vez más podemos imaginar aplicaciones de las TIC para la que no se adapta bien la tecnología actual. Un caso serían dispositivos de cálculo que operasen dentro de organismos vivos, o incluso dentro de una célula. Su diseño requiere una arquitectura completa de computación menor que la de un transistor. Y no existe ninguna limitación fundamental para esta tecnología, como se demuestra con el procesamiento sofisticado de información que ocurre en los organismos vivos. De manera similar, en el área de robótica, el procesamiento en tiempo real de datos complejos en una unidad pequeña, con bajo consumo energético y de poco peso de momento no es viable – pero las comunidades de insectos sociales, como las hormigas, nos demuestran lo que sería posible con dichos tipos de robots dada la tecnología adecuada. El procesamiento de información es esencial para los sistemas biológicos,, tanto para mantener sus organizaciones intrincadas como para poder competir con formas de vida rivales. Por ello hasta los más simples organismos han desarrollado capacidades avanzadas de computación para abordar tareas complejas. Aún hemos de comprender adecuadamente los principios de estos sistemas naturales de computación informática, aunque el continuo avance de las ciencias biológicas nos muestra cada vez más detalles. Ello contribuye al desarrollo de los conceptos de la llamada computación molecular. Los ordenadores actuales se han diseñado siguiendo un formalismo estricto independiente de su implementación física. Las características físicas de los componentes físicos están camufladas gracias a una ingeniería muy completa, lo cual es muy útil para la programación. Pero ello se traduce en un uso ineficiente de los substratos, lo que resulta en equipos relativamente voluminosos que se basan en grandes redes
  • |

    URGE UNA PUESTA A PUNTO

    URGE UNA PUESTA A PUNTO

    Hora
    Tipo de publicación

    Artículos

    Hora
    Data

    26-11-2010

    En esta época de elecciones en Cataluña, y ante la acumulación de ciertas frustraciones a nivel local y estatal, propongo abrir un debate: hemos de refundar a nuestros representantes a todos los niveles. Si no, iremos de mal en peor – con o sin crisis, con o sin sociedad del conocimiento.

    En esta época de elecciones en Cataluña, y ante la acumulación de ciertas frustraciones a nivel local y estatal, propongo abrir un debate: hemos de refundar a nuestros representantes a todos los niveles. Si no, iremos de mal en peor – con o sin crisis, con o sin sociedad del conocimiento. No sirve de nada promocionar la sociedad del conocimiento desde la sociedad civil, como hacemos en este foro, si nuestros representantes son incapaces de dirigir nuestro destino. Nuestro país se ha desarrollado mucho estas últimas décadas. Pero ya terminó la financiación a fondo perdido de la UE. Y los mercados financieros, los que financian nuestras deudas públicas y privadas, desconfían de nuestra capacidad de hacer frente a las mismas. Ello se debe a su percepción de nuestra incapacidad de generar crecimiento en nuestra economía. Y para generar las condiciones de este crecimiento necesitamos representantes eficaces y éticos. Propongo que entre todos desarrollemos un estado de opinión para que: –La representación empresarial sea efectiva Es inadmisible e incomprensible en mi opinión el espectáculo reciente ofrecido por la presidencia de la CEOE. Con este tipo de actuaciones se pierde toda la credibilidad ante la sociedad, y, por ende, la capacidad de influir adecuadamente en los cambios económicos y sociales necesarios. –La representación política sea efectiva o Los partidos sean cercanos y respondan a la ciudadanía: listas abiertas. Al haberse consolidado la democracia, opino que ya no nos sirve el modelo de listas cerradas. Los partidos se han convertido en estructuras cerradas que con demasiada frecuencia pierden de vista las inquietudes y aspiraciones reales del ciudadano. o Los partidos sean creíbles: transparencia de financiación. Nunca más hemos de aceptar la vergüenza ajena de casos como el Palau, Santa Coloma, Valencia, Marbella, Baleares etc.: es decir prácticamente en toda la nación hay políticos inmersos en trapicheos de comisiones ilegales y financiaciones opacas. Opino que hemos de exigir el mismo cumplimiento de transparencia fiscal a los partidos que se nos exige a ciudadanos y empresas, sin excepciones. o Los partidos sean responsables: aporten programas y propuestas constructivas, realistas e ilusionantes. Un ejemplo lacerante reciente ha sido ver cómo usan su financiación (es decir la nuestra) en desarrollar campañas con mensajes pueriles o insultantes. Nunca más deberíamos tener que soportar videos de tipo erótico o de juegos destructivos. Si la falta de transparencia lleva al delito, la falta de responsabilidad lleva a la imbecilidad. Opino que no estamos para historias, con o sin crisis. La sociedad del conocimiento ha contribuido a la globalización de las economías y del saber. Internet ha superado las geografías: no hay distancias. Hemos de competir a nivel global, se trata de una gran oportunidad: aprovechémosla. Y también es un gran reto: si no reaccionamos, los demás tomarán las riendas de nuestros destinos. Así que afrontemos estos cambios de la mano de representantes eficaces y éticos. Y como colofón, como primera prioridad, hemos de acometer una reforma en profundidad de la educación. Todos lo intuimos y todos lo sabemos. Los indicadores son implacables. Y ésta ha de ser la primera prioridad, a pesar de la penuria provocada por la crisis. La capacidad de acceso a la información, la capacidad de análisis, la actitud de superación, la actitud del esfuerzo y la pasión de construir un futuro mejor han de ser la guía de nuestra juventud. Para establecer las condiciones para ello, es crucial tener representantes eficaces y éticos.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • |

    La necesidad de exportar

    La necesidad de exportar

    Hora
    Tipo de publicación

    Artículos

    Hora
    Data

    29-07-2010

    Nuestra economía necesita crecer para superar la crisis. Hemos de generar recursos financieros para fortalecer nuestras empresas, nuestro sistema financiero y por ende nuestras Administraciones Públicas, cuyas capacidades de financiación están en entredicho. Y el crecimiento es la única manera de hacerlo.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • |

    Llamada a la acción: del G-35 al G-10

    Llamada a la acción: del G-35 al G-10

    Hora
    Tipo de publicación

    Posicionamientos

    Hora
    Data

    22-07-2009

    Este verano del 2009 estamos muy preocupados y ocupados en cómo superar la crisis económica omnipresente. Los primeros indicios de crisis en el sector financiero internacional de hace dos veranos han desembocado en una vorágine destructora sin precedentes de la economía real. Y además, en nuestro país, hemos sumado nuestra propia crisis del sector inmobiliario,…

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos





  • |

    Tres prioridades de futuro para deslocalizar menos y localizar más

    Tres prioridades de futuro para deslocalizar menos y localizar más

    Hora
    Tipo de publicación

    Artículos

    Hora
    Data

    10-07-2004

    ¿Cuales son las prioridades en el mundo empresarial de hoy en día? ¿Cómo afrontar las deslocalizaciones? ¿Qué sería necesario potenciar? ¿Cómo?

    Estamos ante un nuevo curso político, con una Generalitat y un Gobierno renovados y en un entorno europeo ampliado a la Europa de los 25. Es pues un buen momento para analizar las prioridades económicas y su engranaje con las demás políticas sociales. En todos los discursos se ha hablado, entre otros temas, de productividad, de globalización, de inmigración, de deslocalización, de I&D. Las realidades de la situación son claras. Ahora hace falta que las prioridades de actuación e inversión respondan adecuadameente. Yo quiero incidir en tres fundamentales que contribuyen a poder “localizar” más actividades de valor añadido. En primer lugar, la educación. La educación es la inversión a medio plazo por excelencia, con un impacto a veinte años vista, el generacional. La educación ha de conseguir alumnos informados en sus disciplinas correspondientes, pero sobre todo, con ilusión y capacidad de seguir aprendiendo durante toda su vida laboral. Con acceso a las herramientas y las fuentes cambiantes de información. Con capacidad de comunicación directa en las lenguas que rigen los destinos de los negocios de nuestro entorno. A fecha de hoy, el sistema educativo es muy mejorable. Hemos avanzado mucho en universalidad, pero nos queda mucho por hacer a nivel de conocimientos. En particular opino que la prioridad a las ciencias y al inglés es claramente deficiente, tanto en la educación secundaria como en la universitaria. Y es además imprescindible mejorar la formación profesional, asignatura pendiente por antonomasia.. En segundo lugar, la I&D. De nuevo estamos ante un asunto de largo plazo. Estamos muy lejos en estadísticas de patentes, y muy lejos en tamaño de empresas innovadoras en los sectores productivos. Aquí lo fundamental es seguir potenciando el entorno universitario con una estructura ágil (ágil en contraposición a funcionarial) 1º de contratación de investigadores y profesores y 2º de intercambio de personas, ideas y proyectos con las empresas. En particular opino que hemos de dar prioridad al intercambio interuniversitario de estudiantes y de profesorado con otros países y con las empresas. Por ejemplo, abrir las puertas a investigadores de otros países en nuestras universidades. El objetivo real es que tengamos las mejores universidades, para que en ellas aprendan y se formen todos nuestros estudiantes. Ellos se preocuparán a su vez en invertir y desarrollar en el futuro la mejor I&D en sus empresas, y por ende harán de nuestro tejido empresarial una infraestructura competitiva y adaptable a los rápidos cambios tecnológicos y económicos, integrada en el mundo globalizado. En tercer lugar, las comunicaciones. El mundo se ha quedado pequeño. No sólo porque viajar sea mucho más barato y cómodo. Sino, y sobre todo, porque el acceso a la información se ha trivializado, en el sentido de que, desde cualquier punto y en cualquier momento, podemos buscar y encontrar via internet todo tipo de información. Y ya se sabe que información es poder. Necesitamos el acceso más competitivo posible, en cuanto a costes, y a ser posible, capilaridad. No puede ser que los costes de acceso en nuestro país estén por encima de la media de nuestro entorno, y dicho entorno, en nuestro mundo globalizado, es el entorno mundial. Estas tres prioridades son obviedades. Pero la realidad es que no están suficientemente bien resueltas en nuestro país. Si queremos un futuro empresarial competitivo, en un mundo globalizado, hemos de dar un salto cualitativo en las tres áreas. Así podremos deslocalizar menos actividades empresariales actuales, y localizar más actividades nuevas . Para ello hemos de proveer de más valor añadido a nuestras empresas. Y las AAPP han de ayudar a preparar el entorno decidiendo las prioridades adecuadas. Las de corto y las de medio plazo. A pesar de que unas puedan traducirse en más votos a corto que otras. Y las empresas han de demostrar iniciativa y decisión en competir a nivel internacional. Tenemos en nuestro países ejemplos de referencia en muchas áreas. Pienso en particular en el grupo de supercomputación de la UPC y el reciente acuerdo con IBM, pienso en pensadores como Alfons Cornella y Manel Castells que actuan de conciencia e indicadores de nuevas ideas, pienso en general en los grupos de nuestras universidades y escuelas de negocio que están a primer nivel europeo, pienso en las empresas del país en sectores productivos y de servicios que compiten con éxito en el extranjero –lo que hemos de conseguir es conseguir que estas excepciones se generalicen y dejen de ser excepciones. El Cercle ha de ser uno de los instrumentos que contribuyan a crear el entorno adecuado.

    Suscríbete al newsletter

    Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

    * Campos requeridos