Publicacions

  • |

    LAS TIC COMO PALANCA DE CAMBIO DE LA CIENCIA

    Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes.

    1. Introducción Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes. No sólo se trata de pode hacer más cálculos en sí, sino que los avances de la llamada ciencia de la computación, base de las tecnologías de la información y las comunicaciones, están influyendo en las nuevas herramientas conceptuales y tecnológicas utilizadas en la ciencia de sistemas complejos en campos como la biología, la medicina, los ecosistemas, las redes sociales, las redes de comunicaciones, la economía, etc. A su vez, el avance en el conocimiento de dichos sistemas complejos en biología y química permite vislumbrar un horizonte de computación molecular que abra nuevas fronteras en las capacidades de la computación y las comunicaciones. Se trata de sistemas adaptativos y autónomos que desarrollan respuestas coherentes a cambios en su entorno de gran complejidad, mucho más allá de lo que somos capaces de hacer con las tecnologías actuales. Por otro lado se vislumbra el horizonte de la computación cuántica que podría dar lugar en pocos lustros a capacidades de cálculo ilimitadas respecto a las actuales. Por ello no sólo son las TIC una palanca de avance fundamental de la ciencia, sino que, además, la ciencia es una palanca de avance fundamental de las TIC, en un círculo virtuoso acelerado de grandes implicaciones. En ambos casos se trata de avances espectaculares en nuestra comprensión del mundo que nos rodea, de nuestra capacidad de desarrollo tecnológico, y, por ende, de nuestro desarrollo económico y social. Estamos en el albor de una nueva manera de hacer ciencia. Es por ello crucial que la sociedad conozca las bases y el potencial de estos avances. Catalunya dispone de buenas infraestructuras técnicas TIC para la ciencia. Si aspiramos a convertirnos en una sociedad del conocimiento, con valor añadido en la generación de conocimiento, hemos de seguir invirtiendo en actualizarlas y en dar la formación a los jóvenes científicos para que las puedan aprovechar. Está demostrado que en el medio plazo hay una clara correlación entre el nivel de desarrollo científico y el de capacidad económica y bienestar social. 2. Las TIC como palanca de impulso de la Ciencia La física de materiales condujo hace medio siglo al desarrollo de los semiconductores, los transistores y los microprocesadores, los cuales han digitalizado y revolucionado las tecnologías de la computación y las comunicaciones (TIC). El progreso ha sido prodigioso. Es inimaginable hoy un mundo sin teléfonos móviles, sin internet, sin todos los sistemas electrónicos que regulan nuestros aparatos domésticos, automóviles, hospitales, industrias y un largo etcétera. Y estamos acostumbrados a su constante evolución siguiendo la llamada Ley de Moore (dos veces más de velocidad de cálculo y de capacidad de memoria cada 18 meses al mismo coste, es decir un orden de magnitud cada lustro desde hace cincuenta años). Pero, más allá de estos avances, es importante reconocer que en estos momentos son estas mismas tecnologías de la información y comunicaciones las que están revolucionando el avance de la ciencia. Y esta revolución tiene más de una dimensión: en primer lugar, la obvia, la de permitir el tratamiento de cada vez mayores cantidades de datos a mayores velocidades. Así ayudan a los científicos a “hacer” más ciencia más rápidamente. Pero más allá de estos avances de escala, las ciencias de la computación están influyendo en “cómo” se hace la ciencia. Los conceptos, teoremas y herramientas desarrollados en el seno de las llamadas ciencias de la computación se están adaptando como nuevas herramientas en las ciencias dedicadas al estudio de sistemas complejos, especialmente en las ciencias biológicas, así como en el estudio del clima, de fuentes energéticas, del cerebro, de los orígenes del universo, de los orígenes de la vida, etc. Estamos pues ante una nueva revolución. Las revoluciones científicas no son nada frecuentes, pero suelen ocurrir cuando se inventa una nueva herramienta conceptual (como el cálculo) o una nueva herramienta tecnológica (como el telescopio). Veamos algunos ejemplos. Fibonacci en el siglo XIII publicó el tratado “Liber Aci” en el que estableció una nueva rama de las matemáticas, el álgebra. El algebra permitió pasar de las matemáticas de palabras a la matemática de los símbolos. Hasta ese momento en Europa las matemáticas se escribían como palabras. Fibonacci “descubrió” el sistema numérico, que de hecho nació en la India hace 3.000 años, y que llegó a la Europa de la época a través del legado de la cultura árabe. El algebra permitió nuevos tipos de cálculos que cambiaron la sociedad, a través del estudio por ejemplo de los planetas, y de su impacto en el comercio y la religión. Unos 400 años más tarde Newton, en sus esfuerzos por entender las leyes de la naturaleza en base a las tasas de cambio del movimiento, usó el algebra para el desarrollo de una nueva rama de las matemáticas: el cálculo (coincidiendo con los trabajos de von Leibniz). Esta nueva herramienta permitió describir muchas nueves leyes de la naturaleza: tasas de cambio o dinámicas del calor, del sonido, de la luz, de los fluidos, de la electricidad, del magnetismo, etc. De manera parecida, el desarrollo de nuevas herramientas tecnológicas, como el telescopio de Galileo y el microscopio, ambos del siglo XVII, los rayos X del siglo XIX, las máquinas secuenciadoras de DNA de los años ‘60 también han transformado nuestra comprensión del mundo y del universo. El impacto de las TIC en el desarrollo de la ciencia, en el alcance sus resultados y en el impacto de sus herramientas y métodos para entornos complejos, tendrá una importancia al menos igual de significativa en las próximas décadas como lo ha sido estos últimos cincuenta años: impactará nuestra longevidad, nuestra calidad de vida, lo que sabemos de nosotros, de nuestro planeta, de nuestro universo, de cómo afrontar las enfermedades, de cómo gestionar los recursos de nuestro planeta, etc. Las TIC está cambiando la forma de hacer ciencia, proporcionando avances a través de nuevos tipos de experimentos. Estos experimentos generan nuevos tipos de datos, de complejidad y volúmenes exponencialmente mayores. Uno de las cuestiones a resolver es cómo usar, explotar y compartir esta avalancha de datos. Ejemplos de estas avalanchas de datos se dan por ejemplo en el caso del nuevo laboratorio “Large Hadron Collider” del CERN en Ginebra. Está previsto que produzca varios PetaBytes (diez elevado a 15 número de bytes, o PB) anuales. Para ello se ha implementado una arquitectura de tratamiento de estos datos de tipo “grid” que engloba una red internacional de centros de computación con más de 100k CPUs para analizar en cascada las informaciones y patrones más relevantes a las investigaciones en curso. La acumulación de grandes volúmenes de datos, medidos en PB y en ExaBytes (mil PB), se da con gran frecuencia en la ciencia actual, y no sólo en la física de altas energías, sino también en las técnicas de “high throuhgput” de genómica, proteómica, química combinatoria, estudios del clima, astronomía, etc. Pero además, y más allá de estos problemas de escala de volumen de datos, hay otros tipos de problemáticas como es la de tratar datos mucho más heterogéneas y con orígenes mucho más dispersos, como son los casos de biomedicina, astronomía y otros. Se trata de conceptualizar la amplitud y la profundidad de las relaciones y posibles relaciones en el seno de los datos correspondientes. Ello requiere herramientas cada vez más potentes para acceder, manipular, visualizar e interpretar estos datos de una manera eficaz, superando las barreras actuales de heterogeneidad de datos, plataformas y aplicaciones. Las técnicas que se están desarrollando incorporan conceptos de hardware como redes de equipos básicos tipo PC, y redes de agrupaciones de estos equipos para hacer cálculos hasta la fecha únicamente realizables en equipos de supercomputación. Como la cantidad de datos generados en este tipo de entornos excede la velocidad y capacidad de almacenamiento y las velocidades de las redes, se impone complementar las grandes bases de datos centrales con jerarquías federadas de bases de datos especializadas y más pequeñas. Por otro lado las nuevas herramientas de software incluyen conceptos como la semántica, o metadatos, es decir datos que describen los datos, su calidad, dónde y cuándo se han creado, su propiedad intelectual, etc. Y no es sólo para consumo humano, sino que de hecho lo utilizan fundamentalmente los “web services” entre aplicaciones para integrar, transformar y/o hacer cálculos con los datos subyacentes. La gestión de los datos científicos requiere pues avances en los sistemas de gestión de bases de datos que incluyan esta información semántica. Los principios que subyacen el desarrollo de las TIC se conocen como “ciencia de la computación” (“computer science”). Esta ciencia de la computación está contribuyendo en gran manera al avance de la ciencia, de las ciencias naturales. Pero va más allá que esto, está en gran medida reformulando las ciencias naturales. Las ciencias naturales se definen en relación al mundo en el que vivimos y que intentamos describir y predecir en base a estudios empíricos y postulados de teorías y leyes. La ciencia de la computación es más difícil de describir, no tiene las bases empíricas de las ciencias naturales, no se trata sólo razonamientos simbólicos (matemáticas) y no es sólo un compendio de principios de ingeniería y tecnología. Se puede decir que la mejor caracterización de la ciencia de la computación es la manera en que sus practicantes resuelven problemas, diseñan sistemas e interpretan el comportamiento humano en el contexto de dichos sistemas. Por ello se habla del “computational thinking”. Se trata de plantearse cuestiones como, “cuán difícil será de resolver”, “cuál es la mejor mana de resolverlo”, como reformular un problema complejo en otro que sabemos cómo resolver, quizá por reducción, transformación o simulación. Se trata de encontrar la representación más adecuada para un problema, en encontrar la modelización que lo hace tratable. Se trata de usar la abstracción y descomposición al analizar una tarea compleja o diseñar un sistema complejo. Se trata de tener la confianza de poder usar, modificar e influenciar un sistema complejo sin comprender todos sus detalles. Se trata de modularizar algo en anticipación a múltiples usuarios y/o de “pre-fetching” y “caching” futuros. Se trata de juzgar el diseño de un sistema en base a su simplicidad y elegancia. Se trat de pensar de manera recurrente. Se trata de pensar en términos de prevención, protección y recuperación ante los peores escenarios (violación de condiciones de contorno, entornos impredecibles) a través de redundancia, contención de daños y corrección de errores. En resumen, se trata de resolver problemas y diseñar sistemas usando los principios básicos de la ciencia de la computación. Hemos hecho énfasis en que las nuevas fronteras que las TIC ayudan a desarrollar en el mundo de la ciencia están relacionadas con la complejidad. Muchos de los aspectos más importantes de nuestro mundo se representan como sistemas complejos: biología, medicina (como redes intercelulares, sistemas de órganos, epidemiología), en entorno (ecosistemas, etc.), sistemas sociales (como transportes, ciudades, redes sociales), redes de comunicaciones, sistemas económicos, etc. Pero a pesar de que en general se entiende la complejidad como el resultado del comportamiento complejo de muchos elementos simples, de hecho en muchos casos se trata de lo contrario: sistemas altamente complejos que producen comportamientos coherentes. Probablemente una de las fronteras científicas más apasionantes a resolver es la de entender y predecir cómo dichos sistemas complejos producen comportamientos coherentes. Para ello una de las áreas más importantes trata de la codificación del conocimiento científico. Por ello se entiende la traducción del conocimiento en una representación codificada, en términos de datos y programas, susceptible de ser manipulada y analizable mecánicamente. Este proceso ya se ha llevado a cabo en muchas áreas de la ciencia, pero está llegando en otras. La biología es uno de los campos en que este tipo de codificación se ve como fundamental. En su estadio más básico tenemos la codificación del genoma: las estructuras del DNA de diferentes organismos se representan como largas cadenas con un alfabeto de cuatro letras. De esta manera se puede almacenar, buscar, comparar y analizar usando una gran variedad de herramientas computacionales. Ya en el año 2000 a través del proyecto del Genoma Humano se secuenciaron los tres mil millones de parejas de letras de DNA correspondientes. Se tardó trece años y costó tres mil millones de dólares. Debido a los avances en el coste de la secuenciación de DNA, hoy en día se vislumbran costes de sólo mil dólares en plazos de una hora. Este avance en la velocidad y la disminución de los costes de secuenciación de DNA es el equivalente a la ley de Moore para la computación. Y la combinación de ambos avances es lo que permite dar pasos de gigante en la biología de este siglo XXI. El siguiente nivel es el de la proteómica. En este caso las estructuras de datos son más complejas: se trata de cadenas con alfabetos de veinte letras (de aminoácidos) más información posicional tridimensional y más algunas anotaciones complementarias. Esta representación ahora está suficientemente estandarizada, y por ello ya se puede tratar con nuevas herramientas. Más allá hay que codificar las vías metabólicas y de señalización. En este caso lo que hay que almacenar, buscar, comparar, analizar e interpretar son las redes interacciones bioquímicas. Cómo hacerlo es un tema de actualidad. El problema general más complicado será cómo almacenar, buscar, comparar, analizar etc. los procesos biológicos. Se trata de interacciones dinámicas entre múltiplos componentes discretos, como la división de las células. Todo ello nos lleva a reflexionar acerca de la manera de hacer avanzar la ciencia, a partir de primeros principios y/o a partir de inferencias estadísticas. Se trata de vías complementarias y/o alternativas según los casos. Nos recuerda la dicotomía entre los procesos automáticos de traducción, los clásicos basados en el diccionario y los de tipo Google que se basan en el análisis de cantidades ingentes de traducciones de textos previos. En este caso, en el fondo se trata del mismo proceso, pero el segundo es mucho más ágil. Hasta cierto punto es un símil del mundo científico. El valor de las teorías científicas se determina generalmente por su habilidad en realizar predicciones. Pero muchas de las teorías tratan fenómenos tan alejados de nuestra experiencia e intuición diarias, que se hace difícil sino imposible su comprensión “lógica”. Las ecuaciones, los cálculos y las predicciones funcionan de manera pasmosa, pero no somos capaces de “entenderlo” más allá de dichas ecuaciones matemáticas. Piénsese sino en las grandes teorías de la física del siglo XX, como la relatividad y la mecánica cuántica. La certeza de sus predicciones es impresionante, pero no es posible entenderlas de manera intuitiva. Explican fenómenos alejados de nuestras escalas y experiencias. Y en las circunstancias más próxima a nuestra experiencia se transforman en las llamadas leyes de la mecánica clásica, que sí consideramos intuitivas en la actualidad. Pero incluso éstas no eran intuitivas en las épocas que fueron formuladas. Nadie en su sano juicio diría a priori que la manzana de Newton y la Tierra se atraen mutuamente y que ambos se mueven en una elipse alrededor de su centro de gravedad, lo que en la práctica quiere decir que la manzana cae verticalmente. Sólo se puede llegar a aceptar estudiando las trayectorias de los astros, y para ello hay que saber cómo se pueden medir. Así que en los dominios de la ciencia en que se conocen bien las ecuaciones, para realizar predicciones se requiere simplemente utilizar las técnicas numéricas más adecuadas. Sin embargo incluso en estos casos se pueden plantear muchas cuestiones debido a la eficiencia, exactitud numérica y validación del modelo matemático y del modelo de cálculo informático utilizado. Hay que reconocer de todas maneras que en la mayor parte de los campos de la ciencia no es posible llevar a cabo una simulación a partir de primeros principios con los recursos actuales de las TIC; ello es debido a la complejidad del tema o a la ausencia de modelos suficientemente precisos para el problema en cuestión. En estos casos se utilizan métodos estadísticos, incluidos los llamados “machine learning”. Mientras que la estadística clásica se centra en el análisis de los datos para probar las hipótesis planteadas, el objetivo de las técnicas de “machine learning” es la de utilizar métodos estadísticos para hacer predicciones. Esto se ha utilizado con éxito en casos como el de la modelización molecular, para descubrir los principios estructurales de las familias de plegamientos de proteínas, o en el de las predicciones de la toxicidad de pequeñas moléculas. Una de las líneas de desarrollo de los nuevos lenguajes de programación será sin duda el de la inferencia probabilística, en el que se incluyen conceptos tales como la incertidumbre en su base; con ello se acelerará la utilización de los principios del “machine learning”. La investigación de algoritmos y los principios del “machine learning” pueden contribuir a la investigación e uno de las áreas más importantes de la investigación científica, la de la comprensión de cómo se procesa la información en los sistemas biológicos, y en particular en el cerebro. Las dos maneras de realizar predicciones, las basadas en primeros principios, y las basadas en modelos estadísticos de los datos observados, no tienen por qué ser excluyentes, y de hecho hay mucho a ganar en usarlas de manera complementaria para el estudio de sistemas complejos. Por ejemplo en casos como la biología de poblaciones, un estudio completo probablemente requiere una combinación de elementos que provienen de la dinámica no lineal, de la ciencia de la complejidad, de la teoría de redes, de la teoría de procesos estocásticos y del “machine learning”. Este tipo de avances permite plantearse la realización de experimentos autónomos, que son de especial importancia en situaciones en que sería imposible llevarlos a cabo, sea por el volumen de información a analizar, sea por la incapacidad de la instrumentación científica en comunicar todos sus datos con los centros de decisión debido a limitaciones de ancho de banda, como por ejemplo en sondas espaciales o robots utilizados en entornos remotos u hostiles. Dichas técnicas computacionales permiten decidir de manera autónoma a partir de las observaciones previas qué pruebas realizar a continuación, cuándo realizarlas y cuándo suspenderlas. La mayoría de las sondas y robots enviados a entornos remotos sólo dispone de un ancho de banda limitado, lo que no le permite enviar todos los datos recogidos. Así dicho robot puede decidir localmente qué curso de pruebas realizar de manera autónoma. En la misma línea se está llevando a cabo grandes avances en redes inalámbricas y tecnologías de sensores en los chips, de manera a poder realizar grandes proyectos de monitorización del entorno ambiental. La distinción entre lo natural y lo artificial se está difuminando cada vez más debido a los avances en la intersección entre las TIC, la biología, la química y la ingeniería. Estos avances tienen el potencial de revolucionar no solo nuestra capacidad de modelizar, entender y reparar sistemas vivientes complejos, pero también de construir nuevas piezas biológicas que lleguen a ser la base de organismos completamente nuevos. Los temas tratados hasta aquí reflejan el rol de las TIC en transformar e incluso revolucionar la ciencia, es decir su rol de palanca de impulso de la ciencia. Los componentes de esta revolución son conceptos, herramientas y teoremas de la ciencia de la computación que se están transformando en nuevas herramientas conceptuales y tecnológicas de gran aplicabilidad en la ciencia, especialmente las ciencias que investigan sistemas complejos, y muy en particular en las ciencias biológicas. Hay quien defiende que estamos en el albor de una nueva manera de hacer ciencia. 3. La ciencia como palanca de las TIC Pero no únicamente las TIC revolucionan la ciencia. Existe la posibilidad de que pueda ocurrir, en base a dichos avances, justamente lo inverso: que dichos avances de la ciencia, especialmente en biología y química, pueden crear las bases de una revolución fundamental en el área de la computación y las TIC. Es decir, la ciencia puede convertirse en un futuro próximo en una palanca de impulso de las TIC, revolucionando sus bases. 3.1. El potencial de la computación cuántica La ley de Moore ha permitido pasar, de trabajar a escala de una micra, a trabajar a escalas de un nanómetro. Pero al seguir miniaturizando, y de mantenerse dicho ritmo de mejoras, hacia 2030 entraremos en los dominios de la física cuántica. Con ello lo que ganaremos ya no será más velocidad al procesar la información, ya no será una mejora cuantitativa como la que hemos tenido en las últimas décadas, sino que se producirá un cambio cualitativo, una manera totalmente nueva de procesar la información. En estos entornos se reemplazan los dígitos habituales, los 0s y los 1s, por los llamados bits cuánticos o “qubits”. Estos elementos, que pueden ser electrones, fotones, átomos o moléculas se rigen por la física cuántica, y como tales tienen la propiedad de existir a la vez como 0 y como 1 en el fenómeno llamado de la superposición. Ello permite a la computación cuántica procesar muchos cálculos a la vez. Se trata de de que un ordenador cuántico podría ejecutar en un solo paso la misma operación sobre N veces 2 números distintos codificados en forma de superposición de esos N bits: esto es lo que se conoce como paralelismo cuántico. En los ordenadores actuales los problemas se resuelven secuencialmente, mientras que en uno cuántico los problemas pueden combinarse e introducirse en el ordenador simultáneamente, ejecutándose al mismo tiempo. Por ello se llega a hablar de un horizonte de capacidades de cálculo ilimitadas en comparación con las actuales. El principio básico detrás de la computación cuántica es el entrelazamiento (“entanglement”), que permite establecer correlaciones a distancia, y que permite la superposición de dos sistemas y que permite añadir qubits al proceso. El entrelazamiento es el elemento clave detrás de los algoritmos cuánticos y de la criptografía cuántica. Hoy ya disponemos de soluciones comerciales basadas en criptografía cuántica. Aún tardaremos algunas décadas en poder disponer de ordenadores cuánticos con capacidades equivalentes a los actuales, para lo que se estima que hay que llegar a ordenadores que gestionen 100.000 qubits – hoy estamos en las decenas. La dificultad principal a resolver es la del aislamiento total de los qubits del mundo exterior. Pero se trata de un terreno fascinante de investigación científica y tecnológica por su impacto en las TIC. Es de destacar que la revista Science elija, como avance científico más destacado de 2010, el desarrollo de la primera “máquina cuántica”. Una máquina no es un ordenador, ni mucho menos, pero los avances son continuos y las oportunidades increíbles. 3.2. El potencial de la computación molecular Los ordenadores tal como los conocemos hoy responden muy bien a las tareas para los que fueron concebidos. Pero cada vez más podemos imaginar aplicaciones de las TIC para la que no se adapta bien la tecnología actual. Un caso serían dispositivos de cálculo que operasen dentro de organismos vivos, o incluso dentro de una célula. Su diseño requiere una arquitectura completa de computación menor que la de un transistor. Y no existe ninguna limitación fundamental para esta tecnología, como se demuestra con el procesamiento sofisticado de información que ocurre en los organismos vivos. De manera similar, en el área de robótica, el procesamiento en tiempo real de datos complejos en una unidad pequeña, con bajo consumo energético y de poco peso de momento no es viable – pero las comunidades de insectos sociales, como las hormigas, nos demuestran lo que sería posible con dichos tipos de robots dada la tecnología adecuada. El procesamiento de información es esencial para los sistemas biológicos,, tanto para mantener sus organizaciones intrincadas como para poder competir con formas de vida rivales. Por ello hasta los más simples organismos han desarrollado capacidades avanzadas de computación para abordar tareas complejas. Aún hemos de comprender adecuadamente los principios de estos sistemas naturales de computación informática, aunque el continuo avance de las ciencias biológicas nos muestra cada vez más detalles. Ello contribuye al desarrollo de los conceptos de la llamada computación molecular. Los ordenadores actuales se han diseñado siguiendo un formalismo estricto independiente de su implementación física. Las características físicas de los componentes físicos están camufladas gracias a una ingeniería muy completa, lo cual es muy útil para la programación.
    1. Introducción Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes. No sólo se trata de pode hacer más cálculos en sí, sino que los avances de la llamada ciencia de la computación, base de las tecnologías de la información y las comunicaciones, están influyendo en las nuevas herramientas conceptuales y tecnológicas utilizadas en la ciencia de sistemas complejos en campos como la biología, la medicina, los ecosistemas, las redes sociales, las redes de comunicaciones, la economía, etc. A su vez, el avance en el conocimiento de dichos sistemas complejos en biología y química permite vislumbrar un horizonte de computación molecular que abra nuevas fronteras en las capacidades de la computación y las comunicaciones. Se trata de sistemas adaptativos y autónomos que desarrollan respuestas coherentes a cambios en su entorno de gran complejidad, mucho más allá de lo que somos capaces de hacer con las tecnologías actuales. Por otro lado se vislumbra el horizonte de la computación cuántica que podría dar lugar en pocos lustros a capacidades de cálculo ilimitadas respecto a las actuales. Por ello no sólo son las TIC una palanca de avance fundamental de la ciencia, sino que, además, la ciencia es una palanca de avance fundamental de las TIC, en un círculo virtuoso acelerado de grandes implicaciones. En ambos casos se trata de avances espectaculares en nuestra comprensión del mundo que nos rodea, de nuestra capacidad de desarrollo tecnológico, y, por ende, de nuestro desarrollo económico y social. Estamos en el albor de una nueva manera de hacer ciencia. Es por ello crucial que la sociedad conozca las bases y el potencial de estos avances. Catalunya dispone de buenas infraestructuras técnicas TIC para la ciencia. Si aspiramos a convertirnos en una sociedad del conocimiento, con valor añadido en la generación de conocimiento, hemos de seguir invirtiendo en actualizarlas y en dar la formación a los jóvenes científicos para que las puedan aprovechar. Está demostrado que en el medio plazo hay una clara correlación entre el nivel de desarrollo científico y el de capacidad económica y bienestar social. 2. Las TIC como palanca de impulso de la Ciencia La física de materiales condujo hace medio siglo al desarrollo de los semiconductores, los transistores y los microprocesadores, los cuales han digitalizado y revolucionado las tecnologías de la computación y las comunicaciones (TIC). El progreso ha sido prodigioso. Es inimaginable hoy un mundo sin teléfonos móviles, sin internet, sin todos los sistemas electrónicos que regulan nuestros aparatos domésticos, automóviles, hospitales, industrias y un largo etcétera. Y estamos acostumbrados a su constante evolución siguiendo la llamada Ley de Moore (dos veces más de velocidad de cálculo y de capacidad de memoria cada 18 meses al mismo coste, es decir un orden de magnitud cada lustro desde hace cincuenta años). Pero, más allá de estos avances, es importante reconocer que en estos momentos son estas mismas tecnologías de la información y comunicaciones las que están revolucionando el avance de la ciencia. Y esta revolución tiene más de una dimensión: en primer lugar, la obvia, la de permitir el tratamiento de cada vez mayores cantidades de datos a mayores velocidades. Así ayudan a los científicos a “hacer” más ciencia más rápidamente. Pero más allá de estos avances de escala, las ciencias de la computación están influyendo en “cómo” se hace la ciencia. Los conceptos, teoremas y herramientas desarrollados en el seno de las llamadas ciencias de la computación se están adaptando como nuevas herramientas en las ciencias dedicadas al estudio de sistemas complejos, especialmente en las ciencias biológicas, así como en el estudio del clima, de fuentes energéticas, del cerebro, de los orígenes del universo, de los orígenes de la vida, etc. Estamos pues ante una nueva revolución. Las revoluciones científicas no son nada frecuentes, pero suelen ocurrir cuando se inventa una nueva herramienta conceptual (como el cálculo) o una nueva herramienta tecnológica (como el telescopio). Veamos algunos ejemplos. Fibonacci en el siglo XIII publicó el tratado “Liber Aci” en el que estableció una nueva rama de las matemáticas, el álgebra. El algebra permitió pasar de las matemáticas de palabras a la matemática de los símbolos. Hasta ese momento en Europa las matemáticas se escribían como palabras. Fibonacci “descubrió” el sistema numérico, que de hecho nació en la India hace 3.000 años, y que llegó a la Europa de la época a través del legado de la cultura árabe. El algebra permitió nuevos tipos de cálculos que cambiaron la sociedad, a través del estudio por ejemplo de los planetas, y de su impacto en el comercio y la religión. Unos 400 años más tarde Newton, en sus esfuerzos por entender las leyes de la naturaleza en base a las tasas de cambio del movimiento, usó el algebra para el desarrollo de una nueva rama de las matemáticas: el cálculo (coincidiendo con los trabajos de von Leibniz). Esta nueva herramienta permitió describir muchas nueves leyes de la naturaleza: tasas de cambio o dinámicas del calor, del sonido, de la luz, de los fluidos, de la electricidad, del magnetismo, etc. De manera parecida, el desarrollo de nuevas herramientas tecnológicas, como el telescopio de Galileo y el microscopio, ambos del siglo XVII, los rayos X del siglo XIX, las máquinas secuenciadoras de DNA de los años ‘60 también han transformado nuestra comprensión del mundo y del universo. El impacto de las TIC en el desarrollo de la ciencia, en el alcance sus resultados y en el impacto de sus herramientas y métodos para entornos complejos, tendrá una importancia al menos igual de significativa en las próximas décadas como lo ha sido estos últimos cincuenta años: impactará nuestra longevidad, nuestra calidad de vida, lo que sabemos de nosotros, de nuestro planeta, de nuestro universo, de cómo afrontar las enfermedades, de cómo gestionar los recursos de nuestro planeta, etc. Las TIC está cambiando la forma de hacer ciencia, proporcionando avances a través de nuevos tipos de experimentos. Estos experimentos generan nuevos tipos de datos, de complejidad y volúmenes exponencialmente mayores. Uno de las cuestiones a resolver es cómo usar, explotar y compartir esta avalancha de datos. Ejemplos de estas avalanchas de datos se dan por ejemplo en el caso del nuevo laboratorio “Large Hadron Collider” del CERN en Ginebra. Está previsto que produzca varios PetaBytes (diez elevado a 15 número de bytes, o PB) anuales. Para ello se ha implementado una arquitectura de tratamiento de estos datos de tipo “grid” que engloba una red internacional de centros de computación con más de 100k CPUs para analizar en cascada las informaciones y patrones más relevantes a las investigaciones en curso. La acumulación de grandes volúmenes de datos, medidos en PB y en ExaBytes (mil PB), se da con gran frecuencia en la ciencia actual, y no sólo en la física de altas energías, sino también en las técnicas de “high throuhgput” de genómica, proteómica, química combinatoria, estudios del clima, astronomía, etc. Pero además, y más allá de estos problemas de escala de volumen de datos, hay otros tipos de problemáticas como es la de tratar datos mucho más heterogéneas y con orígenes mucho más dispersos, como son los casos de biomedicina, astronomía y otros. Se trata de conceptualizar la amplitud y la profundidad de las relaciones y posibles relaciones en el seno de los datos correspondientes. Ello requiere herramientas cada vez más potentes para acceder, manipular, visualizar e interpretar estos datos de una manera eficaz, superando las barreras actuales de heterogeneidad de datos, plataformas y aplicaciones. Las técnicas que se están desarrollando incorporan conceptos de hardware como redes de equipos básicos tipo PC, y redes de agrupaciones de estos equipos para hacer cálculos hasta la fecha únicamente realizables en equipos de supercomputación. Como la cantidad de datos generados en este tipo de entornos excede la velocidad y capacidad de almacenamiento y las velocidades de las redes, se impone complementar las grandes bases de datos centrales con jerarquías federadas de bases de datos especializadas y más pequeñas. Por otro lado las nuevas herramientas de software incluyen conceptos como la semántica, o metadatos, es decir datos que describen los datos, su calidad, dónde y cuándo se han creado, su propiedad intelectual, etc. Y no es sólo para consumo humano, sino que de hecho lo utilizan fundamentalmente los “web services” entre aplicaciones para integrar, transformar y/o hacer cálculos con los datos subyacentes. La gestión de los datos científicos requiere pues avances en los sistemas de gestión de bases de datos que incluyan esta información semántica. Los principios que subyacen el desarrollo de las TIC se conocen como “ciencia de la computación” (“computer science”). Esta ciencia de la computación está contribuyendo en gran manera al avance de la ciencia, de las ciencias naturales. Pero va más allá que esto, está en gran medida reformulando las ciencias naturales. Las ciencias naturales se definen en relación al mundo en el que vivimos y que intentamos describir y predecir en base a estudios empíricos y postulados de teorías y leyes. La ciencia de la computación es más difícil de describir, no tiene las bases empíricas de las ciencias naturales, no se trata sólo razonamientos simbólicos (matemáticas) y no es sólo un compendio de principios de ingeniería y tecnología. Se puede decir que la mejor caracterización de la ciencia de la computación es la manera en que sus practicantes resuelven problemas, diseñan sistemas e interpretan el comportamiento humano en el contexto de dichos sistemas. Por ello se habla del “computational thinking”. Se trata de plantearse cuestiones como, “cuán difícil será de resolver”, “cuál es la mejor mana de resolverlo”, como reformular un problema complejo en otro que sabemos cómo resolver, quizá por reducción, transformación o simulación. Se trata de encontrar la representación más adecuada para un problema, en encontrar la modelización que lo hace tratable. Se trata de usar la abstracción y descomposición al analizar una tarea compleja o diseñar un sistema complejo. Se trata de tener la confianza de poder usar, modificar e influenciar un sistema complejo sin comprender todos sus detalles. Se trata de modularizar algo en anticipación a múltiples usuarios y/o de “pre-fetching” y “caching” futuros. Se trata de juzgar el diseño de un sistema en base a su simplicidad y elegancia. Se trat de pensar de manera recurrente. Se trata de pensar en términos de prevención, protección y recuperación ante los peores escenarios (violación de condiciones de contorno, entornos impredecibles) a través de redundancia, contención de daños y corrección de errores. En resumen, se trata de resolver problemas y diseñar sistemas usando los principios básicos de la ciencia de la computación. Hemos hecho énfasis en que las nuevas fronteras que las TIC ayudan a desarrollar en el mundo de la ciencia están relacionadas con la complejidad. Muchos de los aspectos más importantes de nuestro mundo se representan como sistemas complejos: biología, medicina (como redes intercelulares, sistemas de órganos, epidemiología), en entorno (ecosistemas, etc.), sistemas sociales (como transportes, ciudades, redes sociales), redes de comunicaciones, sistemas económicos, etc. Pero a pesar de que en general se entiende la complejidad como el resultado del comportamiento complejo de muchos elementos simples, de hecho en muchos casos se trata de lo contrario: sistemas altamente complejos que producen comportamientos coherentes. Probablemente una de las fronteras científicas más apasionantes a resolver es la de entender y predecir cómo dichos sistemas complejos producen comportamientos coherentes. Para ello una de las áreas más importantes trata de la codificación del conocimiento científico. Por ello se entiende la traducción del conocimiento en una representación codificada, en términos de datos y programas, susceptible de ser manipulada y analizable mecánicamente. Este proceso ya se ha llevado a cabo en muchas áreas de la ciencia, pero está llegando en otras. La biología es uno de los campos en que este tipo de codificación se ve como fundamental. En su estadio más básico tenemos la codificación del genoma: las estructuras del DNA de diferentes organismos se representan como largas cadenas con un alfabeto de cuatro letras. De esta manera se puede almacenar, buscar, comparar y analizar usando una gran variedad de herramientas computacionales. Ya en el año 2000 a través del proyecto del Genoma Humano se secuenciaron los tres mil millones de parejas de letras de DNA correspondientes. Se tardó trece años y costó tres mil millones de dólares. Debido a los avances en el coste de la secuenciación de DNA, hoy en día se vislumbran costes de sólo mil dólares en plazos de una hora. Este avance en la velocidad y la disminución de los costes de secuenciación de DNA es el equivalente a la ley de Moore para la computación. Y la combinación de ambos avances es lo que permite dar pasos de gigante en la biología de este siglo XXI. El siguiente nivel es el de la proteómica. En este caso las estructuras de datos son más complejas: se trata de cadenas con alfabetos de veinte letras (de aminoácidos) más información posicional tridimensional y más algunas anotaciones complementarias. Esta representación ahora está suficientemente estandarizada, y por ello ya se puede tratar con nuevas herramientas. Más allá hay que codificar las vías metabólicas y de señalización. En este caso lo que hay que almacenar, buscar, comparar, analizar e interpretar son las redes interacciones bioquímicas. Cómo hacerlo es un tema de actualidad. El problema general más complicado será cómo almacenar, buscar, comparar, analizar etc. los procesos biológicos. Se trata de interacciones dinámicas entre múltiplos componentes discretos, como la división de las células. Todo ello nos lleva a reflexionar acerca de la manera de hacer avanzar la ciencia, a partir de primeros principios y/o a partir de inferencias estadísticas. Se trata de vías complementarias y/o alternativas según los casos. Nos recuerda la dicotomía entre los procesos automáticos de traducción, los clásicos basados en el diccionario y los de tipo Google que se basan en el análisis de cantidades ingentes de traducciones de textos previos. En este caso, en el fondo se trata del mismo proceso, pero el segundo es mucho más ágil. Hasta cierto punto es un símil del mundo científico. El valor de las teorías científicas se determina generalmente por su habilidad en realizar predicciones. Pero muchas de las teorías tratan fenómenos tan alejados de nuestra experiencia e intuición diarias, que se hace difícil sino imposible su comprensión “lógica”. Las ecuaciones, los cálculos y las predicciones funcionan de manera pasmosa, pero no somos capaces de “entenderlo” más allá de dichas ecuaciones matemáticas. Piénsese sino en las grandes teorías de la física del siglo XX, como la relatividad y la mecánica cuántica. La certeza de sus predicciones es impresionante, pero no es posible entenderlas de manera intuitiva. Explican fenómenos alejados de nuestras escalas y experiencias. Y en las circunstancias más próxima a nuestra experiencia se transforman en las llamadas leyes de la mecánica clásica, que sí consideramos intuitivas en la actualidad. Pero incluso éstas no eran intuitivas en las épocas que fueron formuladas. Nadie en su sano juicio diría a priori que la manzana de Newton y la Tierra se atraen mutuamente y que ambos se mueven en una elipse alrededor de su centro de gravedad, lo que en la práctica quiere decir que la manzana cae verticalmente. Sólo se puede llegar a aceptar estudiando las trayectorias de los astros, y para ello hay que saber cómo se pueden medir. Así que en los dominios de la ciencia en que se conocen bien las ecuaciones, para realizar predicciones se requiere simplemente utilizar las técnicas numéricas más adecuadas. Sin embargo incluso en estos casos se pueden plantear muchas cuestiones debido a la eficiencia, exactitud numérica y validación del modelo matemático y del modelo de cálculo informático utilizado. Hay que reconocer de todas maneras que en la mayor parte de los campos de la ciencia no es posible llevar a cabo una simulación a partir de primeros principios con los recursos actuales de las TIC; ello es debido a la complejidad del tema o a la ausencia de modelos suficientemente precisos para el problema en cuestión. En estos casos se utilizan métodos estadísticos, incluidos los llamados “machine learning”. Mientras que la estadística clásica se centra en el análisis de los datos para probar las hipótesis planteadas, el objetivo de las técnicas de “machine learning” es la de utilizar métodos estadísticos para hacer predicciones. Esto se ha utilizado con éxito en casos como el de la modelización molecular, para descubrir los principios estructurales de las familias de plegamientos de proteínas, o en el de las predicciones de la toxicidad de pequeñas moléculas. Una de las líneas de desarrollo de los nuevos lenguajes de programación será sin duda el de la inferencia probabilística, en el que se incluyen conceptos tales como la incertidumbre en su base; con ello se acelerará la utilización de los principios del “machine learning”. La investigación de algoritmos y los principios del “machine learning” pueden contribuir a la investigación e uno de las áreas más importantes de la investigación científica, la de la comprensión de cómo se procesa la información en los sistemas biológicos, y en particular en el cerebro. Las dos maneras de realizar predicciones, las basadas en primeros principios, y las basadas en modelos estadísticos de los datos observados, no tienen por qué ser excluyentes, y de hecho hay mucho a ganar en usarlas de manera complementaria para el estudio de sistemas complejos. Por ejemplo en casos como la biología de poblaciones, un estudio completo probablemente requiere una combinación de elementos que provienen de la dinámica no lineal, de la ciencia de la complejidad, de la teoría de redes, de la teoría de procesos estocásticos y del “machine learning”. Este tipo de avances permite plantearse la realización de experimentos autónomos, que son de especial importancia en situaciones en que sería imposible llevarlos a cabo, sea por el volumen de información a analizar, sea por la incapacidad de la instrumentación científica en comunicar todos sus datos con los centros de decisión debido a limitaciones de ancho de banda, como por ejemplo en sondas espaciales o robots utilizados en entornos remotos u hostiles. Dichas técnicas computacionales permiten decidir de manera autónoma a partir de las observaciones previas qué pruebas realizar a continuación, cuándo realizarlas y cuándo suspenderlas. La mayoría de las sondas y robots enviados a entornos remotos sólo dispone de un ancho de banda limitado, lo que no le permite enviar todos los datos recogidos. Así dicho robot puede decidir localmente qué curso de pruebas realizar de manera autónoma. En la misma línea se está llevando a cabo grandes avances en redes inalámbricas y tecnologías de sensores en los chips, de manera a poder realizar grandes proyectos de monitorización del entorno ambiental. La distinción entre lo natural y lo artificial se está difuminando cada vez más debido a los avances en la intersección entre las TIC, la biología, la química y la ingeniería. Estos avances tienen el potencial de revolucionar no solo nuestra capacidad de modelizar, entender y reparar sistemas vivientes complejos, pero también de construir nuevas piezas biológicas que lleguen a ser la base de organismos completamente nuevos. Los temas tratados hasta aquí reflejan el rol de las TIC en transformar e incluso revolucionar la ciencia, es decir su rol de palanca de impulso de la ciencia. Los componentes de esta revolución son conceptos, herramientas y teoremas de la ciencia de la computación que se están transformando en nuevas herramientas conceptuales y tecnológicas de gran aplicabilidad en la ciencia, especialmente las ciencias que investigan sistemas complejos, y muy en particular en las ciencias biológicas. Hay quien defiende que estamos en el albor de una nueva manera de hacer ciencia. 3. La ciencia como palanca de las TIC Pero no únicamente las TIC revolucionan la ciencia. Existe la posibilidad de que pueda ocurrir, en base a dichos avances, justamente lo inverso: que dichos avances de la ciencia, especialmente en biología y química, pueden crear las bases de una revolución fundamental en el área de la computación y las TIC. Es decir, la ciencia puede convertirse en un futuro próximo en una palanca de impulso de las TIC, revolucionando sus bases. 3.1. El potencial de la computación cuántica La ley de Moore ha permitido pasar, de trabajar a escala de una micra, a trabajar a escalas de un nanómetro. Pero al seguir miniaturizando, y de mantenerse dicho ritmo de mejoras, hacia 2030 entraremos en los dominios de la física cuántica. Con ello lo que ganaremos ya no será más velocidad al procesar la información, ya no será una mejora cuantitativa como la que hemos tenido en las últimas décadas, sino que se producirá un cambio cualitativo, una manera totalmente nueva de procesar la información. En estos entornos se reemplazan los dígitos habituales, los 0s y los 1s, por los llamados bits cuánticos o “qubits”. Estos elementos, que pueden ser electrones, fotones, átomos o moléculas se rigen por la física cuántica, y como tales tienen la propiedad de existir a la vez como 0 y como 1 en el fenómeno llamado de la superposición. Ello permite a la computación cuántica procesar muchos cálculos a la vez. Se trata de de que un ordenador cuántico podría ejecutar en un solo paso la misma operación sobre N veces 2 números distintos codificados en forma de superposición de esos N bits: esto es lo que se conoce como paralelismo cuántico. En los ordenadores actuales los problemas se resuelven secuencialmente, mientras que en uno cuántico los problemas pueden combinarse e introducirse en el ordenador simultáneamente, ejecutándose al mismo tiempo. Por ello se llega a hablar de un horizonte de capacidades de cálculo ilimitadas en comparación con las actuales. El principio básico detrás de la computación cuántica es el entrelazamiento (“entanglement”), que permite establecer correlaciones a distancia, y que permite la superposición de dos sistemas y que permite añadir qubits al proceso. El entrelazamiento es el elemento clave detrás de los algoritmos cuánticos y de la criptografía cuántica. Hoy ya disponemos de soluciones comerciales basadas en criptografía cuántica. Aún tardaremos algunas décadas en poder disponer de ordenadores cuánticos con capacidades equivalentes a los actuales, para lo que se estima que hay que llegar a ordenadores que gestionen 100.000 qubits – hoy estamos en las decenas. La dificultad principal a resolver es la del aislamiento total de los qubits del mundo exterior. Pero se trata de un terreno fascinante de investigación científica y tecnológica por su impacto en las TIC. Es de destacar que la revista Science elija, como avance científico más destacado de 2010, el desarrollo de la primera “máquina cuántica”. Una máquina no es un ordenador, ni mucho menos, pero los avances son continuos y las oportunidades increíbles. 3.2. El potencial de la computación molecular Los ordenadores tal como los conocemos hoy responden muy bien a las tareas para los que fueron concebidos. Pero cada vez más podemos imaginar aplicaciones de las TIC para la que no se adapta bien la tecnología actual. Un caso serían dispositivos de cálculo que operasen dentro de organismos vivos, o incluso dentro de una célula. Su diseño requiere una arquitectura completa de computación menor que la de un transistor. Y no existe ninguna limitación fundamental para esta tecnología, como se demuestra con el procesamiento sofisticado de información que ocurre en los organismos vivos. De manera similar, en el área de robótica, el procesamiento en tiempo real de datos complejos en una unidad pequeña, con bajo consumo energético y de poco peso de momento no es viable – pero las comunidades de insectos sociales, como las hormigas, nos demuestran lo que sería posible con dichos tipos de robots dada la tecnología adecuada. El procesamiento de información es esencial para los sistemas biológicos,, tanto para mantener sus organizaciones intrincadas como para poder competir con formas de vida rivales. Por ello hasta los más simples organismos han desarrollado capacidades avanzadas de computación para abordar tareas complejas. Aún hemos de comprender adecuadamente los principios de estos sistemas naturales de computación informática, aunque el continuo avance de las ciencias biológicas nos muestra cada vez más detalles. Ello contribuye al desarrollo de los conceptos de la llamada computación molecular. Los ordenadores actuales se han diseñado siguiendo un formalismo estricto independiente de su implementación física. Las características físicas de los componentes físicos están camufladas gracias a una ingeniería muy completa, lo cual es muy útil para la programación.

    Cercle per al Coneixement

    Hora
    Tipus de publicació

    Posicionaments

    Hora
    Data

    07-01-2011

    1. Introducción Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes. No sólo se trata de pode hacer más cálculos en sí, sino que los avances de la llamada ciencia de la computación, base de las tecnologías de la información y las comunicaciones, están influyendo en las nuevas herramientas conceptuales y tecnológicas utilizadas en la ciencia de sistemas complejos en campos como la biología, la medicina, los ecosistemas, las redes sociales, las redes de comunicaciones, la economía, etc. A su vez, el avance en el conocimiento de dichos sistemas complejos en biología y química permite vislumbrar un horizonte de computación molecular que abra nuevas fronteras en las capacidades de la computación y las comunicaciones. Se trata de sistemas adaptativos y autónomos que desarrollan respuestas coherentes a cambios en su entorno de gran complejidad, mucho más allá de lo que somos capaces de hacer con las tecnologías actuales. Por otro lado se vislumbra el horizonte de la computación cuántica que podría dar lugar en pocos lustros a capacidades de cálculo ilimitadas respecto a las actuales. Por ello no sólo son las TIC una palanca de avance fundamental de la ciencia, sino que, además, la ciencia es una palanca de avance fundamental de las TIC, en un círculo virtuoso acelerado de grandes implicaciones. En ambos casos se trata de avances espectaculares en nuestra comprensión del mundo que nos rodea, de nuestra capacidad de desarrollo tecnológico, y, por ende, de nuestro desarrollo económico y social. Estamos en el albor de una nueva manera de hacer ciencia. Es por ello crucial que la sociedad conozca las bases y el potencial de estos avances. Catalunya dispone de buenas infraestructuras técnicas TIC para la ciencia. Si aspiramos a convertirnos en una sociedad del conocimiento, con valor añadido en la generación de conocimiento, hemos de seguir invirtiendo en actualizarlas y en dar la formación a los jóvenes científicos para que las puedan aprovechar. Está demostrado que en el medio plazo hay una clara correlación entre el nivel de desarrollo científico y el de capacidad económica y bienestar social. 2. Las TIC como palanca de impulso de la Ciencia La física de materiales condujo hace medio siglo al desarrollo de los semiconductores, los transistores y los microprocesadores, los cuales han digitalizado y revolucionado las tecnologías de la computación y las comunicaciones (TIC). El progreso ha sido prodigioso. Es inimaginable hoy un mundo sin teléfonos móviles, sin internet, sin todos los sistemas electrónicos que regulan nuestros aparatos domésticos, automóviles, hospitales, industrias y un largo etcétera. Y estamos acostumbrados a su constante evolución siguiendo la llamada Ley de Moore (dos veces más de velocidad de cálculo y de capacidad de memoria cada 18 meses al mismo coste, es decir un orden de magnitud cada lustro desde hace cincuenta años). Pero, más allá de estos avances, es importante reconocer que en estos momentos son estas mismas tecnologías de la información y comunicaciones las que están revolucionando el avance de la ciencia. Y esta revolución tiene más de una dimensión: en primer lugar, la obvia, la de permitir el tratamiento de cada vez mayores cantidades de datos a mayores velocidades. Así ayudan a los científicos a “hacer” más ciencia más rápidamente. Pero más allá de estos avances de escala, las ciencias de la computación están influyendo en “cómo” se hace la ciencia. Los conceptos, teoremas y herramientas desarrollados en el seno de las llamadas ciencias de la computación se están adaptando como nuevas herramientas en las ciencias dedicadas al estudio de sistemas complejos, especialmente en las ciencias biológicas, así como en el estudio del clima, de fuentes energéticas, del cerebro, de los orígenes del universo, de los orígenes de la vida, etc. Estamos pues ante una nueva revolución. Las revoluciones científicas no son nada frecuentes, pero suelen ocurrir cuando se inventa una nueva herramienta conceptual (como el cálculo) o una nueva herramienta tecnológica (como el telescopio). Veamos algunos ejemplos. Fibonacci en el siglo XIII publicó el tratado “Liber Aci” en el que estableció una nueva rama de las matemáticas, el álgebra. El algebra permitió pasar de las matemáticas de palabras a la matemática de los símbolos. Hasta ese momento en Europa las matemáticas se escribían como palabras. Fibonacci “descubrió” el sistema numérico, que de hecho nació en la India hace 3.000 años, y que llegó a la Europa de la época a través del legado de la cultura árabe. El algebra permitió nuevos tipos de cálculos que cambiaron la sociedad, a través del estudio por ejemplo de los planetas, y de su impacto en el comercio y la religión. Unos 400 años más tarde Newton, en sus esfuerzos por entender las leyes de la naturaleza en base a las tasas de cambio del movimiento, usó el algebra para el desarrollo de una nueva rama de las matemáticas: el cálculo (coincidiendo con los trabajos de von Leibniz). Esta nueva herramienta permitió describir muchas nueves leyes de la naturaleza: tasas de cambio o dinámicas del calor, del sonido, de la luz, de los fluidos, de la electricidad, del magnetismo, etc. De manera parecida, el desarrollo de nuevas herramientas tecnológicas, como el telescopio de Galileo y el microscopio, ambos del siglo XVII, los rayos X del siglo XIX, las máquinas secuenciadoras de DNA de los años ‘60 también han transformado nuestra comprensión del mundo y del universo. El impacto de las TIC en el desarrollo de la ciencia, en el alcance sus resultados y en el impacto de sus herramientas y métodos para entornos complejos, tendrá una importancia al menos igual de significativa en las próximas décadas como lo ha sido estos últimos cincuenta años: impactará nuestra longevidad, nuestra calidad de vida, lo que sabemos de nosotros, de nuestro planeta, de nuestro universo, de cómo afrontar las enfermedades, de cómo gestionar los recursos de nuestro planeta, etc. Las TIC está cambiando la forma de hacer ciencia, proporcionando avances a través de nuevos tipos de experimentos. Estos experimentos generan nuevos tipos de datos, de complejidad y volúmenes exponencialmente mayores. Uno de las cuestiones a resolver es cómo usar, explotar y compartir esta avalancha de datos. Ejemplos de estas avalanchas de datos se dan por ejemplo en el caso del nuevo laboratorio “Large Hadron Collider” del CERN en Ginebra. Está previsto que produzca varios PetaBytes (diez elevado a 15 número de bytes, o PB) anuales. Para ello se ha implementado una arquitectura de tratamiento de estos datos de tipo “grid” que engloba una red internacional de centros de computación con más de 100k CPUs para analizar en cascada las informaciones y patrones más relevantes a las investigaciones en curso. La acumulación de grandes volúmenes de datos, medidos en PB y en ExaBytes (mil PB), se da con gran frecuencia en la ciencia actual, y no sólo en la física de altas energías, sino también en las técnicas de “high throuhgput” de genómica, proteómica, química combinatoria, estudios del clima, astronomía, etc. Pero además, y más allá de estos problemas de escala de volumen de datos, hay otros tipos de problemáticas como es la de tratar datos mucho más heterogéneas y con orígenes mucho más dispersos, como son los casos de biomedicina, astronomía y otros. Se trata de conceptualizar la amplitud y la profundidad de las relaciones y posibles relaciones en el seno de los datos correspondientes. Ello requiere herramientas cada vez más potentes para acceder, manipular, visualizar e interpretar estos datos de una manera eficaz, superando las barreras actuales de heterogeneidad de datos, plataformas y aplicaciones. Las técnicas que se están desarrollando incorporan conceptos de hardware como redes de equipos básicos tipo PC, y redes de agrupaciones de estos equipos para hacer cálculos hasta la fecha únicamente realizables en equipos de supercomputación. Como la cantidad de datos generados en este tipo de entornos excede la velocidad y capacidad de almacenamiento y las velocidades de las redes, se impone complementar las grandes bases de datos centrales con jerarquías federadas de bases de datos especializadas y más pequeñas. Por otro lado las nuevas herramientas de software incluyen conceptos como la semántica, o metadatos, es decir datos que describen los datos, su calidad, dónde y cuándo se han creado, su propiedad intelectual, etc. Y no es sólo para consumo humano, sino que de hecho lo utilizan fundamentalmente los “web services” entre aplicaciones para integrar, transformar y/o hacer cálculos con los datos subyacentes. La gestión de los datos científicos requiere pues avances en los sistemas de gestión de bases de datos que incluyan esta información semántica. Los principios que subyacen el desarrollo de las TIC se conocen como “ciencia de la computación” (“computer science”). Esta ciencia de la computación está contribuyendo en gran manera al avance de la ciencia, de las ciencias naturales. Pero va más allá que esto, está en gran medida reformulando las ciencias naturales. Las ciencias naturales se definen en relación al mundo en el que vivimos y que intentamos describir y predecir en base a estudios empíricos y postulados de teorías y leyes. La ciencia de la computación es más difícil de describir, no tiene las bases empíricas de las ciencias naturales, no se trata sólo razonamientos simbólicos (matemáticas) y no es sólo un compendio de principios de ingeniería y tecnología. Se puede decir que la mejor caracterización de la ciencia de la computación es la manera en que sus practicantes resuelven problemas, diseñan sistemas e interpretan el comportamiento humano en el contexto de dichos sistemas. Por ello se habla del “computational thinking”. Se trata de plantearse cuestiones como, “cuán difícil será de resolver”, “cuál es la mejor mana de resolverlo”, como reformular un problema complejo en otro que sabemos cómo resolver, quizá por reducción, transformación o simulación. Se trata de encontrar la representación más adecuada para un problema, en encontrar la modelización que lo hace tratable. Se trata de usar la abstracción y descomposición al analizar una tarea compleja o diseñar un sistema complejo. Se trata de tener la confianza de poder usar, modificar e influenciar un sistema complejo sin comprender todos sus detalles. Se trata de modularizar algo en anticipación a múltiples usuarios y/o de “pre-fetching” y “caching” futuros. Se trata de juzgar el diseño de un sistema en base a su simplicidad y elegancia. Se trat de pensar de manera recurrente. Se trata de pensar en términos de prevención, protección y recuperación ante los peores escenarios (violación de condiciones de contorno, entornos impredecibles) a través de redundancia, contención de daños y corrección de errores. En resumen, se trata de resolver problemas y diseñar sistemas usando los principios básicos de la ciencia de la computación. Hemos hecho énfasis en que las nuevas fronteras que las TIC ayudan a desarrollar en el mundo de la ciencia están relacionadas con la complejidad. Muchos de los aspectos más importantes de nuestro mundo se representan como sistemas complejos: biología, medicina (como redes intercelulares, sistemas de órganos, epidemiología), en entorno (ecosistemas, etc.), sistemas sociales (como transportes, ciudades, redes sociales), redes de comunicaciones, sistemas económicos, etc. Pero a pesar de que en general se entiende la complejidad como el resultado del comportamiento complejo de muchos elementos simples, de hecho en muchos casos se trata de lo contrario: sistemas altamente complejos que producen comportamientos coherentes. Probablemente una de las fronteras científicas más apasionantes a resolver es la de entender y predecir cómo dichos sistemas complejos producen comportamientos coherentes. Para ello una de las áreas más importantes trata de la codificación del conocimiento científico. Por ello se entiende la traducción del conocimiento en una representación codificada, en términos de datos y programas, susceptible de ser manipulada y analizable mecánicamente. Este proceso ya se ha llevado a cabo en muchas áreas de la ciencia, pero está llegando en otras. La biología es uno de los campos en que este tipo de codificación se ve como fundamental. En su estadio más básico tenemos la codificación del genoma: las estructuras del DNA de diferentes organismos se representan como largas cadenas con un alfabeto de cuatro letras. De esta manera se puede almacenar, buscar, comparar y analizar usando una gran variedad de herramientas computacionales. Ya en el año 2000 a través del proyecto del Genoma Humano se secuenciaron los tres mil millones de parejas de letras de DNA correspondientes. Se tardó trece años y costó tres mil millones de dólares. Debido a los avances en el coste de la secuenciación de DNA, hoy en día se vislumbran costes de sólo mil dólares en plazos de una hora. Este avance en la velocidad y la disminución de los costes de secuenciación de DNA es el equivalente a la ley de Moore para la computación. Y la combinación de ambos avances es lo que permite dar pasos de gigante en la biología de este siglo XXI. El siguiente nivel es el de la proteómica. En este caso las estructuras de datos son más complejas: se trata de cadenas con alfabetos de veinte letras (de aminoácidos) más información posicional tridimensional y más algunas anotaciones complementarias. Esta representación ahora está suficientemente estandarizada, y por ello ya se puede tratar con nuevas herramientas. Más allá hay que codificar las vías metabólicas y de señalización. En este caso lo que hay que almacenar, buscar, comparar, analizar e interpretar son las redes interacciones bioquímicas. Cómo hacerlo es un tema de actualidad. El problema general más complicado será cómo almacenar, buscar, comparar, analizar etc. los procesos biológicos. Se trata de interacciones dinámicas entre múltiplos componentes discretos, como la división de las células. Todo ello nos lleva a reflexionar acerca de la manera de hacer avanzar la ciencia, a partir de primeros principios y/o a partir de inferencias estadísticas. Se trata de vías complementarias y/o alternativas según los casos. Nos recuerda la dicotomía entre los procesos automáticos de traducción, los clásicos basados en el diccionario y los de tipo Google que se basan en el análisis de cantidades ingentes de traducciones de textos previos. En este caso, en el fondo se trata del mismo proceso, pero el segundo es mucho más ágil. Hasta cierto punto es un símil del mundo científico. El valor de las teorías científicas se determina generalmente por su habilidad en realizar predicciones. Pero muchas de las teorías tratan fenómenos tan alejados de nuestra experiencia e intuición diarias, que se hace difícil sino imposible su comprensión “lógica”. Las ecuaciones, los cálculos y las predicciones funcionan de manera pasmosa, pero no somos capaces de “entenderlo” más allá de dichas ecuaciones matemáticas. Piénsese sino en las grandes teorías de la física del siglo XX, como la relatividad y la mecánica cuántica. La certeza de sus predicciones es impresionante, pero no es posible entenderlas de manera intuitiva. Explican fenómenos alejados de nuestras escalas y experiencias. Y en las circunstancias más próxima a nuestra experiencia se transforman en las llamadas leyes de la mecánica clásica, que sí consideramos intuitivas en la actualidad. Pero incluso éstas no eran intuitivas en las épocas que fueron formuladas. Nadie en su sano juicio diría a priori que la manzana de Newton y la Tierra se atraen mutuamente y que ambos se mueven en una elipse alrededor de su centro de gravedad, lo que en la práctica quiere decir que la manzana cae verticalmente. Sólo se puede llegar a aceptar estudiando las trayectorias de los astros, y para ello hay que saber cómo se pueden medir. Así que en los dominios de la ciencia en que se conocen bien las ecuaciones, para realizar predicciones se requiere simplemente utilizar las técnicas numéricas más adecuadas. Sin embargo incluso en estos casos se pueden plantear muchas cuestiones debido a la eficiencia, exactitud numérica y validación del modelo matemático y del modelo de cálculo informático utilizado. Hay que reconocer de todas maneras que en la mayor parte de los campos de la ciencia no es posible llevar a cabo una simulación a partir de primeros principios con los recursos actuales de las TIC; ello es debido a la complejidad del tema o a la ausencia de modelos suficientemente precisos para el problema en cuestión. En estos casos se utilizan métodos estadísticos, incluidos los llamados “machine learning”. Mientras que la estadística clásica se centra en el análisis de los datos para probar las hipótesis planteadas, el objetivo de las técnicas de “machine learning” es la de utilizar métodos estadísticos para hacer predicciones. Esto se ha utilizado con éxito en casos como el de la modelización molecular, para descubrir los principios estructurales de las familias de plegamientos de proteínas, o en el de las predicciones de la toxicidad de pequeñas moléculas. Una de las líneas de desarrollo de los nuevos lenguajes de programación será sin duda el de la inferencia probabilística, en el que se incluyen conceptos tales como la incertidumbre en su base; con ello se acelerará la utilización de los principios del “machine learning”. La investigación de algoritmos y los principios del “machine learning” pueden contribuir a la investigación e uno de las áreas más importantes de la investigación científica, la de la comprensión de cómo se procesa la información en los sistemas biológicos, y en particular en el cerebro. Las dos maneras de realizar predicciones, las basadas en primeros principios, y las basadas en modelos estadísticos de los datos observados, no tienen por qué ser excluyentes, y de hecho hay mucho a ganar en usarlas de manera complementaria para el estudio de sistemas complejos. Por ejemplo en casos como la biología de poblaciones, un estudio completo probablemente requiere una combinación de elementos que provienen de la dinámica no lineal, de la ciencia de la complejidad, de la teoría de redes, de la teoría de procesos estocásticos y del “machine learning”. Este tipo de avances permite plantearse la realización de experimentos autónomos, que son de especial importancia en situaciones en que sería imposible llevarlos a cabo, sea por el volumen de información a analizar, sea por la incapacidad de la instrumentación científica en comunicar todos sus datos con los centros de decisión debido a limitaciones de ancho de banda, como por ejemplo en sondas espaciales o robots utilizados en entornos remotos u hostiles. Dichas técnicas computacionales permiten decidir de manera autónoma a partir de las observaciones previas qué pruebas realizar a continuación, cuándo realizarlas y cuándo suspenderlas. La mayoría de las sondas y robots enviados a entornos remotos sólo dispone de un ancho de banda limitado, lo que no le permite enviar todos los datos recogidos. Así dicho robot puede decidir localmente qué curso de pruebas realizar de manera autónoma. En la misma línea se está llevando a cabo grandes avances en redes inalámbricas y tecnologías de sensores en los chips, de manera a poder realizar grandes proyectos de monitorización del entorno ambiental. La distinción entre lo natural y lo artificial se está difuminando cada vez más debido a los avances en la intersección entre las TIC, la biología, la química y la ingeniería. Estos avances tienen el potencial de revolucionar no solo nuestra capacidad de modelizar, entender y reparar sistemas vivientes complejos, pero también de construir nuevas piezas biológicas que lleguen a ser la base de organismos completamente nuevos. Los temas tratados hasta aquí reflejan el rol de las TIC en transformar e incluso revolucionar la ciencia, es decir su rol de palanca de impulso de la ciencia. Los componentes de esta revolución son conceptos, herramientas y teoremas de la ciencia de la computación que se están transformando en nuevas herramientas conceptuales y tecnológicas de gran aplicabilidad en la ciencia, especialmente las ciencias que investigan sistemas complejos, y muy en particular en las ciencias biológicas. Hay quien defiende que estamos en el albor de una nueva manera de hacer ciencia. 3. La ciencia como palanca de las TIC Pero no únicamente las TIC revolucionan la ciencia. Existe la posibilidad de que pueda ocurrir, en base a dichos avances, justamente lo inverso: que dichos avances de la ciencia, especialmente en biología y química, pueden crear las bases de una revolución fundamental en el área de la computación y las TIC. Es decir, la ciencia puede convertirse en un futuro próximo en una palanca de impulso de las TIC, revolucionando sus bases. 3.1. El potencial de la computación cuántica La ley de Moore ha permitido pasar, de trabajar a escala de una micra, a trabajar a escalas de un nanómetro. Pero al seguir miniaturizando, y de mantenerse dicho ritmo de mejoras, hacia 2030 entraremos en los dominios de la física cuántica. Con ello lo que ganaremos ya no será más velocidad al procesar la información, ya no será una mejora cuantitativa como la que hemos tenido en las últimas décadas, sino que se producirá un cambio cualitativo, una manera totalmente nueva de procesar la información. En estos entornos se reemplazan los dígitos habituales, los 0s y los 1s, por los llamados bits cuánticos o “qubits”. Estos elementos, que pueden ser electrones, fotones, átomos o moléculas se rigen por la física cuántica, y como tales tienen la propiedad de existir a la vez como 0 y como 1 en el fenómeno llamado de la superposición. Ello permite a la computación cuántica procesar muchos cálculos a la vez. Se trata de de que un ordenador cuántico podría ejecutar en un solo paso la misma operación sobre N veces 2 números distintos codificados en forma de superposición de esos N bits: esto es lo que se conoce como paralelismo cuántico. En los ordenadores actuales los problemas se resuelven secuencialmente, mientras que en uno cuántico los problemas pueden combinarse e introducirse en el ordenador simultáneamente, ejecutándose al mismo tiempo. Por ello se llega a hablar de un horizonte de capacidades de cálculo ilimitadas en comparación con las actuales. El principio básico detrás de la computación cuántica es el entrelazamiento (“entanglement”), que permite establecer correlaciones a distancia, y que permite la superposición de dos sistemas y que permite añadir qubits al proceso. El entrelazamiento es el elemento clave detrás de los algoritmos cuánticos y de la criptografía cuántica. Hoy ya disponemos de soluciones comerciales basadas en criptografía cuántica. Aún tardaremos algunas décadas en poder disponer de ordenadores cuánticos con capacidades equivalentes a los actuales, para lo que se estima que hay que llegar a ordenadores que gestionen 100.000 qubits – hoy estamos en las decenas. La dificultad principal a resolver es la del aislamiento total de los qubits del mundo exterior. Pero se trata de un terreno fascinante de investigación científica y tecnológica por su impacto en las TIC. Es de destacar que la revista Science elija, como avance científico más destacado de 2010, el desarrollo de la primera “máquina cuántica”. Una máquina no es un ordenador, ni mucho menos, pero los avances son continuos y las oportunidades increíbles. 3.2. El potencial de la computación molecular Los ordenadores tal como los conocemos hoy responden muy bien a las tareas para los que fueron concebidos. Pero cada vez más podemos imaginar aplicaciones de las TIC para la que no se adapta bien la tecnología actual. Un caso serían dispositivos de cálculo que operasen dentro de organismos vivos, o incluso dentro de una célula. Su diseño requiere una arquitectura completa de computación menor que la de un transistor. Y no existe ninguna limitación fundamental para esta tecnología, como se demuestra con el procesamiento sofisticado de información que ocurre en los organismos vivos. De manera similar, en el área de robótica, el procesamiento en tiempo real de datos complejos en una unidad pequeña, con bajo consumo energético y de poco peso de momento no es viable – pero las comunidades de insectos sociales, como las hormigas, nos demuestran lo que sería posible con dichos tipos de robots dada la tecnología adecuada. El procesamiento de información es esencial para los sistemas biológicos,, tanto para mantener sus organizaciones intrincadas como para poder competir con formas de vida rivales. Por ello hasta los más simples organismos han desarrollado capacidades avanzadas de computación para abordar tareas complejas. Aún hemos de comprender adecuadamente los principios de estos sistemas naturales de computación informática, aunque el continuo avance de las ciencias biológicas nos muestra cada vez más detalles. Ello contribuye al desarrollo de los conceptos de la llamada computación molecular. Los ordenadores actuales se han diseñado siguiendo un formalismo estricto independiente de su implementación física. Las características físicas de los componentes físicos están camufladas gracias a una ingeniería muy completa, lo cual es muy útil para la programación.
  • |

    L’impacte de les TIC en els Mitjans de Comunicació, Media.

    L’impacte de les TIC en els Mitjans de Comunicació, Media.

    Cercle per al Coneixement

    Hora
    Tipus de publicació

    Articles

    Hora
    Data

    07-01-2011

    Tots els àmbits de la Societat i Sectors de l’Economia s’han vist profundament alterats per les Tecnologies de la Informació i les Comunicacions (TIC). Però, en aquells que tenen per producte de base un bé inmaterial, intangible, l’impacte de les TIC és integral. És el cas dels Mitjans de Comunicació, els Media. Article original adjunt…

    Tots els àmbits de la Societat i Sectors de l’Economia s’han vist profundament alterats per les Tecnologies de la Informació i les Comunicacions (TIC). Però, en aquells que ténen per producte de base un bé inmaterial, intangible, l’impacte de les TIC és integral. És el cas dels Mitjans de Comunicació, els Media. Efectivament, cap Sector pot prescindir, avui, dels factors competitius que les TIC li proporcionen. Tant si ens fixem en empreses del sector primari, com en empreses de fabricació o de serveis, les TIC proporcionen eines imprescindibles per a la millora de tots els processos interns i externs: siguin d’aprovisionament, de fabricació, tècnics, de gestió, financers, comercials i de distribució, etc… Però el cas dels Media és un cas molt particular. És una indústria que produeix i distribueix Continguts d’Informació i d’Entreteniment audiovisuals destinats als ciutadans. Com a Sector, està extremadament afectat per la irrupció de les TIC perquè el seu impacte té diferents nivells que es superposen i que converteixen en molt més complexa l’adaptació de les estructures empresarials i el tipus de producte a la nova Tecnologia, als nous temps. Per simplificar, parlem de 3 nivells: El primer nivell, que anomenarem “Operatiu”, és al que estan sotmesos tots els Sectors i empreses. És el que té que veure amb la modificació (per a la millora) de tots els processos empresarials, siguin de caire general o bé els específics d’aquesta indústria. Dins dels generals podríem anomenar, per exemple, els ja esmentats relatius a la Gestió: la informació en temps real, idèntica i compartida per tothom en els diferents àmbits i funcions: permet una presa de decisions més ràpida i documentada, amb la mínima indeterminació i, per tant, mínim marge d’error. En el camp dels processos específics, la fabricació dels continguts audiovisuals ha canviat substancialment des de la incorporació de la tecnologia Digital. En els entorns de producció, per exemple, han desaparegut les cintes magnètiques de vídeo analògiques o digitals, on s’emmagatzemava el contingut, i els equips d’edició dedicats, deixant pas, avui, a servidors en línia i a eines d’edició que es poden fer anar des de qualsevol PC. Així, un mateix contingut o material audiovisual ara està disponible en temps real per a totes les persones que l’hagin de manipular, en qualsevol moment i, molt important, des de qualsevol lloc del món amb connexió a Internet. Això vol dir, per exemple, que la producció audiovisual pot estar distribuïda en localitzacions geogràfiques diferents, sense deixar de treballar en un mateix producte. Aquest primer nivell d’impacte ha suposat canvis profunds en la manera de treballar d’aquestes empreses, grans estalvis econòmics i notables millores de productivitat. El segon nivell, el de Distribució, és ja més profund en termes de model de negoci o de l’essència mateixa de l’activitat que es desenvolupa. Aquest nivell es posa de manifest molt clarament quan observem fins a quin punt els Media han desbordat els seus canals de distribució tradicionals, la Ràdio i la TV analògiques, i ofereixen els seus continguts a través de més canals de TV Digital, d’Internet, de les Xarxes Socials, dels dispositius portàtils com mòbils, iPhones i iPads, les consoles de jocs o bé últimament els ConnectedTV’s, TV’s connectats a Internet. La TV Digital, la TDT, ha suposat una explosió en la oferta de canals de TV en obert. Això ha provocat una gran fragmentació de l’audiència donat que la demanda de TV no ha crescut en la mateixa proporció; de fet ha crescut molt poc. Així, l’impacte econòmic de la nova tecnologia, negatiu en aquest cas, és la caiguda de l’audiència i per tant dels preus de la publicitat i del seu marge, degut a la gran rivalitat existent entre els diferents competidors per un mateix mercat que no creix. Es modifica el model de negoci i la seva essència perquè els Media es veuen obligats a adaptar-se a uns escenaris d’audiència i d’ingressos decreixents, i, alhora, de més producció i cost per omplir els nous canals de TDT que tenen atorgats. L’altra cara de la mateixa moneda són les Noves Plataformes de distribució, habilitades també per la Tecnologia i la Convergència Digital, que experimenten un extraordinari creixement, fruit de l’increment d’usuaris d’Internet, de la disponibilitat de Banda Ampla, i dels serveis innovadors que aquestes plataformes permeten oferir als usuaris: un dels més importants, el VOD (Vídeo sota Demanda). Aquí sí que es descobreix una nova demanda, que és sostingudament creixent en el temps. Així, en el cas de la Corporació Catalana de Mitjans Audiovisuals (CCMA), quan la quota de mercat de TV ha caigut gairebé un 40% en els últims 6 anys, el consum de VOD ha crescut sostingudament a ritmes de més del 100% anual. Al 2010, quan el consum mig arriba ja a 1 milió d’hores al mes, amb més de 250.000 vídeos diaris, el creixement interanual encara és del + 68% respecte al 2009. A més, les TIC, permeten contínuament obrir nous canals de distribució, que experimenten, tots ells, un gran creixement. Finalment, el tercer nivell, el de Format, és profundament intrínsec a la naturalesa del negoci, tal com ho expressa la primera figura. El Format és el llenguatge en que els Media construeixen el seu missatge, és el codi d’expressió amb el que comuniquen el seu producte, sigui informatiu o bé d’entreteniment. I aquí, les TIC han tingut també un impacte extremadament important. Les TIC han posat a disposició dels ciutadans, dels usuaris dels Media, no només nous dispositius sinó també noves maneres de relacionar-se amb la informació i l’entreteniment. Internet ha possibilitat la nova era de la comunicació interactiva, en que l’usuari final no només escolta i mira, sinó que respon i vol participar. És també l’era del treball col·laboratiu, en que les persones han deixat de ser destinataris purs de la informació i han passat a ser també fonts d’informació, generadors d’informació en obert, per a tothom. És l’era de les xarxes socials, en que ja no hi ha un Comunicador principal i un univers d’usuaris que escolten sinó que el flux de comunicació és en totes direccions, en xarxa, i tothom pot ser un Node d’aquesta xarxa. Així, els formats antics, els televisius o radiofònics de sempre, esdevenen obsolets, i els participants d’aquesta gran xarxa aprecien cada cop més els productes de Comunicació en que ells puguin tenir un rol actiu, participar, opinar, incidir en aquella experiència, o fins i tot protagonitzar-la. És a dir, es democratitza la Comunicació fins a la individualitat. Aquest és potser el major repte per al Sector dels Media. Perquè implica fer profundes innovacions en el llenguatge en el que sempre s’han expressat i en tots els elements creatius i de producció que porta associats, per tal de poder aspirar a mantenir la confiança d’uns usuaris que tenen milers d’opcions alternatives per a les seves necessitats d’informació i d’oci. En resum, el Sector dels Media és un dels més afectats per la irrupció de les TIC i la seva contínua evolució. Un impacte en 3 diferents nivells: cada un prou important com per revisar profundament les estructures i processos existents. I, els tres alhora, un repte de proporcions immenses que determinarà sens dubte la supervivència i enfortiment dels qui es dotin de les millors pràctiques de Management per fer-hi front i la obsolescència i desaparició dels qui pretenguin seguir fent el que feien en el passat.

    Subscriu-te al butlletí

    Subscriu-te als nostre butlletí per estar al dia de tot el que fem. Rebràs el butlletí d’Amics del País, amb informació sobre les nostres activitats i notícies destacades, les convocatòries i novetats de les conferències que organitzem.

    * Camps requerits

  • |

    Les TIC i el turisme

    Les TIC i el turisme

    Cercle per al Coneixement

    Hora
    Tipus de publicació

    Articles

    Hora
    Data

    07-01-2011

    El turisme representa una de les activitats amb més repercussió en les economies mundials i amb un gran impacte sobre la societat en general, fet que deriva en l’ús intensiu de la informació, provocant que les tecnologies que treballen amb ella esdevinguin de vital importància per a la consecució dels objectius. La informació és un…

    El turisme representa una de les activitats amb més repercussió en les economies mundials i amb un gran impacte sobre la societat en general, fet que deriva en l’ús intensiu de la informació, provocant que les tecnologies que treballen amb ella esdevinguin de vital importància per a la consecució dels objectius. La informació és un element fonamental en la indústria turística, un dels seus actius més importants al voltant de la qual s’articulen les estratègies i sobre la que una organització pot fonamentar el seu èxit. El factor clau està en la capacitat de gestionar correctament la informació en tot el seu cicle de vida. Si a la informació li afegim la dimensió de la comunicació, llavors les Tecnologies de la Informació i la Comunicació (TIC) poden fer una important aportació en la cadena de valor del producte o servei turístic, afavorint la competitivitat del sector. Podem considerar que el turisme ha contribuït en gran manera a la pròpia evolució de les tecnologies de la informació i això va en sintonia al fet de que les tecnologies no representen per sí mateixes un objectiu, sinó que són un facilitador i estan dissenyades per assolir la consecució d’unes necessitats. Una prova d’això és que podem atribuir grans paral·lelismes entre les característiques intrínseques del Turisme (global, social, responsable, participatiu, col·laboratiu…) i les pròpies característiques que acaben tenint les TIC que donen cobertura a les estratègies articulades per assolir els nous reptes que planteja el Turisme. Tecnologies que poden evidenciar aquest fet són les que s’han construït al voltant d’Internet i les que han anat sorgint de la seva pròpia evolució cap a entorns web 2.0 i les xarxes socials. Es tracta de tecnologies concebudes sota el mateix prisma en que es basa el Turisme i això fa que acabin resultant eines útils per construir els requisits del Turisme del futur, el ja anomenat Turisme 2.0. El sector turísTIC ha estat sempre un dels sectors amb més inversió en TIC, tecnologies que van des dels sistemes de gestió de reserves (GDS – Global Distribution Systems), les destinacions turístiques (DMS –Destination Management systems) o l’àmbit hoteler i la restauració (PMS – Property Management Systems), entre d’altres. Grans referents en l’aplicació de les TIC són les multinacionals hoteleres (Sol Melià, NH Hoteles…) i les agències de viatge tradicionals que han anat evolucionant cap a un model mixt online (Viajes El Corte Inglés, Viajes Halcón-Ecuador, Viajes Iberia…), però les empreses que estan assolint un major increment de vendes són precisament les que estan operant 100% online (eDreams, Rumbo, LastMinute …). La importància del creixement de les empreses online es fa palesa en la comparativa de creixement amb les agències tradicionals. En concret, les 5 principals agències tradicionals van facturar un 15% menys el 2009 respecte del 2008, en canvi les 5 principals agències exclusivament online van facturar un 10% més, encara que molt lluny del creixement del 59 % que van experimentar el 2007 (segons font publicada per Hosteltur – Octubre de 2010). Per altre costat, les TIC han obert les portes a nous negocis vinculats amb el sector turístic, a destacar empreses .com: HotelJuice, Minube, ForFree, TotRural… Moltes de les innovacions en TIC en aquest sector han servit de model per altres sectors. Si els requisits militars de la dècada dels 60 van desencadenar un important avenç tecnològic, motiu pel qual va néixer la pròpia xarxa Internet, podríem dir que el sector turístic ha estat un dels precursors i dinamitzadors de molts dels avenços tecnològics de l’actualitat. Els GDS són un exemple clar d’aquest efecte pioner i un model a partir del qual ha possibilitat evolucionar cap el que ara representen els principals sistemes de reserves online, accessibles de manera pública via Internet i que estant facilitant la desintermediació del sector i en conseqüència provocant un canvi en el propi procés turístic. Però, en aquest cas concret, la pregunta és: Han estat les TIC, de manera directa, les que han desencadenat aquest procés de canvi?. Probablement ha estat la combinació entre la pròpia evolució i redefinició dels processos i la incorporació de la tecnologia el que ha impulsat aquest canvi. La tecnologia ha donat resposta a noves necessitats, ha permès que el sector turístic s’adaptés a un nou entorn i apareguessin nous models de negoci intensius en tecnologia, ha estat cabdal per al desenvolupament de noves alternatives per a la promoció de destinacions turístiques. Les xarxes socials esdevenen un nou canal a l’hora de propagar les marques turístiques a través de les experiències viscudes pels usuaris de serveis turístics. El propi client, en aquest cas el turista, ha passat a ser el centre de totes les operacions, participant activament en el procés turístic. Les TIC han estat l’eina, bé a través de tecnologies ja existents o bé amb noves tecnologies sorgides precisament per poder complir amb els nous requisits de canvi, que ha permès dissenyar aquest nou model de relació amb els clients. Per estar en disposició d’afrontar aquest panorama, el directiu del sector turístic ha de ser capaç d’orientar els esforços en vies d’explotar al màxim els beneficis de la informació, des d’una vessant estratègica, fent ús de sistemes de monitorització, anàlisi i ajut a la presa de decisions. Els quadres de responsabilitat, tant a nivell de l’alta direcció com els quadres intermedis, han de fer front al repte que suposen els Business Intelligence Systems i utilitzar-los en pro a un augment de la competitivitat del negoci, interpretant els indicadors de manera que puguin influir clarament en l’aportació de valor afegit en cadascun dels processos que esdevenen rellevants en l’increment de la qualitat del servei. En definitiva, han de tenir la capacitat de transformar la informació en coneixement per la presa de decisions i per afrontar el repte de la innovació contínua. Les tecnologies han d’alliberar de processos operatius i cíclics que no aporten valor al cicle de vida del producte i al servei turístic i permetre destinar els esforços a definir estratègies per potenciar un model de turisme d’excel·lència on l’experiència viscuda, la singularitat de les propostes i l’autenticitat dels recursos permetin eixamplar un model intensiu de sol i platja. Un dels elements claus per afavorir aquest comportament és la necessària Formació en TIC. És imprescindible la incorporació de competències clau en TIC per part del professional del turisme, introduint cada cop més en el seu perfil alts coneixements en TIC que l’involucrin definitivament en les decisions que es prenguin al respecte. El món TIC i el de negoci turístic han d’encaixar en tot moment i això només serà possible amb un treball conjunt entre perfils tècnics i els professionals del sector coneixedors de les regles de negoci. Cal vetllar per una correcta gestió del canvi que suposa la implantació d’una nova tecnologia i s’ha de promoure aquest canvi, dins de l’organització, amb una implicació directa de la mateixa Direcció. En l’actual conjuntura de crisi el sector turístic, empreses i destinacions, ha d’invertir encara més en TIC per afrontar els nous reptes. Amb altres paraules, però amb el mateix enfocament, ja en feia referència l’Albert Einstein en un text seu publicat arran de la crisis iniciada el 1929: “No pretenguem que les coses canviïn si sempre fem el mateix. …la crisi porta progressos. Es en la crisi que neix la creativitat, la inventiva, els descobriments i les grans estratègies. Qui supera la crisi es supera a sí mateix sense quedar superat. Sense crisi no hi ha desafiaments i sense desafiaments la vida és una rutina. Sense crisi no hi ha mèrits. La única crisi amenaçadora és la tragèdia de no voler lluitar per superar-la”. L’esperit del missatge no ha canviat amb el pas del temps. El que sí ha canviat són les eines TIC que ara tenim al nostre abast per afrontar la crisi actual, considerant la pròpia evolució de les TIC com el resultat d’una necessitat de superació contínua. La mateixa que s’està produint en el sector turístic, un sector dinàmic i amb un gran impacte social, econòmic i estratègic en el conjunt de l’economia catalana.

    Subscriu-te al butlletí

    Subscriu-te als nostre butlletí per estar al dia de tot el que fem. Rebràs el butlletí d’Amics del País, amb informació sobre les nostres activitats i notícies destacades, les convocatòries i novetats de les conferències que organitzem.

    * Camps requerits

  • |

    Memòria anual 2010

    Memòria anual 2010

    Hora
    Tipus de publicació

    Memòries anuals

    Hora
    Data

    25-12-2010

    Aquesta Memòria recull les diverses iniciatives i activitats que la Societat Econòmica Barcelonesa d’Amics del País ha realitzat durant l’any 2010.  

    Cada any la Societat Econòmica Barcelonesa d’Amics del País va refent el camí per tornar a ser una entitat de referència a la ciutat i al país. No en va, són prop de 200 anys d’Història i molts cicles interns de major i menor activitat. Amb tot, crec que avui podem dir que la SEBAP ha tornat a consolidar la seva presència activa a la societat i una veu destacada. Bona prova d’això és la memòria d’activitats que us presentem.

    L’any 2010 ha estat un any molt procliu d’activitats per a la SEBAP. Més de 20 debats i conferències organitzades a la nostra seu social, més els actes del Cercle Financer de La Caixa, l’entrega de premis de la convocatòria de l’entitat i la presentació de l’informe anual sumen una totalitat d’activitats molt consistent i d’alt valor qualitatiu. Així, els debats de les nostres comissions han esdevingut en moltes ocasions un fòrum de primer ordre d’intercanvi d’idees i propositius de nous reptes. A més a més, hem incorporat noves comissions de treball, garantint així cada cop més hi ha una major transversalitat temàtica en els nostres debats. I no podem deixar d’oblidar les relacions amb altres entitats i organismes, que doten la nostra activitat d’una major qualitat i rellevància, a banda d’una major projecció. S’està fent un bon camí i això és mèrit de tots i, com a President de l’Entitat, em correspon deixar-ne agraïda constància.

    La SEBAP té una trajectòria fidel de servei del país. La responsabilitat ens fa hereus d’aquesta trajectòria i de les seves intencions, objectius que sempre cal tenir present. El nostre tarannà obert ens permet continuar amb la tasca de l’entitat tot sumant adhesions i propostes. Per això cal continuar amb el mateix entusiasme i la mateixa constància. El país reque-reix lideratge en temps difícils, i és evident que la SEBAP té la convicció que vol assumir la seva responsabilitat en l’impuls dels grans projectes i en la generació dels consensos que els facin possibles. Aquest ha estat sempre el nostre compromís i hi continuarem essent fidels.

    [Consultar l’informe complet de les activitats de la SEBAP de l’any 2010]

    Subscriu-te al butlletí

    Subscriu-te als nostre butlletí per estar al dia de tot el que fem. Rebràs el butlletí d’Amics del País, amb informació sobre les nostres activitats i notícies destacades, les convocatòries i novetats de les conferències que organitzem.

    * Camps requerits

  • |

    Les TIC com a palanca d´impuls dels Serveis

    Les TIC com a palanca d´impuls dels Serveis

    Cercle per al Coneixement

    Hora
    Tipus de publicació

    Articles

    Hora
    Data

    24-12-2010

    L’Economia dels Serveis és el nou paradigma pel desenvolupament global. Actualment representa prop del 60% del PIB mundial i, com veurem, és el segment de l’economia que utilitza més intensament les TIC.

    L’Economia dels Serveis és el nou paradigma pel desenvolupament global. Actualment representa prop del 60% del PIB mundial i, com veurem, és el segment de l’economia que utilitza més intensament les TIC. El primer problema, a l’hora d’analitzar aquest segment de l’activitat econòmica, és la seva definició. La definició clàssica d’activitat industrial diu que és la que produeix béns emmagatzemables, resultat d’una cadena de subministraments, i que, conseqüentment, són susceptibles d’exportació. Però resulta que, per exemple, actualment el sector de Serveis representa un terç del total de les exportacions industrials a l’OECD i que hi ha indústries que produeixen software i continguts digitals no emmagatzemables. L’impacte de les TIC al sector dels Serveis és desigual, segons el segment del sector que es tracti. Anem doncs a analitzar aquests segments segons la classificació North American Industry Classification System (NAICS), però agrupats segons la seva finalitat en tres blocs. El primer bloc el formen els Serveis Financers, és a dir, els que proporcionen les entitats finaceres, les asseguradores i les gestores de capital. Aquests serveis estan basats íntegrament a l’ús intensiu d’informació i, per tant, són els serveis a on les TIC tenen un paper més destacat. I en sentit invers, es pot dir que sense les TIC no hi haurien serveis financers com els coneixem actualment. Tot i això, les diferències en la utilització de les TIC a aquests serveis entre països és molt considerable i, per tant, hi ha un important potencial de millora. Per altra banda, la major part de la innovació als Serveis Financers es deu també als avenços a les TIC, o estan suportats per ells. En aquests sentit es pot dir que les TIC són la palanca principal pel desenvolupament del sector de Serveis Financers. Un Segon bloc el constitueixen els Serveis Socials i Personals, que engloben: l’educació, la salut i els serveis socials, l’administració pública, el turisme i restauració i l’oci i entreteniment. Encara que sembli molt ampli i variat, totes aquestes activitats, tenen en comú que adrecen els seus serveis al gran públic, format per ciutadans de diverses configurations polítiques, o per particulars, interessats per algunes modalitats d’aquests serveis. Per això, en tots els casos, a més de la provisió del Servei és necessària una forta capacitat de gestió de la pròpia provisió. Aquesta capacitat de gestió està basada totalment en l’ús de la informació i, per tant, la seva eficiència està lligada a la utilització intensiva de les TIC. En aquest sentit cal destacar la importància que tenen els portals per l’atenció al públic, no solsament per la millor eficiència del Sistema, sinó per la millora de la qualitat del servei proveït. A molts dels serveis d’aquest bloc, les TIC també juguen un important paper per a la provisió dels propis serveis, com és el cas de l’Administració Pública i en bona part de l’oci i entreteniment, ja que estan basats en l’ús de la informació. També és interessant constatar que les TIC han ajudat de forma substancial a la transformació, que han fet els serveis d’aquest bloc, des d’uns Sistemes fortament artesanals a uns Sistemes de producció massiva de qualitat, com fa cent anys va fer el sector de la indústria manufacturera. El pas següent d’aquesta evolució va cap a la personalització dels productes i serveis, i això només és possible mitjançant la utilització intel•ligent de les TIC, com ho està fent la indústria de l’automòbil o diversos portals de comerç electrònic. I sembla ser que seran els Serveis els que podran portar la davantera en quest camí els propers anys, gràcies a la major capacitat per aprofitar les innovacions de les TIC. El Tercer bloc el formen els Serveis Empresarials, és a dir: la comercialització, la distribució, emmagatzemament i reciclatge, els Serveis professionals i administratius, els de manteniment i seguretat, els de lloguer i leasing i els d’informació. Aquests serveis en realitat corresponen a activitats complementàries del sector industrial que, en molts casos, han estat externalitzades. Freqüentment es parla de la devallada del sector industrial i del creixement del sector Serveis com un signe de maduresa de l’economia. El que és cert però, no com un indicador de substitució d’un sector per l’altre sinó com un indicador d’una reorganització interna del propi sector industrial. Als països de l’OECD es calcula que un 22% del total dels Serveis s’incorporen a la producció industrial i a Catalunya, a un estudi més detallat, es calcula que el sector industrial més el dels Serveis per la indústria representen un 59,1% del valor afegit brut i un 53,7% de l’ocupació. Aquests serveis representen importants externalitats econòmiques per a la creació, o atracció, de noves empreses a un territori i són doncs d’una importància cabdal. La majoria d’ells corresponen a la part de la activitat industrial més intensiva en informació i, conseqüentment, la part a on més les TIC poden millorar la seva eficiència. Aquests Serveis es continuaran incrementant, al menys a les economies més desenvolupades, no només per l’externalització abans comentada, sinó per l’increment de l’activitat industrial en xarxa, que interrelaciona diverses indústries i serveis per la producció dels béns corresponents. En aquest sentit, les TIC tindran també un paper molt rellevant. Finalment dins d’aquest bloc figuren els Serveis de Tractament de la Informació que també es poden considerar, en una bona part, com a indústria. El que fa, com ja dèiem al començament, que les fronteres entre el sector de Serveis i de la Indústria siguin cada vegada més borroses.

    Subscriu-te al butlletí

    Subscriu-te als nostre butlletí per estar al dia de tot el que fem. Rebràs el butlletí d’Amics del País, amb informació sobre les nostres activitats i notícies destacades, les convocatòries i novetats de les conferències que organitzem.

    * Camps requerits

  • |

    Una administració pública competitiva. Les 6Es

    Una administració pública competitiva. Les 6Es

    Cercle per al Coneixement

    Hora
    Tipus de publicació

    Articles

    Hora
    Data

    24-12-2010

    Tots coincidim avui que necessitem una administració pública competitiva, defensant la necessitat de la mateixa, amb un rol clau en les nostres societats occidentals, però exigint, per això, la seva plena competitivitat, professionalitat, transparència i responsabilitat. Com podem aconseguir aquesta administració pública, aquesta gestió pública? Per què tenim la sensació que no tenim una Administració…

    Todos coincidimos hoy que necesitamos una Administración Pública competitiva, defendiendo la necesidad de la misma, con un rol clave en nuestras sociedades occidentales, pero exigiendo, por ello, su plena competitividad, profesionalidad, transparencia y responsabilidad. Cómo podemos conseguir esta Administración Pública, esta gestión pública? Por qué tenemos la sensación de que no tenemos una Administración a la altura ¿? La respuesta ha de ser multidimensional, seguramente tendrá dimensión política, dimensión de recursos humanos, dimensión de innovación y renovación, o entre otras la dimensión de gestión. Hoy lo abordaremos desde esta última perspectiva, la de gestión, una respuesta basada en lo que yo he llamado las “6E”, como las 6 variables clave para la nueva gestión pública: Economía, Eficiencia i Eficacia, a las tres “Es” clásicas, a las que añadimos la Excelencia, el Entorno y la Efectividad. Economía, Eficiencia y Eficacia deberían ser ya elementos básicos de la gestión pública. De hecho, diferentes preceptos legislativos vinculados a la gestión pública así lo contemplan. Pero a pesar que en los últimos años hemos avanzado mucho en este ámbito, aún no hemos logrado sistemas de gestión, de información y control de gestión, definición de objetivos, evaluación, etc. lo suficientemente estandarizados, generalizados y extendidos como para defender que tenemos una administración pública gestionada desde la perspectiva de la gestión clásica de las 3E. Avanzar en este sentido ya aportaría un salto importante a nuestra gestión pública y la situaría en una senda de racionalización y de mejora en la toma de decisiones y en la gestión eficiente importante. Ahora bien, creo que para lograr una Administración Pública plenamente competitiva y a la altura de las exigencias de nuestra sociedad no basta con las 3E, por ello introduzco 3 nuevas E. Empiezo por la E de Entorno. Necesito conocer permanentemente mi entorno, mi contexto de servicio público, para poder dar respuesta efectiva y conocer su evolución para ser proactivo. No vale con que mi servicio público nació en un contexto y realizamos una actividad que ya no sabes si responde a una realidad actual. Necesitamos conocer y evolucionar con nuestro entorno. La siguiente E, la de Excelencia. Mis ciudadanos y la sociedad necesitan, esperan una administración pública excelente, una administración pública que no solamente gestiona bien los recursos o responde activa y proactivamente a su entorno, sino que además lo hace de manera excelente. Para competir hoy necesitas ser el mejor, dar la máxima calidad y la mejor respuesta, la Administración no puede ser ajena a ello. Y finalmente, la E de Efectividad. Muchas veces, y la política táctica nos ha acostumbrado a ello, trabajamos con resultados a muy corto plazo, pero la Administración Pública incide sobre aspectos básicos de nuestra vida, y su actuación tiene repercusiones a corto, medio y largo plazo, muchas veces de carácter transformador de la propia realidad. Por ello, la gestión pública debe introducir en la variable de la efectividad, del impacto, del outcome. En definitiva, queremos una Administración Pública competitiva, de la mano, entre otras medidas, de una gestión pública profesional, que trabaja no sólo desde la perspectiva de la economía y la eficiencia, sino también de la eficacia y la efectividad, de la excelencia y la adaptación al entorno y su evolución de forma proactiva, y finalmente atendiendo y considerando la capacidad de incidencia, de impacto y de transformación de la propia realidad por parte de la Administración.

    Subscriu-te al butlletí

    Subscriu-te als nostre butlletí per estar al dia de tot el que fem. Rebràs el butlletí d’Amics del País, amb informació sobre les nostres activitats i notícies destacades, les convocatòries i novetats de les conferències que organitzem.

    * Camps requerits

  • |

    Manifest anual 2010

    Manifest anual 2010

    Hora
    Tipus de publicació

    Manifest anual

    Hora
    Data

    15-12-2010

    El moment actual no permet ni la resignació ni tampoc la renúncia. El món és massa gran, i Catalunya massa petita, perquè ens limiten a fer-hi d’espectadors. Liderar un nou i esperançat europeisme és la gran exigència de la Catalunya del Segle XXI.

    Després de constatar, més enllà de la crisis econòmica, la considerable crisi de valors que vivia la nostra societat, l’any passat vam insistir, en el darrer Manifest de la Societat Econòmica Barcelonesa d’Amics del País, en fer una crida a favor del rellançament de Catalunya per l’any 2010. Aquell Manifest apel·lava a la responsabilitat de tothom per tal de “generar sentiments d’esperança en el futur de Catalunya”, i fer front al desconcert i la desconfiança que anava introduint-se en el clima general del país.

    Un any després, malauradament, la crisi econòmica continua dominant l’estat d’ànim de la nostra societat, agreujat per una situació institucional complexa com a conseqüència de la Sentència dictada pel Tribunal Constitucional en relació a l’Estatut d’Autonomia de Catalunya. Una Sentència que ha provocat –pel seu estricte contingut i també per les circumstàncies que la precedeixen i l’envolten–, una significant reacció popular que no pot ser ni menystinguda ni oblidada quan es tracta de fer un diagnòstic sobre la situació actual de Catalunya. 

    [Si voleu llegir íntegrament el manifest de l’any 2010, descarregueu-vos l’arxiu PDF]

    Subscriu-te al butlletí

    Subscriu-te als nostre butlletí per estar al dia de tot el que fem. Rebràs el butlletí d’Amics del País, amb informació sobre les nostres activitats i notícies destacades, les convocatòries i novetats de les conferències que organitzem.

    * Camps requerits

  • | |

    Breakfast amb l´Àlex Mestre i en Jordi Marin

    Breakfast amb l´Àlex Mestre i en Jordi Marin

    Cercle per al Coneixement

    Hora
    Tipus de publicació

    Resum d’activitats

    Hora
    Data

    10-12-2010

    El passat dimecres 24 de novembre de 2010 es va celebrar a la Sala del Llac del Rectorat de la UPC el segon Breakfast dins del Cicle de ciutats intel•ligents amb l’Àlex Mestre i en Jordi Marin, director de màrketing d’ABERTIS i director d’INDRA i vicepresident del Cercle, respectivament. Ens van presentar el Pla Estratègic…

    El passat dimecres 24 de novembre de 2010 es va celebrar a la Sala del Llac del Rectorat de la UPC el segon Breakfast dins del Cicle de ciutats intel•ligents amb l’Àlex Mestre i en Jordi Marin, director de màrketing d’ABERTIS i director d’INDRA i vicepresident del Cercle, respectivament. Ens van presentar el Pla Estratègic que han definit les dues empreses per aplicar el model de ciutats intel•ligents a Barcelona, Lleida i Sant Cugat, amb l’objectiu d’extrapolar-lo a d’altres municipis, tant de Catalunya com de l’estranger. La complexitat de les societats actuals requereix nous models de gestió en xarxa i més dinàmics per tal de satisfer les necessitats dels ciutadans de manera més eficient. En aquest sentit, les ciutats intel•ligents pretenen adaptar la tecnologia i la informació disponible a la societat, i viceversa, per tal d’incrementar la qualitat dels serveis i disminuir els costos, tant econòmics com mediambientals, entre d’altres. Però els beneficis de la implementació de les ciutats intel•ligents són a llarg termini, motiu pel qual molts ajuntaments no tenen incentius a dur-ho per terme. Però Catalunya té una oportunitat en aquest sector degut a l’existència d’un ecosistema d’empreses vinculades en aquesta nova tecnologia, d’una dinàmica urbana de llarga tradició i d’una capacitat de lideratge. És per aquest motiu que el govern i la societat han d’apostar per les ciutats intel•ligents.

    Subscriu-te al butlletí

    Subscriu-te als nostre butlletí per estar al dia de tot el que fem. Rebràs el butlletí d’Amics del País, amb informació sobre les nostres activitats i notícies destacades, les convocatòries i novetats de les conferències que organitzem.

    * Camps requerits

  • |

    Las TIC en el ámbito de las Operaciones

    Las TIC en el ámbito de las Operaciones

    Cercle per al Coneixement

    Hora
    Tipus de publicació

    Articles

    Hora
    Data

    10-12-2010

    En mi opinión la mejor definición de tecnología es la de Peter Drucker que dice que es el cómo hacemos las cosas (productos o servicios). Incluye la persona, sus conocimientos, las herramientas y la capacidad de utilizarlas. Los valores competitivos de las Operaciones son entre otros la velocidad, la flexibilidad, la confiabilidad, la calidad y…

    En mi opinión la mejor definición de tecnología es la de Peter Drucker que dice que es el cómo hacemos las cosas (productos o servicios). Incluye la persona, sus conocimientos, las herramientas y la capacidad de utilizarlas. Los valores competitivos de las Operaciones son entre otros la velocidad, la flexibilidad, la confiabilidad, la calidad y los costes, o sea los de siempre pero su complejidad, la velocidad de análisis requerido, el tiempo mínimo de respuesta,… hacen imprescindible el uso de la TIC a través de las personas conocedoras de esta herramienta y del proceso. Podemos comparar la situación como la de una carrera de Fórmula 1 donde los factores cualitativos mencionados son imprescindibles. Para ello la sabia combinación del equipo de personas incluyendo el equipo y el uso intensivo de las TIC son el factor de éxito. El ahorro de los neumáticos, del combustible, la previsión del tiempo, la comunicación con el piloto y la comunicación con los parámetros del vehículo, los recursos previos para el diseño, hacen un uso intensivo de las TIC. Finalmente es la persona la que decide, desde el piloto al jefe de equipo, es la persona y no las TIC quien autoriza la salida del pitstop. Y también es la persona la que comete errores y que puede determinar el éxito o el fracaso en la carrera. Por ejemplo antes hablábamos de la suerte o mala suerte si llovía mientras que ahora disponemos de una mayor certeza de previsión vía Internet y los satélites meteorológicos, que les ayudan en la toma de decisión sobre el tipo de neumáticos o los reglajes del motor en función de la presión atmosférica y de la humedad. Pero la elección, con más información, continua siendo de la persona que en base a su conocimiento e intuición toma la decisión con el riesgo asociado. No debemos confundir la herramienta con la persona que la maneja. Nos pueden regalar la mejor cámara fotográfica del mundo o nos pueden dejar conducir el Ferrari, y no por ello tenemos la garantía de hacer la mejor foto del mundo o de poder dar la vuelta a un circuito. Faltan muchas cosas para ello… El sector que inició el uso masivo e intensivo de las TIC es el de la automoción. Los sistemas primitivos de gestión de los aprovisionamientos de materiales nos introdujeron las aproximaciones a la búsqueda de la gestión óptima, los sistemas JIT, cada vez más elaborados y sus evoluciones, la automatización de los procesos y la robotización, los sistemas flexibles de producción capaces de hacer lotes de producción de una sola unidad,….Posteriormente la técnicas de simulación y diseño han permitido reducir el tiempo en que un nuevo modelo llega al mercado (time to market). Las TIC nos pueden ayudar en el análisis de los costes y en la minimización de las mermas de todo tipo como pérdidas de tiempo, materiales, o de otro tipo pero primero debemos saber buscarlas y después las TIC nos dirán su valor económico. A partir de su medida seremos capaces de reducirlas. El objetivo de las mermas de tiempo debe ser muy claro puesto que debe ser cero o próximo a cero. Por ejemplo como consultor tuve la oportunidad de participar en una empresa donde aparentemente había un problema de productividad del personal cualificado en un uso intensivo de las TIC. Trataban y analizaban miles de datos en un tiempo limitado cada día. El operador debía analizar la pantalla i tomar decisiones de aceptar o rechazar lo que veía y su valoración era subjetiva y por ello no mecanizable. La observación del proceso permitió ver que el tiempo medio de bajada de la imagen podía tardar entre 20 seg a 3 min y que el tiempo de envío al cliente generaba una cola de espera que oscilaba entre 20 min a 45 min y ello independientemente del operador. La suma acumulada de estas pérdidas de tiempo, mermas, era de mas de 30 horas netas al día. Con la ayuda de las TIC se midieron estos tiempos de manera objetiva, se valoraron los distintos puntos y se priorizaron las acciones de mejora hasta poder ajustar esta merma a un valor razonable en función de un esfuerzo calidad y coste. En este caso las TIC eran el problema pero también fueron la herramienta para solucionar la dificultad. No estoy hablando exclusivamente del área de Producción. Las herramientas TIC nos permiten una visión total del proceso de Operaciones. Desde la concepción y diseño del producto hasta su entrega al cliente, pasando por la selección de los materiales, su compra, su planificación, seguimiento de los inventarios, planificación de la producción, seguimiento de la calidad en tiempo real, seguimiento de la entrega,…, y sin esta visión total podemos enfocar una optimización del tiempo y del mejor coste desde el momento de la recepción del pedido a la entrega al cliente (order to delivery). Lo importante es la optimización del conjunto más que la optimización de partes de él. Dentro del mismo ámbito. Debemos considerar que en el mismo momento que empezamos a fabricar un producto para un cliente ya deberíamos tener la fecha de entrega en que él lo espera teniendo la seguridad de que lo vamos a hacer bien a la primera. La fecha de entrega en determinados sectores va asociada a un día y a un intervalo, ventana, de entrega que puede ser de 2 horas. El cliente que recibe muchas mercancías de orígenes distintos requiere la llegada de la mercancía a unos intervalos acordados para la gestión óptima de la descarga y de sus almacenes y no le interesa que llegue antes ni después de la hora. Ello ha obligado que empresas de transporte hagan un seguimiento exhaustivo de sus transportes y en el caso de las empresas de mensajería el seguimiento individualizado de cada paquete y además ser visible para el usuario final. Conozco una gran empresa de transporte de Figueras que visualiza en una pantalla toda su flota de centenares de camiones y tres centros logísticos en Europa en tiempo real con detalle de carga, destino, y demás parámetros para una optimización continua de sus recursos. Sin los recursos y herramientas TIC, ordenadores, GPS, software, ello no sería posible. Podemos enlazar la producción de un producto con el seguimiento de la calidad en el mercado y así tomar las acciones correctivas pertinentes. Cada vez más las herramientas TIC nos permiten conocer en tiempo real la calidad. Los servicios de asistencia técnica tienen un enlace permanente vía Internet con el fabricante. Normalmente se utiliza para la petición de piezas de recambio a un centro nacional o europeo que lo debe suministrar en un plazo determinado y corto. Pero si además la estructura está montada de tal modo que cada producto lleva además de la información del modelo la información de su fecha de fabricación y del centro que la realizo se configura un sistema de mejora continua al poder detectar el tipo de averías y corregirlo a tiempo o antes de que sea demasiado tarde. Las herramientas para la información existen aunque a veces los directivos, las personas, no les prestamos la suficiente atención como ha sido el caso reciente de distintos fabricantes de automóvil y sus dificultades técnicas en el mercado. Así podemos hablar de muchos más temas como gestión de inventarios… y no es el mismo criterio para un inventario óptimo de una fábrica de tornillos o de un almacén de sangre en un hospital. Pero ambos deben tener un criterio de valor óptimo en función de sus circunstancias. Su gestión es distinta pero debe haber gestión, debe haber trazabilidad, debe haber un FIFO,…. Podemos hablar también de la gestión de las operaciones en servicios. Es lamentable que a veces podamos comer en un restaurante en un tiempo y que luego tarden en cobrarnos la cuenta lo que parece una eternidad. A partir de aquí podemos ampliar el tema yendo a la Administración, a la gestión de la universidad y otros ejemplos de hospitales. No me he apartado del tema de TIC en Operaciones puesto que al hablar de Operaciones me mantengo enfocado en el hacer de los productos o de los servicios. Mintzberg define y lo comparto que las organizaciones tienen dos funciones básicas: hacer y vender productos y/o servicios. En mi opinión el hacer es lo que corresponde a Operaciones. Operaciones es un área que debe tener unas características muy especiales como no debe notarse, debe ser de coste mínimo,… además de calidad, velocidad, confiabilidad, flexibilidad y coste. La complejidad creciente para una gestión eficaz, sin mermas, sin costes innecesarios,… impone el uso masivo de herramientas TIC. Cito a Peter Drucker cuando menciona que no es lo mismo hacer las cosas bien, gestionar, que hacer las cosas correctas, liderar. Por mi cuenta añado que no es lo mismo eficiencia (hacer las cosas bien) que eficacia (las cosas correctas).

    Subscriu-te al butlletí

    Subscriu-te als nostre butlletí per estar al dia de tot el que fem. Rebràs el butlletí d’Amics del País, amb informació sobre les nostres activitats i notícies destacades, les convocatòries i novetats de les conferències que organitzem.

    * Camps requerits

  • |

    Les TIC palanca impulsora de la competitivitat

    Les TIC palanca impulsora de la competitivitat

    Cercle per al Coneixement

    Hora
    Tipus de publicació

    Articles

    Hora
    Data

    10-12-2010

    Els diferents sectors econòmics de la societat han esdevingut progressivament més competents a mesura que han anat incorporant en la seva organització tecnologies de la informació i de la comunicació (TIC). L’anomenada ‘Societat de la Informació’, que a més a més de garantir una major competitivitat en l’àmbit econòmic també incrementa el grau de llibertat…

    Els diferents sectors econòmics de la societat han esdevingut progressivament més competents a mesura que han anat incorporant en la seva organització tecnologies de la informació i de la comunicació (TIC). L’anomenada ‘Societat de la Informació’, que a més a més de garantir una major competitivitat en l’àmbit econòmic també incrementa el grau de llibertat de les persones, es fonamenta en les TIC. Només cal fer una mica de memòria i recordar com es feien algunes tasques fa uns anys i com es fan en l’actualitat per poder afirmar en tota certesa que en les darreres dècades les TIC han estat un dels motors principals de l’evolució de la societat. Resulta obvi que sense les TIC la societat actual no podria funcionar i que si tenim més qualitat de vida és en part per la seva aportació . Evidentment no només amb l’aplicació de les TIC s’aconsegueix fer que les organitzacions siguin més eficients, però sense elles seria molt difícil desenvolupar qualsevol projecte amb garanties d’èxit. També és cert que de vegades les TIC no han cobert les expectatives per les quals van ser adquirides i que en algunes ocasions el preu pagat ha estat excessiu pels resultats obtinguts, en aquest cas podríem dir que “s’han matat ocells a canonades”. No hi ha cap empresa, institució, ni particular que pugui afirmar que totes les TIC que hagi utilitzat hagin “funcionat correctament o com ells pretenien”, tots ells poden parlar d’algun fracàs viscut en l’àmbit de les TIC. Aquest fracàs no sempre és atribuïble a les TIC, els subministradors no sempre han estat a l’alçada perquè han recomanat als seus clients solucions que no eren les adients i els propis clients també tenen una part de responsabilitat, perquè no han expressat clarament les seves necessitats. De vegades en l’àmbit de les grans infraestructures tecnològiques, on una gran part de la responsabilitat del desplegament recau en l’administració, s’ha donat la paradoxa que tot i disposar de la tecnologia adequada, aquesta s’ha implantat tard i malament o s’ha optat per una alternativa que resultava obvi que no era la més adient i que només es podia justificar per dos motius: interessos econòmics o desconeixement. En tot cas sigui pels motius que sigui, les decisions de les administracions en l’àmbit de les TIC no sempre han estat encertades i han suposat un fre en el desenvolupament de la societat i a la vegada han comportat una pèrdua de competitivitat en els sectors econòmics d’uns territoris en front d’uns altres. A Catalunya, per posar un exemple d’àmbit local, hi ha territoris on les deficiències en infraestructures de xarxa són manifestes i això els hi resta competitivitat en front d’altres territoris on el desplegament de la xarxa s’ha fet a temps i bé. El grau d’aplicació de les TIC és molt ample en quasi tots els àmbits de la societat catalana, tanmateix, però, en alguns casos no és així. La Justícia n’és un bon exemple. Si les TIC haguessin pogut ‘penetrar’ en aquest àmbit, segurament no hi hauria el col•lapse que hi ha avui en dia a la Justícia amb les greus conseqüències que suposa sobre les persones implicades (endarreriments, més costos,…) i sobre la pròpia administració de justícia (més costos, pèrdua de prestigi,… ). La situació actual de la Justícia a casa nostra requereix aplicar amb urgència un pla per acabar amb aquest alt grau d’incompetència i les TIC són un dels elements fonamentals per aconseguir aquest objectiu. La competitivitat es mesura per la millora de la productivitat al menor cost possible, per tant, directament o indirectament també es pot mesurar per un millor aprofitament dels recursos. Els recursos com tots hauríem de saber són limitats. Estem en una societat en que malauradament es malgasten molts recursos (aigua, energia, aliments, medicines, matèries primeres, diners…). És ben cert que la societat comença a tenir certa consciència en aquest aspecte però cal anar molt més enllà, cal actuar. Les TIC ja ens estan ajudant a aconseguir-ho: • En la indústria, els programes de planificació de la producció no solament ajuden a complir els terminis d’entrega de les comandes sinó que permeten fer un ús més racional dels recursos (instal•lacions, matèries primeres, personal,…), intentant agrupar diferents processos productius en les mateixes instal•lacions quan cal utilitzar les mateixes matèries primeres. • En la logística, els programes de gestió de magatzems (SGA) optimitzen el temps de les operacions que es poden realitzar en el magatzem però també permeten gestionar el magatzem amb la política de fer sortir el lot amb data de caducitat més antiga evitant així que quedin articles caducats que s’haurien de llençar o com a molt poc reciclar. • Les instal•lacions productives es poden tornar ineficients sinó es fa una bona gestió de manteniment. Si el dosificador d’una sitja no està ben calibrat, el resultat d’una fabricació segurament serà incorrecte perquè la quantitat de matèria primera provinent de la sitja no serà l’adequada. El producte obtingut s’haurà de llençar o caldrà recuperar-lo mitjançant un altre procés productiu. Els programes de manteniment (GMAO) són fonamentals per poder a dur a terme una correcta gestió de manteniment, tant preventiu com predictiu. D’aquesta manera s’incrementen les possibilitats que les instal•lacions funcionin correctament. • En l’àrea financera d’una empresa un programa de gestió de tresoreria (Cash Flow) permet conèixer en qualsevol moment la situació financera de la companyia a curt i a mig termini. Cal preveure si l’empresa tindrà una manca o un excedent de liquiditat en un futur pròxim, perquè sabent-ho en temps es poden prendre les decisions oportunes que comportaran probablement un estalvi de diners. Les TIC avancen en funció de l’enginy, del coneixement i del treball del ésser humà però, tot i que malauradament no sempre poden satisfer les necessitats de les persones i de les organitzacions, resulten imprescindibles per garantir i millorar la nostra qualitat de vida. I ja per concloure, simplement dos apunts: remarcar la importància que suposa i suposarà Internet amb la seva amplitud de possibilitats (xarxes socials, accés al coneixement, negocis: e-commerce, e-business, correu electrònic, telefonia IP ,…) per la societat en general i l’expectativa d’implantació del e-book (llibre digital) i els dispositius que fins i tot simulen l’efecte paper que podrien suposar el principi del final dels llibres tradicionals.

    Subscriu-te al butlletí

    Subscriu-te als nostre butlletí per estar al dia de tot el que fem. Rebràs el butlletí d’Amics del País, amb informació sobre les nostres activitats i notícies destacades, les convocatòries i novetats de les conferències que organitzem.

    * Camps requerits