El Cercle y al SEBAP unen fuerzas
|

El Cercle y al SEBAP unen fuerzas

El Cercle y al SEBAP unen fuerzas

Hora
Tipo de publicación

Posicionamientos

Hora
Data

30-04-2012

La Societat Econòmica Barcelonesa d’Amics del País (SEBAP) y el Cercle per al Coneixement – Barcelona Breakfast han signat un acord de futur. Artículo publicado en Tecnonews

Suscríbete al newsletter

Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

* Campos requeridos





El Premio Nit del Cercle
|

El Premio Nit del Cercle

El Premio Nit del Cercle

Hora
Tipo de publicación

Posicionamientos

Hora
Data

19-01-2012

La innovación y la internacionalización deben ser los dos ejes básicos de la competitividad, afirma el presidente del Cercle, Joan Majó. Artículo publicado el pasado 18 de enero en tecnonews

La crisis española actual es una crisis compleja y que ha ido cambiando de naturaleza. Una crisis inmobiliaria americana (2007) acabó provocando una crisis financiera mundial (2008) que destapó los errores del crecimiento español (endeudamiento y baja productividad) provocando una recesión (2009), a la que se unió más tarde una crisis de la deuda pública europea (2010), que tiene abierta ahora una verdadera crisis política en la UE (2011). Las dificultades para superarla son importantes porque es necesario reactivar las economías pero al mismo tiempo reducir el endeudamiento, tanto público como privado. La complejidad indicada obliga a combinar políticas de ajuste con medidas de estímulo, y a poner en paralelo actuaciones privadas y públicas, al tiempo que se tropieza con las dificultades de financiación para las empresas y los vaivenes, a menudo irracionales, de los mercados especulativos. Todo ello está alargando más de lo esperado la salida, sin que los gobiernos actúen con suficiente decisión, ni se enfrenten con suficiente valentía a las imposiciones de los sectores financieros. En España, debido a estas dificultades, no es posible pensar en una rápida recuperación del consumo interno ni en un crecimiento de la inversión pública. Las empresas catalanas y españolas deben orientar su estrategia, siempre que dispongan de suficiente financiación, en un doble sentido: aumentar sus exportaciones y centrase en productos de mayor contenido tecnológico. Es por ello que la innovación y la internacionalización han de ser las dos dimensiones básicas de su competitividad. El “Cercle per el Coneixement- Barcelona Breakfast”, fiel a sus objetivos, instituyó un premio para distinguir a empresas industriales catalanas, de dimensiones medianas, que sobresalieran en estas dos áreas. En el proceso de concesión del premio hace un año, se pudo comprobar el gran número de empresas que responden a este perfil y que han aumentado su presencia en mercados mundiales, incluso en período de crisis. La selección fue difícil, lo que supuso una gran satisfacción. Las tres empresas finalistas fueron: FLUIDRA, CIRCUTOR i TELSTAR, y esta última obtuvo el premio, que fue entregado por Salvador Alemany. Está en estos momentos en marcha la segunda edición, cuyo resultado final se conocerá a lo largo de una cena en el Hotel Alimara el próximo día 26 de Enero. La entrega la efectuará Miquel Roca Junyent. Joan Majó President del CXC-BB Artículo publicado el 18 de enero de 2012 en el diario digital Tecnonews

Suscríbete al newsletter

Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

* Campos requeridos





Reinventarnos y logar la continuidad Ciencia Empresa
|

Reinventarnos y logar la continuidad Ciencia Empresa

Reinventarnos y logar la continuidad Ciencia Empresa

Hora
Tipo de publicación

Posicionamientos

Hora
Data

21-07-2011

El Expresidente del Cercle, Antoni Garrell, analiza la situación económica de nuestro país y propone medidas para mirar hacia el futuro, medidas centradas en la gestión del talento y la transferencia de conocimiento.

El primer cuatrimestre de 2011 se ha caracterizado por la palabra “recortes”. Aunque en España los recortes se han venido sucediendo de forma continuada, en Cataluña han irrumpido con fuerza una vez cerrado el ciclo electoral y constituido el nuevo gobierno presidido por Artur Mas. La gravedad de la crisis económica y el retraso en la recuperación del crecimiento ha comportado un notable descenso de los ingresos de las Administraciones que se han situado por debajo del 34,5% del PIB; 6,6 puntos menos que en 2007, una cifra ya entonces por debajo de la media de la zona euro que se situaba en el 45,5%. Una disminución mucho más importante que la que han sufrido los estados de la Unión Europa, donde los ingresos se situaron de media en el 44% del PIB. Cifras que se explican por el presumible incremento de la economía sumergida y el deterioro de las tasas de ocupación, ya que el sistema impositivo español se apoya de forma excesiva en las rentas del trabajo. Los recortes en los gastos aplicados a la actividad productiva pública o privada son indispensables. Disponemos de muchos menos recursos por la pérdida del ritmo de crecimiento económico y las restricciones crediticias que condicionan todas las actividades. La notoria falta de recursos, por la incapacidad de incrementar los ingresos y la insuficiencia de los recortes efectuados hasta la fecha, obliga a que la disminución del gastos sea inaplazable si se quiere evitar la deriva hacia situaciones como la que afecta a Grecia, a quien a finales de abril los mercados le exigieron una rentabilidad del bono a 10 años próxima al 15%, (prima de riesgo de 1.200 puntos básicos). Porcentaje insoportable y de efectos devastadores para el presente y el futuro de la sociedad griega. Así pues, la situación es tan extremadamente delicada que, ante las dificultades en incrementar los ingresos y las limitaciones en cuanto a la capacidad de endeudamiento, es inevitable una reducción que afectará a todos los servicios que prestan las administraciones, consecuentemente también a los que son consustanciales con la calidad de vida y el progreso. Desgraciadamente los pilares del estado del bienestar han entrado en cuarentena por la falta de capacidad de generación de valor de nuestro sistema productivo, el lastre ocasionado por la destrucción de puestos de trabajo y el cierre de empresas que de forma interrumpida ha tenido lugar en los últimos años. Una disminución del estado del bienestar que debe ser coyuntural y que debemos esforzarnos para que no se transforme en estructural, una hipótesis pausible si no se cambian las tendencias, variando el modelo productivo, la dotación de capital humano y el comportamiento de los ciudadanos; ya que de seguir actuando y razonando como antes de la crisis únicamente tendremos más dificultades y más crisis. Obviamente si Cataluña recibiese el importe del fondo de competitividad y si el déficit fiscal no fuese el que es, las soluciones serían otras, pero las cosas a corto y medio plazo son las que son, por ello, sin renunciar a lo que por equidad nos corresponde, es hora de hacer más con menos. Reducir el coste y los recursos utilizados es una obligación ineludible, pero también lo es mantener la calidad y minimizar la disminución de los servios prestados o los productos elaborados. Son épocas que requieren el talento de los seres humanos para dejar de hacer aquellas cosas obsoletas, innecesarias o inadecuadas. Es precisamente en estas épocas complejas cuando surge la oportunidad de cambiar las cosas, ya que la creatividad está enraizada en la necesidad de hacer más con menos, de superarse a si mismo, de identificar soluciones a los desafíos nuevos que requieran nuevas soluciones. En esa exigencia de ser más productivos no deberíamos olvidar el informe de Competitividad Global 2010-2011, donde hace unos meses ya se indicaba la perdida de competitividad en 9 posiciones de la economía española, tanto por los problemas asociados a la crisis económica global, como por el inadecuado marco regulador, las dificultades en extraer capacidad productiva a las tecnologías, en optimizar procesos, en internacionalizarse y en diseñar y fabricar productos diferenciales. La clave en la actual coyuntura debe residir en reducir los gastos, disminuyendo mínimamente la actividad; es decir renunciar a la estrategia más sencilla consistente en disminuir la actividad y los servicios prestados. Actuar de este modo no sería una buena solución, puesto que disminuir la actividad al menguar los recursos no comporta incrementar la productividad, lo cual es una exigencia inexcusable, especialmente al considerar la malversación abusiva de recursos que ha caracterizado los últimos años. Así pues, preservar el presente y garantizar el futuro comporta asumir que se debe hacer más con menos buscando la eficiencia, usando al máximo las infraestructuras disponibles y ajustándose a los ciclos variantes. Pero siendo imprescindible recortar los gastos y optimizar las inversiones, no es suficiente, ya que es imprescindible incrementar la capacidad de generar valor económico como instrumento que permitirá incrementar los ingresos del Estado y preservar el estado de bienestar. En ese contexto la clave reside en exportar más gracias a productos diferenciales y competitivos; incentivar la creación de empresas; y generar ocupación. Para ello son necesarias medidas como las acordadas en cumbre anticrisis del pasado mes de marzo en el Palacio de Pedralbes, relativas a implementar nuevas vías de financiación de las empresas, incrementar la flexibilidad de las pymes; apoyar a la industria; potenciar la internacionalización, y estimular a los emprendedores; y a la vez establecer acuerdos como los 6 alcanzados, que tienen por objetivo reducir burocracia, reformar la Formación Profesional, impulsar las infraestructuras de conexión transfronteriza, disminuir la presión fiscal para las empresas que generan ocupación, combatir el paro, y apoyar a los sectores sociales más afectados. Pero siendo necesarias las anteriores iniciativas no son suficientes para dar mayor solidez al modelo productivo y hacerlo más robusto a los globales. Es requerido poner remedio a las causas por las que España y Cataluña afrontaron la crisis con debilidad, ya que de ello depende en gran parte recuperar un ritmo del crecimiento y generación de ocupación sostenida. El análisis debe hacerse mediante la observación de lo que ocurre en los países que han recuperado la senda del crecimiento. En esta línea cabe considerar que si bien en 2008 la I+D se situó en el 1,35% del PIB, todavía se estaba muy lejos de la media europea, que fue del 1,85%. Tampoco deberíamos ignorar que continúa existiendo una enorme distancia entre la universidad y las empresas, lo cual se evidencia en que menos del 30% de los que generan adelantos importantes se acercan a la universidad para desarrollar sus patentes, una cifra muy distante en el resto de la Unión Europea donde el porcentaje supera el 40%. Un bajo porcentaje que debe encuadrarse en el hecho de que únicamente el 45% del I+D+i del Estado español está financiada por las empresas, mientras que en el conjunto de la UE el porcentaje es del 66%, y que sólo 2,5 investigadores de cada mil trabajan en la empresa privada, cuando a la UE son 3,9 por mil. Unas cifras que con la crisis han empeorado, ya que según los datos del INE del 2009 la inversión en I+D y el número de investigadores ha disminuido, algo que no ocurría desde 1994. Una tendencia negativa que desgraciadamente recogen los presupuestos generales del Estado del 2010, que disminuyeron en 5,5 puntos el gasto en I+D, y en un 7,38% el presente. Esta reducción presupuestaria nos aparta de la sociedad y la economía del conocimiento y nos aleja aún más de los países que ya han recuperado la senda del crecimiento, como Alemania que, a pesar de los recortes que ha efectuado, ha incrementado el presupuesto en investigación en un 7%, o en países como Suecia, Dinamarca y Finlandia, que la mantienen alrededor del 3% del PIB. Son decisiones políticas del gobierno del Estado que nos distancian del camino del progreso. Las tendencias actuales no deberían sumirnos en el desánimo, ya que en los últimos años se hizo un esfuerzo importante en dar prioridad al I+D. Un esfuerzo que permitió que España se situara en la novena posición en el ránking de producción científica mundial. Un buen apoyo para el siguiente paso, que no es otro que facilitar que los adelantos científicos y tecnológicos lleguen al sistema productivo para generar puestos de trabajo, crecimiento económico y dotar de más capacidad competitiva al sistema productivo. Para ello es imprescindible la cooperación estrecha y continuada del mundo científico y empresarial con la finalidad de situar la transferencia de conocimiento como elemento central de las actuaciones. Un camino en el que tenemos un buen trecho a recorrer, ya que en el Estado español únicamente se presentan 33,4 patentes EPO (European Patente Office) por millón de habitantes, cifra alejada de las más de 700 que presenta el Reino Unido o de las más de 300 de Alemania. Disponemos de un buen punto de apoyo para potenciar las empresas existentes y generar un nuevo tejido productivo que nos permita competir en la economía globalizada, la cual fundamenta su competitividad en un modelo intensivo en conocimiento. Para lograrlo preciamos de proyectos e iniciativas que no piensen en la cuenta de resultados trimestral, ni en las próximas elecciones, hay que preservar el presente pero sin hipotecar el futuro. Consecuentemente es imprescindible la voluntad de definir, desarrollar y ejecutar estrategias y proyectos conjuntos en áreas geográficas con capacidad de investigación y generación de riqueza contrastada, gracias a la existencia de Universidades; centros de investigación, desarrollo e innovación; empresas con capacidad exportadora; buenas comunicaciones de personas, mercancías y datos, dinamismo demográfico y altas tasas de formación. Proyectos regidos por la ambición de convertirse en zona de innovación y generación de valor referencial a nivel mundial. Son momentos difíciles que exigen sumar colectivamente y exprimir al máximo nuestra capacidad de invención e innovación para hacer las cosas como debemos. Es la hora de hacer las cosas de diferente manera, puesto que si las queremos hacer igual no saldremos del túnel, y salir de él cuanto antes es una exigencia irrenunciable. Article publicat simultàniament amb Catalunya Empresarial juliol de 2011

Suscríbete al newsletter

Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

* Campos requeridos





Impulsar el crecimiento, articular la B-30
|

Impulsar el crecimiento, articular la B-30

Impulsar el crecimiento, articular la B-30

Hora
Tipo de publicación

Posicionamientos

Hora
Data

27-04-2011

El Expresidente del Cercle, Antoni Garrell, llama al impulso de la B-30, elemento imprescindible para el desarrollo de una economía fuerte y competitiva. Según Antoni Garrell, debemos potenciar el Corredor del Mediterráneo del Conociemiento, una área con capacidad exportadora, innovadora y generadora de riqueza.

Suscríbete al newsletter

Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

* Campos requeridos





La primera semana de marzo de 2011
|

La primera semana de marzo de 2011

La primera semana de marzo de 2011

Hora
Tipo de publicación

Posicionamientos

Hora
Data

31-03-2011

Las recientes revueltas en Oriente Medio, que desestabilizan el mercado de las energías procedentes de combustibles fósil, y la actual crisis nuclear, debido al accidente en la central de Fukushima posterior al terremoto y al tsunami que sufrió el país nipón , plantean, según Joan Majó, el ahorro como la alternativa más factible para reducir…

La història es fa dia a dia i la fem entre tots, però no hi ha cap dubte que hi ha dies que es poden assenyalar com a moments d’acceleració i com a punts d’inflexió, perquè en ells surt a la superfície, i després ells el simbolitzen, un corrent subterrani que ja feia temps que estava canviant el futur. L’11 de Setembre de 2001, amb la caiguda de les torres bessones a NY, o el 15 de Setembre de 2008, amb la fallida de Lehman Brothers, són dos exemples recents. Crec que les darreres setmanes, i de manera molt especial la que ara acabem, tenen aquestes característiques per la coincidència inesperada de vàries causes. Les revolucions parcialment reeixides a Tunísia i a Egipte posen en marxa uns processos de transició difícils i per tant de final poc previsible. Les oscil•lacions internes i externes de la pràctica guerra civil que hi ha a Líbia fan preveure un període de caos en aquest país. I, potser encara més important, és difícil entendre el significat i les derivacions de la dissimulada invasió de Bahrain per part de l’Aràbia Saudí. Tot plegat està refent el mapa polític al Nord d’Àfrica i a l’Orient Mitjà, està posant en qüestió l’estabilitat d’una regió de tanta importància estratègica i fa difícil preveure l’evolució del mercat mundial del petroli i del gas. Tot això està coincidint, d’altra banda, amb el drama que està patint Japó (terratrèmol i tsunami) i amb la posterior derivació cap a un accident nuclear. La importància del que està passant a Fukushima i la seva, discutible però immensa, repercussió mediàtica global, inicien a tot el món una nova etapa en relació a la utilització segura de l’energia nuclear. No vull enfocar aquest article cap a consideracions de geopolítica global, ni cap als sentiments de tipus emocional i dolorós que ens han produït els drames humans que hem contemplat a Líbia o al Japó. Vull només centrar-lo en una reflexió de caire econòmic relacionada amb l’energia. La tercera setmana de març del 2011 marcarà un canvi important en les nostres reflexions al voltant d’aquest tema. L’enorme consum energètic de les societats occidentals està basat en quatre tipus d’energies primàries, cada una de les quals té els seus avantatges, els seus inconvenients i els seus límits: l’energia procedent dels “combustibles fòssils” (carbó, gas, i sobre tot, petroli), la d’origen nuclear, la que ve de la biomassa i la procedent directament del sol, de l’aigua o del vent (aquestes darreres es poden considerar “renovables”). A Europa, el repartiment actual del consum entre els quatre tipus és, en números aproximats, d’un 80%, 10% , 5% i 5%, respectivament. Només amb aquestes xifres ja es pot veure fins a quin punt depenem de les energies “fòssils” que tenen tres grans inconvenients: estan en procés d’esgotament ja que les reserves són limitades per naturalesa, a l’utilitzar-les produeixen emissions de CO2 que estan canviant el clima global i, finalment, gairebé totes les reserves existents estan en poder de tercers països. És imperatiu reduir el consum de fòssils importats, tant per las seves emissions, com per la dependència que generen, com sobretot, perquè la creixent demanda de tercers països fa que s’incrementi el cost i augmentin les perspectives d’esgotament. Però, a més, aquesta setmana està quedant molt clar que la garantia de subministrament és cada vegada més petita i les possibilitats de substitució per la nuclear són molt més problemàtiques. Si hem de rebaixar la part del petroli i el gas i no podem augmentar la part nuclear, només ens queden les quatre renovables, i això és molt més fàcil de dir que de fer. Per sort ens queda una sortida relativament simple: l’estalvi. Simple perquè els esforços que s’han de fer per reduir el consum, i les inversions que demana, són inferiors a les d’augmentar altres produccions, ja que una part importantíssima de l’energia que ara consumim (més de la meitat) la malbaratem. La tercera setmana de març del 2011 marca el moment de posar-se a treballar en aquesta direcció. Article escrit per Joan Majó i publicat al Diari Ara el 20/03/2011

Suscríbete al newsletter

Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

* Campos requeridos





El siglo de la conectividad
|

El siglo de la conectividad

El siglo de la conectividad

Hora
Tipo de publicación

Posicionamientos

Hora
Data

04-03-2011

Nuestro Presidente ha escrito unas reflexiones tituladas «El segle de la Connectivitat», en motivo de la reciente MOBILE WORLD CONGRESS en Barcelona. Lo hizo a petición de el Centre d’Estudis Jordi Pujol i se publicó en su web. Creemos que este tema puede ser de interés para nuestros socios y por eso lo reproducimos con…

Crec que no deu ser massa desencertat definir l’«espècie homo» com aquella que, gràcies a la gran complexitat del seu cervell i l’alliberament de les seves extremitats anteriors, ha desenvolupat una intel•ligència i una capacitat pràctica que li permeten obtenir fàcilment de l’entorn els recursos que necessita, modificar aquest entorn per protegir-se de les agressions i multiplicar les seves potencialitats mitjançant el treball col•laboratiu amb altres membres de l’espècie. Això ha necessitat augmentar molt, i de manera paral•lela, la intel•ligència, els coneixements, la tecnologia i la capacitat de comunicació (especialment, la comunicació simbòlica). Per què començo amb una afirmació aparentment tan abstracte? Perquè cada cop que es produeix un canvi important en els elements que permeten aquestes possibilitats la societat humana fa un salt qualitatiu, i crec que ara som davant d’un d’aquests salts. Les darreres dècades del segle XX han vist com es repetia, però amb una intensitat i velocitat molt més grans, el que va passar al segle XIX amb un recurs bàsic, l’energia, que permet obtenir gairebé tots els elements materials necessaris per a la vida (aliments, mobilitat, eines, confort i benestar). La revolució actual s’ha denominat de la informació i fins i tot s’ha parlat de la «societat digital». Crec que és una expressió poc afortunada ja que una tecnologia no mereix qualificar un tipus de societat. S’ha emprat també, amb un xic més d’encert, de «societat de la informació» i de «societat del coneixement», però tampoc no crec que reflecteixin la naturalesa profunda del que estem vivint. Analitzem què significa el resultat de tres fenòmens que s’han produït conjuntament: capacitat pràcticament infinita de processar, emmagatzemar i transmetre bits (és a dir, informació), globalització d’una xarxa de gran capacitat (que pot transmetre tot tipus de continguts a gran distància i de manera gairebé instantània) i possibilitat d’estar connectat a la xarxa en mobilitat (és a dir, per mitjà d’ones). Això és el que configura un nou paradigma: capacitat de viure connectat, sempre i amb tothom, amb tots els avantatges i tots els inconvenients que això significa. Crec que la connectivitat és el moll de l’os de la societat que està emergint, perquè no només serveix per enviar i rebre informació sinó també, i sobretot, per «viure junts» independentment de la proximitat física. Aquest és el fenomen social que estan experimentant les noves generacions i que, a corre-cuita, els adults estem intentant comprendre i, a vegades, participar-hi malgrat les dificultats culturals que representa. De la mateixa manera que, des de fa algunes dècades, la informació camina sobre els bits, ara sobre el suport de les xarxes telemàtiques es construeixen les xarxes socials. Això és, a la llarga, més transcendent que totes les altres coses, ja que permet la creació de nous models de comunitat, la generació d’informacions des de nous emissors no formalitzats i la difusió ràpida i extensa al marge del monopoli dels mitjans tradicionals. Són evidents les conseqüències en l’evolució de les borses, en els canvis en la configuració de l’opinió política, en les campanyes electorals o en la caiguda de governs. Tenim exemples ben recents de tot això. Un dels elements que ha acabat d’arrodonir aquest naixement és l’explosió de terminals que permeten estar connectat en mobilitat, és a dir, amb un element portàtil i sense estar lligat a través d’un cable. Tant se val si es tracta de terminals de telefonia mòbil, d’ordinadors portàtils amb connexió wi-fi, d’i-pots, d’i-phones, de tablets, d’i-pads… o d’altres artefactes que acabaran convergint tots plegats en una mena de barreja d’ordinador, de telèfon i de petit televisor. És per això que ha esdevingut tan important l’existència del MWC que la darrera setmana s’ha celebrat a Barcelona. No tant com a trobada comercial, sinó com a lloc per on passa la dinàmica innovadora que fa avançar aquest sector. Molt més que els nous productes que s’hi presenten, és important veure i seguir les noves formes de viure i de relacionar-se que permeten, i que sovint imposen, de la mateixa manera que al segle passat el cotxe o l’avió les va canviar, quan no imposar. Tres reflexions finals. 1. No entendre la direcció i la velocitat del canvi social és molt perillós, i està en l’origen de molts dels nostres problemes. A casa nostra, no s’ha copsat encara què suposarà de veritat, per a la nostra manera de viure, la globalització; ni què significa econòmicament haver entrat a la UE, i sobretot a l’euro; ni quines son les conseqüències de canvis en el repartiment del poder que comportaran les noves xarxes. Això ens desorienta, a vegades ens irrita i sovint ens fa equivocar-nos en la formulació de diagnòstics i de solucions. 2. En un sentit invers, no ens hem de deixar portar per una actitud passiva davant d’aquests canvis. Ni tots són bons, ni tots són imparables. El progrés tecnològic els permet però no els fa obligatoris. Com més grans són les nostres possibilitats més grans han de ser les capacitats de les societats madures per regular-ne la utilització. El recent discurs de la liberalització i de la «intel•ligència del mercat» ja ens ha portat a una gran crisi i ens hi continuarà portant. És imprescindible reivindicar la necessitat d’una participació democràtica i d’una política al servei dels interessos col•lectius i no pas dels de grups, partits o empreses. 3. Hem de fer tot el possible perquè Barcelona continuï sent la seu dels propers MWC. És bo per a la projecció de la Ciutat. És bo per als nostres sectors relacionats amb el turisme. Però sobretot és bo perquè Barcelona sigui un referent europeu en el procés de configuració d’aquestes noves formes de convivència. I seria bo que el gran show comercial actual es complementés amb un espai de reflexió social i política sobre el seu significat i les seves possibilitats.

Suscríbete al newsletter

Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

* Campos requeridos





La Nit del Cercle. La Catalunya futura
|

La Nit del Cercle. La Catalunya futura

La Nit del Cercle. La Catalunya futura

Hora
Tipo de publicación

Posicionamientos

Hora
Data

17-01-2011

En motiu de la Nit del Cercle, que tindrà lloc el proper dijous 20 de gener a l’Hotel Alimara, la Junta del Cercle publica un posicionament sobre els criteris que ha seguit per seleccionar els candidats al Premi del Cercle: coneixement, internacionalització, innovació i responsabilitat social.

El Cercle per al Coneixement – Barcelona Breakfast celebra la primera Nit del Cercle amb l’atorgament del Premi del Cercle a una empresa com a reconeixement de la seva tasca a benefici del nostre país, impulsant la innovació, la internacionalització i el coneixement. Els criteris que s’han seguit per seleccionar els candidats al Premi són que es tracti d’una empresa industrial – en el concepte modern de la indústria – que incorpori el coneixement i la innovació com a base de la seva competitivitat, que estigui orientada al mercat internacional, i que actuï amb responsabilitat social. Amb aquest guardó el Cercle vol reconèixer l’esforç de les empreses catalanes i la seva potencialitat per a superar l’actual situació de crisi econòmica. Les característiques de la crisi Estem instal•lats en la crisi. Segurament hem tocat fons, però tot fa pensar que hi ha el perill que ens hi quedem un temps llarg, en aquest fons. S’ha evitat el que podia haver estat una gran depressió, però no hi ha encara en marxa els mecanismes que poden donar un tomb a la situació i fer que alguns indicadors no solament no continuïn empitjorant, sinó que comencin a millorar d’una manera estable. La crisi espanyola té dos grans símptomes: un d’intern, l’atur (més de quatre milions de persones, dels quals més de dos milions han perdut el lloc de treball en menys de divuit mesos) i un altre d’extern, el deute (l’acumulació d’un deute privat molt exagerat i un deute públic moderat, però de creixement accelerat, tot plegat agreujat per un fort dèficit comercial, acumulat durant anys). Fins que no inventem un o dos milions de nous llocs de treball, i aconseguim augmentar l’activitat –però sense augmentar el deute (sobretot el de famílies i empreses)–, no podrem parlar de la fi de la crisi. Podrem anar dient adéu a la crisi quan l’ocupació vagi augmentant, l’atur es redueixi, l’estalvi torni a créixer i ens tornem a situar, sense bombolles especulatives, en un nivell de renda i de riquesa adequat al nostre nivell de desenvolupament actual. Les malalties subjacents a aquests símptomes són dos forts desequilibris: hem consumit o invertit –- a base d’endeutar-nos — molt més del que hem guanyat o ingressat, i hem fabricat o construït moltes coses innecessàries (sobretot, però no solament, pisos) mentre hem anat important molt del que consumíem. Aquesta situació de sobreconsum intern ha fet que perdéssim progressivament competitivitat exterior. Les vies de sortida Sortir de la crisi vol dir tornar a un cert creixement del PIB, un creixement moderat –molt per sota d’aquells 4% dels anys de “fiesta”—però positiu i suficient per generar ocupació. Per augmentar l’activitat ha de créixer el consum interior, la demanda pública o l’exterior. Estimular la demanda interna no serà fàcil: molta gent ha perdut poder adquisitiu o té por del futur. De fet, tampoc no és massa convenient estimular-la, ja que s’ha de refer l’estalvi. Els grans dèficits pressupostaris d’aquests dos anys han augmentat molt el deute públic i, per tant, no podem pensar que la demanda i la inversió públiques puguin créixer molt. Podrem reduir el dèficit pressupostari, però no reduirem el deute públic. Podem reduir el deute privat, però moderant el consum. Tot això fa que haguem d’assegurar que l’exportació sigui un dels motors de la recuperació. Amb l’entrada a l’euro vam perdre una eina, la devaluació, però hem guanyat oportunitats, ja que ara tota Europa s’ha convertit en el nostre mercat interior. En el cas de Catalunya, ja estem venent a Europa tant com a la resta d’Espanya. La producció de l’economia catalana es reparteix actualment en tres parts iguals: una part correspon al consum català, una altra a l’ espanyol i la tercera al de fora, que vol dir molt majoritàriament els països de la UE. Hem d’aprofitar el fet que les economies europees es reactivaran abans que la nostra, algunes ja ho estan fent, per fer servir aquesta situació com a motor de la recuperació de l’economia catalana –això sense oblidar, de cap manera, el creixement continuat de les economies emergents. Les eines de sortida En aquestes circumstàncies, les paraules màgiques haurien de ser: exportacions, millora de la balança comercial i competitivitat exportable –tenint com a referent el mercat de la UE. En aquests moments, una de les mesures de la competitivitat de les empreses ha de ser el ratio exportacions/vendes. És una mesura de competitivitat però, a més, de competitivitat exportable. Aquests criteris ens porten a dues conclusions importants. La primera és que l’activitat industrial ha de tenir un paper clau en la recuperació, ja que els productes i els serveis industrials són molt més “exportables” que no pas els serveis en general. Per tant, l’augment de l’exportació ha de venir de la indústria. La segona conclusió és que, en la represa espanyola, Catalunya ha de tenir un paper de primer ordre precisament pel seu caràcter de primera àrea industrial d’Espanya i pel seu lideratge actual pel que fa a les exportacions a Europa. És amb aquests criteris i amb aquest convenciment que hem fet la selecció d’empreses que estan, i encara poden estar molt més, en situació d’empènyer la transformació de la nostra activitat i la recuperació de la nostra economia. La feina prèvia ens ha portat a seleccionar com a nomenades tres empreses : CIRCUTOR, FLUIDRA i TELSTAR, a una de les quals s’atorgarà el dia 20 el premi. En el curs del procés de selecció, hem pogut constatar amb satisfacció la gran quantitat d’empreses catalanes, grans i no tan grans, que estan en condicions de competir internacionalment. Per això, aquest premi a una d’elles, vol ser una reconeixement a totes i alhora un crit d’esperança en la potencialitat del país.

Suscríbete al newsletter

Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

* Campos requeridos





LAS TIC COMO PALANCA DE CAMBIO DE LA CIENCIA
|

LAS TIC COMO PALANCA DE CAMBIO DE LA CIENCIA

Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes.

1. Introducción Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes. No sólo se trata de pode hacer más cálculos en sí, sino que los avances de la llamada ciencia de la computación, base de las tecnologías de la información y las comunicaciones, están influyendo en las nuevas herramientas conceptuales y tecnológicas utilizadas en la ciencia de sistemas complejos en campos como la biología, la medicina, los ecosistemas, las redes sociales, las redes de comunicaciones, la economía, etc. A su vez, el avance en el conocimiento de dichos sistemas complejos en biología y química permite vislumbrar un horizonte de computación molecular que abra nuevas fronteras en las capacidades de la computación y las comunicaciones. Se trata de sistemas adaptativos y autónomos que desarrollan respuestas coherentes a cambios en su entorno de gran complejidad, mucho más allá de lo que somos capaces de hacer con las tecnologías actuales. Por otro lado se vislumbra el horizonte de la computación cuántica que podría dar lugar en pocos lustros a capacidades de cálculo ilimitadas respecto a las actuales. Por ello no sólo son las TIC una palanca de avance fundamental de la ciencia, sino que, además, la ciencia es una palanca de avance fundamental de las TIC, en un círculo virtuoso acelerado de grandes implicaciones. En ambos casos se trata de avances espectaculares en nuestra comprensión del mundo que nos rodea, de nuestra capacidad de desarrollo tecnológico, y, por ende, de nuestro desarrollo económico y social. Estamos en el albor de una nueva manera de hacer ciencia. Es por ello crucial que la sociedad conozca las bases y el potencial de estos avances. Catalunya dispone de buenas infraestructuras técnicas TIC para la ciencia. Si aspiramos a convertirnos en una sociedad del conocimiento, con valor añadido en la generación de conocimiento, hemos de seguir invirtiendo en actualizarlas y en dar la formación a los jóvenes científicos para que las puedan aprovechar. Está demostrado que en el medio plazo hay una clara correlación entre el nivel de desarrollo científico y el de capacidad económica y bienestar social. 2. Las TIC como palanca de impulso de la Ciencia La física de materiales condujo hace medio siglo al desarrollo de los semiconductores, los transistores y los microprocesadores, los cuales han digitalizado y revolucionado las tecnologías de la computación y las comunicaciones (TIC). El progreso ha sido prodigioso. Es inimaginable hoy un mundo sin teléfonos móviles, sin internet, sin todos los sistemas electrónicos que regulan nuestros aparatos domésticos, automóviles, hospitales, industrias y un largo etcétera. Y estamos acostumbrados a su constante evolución siguiendo la llamada Ley de Moore (dos veces más de velocidad de cálculo y de capacidad de memoria cada 18 meses al mismo coste, es decir un orden de magnitud cada lustro desde hace cincuenta años). Pero, más allá de estos avances, es importante reconocer que en estos momentos son estas mismas tecnologías de la información y comunicaciones las que están revolucionando el avance de la ciencia. Y esta revolución tiene más de una dimensión: en primer lugar, la obvia, la de permitir el tratamiento de cada vez mayores cantidades de datos a mayores velocidades. Así ayudan a los científicos a “hacer” más ciencia más rápidamente. Pero más allá de estos avances de escala, las ciencias de la computación están influyendo en “cómo” se hace la ciencia. Los conceptos, teoremas y herramientas desarrollados en el seno de las llamadas ciencias de la computación se están adaptando como nuevas herramientas en las ciencias dedicadas al estudio de sistemas complejos, especialmente en las ciencias biológicas, así como en el estudio del clima, de fuentes energéticas, del cerebro, de los orígenes del universo, de los orígenes de la vida, etc. Estamos pues ante una nueva revolución. Las revoluciones científicas no son nada frecuentes, pero suelen ocurrir cuando se inventa una nueva herramienta conceptual (como el cálculo) o una nueva herramienta tecnológica (como el telescopio). Veamos algunos ejemplos. Fibonacci en el siglo XIII publicó el tratado “Liber Aci” en el que estableció una nueva rama de las matemáticas, el álgebra. El algebra permitió pasar de las matemáticas de palabras a la matemática de los símbolos. Hasta ese momento en Europa las matemáticas se escribían como palabras. Fibonacci “descubrió” el sistema numérico, que de hecho nació en la India hace 3.000 años, y que llegó a la Europa de la época a través del legado de la cultura árabe. El algebra permitió nuevos tipos de cálculos que cambiaron la sociedad, a través del estudio por ejemplo de los planetas, y de su impacto en el comercio y la religión. Unos 400 años más tarde Newton, en sus esfuerzos por entender las leyes de la naturaleza en base a las tasas de cambio del movimiento, usó el algebra para el desarrollo de una nueva rama de las matemáticas: el cálculo (coincidiendo con los trabajos de von Leibniz). Esta nueva herramienta permitió describir muchas nueves leyes de la naturaleza: tasas de cambio o dinámicas del calor, del sonido, de la luz, de los fluidos, de la electricidad, del magnetismo, etc. De manera parecida, el desarrollo de nuevas herramientas tecnológicas, como el telescopio de Galileo y el microscopio, ambos del siglo XVII, los rayos X del siglo XIX, las máquinas secuenciadoras de DNA de los años ‘60 también han transformado nuestra comprensión del mundo y del universo. El impacto de las TIC en el desarrollo de la ciencia, en el alcance sus resultados y en el impacto de sus herramientas y métodos para entornos complejos, tendrá una importancia al menos igual de significativa en las próximas décadas como lo ha sido estos últimos cincuenta años: impactará nuestra longevidad, nuestra calidad de vida, lo que sabemos de nosotros, de nuestro planeta, de nuestro universo, de cómo afrontar las enfermedades, de cómo gestionar los recursos de nuestro planeta, etc. Las TIC está cambiando la forma de hacer ciencia, proporcionando avances a través de nuevos tipos de experimentos. Estos experimentos generan nuevos tipos de datos, de complejidad y volúmenes exponencialmente mayores. Uno de las cuestiones a resolver es cómo usar, explotar y compartir esta avalancha de datos. Ejemplos de estas avalanchas de datos se dan por ejemplo en el caso del nuevo laboratorio “Large Hadron Collider” del CERN en Ginebra. Está previsto que produzca varios PetaBytes (diez elevado a 15 número de bytes, o PB) anuales. Para ello se ha implementado una arquitectura de tratamiento de estos datos de tipo “grid” que engloba una red internacional de centros de computación con más de 100k CPUs para analizar en cascada las informaciones y patrones más relevantes a las investigaciones en curso. La acumulación de grandes volúmenes de datos, medidos en PB y en ExaBytes (mil PB), se da con gran frecuencia en la ciencia actual, y no sólo en la física de altas energías, sino también en las técnicas de “high throuhgput” de genómica, proteómica, química combinatoria, estudios del clima, astronomía, etc. Pero además, y más allá de estos problemas de escala de volumen de datos, hay otros tipos de problemáticas como es la de tratar datos mucho más heterogéneas y con orígenes mucho más dispersos, como son los casos de biomedicina, astronomía y otros. Se trata de conceptualizar la amplitud y la profundidad de las relaciones y posibles relaciones en el seno de los datos correspondientes. Ello requiere herramientas cada vez más potentes para acceder, manipular, visualizar e interpretar estos datos de una manera eficaz, superando las barreras actuales de heterogeneidad de datos, plataformas y aplicaciones. Las técnicas que se están desarrollando incorporan conceptos de hardware como redes de equipos básicos tipo PC, y redes de agrupaciones de estos equipos para hacer cálculos hasta la fecha únicamente realizables en equipos de supercomputación. Como la cantidad de datos generados en este tipo de entornos excede la velocidad y capacidad de almacenamiento y las velocidades de las redes, se impone complementar las grandes bases de datos centrales con jerarquías federadas de bases de datos especializadas y más pequeñas. Por otro lado las nuevas herramientas de software incluyen conceptos como la semántica, o metadatos, es decir datos que describen los datos, su calidad, dónde y cuándo se han creado, su propiedad intelectual, etc. Y no es sólo para consumo humano, sino que de hecho lo utilizan fundamentalmente los “web services” entre aplicaciones para integrar, transformar y/o hacer cálculos con los datos subyacentes. La gestión de los datos científicos requiere pues avances en los sistemas de gestión de bases de datos que incluyan esta información semántica. Los principios que subyacen el desarrollo de las TIC se conocen como “ciencia de la computación” (“computer science”). Esta ciencia de la computación está contribuyendo en gran manera al avance de la ciencia, de las ciencias naturales. Pero va más allá que esto, está en gran medida reformulando las ciencias naturales. Las ciencias naturales se definen en relación al mundo en el que vivimos y que intentamos describir y predecir en base a estudios empíricos y postulados de teorías y leyes. La ciencia de la computación es más difícil de describir, no tiene las bases empíricas de las ciencias naturales, no se trata sólo razonamientos simbólicos (matemáticas) y no es sólo un compendio de principios de ingeniería y tecnología. Se puede decir que la mejor caracterización de la ciencia de la computación es la manera en que sus practicantes resuelven problemas, diseñan sistemas e interpretan el comportamiento humano en el contexto de dichos sistemas. Por ello se habla del “computational thinking”. Se trata de plantearse cuestiones como, “cuán difícil será de resolver”, “cuál es la mejor mana de resolverlo”, como reformular un problema complejo en otro que sabemos cómo resolver, quizá por reducción, transformación o simulación. Se trata de encontrar la representación más adecuada para un problema, en encontrar la modelización que lo hace tratable. Se trata de usar la abstracción y descomposición al analizar una tarea compleja o diseñar un sistema complejo. Se trata de tener la confianza de poder usar, modificar e influenciar un sistema complejo sin comprender todos sus detalles. Se trata de modularizar algo en anticipación a múltiples usuarios y/o de “pre-fetching” y “caching” futuros. Se trata de juzgar el diseño de un sistema en base a su simplicidad y elegancia. Se trat de pensar de manera recurrente. Se trata de pensar en términos de prevención, protección y recuperación ante los peores escenarios (violación de condiciones de contorno, entornos impredecibles) a través de redundancia, contención de daños y corrección de errores. En resumen, se trata de resolver problemas y diseñar sistemas usando los principios básicos de la ciencia de la computación. Hemos hecho énfasis en que las nuevas fronteras que las TIC ayudan a desarrollar en el mundo de la ciencia están relacionadas con la complejidad. Muchos de los aspectos más importantes de nuestro mundo se representan como sistemas complejos: biología, medicina (como redes intercelulares, sistemas de órganos, epidemiología), en entorno (ecosistemas, etc.), sistemas sociales (como transportes, ciudades, redes sociales), redes de comunicaciones, sistemas económicos, etc. Pero a pesar de que en general se entiende la complejidad como el resultado del comportamiento complejo de muchos elementos simples, de hecho en muchos casos se trata de lo contrario: sistemas altamente complejos que producen comportamientos coherentes. Probablemente una de las fronteras científicas más apasionantes a resolver es la de entender y predecir cómo dichos sistemas complejos producen comportamientos coherentes. Para ello una de las áreas más importantes trata de la codificación del conocimiento científico. Por ello se entiende la traducción del conocimiento en una representación codificada, en términos de datos y programas, susceptible de ser manipulada y analizable mecánicamente. Este proceso ya se ha llevado a cabo en muchas áreas de la ciencia, pero está llegando en otras. La biología es uno de los campos en que este tipo de codificación se ve como fundamental. En su estadio más básico tenemos la codificación del genoma: las estructuras del DNA de diferentes organismos se representan como largas cadenas con un alfabeto de cuatro letras. De esta manera se puede almacenar, buscar, comparar y analizar usando una gran variedad de herramientas computacionales. Ya en el año 2000 a través del proyecto del Genoma Humano se secuenciaron los tres mil millones de parejas de letras de DNA correspondientes. Se tardó trece años y costó tres mil millones de dólares. Debido a los avances en el coste de la secuenciación de DNA, hoy en día se vislumbran costes de sólo mil dólares en plazos de una hora. Este avance en la velocidad y la disminución de los costes de secuenciación de DNA es el equivalente a la ley de Moore para la computación. Y la combinación de ambos avances es lo que permite dar pasos de gigante en la biología de este siglo XXI. El siguiente nivel es el de la proteómica. En este caso las estructuras de datos son más complejas: se trata de cadenas con alfabetos de veinte letras (de aminoácidos) más información posicional tridimensional y más algunas anotaciones complementarias. Esta representación ahora está suficientemente estandarizada, y por ello ya se puede tratar con nuevas herramientas. Más allá hay que codificar las vías metabólicas y de señalización. En este caso lo que hay que almacenar, buscar, comparar, analizar e interpretar son las redes interacciones bioquímicas. Cómo hacerlo es un tema de actualidad. El problema general más complicado será cómo almacenar, buscar, comparar, analizar etc. los procesos biológicos. Se trata de interacciones dinámicas entre múltiplos componentes discretos, como la división de las células. Todo ello nos lleva a reflexionar acerca de la manera de hacer avanzar la ciencia, a partir de primeros principios y/o a partir de inferencias estadísticas. Se trata de vías complementarias y/o alternativas según los casos. Nos recuerda la dicotomía entre los procesos automáticos de traducción, los clásicos basados en el diccionario y los de tipo Google que se basan en el análisis de cantidades ingentes de traducciones de textos previos. En este caso, en el fondo se trata del mismo proceso, pero el segundo es mucho más ágil. Hasta cierto punto es un símil del mundo científico. El valor de las teorías científicas se determina generalmente por su habilidad en realizar predicciones. Pero muchas de las teorías tratan fenómenos tan alejados de nuestra experiencia e intuición diarias, que se hace difícil sino imposible su comprensión “lógica”. Las ecuaciones, los cálculos y las predicciones funcionan de manera pasmosa, pero no somos capaces de “entenderlo” más allá de dichas ecuaciones matemáticas. Piénsese sino en las grandes teorías de la física del siglo XX, como la relatividad y la mecánica cuántica. La certeza de sus predicciones es impresionante, pero no es posible entenderlas de manera intuitiva. Explican fenómenos alejados de nuestras escalas y experiencias. Y en las circunstancias más próxima a nuestra experiencia se transforman en las llamadas leyes de la mecánica clásica, que sí consideramos intuitivas en la actualidad. Pero incluso éstas no eran intuitivas en las épocas que fueron formuladas. Nadie en su sano juicio diría a priori que la manzana de Newton y la Tierra se atraen mutuamente y que ambos se mueven en una elipse alrededor de su centro de gravedad, lo que en la práctica quiere decir que la manzana cae verticalmente. Sólo se puede llegar a aceptar estudiando las trayectorias de los astros, y para ello hay que saber cómo se pueden medir. Así que en los dominios de la ciencia en que se conocen bien las ecuaciones, para realizar predicciones se requiere simplemente utilizar las técnicas numéricas más adecuadas. Sin embargo incluso en estos casos se pueden plantear muchas cuestiones debido a la eficiencia, exactitud numérica y validación del modelo matemático y del modelo de cálculo informático utilizado. Hay que reconocer de todas maneras que en la mayor parte de los campos de la ciencia no es posible llevar a cabo una simulación a partir de primeros principios con los recursos actuales de las TIC; ello es debido a la complejidad del tema o a la ausencia de modelos suficientemente precisos para el problema en cuestión. En estos casos se utilizan métodos estadísticos, incluidos los llamados “machine learning”. Mientras que la estadística clásica se centra en el análisis de los datos para probar las hipótesis planteadas, el objetivo de las técnicas de “machine learning” es la de utilizar métodos estadísticos para hacer predicciones. Esto se ha utilizado con éxito en casos como el de la modelización molecular, para descubrir los principios estructurales de las familias de plegamientos de proteínas, o en el de las predicciones de la toxicidad de pequeñas moléculas. Una de las líneas de desarrollo de los nuevos lenguajes de programación será sin duda el de la inferencia probabilística, en el que se incluyen conceptos tales como la incertidumbre en su base; con ello se acelerará la utilización de los principios del “machine learning”. La investigación de algoritmos y los principios del “machine learning” pueden contribuir a la investigación e uno de las áreas más importantes de la investigación científica, la de la comprensión de cómo se procesa la información en los sistemas biológicos, y en particular en el cerebro. Las dos maneras de realizar predicciones, las basadas en primeros principios, y las basadas en modelos estadísticos de los datos observados, no tienen por qué ser excluyentes, y de hecho hay mucho a ganar en usarlas de manera complementaria para el estudio de sistemas complejos. Por ejemplo en casos como la biología de poblaciones, un estudio completo probablemente requiere una combinación de elementos que provienen de la dinámica no lineal, de la ciencia de la complejidad, de la teoría de redes, de la teoría de procesos estocásticos y del “machine learning”. Este tipo de avances permite plantearse la realización de experimentos autónomos, que son de especial importancia en situaciones en que sería imposible llevarlos a cabo, sea por el volumen de información a analizar, sea por la incapacidad de la instrumentación científica en comunicar todos sus datos con los centros de decisión debido a limitaciones de ancho de banda, como por ejemplo en sondas espaciales o robots utilizados en entornos remotos u hostiles. Dichas técnicas computacionales permiten decidir de manera autónoma a partir de las observaciones previas qué pruebas realizar a continuación, cuándo realizarlas y cuándo suspenderlas. La mayoría de las sondas y robots enviados a entornos remotos sólo dispone de un ancho de banda limitado, lo que no le permite enviar todos los datos recogidos. Así dicho robot puede decidir localmente qué curso de pruebas realizar de manera autónoma. En la misma línea se está llevando a cabo grandes avances en redes inalámbricas y tecnologías de sensores en los chips, de manera a poder realizar grandes proyectos de monitorización del entorno ambiental. La distinción entre lo natural y lo artificial se está difuminando cada vez más debido a los avances en la intersección entre las TIC, la biología, la química y la ingeniería. Estos avances tienen el potencial de revolucionar no solo nuestra capacidad de modelizar, entender y reparar sistemas vivientes complejos, pero también de construir nuevas piezas biológicas que lleguen a ser la base de organismos completamente nuevos. Los temas tratados hasta aquí reflejan el rol de las TIC en transformar e incluso revolucionar la ciencia, es decir su rol de palanca de impulso de la ciencia. Los componentes de esta revolución son conceptos, herramientas y teoremas de la ciencia de la computación que se están transformando en nuevas herramientas conceptuales y tecnológicas de gran aplicabilidad en la ciencia, especialmente las ciencias que investigan sistemas complejos, y muy en particular en las ciencias biológicas. Hay quien defiende que estamos en el albor de una nueva manera de hacer ciencia. 3. La ciencia como palanca de las TIC Pero no únicamente las TIC revolucionan la ciencia. Existe la posibilidad de que pueda ocurrir, en base a dichos avances, justamente lo inverso: que dichos avances de la ciencia, especialmente en biología y química, pueden crear las bases de una revolución fundamental en el área de la computación y las TIC. Es decir, la ciencia puede convertirse en un futuro próximo en una palanca de impulso de las TIC, revolucionando sus bases. 3.1. El potencial de la computación cuántica La ley de Moore ha permitido pasar, de trabajar a escala de una micra, a trabajar a escalas de un nanómetro. Pero al seguir miniaturizando, y de mantenerse dicho ritmo de mejoras, hacia 2030 entraremos en los dominios de la física cuántica. Con ello lo que ganaremos ya no será más velocidad al procesar la información, ya no será una mejora cuantitativa como la que hemos tenido en las últimas décadas, sino que se producirá un cambio cualitativo, una manera totalmente nueva de procesar la información. En estos entornos se reemplazan los dígitos habituales, los 0s y los 1s, por los llamados bits cuánticos o “qubits”. Estos elementos, que pueden ser electrones, fotones, átomos o moléculas se rigen por la física cuántica, y como tales tienen la propiedad de existir a la vez como 0 y como 1 en el fenómeno llamado de la superposición. Ello permite a la computación cuántica procesar muchos cálculos a la vez. Se trata de de que un ordenador cuántico podría ejecutar en un solo paso la misma operación sobre N veces 2 números distintos codificados en forma de superposición de esos N bits: esto es lo que se conoce como paralelismo cuántico. En los ordenadores actuales los problemas se resuelven secuencialmente, mientras que en uno cuántico los problemas pueden combinarse e introducirse en el ordenador simultáneamente, ejecutándose al mismo tiempo. Por ello se llega a hablar de un horizonte de capacidades de cálculo ilimitadas en comparación con las actuales. El principio básico detrás de la computación cuántica es el entrelazamiento (“entanglement”), que permite establecer correlaciones a distancia, y que permite la superposición de dos sistemas y que permite añadir qubits al proceso. El entrelazamiento es el elemento clave detrás de los algoritmos cuánticos y de la criptografía cuántica. Hoy ya disponemos de soluciones comerciales basadas en criptografía cuántica. Aún tardaremos algunas décadas en poder disponer de ordenadores cuánticos con capacidades equivalentes a los actuales, para lo que se estima que hay que llegar a ordenadores que gestionen 100.000 qubits – hoy estamos en las decenas. La dificultad principal a resolver es la del aislamiento total de los qubits del mundo exterior. Pero se trata de un terreno fascinante de investigación científica y tecnológica por su impacto en las TIC. Es de destacar que la revista Science elija, como avance científico más destacado de 2010, el desarrollo de la primera “máquina cuántica”. Una máquina no es un ordenador, ni mucho menos, pero los avances son continuos y las oportunidades increíbles. 3.2. El potencial de la computación molecular Los ordenadores tal como los conocemos hoy responden muy bien a las tareas para los que fueron concebidos. Pero cada vez más podemos imaginar aplicaciones de las TIC para la que no se adapta bien la tecnología actual. Un caso serían dispositivos de cálculo que operasen dentro de organismos vivos, o incluso dentro de una célula. Su diseño requiere una arquitectura completa de computación menor que la de un transistor. Y no existe ninguna limitación fundamental para esta tecnología, como se demuestra con el procesamiento sofisticado de información que ocurre en los organismos vivos. De manera similar, en el área de robótica, el procesamiento en tiempo real de datos complejos en una unidad pequeña, con bajo consumo energético y de poco peso de momento no es viable – pero las comunidades de insectos sociales, como las hormigas, nos demuestran lo que sería posible con dichos tipos de robots dada la tecnología adecuada. El procesamiento de información es esencial para los sistemas biológicos,, tanto para mantener sus organizaciones intrincadas como para poder competir con formas de vida rivales. Por ello hasta los más simples organismos han desarrollado capacidades avanzadas de computación para abordar tareas complejas. Aún hemos de comprender adecuadamente los principios de estos sistemas naturales de computación informática, aunque el continuo avance de las ciencias biológicas nos muestra cada vez más detalles. Ello contribuye al desarrollo de los conceptos de la llamada computación molecular. Los ordenadores actuales se han diseñado siguiendo un formalismo estricto independiente de su implementación física. Las características físicas de los componentes físicos están camufladas gracias a una ingeniería muy completa, lo cual es muy útil para la programación. Pero ello se traduce en un uso ineficiente de los substratos, lo que resulta en equipos relativamente voluminosos que se basan en grandes redes
1. Introducción Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes. No sólo se trata de pode hacer más cálculos en sí, sino que los avances de la llamada ciencia de la computación, base de las tecnologías de la información y las comunicaciones, están influyendo en las nuevas herramientas conceptuales y tecnológicas utilizadas en la ciencia de sistemas complejos en campos como la biología, la medicina, los ecosistemas, las redes sociales, las redes de comunicaciones, la economía, etc. A su vez, el avance en el conocimiento de dichos sistemas complejos en biología y química permite vislumbrar un horizonte de computación molecular que abra nuevas fronteras en las capacidades de la computación y las comunicaciones. Se trata de sistemas adaptativos y autónomos que desarrollan respuestas coherentes a cambios en su entorno de gran complejidad, mucho más allá de lo que somos capaces de hacer con las tecnologías actuales. Por otro lado se vislumbra el horizonte de la computación cuántica que podría dar lugar en pocos lustros a capacidades de cálculo ilimitadas respecto a las actuales. Por ello no sólo son las TIC una palanca de avance fundamental de la ciencia, sino que, además, la ciencia es una palanca de avance fundamental de las TIC, en un círculo virtuoso acelerado de grandes implicaciones. En ambos casos se trata de avances espectaculares en nuestra comprensión del mundo que nos rodea, de nuestra capacidad de desarrollo tecnológico, y, por ende, de nuestro desarrollo económico y social. Estamos en el albor de una nueva manera de hacer ciencia. Es por ello crucial que la sociedad conozca las bases y el potencial de estos avances. Catalunya dispone de buenas infraestructuras técnicas TIC para la ciencia. Si aspiramos a convertirnos en una sociedad del conocimiento, con valor añadido en la generación de conocimiento, hemos de seguir invirtiendo en actualizarlas y en dar la formación a los jóvenes científicos para que las puedan aprovechar. Está demostrado que en el medio plazo hay una clara correlación entre el nivel de desarrollo científico y el de capacidad económica y bienestar social. 2. Las TIC como palanca de impulso de la Ciencia La física de materiales condujo hace medio siglo al desarrollo de los semiconductores, los transistores y los microprocesadores, los cuales han digitalizado y revolucionado las tecnologías de la computación y las comunicaciones (TIC). El progreso ha sido prodigioso. Es inimaginable hoy un mundo sin teléfonos móviles, sin internet, sin todos los sistemas electrónicos que regulan nuestros aparatos domésticos, automóviles, hospitales, industrias y un largo etcétera. Y estamos acostumbrados a su constante evolución siguiendo la llamada Ley de Moore (dos veces más de velocidad de cálculo y de capacidad de memoria cada 18 meses al mismo coste, es decir un orden de magnitud cada lustro desde hace cincuenta años). Pero, más allá de estos avances, es importante reconocer que en estos momentos son estas mismas tecnologías de la información y comunicaciones las que están revolucionando el avance de la ciencia. Y esta revolución tiene más de una dimensión: en primer lugar, la obvia, la de permitir el tratamiento de cada vez mayores cantidades de datos a mayores velocidades. Así ayudan a los científicos a “hacer” más ciencia más rápidamente. Pero más allá de estos avances de escala, las ciencias de la computación están influyendo en “cómo” se hace la ciencia. Los conceptos, teoremas y herramientas desarrollados en el seno de las llamadas ciencias de la computación se están adaptando como nuevas herramientas en las ciencias dedicadas al estudio de sistemas complejos, especialmente en las ciencias biológicas, así como en el estudio del clima, de fuentes energéticas, del cerebro, de los orígenes del universo, de los orígenes de la vida, etc. Estamos pues ante una nueva revolución. Las revoluciones científicas no son nada frecuentes, pero suelen ocurrir cuando se inventa una nueva herramienta conceptual (como el cálculo) o una nueva herramienta tecnológica (como el telescopio). Veamos algunos ejemplos. Fibonacci en el siglo XIII publicó el tratado “Liber Aci” en el que estableció una nueva rama de las matemáticas, el álgebra. El algebra permitió pasar de las matemáticas de palabras a la matemática de los símbolos. Hasta ese momento en Europa las matemáticas se escribían como palabras. Fibonacci “descubrió” el sistema numérico, que de hecho nació en la India hace 3.000 años, y que llegó a la Europa de la época a través del legado de la cultura árabe. El algebra permitió nuevos tipos de cálculos que cambiaron la sociedad, a través del estudio por ejemplo de los planetas, y de su impacto en el comercio y la religión. Unos 400 años más tarde Newton, en sus esfuerzos por entender las leyes de la naturaleza en base a las tasas de cambio del movimiento, usó el algebra para el desarrollo de una nueva rama de las matemáticas: el cálculo (coincidiendo con los trabajos de von Leibniz). Esta nueva herramienta permitió describir muchas nueves leyes de la naturaleza: tasas de cambio o dinámicas del calor, del sonido, de la luz, de los fluidos, de la electricidad, del magnetismo, etc. De manera parecida, el desarrollo de nuevas herramientas tecnológicas, como el telescopio de Galileo y el microscopio, ambos del siglo XVII, los rayos X del siglo XIX, las máquinas secuenciadoras de DNA de los años ‘60 también han transformado nuestra comprensión del mundo y del universo. El impacto de las TIC en el desarrollo de la ciencia, en el alcance sus resultados y en el impacto de sus herramientas y métodos para entornos complejos, tendrá una importancia al menos igual de significativa en las próximas décadas como lo ha sido estos últimos cincuenta años: impactará nuestra longevidad, nuestra calidad de vida, lo que sabemos de nosotros, de nuestro planeta, de nuestro universo, de cómo afrontar las enfermedades, de cómo gestionar los recursos de nuestro planeta, etc. Las TIC está cambiando la forma de hacer ciencia, proporcionando avances a través de nuevos tipos de experimentos. Estos experimentos generan nuevos tipos de datos, de complejidad y volúmenes exponencialmente mayores. Uno de las cuestiones a resolver es cómo usar, explotar y compartir esta avalancha de datos. Ejemplos de estas avalanchas de datos se dan por ejemplo en el caso del nuevo laboratorio “Large Hadron Collider” del CERN en Ginebra. Está previsto que produzca varios PetaBytes (diez elevado a 15 número de bytes, o PB) anuales. Para ello se ha implementado una arquitectura de tratamiento de estos datos de tipo “grid” que engloba una red internacional de centros de computación con más de 100k CPUs para analizar en cascada las informaciones y patrones más relevantes a las investigaciones en curso. La acumulación de grandes volúmenes de datos, medidos en PB y en ExaBytes (mil PB), se da con gran frecuencia en la ciencia actual, y no sólo en la física de altas energías, sino también en las técnicas de “high throuhgput” de genómica, proteómica, química combinatoria, estudios del clima, astronomía, etc. Pero además, y más allá de estos problemas de escala de volumen de datos, hay otros tipos de problemáticas como es la de tratar datos mucho más heterogéneas y con orígenes mucho más dispersos, como son los casos de biomedicina, astronomía y otros. Se trata de conceptualizar la amplitud y la profundidad de las relaciones y posibles relaciones en el seno de los datos correspondientes. Ello requiere herramientas cada vez más potentes para acceder, manipular, visualizar e interpretar estos datos de una manera eficaz, superando las barreras actuales de heterogeneidad de datos, plataformas y aplicaciones. Las técnicas que se están desarrollando incorporan conceptos de hardware como redes de equipos básicos tipo PC, y redes de agrupaciones de estos equipos para hacer cálculos hasta la fecha únicamente realizables en equipos de supercomputación. Como la cantidad de datos generados en este tipo de entornos excede la velocidad y capacidad de almacenamiento y las velocidades de las redes, se impone complementar las grandes bases de datos centrales con jerarquías federadas de bases de datos especializadas y más pequeñas. Por otro lado las nuevas herramientas de software incluyen conceptos como la semántica, o metadatos, es decir datos que describen los datos, su calidad, dónde y cuándo se han creado, su propiedad intelectual, etc. Y no es sólo para consumo humano, sino que de hecho lo utilizan fundamentalmente los “web services” entre aplicaciones para integrar, transformar y/o hacer cálculos con los datos subyacentes. La gestión de los datos científicos requiere pues avances en los sistemas de gestión de bases de datos que incluyan esta información semántica. Los principios que subyacen el desarrollo de las TIC se conocen como “ciencia de la computación” (“computer science”). Esta ciencia de la computación está contribuyendo en gran manera al avance de la ciencia, de las ciencias naturales. Pero va más allá que esto, está en gran medida reformulando las ciencias naturales. Las ciencias naturales se definen en relación al mundo en el que vivimos y que intentamos describir y predecir en base a estudios empíricos y postulados de teorías y leyes. La ciencia de la computación es más difícil de describir, no tiene las bases empíricas de las ciencias naturales, no se trata sólo razonamientos simbólicos (matemáticas) y no es sólo un compendio de principios de ingeniería y tecnología. Se puede decir que la mejor caracterización de la ciencia de la computación es la manera en que sus practicantes resuelven problemas, diseñan sistemas e interpretan el comportamiento humano en el contexto de dichos sistemas. Por ello se habla del “computational thinking”. Se trata de plantearse cuestiones como, “cuán difícil será de resolver”, “cuál es la mejor mana de resolverlo”, como reformular un problema complejo en otro que sabemos cómo resolver, quizá por reducción, transformación o simulación. Se trata de encontrar la representación más adecuada para un problema, en encontrar la modelización que lo hace tratable. Se trata de usar la abstracción y descomposición al analizar una tarea compleja o diseñar un sistema complejo. Se trata de tener la confianza de poder usar, modificar e influenciar un sistema complejo sin comprender todos sus detalles. Se trata de modularizar algo en anticipación a múltiples usuarios y/o de “pre-fetching” y “caching” futuros. Se trata de juzgar el diseño de un sistema en base a su simplicidad y elegancia. Se trat de pensar de manera recurrente. Se trata de pensar en términos de prevención, protección y recuperación ante los peores escenarios (violación de condiciones de contorno, entornos impredecibles) a través de redundancia, contención de daños y corrección de errores. En resumen, se trata de resolver problemas y diseñar sistemas usando los principios básicos de la ciencia de la computación. Hemos hecho énfasis en que las nuevas fronteras que las TIC ayudan a desarrollar en el mundo de la ciencia están relacionadas con la complejidad. Muchos de los aspectos más importantes de nuestro mundo se representan como sistemas complejos: biología, medicina (como redes intercelulares, sistemas de órganos, epidemiología), en entorno (ecosistemas, etc.), sistemas sociales (como transportes, ciudades, redes sociales), redes de comunicaciones, sistemas económicos, etc. Pero a pesar de que en general se entiende la complejidad como el resultado del comportamiento complejo de muchos elementos simples, de hecho en muchos casos se trata de lo contrario: sistemas altamente complejos que producen comportamientos coherentes. Probablemente una de las fronteras científicas más apasionantes a resolver es la de entender y predecir cómo dichos sistemas complejos producen comportamientos coherentes. Para ello una de las áreas más importantes trata de la codificación del conocimiento científico. Por ello se entiende la traducción del conocimiento en una representación codificada, en términos de datos y programas, susceptible de ser manipulada y analizable mecánicamente. Este proceso ya se ha llevado a cabo en muchas áreas de la ciencia, pero está llegando en otras. La biología es uno de los campos en que este tipo de codificación se ve como fundamental. En su estadio más básico tenemos la codificación del genoma: las estructuras del DNA de diferentes organismos se representan como largas cadenas con un alfabeto de cuatro letras. De esta manera se puede almacenar, buscar, comparar y analizar usando una gran variedad de herramientas computacionales. Ya en el año 2000 a través del proyecto del Genoma Humano se secuenciaron los tres mil millones de parejas de letras de DNA correspondientes. Se tardó trece años y costó tres mil millones de dólares. Debido a los avances en el coste de la secuenciación de DNA, hoy en día se vislumbran costes de sólo mil dólares en plazos de una hora. Este avance en la velocidad y la disminución de los costes de secuenciación de DNA es el equivalente a la ley de Moore para la computación. Y la combinación de ambos avances es lo que permite dar pasos de gigante en la biología de este siglo XXI. El siguiente nivel es el de la proteómica. En este caso las estructuras de datos son más complejas: se trata de cadenas con alfabetos de veinte letras (de aminoácidos) más información posicional tridimensional y más algunas anotaciones complementarias. Esta representación ahora está suficientemente estandarizada, y por ello ya se puede tratar con nuevas herramientas. Más allá hay que codificar las vías metabólicas y de señalización. En este caso lo que hay que almacenar, buscar, comparar, analizar e interpretar son las redes interacciones bioquímicas. Cómo hacerlo es un tema de actualidad. El problema general más complicado será cómo almacenar, buscar, comparar, analizar etc. los procesos biológicos. Se trata de interacciones dinámicas entre múltiplos componentes discretos, como la división de las células. Todo ello nos lleva a reflexionar acerca de la manera de hacer avanzar la ciencia, a partir de primeros principios y/o a partir de inferencias estadísticas. Se trata de vías complementarias y/o alternativas según los casos. Nos recuerda la dicotomía entre los procesos automáticos de traducción, los clásicos basados en el diccionario y los de tipo Google que se basan en el análisis de cantidades ingentes de traducciones de textos previos. En este caso, en el fondo se trata del mismo proceso, pero el segundo es mucho más ágil. Hasta cierto punto es un símil del mundo científico. El valor de las teorías científicas se determina generalmente por su habilidad en realizar predicciones. Pero muchas de las teorías tratan fenómenos tan alejados de nuestra experiencia e intuición diarias, que se hace difícil sino imposible su comprensión “lógica”. Las ecuaciones, los cálculos y las predicciones funcionan de manera pasmosa, pero no somos capaces de “entenderlo” más allá de dichas ecuaciones matemáticas. Piénsese sino en las grandes teorías de la física del siglo XX, como la relatividad y la mecánica cuántica. La certeza de sus predicciones es impresionante, pero no es posible entenderlas de manera intuitiva. Explican fenómenos alejados de nuestras escalas y experiencias. Y en las circunstancias más próxima a nuestra experiencia se transforman en las llamadas leyes de la mecánica clásica, que sí consideramos intuitivas en la actualidad. Pero incluso éstas no eran intuitivas en las épocas que fueron formuladas. Nadie en su sano juicio diría a priori que la manzana de Newton y la Tierra se atraen mutuamente y que ambos se mueven en una elipse alrededor de su centro de gravedad, lo que en la práctica quiere decir que la manzana cae verticalmente. Sólo se puede llegar a aceptar estudiando las trayectorias de los astros, y para ello hay que saber cómo se pueden medir. Así que en los dominios de la ciencia en que se conocen bien las ecuaciones, para realizar predicciones se requiere simplemente utilizar las técnicas numéricas más adecuadas. Sin embargo incluso en estos casos se pueden plantear muchas cuestiones debido a la eficiencia, exactitud numérica y validación del modelo matemático y del modelo de cálculo informático utilizado. Hay que reconocer de todas maneras que en la mayor parte de los campos de la ciencia no es posible llevar a cabo una simulación a partir de primeros principios con los recursos actuales de las TIC; ello es debido a la complejidad del tema o a la ausencia de modelos suficientemente precisos para el problema en cuestión. En estos casos se utilizan métodos estadísticos, incluidos los llamados “machine learning”. Mientras que la estadística clásica se centra en el análisis de los datos para probar las hipótesis planteadas, el objetivo de las técnicas de “machine learning” es la de utilizar métodos estadísticos para hacer predicciones. Esto se ha utilizado con éxito en casos como el de la modelización molecular, para descubrir los principios estructurales de las familias de plegamientos de proteínas, o en el de las predicciones de la toxicidad de pequeñas moléculas. Una de las líneas de desarrollo de los nuevos lenguajes de programación será sin duda el de la inferencia probabilística, en el que se incluyen conceptos tales como la incertidumbre en su base; con ello se acelerará la utilización de los principios del “machine learning”. La investigación de algoritmos y los principios del “machine learning” pueden contribuir a la investigación e uno de las áreas más importantes de la investigación científica, la de la comprensión de cómo se procesa la información en los sistemas biológicos, y en particular en el cerebro. Las dos maneras de realizar predicciones, las basadas en primeros principios, y las basadas en modelos estadísticos de los datos observados, no tienen por qué ser excluyentes, y de hecho hay mucho a ganar en usarlas de manera complementaria para el estudio de sistemas complejos. Por ejemplo en casos como la biología de poblaciones, un estudio completo probablemente requiere una combinación de elementos que provienen de la dinámica no lineal, de la ciencia de la complejidad, de la teoría de redes, de la teoría de procesos estocásticos y del “machine learning”. Este tipo de avances permite plantearse la realización de experimentos autónomos, que son de especial importancia en situaciones en que sería imposible llevarlos a cabo, sea por el volumen de información a analizar, sea por la incapacidad de la instrumentación científica en comunicar todos sus datos con los centros de decisión debido a limitaciones de ancho de banda, como por ejemplo en sondas espaciales o robots utilizados en entornos remotos u hostiles. Dichas técnicas computacionales permiten decidir de manera autónoma a partir de las observaciones previas qué pruebas realizar a continuación, cuándo realizarlas y cuándo suspenderlas. La mayoría de las sondas y robots enviados a entornos remotos sólo dispone de un ancho de banda limitado, lo que no le permite enviar todos los datos recogidos. Así dicho robot puede decidir localmente qué curso de pruebas realizar de manera autónoma. En la misma línea se está llevando a cabo grandes avances en redes inalámbricas y tecnologías de sensores en los chips, de manera a poder realizar grandes proyectos de monitorización del entorno ambiental. La distinción entre lo natural y lo artificial se está difuminando cada vez más debido a los avances en la intersección entre las TIC, la biología, la química y la ingeniería. Estos avances tienen el potencial de revolucionar no solo nuestra capacidad de modelizar, entender y reparar sistemas vivientes complejos, pero también de construir nuevas piezas biológicas que lleguen a ser la base de organismos completamente nuevos. Los temas tratados hasta aquí reflejan el rol de las TIC en transformar e incluso revolucionar la ciencia, es decir su rol de palanca de impulso de la ciencia. Los componentes de esta revolución son conceptos, herramientas y teoremas de la ciencia de la computación que se están transformando en nuevas herramientas conceptuales y tecnológicas de gran aplicabilidad en la ciencia, especialmente las ciencias que investigan sistemas complejos, y muy en particular en las ciencias biológicas. Hay quien defiende que estamos en el albor de una nueva manera de hacer ciencia. 3. La ciencia como palanca de las TIC Pero no únicamente las TIC revolucionan la ciencia. Existe la posibilidad de que pueda ocurrir, en base a dichos avances, justamente lo inverso: que dichos avances de la ciencia, especialmente en biología y química, pueden crear las bases de una revolución fundamental en el área de la computación y las TIC. Es decir, la ciencia puede convertirse en un futuro próximo en una palanca de impulso de las TIC, revolucionando sus bases. 3.1. El potencial de la computación cuántica La ley de Moore ha permitido pasar, de trabajar a escala de una micra, a trabajar a escalas de un nanómetro. Pero al seguir miniaturizando, y de mantenerse dicho ritmo de mejoras, hacia 2030 entraremos en los dominios de la física cuántica. Con ello lo que ganaremos ya no será más velocidad al procesar la información, ya no será una mejora cuantitativa como la que hemos tenido en las últimas décadas, sino que se producirá un cambio cualitativo, una manera totalmente nueva de procesar la información. En estos entornos se reemplazan los dígitos habituales, los 0s y los 1s, por los llamados bits cuánticos o “qubits”. Estos elementos, que pueden ser electrones, fotones, átomos o moléculas se rigen por la física cuántica, y como tales tienen la propiedad de existir a la vez como 0 y como 1 en el fenómeno llamado de la superposición. Ello permite a la computación cuántica procesar muchos cálculos a la vez. Se trata de de que un ordenador cuántico podría ejecutar en un solo paso la misma operación sobre N veces 2 números distintos codificados en forma de superposición de esos N bits: esto es lo que se conoce como paralelismo cuántico. En los ordenadores actuales los problemas se resuelven secuencialmente, mientras que en uno cuántico los problemas pueden combinarse e introducirse en el ordenador simultáneamente, ejecutándose al mismo tiempo. Por ello se llega a hablar de un horizonte de capacidades de cálculo ilimitadas en comparación con las actuales. El principio básico detrás de la computación cuántica es el entrelazamiento (“entanglement”), que permite establecer correlaciones a distancia, y que permite la superposición de dos sistemas y que permite añadir qubits al proceso. El entrelazamiento es el elemento clave detrás de los algoritmos cuánticos y de la criptografía cuántica. Hoy ya disponemos de soluciones comerciales basadas en criptografía cuántica. Aún tardaremos algunas décadas en poder disponer de ordenadores cuánticos con capacidades equivalentes a los actuales, para lo que se estima que hay que llegar a ordenadores que gestionen 100.000 qubits – hoy estamos en las decenas. La dificultad principal a resolver es la del aislamiento total de los qubits del mundo exterior. Pero se trata de un terreno fascinante de investigación científica y tecnológica por su impacto en las TIC. Es de destacar que la revista Science elija, como avance científico más destacado de 2010, el desarrollo de la primera “máquina cuántica”. Una máquina no es un ordenador, ni mucho menos, pero los avances son continuos y las oportunidades increíbles. 3.2. El potencial de la computación molecular Los ordenadores tal como los conocemos hoy responden muy bien a las tareas para los que fueron concebidos. Pero cada vez más podemos imaginar aplicaciones de las TIC para la que no se adapta bien la tecnología actual. Un caso serían dispositivos de cálculo que operasen dentro de organismos vivos, o incluso dentro de una célula. Su diseño requiere una arquitectura completa de computación menor que la de un transistor. Y no existe ninguna limitación fundamental para esta tecnología, como se demuestra con el procesamiento sofisticado de información que ocurre en los organismos vivos. De manera similar, en el área de robótica, el procesamiento en tiempo real de datos complejos en una unidad pequeña, con bajo consumo energético y de poco peso de momento no es viable – pero las comunidades de insectos sociales, como las hormigas, nos demuestran lo que sería posible con dichos tipos de robots dada la tecnología adecuada. El procesamiento de información es esencial para los sistemas biológicos,, tanto para mantener sus organizaciones intrincadas como para poder competir con formas de vida rivales. Por ello hasta los más simples organismos han desarrollado capacidades avanzadas de computación para abordar tareas complejas. Aún hemos de comprender adecuadamente los principios de estos sistemas naturales de computación informática, aunque el continuo avance de las ciencias biológicas nos muestra cada vez más detalles. Ello contribuye al desarrollo de los conceptos de la llamada computación molecular. Los ordenadores actuales se han diseñado siguiendo un formalismo estricto independiente de su implementación física. Las características físicas de los componentes físicos están camufladas gracias a una ingeniería muy completa, lo cual es muy útil para la programación. Pero ello se traduce en un uso ineficiente de los substratos, lo que resulta en equipos relativamente voluminosos que se basan en grandes redes
Hora
Tipo de publicación

Posicionamientos

Hora
Data

07-01-2011

1. Introducción Las tecnologías de la información y las comunicaciones se han convertido en una infraestructura fundamental de muchas ramas de la ciencia, permitiendo el análisis de problemáticas y sistemas científicos de escalas exponencialmente crecientes, así como de grados de complejidad cada vez más importantes. No sólo se trata de pode hacer más cálculos en sí, sino que los avances de la llamada ciencia de la computación, base de las tecnologías de la información y las comunicaciones, están influyendo en las nuevas herramientas conceptuales y tecnológicas utilizadas en la ciencia de sistemas complejos en campos como la biología, la medicina, los ecosistemas, las redes sociales, las redes de comunicaciones, la economía, etc. A su vez, el avance en el conocimiento de dichos sistemas complejos en biología y química permite vislumbrar un horizonte de computación molecular que abra nuevas fronteras en las capacidades de la computación y las comunicaciones. Se trata de sistemas adaptativos y autónomos que desarrollan respuestas coherentes a cambios en su entorno de gran complejidad, mucho más allá de lo que somos capaces de hacer con las tecnologías actuales. Por otro lado se vislumbra el horizonte de la computación cuántica que podría dar lugar en pocos lustros a capacidades de cálculo ilimitadas respecto a las actuales. Por ello no sólo son las TIC una palanca de avance fundamental de la ciencia, sino que, además, la ciencia es una palanca de avance fundamental de las TIC, en un círculo virtuoso acelerado de grandes implicaciones. En ambos casos se trata de avances espectaculares en nuestra comprensión del mundo que nos rodea, de nuestra capacidad de desarrollo tecnológico, y, por ende, de nuestro desarrollo económico y social. Estamos en el albor de una nueva manera de hacer ciencia. Es por ello crucial que la sociedad conozca las bases y el potencial de estos avances. Catalunya dispone de buenas infraestructuras técnicas TIC para la ciencia. Si aspiramos a convertirnos en una sociedad del conocimiento, con valor añadido en la generación de conocimiento, hemos de seguir invirtiendo en actualizarlas y en dar la formación a los jóvenes científicos para que las puedan aprovechar. Está demostrado que en el medio plazo hay una clara correlación entre el nivel de desarrollo científico y el de capacidad económica y bienestar social. 2. Las TIC como palanca de impulso de la Ciencia La física de materiales condujo hace medio siglo al desarrollo de los semiconductores, los transistores y los microprocesadores, los cuales han digitalizado y revolucionado las tecnologías de la computación y las comunicaciones (TIC). El progreso ha sido prodigioso. Es inimaginable hoy un mundo sin teléfonos móviles, sin internet, sin todos los sistemas electrónicos que regulan nuestros aparatos domésticos, automóviles, hospitales, industrias y un largo etcétera. Y estamos acostumbrados a su constante evolución siguiendo la llamada Ley de Moore (dos veces más de velocidad de cálculo y de capacidad de memoria cada 18 meses al mismo coste, es decir un orden de magnitud cada lustro desde hace cincuenta años). Pero, más allá de estos avances, es importante reconocer que en estos momentos son estas mismas tecnologías de la información y comunicaciones las que están revolucionando el avance de la ciencia. Y esta revolución tiene más de una dimensión: en primer lugar, la obvia, la de permitir el tratamiento de cada vez mayores cantidades de datos a mayores velocidades. Así ayudan a los científicos a “hacer” más ciencia más rápidamente. Pero más allá de estos avances de escala, las ciencias de la computación están influyendo en “cómo” se hace la ciencia. Los conceptos, teoremas y herramientas desarrollados en el seno de las llamadas ciencias de la computación se están adaptando como nuevas herramientas en las ciencias dedicadas al estudio de sistemas complejos, especialmente en las ciencias biológicas, así como en el estudio del clima, de fuentes energéticas, del cerebro, de los orígenes del universo, de los orígenes de la vida, etc. Estamos pues ante una nueva revolución. Las revoluciones científicas no son nada frecuentes, pero suelen ocurrir cuando se inventa una nueva herramienta conceptual (como el cálculo) o una nueva herramienta tecnológica (como el telescopio). Veamos algunos ejemplos. Fibonacci en el siglo XIII publicó el tratado “Liber Aci” en el que estableció una nueva rama de las matemáticas, el álgebra. El algebra permitió pasar de las matemáticas de palabras a la matemática de los símbolos. Hasta ese momento en Europa las matemáticas se escribían como palabras. Fibonacci “descubrió” el sistema numérico, que de hecho nació en la India hace 3.000 años, y que llegó a la Europa de la época a través del legado de la cultura árabe. El algebra permitió nuevos tipos de cálculos que cambiaron la sociedad, a través del estudio por ejemplo de los planetas, y de su impacto en el comercio y la religión. Unos 400 años más tarde Newton, en sus esfuerzos por entender las leyes de la naturaleza en base a las tasas de cambio del movimiento, usó el algebra para el desarrollo de una nueva rama de las matemáticas: el cálculo (coincidiendo con los trabajos de von Leibniz). Esta nueva herramienta permitió describir muchas nueves leyes de la naturaleza: tasas de cambio o dinámicas del calor, del sonido, de la luz, de los fluidos, de la electricidad, del magnetismo, etc. De manera parecida, el desarrollo de nuevas herramientas tecnológicas, como el telescopio de Galileo y el microscopio, ambos del siglo XVII, los rayos X del siglo XIX, las máquinas secuenciadoras de DNA de los años ‘60 también han transformado nuestra comprensión del mundo y del universo. El impacto de las TIC en el desarrollo de la ciencia, en el alcance sus resultados y en el impacto de sus herramientas y métodos para entornos complejos, tendrá una importancia al menos igual de significativa en las próximas décadas como lo ha sido estos últimos cincuenta años: impactará nuestra longevidad, nuestra calidad de vida, lo que sabemos de nosotros, de nuestro planeta, de nuestro universo, de cómo afrontar las enfermedades, de cómo gestionar los recursos de nuestro planeta, etc. Las TIC está cambiando la forma de hacer ciencia, proporcionando avances a través de nuevos tipos de experimentos. Estos experimentos generan nuevos tipos de datos, de complejidad y volúmenes exponencialmente mayores. Uno de las cuestiones a resolver es cómo usar, explotar y compartir esta avalancha de datos. Ejemplos de estas avalanchas de datos se dan por ejemplo en el caso del nuevo laboratorio “Large Hadron Collider” del CERN en Ginebra. Está previsto que produzca varios PetaBytes (diez elevado a 15 número de bytes, o PB) anuales. Para ello se ha implementado una arquitectura de tratamiento de estos datos de tipo “grid” que engloba una red internacional de centros de computación con más de 100k CPUs para analizar en cascada las informaciones y patrones más relevantes a las investigaciones en curso. La acumulación de grandes volúmenes de datos, medidos en PB y en ExaBytes (mil PB), se da con gran frecuencia en la ciencia actual, y no sólo en la física de altas energías, sino también en las técnicas de “high throuhgput” de genómica, proteómica, química combinatoria, estudios del clima, astronomía, etc. Pero además, y más allá de estos problemas de escala de volumen de datos, hay otros tipos de problemáticas como es la de tratar datos mucho más heterogéneas y con orígenes mucho más dispersos, como son los casos de biomedicina, astronomía y otros. Se trata de conceptualizar la amplitud y la profundidad de las relaciones y posibles relaciones en el seno de los datos correspondientes. Ello requiere herramientas cada vez más potentes para acceder, manipular, visualizar e interpretar estos datos de una manera eficaz, superando las barreras actuales de heterogeneidad de datos, plataformas y aplicaciones. Las técnicas que se están desarrollando incorporan conceptos de hardware como redes de equipos básicos tipo PC, y redes de agrupaciones de estos equipos para hacer cálculos hasta la fecha únicamente realizables en equipos de supercomputación. Como la cantidad de datos generados en este tipo de entornos excede la velocidad y capacidad de almacenamiento y las velocidades de las redes, se impone complementar las grandes bases de datos centrales con jerarquías federadas de bases de datos especializadas y más pequeñas. Por otro lado las nuevas herramientas de software incluyen conceptos como la semántica, o metadatos, es decir datos que describen los datos, su calidad, dónde y cuándo se han creado, su propiedad intelectual, etc. Y no es sólo para consumo humano, sino que de hecho lo utilizan fundamentalmente los “web services” entre aplicaciones para integrar, transformar y/o hacer cálculos con los datos subyacentes. La gestión de los datos científicos requiere pues avances en los sistemas de gestión de bases de datos que incluyan esta información semántica. Los principios que subyacen el desarrollo de las TIC se conocen como “ciencia de la computación” (“computer science”). Esta ciencia de la computación está contribuyendo en gran manera al avance de la ciencia, de las ciencias naturales. Pero va más allá que esto, está en gran medida reformulando las ciencias naturales. Las ciencias naturales se definen en relación al mundo en el que vivimos y que intentamos describir y predecir en base a estudios empíricos y postulados de teorías y leyes. La ciencia de la computación es más difícil de describir, no tiene las bases empíricas de las ciencias naturales, no se trata sólo razonamientos simbólicos (matemáticas) y no es sólo un compendio de principios de ingeniería y tecnología. Se puede decir que la mejor caracterización de la ciencia de la computación es la manera en que sus practicantes resuelven problemas, diseñan sistemas e interpretan el comportamiento humano en el contexto de dichos sistemas. Por ello se habla del “computational thinking”. Se trata de plantearse cuestiones como, “cuán difícil será de resolver”, “cuál es la mejor mana de resolverlo”, como reformular un problema complejo en otro que sabemos cómo resolver, quizá por reducción, transformación o simulación. Se trata de encontrar la representación más adecuada para un problema, en encontrar la modelización que lo hace tratable. Se trata de usar la abstracción y descomposición al analizar una tarea compleja o diseñar un sistema complejo. Se trata de tener la confianza de poder usar, modificar e influenciar un sistema complejo sin comprender todos sus detalles. Se trata de modularizar algo en anticipación a múltiples usuarios y/o de “pre-fetching” y “caching” futuros. Se trata de juzgar el diseño de un sistema en base a su simplicidad y elegancia. Se trat de pensar de manera recurrente. Se trata de pensar en términos de prevención, protección y recuperación ante los peores escenarios (violación de condiciones de contorno, entornos impredecibles) a través de redundancia, contención de daños y corrección de errores. En resumen, se trata de resolver problemas y diseñar sistemas usando los principios básicos de la ciencia de la computación. Hemos hecho énfasis en que las nuevas fronteras que las TIC ayudan a desarrollar en el mundo de la ciencia están relacionadas con la complejidad. Muchos de los aspectos más importantes de nuestro mundo se representan como sistemas complejos: biología, medicina (como redes intercelulares, sistemas de órganos, epidemiología), en entorno (ecosistemas, etc.), sistemas sociales (como transportes, ciudades, redes sociales), redes de comunicaciones, sistemas económicos, etc. Pero a pesar de que en general se entiende la complejidad como el resultado del comportamiento complejo de muchos elementos simples, de hecho en muchos casos se trata de lo contrario: sistemas altamente complejos que producen comportamientos coherentes. Probablemente una de las fronteras científicas más apasionantes a resolver es la de entender y predecir cómo dichos sistemas complejos producen comportamientos coherentes. Para ello una de las áreas más importantes trata de la codificación del conocimiento científico. Por ello se entiende la traducción del conocimiento en una representación codificada, en términos de datos y programas, susceptible de ser manipulada y analizable mecánicamente. Este proceso ya se ha llevado a cabo en muchas áreas de la ciencia, pero está llegando en otras. La biología es uno de los campos en que este tipo de codificación se ve como fundamental. En su estadio más básico tenemos la codificación del genoma: las estructuras del DNA de diferentes organismos se representan como largas cadenas con un alfabeto de cuatro letras. De esta manera se puede almacenar, buscar, comparar y analizar usando una gran variedad de herramientas computacionales. Ya en el año 2000 a través del proyecto del Genoma Humano se secuenciaron los tres mil millones de parejas de letras de DNA correspondientes. Se tardó trece años y costó tres mil millones de dólares. Debido a los avances en el coste de la secuenciación de DNA, hoy en día se vislumbran costes de sólo mil dólares en plazos de una hora. Este avance en la velocidad y la disminución de los costes de secuenciación de DNA es el equivalente a la ley de Moore para la computación. Y la combinación de ambos avances es lo que permite dar pasos de gigante en la biología de este siglo XXI. El siguiente nivel es el de la proteómica. En este caso las estructuras de datos son más complejas: se trata de cadenas con alfabetos de veinte letras (de aminoácidos) más información posicional tridimensional y más algunas anotaciones complementarias. Esta representación ahora está suficientemente estandarizada, y por ello ya se puede tratar con nuevas herramientas. Más allá hay que codificar las vías metabólicas y de señalización. En este caso lo que hay que almacenar, buscar, comparar, analizar e interpretar son las redes interacciones bioquímicas. Cómo hacerlo es un tema de actualidad. El problema general más complicado será cómo almacenar, buscar, comparar, analizar etc. los procesos biológicos. Se trata de interacciones dinámicas entre múltiplos componentes discretos, como la división de las células. Todo ello nos lleva a reflexionar acerca de la manera de hacer avanzar la ciencia, a partir de primeros principios y/o a partir de inferencias estadísticas. Se trata de vías complementarias y/o alternativas según los casos. Nos recuerda la dicotomía entre los procesos automáticos de traducción, los clásicos basados en el diccionario y los de tipo Google que se basan en el análisis de cantidades ingentes de traducciones de textos previos. En este caso, en el fondo se trata del mismo proceso, pero el segundo es mucho más ágil. Hasta cierto punto es un símil del mundo científico. El valor de las teorías científicas se determina generalmente por su habilidad en realizar predicciones. Pero muchas de las teorías tratan fenómenos tan alejados de nuestra experiencia e intuición diarias, que se hace difícil sino imposible su comprensión “lógica”. Las ecuaciones, los cálculos y las predicciones funcionan de manera pasmosa, pero no somos capaces de “entenderlo” más allá de dichas ecuaciones matemáticas. Piénsese sino en las grandes teorías de la física del siglo XX, como la relatividad y la mecánica cuántica. La certeza de sus predicciones es impresionante, pero no es posible entenderlas de manera intuitiva. Explican fenómenos alejados de nuestras escalas y experiencias. Y en las circunstancias más próxima a nuestra experiencia se transforman en las llamadas leyes de la mecánica clásica, que sí consideramos intuitivas en la actualidad. Pero incluso éstas no eran intuitivas en las épocas que fueron formuladas. Nadie en su sano juicio diría a priori que la manzana de Newton y la Tierra se atraen mutuamente y que ambos se mueven en una elipse alrededor de su centro de gravedad, lo que en la práctica quiere decir que la manzana cae verticalmente. Sólo se puede llegar a aceptar estudiando las trayectorias de los astros, y para ello hay que saber cómo se pueden medir. Así que en los dominios de la ciencia en que se conocen bien las ecuaciones, para realizar predicciones se requiere simplemente utilizar las técnicas numéricas más adecuadas. Sin embargo incluso en estos casos se pueden plantear muchas cuestiones debido a la eficiencia, exactitud numérica y validación del modelo matemático y del modelo de cálculo informático utilizado. Hay que reconocer de todas maneras que en la mayor parte de los campos de la ciencia no es posible llevar a cabo una simulación a partir de primeros principios con los recursos actuales de las TIC; ello es debido a la complejidad del tema o a la ausencia de modelos suficientemente precisos para el problema en cuestión. En estos casos se utilizan métodos estadísticos, incluidos los llamados “machine learning”. Mientras que la estadística clásica se centra en el análisis de los datos para probar las hipótesis planteadas, el objetivo de las técnicas de “machine learning” es la de utilizar métodos estadísticos para hacer predicciones. Esto se ha utilizado con éxito en casos como el de la modelización molecular, para descubrir los principios estructurales de las familias de plegamientos de proteínas, o en el de las predicciones de la toxicidad de pequeñas moléculas. Una de las líneas de desarrollo de los nuevos lenguajes de programación será sin duda el de la inferencia probabilística, en el que se incluyen conceptos tales como la incertidumbre en su base; con ello se acelerará la utilización de los principios del “machine learning”. La investigación de algoritmos y los principios del “machine learning” pueden contribuir a la investigación e uno de las áreas más importantes de la investigación científica, la de la comprensión de cómo se procesa la información en los sistemas biológicos, y en particular en el cerebro. Las dos maneras de realizar predicciones, las basadas en primeros principios, y las basadas en modelos estadísticos de los datos observados, no tienen por qué ser excluyentes, y de hecho hay mucho a ganar en usarlas de manera complementaria para el estudio de sistemas complejos. Por ejemplo en casos como la biología de poblaciones, un estudio completo probablemente requiere una combinación de elementos que provienen de la dinámica no lineal, de la ciencia de la complejidad, de la teoría de redes, de la teoría de procesos estocásticos y del “machine learning”. Este tipo de avances permite plantearse la realización de experimentos autónomos, que son de especial importancia en situaciones en que sería imposible llevarlos a cabo, sea por el volumen de información a analizar, sea por la incapacidad de la instrumentación científica en comunicar todos sus datos con los centros de decisión debido a limitaciones de ancho de banda, como por ejemplo en sondas espaciales o robots utilizados en entornos remotos u hostiles. Dichas técnicas computacionales permiten decidir de manera autónoma a partir de las observaciones previas qué pruebas realizar a continuación, cuándo realizarlas y cuándo suspenderlas. La mayoría de las sondas y robots enviados a entornos remotos sólo dispone de un ancho de banda limitado, lo que no le permite enviar todos los datos recogidos. Así dicho robot puede decidir localmente qué curso de pruebas realizar de manera autónoma. En la misma línea se está llevando a cabo grandes avances en redes inalámbricas y tecnologías de sensores en los chips, de manera a poder realizar grandes proyectos de monitorización del entorno ambiental. La distinción entre lo natural y lo artificial se está difuminando cada vez más debido a los avances en la intersección entre las TIC, la biología, la química y la ingeniería. Estos avances tienen el potencial de revolucionar no solo nuestra capacidad de modelizar, entender y reparar sistemas vivientes complejos, pero también de construir nuevas piezas biológicas que lleguen a ser la base de organismos completamente nuevos. Los temas tratados hasta aquí reflejan el rol de las TIC en transformar e incluso revolucionar la ciencia, es decir su rol de palanca de impulso de la ciencia. Los componentes de esta revolución son conceptos, herramientas y teoremas de la ciencia de la computación que se están transformando en nuevas herramientas conceptuales y tecnológicas de gran aplicabilidad en la ciencia, especialmente las ciencias que investigan sistemas complejos, y muy en particular en las ciencias biológicas. Hay quien defiende que estamos en el albor de una nueva manera de hacer ciencia. 3. La ciencia como palanca de las TIC Pero no únicamente las TIC revolucionan la ciencia. Existe la posibilidad de que pueda ocurrir, en base a dichos avances, justamente lo inverso: que dichos avances de la ciencia, especialmente en biología y química, pueden crear las bases de una revolución fundamental en el área de la computación y las TIC. Es decir, la ciencia puede convertirse en un futuro próximo en una palanca de impulso de las TIC, revolucionando sus bases. 3.1. El potencial de la computación cuántica La ley de Moore ha permitido pasar, de trabajar a escala de una micra, a trabajar a escalas de un nanómetro. Pero al seguir miniaturizando, y de mantenerse dicho ritmo de mejoras, hacia 2030 entraremos en los dominios de la física cuántica. Con ello lo que ganaremos ya no será más velocidad al procesar la información, ya no será una mejora cuantitativa como la que hemos tenido en las últimas décadas, sino que se producirá un cambio cualitativo, una manera totalmente nueva de procesar la información. En estos entornos se reemplazan los dígitos habituales, los 0s y los 1s, por los llamados bits cuánticos o “qubits”. Estos elementos, que pueden ser electrones, fotones, átomos o moléculas se rigen por la física cuántica, y como tales tienen la propiedad de existir a la vez como 0 y como 1 en el fenómeno llamado de la superposición. Ello permite a la computación cuántica procesar muchos cálculos a la vez. Se trata de de que un ordenador cuántico podría ejecutar en un solo paso la misma operación sobre N veces 2 números distintos codificados en forma de superposición de esos N bits: esto es lo que se conoce como paralelismo cuántico. En los ordenadores actuales los problemas se resuelven secuencialmente, mientras que en uno cuántico los problemas pueden combinarse e introducirse en el ordenador simultáneamente, ejecutándose al mismo tiempo. Por ello se llega a hablar de un horizonte de capacidades de cálculo ilimitadas en comparación con las actuales. El principio básico detrás de la computación cuántica es el entrelazamiento (“entanglement”), que permite establecer correlaciones a distancia, y que permite la superposición de dos sistemas y que permite añadir qubits al proceso. El entrelazamiento es el elemento clave detrás de los algoritmos cuánticos y de la criptografía cuántica. Hoy ya disponemos de soluciones comerciales basadas en criptografía cuántica. Aún tardaremos algunas décadas en poder disponer de ordenadores cuánticos con capacidades equivalentes a los actuales, para lo que se estima que hay que llegar a ordenadores que gestionen 100.000 qubits – hoy estamos en las decenas. La dificultad principal a resolver es la del aislamiento total de los qubits del mundo exterior. Pero se trata de un terreno fascinante de investigación científica y tecnológica por su impacto en las TIC. Es de destacar que la revista Science elija, como avance científico más destacado de 2010, el desarrollo de la primera “máquina cuántica”. Una máquina no es un ordenador, ni mucho menos, pero los avances son continuos y las oportunidades increíbles. 3.2. El potencial de la computación molecular Los ordenadores tal como los conocemos hoy responden muy bien a las tareas para los que fueron concebidos. Pero cada vez más podemos imaginar aplicaciones de las TIC para la que no se adapta bien la tecnología actual. Un caso serían dispositivos de cálculo que operasen dentro de organismos vivos, o incluso dentro de una célula. Su diseño requiere una arquitectura completa de computación menor que la de un transistor. Y no existe ninguna limitación fundamental para esta tecnología, como se demuestra con el procesamiento sofisticado de información que ocurre en los organismos vivos. De manera similar, en el área de robótica, el procesamiento en tiempo real de datos complejos en una unidad pequeña, con bajo consumo energético y de poco peso de momento no es viable – pero las comunidades de insectos sociales, como las hormigas, nos demuestran lo que sería posible con dichos tipos de robots dada la tecnología adecuada. El procesamiento de información es esencial para los sistemas biológicos,, tanto para mantener sus organizaciones intrincadas como para poder competir con formas de vida rivales. Por ello hasta los más simples organismos han desarrollado capacidades avanzadas de computación para abordar tareas complejas. Aún hemos de comprender adecuadamente los principios de estos sistemas naturales de computación informática, aunque el continuo avance de las ciencias biológicas nos muestra cada vez más detalles. Ello contribuye al desarrollo de los conceptos de la llamada computación molecular. Los ordenadores actuales se han diseñado siguiendo un formalismo estricto independiente de su implementación física. Las características físicas de los componentes físicos están camufladas gracias a una ingeniería muy completa, lo cual es muy útil para la programación. Pero ello se traduce en un uso ineficiente de los substratos, lo que resulta en equipos relativamente voluminosos que se basan en grandes redes
CRISIS I DESEQUILIBRIOS
|

CRISIS I DESEQUILIBRIOS

CRISIS I DESEQUILIBRIOS

Hora
Tipo de publicación

Posicionamientos

Hora
Data

11-11-2010

Publicado en El País, 03/11/2010 Tener fiebre no es una enfermedad, es un síntoma externo de que algo malo pasa en nuestro cuerpo. A veces es consecuencia de una agresión externa. Otras muchas es la manifestación de un desequilibrio interno. Combatir la fiebre es bueno y permite ir pasando, pero solamente combatiendo la enfermedad, es…

Tener fiebre no es una enfermedad, es un síntoma externo de que algo malo pasa en nuestro cuerpo. A veces es consecuencia de una agresión externa. Otras muchas es la manifestación de un desequilibrio interno. Combatir la fiebre es bueno y permite ir pasando, pero solamente combatiendo la enfermedad, es decir atacando el desequilibrio se produce la curación y desaparecen los síntomas. Las crisis económicas, las enfermedades de la economía, también tienen sus síntomas y sus desequilibrios. Y es fundamental saber detectar y distinguir unos de otros para poder combatirlos adecuadamente. La crisis de la economía catalana y española tiene dos grandes síntomas: uno interior, el paro y otro exterior, el endeudamiento. Somos el país con mayor porcentaje de paro de la UE, y el país con el mayor endeudamiento per cápita del mundo. Hablo del país en su conjunto – empresas, familias, bancos, Administraciones – no del Gobierno, que es de los que tiene la Deuda pública más baja de la UE. Mientras estos dos síntomas (índice de paro, nivel de endeudamiento) no hayan vuelto a la normalidad, no se podrá hablar del final de la crisis. Por esto la crisis será aún larga, pues conseguir reducir ambos a la vez es complejo ya que se necesitan medidas contradictorias: hay que reanimar el consumo y al tiempo aumentar el ahorro. Con gran retraso hemos ido identificando y aceptando algunos de estos desequilibrios que hay que corregir. Comento siete de los que me parecen más importantes. 1. Muchas familias, han gastado e invertido mucho más que lo que han ingresado, como consecuencia de una excesiva facilidad de endeudarse a un interés bajo, unos plazos largísimos y unas desgravaciones fiscales innecesarias. Esto ha contribuido, junto a la especulación, a hinchar el sector inmobiliario de forma imprudente. 2. Muchas empresas han invertido mucho más que los beneficios que han obtenido, en base a la financiación bancaria, utilizando exageradamente el recurso al apalancamiento para la compra de otras empresas y para otros proyectos. En algunos sectores ahora es imposible retornar los créditos recibidos. 3. Muchas instituciones financieras han concedido muchos más créditos que depósitos han captado, y se han endeudado con la banca exterior para disponer de liquidez. Han actuado con rigor insuficiente al valorar el riesgo de sus operaciones de activo, sobre todo las relacionadas con el sector inmobiliario. 4. En muchos sectores de la economía ha crecido más el nivel de rentas salariales que la productividad lo que, combinado con una inflación superior a la media de la UE, ha supuesto una continua pérdida de competitividad. Los sectores que permiten mayor productividad y mayor competitividad no han ganado peso en el PIB. 5. Los avances importantes en los servicios públicos (educación, sanidad, seguridad social, dependencia) han situado globalmente el nivel de nuestro Estado del bienestar a la altura de la media europea, mientras que la presión fiscal sigue muy por debajo de la existente en la UE (casi diez puntos). 6. Se ha desequilibrado el reparto de la renta. Durante la bonanza, la riqueza del país ha aumentado mucho pero este crecimiento global ha ido acompañado de un incremento de la desigualdad. En este período, la parte de las rentas del trabajo en el PIB ha bajado casi diez puntos y en su lugar se han incrementado las rentas del capital. Las modificaciones fiscales que han gravado mucho más las rentas del trabajo que las del capital, han empeorado aún más este desequilibrio. 7. Muchas Administraciones Públicas han utilizado ingresos extraordinarios puntuales (derivados del “boom” inmobiliario) para dar servicios que suponen un gasto recurrente, con lo que han desequilibrado los presupuestos futuros. No son los únicos, pero todos ellos están en el origen de nuestra crisis actual. Las medidas de los primeros quince meses ayudaron a controlar los síntomas y evitar males mayores, pero ahora es necesario entender que precisamos algunas reformas, sin las que no saldremos de la enfermedad y no volveremos a una normalidad sostenible. Reforma laboral, reforma fiscal, reforma de la Seguridad Social, reforma financiera, por lo menos. Es imprescindible tomar conciencia de esta necesidad de ajuste y de que el ajuste se debe hacer soportando su carga entre todos, y no solamente por algunos sectores, precisamente los más débiles. Joan Majó, El País 03/11/2010

Suscríbete al newsletter

Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

* Campos requeridos





Catalunya, el conocimiento y el Cercle
|

Catalunya, el conocimiento y el Cercle

Catalunya, el conocimiento y el Cercle

Hora
Tipo de publicación

Posicionamientos

Hora
Data

03-09-2010

En Catalunya se ha hablado mucho de la sociedad civil en contraposición a las organizaciones políticas, pero no siempre se define con suficiente claridad lo que es ni lo que tiene que hacer. La importancia de esta sociedad civil es grande y esta es una razón para la clarificación. Escrito por Joan Majó, presidente del…

Suscríbete al newsletter

Suscríbete a nuestros newsletter para estar al día de todo lo que hacemos. Recibirás el newsletter d’Amics del País, con información sobre nuestras actividades, noticias destacadas y las convocatorias y novedades de las conferencias que organizamos.

* Campos requeridos