Con motivo de la publicación del informe del Special Competitive Studies Project, Jake Sullivan, Consejero de Seguridad Nacional, pronunció un discurso sobre la consideración de las cuestiones tecnológicas en la política de la administración Biden. El discurso es una muestra más de la centralidad de la competencia geopolítica con China en las preocupaciones de las élites de Washington. Tras más de un siglo definiendo la frontera tecnológica, Estados Unidos teme ahora perder esta posición frente a los avances tecnológicos chinos.
renovada política industrial centrada en la financiación de la investigación, los semiconductores y las tecnologías verdes, así como en un mayor uso de las herramientas de control de las exportaciones y de seguridad económica. Reconociendo la ventaja estratégica que le confiere su amplia red de alianzas y asociaciones, la administración está tratando de transmitir estas orientaciones a nivel internacional para reforzar su impacto.
El , creado en octubre de 2021 por Eric Schmidt, ex director general y luego presidente ejecutivo de Google (2001-2018), es un grupo de reflexión dedicado a temas en la intersección de la seguridad nacional y las cuestiones tecnológicas. Es la continuación de los anteriores compromisos de Eric Schmidt en el Consejo de Innovación del Departamento de Defensa y como presidente de la Comisión de Seguridad Nacional sobre Inteligencia Artificial.
Su primer informe, Mid-Decade Challenges to National Competitiveness, "destaca los retos de la competencia tecnológica entre Estados Unidos y China". Sus recomendaciones, muy ambiciosas, pretenden reforzar el dinamismo tecnológico de Estados Unidos, su influencia internacional y la modernidad de sus fuerzas armadas. Sugiere, entre otras cosas, un mayor papel del gobierno federal a través de una 'estrategia tecnoindustrial', una mayor cooperación entre el sector público y el privado y el uso de herramientas coercitivas (especialmente el control de las exportaciones). Enhorabuena a todo el equipo del SCSP por la publicación de su informe Special Competitive Studies Project , creado en octubre de 2021 por Eric Schmidt, ex director general y luego presidente ejecutivo de Google (2001-2018), es un grupo de reflexión dedicado a temas en la intersección de la seguridad nacional y las cuestiones tecnológicas. Es la continuación de los anteriores compromisos de Eric Schmidt en el Consejo de Innovación del Departamento de Defensa y como presidente de la Comisión de Seguridad Nacional sobre Inteligencia Artificial.Mid-Decade Challenges to National Competitiveness, "destaca los retos de la competencia tecnológica entre Estados Unidos y China". Sus recomendaciones, muy ambiciosas, pretenden reforzar el dinamismo tecnológico de Estados Unidos, su influencia internacional y la modernidad de sus fuerzas armadas. Sugiere, entre otras cosas, un(especialmente el control de las exportaciones). Para evitarlo, la administración Biden pretende, de un plumazo, 'correr más rápido' y frenar los avances chinos, lo que se traduce en una. Reconociendo la ventaja estratégica que le confiere su amplia red de alianzas y asociaciones, la administración está tratando de transmitir estas orientaciones a nivel internacional para reforzar su impacto.
Hace poco más de un año, tuve la oportunidad de compartir algunas reflexiones sobre la revolución digital con la Comisión de Seguridad Nacional sobre Inteligencia Artificial. Entonces argumenté que, tras la ola de innovación liberadora de los primeros años de la era de Internet y la contrarrevolución autoritaria de la década de 2000, en la que nuestros competidores y adversarios se aprovecharon de nuestra complacencia y apertura, ahora tenemos que provocar una tercera ola de la revolución digital para garantizar que las tecnologías emergentes trabajen a favor, y no en contra, de nuestras democracias y nuestra seguridad.
No necesito recordarles que los avances de la ciencia y la tecnología probablemente definirán el panorama geopolítico del siglo XXI. Aportarán innovaciones radicales en materia de salud y medicina, seguridad alimentaria y energía verde. Asistiremos a repentinos avances tecnológicos y a la aparición de nuevas industrias que resultarán cruciales para nuestra prosperidad. Y, por supuesto, la aparición de nuevas capacidades de defensa e inteligencia que darán forma a nuestra seguridad nacional. Preservar nuestro liderazgo en ciencia y tecnología no es una 'cuestión interna' ni una 'cuestión de seguridad nacional', sino ambas.
[Recibe los análisis de más actualidad en tu correo electrónico o en tu teléfono a través de nuestro canal de Telegram] El discurso del Consejero de Seguridad Nacional ilustra las transformaciones en las representaciones de las élites estadounidenses sobre la ciencia y la tecnología y su evolución hacia el tecno-nacionalismo.
La ciencia y la tecnología no se ven como bienes públicos a los que cada nación puede contribuir en beneficio de todos (la apertura se equipara aquí con la complacencia), sino como un activo clave en la competencia internacional, del que se puede apropiar y que, por tanto, debe ser protegido. La tecnología y la ciencia pasan a estar, en las representaciones, íntimamente ligadas a la nación.
Observamos una securitización de la tecnología, que se considera sistemáticamente desde el punto de vista de la seguridad nacional. Las estrategias nacionales sobre tecnologías emergentes hacen gran hincapié en su potencial contribución a las fuerzas armadas y a la seguridad. Por el contrario, las reflexiones estratégicas, como la Integrated Review británica de 2021 del Reino Unido o la National Security Strategy estadounidense de 2022 de Estados Unidos, prestan considerable atención a las cuestiones tecnológicas y científicas.
Bajo el liderazgo del Presidente Biden, hemos adoptado un enfoque integrado de la política interior y exterior, prestando especial atención a las cuestiones que atraviesan ambos silos.
En este marco, seguimos una moderna estrategia industrial y de innovación para invertir en nuestras fuentes de energía nacionales, que son también la base de nuestra potencia internacional. Somos conscientes de que la conservación de nuestros puntos fuertes y ventajas comparativas no es inevitable. Hay que renovarlos, revitalizarlos y alimentarlos. Esto es especialmente cierto en el caso del liderazgo tecnológico estadounidense.
En consonancia con la visión que desarrollé el año pasado, consideramos que nuestra estrategia consta de cuatro pilares principales: La primera es invertir en nuestro ecosistema científico y tecnológico. El segundo es desarrollar los mejores talentos en ciencia, tecnología, ingeniería y matemáticas. La tercera es proteger nuestra ventaja tecnológica. En cuarto lugar, profundizar e integrar nuestras alianzas y asociaciones.
Fundamentalmente, creemos que un pequeño número de tecnologías debería desempeñar un papel crucial en la próxima década. Al igual que el principio de Pareto, podemos considerar que el 80% de nuestro éxito depende de lo que consigamos con el 20% de las tecnologías. Creemos que 3 áreas tecnológicas serán de especial importancia en la próxima década: Integrated Review británica de 2021 del Reino Unido o la National Security Strategy estadounidense de 2022 de Estados Unidos, prestan considerable atención a las cuestiones tecnológicas y científicas.
Tecnologías informáticas. Entre ellas se encuentran la microelectrónica, los sistemas de información cuántica y la inteligencia artificial. Los avances en el hardware informático, el diseño de algoritmos y los grandes conjuntos de datos están permitiendo nuevos descubrimientos en casi todos los campos científicos. Son nuevas fuentes de crecimiento. También son fundamentales en los esfuerzos de modernización militar.
Biotecnología y biofabricación. A hora somos capaces de leer, escribir y modificar el código genético, haciendo que los seres vivos sean programables. En combinación con los avances de la informática, estamos a punto de lograr avances en todo tipo de ámbitos, desde el descubrimiento de medicinas hasta la producción de sustancias químicas o materiales.
Y por último, las tecnologías verdes. La transición mundial hacia la energía verde no sólo es necesaria para la salud de nuestro planeta, sino que también será una importante fuente de crecimiento económico y creación de empleo en los próximos años. A largo plazo, también garantizará la independencia y la seguridad energética de Estados Unidos.
Esto no quiere decir que otras iniciativas tecnológicas sean insignificantes, ni mucho menos. Por ejemplo, esta misma mañana, nuestra administración ha dado a conocer importantes recomendaciones para preservar el liderazgo de Estados Unidos en activos digitales. Pero la tecnología informática, la biotecnología y la tecnología verde son verdaderos "multiplicadores de fuerza" en todo el ecosistema tecnológico. El liderazgo en cada uno de estos ámbitos es, por tanto, un imperativo de seguridad nacional.
Esto me lleva al primer pilar de nuestra estrategia tecnológica: reavivar el motor del dinamismo estadounidense en tecnología e innovación, especialmente en estos ámbitos fundamentales.
El desafío geopolítico chino, las fragilidades de la cadena de suministro puestas de manifiesto por el Covid-19 y la crisis climática han provocado un retorno de la política industrial de los años Reagan. La administración Biden está plenamente comprometida con esta política. El pasado 13 de octubre, el director del National Economic Council, Brian Deese, describió así el funcionamiento de su '
Las principales medidas adoptadas desde 2020 son: En el último año, la Administración Biden ha realizado inversiones históricas, y no sólo en investigación básica. Estamos invirtiendo en las industrias del futuro y tratando de crear resistencia y seguridad en las cadenas de suministro que las sustentan.National Economic Council, Brian Deese, describió así el funcionamiento de su ' Estrategia Industrial Moderna ': "Identifica los ámbitos en los que la iniciativa privada, dejada a su aire, no movilizará la inversión necesaria para alcanzar nuestros principales intereses económicos y de seguridad nacional. Luego utiliza la inversión pública para estimular la inversión privada y la innovación.”2020 son:
El decreto presidencial sobre las Cadenas de Suministro de Estados Unidos, que ordena a las agencias federales que investiguen 10 cadenas de suministro (semiconductores, energías renovables, baterías eléctricas, agroindustria, etc.)
decreto presidencial sobre las Cadenas de Suministro de Estados Unidos, que ordena a las agencias federales que investiguen 10 cadenas de suministro (semiconductores, energías renovables, baterías eléctricas, agroindustria, etc.) El ' Chips and Science Act', que asigna 52.000 millones de dólares a un fondo para distribuir subvenciones para el desarrollo de plantas de semiconductores y la investigación y el desarrollo, y crea un nuevo crédito fiscal para la fabricación avanzada. También autoriza grandes aumentos en la financiación de la Fundación Nacional de la Ciencia y el Departamento de Energía.
Chips and Science Act', que asigna 52.000 millones de dólares a un fondo para distribuir subvenciones para el desarrollo de plantas de semiconductores y la investigación y el desarrollo, y crea un nuevo crédito fiscal para la fabricación avanzada. También autoriza grandes aumentos en la financiación de la Fundación Nacional de la Ciencia y el Departamento de Energía. El ' Inflation Reduction Act' crea numerosos créditos fiscales para las energías renovables, un acelerador de bancos públicos verdes y un aumento masivo del programa de préstamos garantizados del Departamento de Energía.
Mientras que las medidas sobre investigación y semiconductores, justificadas por la competencia con China -una de las últimas cuestiones consensuadas entre republicanos y demócratas- cuentan con el apoyo bipartidista, no es el caso del Inflation Reduction Act.
Sólo el mes pasado, el Presidente Biden firmó el ' Chips and Science Act', una orden ejecutiva para avanzar en la innovación en biotecnología y biofabricación, y el 'Inflation Reduction Act'.
El 'CHIPS Act' invierte 52.000 millones de dólares para restablecer el liderazgo de Estados Unidos en la investigación, el desarrollo y la producción de semiconductores y reducir nuestra excesiva dependencia de los chips producidos en el extranjero. Esto es más que el coste real del Proyecto Manhattan. También autoriza el mayor aumento interanual de la financiación federal para la investigación científica básica en 70 años. Sólo falta que el Congreso asigne los fondos.
El Chips and Science Act crea nuevos programas dentro de las agencias federales de investigación (creación de una Dirección de Tecnología e Innovación dentro de la NSF, creación de una Fundación de Seguridad Energética dentro del DOE, etc.). En consecuencia, sus techos de gasto autorizados se han incrementado considerablemente:
Fundación Nacional de la Ciencia (NSF): 81.000 millones de dólares en 5 años (+36.000 millones)
Oficina de Ciencia del Departamento de Energía: 50.000 millones de dólares en 5 años (+13.000 millones)
Instituto Nacional de Normas y Tecnología (NIST): 10.000 millones de dólares en 5 años (+5.000 millones) Este gasto todavía tiene que ser consignado en la legislación antes de que los fondos sean finalmente asignados.
El decreto presidencial sobre Biotecnología y Biofabricación no sólo garantiza que la próxima generación de medicamentos, materiales y combustibles se desarrollará en Estados Unidos, sino que también los produciremos aquí. Del laboratorio a la fábrica, como se dice.
No necesito entrar en el impacto del ' Inflation Reduction Act'. Se trata de la mayor inversión a favor del clima y de la energía verde de la historia estadounidense.
Con cada una de estas inversiones, nuestro objetivo es estimular el capital privado, no sustituirlo, y atraer 'capital paciente' para llevar estas tecnologías a escala. En particular, en el caso de las tecnologías energéticas de próxima generación, como el hidrógeno verde o la fusión, adoptar hoy una estrategia de inversión proactiva nos ahorra potencialmente miles de millones de dólares en el futuro.
También estamos preparando el camino para proyectos de infraestructura a gran escala que servirán como activos nacionales, como un potencial ' National Artificial Intelligence Research Ressource', que podría poner la inteligencia artificial avanzada y la infraestructura informática a disposición de cualquier investigador en los Estados Unidos.
El segundo pilar se centra en desarrollar, atraer y retener a los mejores talentos. La forma más sencilla de lograr este objetivo es garantizar que Estados Unidos siga siendo el destino preferido de los mejores científicos del mundo. Esto significa invertir en nuestras vías de investigación y educación nacionales, y garantizar que los mejores talentos extranjeros puedan venir y establecerse en Estados Unidos. China se esfuerza por aumentar su producción de científicos, pero depende de nosotros mantener nuestra ventaja a la hora de atraer y retener a los mejores talentos científicos del mundo.
Hemos hecho progresos significativos en este ámbito. A principios de este año, anunciamos una serie de medidas para simplificar los procedimientos de inmigración y abrir nuevas vías de entrada para los investigadores y estudiantes científicos internacionales. También elaboramos nuevas directrices que eliminan el requisito de contar con un patrocinador empresarial estadounidense para las personas más destacadas con títulos avanzados en un campo científico considerado crítico para la seguridad nacional de Estados Unidos. Estas personas pueden ahora solicitar una exención por interés nacional y solicitar ellas mismas un visado EB-2. Esto es algo bueno. Pero tenemos que hacer más. Estamos dispuestos a trabajar con la industria y el Congreso de forma bipartidista para aprovechar la que es la verdadera superpotencia de Estados Unidos.
El tercer pilar es la protección de nuestras ventajas tecnológicas y evitar que nuestros competidores roben la propiedad intelectual estadounidense y utilicen nuestras tecnologías contra nosotros o contra sus propios ciudadanos. Nuestros competidores utilizan métodos cada vez más sofisticados para adquirir tecnología, información y conocimientos técnicos de forma ilícita, por lo que debemos adaptarnos.
En el control de las exportaciones, no podemos limitarnos, en el caso de algunas tecnologías clave, al único objetivo de mantener ventajas relativas sobre nuestros competidores. Durante mucho tiempo, hemos adoptado un enfoque de 'escala móvil', que considera que debemos mantenernos unas cuantas generaciones por delante. Esto ya no se corresponde con el entorno estratégico en el que nos encontramos actualmente. Dado el carácter fundamental de ciertas tecnologías, como los chips lógicos y de memoria avanzados, debemos tratar de mantener una ventaja lo más amplia posible.
Estados Unidos, aunque sólo produce el 12% del total de la industria de semiconductores en su país, sigue siendo ultradominante si se considera toda la cadena de valor: el 38% del valor añadido del sector se produce en Estados Unidos.
En las fases previas (diseño de chips, producción de equipos, software de diseño asistido por ordenador), empresas estadounidenses como Intel, Nvidia, Qualcomm o incluso Apple (que diseña chips para sus propias necesidades) realizan entre el 50% y el 70% de la actividad mundial en suelo estadounidense. En la fase posterior, estas mismas empresas representan el 47% de las ventas mundiales de semiconductores (entre ambas, una parte importante de la producción se subcontrata a fundiciones, principalmente el gigante taiwanés TSMC).
Esta posición constituye una poderosa palanca geoeconómica, bien identificada por las administraciones Trump y Biden. Así, Huawei está incluida en la lista de entidades del Departamento de Comercio desde 2019, lo que obliga a las empresas estadounidenses a solicitar una licencia de exportación para vender bienes a la compañía. Estas medidas se reforzaron en mayo y de nuevo en agosto de 2020 y ahora afectan a las empresas extranjeras si más del 25% del valor del bien es estadounidense (norma de mínimos), o si el bien se produjo utilizando determinados productos o programas informáticos estadounidenses controlados ('F ').
Unas semanas después del discurso de Jake Sullivan, el 7 de octubre de 2022, la Oficina de Industria y Seguridad del Departamento de Comercio amplió drásticamente sus medidas restrictivas contra la industria china de semiconductores. Se han incluido en la lista de bienes controlados nuevos productos relacionados con la fabricación de superordenadores, la F oreign Product Direct Rules se han ampliado a nuevos productos y se exige a las personas estadounidenses que obtengan una licencia para ayudar en el desarrollo de semiconductores que podrían utilizarse en programas militares chinos. Estas medidas tienen como objetivo principal impedir tanto la importación como el desarrollo autóctono de chips avanzados, especialmente útiles para aplicaciones de inteligencia artificial.
A principios de este año, junto con nuestros aliados y socios, impusimos a Rusia las restricciones tecnológicas más severas jamás impuestas a una economía importante. Estas medidas han causado grandes daños, obligando incluso a Rusia a utilizar chips de lavadoras en sus equipos militares.
Esto ha demostrado que el control de las exportaciones no es sólo una herramienta preventiva. Si se aplican de forma sólida, sostenible y completa, pueden convertirse en una nueva baza estratégica en la caja de herramientas de Estados Unidos y sus aliados para imponer costes a nuestros adversarios y degradar sus capacidades militares con el tiempo.
La Administración también ha tomado una serie de decisiones para modernizar nuestro sistema de control de inversiones. Ayer, el Presidente Biden emitió un decreto que establece las primeras directrices presidenciales para el Comité de Inversiones Extranjeras en Estados Unidos (CFIUS).
La orden ejecutiva nos vuelve a poner por delante. Refuerza la capacidad del CFIUS para hacer frente a la evolución de los riesgos al exigir al Comité que considere, en relación con la lista de países preocupantes, un nuevo conjunto de factores de riesgo específicos, como por ejemplo si una transacción puede afectar al liderazgo tecnológico de Estados Unidos en tecnologías relevantes para la seguridad nacional, o si plantea riesgos para los datos de personas estadounidenses.
Seguiremos examinando si son necesarias medidas adicionales para garantizar que el CFIUS pueda proteger mejor a los inversores estadounidenses de las inversiones extranjeras depredadoras.
El control de la inversión interna es una herramienta de seguridad económica relativamente estándar. En Estados Unidos, el CFIUS lleva analizando las compras de empresas por parte de inversores extranjeros desde la perspectiva de la seguridad nacional desde 1975. En Francia, existe desde la ley de 28 de diciembre de 1966 sobre las relaciones financieras con el extranjero y se renovó en 2014. A nivel de la Unión Europea, se creó un procedimiento de alerta e intercambio de información mediante el Reglamento de control de inversiones extranjeras de 2019.
Pero en Washington se está planeando crear controles sobre las salidas de IDE, es decir, sobre las decisiones de inversión en el extranjero de las empresas estadounidenses. Se pasa de una lógica defensiva a una voluntad más explícita de frenar el progreso económico y tecnológico de ciertas potencias extranjeras consideradas amenazantes. El CHIPS and Science Act ya introduce un mecanismo de este tipo para las empresas que decidan beneficiarse de las
También hemos colaborado estrechamente con el Congreso para garantizar que el 'CHIPS Act' contenga sólidas salvaguardas que impidan que las empresas que reciben subvenciones del gobierno cambien sus planes y realicen inversiones en China que puedan amenazar nuestra seguridad nacional. En todos los casos, queremos dar a la industria la oportunidad de hacer aportaciones en el momento más adecuado, actuando de forma clara para las partes interesadas y atendiendo al mismo tiempo a nuestras preocupaciones de seguridad nacional.
Proteger nuestras innovaciones tecnológicas de robos y abusos también requiere una fuerte protección cibernética. A través del decreto presidencial sobre la mejora de la ciberseguridad de la nación, y las directivas posteriores, hemos tomado muchas decisiones necesarias para defender a nuestro país de una de las amenazas más acuciantes para nuestra seguridad económica y nacional.
Por último, hemos aplicado medidas para garantizar la protección de la propiedad intelectual que subyace a nuestras tecnologías más innovadoras. La Oficina de Patentes y Marcas ha puesto en marcha un nuevo programa piloto para acelerar las patentes de tecnologías que reducen las emisiones, de modo que estos productos puedan implantarse rápidamente, sin riesgo para su propiedad intelectual.
El cuarto y último pilar es la profundización de nuestra cooperación con los aliados y socios, una característica de la administración Biden. Desde la transformación del G7 en un comité directivo del mundo libre en cuestiones como las sanciones y la seguridad energética hasta el lanzamiento de una asociación de seguridad innovadora y de gran alcance sobre tecnologías avanzadas denominada AUKUS, estamos profundizando en nuestra red única de alianzas y asociaciones e impulsando la alineación estratégica desde el Atlántico hasta el Pacífico.
Hemos creado el EE.UU.-UE para ayudar a establecer las reglas del juego en las tecnologías emergentes, incluso en las organizaciones de normalización. Hemos establecido nuevas iniciativas en el Quad sobre la energía verde y sobre tecnologías emergentes y críticas. En el G7 hemos puesto en marcha nuevos proyectos sobre cibernética y cuántica, y estamos dispuestos a desplegar, a través de la Asociación Mundial de Infraestructuras e Inversiones, decenas de miles de millones de dólares para el desarrollo de infraestructuras tecnológicas. La semana pasada acogimos , que incluye esfuerzos dedicados a la energía verde y a la cooperación digital. Hemos puesto en marcha nuevas iniciativas bilaterales de cooperación tecnológica de alto nivel con Israel, India, Corea del Sur y Japón. En la Cumbre de la Democracia anunciamos iniciativas tecnológicas, entre las que se incluyen los esfuerzos para alinear los controles de las exportaciones con nuestros objetivos en materia de derechos humanos, y para promover tecnologías que fortalezcan la democracia y protejan la privacidad. En el futuro, avanzaremos en la formulación de un enfoque para la gestión de las inversiones salientes en tecnologías sensibles, en particular aquellas inversiones que no están sujetas a controles de exportación y que podrían aumentar las capacidades tecnológicas de nuestros competidores en las áreas más sensibles.CHIPS and Science Act ya introduce un mecanismo de este tipo para las empresas que decidan beneficiarse de las subvenciones previstas por esta ley . Y hay debates en la administración , en el Congreso y en los grupos de reflexión para ampliar el alcance de los controles de las inversiones en el exterior e institucionalizarlos Consejo de Comercio y Tecnología EE.UU.-UE para ayudar a establecer las reglas del juego en las tecnologías emergentes, incluso en las organizaciones de normalización. la primera reunión ministerial física de la Asociación Económica Indo-Pacífica , que incluye esfuerzos dedicados a la energía verde y a la cooperación digital. Inflation Reduction Act'. Se trata de la mayor inversión a favor del clima y de la energía verde de la historia estadounidense.National Artificial Intelligence Research Ressource', que podría poner la inteligencia artificial avanzada y la infraestructura informática a disposición de cualquier investigador en los Estados Unidos. oreign product direct rule Product Direct Rules se han ampliado a nuevos productos y se exige a las personas estadounidenses que obtengan una licencia para ayudar en el desarrollo de semiconductores que podrían utilizarse en programas militares chinos. Estas medidas tienen como objetivo principal
La administración Biden ha hecho de la ruptura con el enfoque ' America First' de la administración anterior el pilar de su política exterior. Se trata de abandonar la negociación y la lógica de los juegos de suma cero en favor de la búsqueda de sinergias. El Consejo de Comercio y Tecnología pretende así reforzar la cooperación transatlántica y resolver los puntos de desacuerdo. En particular, esto ha permitido avanzar en el tema de las transferencias transatlánticas de datos, con un acuerdo político alcanzado en marzo de 2022, que ha empezado a traducirse en medidas concretas con el decreto presidencial de 7 de octubre de 2022, que establece un
El lugar que se da a las cuestiones tecnológicas en los cenáculos diplomáticos responde a su reposicionamiento en el centro de las cuestiones de seguridad nacional. Para Estados Unidos, se trata de utilizar su ventaja comparativa en términos de proximidad política a los grandes centros de innovación e industria avanzada (Unión Europea, Japón, Corea del Sur, etc.) para maximizar su influencia en la futura evolución del panorama tecnológico (coordinación en materia de normalización, control de las exportaciones y cooperación científica) y contrarrestar a China en este ámbito.
Pero la cooperación no excluye un enfoque preeminente en los intereses de Estados Unidos. El episodio AUKUS, presentado aquí como un éxito, controla las exportaciones que se imponen a los socios a través de las reglas sobre las reexportaciones (Foreign Direct Product Rule) o Open-RAN. America First' de la administración anterior el pilar de su política exterior.. El Consejo de Comercio y Tecnología pretende así reforzar la cooperación transatlántica y resolver los puntos de desacuerdo. En particular,, con un acuerdo político alcanzado en marzo de 2022, que ha empezado a traducirse en medidas concretas con el decreto presidencial de 7 de octubre de 2022, que establece un marco para las actividades de los servicios de inteligencia estadounidenses (Foreign Direct Product Rule) o Open-RAN.
En cuanto a la 5G, estamos trabajando con nuestros aliados y socios en foros como el Quad y el Consejo de Comercio y Tecnología para desarrollar infraestructuras de telecomunicaciones de confianza, para incluir soluciones 'Open-RAN' que sean seguras, eficientes y promuevan las ventajas tecnológicas de Estados Unidos y sus aliados.
Open-RAN es un proyecto de norma que pretende transformar la arquitectura de los equipos de telecomunicaciones. Hoy en día, las funciones de software y hardware están integradas en el mismo equipo, desarrolladas bajo la responsabilidad de una sola empresa, el fabricante de equipos de telecomunicaciones (Huawei, ZTE, Nokia, Ericsson). Open-RAN pretende utilizar tecnologías de virtualización para permitir la desagregación de los distintos componentes de una antena 5G. Así, un operador de software podría ofrecer un determinado ladrillo sin tener que dominar todas las habilidades y conocimientos necesarios para producir equipos de telecomunicaciones. Esto representa una gran oportunidad para que Estados Unidos, que ya no cuenta con fabricantes de equipos pero que tiene una industria de software muy dinámica, recupere su posición en este mercado estratégico.
Hemos reforzado los esfuerzos con nuestros aliados y socios para compartir información sobre las ciberamenazas y hacer que los actores maliciosos rindan cuentas de sus acciones. Buscamos alinear todos los esfuerzos con nuestros aliados como parte de una gran estrategia, basada en la idea de que somos más fuertes cuando movilizamos las capacidades de nuestros amigos y aliados hacia un objetivo común. Tras casi dos años de Gobierno, hemos conseguido reforzar los cimientos del poder y la influencia de Estados Unidos.
El año pasado señalé la enormidad de la tarea que tenemos por delante, que consiste en redefinir el terreno en el que deberá desarrollarse la competencia tecnológica. Porque nos enfrentamos a un competidor que está dispuesto a dedicar recursos casi infinitos para derrocar el liderazgo tecnológico de Estados Unidos. Pero los últimos 20 meses -y sobre todo las últimas semanas- han demostrado que estamos actuando y liderando de forma poderosa y eficaz.
Hemos realizado inversiones sin precedentes que nos posicionan para dominar las industrias del futuro. Estamos redoblando nuestros esfuerzos para atraer a los mejores talentos técnicos. Hemos adaptado nuestras herramientas de protección de nuestros activos tecnológicos a las nuevas realidades geopolíticas. Y, lo que es más importante, hemos hecho todo esto de forma inclusiva, coherente con nuestros valores y aprovechando nuestros puntos fuertes.
Muchos de los esfuerzos que hemos emprendido han recibido el apoyo bipartidista a nivel interno y se han llevado a cabo en estrecha colaboración con nuestros aliados y socios a nivel externo. El trabajo que tenemos por delante sigue siendo importante. Pero al hacer un balance de la situación actual, está claro que Estados Unidos se está movilizando para estar a la altura del momento. Muchas gracias.
El surgimiento de tecnologías cuánticas con aplicaciones en distintas industrias e impactos en la vida cotidiana está dando inicio a una nueva era. ¿Cómo se cruzan con otras tecnologías digitales y cómo impactan a diferentes sectores productivos? ¿Estamos a tiempo en la región para aprovechar las oportunidades de innovación que traen consigo?
Foto de portada: Una vista aumentada de una oblea perteneciente a un computador cuántico de la empresa D-Wave. Crédito: Steve Jurvetson, Menio Park, USA. Febrero 2018.
En los años 40 y 50 del siglo XX, comenzaron a construirse las primeras computadoras de propósito general y los primeros circuitos integrados. Dos décadas más tarde, en los 70, surge Internet, nacen Microsoft y Apple, y comienza una carrera hacia la digitalización, la interconexión de dispositivos y personas, y la globalización a gran escala. Hoy en día, casi medio siglo después del inicio de la era digital, estamos quizás ante el comienzo de una nueva era, la era cuántica, que promete una nueva disrupción tecnológica a todos los niveles.
Tras décadas de investigaciones en el campo de lo “cuántico”, esta nueva era se caracteriza por el surgimiento de tecnologías cuánticas con aplicaciones en distintas industrias e impactos en la vida cotidiana.
Antes de ahondar en el mundo de tecnologías cuánticas, repasemos su fundamento científico. Estas tecnologías se caracterizan por “aprovecharse” de fenómenos o propiedades del mundo microscópico que entendemos y somos capaces de reproducir gracias a la teoría física conocida como Mecánica Cuántica. Esta teoría, nacida entre 1900 y 1930, nos ha mostrado que, en el mundo subatómico, allí donde encontramos partículas como electrones o fotones, ocurren cosas anti-intuitivas, casi mágicas. Por ejemplo, una partícula puede estar en varias posiciones al mismo tiempo –superposición cuántica– o dos partículas tan separadas como se desee pueden estar correlacionadas de manera que, si interaccionamos con una, la otra también cambia instantáneamente –entrelazamiento cuántico-.
Todos estos fenómenos subatómicos pueden ser utilizados para construir tecnología altamente disruptiva, y es posible identificar al menos siete tecnologías cuánticas emergentes que prometen un gran impacto en la sociedad: la computación cuántica, la simulación cuántica, la criptografía cuántica, la óptica cuántica, la metrología cuántica, los relojes atómicos y los sensores cuánticos. Una nueva publicación del BID destaca la oportunidad transversal e interdisciplinar para la transformación digital y el impacto social que se presenta con estas tecnologías.
El impacto de las tecnologías cuánticas
En un artículo reciente, dábamos una idea general del funcionamiento de la computación cuántica. En este blog vamos un paso más allá y exploramos cómo se cruzan con otras tecnologías emergentes y cuál puede ser su impacto en diferentes sectores e industrias productivas.
Quizás debido a que el concepto de “tecnología cuántica” es reciente, tecnologías como el láser o las imágenes por resonancia magnética (IRM), que explotan fenómenos cuánticos y llevan décadas siendo de gran importancia en la medicina, no habían sido bautizadas como cuánticas hasta ahora. Si bien no estamos, por tanto, ante la llegada de las primeras “tecnologías cuánticas”, las tecnologías cuánticas emergentes, que utilizan de manera mucho más directa el potencial del mundo subatómico, están llamadas a tener un impacto mucho mayor.
El interior de una computadora cuántica. IBM Q es la iniciativa de IBM para producir computadores cuánticos comerciales y científcos. Foto: IBM Research
Por un lado, la computación cuántica se presenta como una gran amenaza para la ciberseguridad actual, pues los computadores cuánticos serán capaces de romper toda la criptografía que protege las comunicaciones en Internet o en telefonía, afectando también a tecnologías como blockchain, internet de las cosas y las redes 5G. Expertos estiman que tomará unos 10 años desarrollar computadores cuánticos con ese nivel de robustez pero, una vez se consiga, ninguna comunicación estará a salvo de ser espiada. Agencias de estándares y seguridad estadounidenses como NIST y NSA desaconsejan desde hace más de tres años el uso de los algoritmos y protocolos de criptografía actuales y señalan a la criptografía cuántica como una opción alternativa totalmente segura, aunque requerirá de cambios importantes en hardware e infraestructura para poder ser implementada a gran escala.
Por otro lado, la computación y la simulación cuántica tienen potencial para acelerar el desarrollo de la inteligencia artificial o la robótica, mediante la introducción de algoritmos cuánticos para la resolución de problemas que son muy difíciles de tratar con los algoritmos clásicos y las técnicas actuales. Algunas aplicaciones consisten en alcanzar estadios más avanzados en cuanto a mapeo de expresiones del lenguaje, teoría de juegos, clasificación de imágenes o procesamiento de lenguajes naturales, entre otros.
Procesador cuántico de IBM. La empresa puso a disposición de programadores, investigadores y entusiastas para explorar la computación cuántica usando un procesador cuántico real a través de la nube de IBM. Foto: IBM Research
En cuanto al impacto en diferentes industrias y sectores, ya se están explorando y desarrollando aplicaciones en medicina, genética, energía, finanzas, transporte, meteorología y cambio climático. En medicina, por ejemplo, avances en óptica cuántica ya permiten a un instituto japonés detectar tumores en menos de media hora con técnicas que no son perjudiciales para el cuerpo, mediante el análisis de la emisión y recepción de ondas electromagnéticas.
En farmacología y genética, hoy en día se necesitan años de experimentación y pruebas en laboratorios para poder encontrar medicinas útiles. Con la computación y la simulación cuántica, se espera poder fabricar medicamentos a medida gracias a la capacidad que estos ofrecerán para poder simular la interacción entre sustancias químicas y órganos u organismos a nivel molecular, tarea imposible de abordar con las computadoras actuales. El sector privado ya está realizando movimientos en este campo, y un ejemplo de ello es la alianza formada por 1Qbit (empresa pionera en computación cuántica), Accenture y Biogen para diseñar una aplicación cuántica de comparación molecular con el objetivo de acelerar el desarrollo de medicinas para problemas neurológicos complejos como esclerosis múltiple, Alzheimer, Parkinson o la enfermedad de Lou Gehrig.
En energía y agricultura sostenible encontramos también una aplicación muy prometedora. Actualmente, se emplea entre 1% y 2% de la energía mundial en la fabricación de amoníaco, utilizado ampliamente para el desarrollo de fertilizantes. Esto se debe a que en el proceso es necesario disociar moléculas de nitrógeno, lo que hoy en día solo se puede hacer a altas presiones y temperaturas. Ya se conoce, sin embargo, una enzima derivada del nitrógeno que permitiría fabricar amoníaco con un costo energético residual, reduciendo enormemente el costo energético y por consiguiente el precio de los alimentos. Para poder ser utilizada, es necesario conocer ciertos procesos químicos con más precisión, y computadores cuánticos robustos serían ideales para ello.
La posibilidad de simular crisis financieras, mejorar las predicciones meteorológicas o llegar a poder predecir catástrofes naturales son otras de las muchas aplicaciones que esta nueva era tecnológica promete traer.
Perspectivas en la región
Muchos de los gobiernos de los países más desarrollados están invirtiendo en la investigación y el desarrollo de tecnologías cuánticas. En la cabeza se encuentran China, con un programa nacional de más de 10.000 millones de dólares, que ya ha lanzado un satélite para habilitar telecomunicaciones intercontinentales cuánticamente encriptadas; la Unión Europea, con una inversión de 1200 millones de dólares y Estados Unidos con una inversión de 1300 millones de dólares.
En América Latina y el Caribe no existen países que cuenten con alguna estrategia nacional con fondos específicamente dedicados a programas de investigación y desarrollo de estas tecnologías. En algunos países ni siquiera se cuenta con investigadores de primera línea en estos temas. En otros, como Brasil o Argentina, donde se cuenta con laboratorios capaces de fabricar tecnología cuántica, todavía hace falta un sector privado con conocimiento y capacidad para crear un mercado tecnológico.
Luiz Davilovich, presidente de la Academia Brasileña de Ciencias, y uno de los científicos más reconocidos en la región en el campo de la física cuántica, en una entrevista que nos concedió días atrás, enfatizaba la importancia de crear un ecosistema de startups que empezasen a impulsar el desarrollo de estas tecnologías en Brasil en particular y en la región en general.
En vista de las aplicaciones que ya están en desarrollo y de las que están por venir, muchos expertos consideran que estamos al comienzo de una nueva etapa en la carrera de la evolución y el progreso. Esto significa que existe una oportunidad para colocarse a la cabeza del desarrollo de la tecnología que se viene y que cambiará nuestras vidas. América Latina y el Caribe se quedaron atrás con respecto a otras regiones en la adopción de Internet, y aun hoy la penetración no llega a 70%, lo que supone 20 puntos por debajo de Estados Unidos y Europa. Aún no es tarde para evitar que ocurra lo mismo con las tecnologías cuánticas.
¿Crees que debemos impulsar la investigación y el desarrollo de tecnologías cuánticas en la región? Cuéntanos en los comentarios
Descarga nuestra publicación
Si quieres leer más sobre estas tecnologías y sus aplicaciones, puedes descargar gratuitamente el libro Tecnologías cuánticas: Una oportunidad transversal e interdisciplinar para la transformación digital y el impacto social. El documento se estructura en cuatro secciones independientes que explican en tono divulgativo en qué consisten estas tecnologías, cómo funcionan, de qué manera van a causar ese impacto tanto a nivel tecnológico como a nivel sectorial y qué están haciendo gobiernos y empresas tecnológicas al respecto.
John L. GuineyResponsable de la División de Servicios Meteorológicos, Administración Nacional del Océano y de la Atmósfera de los Estados Unidos/Servicio Meteorológico Nacional de la región oriental, Bohemia, Nueva York (Estados Unidos) 11716Palabras clave: tecnología, red, RSS, Internet, alertas, avisos, crisis, avances.
Introducción
Las nuevas redes de comunicación y las innovaciones introducidas en los sistemas de predicción, así como la tecnología empleada en estos (como por ejemplo Internet, comunicación inalámbrica, predicción mediante bases de datos digitales, estaciones de trabajo de última generación o sistemas de predicción meteorológica inmediata) han saltado a la palestra, ofreciendo así la oportunidad de mejorar los servicios meteorológicos para el público (SMP).
Estas innovaciones permiten que los Servicios Meteorológicos e Hidrológicos Nacionales (SMHN) puedan ofrecer predicciones y alertas hidrometeorológicas en diferentes formatos (gráficos, digitales, etc.) diferentes a los productos tradicionales basados en el texto. Además, estas innovaciones pueden tener cierta repercusión sobre las posibilidades de prestación de servicios de los SMHN. La predicción a partir de bases de datos digitales y las estaciones de trabajo de última generación, junto con los nuevos e incipientes sistemas y aplicaciones relacionados con la tecnología de la información (TI), ofrecen la oportunidad de una mejora adicional, y además integran la difusión de los SMP y las funciones relacionadas con la prestación de servicios.
Este artículo ofrece una visión general de una serie de innovaciones básicas, avances tecnológicos y sistemas y aplicaciones de TI, que tienen o pueden tener una gran repercusión de cara a mejorar los servicios meteorológicos para el público de los SMHN y pueden influir en su difusión y prestación de servicios. El artículo se centrará en la predicción a partir de bases de datos digitales, estaciones de trabajo de última generación destinadas a la predicción, sistemas de predicción meteorológica inmediata, y sistemas y aplicaciones relacionados con la TI.
Predicción a partir de bases de datos digitales
El proceso tradicional de predicción empleado por la mayor parte de los SMHN implica que los predictores generen productos basados en texto, razonables y que recojan predicciones de elementos meteorológicos (por ejemplo, la temperatura máxima o mínima y la nubosidad) mediante la utilización de salidas de modelos de predicción numérica del tiempo (PNT) como elemento de guía. El proceso suele efectuarse con arreglo a una planificación, está orientado hacia el producto y requiere un trabajo intensivo. Durante la última década, los avances tecnológicos y los progresos científicos han permitido que las predicciones y alertas hidrometeorológicas de los SMHN sean mucho más concretas y precisas.
En la medida en que la tecnología informática y los sistemas de difusión de alta velocidad han ido evolucionando (como, por ejemplo, Internet), los clientes y socios del Servicio Meteorológico Nacional norteamericano (NWS) han comenzado a solicitar predicciones detalladas en formatos digitales, gráficos y de cuadrícula o “rejilla”. Los productos de predicción tradicionales del NWS, basados en texto, limitan la cantidad de información adicional que puede hacerse llegar a la comunidad de usuarios. El concepto de predicción a partir de bases de datos digitales ofrece la capacidad de atender las demandas de los clientes y socios por lo que respecta a la obtención de unas predicciones hidrometeorológicas más precisas y detalladas. La predicción a partir de bases de datos digitales también ofrece una de las oportunidades más apasionantes de integrar la difusión de las predicciones de SMP y la prestación de servicios, lo que servirá para atender a la comunidad de usuarios de una manera más eficaz.
Figura 1 .– Diagrama de flujo que muestra los pasos principales del proceso de datos del sistema SCRIBE (C. Landry y otros, 2005).Pinche sobre la imagen
Tanto el Servicio Meteorológico Nacional de la Administración Nacional del Océano y de la Atmósfera (NOAA) de los Estados Unidos como el Servicio Medioambiental de Canadá (Environment Canada) están empleando en la actualidad una tecnología de predicción a partir de bases de datos digitales, con la intención de generar predicciones rutinarias. El Servicio Meteorológico de Australia se encuentra en pleno proceso de evaluación y desarrollo de un plan de implantación de la predicción mediante bases de datos, utilizando el planteamiento de la Base de datos digital nacional para predicción, llevado a cabo por el NOAA/NWS.
Base de datos nacional de elementos meteorológicos del Servicio Medioambiental de Canadá
El Servicio Medioambiental de Canadá ha desarrollado la Base de datos nacional de predicción de elementos meteorológicos (NWEFD) en la que se recogen salidas de los modelos de PNT. Los predictores del Servicio Medioambiental de Canadá efectúan ajustes para predecir determinados campos a partir de un análisis del estado actual de la atmósfera y de las salidas del modelo, incluyendo sus sesgos y tendencias conocidas. Una vez completada la predicción, el responsable de su elaboración ejecuta la aplicación informática que se encarga de crear predicciones basadas en texto. Para colaborar en el desarrollo y en la ampliación de la NWEFD, el Servicio Medioambiental de Canadá ha elaborado un sistema especializado denominado SCRIBE.Pinche sobre la tabla.
SCRIBE es capaz de generar, de forma automática o interactiva, un amplio abanico de productos meteorológicos para una región o para una localidad concreta. El sistema emplea datos procedentes de una serie de matrices que se generan tras la ejecución del modelo de PNT a las 00Z y a las 12Z. Estas matrices contienen diferentes tipos de elementos meteorológicos, entre los que se incluyen salidas de los modelos de PNT, salidas de modelos estadísticos a modo de guía (modelos de Prognosis perfecta (PP) y de Estadísticas actualizables de la salida del modelo (UMOS)) y datos climatológicos.
La resolución temporal de SCRIBE es de tres horas. Este programa genera predicciones dos veces al día para 1 145 emplazamientos de estaciones en Canadá. Cuando están listas, las matrices se envían a cada uno de los sistemas SCRIBE regionales y, en el momento de la recepción, los datos se procesan a través del generador de conceptos, se sintetizan y se reducen a una serie de elementos meteorológicos bien definidos llamados “conceptos”. Estos conceptos se producen con arreglo a un formato codificado digitalmente, que recibe el nombre de METEOCODE, y se muestran en una interfaz gráfica. Los predictores pueden modificar el producto asociado al concepto en cuestión para incorporar las observaciones más recientes, así como el fenómeno o escenario meteorológico que se esté desarrollando. Las oficinas regionales utilizan los conceptos para generar productos de predicción meteorológica a nivel local. También se envían a la NWEFD, donde se emiten diversos productos de predicción a nivel nacional. La Figura 1 muestra los pasos principales del proceso de datos que lleva a cabo el sistema SCRIBE.
Base de datos digital nacional para predicción del NOAA/NWS
En la década de 1990, el NOAA/NWS admitió que debía desarrollar sus productos y servicios hidrometeorológicos más allá de las predicciones basadas en texto, para afrontar de este modo las cada vez mayores demandas de clientes y socios. En 2003, el NWS lanzó la Base de datos digital nacional para predicción (NDFD). Se trata de una base de datos de predicción hidrometeorológica basada en los fenómenos acaecidos, orientada hacia la información, interactiva y con carácter colaborador. Esta base de datos consiste en predicciones hasta siete días de 14 elementos meteorológicos sensibles para áreas de 5 km que cubren las zonas contiguas de los EEUU (Conus), Alaska, Guam, Hawai y Puerto Rico (véase la tabla de la página 215). En algunos lugares, la resolución de la base de datos varía de 1,25 a 2,5 km, sobre todo en zonas con cantidades importantes de terreno. Cada una de las 122 oficinas de predicción meteorológica del NWS genera y mantiene la base de datos para su zona de competencia. La Figura 2 muestra ejemplos de los gráficos producidos por la NDFD.
Utilizando las últimas observaciones, los datos de radar y satélite más recientes, los productos guía de los Centros Nacionales de Predicción del Medio Ambiente (NCEP) y las salidas de los modelos de PNT, los predictores modifican la base de datos de forma interactiva a través de la herramienta Gridded Forecast Editor. Varios centros de predicción aportan también información a la NDFD, incluyendo riesgos en términos probabilísticos e información sobre perspectivas climáticas (véase la tabla de la página 215). A partir de la base de datos se generan directamente el texto de las predicciones y los productos tabulares y gráficos del NWS, mediante la utilización de herramientas para dar formato a los productos y de otras aplicaciones en función de la salida definida.
La propia base de datos se ofrece a los clientes y socios como producto del NWS, lo que permite a los usuarios acceder a ella para sus propias aplicaciones, y para manejarla y extraer información personalizada sobre predicción con arreglo a sus necesidades específicas. Durante los próximos años, el NWS seguirá trabajando para desarrollar la NDFD como una base de datos medioambiental completa y de cuatro dimensiones. La futura ampliación de la NDFD incluirá observaciones, análisis, elementos específicos de la aviación, información climática adicional, información sobre incertidumbre o probabilidad, proyecciones, vigilancias y alertas.
Estaciones de trabajo de última generación destinadas a la predicción
Los continuos avances que han experimentado la TI y las posibilidades de comunicación sugieren que el rápido incremento en el volumen de los datos hidrometeorológicos a lo largo de las tres últimas décadas seguirá su curso e, incluso, podría acelerarse durante los próximos años. La proliferación de sistemas de observación automatizada y de mesorredes, junto con las mejoras y/o sustituciones de los sistemas de observación por teledetección ya existentes, presagian un aumento de los datos en al menos un orden de magnitud.
Las estaciones de trabajo de última generación dedicadas a la predicción necesitarán mayor ancho de banda, y más capacidad de almacenamiento y potencia de cálculo para afrontar el rápido incremento de datos esperado, junto con salidas de los modelos de PNT que tengan una mayor resolución temporal y espacial. Estos factores hacen que resulte imprescindible que las estaciones de trabajo de última generación destinadas a la predicción vengan equipadas con unas novedosas y vanguardistas técnicas de procesamiento de la información y de visualización, que incluyan asimismo técnicas tridimensionales a fin de ayudar a los predictores en las tareas de análisis e interpretación de los datos.
También se necesitarán herramientas sofisticadas de diagnóstico que examinen los datos y pongan de relieve los procesos meteorológicos que tienen lugar. Además, el gran volumen de datos requerirá una dependencia aún mayor de los algoritmos avanzados y de las técnicas de procesamiento, con objeto de controlar tanto las condiciones actuales como las previstas, para poder extraer y describir la información más importante, y a fin de ayudar en todo lo relacionado con el apoyo a las decisiones de carácter hidrometeorológico. Las estaciones de trabajo de última generación destinadas a la predicción facilitarán la preparación de predicciones y alertas así como su difusión a través de una multitud de canales y redes de comunicación. Estas estaciones de trabajo también contarán con la posibilidad de apoyar la preparación de predicciones a partir de la base de datos digital.
Algunas estaciones de trabajo de última generación también deberán tratar de incorporar una aplicación de chat de mensajería instantánea basada en el protocolo de Internet (IMChat) con el fin de permitir que los SMHN puedan comunicarse con clientes y socios clave durante el desarrollo de episodios hidrometeorológicos importantes e incidentes que entrañen cualquier tipo de riesgo. Actualmente, el NWS está experimentando con el concepto del IMChat en algunas operaciones hidrometeorológicas de importancia. (IMChat es un tipo de sala de chat en Internet para estar en contacto con clientes y socios relevantes, y está destinado a obtener información importante en tiempo real acerca de cualquier episodio o incidente con carácter urgente que se esté desarrollando). A su vez, los SMHN recibirían informes concretos de una localización e información adicional que podría servir de ayuda en las operaciones de predicción y alerta.
Figura 2. – Ejemplos de gráficos generados por la base de datos NDFD: (a) gráfico regional de temperatura del punto de rocío; (b) gráfico local de velocidad y dirección del viento.Pinche sobre la imagen
Sistemas de predicción meteorológica inmediata
Algunos SMHN se han implicado en el proceso de desarrollo de sistemas innovadores de predicción inmediata de última generación. Estos sistemas pueden variar mucho en términos de complejidad: algunos registran ecos de radar y emplean un proceso de extrapolación para generar predicciones inmediatas a 0-1 horas vista, mientras que otros sistemas más complejos utilizan una combinación de productos de PNT y de técnicas de predicción probabilística o de incertidumbre para ampliar el horizonte de la predicción inmediata hasta las 3-6 horas. Algunos de estos sistemas también incorporan otras plataformas de teledetección, entre las que se incluyen los datos de satélite y de descargas eléctricas. Muchos de estos sistemas aún siguen con el reto de optimizar el papel del predictor en el proceso de la predicción inmediata.
Otro de los aspectos fundamentales es el de incorporar la verificación y la información de retorno en tiempo real para que los predictores puedan acceder a ellas. Uno de los mayores puntos fuertes de un sistema de predicción inmediata es su capacidad para generar productos de predicción hidrometeorológica a gran velocidad y para difundirlos en una serie de formatos distintos. Esta capacidad tendrá importantes implicaciones de cara a la prestación de servicios de forma oportuna y eficaz por parte de los SMP.
A través de la OMM se han organizado diversos proyectos de demostración de predicciones, con el fin de comprobar los sistemas y aplicaciones de predicción inmediata. El primer proyecto de demostración se llevó a cabo satisfactoriamente en el año 2000 en los Juegos Olímpicos de verano celebrados en Sydney (Australia). Otro proyecto de demostración fue el realizado hace pocas fechas en los Juegos Olímpicos de verano de Pekín (China).
Sistemas y aplicaciones relacionados con la tecnología de la información
Desde su irrupción, los SMHN han sacado partido de Internet a diferentes niveles. Aunque casi todos los SMHN cuentan con una página web en la Red, la difusión y los servicios prestados varían considerablemente.
Internet permite que los SMHN puedan facilitar predicciones y alertas de carácter hidrometeorológico e información climática a clientes, socios, y al público en general, a través de formatos gráficos y digitales que, de lo contrario, no estarían disponibles. También ofrece la oportunidad de mejorar y ampliar la prestación de servicios. Por ejemplo, el Servicio Medioambiental de Canadá ha desarrollado una página web exclusiva para los medios de comunicación, que les permite adaptar los datos a sus necesidades concretas. En otro ejemplo, el NWS llevó a cabo una iniciativa centrada en el mundo de la aviación, que recibió el nombre de “Producto conjunto de predicción de la convección”, en asociación con su comunidad aeronáutica. La iniciativa se basaba en una evaluación que ponía de manifiesto que las demoras por causas meteorológicas debidas a la actividad convectiva constituyen el elemento más perjudicial dentro del espacio aéreo nacional de los Estados Unidos.
Figura 3. – Ejemplo de alerta por condiciones meteorológicas severas, que incluye pares de latitud y longitud (destacados al final de la alerta) que pueden ser utilizados por aplicaciones GIS.Pinche sobre la imagen
La expansión de Internet en los años 90, junto con las nuevas tecnologías informáticas y de telecomunicaciones, condujo a la proliferación de sistemas y aplicaciones de TI. Por otra parte, el desarrollo de la integración entre la difusión y la prestación de servicios de SMP está directamente vinculado con el surgimiento de nuevas tecnologías informáticas y de telecomunicaciones, así como de sistemas de información (como en el caso de Internet, las tecnologías de comunicación inalámbrica, los sistemas de información geográfica (GIS), el Sistema de posicionamiento mundial (GPS) o las redes de comunicación móvil). Estas innovaciones permiten que los SMHN puedan ofrecer predicciones y alertas meteorológicas en una amplia variedad de nuevos formatos (digital, XML, CAP, etc.), a fin de satisfacer las demandas de sus clientes por lo que respecta a la posibilidad de contar con una información medioambiental más precisa y exacta. Además, estas nuevas tecnologías emergentes ofrecen la oportunidad de integrar aún más las funciones de difusión y de prestación de servicios de SMP. Otros recursos en proceso de evolución (PodCasts/VodCasts) también pueden mejorar la prestación de servicios de SMP.
Los sistemas de información geográfica y el Sistema de posicionamiento mundial
Los sistemas de información geográfica están diseñados para capturar, almacenar, analizar y gestionar datos y atributos asociados a ellos, referenciados espacialmente a la Tierra. El Sistema de posicionamiento mundial, desarrollado inicialmente en la década de 1970 por los Estados Unidos con fines militares, pasó a estar disponible para el uso civil en los años 80. Este sistema consta de 24 satélites que orbitan alrededor de la Tierra, y que ofrecen información concreta sobre una localización específica, con una precisión de varias decenas de metros. En conjunto, los sistemas GIS y GPS constituyen una poderosa herramienta tecnológica para que los SMHN puedan mejorar la prestación de sus servicios de SMP. Mediante el uso de los sistemas GIS y GPS a través de redes y dispositivos de comunicación móvil (teléfonos móviles, PDA, etc.), los SMHN pueden facilitar, de forma eficaz, alertas y predicciones para localizaciones y usuarios específicos.
El NWS está empleando la tecnología GIS en su programa combinado de alertas hidrometeorológicas a partir del desarrollo de alertas basadas en la aparición de tormentas (a las que también se conoce como alertas por polígonos). Actualmente, son cuatro los tipos de alertas combinadas (tornado, tormenta severa, crecida repentina y condiciones marinas especiales) que incluyen información poligonal, que adopta la forma de pares de latitud y longitud y destacan la zona amenazada (Figura 3).
Los datos procedentes de estas alertas se recopilan y se almacenan en una base de datos como un conjunto de archivos GIS shapefile en tiempo real. Estos archivos pueden descargarse desde la página web del NWS en tiempo real, y ser utilizados por los clientes y socios en otras aplicaciones GIS. Entre los usuarios de los sistemas GIS y GPS se encuentran los gestores y planificadores de situaciones de emergencia y los socios de los medios de comunicación. Los gestores de situaciones de emergencia y los medios de comunicación pueden acceder rápidamente y descargar los archivos GIS shapefile a través de Internet, añadirlos a sus campos GIS existentes e incorporarlos en otras aplicaciones GIS.
Lenguaje de etiquetado extensible
El lenguaje de etiquetado extensible (XML) es un formato de lenguaje basado en el protocolo de Internet que está destinado a documentos que contienen información o datos estructurados. Un lenguaje de marcado en Internet constituye un mecanismo para identificar estructuras dentro de un documento. La especificación XML define una manera normalizada de añadir marcadores a los documentos. La información estructurada incluye tanto contenido (palabras, imágenes, etc.) como algunas indicaciones relacionadas con qué tipo de papel desempeña dicho contenido (por ejemplo, el contenido en el encabezamiento de una sección tiene un significado diferente que el contenido de una nota a pie de página, que a su vez tiene un significado distinto que el contenido del subtítulo de una ilustración o de una tabla de una base de datos). El lenguaje XML está diseñado para describir datos e información, y las etiquetas del documento están definidas en función de las necesidades del usuario. Este tipo de lenguaje constituye una herramienta de múltiples plataformas que, a su vez, es independiente del software y del hardware empleado, y que se utiliza para transmitir datos e información. Es importante destacar que el XML sirve como complemento del lenguaje de marcado de hipertexto (HTML), aunque no es un elemento sustitutivo del mismo: el lenguaje XML está diseñado para describir datos e información, mientras que el HTML se encarga de dar formato y de presentar los datos y la información.
Otra ventaja del lenguaje XML es su capacidad de intercambiar datos entre sistemas incompatibles. En muchos casos, los sistemas informáticos y las bases de datos contienen datos en formatos incompatibles, y uno de los retos que más tiempo ha llevado a la comunidad investigadora ha sido el intercambio de datos entre este tipo de sistemas a través de Internet. La conversión de los datos en formato XML puede reducir en gran medida esta complejidad y crear datos que pueden ser leídos por una gran variedad de aplicaciones.
Protocolo común de alertas (CAP)
El protocolo común de alertas (CAP) es un formato abierto y común de intercambio normalizado de datos que puede utilizarse para recopilar todas las alertas e informes relacionados con cualquier tipo de peligro, a escala local, regional y nacional, para su inclusión en un amplio abanico de sistemas de gestión de la información y de difusión de alertas. El formato CAP emplea el lenguaje XML y normaliza el contenido de las alertas y notificaciones relacionadas con todo tipo de riesgos, incluidos incidentes con sustancias peligrosas, fenómenos meteorológicos severos, incendios, terremotos y tsunamis. Los orígenes del formato CAP se remontan a las recomendaciones del informe Effective disaster warnings publicado en noviembre de 2000 por el Grupo de trabajo sobre sistemas de información de desastres naturales de los Estados Unidos, Subcomité de reducción de desastres naturales.
Figura 4. – (a) Código CAP sin procesar del NWS y aplicación en tiempo real por parte de la Oficina de servicios de emergencia de California; (b) el texto en rojo corresponde al texto destacado en el apartado (a).Pinche sobre las imagenes
Los sistemas que utilizan el formato CAP han puesto de manifiesto que con un único mensaje de alerta autoritario y seguro se puede originar una rápida aparición de mensajes en Internet, noticias, titulares e inserciones de texto en la televisión, mensajes en autopistas, llamadas telefónicas automáticas sintetizadas o emisiones de radio, con el fin de alertar a la población de manera eficaz. El CAP es un formato simple, a la vez que generalizado, de intercambio de alertas ante situaciones de emergencia por cualquier tipo de riesgo y de avisos a la población, incluyendo las alertas hidrometeorológicas, a través de una amplia variedad de redes de comunicación. El formato CAP posibilita la difusión simultánea de un mensaje de alerta coherente a través de muchos sistemas diferentes, aumentando así su eficacia a la vez que simplifica la tarea de difusión de la alerta correspondiente. El CAP permite utilizar una plantilla para mensajes de alerta eficaces, que está basada en los mejores resultados obtenidos a través de la investigación académica y de la experiencia real. Todos los nuevos segmentos relacionados con la comunidad responsable de gestionar las situaciones de emergencia están adoptando el formato CAP como un enfoque integral y de “todo en uno”, capaz de ofrecer a la población la información crítica relativa a todo tipo de riesgos.
A su vez, el NWS está trabajando hacia la adopción de la norma CAP. La Figura 4 muestra el código CAP sin procesar y un ejemplo de cómo la Oficina de servicios de emergencia de California utiliza este formato en tiempo real.
RSS: Real Simple Syndication
El lenguaje XML está acogiendo nuevas e innovadoras capacidades de comunicación que pueden mejorar sobremanera la prestación de servicios de los SMP. Entre ellas se incluye el formato Real Simple Syndication (RSS). El RSS constituye una familia de formatos basados en protocolo web que se utilizan para compartir, distribuir y publicar contenidos digitales con una elevada frecuencia de actualización. El formato RSS suele emplearse para actualizar artículos de noticias y otros contenidos que cambian rápidamente. Habitualmente, los alimentadores RSS generan contenido textual y gráfico, aunque también podrían incluir archivos de sonido (PodCasts) o incluso de vídeo (VodCasts).
El formato RSS obedece a un enfoque que podríamos denominar “de atracción” para recibir información medioambiental. En lugar del procedimiento tradicional de que los SMHN “envíen” los productos hidrometeorológicos a sus clientes y socios, los usuarios instalan lectores de RSS que les permiten seleccionar y personalizar la información medioambiental que necesitan para satisfacer sus necesidades puntuales. Los usuarios se suscriben a un alimentador introduciendo el enlace del alimentador RSS en su lector RSS, y este procede a comprobar posteriormente los alimentadores a los que el usuario se ha suscrito en busca de nuevos contenidos de forma constante. Cuando se detecta un nuevo contenido, el lector recupera la nueva información y se la suministra al usuario. Los navegadores más habituales de Internet (Firefox, Internet Explorer 7, Mozilla, Safari, etc.) pueden leer los alimentadores RSS de forma automática. Como alternativa, los usuarios pueden instalar un lector independiente de alimentadores RSS o un dispositivo para agregar noticias.
De esta manera, el formato RSS permite al usuario estar al corriente de la situación medioambiental y obtener sin demora alguna la última información hidrometeorológica de sus SMHN en función de sus necesidades. Este enfoque cuenta con la ventaja añadida de la reducción de carga sobre los servidores web de los SMHN durante el transcurso de fenómenos hidrometeorológicos de gran impacto y en otros períodos de tráfico elevado. La Figura 5 muestra, por un lado, la página web de instrucciones RSS del Servicio Meteorológico del Reino Unido, en la que se describe cómo pueden acceder los usuarios a alimentadores RSS en busca de sus productos y, por otro lado, las páginas de Internet del NOAA/NWS, con sus correspondientes enlaces a los alimentadores RSS disponibles.
Figura 5. – Información acerca de los alimentadores RSS hidrometeorológicos de: a) el Servicio Meteorológico del Reino Unido, que describe el modo en que los usuarios pueden acceder a los alimentadores RSS para obtener sus productos; b) sitio web de NOAA/NWS con enlaces a los alimentadores RSS disponibles.
Lenguaje de etiquetado Keyhole
El lenguaje de etiquetado Keyhole (KML) es una variante reciente basada en el lenguaje XML que está concebida para las aplicaciones de datos con carácter geoespacial. Más concretamente, el lenguaje KML es un lenguaje basado en XML y un formato de archivo para describir datos geoespaciales tridimensionales y su presentación en programas de aplicaciones. El lenguaje KML tiene una estructura basada en etiquetas similar a la del HTML, con nombres y atributos que se emplean para propósitos concretos de presentación.
El lenguaje KML puede utilizarse para almacenar características geográficas, como por ejemplo puntos, líneas, imágenes, polígonos y modelos para su posterior presentación en Google Earth o en Google Maps. Estos dos sistemas procesan un archivo KML de forma similar a como se procesan los archivos HTML y XML mediante los navegadores web. Los SMHN podrán contar con la capacidad de aprovechar las características del lenguaje KML para añadir otra dimensión que presentar ante el usuario y de cara a elaborar alertas y predicciones para una localización específica.
Tecnología del futuro
Una de las mejoras más apasionantes e innovadoras de la tecnología del futuro de cara a los SMP se encuentra en el ámbito de la teledetección por radar. Los sistemas de radares de última generación (radares de polarización dual, radares de barrido electrónico) ofrecen la posibilidad de mejorar la detección de fenómenos meteorológicos severos, la previsión de precipitaciones y las alertas meteorológicas en invierno, así como de aumentar el plazo de predicción de los riesgos meteorológicos severos, incluidos los tornados y los episodios de precipitaciones intensas y crecidas repentinas.
Los radares de polarización dual transmiten impulsos de ondas de radio con orientación tanto horizontal como vertical. La información adicional procedente de los impulsos verticales mejorará en gran medida las predicciones y alertas relacionadas con una serie de fenómenos meteorológicos peligrosos, entre los que se incluyen los fenómenos severos, las precipitaciones fuertes y los episodios meteorológicos de invierno. Al contrario que los actuales radares WSR-88D (que transmiten un haz de energía cada vez, esperan al retorno de dicha energía y, posteriormente, modifican su elevación para recoger la muestra de otra pequeña sección de la atmósfera), un sistema de radares de barrido electrónico emplea multitud de haces enviados de una sola vez, motivo por el cual las antenas nunca tienen necesidad de moverse. Este proceso origina un barrido completo de la totalidad de la atmósfera en un tiempo de alrededor de 30 segundos, frente a los 6 ó 7 minutos que necesita el radar WSR-88D. Además, el sistema de radares de barrido electrónico incorpora las prestaciones del radar de polarización dual.
Las ventajas de los radares de barrido electrónico con respecto a los servicios meteorológicos para el público son muchas e importantes. Estos radares permitirán a los SMHN emitir alertas mejoradas y en momentos más oportunos acerca de los riesgos meteorológicos severos, incluyendo además la posibilidad de publicar alertas de tornado en formato gráfico con hasta 30 minutos de antelación, o incluso más, lo que conlleva aumentar el plazo de predicción de alertas por crecidas repentinas; también supondría una mejora en las predicciones de engelamiento, de interés para el sector aeronáutico.
Resumen
La aparición de redes de comunicación y sistemas de predicción nuevos, innovadores y avanzados desde el punto de vista tecnológico ofrece una gran cantidad de posibilidades apasionantes para que los SMHN puedan mejorar sus servicios meteorológicos para el público e integrar de forma eficaz las actividades de difusión y de prestación de servicios. El devenir de estas dos actividades dependerá en gran medida del desarrollo y de la aplicación de estos sistemas. La predicción a través de una base de datos digital ofrece una de las oportunidades más fascinantes de integrar las actividades de difusión de las predicciones y de prestación de servicios de la manera más eficaz posible para los clientes y socios de los SMHN y para la población en general. Aunque está claro que la predicción digital se encuentra en una fase primigenia y que aún están surgiendo nuevas tecnologías de telecomunicación, los SMHN deberían mantenerse al corriente de esta modalidad de predicción en fase de desarrollo.
Las estaciones de trabajo de última generación destinadas a la predicción traen consigo el compromiso de aportar nuevos métodos de asimilación de grandes cantidades de datos procedentes de la observación y de salidas de modelos numéricos, incluyendo nuevas técnicas de presentación y de procesamiento de la información, a fin de ayudar a los predictores en las tareas de análisis e interpretación de datos. Estas estaciones de trabajo facilitarán la preparación de las predicciones y el apoyo a la adopción de decisiones ante situaciones hidrometeorológicas de gran impacto. Además, es probable que estas estaciones de trabajo incorporen nuevos y sofisticados sistemas de predicción meteorológica inmediata, que integrarán un conjunto de datos en tiempo real con salidas de modelos de PNT para así ofrecer información de pronóstico hasta a seis horas vista, a la vez que contribuirán a generar y a difundir rápidamente productos relacionados con la predicción.
Los sistemas relacionados con la tecnología de la información y sus aplicaciones asociadas, entre las que se incluyen los formatos XML, CAP y RSS, permitirán a los SMHN explotar las redes de telecomunicaciones más modernas, entre las que figuran sistemas de banda ancha, inalámbricos y móviles, para así mejorar sus servicios meteorológicos para el público. Junto con las posibilidades que ofrecen los sistemas GIS y GPS, los SMHN pueden satisfacer las demandas de clientes y socios relacionadas con obtener predicciones y alertas hidrometeorológicas con una precisión, exactitud y detalle en continuo aumento y, además, específicas de una localización concreta.
Aunando todos estos esfuerzos realizados, se conseguirá que los SMHN den forma a un programa innovador y eficaz para sus SMP, que podrá sacar partido de los avances tecnológicos para elaborar y difundir alertas y predicciones holísticas, para la prestación de servicios y para apoyar los procesos de toma de decisiones relacionados con cualquier peligro, y siempre de la manera que más beneficie a los intereses de sus respectivas comunidades de usuarios.
Agradecimientos a la OMM, en particular a Judith C.C. Torres, Editora Asociada, por permitirnos reproducir íntegramente este interesante artículo.
El trabajo apareció en el Boletín de al OMM en octubre de 2008.
Post a Comment