Pone las reglas en internet, y, aun así, para muchas personas es una auténtica desconocida: qué es IETF y por qué es tan influyente

Pone las reglas en internet, y, aun así, para muchas personas es una auténtica desconocida: qué es IETF y por qué es tan influyente

Internet es una de las creaciones más rupturistas del ser humano. Su enorme utilidad, su amplísimo alcance y el profundo impacto que tiene en nuestras vidas han cambiado irreversiblemente no solo cómo nos relacionamos entre nosotros; también cómo nos relacionamos con el mundo.

Que algo tan vasto y complejo funcione razonablemente bien es sorprendente incluso para las personas que conocen con cierto detalle el sustrato tecnológico que hace posible esta gigantesca red de comunicaciones y servicios.

A bote pronto se me ocurren varios ingenios creados por el ser humano que son más meritorios desde un punto de vista científico que internet, y también más complejos desde una perspectiva técnica.

Los detectores de partículas que trabajan codo con codo junto al LHC en el CERN y el reactor de fusión nuclear que está siendo construido en estos momentos en la localidad francesa de Cadarache ejemplifican muy bien los logros científicos y técnicos que hemos alcanzado. Sin embargo, internet tiene algo que estas máquinas no tienen: su universalidad.

Cada día aproximadamente 4000 millones de usuarios utilizamos los servicios que varios millones de empresas y otras entidades han depositado en internet

Todos formamos parte de esta enorme red. Cada día aproximadamente 4000 millones de usuarios utilizamos los servicios que varios millones de empresas y otras entidades han depositado en ella. Y funciona. Es evidente que internet no es inmune a los fallos. De hecho, hace pocas semanas buena parte de los servicios se vinieron abajo durante un par de horas debido a la caída de Fastly.

Afortunadamente, los errores en los que se ve involucrada buena parte de la red son poco frecuentes, pero los fallos que tienen un alcance mucho más limitado se producen constantemente. Y, aun así, nuestra experiencia como usuarios generalmente es buena.

Desde fuera parece un milagro que un recurso en el que participan tantos usuarios, tantas administraciones y tantas corporaciones con intereses tan diferentes se mantenga en pie. Pero lo hace. Y en gran medida la responsable de poner orden y evitar que impere el caos en internet es, precisamente, la organización a la que dedicamos este artículo.

Se llama IETF (Internet Engineering Task Force), y es, sencillamente, quien pone las reglas. Quien propone cómo se deben hacer las cosas. Y quien dirime cómo evolucionará esta red en el futuro. Su labor es muy importante, y, a pesar de ello, es poco conocida por el gran público. Esperamos que este artículo os ayude a conocerla un poco mejor.

Ietf1

El propósito esencial de IETF es elaborar los estándares que posteriormente serán utilizados por los fabricantes de hardware, los desarrolladores de software y los proveedores de servicios en las soluciones que proponen tanto a otras empresas como a los usuarios finales.

Qué es IETF y a qué se dedica

El Grupo de trabajo para la ingeniería de internet, que es una traducción bastante certera de la denominación en inglés que he descrito en el párrafo anterior, es una organización internacional que no persigue el lucro y que tiene como propósito principal proponer los estándares sobre los que se erige internet. Comenzó su andadura a principios de 1986, y su sede central está en Fremont, una ciudad ubicada cerca de San Francisco, en California (Estados Unidos).

La universalidad de internet de la que he hablado unas líneas más arriba provoca que sus recursos estén a disposición de millones de empresas y otro tipo de organizaciones con intereses muy diferentes, y, a menudo, opuestos.

Si cada una de estas entidades hiciese y deshiciese a su antojo con el único propósito de defender sus intereses, internet no habría alcanzado el grado de desarrollo que tiene actualmente. Este es, precisamente, el espacio que ocupa la organización IETF al actuar como un moderador o árbitro que vela por el desarrollo de internet y los intereses de todos los usuarios en su conjunto.

Un estándar describe la solución a un problema o la forma de implementar una innovación

La herramienta utilizada por IETF para mediar entre los fabricantes de hardware, los desarrolladores de software y las empresas que prestan servicios son los estándares. Una forma sencilla e intuitiva de definir un estándar tecnológico consiste en observarlo como una norma que describe de una manera minuciosa la solución a un problema o la forma de implementar una innovación.

Si todo aquel que se enfrenta a ese problema lo afronta utilizando la estrategia que propone el estándar será posible implementar una uniformidad muy beneficiosa en aras de garantizar la compatibilidad de todas las soluciones sin importar su procedencia. De eso se trata en definitiva.

Ietf2

IETF promueve los 'hackathons', que son encuentros entre programadores y otros expertos en las tecnologías involucradas en internet en los que se elaboran aplicaciones a partir de los estándares aprobados por esta institución.

Los estándares que propone IETF son abiertos, por lo que cualquier persona o entidad que esté interesada en conocer qué sugiere cualquiera de ellos puede acceder a su contenido y utilizarlo sin pagar nada. De hecho, todos están disponibles públicamente en el repositorio que mantiene esta organización.

Además, un principio importante que nos interesa conocer es que la solución que propone cada estándar persigue desplegar la estrategia óptima, de manera que las personas que intervienen en su definición tienen que llevar a cabo una discusión de carácter técnico para encontrar la propuesta ideal.

IETF está organizada en varias áreas, y cada una de ellas está dividida a su vez en varios grupos de trabajo

Abarcar toda la complejidad técnica que acarrea internet no es sencillo, lo que ha provocado que IETF esté organizada en varias áreas diferentes que persiguen ordenar el maremágnum de propuestas que es necesario poner a punto. Algunas de estas áreas son Aplicaciones y tiempo real, o ‘art’ (Applications and Real-Time); Operaciones y gestión, u ‘ops’ (Operations and Management); Seguridad, o ‘sec’ (Security); y Transporte, o ‘tsv’ (Transport).

Además, cada área está dividida a su vez en varios grupos de trabajo. Cada uno de ellos persigue encontrar la solución a un problema concreto, o desarrollar una innovación en particular, y una vez que ha cumplido su objetivo se cierra.

Los miembros de IETF se reúnen tres veces al año para desarrollar los proyectos más prometedores que tienen entre manos. Además, esta organización promueve los hackathons, que son encuentros entre programadores y otros expertos en las tecnologías involucradas en internet en los que se elaboran aplicaciones a partir de los estándares aprobados por esta institución. En estos eventos también se exponen nuevas ideas que pueden ser posteriormente desarrolladas en los grupos de trabajo.

Qué personas forman parte de esta organización

La procedencia de las personas que participan en IETF es variopinta. Como podemos intuir, los fabricantes de hardware y equipos de comunicaciones están representados en esta organización. Los desarrolladores de software, también. Y los proveedores de servicios, como es lógico, no pueden faltar. No obstante, los profesionales de las empresas no son los únicos que intervienen en la elaboración de los estándares.

En IETF también colaboran muchos investigadores, profesores universitarios y estudiantes. Incluso hay un nutrido grupo de usuarios sin afiliación alguna cuyo único interés es aportar su granito de arena al futuro de internet. Cualquiera de nosotros puede contribuir.

De hecho, lo que realmente importa es que todas las personas que tienen algo que aportar puedan hacerlo con total libertad. Este es el pilar fundamental de esta organización y la filosofía que la ha ayudado a afianzar su relevancia durante tres décadas y media.

Lo único que tenemos que hacer para aportar en alguna de las áreas en las que desarrolla su actividad IETF es suscribirnos a la lista de correo del grupo de trabajo que aborda la materia que nos interesa. E interactuar con los demás miembros para exponer nuestras aportaciones. Solo eso.

Ietf3

Para participar en alguno de los proyectos de IETF no es necesario afiliarse. Y tampoco hay que pagar nada. Cualquier persona puede contribuir si presenta una idea relevante y meritoria desde un punto de vista técnico.

La mayor parte del trabajo que lleva a cabo esta organización se desarrolla dentro de estas listas de correo, que, eso sí, únicamente están disponibles en inglés, por lo que es importante sentirse cómodo en este idioma.

Un apunte importante que no debemos pasar por alto: para participar en IETF no hay que pagar nada. Y tampoco que afiliarse a esta organización. Solo hay que suscribirse a la lista de correo del grupo de trabajo apropiado. Solo eso.

Cualquier contribución puede ser valiosa sin importar la procedencia de la persona a la que se le ha ocurrido. Lo único relevante es su mérito tecnológico. Que realmente aporte algo.

Cómo se aprueba un nuevo estándar

El esfuerzo de las personas que forman parte de esta organización ha hecho posible la práctica totalidad de los estándares que los internautas utilizamos todos los días (o casi todos), como HTTPS, DNS o IPv6, entre muchos otros.

Detrás de la elaboración de cada una de estas innovaciones hay mucho trabajo, pero, curiosamente, el procedimiento que utiliza IETF para desarrollarlos es razonablemente sencillo.

El resultado de la discusión de carácter técnico que se lleva a cabo en los grupos de trabajo es un borrador (draft por su designación en inglés), que puede proponer la solución a un problema, la mejora de un estándar que ya se está utilizando, o, sencillamente, puede ser un documento meramente informativo.

A partir de este momento la discusión se desarrolla sobre el propio borrador, y una vez que los miembros del área concluyen que tienen entre manos la solución óptima, el borrador se aprueba.

Los estándares que propone IETF no son de obligado cumplimiento. Y son abiertos, por lo que cualquiera puede utilizarlos

En adelante ese documento ya no será un borrador; pasa a llamarse RFC (Request for Comments), una designación en inglés que en español podemos traducir como ‘solicitud de comentarios’. No es algo inamovible, pero como ha sido elaborado por expertos en la materia y es el resultado de una discusión técnica previa, es la aproximación más certera a los estándares que posteriormente van a ser utilizados. De hecho, los protocolos más importantes que hacen posible que internet funcione como lo hace actualmente están descritos mediante RFC.

Los estándares que propone IETF no son de obligado cumplimiento. Como he mencionado anteriormente, proponen soluciones y describen cómo implementar algunas innovaciones. Están disponibles para que cualquier corporación o persona pueda utilizarlos, pero nadie está obligado a hacerlo.

Aun así, la mayor parte de ellos son aceptados y respetados escrupulosamente por una razón: garantizan la interoperabilidad y la compatibilidad de los componentes y los servicios que dan forma a internet. Y no cabe duda de que esta es una razón poderosa para acogerlos.

La última cruzada de IETF: erradicar los términos ofensivos

La influencia de esta organización va más allá de la aprobación de los estándares sobre los que se erige internet. Durante los últimos meses se han alzado voces dentro de IETF que denuncian la necesidad de dejar de utilizar algunos términos vinculados al ámbito tecnológico con los que todos estamos familiarizados.

Las personas que defienden esta iniciativa están convencidas de que es necesario actualizar aquellas designaciones que tienen connotaciones racistas, como ‘maestro’, ‘esclavo’, ‘lista negra’ o ‘lista blanca’.

Este movimiento se originó de forma tímida en un grupo de trabajo, y poco a poco ha ido ganando apoyo e incrementando su eco, pero, como toda iniciativa de este tipo, también ha suscitado recelos.

Algunas voces aseguran que esta propuesta es innecesaria debido a que estos términos no tienen las mismas connotaciones para todo el mundo por una razón: la prevalencia del racismo no es la misma en todos los países.

'Maestro', 'esclavo', 'lista negra', 'lista blanca'... Estas son algunas de las palabras con connotaciones racistas que están en el centro del debate

En cierto modo resulta sorprendente que esta discusión haya alcanzado a una organización que se dedica a la tecnología como IETF, pero no es algo negativo en absoluto.

La sensibilidad que tiene cualquier persona ante un tema tan delicado como este, especialmente después de los sucesos que han tenido lugar recientemente en Estados Unidos, es digna de respeto. Y una discusión constructiva siempre es positiva porque tiene la capacidad de enriquecernos a todos.

Solo el tiempo nos demostrará si esta iniciativa consigue prosperar, o si, por el contrario, acaba perdiendo apoyo y difuminándose. En cualquier caso, suceda lo que suceda con ella lo único que puede hacer IETF es, una vez más, proponernos una recomendación.

A partir de ahí los usuarios tenemos la libertad de decidir qué palabras queremos utilizar tanto en el ámbito tecnológico como fuera de él. No puede ser de otra forma.

Imágenes | Pixabay | Andrea Piacquadio | Christina Morillo

-
La noticia Pone las reglas en internet, y, aun así, para muchas personas es una auténtica desconocida: qué es IETF y por qué es tan influyente fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Pone las reglas en internet y sigue siendo una auténtica desconocida: qué es IETF y por qué es tan influyente

Pone las reglas en internet y sigue siendo una auténtica desconocida: qué es IETF y por qué es tan influyente

Internet es una de las creaciones más rupturistas del ser humano. Su enorme utilidad, su amplísimo alcance y el profundo impacto que tiene en nuestras vidas han cambiado irreversiblemente no solo cómo nos relacionamos entre nosotros; también cómo nos relacionamos con el mundo.

Que algo tan vasto y complejo funcione razonablemente bien es sorprendente incluso para las personas que conocen con cierto detalle el sustrato tecnológico que hace posible esta gigantesca red de comunicaciones y servicios.

A bote pronto se me ocurren varios ingenios creados por el ser humano que son más meritorios desde un punto de vista científico que internet, y también más complejos desde una perspectiva técnica.

Los detectores de partículas que trabajan codo con codo junto al LHC en el CERN y el reactor de fusión nuclear que está siendo construido en estos momentos en la localidad francesa de Cadarache ejemplifican muy bien los logros científicos y técnicos que hemos alcanzado. Sin embargo, internet tiene algo que estas máquinas no tienen: su universalidad.

Cada día aproximadamente 4000 millones de usuarios utilizamos los servicios que varios millones de empresas y otras entidades han depositado en internet

Todos formamos parte de esta enorme red. Cada día aproximadamente 4000 millones de usuarios utilizamos los servicios que varios millones de empresas y otras entidades han depositado en ella. Y funciona. Es evidente que internet no es inmune a los fallos. De hecho, hace pocas semanas buena parte de los servicios se vinieron abajo durante un par de horas debido a la caída de Fastly.

Afortunadamente, los errores en los que se ve involucrada buena parte de la red son poco frecuentes, pero los fallos que tienen un alcance mucho más limitado se producen constantemente. Y, aun así, nuestra experiencia como usuarios generalmente es buena.

Desde fuera parece un milagro que un recurso en el que participan tantos usuarios, tantas administraciones y tantas corporaciones con intereses tan diferentes se mantenga en pie. Pero lo hace. Y en gran medida la responsable de poner orden y evitar que impere el caos en internet es, precisamente, la organización a la que dedicamos este artículo.

Se llama IETF (Internet Engineering Task Force), y es, sencillamente, quien pone las reglas. Quien propone cómo se deben hacer las cosas. Y quien dirime cómo evolucionará esta red en el futuro. Su labor es muy importante, y, a pesar de ello, es poco conocida por el gran público. Esperamos que este artículo os ayude a conocerla un poco mejor.

Ietf1

El propósito esencial de IETF es elaborar los estándares que posteriormente serán utilizados por los fabricantes de hardware, los desarrolladores de software y los proveedores de servicios en las soluciones que proponen tanto a otras empresas como a los usuarios finales.

Qué es IETF y a qué se dedica

El Grupo de trabajo para la ingeniería de internet, que es una traducción bastante certera de la denominación en inglés que he descrito en el párrafo anterior, es una organización internacional que no persigue el lucro y que tiene como propósito principal proponer los estándares sobre los que se erige internet. Comenzó su andadura a principios de 1986, y su sede central está en Fremont, una ciudad ubicada cerca de San Francisco, en California (Estados Unidos).

La universalidad de internet de la que he hablado unas líneas más arriba provoca que sus recursos estén a disposición de millones de empresas y otro tipo de organizaciones con intereses muy diferentes, y, a menudo, opuestos.

Si cada una de estas entidades hiciese y deshiciese a su antojo con el único propósito de defender sus intereses, internet no habría alcanzado el grado de desarrollo que tiene actualmente. Este es, precisamente, el espacio que ocupa la organización IETF al actuar como un moderador o árbitro que vela por el desarrollo de internet y los intereses de todos los usuarios en su conjunto.

Un estándar describe la solución a un problema o la forma de implementar una innovación

La herramienta utilizada por IETF para mediar entre los fabricantes de hardware, los desarrolladores de software y las empresas que prestan servicios son los estándares. Una forma sencilla e intuitiva de definir un estándar tecnológico consiste en observarlo como una norma que describe de una manera minuciosa la solución a un problema o la forma de implementar una innovación.

Si todo aquel que se enfrenta a ese problema lo afronta utilizando la estrategia que propone el estándar será posible implementar una uniformidad muy beneficiosa en aras de garantizar la compatibilidad de todas las soluciones sin importar su procedencia. De eso se trata en definitiva.

Ietf2

IETF promueve los 'hackathons', que son encuentros entre programadores y otros expertos en las tecnologías involucradas en internet en los que se elaboran aplicaciones a partir de los estándares aprobados por esta institución.

Los estándares que propone IETF son abiertos, por lo que cualquier persona o entidad que esté interesada en conocer qué sugiere cualquiera de ellos puede acceder a su contenido y utilizarlo sin pagar nada. De hecho, todos están disponibles públicamente en el repositorio que mantiene esta organización.

Además, un principio importante que nos interesa conocer es que la solución que propone cada estándar persigue desplegar la estrategia óptima, de manera que las personas que intervienen en su definición tienen que llevar a cabo una discusión de carácter técnico para encontrar la propuesta ideal.

IETF está organizada en varias áreas, y cada una de ellas está dividida a su vez en varios grupos de trabajo

Abarcar toda la complejidad técnica que acarrea internet no es sencillo, lo que ha provocado que IETF esté organizada en varias áreas diferentes que persiguen ordenar el maremágnum de propuestas que es necesario poner a punto. Algunas de estas áreas son Aplicaciones y tiempo real, o ‘art’ (Applications and Real-Time); Operaciones y gestión, u ‘ops’ (Operations and Management); Seguridad, o ‘sec’ (Security); y Transporte, o ‘tsv’ (Transport).

Además, cada área está dividida a su vez en varios grupos de trabajo. Cada uno de ellos persigue encontrar la solución a un problema concreto, o desarrollar una innovación en particular, y una vez que ha cumplido su objetivo se cierra.

Los miembros de IETF se reúnen tres veces al año para desarrollar los proyectos más prometedores que tienen entre manos. Además, esta organización promueve los hackathons, que son encuentros entre programadores y otros expertos en las tecnologías involucradas en internet en los que se elaboran aplicaciones a partir de los estándares aprobados por esta institución. En estos eventos también se exponen nuevas ideas que pueden ser posteriormente desarrolladas en los grupos de trabajo.

Qué personas forman parte de esta organización

La procedencia de las personas que participan en IETF es variopinta. Como podemos intuir, los fabricantes de hardware y equipos de comunicaciones están representados en esta organización. Los desarrolladores de software, también. Y los proveedores de servicios, como es lógico, no pueden faltar. No obstante, los profesionales de las empresas no son los únicos que intervienen en la elaboración de los estándares.

En IETF también colaboran muchos investigadores, profesores universitarios y estudiantes. Incluso hay un nutrido grupo de usuarios sin afiliación alguna cuyo único interés es aportar su granito de arena al futuro de internet. Cualquiera de nosotros puede contribuir.

De hecho, lo que realmente importa es que todas las personas que tienen algo que aportar puedan hacerlo con total libertad. Este es el pilar fundamental de esta organización y la filosofía que la ha ayudado a afianzar su relevancia durante tres décadas y media.

Lo único que tenemos que hacer para aportar en alguna de las áreas en las que desarrolla su actividad IETF es suscribirnos a la lista de correo del grupo de trabajo que aborda la materia que nos interesa. E interactuar con los demás miembros para exponer nuestras aportaciones. Solo eso.

Ietf3

Para participar en alguno de los proyectos de IETF no es necesario afiliarse. Y tampoco hay que pagar nada. Cualquier persona puede contribuir si presenta una idea relevante y meritoria desde un punto de vista técnico.

La mayor parte del trabajo que lleva a cabo esta organización se desarrolla dentro de estas listas de correo, que, eso sí, únicamente están disponibles en inglés, por lo que es importante sentirse cómodo en este idioma.

Un apunte importante que no debemos pasar por alto: para participar en IETF no hay que pagar nada. Y tampoco que afiliarse a esta organización. Solo hay que suscribirse a la lista de correo del grupo de trabajo apropiado. Solo eso.

Cualquier contribución puede ser valiosa sin importar la procedencia de la persona a la que se le ha ocurrido. Lo único relevante es su mérito tecnológico. Que realmente aporte algo.

Cómo se aprueba un nuevo estándar

El esfuerzo de las personas que forman parte de esta organización ha hecho posible la práctica totalidad de los estándares que los internautas utilizamos todos los días (o casi todos), como HTTPS, DNS o IPv6, entre muchos otros.

Detrás de la elaboración de cada una de estas innovaciones hay mucho trabajo, pero, curiosamente, el procedimiento que utiliza IETF para desarrollarlos es razonablemente sencillo.

El resultado de la discusión de carácter técnico que se lleva a cabo en los grupos de trabajo es un borrador (draft por su designación en inglés), que puede proponer la solución a un problema, la mejora de un estándar que ya se está utilizando, o, sencillamente, puede ser un documento meramente informativo.

A partir de este momento la discusión se desarrolla sobre el propio borrador, y una vez que los miembros del área concluyen que tienen entre manos la solución óptima, el borrador se aprueba.

Los estándares que propone IETF no son de obligado cumplimiento. Y son abiertos, por lo que cualquiera puede utilizarlos

En adelante ese documento ya no será un borrador; pasa a llamarse RFC (Request for Comments), una designación en inglés que en español podemos traducir como ‘solicitud de comentarios’. No es algo inamovible, pero como ha sido elaborado por expertos en la materia y es el resultado de una discusión técnica previa, es la aproximación más certera a los estándares que posteriormente van a ser utilizados. De hecho, los protocolos más importantes que hacen posible que internet funcione como lo hace actualmente están descritos mediante RFC.

Los estándares que propone IETF no son de obligado cumplimiento. Como he mencionado anteriormente, proponen soluciones y describen cómo implementar algunas innovaciones. Están disponibles para que cualquier corporación o persona pueda utilizarlos, pero nadie está obligado a hacerlo.

Aun así, la mayor parte de ellos son aceptados y respetados escrupulosamente por una razón: garantizan la interoperabilidad y la compatibilidad de los componentes y los servicios que dan forma a internet. Y no cabe duda de que esta es una razón poderosa para acogerlos.

La última cruzada de IETF: erradicar los términos ofensivos

La influencia de esta organización va más allá de la aprobación de los estándares sobre los que se erige internet. Durante los últimos meses se han alzado voces dentro de IETF que denuncian la necesidad de dejar de utilizar algunos términos vinculados al ámbito tecnológico con los que todos estamos familiarizados.

Las personas que defienden esta iniciativa están convencidas de que es necesario actualizar aquellas designaciones que tienen connotaciones racistas, como ‘maestro’, ‘esclavo’, ‘lista negra’ o ‘lista blanca’.

Este movimiento se originó de forma tímida en un grupo de trabajo, y poco a poco ha ido ganando apoyo e incrementando su eco, pero, como toda iniciativa de este tipo, también ha suscitado recelos.

Algunas voces aseguran que esta propuesta es innecesaria debido a que estos términos no tienen las mismas connotaciones para todo el mundo por una razón: la prevalencia del racismo no es la misma en todos los países.

'Maestro', 'esclavo', 'lista negra', 'lista blanca'... Estas son algunas de las palabras con connotaciones racistas que están en el centro del debate

En cierto modo resulta sorprendente que esta discusión haya alcanzado a una organización que se dedica a la tecnología como IETF, pero no es algo negativo en absoluto.

La sensibilidad que tiene cualquier persona ante un tema tan delicado como este, especialmente después de los sucesos que han tenido lugar recientemente en Estados Unidos, es digna de respeto. Y una discusión constructiva siempre es positiva porque tiene la capacidad de enriquecernos a todos.

Solo el tiempo nos demostrará si esta iniciativa consigue prosperar, o si, por el contrario, acaba perdiendo apoyo y difuminándose. En cualquier caso, suceda lo que suceda con ella lo único que puede hacer IETF es, una vez más, proponernos una recomendación.

A partir de ahí los usuarios tenemos la libertad de decidir qué palabras queremos utilizar tanto en el ámbito tecnológico como fuera de él. No puede ser de otra forma.

Imágenes: PixabayAndrea PiacquadioChristina Morillo

En Xataka | Internet explicada para que cualquier persona pueda entender cómo funciona (y por qué a veces una parte queda KO)

-
La noticia Pone las reglas en internet y sigue siendo una auténtica desconocida: qué es IETF y por qué es tan influyente fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Esta es la razón por la que los cataclismos cósmicos con agujeros negros nos ayudan a conocer mejor el universo

Esta es la razón por la que los cataclismos cósmicos con agujeros negros nos ayudan a conocer mejor el universo

Esta historia comenzó hace mucho tiempo. Muchísimo, en realidad. Y sus protagonistas son dos de los objetos más enigmáticos que podemos encontrar en el universo. En dos galaxias situadas a aproximadamente 900 millones de años luz de distancia de nosotros dos agujeros negros glotones se zamparon dos estrellas de neutrones con las que coqueteaban desde hacía mucho tiempo, y que finalmente fueron incapaces de resistirse a su tirón gravitatorio.

Esta semana hemos conocido que los grupos de investigación que se encargan del análisis de los datos recogidos por los interferómetros LIGO, en Estados Unidos, y Virgo, en Italia, tienen razones muy sólidas para sospechar que sus experimentos han identificado las ondas gravitacionales producidas por la fusión de dos sistemas binarios constituidos por un agujero negro y una estrella de neutrones.

Einstein estaba en lo cierto: las ondas gravitacionales existen y se manifiestan bajo la forma de perturbaciones que se propagan a través del continuo espacio-tiempo a la velocidad de la luz

No es la primera vez que sucede algo así. Los científicos que trabajan en los observatorios LIGO y Virgo identificaron las primeras ondas gravitacionales observadas por el ser humano en septiembre de 2015 (aunque no anunciaron su descubrimiento hasta febrero de 2016). Ese fue el momento en el que descubrieron que, una vez más, Einstein estaba en lo cierto: las ondas gravitacionales existen y se manifiestan bajo la forma de perturbaciones que se propagan a través del continuo espacio-tiempo a la velocidad de la luz.

Desde entonces los investigadores que se dedican al estudio de las ondas gravitacionales han identificado la colisión de los objetos de varios sistemas binarios constituidos bien por dos agujeros negros, bien por dos estrellas de neutrones.

Sin embargo, lo que hace especialmente interesante el descubrimiento que han dado a conocer hace unos días es que esta observación parece describir la fusión de un sistema binario mixto constituido por un agujero negro y una estrella de neutrones. Y es la primera vez que el ser humano es testigo de este fenómeno cósmico.

Ya tenemos la capacidad de observar los eventos más violentos del cosmos

Las perturbaciones introducidas en la curvatura del continuo espacio-tiempo que ya somos capaces de identificar gracias a los interferómetros láser son el resultado del movimiento de los objetos con masa. La razón por la que los protagonistas de las observaciones de estos experimentos son agujeros negros y estrellas de neutrones consiste en que ambos objetos tienen la masa necesaria para desencadenar un evento extraordinariamente energético capaz de hacer vibrar el tejido mismo del universo.

De lo contrario difícilmente seríamos capaces de identificar las ondas gravitacionales que se han originado a una distancia tan colosal como a la que se han producido los dos eventos de fusión que estamos describiendo en este artículo (aproximadamente 900 millones de años luz). Curiosamente, los investigadores han identificado ambos sucesos de una forma casi simultánea.

Las ondas gravitacionales generadas por la fusión del primer par agujero negro-estrella de neutrones fueron recogidas en los observatorios LIGO y Virgo el pasado 5 de enero de 2020. En este evento estuvieron involucrados un agujero negro con una masa equiparable a la de nueve soles como el de nuestro sistema solar y una estrella de neutrones de 1,9 masas solares.

Las ondas gravitacionales del segundo evento fueron identificadas en estos observatorios pocos días después, el 15 de enero del año pasado, y en esta ocasión los objetos que se fusionaron fueron un agujero negro de seis masas solares y una estrella de neutrones de 1,5 masas solares. Ambos son menos masivos que los objetos de la primera fusión, pero, aun así, el evento fue lo suficientemente energético para que hayamos podido detectar sus ondas gravitacionales casi a mil millones de años luz de distancia.

Agujeronegro

La intensidad de la gravedad en el interior de los agujeros negros es tan alta que el continuo espacio-tiempo se deforma, por lo que el tiempo no transcurre de la misma forma para un observador externo situado relativamente cerca del agujero negro, pero más allá del horizonte de sucesos, que para una persona próxima a esta última región.

Como he mencionado unas líneas más arriba, la razón por la que los protagonistas de estos violentos eventos cósmicos son los agujeros negros y las estrellas de neutrones no es otra que su enorme masa. Un dato que refleja muy bien de qué estamos hablando y que no deja de sorprenderme cada vez que me detengo en él es que un fragmento de un centímetro cúbico de una estrella de neutrones pesa aproximadamente, ni más ni menos, mil millones de toneladas. Es asombroso que un pedacito de materia similar a un terrón de azúcar pueda tener un peso tan monstruoso.

Otros objetos en movimiento mucho menos masivos, como, por ejemplo, los planetas, también interaccionan con el continuo espacio-tiempo produciendo ondas gravitacionales, pero por el momento nuestra tecnología no nos permite detectarlas porque carecen de la energía necesaria para que nuestros interferómetros puedan identificarlas, a pesar de lo sofisticados que son. Lo que recogen estos ingenios es, precisamente, la perturbación que estos eventos introducen en la curvatura del espacio-tiempo, y para que puedan hacerlo debe tener una envergadura mínima.

Las ondas gravitacionales son una ventana al universo

La tecnología que el ser humano ha puesto a punto para identificarlas hizo merecedores del premio Nobel de física de 2017 a Rainer Weiss, Kip Thorne y Barry Barish. Albert Einstein predijo la existencia de las ondas gravitacionales en 1916 como una consecuencia de su teoría general de la relatividad, y hemos tenido que esperar un siglo para confirmar su existencia. Pero el esfuerzo sin duda ha merecido la pena.

Y es que la razón por la que cada nuevo descubrimiento en el que están involucradas las ondas gravitacionales tiene tanta repercusión consiste en que transportan información muy valiosa acerca del evento que las ha originado. Los investigadores se ven obligados a analizar minuciosamente los datos que recogen los interferómetros de Michelson para poder sacar conclusiones fidedignas, pero, afortunadamente, los resultados acaban llegando y suelen acotar mucho la incertidumbre.

Estrellaneutrones

Un fragmento de un centímetro cúbico de una estrella de neutrones pesa aproximadamente mil millones de toneladas. La materia degenerada que la constituye ya no está formada por protones, neutrones y electrones, como la materia ordinaria.

Todo lo que hemos repasado hasta ahora en este artículo nos invita a hacernos una pregunta: ¿qué conocimiento podemos extraer de las ondas gravitacionales producidas por los grandes cataclismos cósmicos, como la fusión de los agujeros negros y las estrellas de neutrones? Lo primero que están identificando los investigadores es la masa de los objetos que están involucrados en estos procesos. De hecho, este es uno de los datos que les permiten averiguar qué cuerpos han colisionado. Pero este es solo el principio.

Los científicos esperan que las ondas gravitacionales nos proporcionen conocimiento acerca de la estructura de la materia y del tejido del espacio-tiempo

Los científicos que están trabajando con las ondas gravitacionales están convencidos de que gracias a ellas conseguirán conocer mejor el proceso de fusión de los objetos ligados en los sistemas binarios, así como la naturaleza tanto de los agujeros negros como de las estrellas de neutrones. Pero esto no es todo.

También están esperanzados ante la posibilidad de que LIGO, Virgo, KAGRA y otros experimentos similares a estos les permitan inferir nuevo conocimiento acerca tanto de la estructura esencial de la materia como del tejido mismo del continuo espacio-tiempo. Podemos estar seguros de que se avecinan nuevos e interesantísimos descubrimientos que solo serán posibles gracias al análisis de las ondas gravitacionales.

Imágenes | NASA Goddard Space Flight Center | NASA/JPL-Caltech | M. Helfenbein, Yale University / OPAC

-
La noticia Esta es la razón por la que los cataclismos cósmicos con agujeros negros nos ayudan a conocer mejor el universo fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Así ha cambiado comprar en AliExpress con la nueva norma del IVA (y por qué no puedes fiarte ahora del precio que aparece en la web)

Así ha cambiado comprar en AliExpress con la nueva norma del IVA (y por qué no puedes fiarte ahora del precio que aparece en la web)

Comprar en AliExpress, o en cualquier otra tienda en internet que opere fuera de la Unión Europea, en adelante puede salirnos un poco más caro. Como os explicamos ayer, hoy ha entrado en vigor el «paquete IVA» con el que la Agencia Tributaria graba las compras realizadas en estos establecimientos on-line que hasta hace unas horas estaban exentas tanto de IVA como de aranceles.

Hasta ahora cualquier compra de menos de 22 euros que realizábamos en estas tiendas no requería pagar el IVA. Si el importe superaba esa cantidad, pero era inferior a 150 euros, se aplicaba el 21% de IVA. Y las compras de 150 euros o más requerían aplicar tanto el IVA como los aranceles. En estas circunstancias las compras pequeñas que quedaban exentas tanto de IVA como de aranceles nos permitían hacernos con auténticos chollos, pero la fiesta acaba de terminar.

AliExpress no ha homogeneizado la forma en que expone el IVA en los artículos que vende, por lo que el precio que aparece junto a los productos no refleja siempre el coste que acabaremos pagando

En AliExpress, y también en otras tiendas, podemos seguir encontrando productos interesantes a precios muy buenos, pero desde hoy compite con las tiendas que operan dentro de la Unión Europea en igualdad de condiciones. Al menos si nos ceñimos a los impuestos vinculados a sus operaciones de venta.

El problema es que esta popular tienda china todavía no ha homogeneizado la forma en que expone el IVA en los artículos que vende (y no sabemos si lo hará en el futuro), por lo que el precio que aparece inicialmente junto a los productos no refleja siempre el coste que acabaremos pagando los compradores. En este artículo os explicamos qué debéis tener en cuenta para no llevaros una sorpresa desagradable al finalizar el proceso de compra.

Aliexpress

Fuera de la sección 'Plaza' AliExpress añade el IVA en el resumen de la compra

El catálogo de esta tienda es enorme. Incluso descomunal. Es inviable llevar a cabo una muestra que nos permita indagar en todas las secciones y en una cantidad de productos realmente significativa, pero después de hacer una cantidad de simulaciones de compra respetable de artículos de varios tipos, en varias secciones y seleccionando varias modalidades de envío, hemos identificado cómo está tratando AliExpress el IVA actualmente.

En aquellas compras que los usuarios llevamos a cabo fuera de la sección 'Plaza' el precio que aparece inicialmente junto a los productos no tiene aplicado el IVA. No importa si el envío se lleva a cabo desde España, desde un país de la Unión Europea, o desde China; el IVA no ha sido añadido. Pero lo pagaremos, claro. Lo que sucede es que AliExpress nos indica cuánto pagaremos por el IVA en el resumen de la compra, justo al final del proceso. Y nos interesa tenerlo en cuenta.

Los auriculares que podéis ver en la siguiente captura ilustran muy bien lo que os estamos contando, pero cualquier otro producto nos serviría para comprobar cómo administra AliExpress el IVA. Tienen un precio inicial de 10,15 euros si seleccionamos el envío gratuito desde China, y, como podéis ver, hasta aquí no hay ni rastro del IVA:

Aliexpress1 1

Si los añadimos a nuestra cesta de la compra e introducimos nuestra dirección, la forma de pago que queremos utilizar y procesamos el pedido, AliExpress nos mostrará el resumen de la compra. Y en él comprobaremos que, como podíamos prever, esta tienda nos va a cobrar 2,13 euros adicionales vinculados al IVA.

Aliexpress1 2

Os proponemos hacer una prueba ligeramente diferente. Ahora vamos a simular la compra de esos mismos auriculares desde fuera de la sección 'Plaza', pero esta vez seleccionaremos el envío desde España. Lo primero que comprobaremos es que su precio se incrementa hasta los 15,77 euros. Además, AliExpress nos adelanta que tendremos que abonar 7,08 euros en concepto de gastos de envío, pero del IVA de momento no hay ni rastro.

Aliexpress2 1

Y una vez más, como podemos esperar, al procesar el pedido y justo antes de formalizarlo y ejecutar el pago, esta tienda nos indica en el resumen de la compra que además de los gastos de envío que nos notificó desde el principio tendremos que pagar 4,79 euros de IVA. El importe total de los auriculares asciende en esta ocasión a 27,65 euros.

Aliexpress2 2

Dentro de la sección 'Plaza' los productos ya tienen el IVA añadido desde el principio

Os proponemos repetir nuestro pequeño experimento, pero esta vez simulando la compra de unos auriculares parecidos a los que hemos elegido en la operación anterior que están disponibles dentro de la sección 'Plaza'. Su precio, como podéis ver, es 12,90 euros, y AliExpress nos indica desde el principio que deberemos pagar 3,51 euros en concepto de gastos de envío. Por el momento del IVA no hay ni rastro.

Aliexpress3 1

Si procesamos el pedido y nos fijamos en el detalle del resumen de la compra veremos que tendremos que pagar los 12,90 euros de los auriculares y los 3,51 euros del envío. El IVA sigue sin aparecer por ninguna parte, pero tiene que estar presente para cumplir con la obligación fiscal contraída con la Agencia Tributaria, por lo que podemos asumir que AliExpress lo ha añadido al precio inicial del producto.

Aliexpress3 2

Como acabamos de comprobar, no hay ningún misterio. Las simulaciones de compra que hemos hecho reflejan que AliExpress ha integrado el IVA dentro del precio inicial de los productos que tiene a la venta en la sección 'Plaza' (que se envían desde España), pero en los que no pertenecen a esta sección suma el IVA al final, cuando estamos a punto de finalizar el pedido y tenemos delante el resumen de la compra.

En este último escenario no importa desde dónde se efectúa el envío. Esto es todo. Es sencillo, pero a los usuarios nos viene bien conocer el «doble rasero» que utiliza esta popular tienda china por el momento para no tener dudas acerca de la cantidad que vamos a pagar por los productos que compramos en ella.

Imagen de portada | Markus Winkler

-
La noticia Así ha cambiado comprar en AliExpress con la nueva norma del IVA (y por qué no puedes fiarte ahora del precio que aparece en la web) fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Si algún día se construye un ordenador cuántico plenamente funcional será gracias en parte a este científico español: hablamos con Ignacio Cirac

Si algún día se construye un ordenador cuántico plenamente funcional será gracias en parte a este científico español: hablamos con Ignacio Cirac

Es imposible no sentirse impresionado cuando tienes delante el currículo de Ignacio Cirac. Este manresano se ha erigido como uno de los padres fundacionales de la computación cuántica, lo que le ha llevado a ser uno de los científicos más citados, y por tanto más relevantes, en su área de investigación. Y también uno de los más premiados.

De hecho, tiene en su poder, entre muchos otros galardones, el Premio Príncipe de Asturias, la Medalla Max Planck y el Premio Wolf, considerado la antesala del Nobel. Se licenció en física en la Universidad Complutense de Madrid, en 1988, y tres años más tarde obtuvo su doctorado gracias a su trabajo en el área de la óptica, que es la rama de la física que analiza las propiedades de la luz.

Ignacio Cirac tiene en su poder, entre muchos otros galardones, el Premio Príncipe de Asturias, la Medalla Max Planck y el Premio Wolf, considerado la antesala del Nobel

Hasta aquí no hay nada en su expediente que no esté al alcance de otras muchas personas con una formación equiparable, pero solo hemos arañado la superficie de su trayectoria profesional. No es necesario que repasemos de forma exhaustiva el periplo que inició después de finalizar su doctorado, pero para formarnos una idea certera del camino que ha seguido hasta llegar al lugar en el que se encuentra hoy nos interesa hacer varias paradas de avituallamiento de carácter biográfico.

Y su lugar hoy está, ni más ni menos, en la dirección de la División Teórica del Instituto Max Planck de Óptica Cuántica alojado en Garching, una localidad apacible situada a pocos kilómetros de Múnich. Sus aportaciones a la teoría que sustenta la computación cuántica son esenciales. De hecho, no es en absoluto exagerado afirmar que Ignacio Cirac es en el ámbito de la computación cuántica lo que los hermanos Wright fueron en el dominio de la aviación. Esta es su historia.

Su inquietud por saciar su curiosidad le colocó en los brazos de la física cuántica

¿Qué te animó a estudiar física y no otra carrera con vocación científica o técnica, como matemáticas o una ingeniería?

La decisión la tomé en el último momento. Yo siempre había querido ser ingeniero. La ingeniería me gustaba mucho, pero también me apasionaba entenderlo todo en profundidad, y pensé que probablemente la física me daba mucha más cancha para poder hacerlo. Así que empecé la carrera, y más adelante, cuando me encontré con la física cuántica y otras asignaturas que también me gustaron mucho, quedé convencido de que había tomado la decisión correcta.

¿Cómo fue tu contacto con la física cuántica durante tu formación como físico? ¿Descubriste enseguida que era una disciplina que te interesaba especialmente o fue un enamoramiento paulatino?

Ignaciociracretrato

Realmente mi contacto más profundo con ella fue durante el tercer año de carrera, y descubrí que era una asignatura que me gustaba mucho por varios motivos. En primer lugar es una asignatura que tiene connotaciones filosóficas, y a mí me gustaba la filosofía. Además, es una teoría muy matemática, y entonces ya me interesaban mucho las matemáticas. Y, por último, es una teoría que nos cuenta de qué estamos hechos, que es algo muy interesante, pero que también tiene aplicaciones.

Conocerla te permite hacer cosas que no puedes abordar sin descubrirla. Esto también me resultó muy atractivo. Durante los primeros años de carrera no tenía muy claro qué camino seguir durante mi especialidad, y en el último momento, cuando me encontré con la física cuántica, quedé convencido de que quería hacer física teórica, que es una de las formas de poder dedicarte a la física cuántica.

Su colaboración con Peter Zoller apuntaló los cimientos de la computación cuántica

Al terminar su doctorado en la misma universidad en la que se licenció, se abrió ante Ignacio Cirac una puerta que temía que permaneciese entornada para él dada la endogamia que está tan arraigada en la universidad española: la posibilidad de dedicarse a la investigación y la docencia como profesor titular en el Departamento de Física Aplicada de la Universidad de Castilla-La Mancha.

No cabía duda de que era una oportunidad que alguien impaciente por investigar no podía pasar por alto, así que en 1991 hizo la maleta y se trasladó a Ciudad Real. Durante los dos años siguientes Ignacio compatibilizó la docencia y la investigación en esta institución educativa, pero en 1993 decidió hacer un alto en el camino para trasladarse a Boulder, en Colorado (Estados Unidos), y hacer su posdoctorado investigando junto al veterano físico austríaco Peter Zoller.

Los caminos de Cirac y Zoller se cruzaron en el Laboratorio de Astrofísica de la Universidad de Colorado en Boulder, y discurrieron juntos durante varios años muy fructíferos. De hecho, la colaboración de estos dos científicos no tardó en fraguar, lo que les llevó a escribir a cuatro manos uno de los trabajos por los que ambos han sido candidatos al Premio Nobel de Física: la descripción teórica del primer ordenador cuántico.

Ignacio Cirac y Peter Zoller se han consolidado como dos de los científicos más citados en su área de investigación

Aquel fue solo uno de los artículos en los que ambos investigadores trabajaron juntos con el objetivo de proponer los fundamentos teóricos de una disciplina, la computación cuántica, que desde ese momento ha experimentado un desarrollo muy notable.

Su trabajo, y el de algunos de sus colaboradores, es el pilar sobre el que empresas estadounidenses como Google, IBM, Honeywell o Intel, la compañía china Alibaba, o el gobierno chino, entre otras organizaciones, han puesto a punto los prototipos de ordenadores cuánticos que tenemos actualmente.

Después de su estancia en Colorado, Cirac regresó a España y retomó sus clases en la Universidad de Castilla-La Mancha hasta que en 1996 aceptó una propuesta de la Universidad de Innsbruck, en Austria, que le permitió dar un nuevo salto hacia delante en su carrera.

Cuanticacompt

El trabajo de Ignacio Cirac, Peter Zoller y otros científicos ha afianzado la base teórica que ha hecho posible la puesta a punto de los ordenadores cuánticos que tienen empresas como Google, IBM, Honeywell o Intel.

Peter Zoller se había formado en esa institución, y poco antes, en 1994, había regresado de Estados Unidos para dirigir el Instituto de Física Teórica. No cabe duda de que la presencia de su colega propició que Cirac decidiese aceptar la oferta y ejercer como profesor en ese mismo instituto.

Durante la segunda mitad de los 90 Cirac y Zoller publicaron junto a otros investigadores decenas de artículos en algunas de las publicaciones científicas más prestigiosas. Algunas de sus principales áreas de trabajo fueron los ordenadores cuánticos basados en trampas de iones, la teoría de la información cuántica, la óptica cuántica o las simulaciones cuánticas.

Las contribuciones de ambos autores en este campo fueron tan relevantes que en poco tiempo Zoller y Cirac se consolidaron como dos de los científicos más citados en su área de investigación. Pero aún aguardaba una nueva oportunidad para el físico español. En 2001 sus aportaciones en el ámbito de la física teórica provocaron que la dirección de la prestigiosísima Sociedad Max Planck se fijase en él para dirigir la División Teórica de su Instituto de Óptica Cuántica.

¿Tenías la ilusión de dedicarte a la docencia y la investigación desde que comenzaste tu formación como físico, o fue una oportunidad que se presentó al finalizar tu doctorado?

Fue al final. No tenía muy pensado qué iba a hacer. De hecho, mientras estaba estudiando la carrera de Físicas empecé a estudiar también Industriales porque no sabía realmente si quería ser físico o ingeniero. Hice la tesis porque, entre otras cosas, pensaba terminar mientras tanto la carrera de Ingeniería Industrial, pero obtuve una beca que me permitía ir al extranjero, y al aceptarla conocí algunos grupos y descubrí que realmente me gustaría dedicarme a la investigación. Fue hacia el final de mi tesis doctoral.

A principios de los 90 tu camino y el de Peter Zoller se cruzaron en Estados Unidos. Juntos habéis dado forma a la base teórica de la computación cuántica, por lo que con todo merecimiento se os considera los padres fundacionales de esta disciplina, pero ¿cuál fue el germen de la computación cuántica? ¿Cómo se te presentó la oportunidad de investigar en una disciplina que entonces era completamente innovadora?

Conocí a Zoller cuando estaba haciendo el doctorado porque me fui a pasar tres meses con él. Durante la carrera tuve la suerte de tener muy buenos profesores de física cuántica, y, entre otras cosas, nos hablaban de las implicaciones más extrañas de esta disciplina, y las entendíamos muy bien. Creo que salí muy bien preparado para poder saltar a un tema nuevo como este. Después, mientras estuve trabajando en mi postdoctorado, empezaron a surgir algunos artículos que no estaban relacionados directamente con la computación cuántica, pero trataban la criptografía cuántica y el teletransporte.

Ese fue el momento en el que me puse a trabajar en estos temas. Pero no fue hasta el año 94, en el que salió el algoritmo de Shor, que es muy importante para los ordenadores cuánticos, cuando Peter Zoller y yo nos dedicamos de lleno a ello. Estábamos trabajando en temas relacionados con la computación cuántica, y por eso no nos quedaba muy lejos, así que fuimos a una conferencia en la que insistieron en la importancia que tendría un ordenador cuántico, pero nadie sabía cómo construirlo. Y tampoco si realmente se podría hacer. Entonces nosotros nos dimos cuenta de que pensábamos que sabíamos cómo construirlo. Ahí empezó todo.

Tuvo que ser un momento muy emocionante al ser conscientes de que teníais ante vosotros algo realmente nuevo y de que podíais realizar una contribución importante…

Desde luego. Hay que tener en cuenta que en el año 94 la computación cuántica era algo muy exótico. Ahora no lo es, pero en aquel momento pensar que ibas a construir un ordenador utilizando los principios de la física cuántica era algo inaudito. Decidimos tomar ese riesgo porque sabíamos que a corto plazo no iba a pasar nada, pero creíamos que a largo plazo podría tener un impacto muy grande. Vimos una oportunidad y nos metimos en ella a fondo.

Ignaciociraccharla

Esta fotografía de Ignacio Cirac ha sido tomada durante una de las conferencias que pronuncia para contribuir a la divulgación de la física cuántica y los principios que hacen posibles los ordenadores cuánticos (autora: Diana Martínez Llaser).

El impacto de buena parte de los artículos que has publicado junto a otros investigadores ha sido muy profundo. ¿Esperabas que tu trabajo tuviese una recepción tan positiva por parte de la comunidad científica? ¿Cómo recibiste ese impacto inicial que te ha colocado como uno de los científicos más citados en tu área de investigación?

La verdad es que nunca me paré a pensarlo. Fue algo que me sobrevino. Estaba trabajando con Peter Zoller y otros colaboradores en temas que creíamos que podrían ser importantes para el futuro, pero no pensamos en el impacto que podrían tener, sino más bien en que era nuestro cometido como investigadores cuyo trabajo se financiaba con dinero público. Cabía la posibilidad de que ese esfuerzo tuviese un impacto positivo en la sociedad.

Lo que hicimos fue reunir el mundo de las teorías abstractas de la computación cuántica, que eran algo muy exótico, con el trabajo de los físicos atómicos, los físicos moleculares, los físicos de óptica… De alguna forma trajimos una gran comunidad asociada a la computación cuántica. Esto fue lo que provocó el impacto. De alguna forma les convencimos de que todo esto tenía interés y de que merecía la pena trabajar en ello.

Su obra habla por él: ha publicado más de 500 artículos científicos

Ignacio Cirac lleva dos décadas al frente del departamento de física teórica del Instituto Max Planck de Óptica Cuántica. Durante todo este tiempo ha seguido desarrollando el trabajo que inició junto a Peter Zoller a mediados de los 90, de modo que la mejor forma de seguir su trayectoria no es otra que revisar los artículos que ha publicado en algunas de las revistas más prestigiosas, como Nature, Physical Review Letters, Advances in Physics o Science, entre otras (aquí tenéis un repositorio en el que podéis echar un vistazo a algunos de ellos).

Ignacio Cirac lleva dos décadas al frente del departamento de física teórica del Instituto Max Planck de Óptica Cuántica

Es innegable que es un investigador muy prolífico, y, además, el hecho de que sea uno de los autores más citados en su campo avala la relevancia que tienen sus estudios. Una de sus especialidades es la teoría del entrelazamiento cuántico, lo que le ha llevado a ser considerado uno de los mayores expertos mundiales en esta materia en particular.

No obstante, sus áreas de interés son muy diversas y abordan materias tan interesantes como son los repetidores cuánticos, la teoría cuántica de la información desde una perspectiva general o los estados cuánticos, entre muchas otras áreas.

Enumerar sus aportaciones más relevantes a la computación cuántica es una tarea casi inabarcable dada la extensión de su trabajo, pero, por citar tan solo un par de ellas, demostró que la manipulación asintótica del entrelazamiento es irreversible, y también cómo se puede identificar la presencia de entrelazamiento en sistemas gaussianos.

Chipcuantico

Cirac ha publicado sus artículos en algunas de las revistas científicas más prestigiosas, como Nature, Physical Review Letters, Advances in Physics o Science.

Todo esto es muy complejo, es verdad. No puede ser de otra forma si nos adentramos en la obra de un científico que ha erigido su carrera sobre una disciplina tan complicada y contraintuitiva como es la mecánica cuántica.

Por esta razón os propongo que volvamos al origen de la investigación de Ignacio Cirac. A mediados de los 90. Y es que en 1995 publicó junto a Peter Zoller el artículo que es unánimemente considerado la piedra angular que soporta el nacimiento de la computación cuántica tal y como la contemplamos actualmente.

En él estos dos científicos proponen, ni más ni menos, cómo se puede construir un ordenador cuántico. Su contenido es complejo, pero, a pesar de ser poco asequible, es el texto que os sugiero consultar si tenéis curiosidad y os apetece echar un vistazo a uno de los artículos clásicos de Cirac. Aquí lo tenéis.

En 1995 Cirac publicó junto a Peter Zoller el artículo que es unánimemente considerado la piedra angular que soporta el nacimiento de la computación cuántica tal y como la conocemos

No obstante, antes de que indaguéis en él merece la pena que dediquemos unos minutos a repasar brevemente cuatro ideas básicas que dan forma a los fundamentos de la computación cuántica y que pueden ayudarnos a acercarnos a los artículos de Cirac. Al fin y al cabo él es uno de los científicos que han contribuido al afianzamiento de estos principios.

El punto de partida que os proponemos para estar mínimamente familiarizados con los ordenadores cuánticos requiere conocer qué es un cúbit, qué es un estado cuántico, qué es la superposición y cómo funciona el entrelazamiento cuántico.

Un cúbit, o bit cuántico, es la unidad mínima de información manipulada por un ordenador cuántico, de la misma forma en que un bit ejerce la misma función en los ordenadores clásicos. Lo sorprendente es que los cúbits, a diferencia de los bits, no tienen un único valor en un momento dado; lo que tienen es una combinación de los estados cero y uno simultáneamente. Pueden tener mucho de estado cero y poco de estado uno. O mucho de estado uno y poco de estado cero. O lo mismo de ambos. O cualquier otra combinación de estos dos estados que se os ocurra.

La física que explica cómo se codifica el estado cuántico de un cúbit es compleja. No es necesario que profundicemos en esta parte para intuir los fundamentos de la computación cuántica, pero sí es interesante que sepamos que el estado cuántico está asociado a características como el espín de un electrón, que es una propiedad intrínseca de las partículas elementales, al igual que la carga eléctrica, derivada de su momento de rotación angular.

Esta idea no resulta intuitiva, pero tiene su origen en uno de los principios fundamentales de la mecánica cuántica conocido como principio de superposición de estados. Y es esencial porque en gran medida explica el enorme potencial que tienen los procesadores cuánticos.

En un ordenador clásico la cantidad de información que podemos codificar en un estado concreto utilizando n bits tiene tamaño n, pero en un procesador cuántico de n cúbits un estado concreto de la máquina es una combinación de todas las posibles colecciones de n unos y ceros.

Cada una de esas posibles colecciones tiene una probabilidad que nos indica, de alguna forma, cuánto de esa colección en particular hay en el estado interno de la máquina, que está determinado por la combinación de todas las posibles colecciones en una proporción concreta indicada por la probabilidad de cada una de ellas.

Como veis, esta idea es algo compleja, pero podemos intuirla si aceptamos el principio de superposición cuántica y la posibilidad de que el estado de un objeto sea el resultado de la ocurrencia simultánea de varias opciones con distinta probabilidad.

Ordenadorcuantico

El entrelazamiento cuántico no tiene un equivalente en la física clásica, y consiste en que el estado de los sistemas cuánticos involucrados, que pueden ser dos o más, es el mismo.

Ya solo nos queda repasar brevemente qué es el entrelazamiento cuántico. Este fenómeno no tiene un equivalente en la física clásica, y consiste en que el estado de los sistemas cuánticos involucrados, que pueden ser dos o más, es el mismo. Esto significa que estos objetos, en realidad, forman parte de un mismo sistema, incluso aunque estén separados físicamente. De hecho, la distancia no importa.

Los cúbits, a diferencia de los bits, no tienen un único valor en un momento dado; tienen una combinación de los estados cero y uno simultáneamente

Si dos partículas, objetos o sistemas están entrelazados mediante este fenómeno cuántico, cuando midamos las propiedades físicas de uno de ellos estaremos condicionando instantáneamente las propiedades físicas del otro sistema con el que está entrelazado. Incluso aunque esté en la otra punta del universo. Suena a ciencia ficción, pero por muy extraño y sorprendente que nos parezca este fenómeno se ha comprobado empíricamente.

Algunos científicos, como el matemático israelí y profesor en Yale Gil Kalai, ponen en duda que en el futuro vayamos a tener ordenadores cuánticos dotados de la capacidad de corregir sus propios errores. ¿Qué opinas acerca de esta previsión? ¿Es imprescindible resolver el reto que plantea implementar la corrección de errores para conseguir que los ordenadores cuánticos se enfrenten a problemas significativos?

No necesariamente. Hay dos caminos. Desarrollar un ordenador cuántico que no tenga errores es muy complicado. No tengo ninguna duda de que va a pasar (en este ámbito no estoy de acuerdo con lo que dice Gil), pero creo que va a tardar mucho tiempo. El otro camino consiste en coger los prototipos que ya tenemos, que son muy pequeños y no funcionan del todo bien porque tienen errores, y hacer con ellos algo que sea significativo.

La primera opción es la más importante porque creo que tendrá un impacto enorme en la sociedad, pero tendremos que esperar. La segunda, sin embargo, es algo que está abierto. Es posible que surjan algunas aplicaciones importantes que sea posible abordar con los prototipos de ordenadores cuánticos que tenemos, o puede que no. Todavía no lo sabemos con certeza, pero creo que merece la pena apostar por ello porque en el caso de que surja alguna podría tener un impacto grande en la sociedad.

¿Cuántos cúbits debe tener un ordenador cuántico dotado de la capacidad de corregir sus propios errores? ¿Hay alguna previsión acerca de cuándo podríamos tener un ordenador cuántico de este tipo?

El número de cúbits dependerá del tipo de problemas que queramos resolver con los ordenadores cuánticos. Para abordar problemas simbólicos necesitaremos tener varios millones de cúbits. Probablemente, incluso, cientos de millones de cúbits. En estos momentos estamos hablando de cien cúbits, por lo que queda un camino largo por recorrer. Hay gente que dice que con 100 000 cúbits tal vez se pueda resolver algún problema específico, pero realmente hacen falta muchísimos cúbits.

«Con 100 000 cúbits tal vez se pueda resolver algún problema específico, pero realmente hacen falta muchísimos cúbits»

El problema es que integrar más es difícil porque las condiciones en las que se tienen que encontrar si utilizamos superconductores son muy extremas. La temperatura debe ser mucho más baja que la que podemos encontrar en cualquier lugar del universo, o bien tienen que estar en un vacío completo. Tendríamos que quitar todos los átomos; todas las moléculas. Esto quiere decir que a la hora de incrementar el número de cúbits tenemos que encontrar la forma de añadirlos manteniendo esa temperatura, y no es fácil.

Estamos ante un desafío tecnológico muy importante. Y en el caso de los iones los problemas con los que nos encontramos son parecidos, o, incluso, más complejos. No cabe duda de que hay una dificultad tecnológica grande, pero no se trata de una imposibilidad. Se está haciendo mucha investigación, y se está intentando salir adelante.

Los ordenadores cuánticos que tenemos actualmente incorporan unas pocas decenas de cúbits. ¿Qué podemos hacer con ellos? ¿Ya nos están ayudando a resolver problemas del mundo real que van más allá de las aplicaciones meramente experimentales?

Por ahora no, pero sabemos que probablemente nos ayudarán a resolver un tipo concreto de problemas de simulación cuántica, que grosso modo consisten en resolver las ecuaciones que aparecen cuando estudiamos materiales con propiedades especiales. Tienen interés en el diseño de materiales exóticos. Sabemos con certeza que en este ámbito los ordenadores cuánticos tienen aplicaciones.

Hay otro caso que es bastante especulativo, pero en el que también podrían tener aplicaciones: en el mundo de la química involucrado en el diseño de fármacos. No está del todo claro que sea así, pero podría serlo. Y también hay otros escenarios aún mucho más especulativos, que son los problemas industriales de optimización. Por supuesto, no digo que sea imposible utilizar en este ámbito los ordenadores cuánticos, pero sí que es muy difícil. En cualquier caso, merece la pena intentarlo.

De lo que me estás explicando se desprende que los ordenadores cuánticos van a tener sus campos de especialización, por lo que deberían convivir en armonía con los superordenadores clásicos que tenemos actualmente…

Los ordenadores cuánticos se dedicarán a los problemas que he mencionado, pero si en algún momento desarrollamos los ordenadores cuánticos sin errores, serán universales. Esto no quiere decir que sean útiles para todo, sino que será posible programarlos y hacer con ellos muchas cosas.

La cuestión es averiguar si eso que podemos hacer lo podrán resolver más rápido que un superordenador clásico. Sabemos que en unos casos sí será así, y en otros no. En cualquier caso, parece razonable pensar que los ordenadores cuánticos convivirán con los superordenadores tanto a corto como a largo plazo.

La comunidad científica celebró por todo lo alto la llegada de la supremacía cuántica

En septiembre de 2019 se filtró en la página web de NASA un artículo científico elaborado por un equipo de investigadores de Google en el que aseguraban haber alcanzado un hito muy anhelado: la supremacía cuántica.

No tardaron en surgir voces discordantes que ponían en duda que realmente hubiesen conseguido materializar este logro (una de las organizaciones más críticas con Google fue IBM), pero después de varias semanas de debate, y tras la publicación en Nature del artículo de Google, la discusión se relajó y el grueso de la comunidad científica aceptó que, efectivamente, la supremacía cuántica había sido alcanzada.

Este hito refleja que un ordenador cuántico ha sido más rápido en la práctica que un ordenador clásico cuando ambos se enfrentan a la resolución de un mismo problema. No obstante, esta definición admite matices. ¿En qué medida debe ser más rápido el ordenador cuántico? ¿Mucho? ¿Basta que lo sea solo un poco?

La idea comúnmente aceptada propone que la máquina cuántica consiga resolver en un plazo de tiempo abarcable un problema que un superordenador clásico resolvería en un plazo de tiempo inasumible dada su extensión.

Googlebristlecone

El equipo de Google dirigido por John Martinis fue el primero que consiguió alcanzar la supremacía cuántica. Unos meses después este hito fue materializado también por un grupo de investigadores chinos liderado por Jian-Wei Pan.

Tanto el equipo de Google dirigido por John Martinis como el grupo de investigadores chinos liderado por Jian-Wei Pan han conseguido alcanzar la supremacía cuántica. A estas alturas ningún investigador relevante parece ponerlo en duda, pero Ignacio Cirac fue uno de los primeros expertos que no dudaron en mojarse y defender pocos días después del anuncio de Google que, efectivamente, los investigadores de esta compañía habían materializado este logro.

¿Cómo recibiste la noticia de que Google había alcanzado la supremacía cuántica? ¿Esperabas que llegase ese hito en el momento en el que lo hizo?

Sí debido a que había muchos rumores previamente. A las personas que trabajamos en este campo no nos sorprendió, pero nos ilusionó porque realmente fue un hito. Se llevaron a cabo muchas demostraciones con prototipos de ordenadores cuánticos anteriormente, pero todas ellas resolvían problemas que podíamos solucionar con más rapidez utilizando un ordenador portátil convencional.

En ese momento vimos por primera vez que hay un problema académico muy concreto sin aplicaciones que un ordenador cuántico podía resolver mucho más rápido que cualquier superordenador que tengamos hoy en día.

A la búsqueda de mejores cúbits y las tan anheladas aplicaciones prácticas

Los prototipos de ordenadores cuánticos que tenemos actualmente tienen un largo camino por delante para consolidarse como una herramienta capaz de ayudarnos a resolver algunos de los grandes problemas a los que nos enfrentamos.

Los mayores desafíos que debemos superar para poner a punto un ordenador cuántico completamente funcional consisten en implementar un sistema de corrección de errores, desarrollar cúbits de más calidad y diseñar nuevas herramientas que nos permitan controlarlos con precisión y llevar a cabo más operaciones lógicas con ellos.

Pero esto no es todo. También necesitamos implementar nuevos algoritmos cuánticos que sean capaces de ayudarnos a abordar los problemas que no podemos resolver con los superordenadores clásicos más potentes que tenemos hoy en día. Precisamente esta es una de las áreas en las que Cirac está trabajando con más ahínco actualmente.

Cirac está trabajando en la búsqueda de aplicaciones prácticas que puedan ser abordadas por los ordenadores cuánticos que tenemos

Está contribuyendo en la búsqueda de aplicaciones prácticas que puedan ser abordadas por los ordenadores cuánticos que tenemos hoy, a pesar de que cometen errores. No basta idear qué podremos hacer con los ordenadores cuánticos que tendremos en el futuro, que con suerte serán inmunes a los errores y nos permitirán hacer muchas más cosas con ellos.

Los investigadores actualmente estáis trabajando en dos formas de implementar los cúbits: con superconductores y con trampas de iones. ¿Cuál de las dos opciones te parece más prometedora? ¿Qué retos plantea el desarrollo de cúbits de más calidad?

A largo plazo no lo sabemos. Es posible que ninguna de estas dos formas de implementar los cúbits sea la óptima, y que lo sea otra diferente. Hay un desarrollo tecnológico tan importante que cabe la posibilidad de que otras tecnologías que quizá están más atrasadas actualmente puedan avanzar. Si nos ceñimos al corto plazo, a los prototipos que tenemos con errores, yo diría que cada una de estas dos tecnologías tiene su potencial.

Probablemente los cúbits superconductores nos ayudarán a tener más cúbits, pero creemos que tendrán más errores que los cúbits de iones. También hay una tercera tecnología, los átomos neutros, en la que están trabajando varios grupos de investigación y que está consiguiendo reunir más cúbits manteniendo la exactitud y la falta de errores de los otros sistemas. Espero que muy pronto consigamos desarrollar tecnologías más avanzadas que consigan superar a las que tenemos hoy en día.

Desde fuera del ámbito académico da la sensación de que el desarrollo de la computación cuántica se está acelerando. ¿Es realmente así?

Sí, desde luego. Se está acelerando muchísimo, sobre todo debido a la entrada de la industria. Para algunos gobiernos es una prioridad nacional tener acceso a los ordenadores cuánticos lo antes posible, o, al menos, al mismo tiempo que los demás países. La Unión Europea, Estados Unidos, China, Australia o Japón son algunos de los países que están financiando la investigación en esta área, pero lo más importante es que la industria tecnológica se ha metido de una forma ambiciosa.

Google, IBM, Amazon, Microsoft o Intel son algunas de las empresas que están trabajando en computación cuántica, y sus recursos aceleran mucho más el desarrollo que si solo contásemos con varios laboratorios en los que investigan unas pocas decenas de estudiantes.

De alguna forma percibo un cierto paralelismo entre la computación cuántica y la fusión nuclear. Ambas innovaciones se apoyan en una base teórica muy sólida, pero llevarlas a la práctica nos obliga a enfrentarnos a desafíos tecnológicos casi titánicos. ¿Te parece una comparación acertada?

Sí, así es. Lo único es que los desafíos son un poco distintos. En el caso de la fusión nuclear necesitas una gran instalación con muchos elementos funcionando de manera sincronizada, mientras que un ordenador cuántico es algo más pequeño. Es algo que se puede hacer en muchos sitios. En el fondo estoy de acuerdo contigo, por lo que las diferencias entre estas dos innovaciones residen en los detalles.
«Los científicos somos muy cautelosos. Estamos entusiasmados con el momento que estamos viviendo, pero somos muy cautelosos para no levantar falsas expectativas»
Aun así, tenemos que ser realistas y pensar que aunque tenemos un entusiasmo tremendo, especialmente después de los últimos anuncios que se han hecho, como la llegada de la supremacía cuántica, posiblemente no se van a cubrir nuestras expectativas. Todo lo que se está prometiendo hoy en día no se va a cumplir en el corto plazo, por lo que tenemos que ir pensando qué vamos a hacer cuando veamos que todas esas promesas quizá no ocurren en el plazo de tiempo que tenemos en mente. Los científicos somos muy cautelosos. Estamos entusiasmados con el momento que estamos viviendo, pero somos muy cautelosos para no levantar falsas expectativas.

Tenemos un aparato extraordinario que está basado en unas ideas muy extrañas. Es algo realmente fantástico. Mágico. Difícil de entender. Pero no funciona del todo bien, y tenemos que tener mucha paciencia para mejorarlo y descubrir cómo podemos utilizarlo. Temo que si hacemos promesas que no están lo suficientemente justificadas se produzcan grandes decepciones no solo por parte de los gobiernos y la industria, sino también por parte de la sociedad. No me gustaría que por esta razón perdamos la gran oportunidad que tenemos delante.

Ordenadorcuanticoap

Ignacio Cirac no disimula su entusiasmo ante el estado de desarrollo que ha alcanzado la computación cuántica actualmente, pero recalca que es esencial no generar falsas expectativas y seguir trabajando duro para resolver los muchos desafíos que esta disciplina ha colocado ante nosotros.

¿Cuál es tu cometido como director del Instituto Max Planck de Óptica Cuántica? ¿Cuál es tu área de investigación actualmente?

Mi área de trabajo desde un punto de vista general es la física cuántica, y lo que nos interesa es ver qué podemos construir utilizando las leyes de la física cuántica que no podemos conseguir con las leyes de la física clásica. Los ordenadores cuánticos son un ejemplo de dispositivo que cumple esta premisa, pero también se pueden hacer otras cosas.

También nos interesa conocer qué podemos hacer con un ordenador cuántico. No sabemos qué podemos hacer ni con los prototipos que tenemos actualmente, ni con los que construiremos en el futuro. Sabemos resolver algunos problemas, pero no hay tantos, y por esta razón estamos buscando otras aplicaciones de los ordenadores cuánticos. Y, por último, nuestro equipo también está haciendo un gran esfuerzo para buscar en la computación cuántica la inspiración que necesitamos para resolver problemas utilizando ordenadores clásicos.

El futuro de la computación cuántica, en manos de una cantera de jóvenes investigadores

Acabas de mencionar que la física cuántica os está permitiendo desarrollar otras innovaciones más allá de los ordenadores cuánticos. ¿En qué estáis trabajando que no sería posible utilizando las leyes de la física clásica?

Se puede utilizar la física cuántica para hacer criptografía cuántica, y también para establecer comunicaciones más eficientes que persiguen enviar más información con menos datos. Otro campo también muy interesante es la metrología, que nos permite tomar medidas muy precisas.

Puede emplearse, por ejemplo, para medir un campo magnético que está cerca de las células porque te permite identificar la actividad de algunos órganos. O puedes ver si hay petróleo sin tener que hacer un agujero midiendo las perturbaciones en el campo gravitacional. Incluso puede utilizarse la física cuántica para construir relojes más precisos que mejoren las prestaciones de nuestros sistemas GPS.

¿Qué opinas acerca de la cantera de jóvenes investigadores que están desarrollando su carrera en el ámbito de la computación cuántica? ¿Te ilusiona el potencial de los investigadores con los que contáis en el instituto y el impacto que posiblemente tendrán en el desarrollo de esta disciplina?

Sí, mucho. La computación cuántica está atrayendo mucho talento; un talento que es difícil encontrar en otros campos. Atrae a los mejores estudiantes, a la gente más original… Es un placer trabajar con los investigadores jóvenes, y les auguro un porvenir muy bueno siempre y cuando no tengamos el problema que he mencionado antes: que este campo no cumpla las expectativas, dejemos de ser importantes y todo este talento que estamos generando, y que será muy relevante a largo plazo, lo perdamos.

La Unión Europea, una potencia científica rezagada en el ámbito industrial

¿Cuáles son en tu opinión las grandes potencias actualmente en computación cuántica? ¿Cuál es el papel de China en esta disciplina? ¿Y qué rol tiene la Unión Europea? ¿Se ha quedado rezagada frente a China y Estados Unidos?

Desde un punto de vista científico, no. Europa y Estados Unidos han liderado la computación cuántica, y también todo lo relacionado con la física cuántica. Sin embargo, sí nos hemos quedado rezagados en la parte industrial implicada en la construcción de los ordenadores cuánticos. La principal razón es que en Europa no existe tanto emprendimiento. No hay tantas industrias tecnológicas como en Estados Unidos.

«Europa y Estados Unidos han liderado la computación cuántica, y también todo lo relacionado con la física cuántica»

En el caso de China el gobierno se dio cuenta muy pronto de que esto era algo estratégico para él e hizo unas inversiones inmensas en computación cuántica. Y esto le ha permitido hacer algunos avances importantes que son difíciles de alcanzar de otra forma, por ejemplo, en criptografía cuántica. Hay varios escenarios en los que China ha conseguido avanzar a base de recursos y fuerza bruta.

En Alemania, que es el país que me queda más cerca, hay una gran inversión en computación cuántica. También se ha tomado como un tema prioritario, y cada vez hay más empresas interesadas en trabajar en esta área y en ver si hay posibilidades de obtener beneficios, aunque sea a largo plazo. En cualquier caso, es un tema complejo debido a que son muchas las variables que propician la inversión en esta disciplina, como la competitividad, la productividad o la presencia de una regulación que la respalde, entre otros factores.

A modo de colofón y como resumen de nuestra conversación, ¿cuáles son en tu opinión los grandes retos que tiene por delante la computación cuántica? ¿Cómo será el futuro hacia el que nos encaminaremos cuando los primeros ordenadores cuánticos plenamente funcionales estén disponibles?

En mi opinión los desafíos a corto plazo son dos. Por un lado conseguir que los prototipos que tenemos sean mejores y más grandes, y, por otra parte, encontrar aplicaciones y problemas que podamos resolver con ellos.

Cuando tengamos un ordenador cuántico escalable, algo que probablemente sucederá dentro de muchos años, tendrá un gran impacto en la sociedad. Cuando a lo largo de la historia se han producido descubrimientos de esta envergadura su impacto ha sido impredecible. Auguro que va a suceder algo parecido.

Si repetimos esta entrevista dentro de veinte años y los ordenadores cuánticos están aquí, diremos «jamás habíamos pensado que servirían para esto y esto otro». Cuando en los años 40 empezamos a construir los primeros ordenadores clásicos, que eran gigantescos, nadie imaginó que llegaríamos a tener ordenadores personales, y fíjate ahora dónde estamos.

Imagen de portada: Andreas Heddergott - TUM

Imagen interior (conferencia de Ignacio Cirac): Diana Martínez Llaser -     Exactas UBA

-
La noticia Si algún día se construye un ordenador cuántico plenamente funcional será gracias en parte a este científico español: hablamos con Ignacio Cirac fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Huawei Watch 3, primeras impresiones: HarmonyOS 2 es solo una de las razones por las que este es el mejor ‘smartwatch’ de Huawei

Huawei Watch 3, primeras impresiones: HarmonyOS 2 es solo una de las razones por las que este es el mejor 'smartwatch' de Huawei

Tenía ganas de probar este reloj inteligente desde que Huawei lo dio a conocer oficialmente, a principios de este mes de junio. Y es que aglutina suficientes novedades para atrapar la atención incluso de los aficionados más escépticos ante los nuevos lanzamientos. Probablemente sus características más llamativas son la integración de HarmonyOS 2.0, y también la presencia de conectividad 4G a través de una tarjeta SIM virtual (eSIM).

Sin embargo, también tiene otras características que lo desmarcan con mucha claridad de sus predecesores. Respeta a pies juntillas la vocación de complemento deportivo que está tan presente en los relojes inteligentes de Huawei desde su nacimiento, pero este Watch 3 llega con una dotación de sensores más ambiciosa, una nueva interfaz y la posibilidad de acceder a AppGallery, la tienda oficial de aplicaciones de Huawei, entre otras novedades.

Huawei Watch 3: especificaciones técnicas

huawei watch 3

características

pantalla

AMOLED de 1,43" (466 x 466 puntos), 326 ppp, 60 Hz y 1000 nits

procesador

HiSilicon Hi6262

memoria principal

2 GB

almacenamiento

16 GB

sistema operativo

HarmonyOS 2.0

conectividad

4G (eSIM)

NFC

Bluetooth 5.2

Wi-Fi 802.11n

sensores

Acelerómetro, giroscopio, ritmo cardiaco, barómetro, brújula digital, SpO2 y termómetro

funciones de medición y auxiliares

Frecuencia cardiaca, estrés, sueño, sensor de temperatura de la piel, detección de caídas automática, llamada de emergencia y SpO2

100 modos deportivos, 17 profesionales y 85 personalizados

resistencia al agua

Hasta 5 atmósferas

batería

450 mAh

Hasta 14 días (modo de bajo consumo)

Hasta 3 días (con conectividad 4G)

dimensiones

46,2 x 46,2 x 12 mm

peso

54 g

precio

369 euros

HUAWEI Watch 3 Active + Freebuds 3 Negro - Smartwatch 4G con pantalla táctil 1.43'' AMOLED, eSIM para llamadas telefónicas sin móvil, 3 días de batería, 24/7, GPS Incorporado, Negro

HUAWEI Watch 3 Active + Freebuds 3 Negro - Smartwatch 4G con pantalla táctil 1.43'' AMOLED, eSIM para llamadas telefónicas sin móvil, 3 días de batería, 24/7, GPS Incorporado, Negro

Su diseño es más estilizado que nunca, y su construcción está tan cuidada como siempre

Al acabado de este smartwatch no puedo ponerle ninguna pega. Su caja completamente metálica está impecablemente mecanizada, y el vidrio que protege la pantalla AMOLED transmite solidez y está encastrado en ella con precisión. Su construcción es decididamente de primera división.

Si nos ceñimos a su diseño este reloj inteligente toma un rumbo diferente al de sus predecesores. Y se agradece no porque los anteriores dispositivos de esta familia no tengan una estética cuidada, que la tienen, sino debido a que arriesga y consigue ser aún más estilizado que los otros Watch. Un apunte interesante: como podéis ver en la siguiente fotografía, el bisel que cerca la esfera en otros modelos ha sido eliminado de este Watch 3.

Huaweiwatch3diseno1

Al igual que en cualquier otro smartwatch, el componente al que recurriremos para actuar sobre su comportamiento con más frecuencia es la pantalla táctil, pero, además, incorpora un botón lateral y una corona giratoria con la que podemos actuar sobre algunas funciones y ajustar el volumen, entre otras opciones. Un detalle interesante: cuando utilizamos la corona el reloj nos ofrece un estímulo háptico a través de la caja.

Huaweiwatch3diseno2

La correa de la versión que hemos tenido la oportunidad de probar es de silicona, por lo que puede mojarse sin problema. En mi opinión esta es la correa ideal para quien necesita utilizar este smartwatch para practicar deporte con él.

Este reloj inteligente incorpora un ingenioso mecanismo que le ayuda a evacuar el agua que puede acumularse en su interior si lo mojamos

Curiosamente, los cuatro orificios que podéis ver en la siguiente imagen ligeramente por debajo de la corona y el botón lateral no sirven solo para proyectar el sonido hacia el exterior de la caja; también permiten evacuar el agua que puede acumularse en su interior, como veremos más adelante.

Huaweiwatch3dseno3

HarmonyOS 2 toma ideas de la competencia

La información que nos presenta este smartwatch cuando giramos nuestra muñeca para desencadenar el encendido de la pantalla y cómo nos la presenta varía sensiblemente en función de la esfera que elijamos. La muestra que hemos probado incorpora 30 esferas diferentes preinstaladas, pero es posible descargar más diseños desde la tienda Watch Face Store de Huawei accediendo a ella desde la app Salud que previamente habremos instalado en nuestro teléfono móvil.

Huaweiwatch3os1

¿Os recuerda a algo la interfaz que podéis ver en la siguiente fotografía? No cabe duda de que se parece mucho a la de los Apple Watch. En cualquier caso, no importa de dónde han tomado la inspiración los diseñadores de Huawei; lo realmente relevante es que este diseño nos permite encontrar la app que buscamos con rapidez. Y si giramos la corona cuando nos encontramos oteando las apps aplicaremos a los iconos un zoom para acercarnos o alejarnos de ellos, consiguiendo de esta forma que entren más o menos en la pantalla.

Huaweiwatch3os2

La pantalla que aparece cuando deslizamos nuestro dedo desde la parte superior del panel hacia la inferior nos depara una sorpresa: la función 'Drenar'. Podéis verla en el extremo superior derecho de la siguiente fotografía. Sirve para evacuar el agua hacia el exterior de la caja del reloj expulsándola por los cuatro orificios en los que hemos reparado unos párrafos más arriba. No cabe duda de que es una solución ingeniosa.

Huaweiwatch3os3

Como he mencionado en los primeros párrafos de este artículo, este reloj inteligente nos permite instalar una tarjeta SIM virtual que lo dota de conectividad 4G. Si la tenemos, entre otras cosas, podemos hacer llamadas directamente desde el smartwatch y sin necesidad de tener con nosotros nuestro teléfono móvil. Si no la tenemos también podemos hacerlas, pero en este caso el reloj tendrá que estar vinculado al smartphone a través de un enlace Bluetooth.

Huaweiwatch3os4

Este reloj inteligente nos propone más sensores biométricos que sus predecesores

Los fabricantes de smartwatches siguen ingeniándoselas para integrar más sensores en sus dispositivos, y es una estrategia interesante porque muchos usuarios apreciamos tener acceso a la información que recogen, sobre todo si practicamos deporte con asiduidad. Una de las novedades que incorpora el nuevo Watch 3 en este ámbito es un sensor diseñado para medir la temperatura superficial de nuestra piel.

Huaweiwatch3sens1

El sensor diseñado para medir la presión atmosférica es un viejo conocido que no podía faltar en el nuevo reloj inteligente de Huawei. Este artículo solo es una primera toma de contacto con este dispositivo, pero estamos preparando un análisis más profundo en el que intentaremos evaluar la precisión con la que recogen las medidas los sensores de este smartwatch.

Huaweiwatch3sens2

Para medir el ritmo cardiaco este reloj inteligente recurre a un diodo LED y cuatro fotorreceptores que capturan la luz reflejada por nuestro organismo. Según Huawei sus ingenieros han puesto a punto una nueva versión de su algoritmo TruSeen para monitorizar con más precisión nuestra frecuencia cardiaca, algo importante para aquellos usuarios que van a utilizarlo para practicar ejercicio con cierta intensidad.

Huaweiwatch3sens3

Otro sensor interesante en tiempos de una pandemia que desencadena afecciones respiratorias, entre otros posibles problemas de salud: la medición del nivel de oxígeno en sangre. Este reloj inteligente nos propone la posibilidad de monitorizar nuestros niveles de oxígeno en sangre durante todo el día si lo deseamos.

Huaweiwatch3sens4

El parámetro VO2 máx refleja la cantidad máxima de oxígeno que nuestro organismo puede absorber y consumir en un lapso de tiempo concreto mientras llevamos a cabo una actividad física cuya intensidad se incrementa a lo largo del tiempo. Es útil porque nos ayuda a conocer nuestra capacidad aeróbica. Cuanto mayor sea este valor mayor será también nuestra capacidad cardiovascular.

Huaweiwatch3sens7

Es más estilizado, pero sigue siendo un 'smartwatch' con vocación deportiva

Las herramientas que este reloj inteligente pone a nuestra disposición si queremos utilizarlo para practicar deporte son aún más numerosas que en los anteriores dispositivos de la familia Watch de Huawei. No solo nos ayuda a planificar nuestros entrenamientos con mucha precisión; también recoge nuestro rendimiento en multitud de tablas y gráficos que pueden resultarnos muy útiles para evaluar nuestra progresión. Esta información está disponible tanto en el propio smartwatch como a través de la app Salud que previamente habremos instalado en nuestro teléfono móvil.

Huaweiwatch3deporte1

El botón inferior adosado al lateral derecho de la caja del reloj nos permite acceder a multitud de programas de entrenamiento: correr en cinta, correr al aire libre, caminar al aire libre, usar una bicicleta fija, nadar en piscina, nadar en aguas abiertas, senderismo, esquí, snowboard, esquí de fondo, etc. Este es el smartwatch de Huawei que incorpora el abanico más amplio de planes de entrenamiento.

Huaweiwatch3deporte4

En este artículo de primeras impresiones no podemos ofreceros medidas precisas de su autonomía, pero, por supuesto, en el análisis a fondo que estamos preparando sí las tendréis. Huawei nos promete que en un escenario de uso real y utilizando la conectividad 4G la batería dura 3 días aproximadamente, pero activando el modo de batería de duración ultra larga la autonomía, siempre según Huawei, se extiende hasta los 14 días.

No obstante, hay algo más. Los responsables de esta marca en España nos han confirmado que durante las próximas semanas lanzarán varias actualizaciones del firmware de este smartwatch que dilatarán aún más su autonomía y refinarán otras características del reloj. Confiamos en que con un poco de suerte la primera de ellas llegue mientras preparamos el análisis a fondo de este reloj inteligente para poder evaluar su impacto.

HUAWEI Watch 3 Active + Freebuds 3 Negro - Smartwatch 4G con pantalla táctil 1.43'' AMOLED, eSIM para llamadas telefónicas sin móvil, 3 días de batería, 24/7, GPS Incorporado, Negro

HUAWEI Watch 3 Active + Freebuds 3 Negro - Smartwatch 4G con pantalla táctil 1.43'' AMOLED, eSIM para llamadas telefónicas sin móvil, 3 días de batería, 24/7, GPS Incorporado, Negro

Este smartwatch ha sido cedido para este artículo por Huawei. Puedes consultar nuestra política de relaciones con las empresas.

Más información | Huawei

-
La noticia Huawei Watch 3, primeras impresiones: HarmonyOS 2 es solo una de las razones por las que este es el mejor 'smartwatch' de Huawei fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Estamos más cerca de resolver uno de los mayores desafíos de la fusión nuclear: la estabilización del plasma a 150 millones de ºC

Estamos más cerca de resolver uno de los mayores desafíos de la fusión nuclear: la estabilización del plasma a 150 millones de ºC

Para que el reactor de DEMO (DEMOnstration Power Plant) consiga demostrar la viabilidad comercial de la fusión nuclear durante la década de los 50 es imprescindible que los técnicos logren resolver varios retos. Uno de los de mayor envergadura consiste en desarrollar los materiales que será necesario utilizar en la construcción del reactor nuclear de DEMO. Este es el desafío al que se enfrenta el proyecto IFMIF-DONES (International Fusion Materials Irradiation Facility DEMO-Oriented NEutron Source).

El otro gran escollo que pone ante nosotros esta forma de obtención de energía requiere que encontremos la manera de estabilizar el plasma que actúa como combustible para evitar que degrade el manto, la cámara de vacío y otros componentes del reactor. Lograrlo sin mermar el rendimiento de la reacción de fusión nuclear no es sencillo, especialmente si tenemos presente que la interacción entre los núcleos de deuterio y tritio que contiene el plasma tiene lugar a una temperatura cercana a los 150 millones de grados centígrados.

Estabilizar la sopa de partículas que contiene el plasma a 150 millones de grados centígrados sin degradar el rendimiento de la reacción es un auténtico desafío

Actualmente varios grupos de investigación están trabajando en esta área, y la afrontan utilizando varias estrategias diferentes. Uno de los descubrimientos recientes más interesantes nos invita a ser moderadamente optimistas debido a que los núcleos de helio-4 ionizados que resultan de la fusión de los núcleos de deuterio y tritio, junto al neutrón que sale despedido hacia las paredes del contenedor con una energía de unos 14 MeV, tienen un efecto estabilizador sobre la zona periférica del plasma.

Un grupo de investigadores del MIT también ha realizado una contribución muy interesante en esta área. Propone utilizar en los imanes del reactor un nuevo material superconductor conocido como YBCO (Yttrium-Barium-Copper Oxide) que combina óxido de itrio, bario y cobre, y que persigue generar un campo magnético sensiblemente más intenso que el que producen los imanes convencionales. Y hace tan solo unos días el MIT, Princeton y otras instituciones estadounidenses nos han sorprendido con una contribución conjunta que aspira a marcar la diferencia en las estrategias de estabilización del plasma.

El modo Super-H puede ayudarnos a resolver uno de los grandes retos de la fusión nuclear

Los modelos con los que trabajan los investigadores reflejan que una manera eficaz de evitar que la altísima temperatura del plasma dañe el manto, que es la cobertura interior de la cámara de vacío, y, sobre todo, el divertor, que es la estructura de acero y tungsteno que da forma a la base de la cámara de vacío, consiste en refrigerar sus capas externas. El problema es que no es fácil hacerlo sin degradar perceptiblemente la reacción de fusión que tiene lugar en el núcleo del gas.

El modo Super-H propone incrementar la temperatura y la presión en las capas más externas del plasma para provocar que la producción de energía en la región interior sea mayor

El modo Super-H propone incrementar la temperatura y la presión en las capas más externas del plasma para provocar que la producción de energía en la región interior sea mayor. Pero hacerlo requiere refrigerar la zona del gas más próxima al divertor. Los investigadores han intentado hacerlo inyectando gases en el plasma que ejercen el efecto refrigerante buscado, pero han tropezado con un problema: estos gases acaban siendo transportados desde la región exterior hacia el núcleo del gas, y el rendimiento de la reacción se degrada perceptiblemente.

Divertor

El enorme componente que podemos ver en esta fotografía es solo una de las 54 piezas idénticas que dan forma a la base de la cámara de vacío del reactor. El divertor soporta el bombardeo de los neutrones de alta energía del plasma, transformando su energía cinética en calor.

Afortunadamente, hace unos días han comunicado que han dado con una solución muy prometedora a este desafío que consiste en inyectar nitrógeno en el plasma, actuando simultáneamente sobre el campo magnético generado por los imanes del reactor para controlar la forma del gas y atenuar su impacto sobre el divertor. Esta estrategia tiene un efecto refrigerante en la periferia del plasma sin degradar significativamente el rendimiento de la reacción en el núcleo del gas.

Los responsables de ITER han recibido esta noticia con los brazos abiertos debido a que este enfoque puede tener un impacto muy positivo en la puesta a punto del reactor de fusión nuclear que está siendo construido en la localidad francesa de Cadarache. No obstante, es probable que los reactores de fusión comerciales que, en teoría, llegarán después de DEMO, combinen varias de las estrategias de estabilización del plasma de las que hemos hablado en este artículo. Y, quizá, alguna más que posiblemente está por llegar. La fusión nuclear sigue su curso con un propósito claro: afrontar su incursión comercial en la década de los 60.

Imágenes | General Atomics | ITER

Más información | General Atomics

-
La noticia Estamos más cerca de resolver uno de los mayores desafíos de la fusión nuclear: la estabilización del plasma a 150 millones de ºC fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El mayor experimento científico evolutivo realizado hasta ahora nos demuestra que la vida se abre camino a toda costa

El mayor experimento científico evolutivo realizado hasta ahora nos demuestra que la vida se abre camino a toda costa

La vida aprovecha cualquier oportunidad, por nimia que sea, para seguir adelante y perpetuarse. Y por muy agresivo que sea el medio en el que se esté desarrollando. Los experimentos que los científicos han realizado durante décadas, y también la observación de la naturaleza, nos muestran la excepcional capacidad de adaptación al medio ambiente que tienen muchos organismos, y esta habilidad tiene su origen en un mecanismo que conocemos bien: las mutaciones.

A grandes rasgos, una mutación es una alteración en la secuencia de los nucleótidos que conforman el genoma de un organismo. Este error puede tener lugar de forma espontánea durante la replicación de las moléculas de ADN, pero también puede producirse debido a la exposición de estas moléculas a algunos agentes externos que tienen la capacidad de dañarlas, como, por ejemplo, la radiación ionizante, entre otros factores en los que no indagaremos para no complicar este artículo más de lo imprescindible.

Algunas mutaciones tienen la facultad de conferir ventajas evolutivas a los organismos en los que se producen, facilitando su adaptación al medio

Esta explicación parece invitarnos a pensar que las mutaciones son perjudiciales para los organismos, pero, en realidad, no siempre es así. Algunas mutaciones no tienen ninguna trascendencia; otras, efectivamente, pueden desencadenar procesos perjudiciales para el organismo en el que han tenido lugar; y unas pocas tienen la facultad de conferir ventajas evolutivas a ese organismo. Estas últimas normalmente se manifiestan bajo la forma de una mayor capacidad de adaptación al medio ambiente.

El papel que han tenido las mutaciones en la evolución de los seres vivos está fuera de toda duda desde hace mucho tiempo. Y, por supuesto, explican la evolución que nosotros hemos experimentado como especie desde nuestros ancestros. Pero para comprender su alcance, entender sus mecanismos más íntimos y descubrir su impacto en las grandes poblaciones es preciso seguir investigando. Estos son, precisamente, los objetivos que tiene el experimento LTEE (Long-term Experimental Evolution) en el que vamos a indagar en los próximos párrafos.

El LTEE ya ha superado las 74 500 generaciones

Richard Lenski es profesor de ecología microbiana en la Universidad del Estado de Míchigan. En 1988 se le ocurrió poner en marcha un experimento que le permitiese analizar el impacto que tienen las mutaciones en las alteraciones del genoma de las bacterias E. coli (Escherichia coli), que se encuentran, por ejemplo, en nuestro tracto gastrointestinal debido a que contribuyen al proceso digestivo.

Su propósito era presenciar cómo se desarrollan las mutaciones a medida que van surgiendo nuevas generaciones de bacterias, y en qué medida representan una ventaja evolutiva para estos diminutos microorganismos. La elección de la E. coli no fue casual. Y es que estas bacterias desarrollan seis o siete nuevas generaciones cada día, por lo que son perfectas para analizar las alteraciones genéticas que se van produciendo y el impacto que tienen en su capacidad de adaptación al medio en el que se encuentran.

Durante los 33 años que han transcurrido desde que Lenski inició su experimento, las 12 colonias de bacterias que mantiene en renovación permanente han dado lugar a nada menos que 74 500 generaciones. Las mutaciones se producen con muy poca frecuencia, por lo que aproximadamente solo una de cada mil bacterias sufre una mutación, pero esta reducida tasa no representa un problema debido a que en este experimento participan varios miles de millones de bacterias. Y esta dimensión tiene una consecuencia: cada día se producen cerca de un millón de mutaciones.

Por esta razón, el desarrollo que han experimentado las bacterias E. coli durante el experimento de Lenski, en el que ha regido la selección natural, equivale aproximadamente a 1,5 millones de años de evolución humana. Ahí es nada. Como podemos imaginar, este científico y sus colaboradores están obteniendo información muy valiosa gracias a este experimento tan longevo. Pero la conclusión más relevante a la que han llegado, como el mismo Lenski defiende, es que la evolución nunca se detiene. Ni siquiera aunque la presión ambiental cese. Y nosotros, afortunadamente, no somos inmunes a ella.

Imagen de portada | Pixabay

Más información | Universidad del Estado de Míchigan

-
La noticia El mayor experimento científico evolutivo realizado hasta ahora nos demuestra que la vida se abre camino a toda costa fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El fútbol y otros deportes pueden verse mejor en nuestros televisores: estos son los ajustes que nos ayudarán a conseguirlo

El fútbol y otros deportes pueden verse mejor en nuestros televisores: estos son los ajustes que nos ayudarán a conseguirlo

La Eurocopa de 2021 está a punto de arrancar, y, como sucede en todos los campeonatos de fútbol, nuestro televisor reclama todo el protagonismo. Por esta razón es un momento perfecto para que nos planteemos si realmente le estamos sacando el máximo partido. Y es que nuestra experiencia no está solo en manos de los jugadores de la selección por la que nos sentimos representados; también depende de la fidelidad con que nuestro televisor traslada este evento hasta nuestro salón.

Nuestro margen de maniobra cuando nos proponemos que el fútbol y otros deportes se vean mejor en uno de los electrodomésticos en los que más dinero invertimos, y al que más tiempo dedicamos, no nos permite obrar milagros. Aun así, los televisores modernos incorporan varios parámetros que, cuando son correctamente manipulados, pueden mejorar su rendimiento al reproducir imágenes deportivas de una forma claramente perceptible.


Leer más

El impacto de la crisis de los semiconductores en el mercado del PC, su futuro, el reinado del ‘gaming’ y más: hablamos con Emmanuel Fromont, presidente de Acer EMEA

El impacto de la crisis de los semiconductores en el mercado del PC, su futuro, el reinado del 'gaming' y más: hablamos con Emmanuel Fromont, presidente de Acer EMEA

El mercado del PC está atravesando un momento de forma fantástico. Según la consultora IDC durante el primer trimestre de 2021 ha crecido un 55% si lo comparamos con el mismo periodo del año anterior. Es una auténtica bestialidad. La pandemia ha provocado que muchos usuarios decidan renovar o ampliar su equipamiento para trabajar o estudiar desde casa, y esta tendencia está teniendo un impacto positivo en las arcas de los fabricantes de ordenadores.

Sin embargo, no todo son parabienes. Y es que la gran demanda de equipos entra en conflicto con la escasez de componentes provocada por la crisis de los semiconductores. Es evidente que el mercado del PC no puede ser inmune a un déficit que mantiene tensionadas varias industrias con un enorme peso específico en la economía de muchos países, como, por ejemplo, la industria automovilística.

Para reflexionar acerca de todo esto, y también de muchas otras cosas interesantes, hemos tenido la ocasión de hablar con Emmanuel Fromont, vicepresidente corporativo de Acer y presidente de Acer EMEA. Este ejecutivo es de los que se mojan, y nuestra conversación con él, al igual que la que mantuvimos el año pasado, nos ha ayudado a entender cómo afronta una gran empresa como la suya los muchos retos que plantea el mercado del PC no solo ahora, sino también en el futuro inmediato.

El mercado del PC está en un estado de forma muy bueno, y Acer confía en que dure

El mundo ha cambiado mucho desde que mantuvimos nuestra última conversación. ¿En qué se diferencia la Acer de antes de la enfermedad COVID-19 de la compañía que es hoy? ¿Cuál es tu balance de estos últimos 12 meses?

Emmanuelfromont

Creo que la industria del PC al completo puede sentirse afortunada debido a que la pandemia ha acelerado mucho nuestra dependencia de los ordenadores y la nube, propiciando la necesidad de trabajar desde cualquier lugar. Como consecuencia de esta coyuntura toda la industria tuvo un año 2020 muy bueno. De hecho, creció casi un 20% durante los últimos doce meses. Durante este periodo hemos presenciado que el PC ha recuperado su lugar como el dispositivo central de nuestra vida digital a pesar del debate que ha habido durante los últimos años acerca de si acabaría siendo relegado por los smartphones y las tabletas.

En mi opinión, la pandemia nos ha demostrado que el PC es una herramienta muy valiosa que puede ayudarnos a trabajar y ser más eficientes. Por supuesto, para nosotros es una buena noticia, aunque durante los últimos 18 meses ha sido un reto satisfacer la demanda. En cualquier caso, estamos decididos a continuar innovando y lanzando nuevos productos porque ante todo queremos continuar formando parte de esta tendencia tan positiva y mantener el alto crecimiento que estamos presenciando.

¿El crecimiento que ha experimentado el negocio de Acer durante los meses de pandemia es equiparable al crecimiento que ha experimentado el mercado en este periodo?

En realidad hemos crecido más que el mercado. Según la consultora IDC el mercado ha crecido un 13%, pero nuestros ingresos han aumentado un 18,5% en el mismo periodo. Nuestro crecimiento durante el primer trimestre de este año ha sido incluso más alto, aproximadamente de un 45%, debido a que el primer trimestre de 2020 no fue bueno. Las cifras de las consultoras IDC y Gartner que recogen el número de unidades distribuidas reflejan que Acer ha sido el fabricante de PC que más ha crecido.

Creo que esta tendencia se sostiene sobre dos pilares. Uno de ellos es nuestro esfuerzo en el ámbito de la educación, que ha tenido como resultado un incremento muy fuerte de las ventas de dispositivos Chromebook. España es un magnífico ejemplo de lo bien que nos está yendo en este sector de mercado porque lo lideramos desde hace varios años. Además, ha crecido muchísimo durante el último año debido a que los estudiantes han tenido que seguir sus clases desde casa, y necesitaban tener el equipamiento adecuado para poder hacerlo.

Acertravelmatespinp6

Acer ha ampliado recientemente su catálogo de convertibles con nuevos equipos de la familia TravelMate que incorporan los últimos microprocesadores de Intel.

Durante la pandemia la demanda de los consumidores ha crecido más que la oferta, y, como sabes, nosotros somos una compañía muy volcada en el consumidor final. Esta estrategia ha propiciado el segundo pilar de nuestro crecimiento, que consiste en que nuestras fortalezas, como son el sector de la educación y el de los equipos para juegos, han experimentado una gran demanda.

Nuestras previsiones anticipan que el mercado seguirá en muy buena forma durante los próximos años, aunque no experimentará un crecimiento tan intenso como el de los últimos meses. Para nosotros esta tendencia representa una gran oportunidad porque queremos seguir creciendo, y los productos de gama alta y los Chromebooks que hemos presentado hace unos días aspiran a ayudarnos a conseguirlo.

No cabe duda de que las ventas de PC se han incrementado debido a que muchas personas se han visto obligadas a trabajar y estudiar desde casa a causa de la pandemia, por lo que podrían haber adelantado la compra de nuevo hardware. Los ordenadores habitualmente no se renuevan cada año, y estas posibles compras anticipadas podrían provocar un descenso de las ventas a medio plazo. ¿Cuáles son vuestras expectativas de ventas, por ejemplo, para los próximos dos años?

Tenemos muchos informes que intentan explicar las causas por las que los usuarios reemplazan su PC, y creemos que las ventas de los últimos meses no se sostienen únicamente sobre el ciclo de renovación de los ordenadores. Lo que nosotros vemos es que se ha producido una expansión del mercado, y que esta tendencia tiene un potencial enorme. La vida útil de un PC oscila entre cinco y seis años, es cierto, pero los datos que manejamos reflejan que muchas personas que antes no necesitaban tener un PC ahora sí lo requieren. De hecho, en algunas familias cada miembro necesita tener su propio ordenador, y esto explica en gran medida por qué el mercado ha crecido como lo ha hecho.

«En algunas familias cada miembro necesita tener su propio ordenador, y esto explica en gran medida por qué el mercado ha crecido como lo ha hecho»

Otra conclusión interesante a la que hemos llegado es que muchas personas han redescubierto lo importante que es el PC para ellas. En el pasado algunas de estas personas se conformaban con tener un PC básico para navegar en internet porque todo lo demás podían hacerlo con su smartphone, pero ahora se han dado cuenta de que tiene un impacto tan profundo en su vida que necesitan un nuevo PC con más autonomía, una pantalla mejor, una buena cámara web… Uno que, en definitiva, les garantice una buena experiencia.

Esta observación nos invita a concluir que el ciclo de renovación del PC se está acelerando. Que los usuarios lo van a reemplazar con más frecuencia. Y esta tendencia, como es lógico, mantendrá al mercado en buena forma. Además, no se está incrementando únicamente el volumen de ventas; también está subiendo el precio medio de los equipos. Los usuarios tradicionalmente han percibido negativamente el incremento del precio, pero el hecho de que ahora el PC tenga un impacto más profundo en su vida está provocando que aprecien características a las que antes no prestaban atención, como el diseño o la autonomía, y estén asumiendo este incremento mejor. Creemos que este será el motor de esta industria durante los próximos años.

Acerchromebook

El modelo Chromebook 317 de Acer es el primer dispositivo de esta categoría equipado con una generosa pantalla Full HD de 17,3 pulgadas.

España es un mercado muy duro, pero también muy atractivo

Actualmente el mercado mundial de los ordenadores portátiles lo dominan HP, Lenovo y Dell. Sus ventas son muy superiores a las de las demás marcas. ¿En qué posición se encuentra Acer en los mercados español y europeo? ¿Cómo se puede competir con unas marcas que tienen una presencia tan sólida?

Cada año se venden aproximadamente 300 millones de PC, por lo que este mercado puede perfectamente acoger a varios actores. Los informes de IDC y Gartner reflejan que somos el quinto fabricante mundial, y este mercado es tan grande que nuestros ingresos durante el último año han sido de 10 000 millones de dólares. Y tenemos un gran potencial de crecimiento. Creo que la clave es ser relevantes para el usuario final. Y, sobre todo, innovar.

«En Europa tenemos aproximadamente el 15% del mercado, y estamos muy satisfechos con esta cifra, aunque creemos que tenemos un gran potencial de crecimiento»

Los competidores que has mencionado son muy grandes, pero nosotros tenemos muy clara nuestra estrategia. Dónde queremos competir. Y, como he mencionado antes, queremos ser fuertes, por ejemplo, en el mercado de los dispositivos Chromebook. Lo hemos liderado durante mucho tiempo, y actualmente oscilamos entre la primera y la segunda posición. También queremos ser relevantes en el mercado del gaming, y nos hemos consolidado con fuerza en él. Sabemos que algunos de nuestros competidores son más grandes, y también que tienen un porfolio de productos mayor que les permite atacar más segmentos de mercado, pero no nos importa.

En Europa tenemos aproximadamente el 15% del mercado, y estamos muy satisfechos con esta cifra, aunque creemos que tenemos un gran potencial de crecimiento. En España en particular hemos sido líderes, como he mencionado antes, pero también creo que en consumo aún tenemos un potencial de crecimiento muy interesante. Y estamos concentrados en él. Para ser honesto, es difícil crecer en todos los segmentos del mercado, pero estamos defendiendo nuestra cuota muy bien. En cualquier caso, queremos crecer en España con el propósito de consolidar una cuota de mercado de al menos el 15%, que es la cuota media que tenemos en Europa.

Acergaming

Los equipos para juegos son muy importantes para Acer. Emmanuel Fromont nos ha confirmado que son una de las principales fuentes de ingresos de la compañía.

¿Cuál es tu opinión acerca de la competencia en el mercado español? ¿Es muy diferente a otros mercados europeos?

No, no creo que sea muy diferente. El mercado de los equipos para juegos está creciendo muchísimo, y es muy importante para nosotros. El mercado español no es fácil porque la competencia es muy dura, y, además, el precio es muy relevante para los consumidores españoles. En cualquier caso, creo que tenemos que ajustarnos y adaptarnos. Si a otras compañías les va bien en él, nosotros también podemos hacerlo. Creo realmente que es un mercado muy interesante para nosotros.

¿Por qué un usuario que ha decidido comprar un nuevo ordenador portátil o de sobremesa debería considerar la compra de un producto de Acer y no un dispositivo de ASUS, MSI o HP, entre otros competidores? ¿Qué los hace diferentes?

Nosotros apostamos con mucha firmeza por la innovación. Creo que los productos que hemos presentado hace unos días lo demuestran. Además, fabricamos productos de alta calidad que son muy duraderos. Y también creemos en la necesidad de contar con nuestro propio servicio postventa. No lo publicitamos mucho, pero para nosotros es crucial ofrecer a nuestros clientes el mejor servicio posible, y por esta razón estamos muy orgullosos de tener nuestro propio centro de reparaciones en Barcelona. Esto nos permite tener unos plazos de servicio muy buenos.

También tenemos nuestro propio centro de llamadas, y creo que es un valor diferencial porque nos permite ofrecer a nuestros clientes un servicio excelente. Y si nos ceñimos al mercado del gaming, que para nosotros es tan importante, me parece esencial destacar el mimo que ponemos en nuestras soluciones de refrigeración. Creo que esta característica marca la diferencia. Y también cuidamos mucho el diseño. En definitiva, creo que lo que nos hace diferentes de otras marcas es que nosotros diseñamos nuestros equipos desde el principio pensando en el consumidor final.

La crisis de los semiconductores es un desafío enorme para los fabricantes de PC

La crisis de los semiconductores ha puesto contra las cuerdas a muchas grandes compañías que no han podido conseguir los circuitos integrados que necesitan en su negocio. ¿Ha afectado a vuestra producción la escasez de chips?

Sí, lo ha hecho. Todos hemos notado la presión de la cadena de suministro. Nosotros nos estamos esforzando mucho para entregar nuestros pedidos y no asumir compromisos que no vamos a poder cumplir. Y, aun así, algunos de nuestros plazos de entrega se han dilatado más allá de lo habitual. Algunos componentes son especialmente difíciles de conseguir, y esto está teniendo un impacto directo en algunos productos. Estamos trabajando duro para solucionarlo, pero creo que esta escasez se va a mantener al menos durante lo que queda de este año. Queremos crecer, y necesitamos fabricar más, pero este problema nos está afectando tanto a nosotros como a nuestros competidores.

Aceraspire

¿Qué impacto está teniendo el déficit de semiconductores en el precio de los productos? ¿Está provocando que los equipos de sobremesa y los portátiles sean más caros?

Los precios están subiendo, pero la crisis de los semiconductores solo tiene una parte de la responsabilidad de este incremento. Algunos de los componentes que más están escaseando tienen un impacto moderado en el precio final del PC. En realidad el coste asociado a toda la cadena de suministro se está incrementando debido a que se están encareciendo las materias primas, como el cobre.

Además, la pandemia ha contribuido a encarecer la logística y la distribución de los productos. Transportar un PC en avión o barco es ahora mucho más caro porque el precio de los contenedores se ha multiplicado por tres. Y no podemos pasar por alto que en las circunstancias actuales el número de vuelos se ha reducido drásticamente. Si mezclamos todos estos ingredientes es inevitable que el precio medio del PC se esté incrementando.

Los productos para juegos son una de las principales fuentes de ingresos de Acer

Cada año reforzáis más vuestro porfolio de productos para juegos, y las novedades que acabáis de presentar lo reflejan con claridad. ¿En qué medida son importantes para vosotros los jugadores? ¿Qué volumen tiene este negocio en particular dentro del negocio global de Acer?

Los productos para gaming son muy, muy importantes para nosotros. Su peso en nuestra facturación total varía de un país a otro, pero en Europa este segmento globalmente genera aproximadamente el 25% de nuestros ingresos. Es un pilar para la compañía. Y creo que lo estamos haciendo muy bien porque nuestra cuota en este segmento es mayor que nuestra cuota de mercado media.

«Los productos para gaming son muy, muy importantes para nosotros»

Nuestra marca Predator es muy robusta. Está muy bien valorada por los usuarios. Y, además, estamos invirtiendo para ir más allá del PC, algo que respalda, por ejemplo, el lanzamiento de Planet9, nuestra propia red social para juegos. Este servicio está creciendo despacio, pero lo importante es que sigue creciendo.

Además, estamos renovando nuestros productos continuamente para introducir en ellos las tecnologías más recientes y avanzadas. Los últimos equipos que hemos presentado incorporan los nuevos microprocesadores de Intel y AMD, así como los últimos procesadores gráficos de NVIDIA. Y, por supuesto, seguimos cuidando mucho el diseño y la refrigeración de estos equipos para poner en las manos de los usuarios la posibilidad de practicar overclocking si desean sacar el máximo partido posible a su PC.

Algo que hemos observado, y a lo que hemos respondido, es que algunas personas demandan equipos para juegos que no parezcan equipos para juegos. Quieren poder llevárselos al trabajo o el colegio sin llamar la atención. Nosotros creemos en esta tendencia. Tenemos propuestas con lo último y más potente para los entusiastas, y también equipos todoterreno que nos ofrecen una experiencia perfecta con juegos, y que encajan sin problema en cualquier escenario de uso.

Acermonitor

El espectacular monitor de esta fotografía es el modelo Predator CG437K S, una bestia de 42,5 pulgadas equipada con conectividad HDMI 2.1.

Acabáis de presentar vuestros primeros portátiles con pantalla mini-LED, pero se echan de menos en vuestro catálogo los equipos con pantalla OLED que ya integran algunos de vuestros competidores. ¿No creéis en los paneles OLED en el ámbito de la informática personal?

Sí, acabamos de lanzar nuestros equipos para juegos con pantalla mini-LED, y creo que cada compañía tiene su propia forma de innovar. Somos partidarios de sumarnos a las tendencias de la industria, y, por supuesto, la calidad de la pantalla es muy importante, pero creo que tenemos que llegar al compromiso correcto para que el precio no se dispare. Y también me parece muy importante encontrar el momento apropiado para lanzar cada innovación. En cualquier caso, estamos muy pendientes de las nuevas tendencias. Unas veces las lideramos, y otras veces nos sumamos a ellas, y sí, por supuesto, tenemos muy presente esta tecnología.

La tecnología 5G encaja como un guante en el ecosistema del PC

¿Cuál es tu predicción acerca del futuro de los ordenadores portátiles? ¿Cómo crees que serán los equipos que los usuarios podremos comprar en un plazo de, por ejemplo, cinco años?

Creo que la tendencia que estamos observando actualmente seguirá acelerándose. Con toda seguridad serán más potentes y consumirán menos energía. En este ámbito las tecnologías de fotolitografía tienen mucho que decir. Creo que el mercado se ha fijado el objetivo de tener equipos muy potentes, ligeros y con una autonomía de 24 horas. También creo que mejorarán las pantallas, las cámaras y la calidad de sonido. Y, por supuesto, seguimos muy de cerca la pista al 5G.

Creo que esta tecnología de comunicaciones va a tener una penetración en los ordenadores mucho más profunda que la que tuvieron en su momento el 3G y el 4G porque encaja mucho mejor en el ecosistema del PC. Estoy convencido de que va a ser una tecnología disruptiva. Confío en que durante los próximos años veremos todo esto, y también en que seremos testigos de cambios importantes en el factor de forma de los equipos. No me cabe la menor duda de que tenemos un futuro brillante e ilusionante por delante en el que este mercado continuará en muy buen estado de forma.

-
La noticia El impacto de la crisis de los semiconductores en el mercado del PC, su futuro, el reinado del 'gaming' y más: hablamos con Emmanuel Fromont, presidente de Acer EMEA fue publicada originalmente en Xataka por Juan Carlos López .

Leer más