Viajar por el espacio más rápido que la luz no es solo ciencia ficción: hay físicos (serios) trabajando en esta idea

Viajar por el espacio más rápido que la luz no es solo ciencia ficción: hay físicos (serios) trabajando en esta idea

La teoría de la relatividad general que Albert Einstein publicó en 1915 establece, entre muchas otras ideas que en su momento fueron revolucionarias, que ningún objeto con masa puede desplazarse por el continuo espacio-tiempo a una velocidad superior a la de la luz. Para conseguirlo, muy a grandes rasgos, necesitaría disponer de una cantidad de energía infinita, algo que a todas luces no es posible.

Pero esto no es todo. Además, durante la aceleración experimentaría un incremento de la masa y una deformación fruto de la compresión del espacio inasumibles, entre otros efectos que no es fácil encajar (explicamos este proceso con más detalle en el artículo que enlazo aquí mismo). Aun así, las barreras impuestas por las leyes de la física, afortunadamente, no han representado un obstáculo para los escritores de novelas de ciencia ficción. Y tampoco para algunos cineastas.

Las barreras impuestas por las leyes de la física, afortunadamente, no han representado un obstáculo para los escritores de ciencia ficción. Y tampoco para algunos cineastas

Y es que en muchas de sus obras describen un mundo en el que los viajes espaciales a velocidad hiperlumínica son posibles, lo que brinda al ser humano la posibilidad de desplazarse de un sistema estelar a otro, e, incluso, de una galaxia a otra, en un plazo de tiempo perfectamente asumible por el hombre. Los aficionados a la ciencia ficción hemos disfrutado este recurso en muchas ocasiones tanto en el cine como en la literatura.

La ciencia ficción se inspira a menudo en la ciencia formal para tomarla como punto de partida e ir un paso (o varios) más allá, pero esta fórmula también funciona a la inversa. Y es que algunos científicos reconocen sin tapujos haber recogido el guante que en ocasiones les lanzan los ideólogos de la ciencia ficción con el propósito de coquetear con la posibilidad de llevar sus ideas a la práctica. El físico mexicano Miguel Alcubierre es uno de ellos, y su propuesta es apasionante. Prometido.

La propuesta de Alcubierre: la propulsión por distorsión del continuo espacio-tiempo

Antes de seguir adelante debemos poner las reglas sobre la mesa. Estamos entrando en un terreno puramente especulativo y conceptual en el que lo más importante es respetar las leyes de la física y no quebrantarlas. A partir de ahí el siguiente desafío consiste en identificar si nuestro desarrollo tecnológico actual nos permite poner en práctica la propuesta teórica que hemos ideado como punto de partida. Este fue, precisamente, el camino en el que se adentró Miguel Alcubierre en 1994.

Actualmente dirige el Instituto de Ciencias Nucleares y el Departamento de Gravitación y Teoría de Campos de la Facultad de Ciencias de la Universidad Nacional Autónoma de México. Su especialidad son los agujeros negros, las ondas gravitacionales, la materia oscura y la teoría de la gravitación. Y, además de todo esto, se confiesa un apasionado de la ciencia ficción. De hecho, la 'métrica de Alcubierre', que es el modelo matemático que ha desarrollado para proponer una forma de viajar por el continuo espacio-tiempo más rápido que la luz, se le ocurrió mientras veía un capítulo de 'Star Trek'.

La razón por la que la propuesta de este físico es citada con cierta frecuencia por otros investigadores es que no viola la relatividad general de Einstein. Entonces ¿cómo plantea la posibilidad de viajar con más rapidez que la luz si, como hemos visto, ningún objeto con masa puede hacerlo? La solución que propone Alcubierre es muy ingeniosa: deformando el continuo espacio-tiempo. De hecho, como sostiene él mismo, «la idea no es viajar por el espacio; es viajar con el espacio».

Miguelalcubierreretrato

De alguna forma su propuesta describe cuál podría ser el efecto de un motor de curvatura capaz de impulsar una nave espacial a través del continuo espacio-tiempo a velocidad hiperlumínica. Eso sí, el concepto de 'motor de curvatura' no lo ha inventado Alcubierre; lo ha tomado prestado de la ciencia ficción, algo que reconoce con honestidad.

En cualquier caso, lo que plantea la propulsión por distorsión, que es como él mismo llama a su ingeniosa idea, es la posibilidad de expandir el espacio que hay detrás de nosotros, y, simultáneamente, comprimir el espacio que hay por delante.

Un vehículo espacial que incorporase la tecnología necesaria para hacer posible esta manipulación del espacio-tiempo conseguiría, efectivamente, recorrer distancias gigantescas a una velocidad superior a la de la luz.

Y, además, lo haría sin quebrantar las leyes de la física debido a que, en realidad, no estaría viajando con más rapidez que la luz; estaría sacando partido a la misma propiedad del continuo espacio-tiempo que explica, sin entrar en detalles complicados, que la expansión del universo está originada por la creación de espacio entre las galaxias, y no debido a que unas se estén alejando de forma proactiva de las demás.

La premisa que propone Alcubierre es muy ingeniosa: «la idea no es viajar por el espacio; es viajar con el espacio»

Como veis, esta propuesta suena bien. Y lo hace porque no hay ninguna ley de la física que impida que el espacio se expanda más rápido que la luz. De hecho, el espacio se puede expandir a una velocidad arbitraria. Sin embargo, llevarla a la práctica plantea varios desafíos que por el momento están fuera de nuestro alcance.

Al desarrollar el postulado de Alcubierre utilizando las ecuaciones de la relatividad general lo que obtendríamos es que la deformación que necesitamos introducir en el espacio para dilatarlo por detrás de nosotros y comprimirlo por delante requiere la utilización de una descomunal cantidad de energía. Tanta como la que contiene una estrella. O, quizá, incluso más de una.

Y, además, no se trata de una energía cualquiera; para curvar el espacio necesitaríamos energía negativa, y esta forma de energía está estrechamente vinculada, de nuevo de acuerdo a la relatividad general, a la masa negativa. El problema es que por el momento no tenemos ningún indicio de que esta clase de masa realmente exista.

Eso sí, no está prohibida por las leyes de la física, por lo que, como defiende Alcubierre, «nos queda un pequeño rayo de esperanza». Antes de pasar a la siguiente sección del artículo os dejo un vídeo de 18 minutos en el que este físico explica de una forma muy didáctica y amena su propuesta. Merece mucho la pena verlo.

La estratagema de Harold 'Sonny' White se sostiene sobre el 'efecto Casimir'

La propulsión por distorsión del continuo espacio-tiempo que propuso Miguel Alcubierre a mediados de los 90 ha inspirado a muchos científicos. A científicos serios que se la han tomado como un estímulo del que alimentarse para poner a punto ideas originales. Uno de ellos es el físico e ingeniero mecánico y aeroespacial estadounidense Harold 'Sonny' White, cuya carrera profesional ha discurrido en gran medida en la NASA.

En 2011 este científico publicó un artículo titulado 'Warp Field Mechanics 101' que toma como punto de partida las ideas de Alcubierre y en el que propone, entre otros conceptos interesantes, una estrategia para reducir drásticamente la energía necesaria para desencadenar la distorsión del espacio que haría posible viajar más rápido que la luz.

Según White si la burbuja que confina la nave espacial e induce la deformación no tuviese forma esférica y fuese un toro (es una figura geométrica con forma de dónut) la energía necesaria para llevar a cabo esta operación sería mucho menor.

A finales de julio Harold White publicó un artículo en el que asegura haber identificado una nanoestructura que predice la existencia de energía negativa

Obviamente, aun asumiendo que White tenga razón todavía quedan muchos otros problemas a priori irresolubles por esquivar, como, por ejemplo, la necesidad de utilizar energía negativa. Aun así, este técnico no se ha rendido y ha seguido investigando.

Su proyecto más ambicioso es el interferómetro en el que está trabajando en el Laboratorio de Propulsión Avanzada alojado en el Centro Espacial Johnson de la NASA para intentar identificar la distorsión del espacio-tiempo introducida por un teórico motor de curvatura acoplado a un sistema de propulsión convencional (todo esto lo desarrolla en el artículo que he enlazado en el párrafo anterior).

El descubrimiento más interesante que ha hecho White, sin embargo, ha llegado este mismo año. Y es que a finales del pasado mes de julio publicó un artículo junto a otros investigadores en el que asegura haber identificado una nanoestructura que predice la existencia de energía negativa. Su experimento en esta ocasión ha sido respaldado por DARPA, que es la Agencia de Proyectos de Investigación Avanzados del Departamento de Defensa de Estados Unidos (es la misma organización que financió en 1969 la creación de ARPANET, la precursora de internet).

Inicialmente el experimento de White pretendía analizar la estructura de la densidad de energía presente en el interior de una cavidad en la que residen dos placas metálicas paralelas que están separadas por una distancia ínfima (mucho más reducida que cualquiera de las dimensiones de las láminas).

Lo sorprendente es que en estas circunstancias entre las placas aparece una fuerza de atracción predicha por la teoría cuántica de campos y derivada de las propiedades del vacío cuántico (indagar en él complicaría excesivamente este artículo, pero lo exploramos con cierta profundidad en el artículo que enlazo aquí mismo).

La fuerza de atracción que surge entre las placas debido al 'efecto Casimir' está originada por las fluctuaciones del vacío cuántico

Este fenómeno se conoce como efecto Casimir, y la fuerza atractiva que surge entre las placas está originada por las fluctuaciones del vacío cuántico; no es fruto de la interacción electromagnética o gravitatoria.

Lo que probablemente White no esperaba encontrar cuando empezó a trabajar en este experimento es que sus mediciones iban a predecir la existencia de una distribución de energía negativa. Y esto nos lleva, de nuevo, a la propuesta de Miguel Alcubierre: la propulsión por distorsión del continuo espacio-tiempo y su dependencia de la energía y la masa negativas.

Este descubrimiento aún tiene que ser reproducido, comprobado y desarrollado; de hecho, tan solo es una pequeña hebra en un tapiz grande y complejo. Harold White, que se encuentra enfrascado en el proyecto para DARPA que he mencionado más arriba, ha animado a otros científicos a continuar trabajando en la línea de investigación que ha iniciado.

Posiblemente nadie conoce mejor que él el ingente esfuerzo que es necesario abordar aún para que esta pequeña chispa prospere. Aun así, no cabe duda de que el trabajo de Miguel Alcubierre, Harold White, y también el de muchos otros científicos, es apasionante. Y esperanzador. Todo un soplo de aire fresco para las personas que adoramos tanto la ciencia como la ciencia ficción.

Imagen de portada | Matheus Bertelli

-
La noticia Viajar por el espacio más rápido que la luz no es solo ciencia ficción: hay físicos (serios) trabajando en esta idea fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Viajar por el espacio más rápido que la luz no es solo ciencia ficción: hay físicos (serios) trabajando en esta idea

Viajar por el espacio más rápido que la luz no es solo ciencia ficción: hay físicos (serios) trabajando en esta idea

La teoría de la relatividad general que Albert Einstein publicó en 1915 establece, entre muchas otras ideas que en su momento fueron revolucionarias, que ningún objeto con masa puede desplazarse por el continuo espacio-tiempo a una velocidad superior a la de la luz. Para conseguirlo, muy a grandes rasgos, necesitaría disponer de una cantidad de energía infinita, algo que a todas luces no es posible.

Pero esto no es todo. Además, durante la aceleración experimentaría un incremento de la masa y una deformación fruto de la compresión del espacio inasumibles, entre otros efectos que no es fácil encajar (explicamos este proceso con más detalle en el artículo que enlazo aquí mismo). Aun así, las barreras impuestas por las leyes de la física, afortunadamente, no han representado un obstáculo para los escritores de novelas de ciencia ficción. Y tampoco para algunos cineastas.

Las barreras impuestas por las leyes de la física, afortunadamente, no han representado un obstáculo para los escritores de ciencia ficción. Y tampoco para algunos cineastas

Y es que en muchas de sus obras describen un mundo en el que los viajes espaciales a velocidad hiperlumínica son posibles, lo que brinda al ser humano la posibilidad de desplazarse de un sistema estelar a otro, e, incluso, de una galaxia a otra, en un plazo de tiempo perfectamente asumible por el hombre. Los aficionados a la ciencia ficción hemos disfrutado este recurso en muchas ocasiones tanto en el cine como en la literatura.

La ciencia ficción se inspira a menudo en la ciencia formal para tomarla como punto de partida e ir un paso (o varios) más allá, pero esta fórmula también funciona a la inversa. Y es que algunos científicos reconocen sin tapujos haber recogido el guante que en ocasiones les lanzan los ideólogos de la ciencia ficción con el propósito de coquetear con la posibilidad de llevar sus ideas a la práctica. El físico mexicano Miguel Alcubierre es uno de ellos, y su propuesta es apasionante. Prometido.

La propuesta de Alcubierre: la propulsión por distorsión del continuo espacio-tiempo

Antes de seguir adelante debemos poner las reglas sobre la mesa. Estamos entrando en un terreno puramente especulativo y conceptual en el que lo más importante es respetar las leyes de la física y no quebrantarlas. A partir de ahí el siguiente desafío consiste en identificar si nuestro desarrollo tecnológico actual nos permite poner en práctica la propuesta teórica que hemos ideado como punto de partida. Este fue, precisamente, el camino en el que se adentró Miguel Alcubierre en 1994.

Actualmente dirige el Instituto de Ciencias Nucleares y el Departamento de Gravitación y Teoría de Campos de la Facultad de Ciencias de la Universidad Nacional Autónoma de México. Su especialidad son los agujeros negros, las ondas gravitacionales, la materia oscura y la teoría de la gravitación. Y, además de todo esto, se confiesa un apasionado de la ciencia ficción. De hecho, la 'métrica de Alcubierre', que es el modelo matemático que ha desarrollado para proponer una forma de viajar por el continuo espacio-tiempo más rápido que la luz, se le ocurrió mientras veía un capítulo de 'Star Trek'.

La razón por la que la propuesta de este físico es citada con cierta frecuencia por otros investigadores es que no viola la relatividad general de Einstein. Entonces ¿cómo plantea la posibilidad de viajar con más rapidez que la luz si, como hemos visto, ningún objeto con masa puede hacerlo? La solución que propone Alcubierre es muy ingeniosa: deformando el continuo espacio-tiempo. De hecho, como sostiene él mismo, «la idea no es viajar por el espacio; es viajar con el espacio».

Miguelalcubierreretrato

De alguna forma su propuesta describe cuál podría ser el efecto de un motor de curvatura capaz de impulsar una nave espacial a través del continuo espacio-tiempo a velocidad hiperlumínica. Eso sí, el concepto de 'motor de curvatura' no lo ha inventado Alcubierre; lo ha tomado prestado de la ciencia ficción, algo que reconoce con honestidad.

En cualquier caso, lo que plantea la propulsión por distorsión, que es como él mismo llama a su ingeniosa idea, es la posibilidad de expandir el espacio que hay detrás de nosotros, y, simultáneamente, comprimir el espacio que hay por delante.

Un vehículo espacial que incorporase la tecnología necesaria para hacer posible esta manipulación del espacio-tiempo conseguiría, efectivamente, recorrer distancias gigantescas a una velocidad superior a la de la luz.

Y, además, lo haría sin quebrantar las leyes de la física debido a que, en realidad, no estaría viajando con más rapidez que la luz; estaría sacando partido a la misma propiedad del continuo espacio-tiempo que explica, sin entrar en detalles complicados, que la expansión del universo está originada por la creación de espacio entre las galaxias, y no debido a que unas se estén alejando de forma proactiva de las demás.

La premisa que propone Alcubierre es muy ingeniosa: «la idea no es viajar por el espacio; es viajar con el espacio»

Como veis, esta propuesta suena bien. Y lo hace porque no hay ninguna ley de la física que impida que el espacio se expanda más rápido que la luz. De hecho, el espacio se puede expandir a una velocidad arbitraria. Sin embargo, llevarla a la práctica plantea varios desafíos que por el momento están fuera de nuestro alcance.

Al desarrollar el postulado de Alcubierre utilizando las ecuaciones de la relatividad general lo que obtendríamos es que la deformación que necesitamos introducir en el espacio para dilatarlo por detrás de nosotros y comprimirlo por delante requiere la utilización de una descomunal cantidad de energía. Tanta como la que contiene una estrella. O, quizá, incluso más de una.

Y, además, no se trata de una energía cualquiera; para curvar el espacio necesitaríamos energía negativa, y esta forma de energía está estrechamente vinculada, de nuevo de acuerdo a la relatividad general, a la masa negativa. El problema es que por el momento no tenemos ningún indicio de que esta clase de masa realmente exista.

Eso sí, no está prohibida por las leyes de la física, por lo que, como defiende Alcubierre, «nos queda un pequeño rayo de esperanza». Antes de pasar a la siguiente sección del artículo os dejo un vídeo de 18 minutos en el que este físico explica de una forma muy didáctica y amena su propuesta. Merece mucho la pena verlo.

La estratagema de Harold 'Sonny' White se sostiene sobre el 'efecto Casimir'

La propulsión por distorsión del continuo espacio-tiempo que propuso Miguel Alcubierre a mediados de los 90 ha inspirado a muchos científicos. A científicos serios que se la han tomado como un estímulo del que alimentarse para poner a punto ideas originales. Uno de ellos es el físico e ingeniero mecánico y aeroespacial estadounidense Harold 'Sonny' White, cuya carrera profesional ha discurrido en gran medida en la NASA.

En 2011 este científico publicó un artículo titulado 'Warp Field Mechanics 101' que toma como punto de partida las ideas de Alcubierre y en el que propone, entre otros conceptos interesantes, una estrategia para reducir drásticamente la energía necesaria para desencadenar la distorsión del espacio que haría posible viajar más rápido que la luz.

Según White si la burbuja que confina la nave espacial e induce la deformación no tuviese forma esférica y fuese un toro (es una figura geométrica con forma de dónut) la energía necesaria para llevar a cabo esta operación sería mucho menor.

A finales de julio Harold White publicó un artículo en el que asegura haber identificado una nanoestructura que predice la existencia de energía negativa

Obviamente, aun asumiendo que White tenga razón todavía quedan muchos otros problemas a priori irresolubles por esquivar, como, por ejemplo, la necesidad de utilizar energía negativa. Aun así, este técnico no se ha rendido y ha seguido investigando.

Su proyecto más ambicioso es el interferómetro en el que está trabajando en el Laboratorio de Propulsión Avanzada alojado en el Centro Espacial Johnson de la NASA para intentar identificar la distorsión del espacio-tiempo introducida por un teórico motor de curvatura acoplado a un sistema de propulsión convencional (todo esto lo desarrolla en el artículo que he enlazado en el párrafo anterior).

El descubrimiento más interesante que ha hecho White, sin embargo, ha llegado este mismo año. Y es que a finales del pasado mes de julio publicó un artículo junto a otros investigadores en el que asegura haber identificado una nanoestructura que predice la existencia de energía negativa. Su experimento en esta ocasión ha sido respaldado por DARPA, que es la Agencia de Proyectos de Investigación Avanzados del Departamento de Defensa de Estados Unidos (es la misma organización que financió en 1969 la creación de ARPANET, la precursora de internet).

Inicialmente el experimento de White pretendía analizar la estructura de la densidad de energía presente en el interior de una cavidad en la que residen dos placas metálicas paralelas que están separadas por una distancia ínfima (mucho más reducida que cualquiera de las dimensiones de las láminas).

Lo sorprendente es que en estas circunstancias entre las placas aparece una fuerza de atracción predicha por la teoría cuántica de campos y derivada de las propiedades del vacío cuántico (indagar en él complicaría excesivamente este artículo, pero lo exploramos con cierta profundidad en el artículo que enlazo aquí mismo).

La fuerza de atracción que surge entre las placas debido al 'efecto Casimir' está originada por las fluctuaciones del vacío cuántico

Este fenómeno se conoce como efecto Casimir, y la fuerza atractiva que surge entre las placas está originada por las fluctuaciones del vacío cuántico; no es fruto de la interacción electromagnética o gravitatoria.

Lo que probablemente White no esperaba encontrar cuando empezó a trabajar en este experimento es que sus mediciones iban a predecir la existencia de una distribución de energía negativa. Y esto nos lleva, de nuevo, a la propuesta de Miguel Alcubierre: la propulsión por distorsión del continuo espacio-tiempo y su dependencia de la energía y la masa negativas.

Este descubrimiento aún tiene que ser reproducido, comprobado y desarrollado; de hecho, tan solo es una pequeña hebra en un tapiz grande y complejo. Harold White, que se encuentra enfrascado en el proyecto para DARPA que he mencionado más arriba, ha animado a otros científicos a continuar trabajando en la línea de investigación que ha iniciado.

Posiblemente nadie conoce mejor que él el ingente esfuerzo que es necesario abordar aún para que esta pequeña chispa prospere. Aun así, no cabe duda de que el trabajo de Miguel Alcubierre, Harold White, y también el de muchos otros científicos, es apasionante. Y esperanzador. Todo un soplo de aire fresco para las personas que adoramos tanto la ciencia como la ciencia ficción.

Imagen de portada | Matheus Bertelli

-
La noticia Viajar por el espacio más rápido que la luz no es solo ciencia ficción: hay físicos (serios) trabajando en esta idea fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Intel tiene un plan para conseguir una fotolitografía ganadora y asegurar que la ley de Moore seguirá vigente más allá de 2025

Intel tiene un plan para conseguir una fotolitografía ganadora y asegurar que la ley de Moore seguirá vigente más allá de 2025

Nuestro análisis de los microprocesadores Intel Core de 12ª generación 'Alder Lake' no deja lugar a dudas: estos chips tienen un rendimiento sobresaliente, pero piden a gritos ser fabricados utilizando una tecnología de integración más avanzada. Intel los está produciendo en su nodo de 10 nm, y, aunque esta compañía asegura que su tecnología es equiparable al nodo de 7 nm de TSMC o Samsung, sus cifras de consumo y temperatura arrojan dudas razonables.

Durante nuestras pruebas los núcleos de alto rendimiento de los procesadores 'Alder Lake' nos han demostrado ser unos auténticos devoradores de hilos de ejecución (threads), pero su fabulosa productividad se ha visto algo ensombrecida por un consumo máximo sensiblemente más alto que el de los procesadores Ryzen 5000 de AMD equiparables. Y, además, los chips de Intel también se calientan más.

El diseño de la microarquitectura es en cierta medida responsable de estas cifras, pero no cabe duda de que la fotolitografía también tiene un impacto directo tanto en el consumo de un microprocesador como en la energía que disipa en forma de calor. Intel sabe qué tiene entre manos mejor que nadie, y por esta razón ha dado a conocer algunas de las innovaciones en las que está trabajando en un claro intento no solo de propinar a su tecnología de integración el espaldarazo que necesita, sino también de sostener la ley de Moore más allá de 2025.

Estas son las innovaciones en tecnología de integración que tiene Intel entre manos

Antes de seguir adelante merece la pena que nos detengamos un momento para repasar qué dice la ley de Moore. Lo que Gordon Moore, el cofundador de Intel, percibió hace algo más de cinco décadas y media fue que el número de transistores de los circuitos integrados se duplicaría cada año, y, a la par, su coste relativo se reduciría drásticamente.

Diez años más tarde enmendó su observación al incrementar el plazo de tiempo necesario para que se lleve a cabo ese desarrollo de la tecnología de integración, colocándolo en 24 meses, y no en un año. Y desde entonces su pronóstico se ha cumplido con una precisión más que razonable. No obstante, para sostener esta tendencia a lo largo del tiempo ha sido necesario innovar. Innovar mucho y bien.

ASML, Intel, TSMC, Samsung, GlobalFoundries y otras compañías involucradas en la industria de la fabricación de circuitos integrados dedican una parte importante de sus recursos a la investigación y el desarrollo de nuevas tecnologías. Aquí no hay secretos: para mejorar la tecnología de integración es necesario innovar. Y es precisamente lo que está haciendo Intel. Estos son los tres pilares en los que está trabajando para conseguir una fotolitografía que le permita marcar la diferencia, y, por el camino, dilatar la ley de Moore:

  • Al silicio le debemos mucho. Muchísimo. Es el elemento químico que nos ha traído hasta aquí y el que durante décadas ha hecho posible un desarrollo tecnológico que aún perdura. El problema es que sus propiedades fisicoquímicas imponen unas restricciones que se van acercando más y más a medida que se va desarrollando la tecnología de integración. Intel asegura estar trabajando en nuevos materiales que solo tendrán unos pocos átomos de espesor y que le permitirán poner a punto transistores diseñados para superar las limitaciones impuestas por el silicio.
  • Uno de los objetivos que persiguen los fabricantes de semiconductores consiste en encontrar la forma de introducir más transistores por milímetro cuadrado, y una manera de conseguirlo pasa por no colocarlos únicamente uno al lado del otro; también es posible apilarlos unos encima de otros utilizando unas diminutas placas que permiten duplicar la densidad de integración. Este es uno de los objetivos primordiales que tendrá la arquitectura de transistores RibbonFET, que está llamada a reemplazar a la actual FinFET, y que podría estar lista en 2024.
  • La tercera área esencial en la que están trabajando los ingenieros de Intel no es otra que la optimización del empaquetado de sus circuitos integrados. Lo que buscan es incrementar la densidad de interconexión, y la tecnología Foveros Direct, que según esta compañía estará lista en 2023, persigue multiplicarla por 10 haciendo posible la conexión directa de conductores de cobre a cobre, lo que permite, de paso, minimizar la resistencia.

Como acabamos de ver, las innovaciones en las que Intel asegura estar trabajando sobre el papel pintan muy bien. Y, además, algunas de ellas podrían estar listas en no más de dos o tres años. Ojalá sea así porque no cabe duda de que lo que nos interesa a los usuarios es que los fabricantes de semiconductores, se llamen como se llamen, tengan las tecnologías más competitivas a su alcance. Y si, además, estas innovaciones llegan de la mano del fin de la crisis de los circuitos integrados, miel sobre hojuelas.

Más información | Intel

-
La noticia Intel tiene un plan para conseguir una fotolitografía ganadora y asegurar que la ley de Moore seguirá vigente más allá de 2025 fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Intel tiene un plan para conseguir una fotolitografía ganadora y asegurar que la ley de Moore seguirá vigente más allá de 2025

Intel tiene un plan para conseguir una fotolitografía ganadora y asegurar que la ley de Moore seguirá vigente más allá de 2025

Nuestro análisis de los microprocesadores Intel Core de 12ª generación 'Alder Lake' no deja lugar a dudas: estos chips tienen un rendimiento sobresaliente, pero piden a gritos ser fabricados utilizando una tecnología de integración más avanzada. Intel los está produciendo en su nodo de 10 nm, y, aunque esta compañía asegura que su tecnología es equiparable al nodo de 7 nm de TSMC o Samsung, sus cifras de consumo y temperatura arrojan dudas razonables.

Durante nuestras pruebas los núcleos de alto rendimiento de los procesadores 'Alder Lake' nos han demostrado ser unos auténticos devoradores de hilos de ejecución (threads), pero su fabulosa productividad se ha visto algo ensombrecida por un consumo máximo sensiblemente más alto que el de los procesadores Ryzen 5000 de AMD equiparables. Y, además, los chips de Intel también se calientan más.

El diseño de la microarquitectura es en cierta medida responsable de estas cifras, pero no cabe duda de que la fotolitografía también tiene un impacto directo tanto en el consumo de un microprocesador como en la energía que disipa en forma de calor. Intel sabe qué tiene entre manos mejor que nadie, y por esta razón ha dado a conocer algunas de las innovaciones en las que está trabajando en un claro intento no solo de propinar a su tecnología de integración el espaldarazo que necesita, sino también de sostener la ley de Moore más allá de 2025.

Estas son las innovaciones en tecnología de integración que tiene Intel entre manos

Antes de seguir adelante merece la pena que nos detengamos un momento para repasar qué dice la ley de Moore. Lo que Gordon Moore, el cofundador de Intel, percibió hace algo más de cinco décadas y media fue que el número de transistores de los circuitos integrados se duplicaría cada año, y, a la par, su coste relativo se reduciría drásticamente.

Diez años más tarde enmendó su observación al incrementar el plazo de tiempo necesario para que se lleve a cabo ese desarrollo de la tecnología de integración, colocándolo en 24 meses, y no en un año. Y desde entonces su pronóstico se ha cumplido con una precisión más que razonable. No obstante, para sostener esta tendencia a lo largo del tiempo ha sido necesario innovar. Innovar mucho y bien.

ASML, Intel, TSMC, Samsung, GlobalFoundries y otras compañías involucradas en la industria de la fabricación de circuitos integrados dedican una parte importante de sus recursos a la investigación y el desarrollo de nuevas tecnologías. Aquí no hay secretos: para mejorar la tecnología de integración es necesario innovar. Y es precisamente lo que está haciendo Intel. Estos son los tres pilares en los que está trabajando para conseguir una fotolitografía que le permita marcar la diferencia, y, por el camino, dilatar la ley de Moore:

  • Al silicio le debemos mucho. Muchísimo. Es el elemento químico que nos ha traído hasta aquí y el que durante décadas ha hecho posible un desarrollo tecnológico que aún perdura. El problema es que sus propiedades fisicoquímicas imponen unas restricciones que se van acercando más y más a medida que se va desarrollando la tecnología de integración. Intel asegura estar trabajando en nuevos materiales que solo tendrán unos pocos átomos de espesor y que le permitirán poner a punto transistores diseñados para superar las limitaciones impuestas por el silicio.
  • Uno de los objetivos que persiguen los fabricantes de semiconductores consiste en encontrar la forma de introducir más transistores por milímetro cuadrado, y una manera de conseguirlo pasa por no colocarlos únicamente uno al lado del otro; también es posible apilarlos unos encima de otros utilizando unas diminutas placas que permiten duplicar la densidad de integración. Este es uno de los objetivos primordiales que tendrá la arquitectura de transistores RibbonFET, que está llamada a reemplazar a la actual FinFET, y que podría estar lista en 2024.
  • La tercera área esencial en la que están trabajando los ingenieros de Intel no es otra que la optimización del empaquetado de sus circuitos integrados. Lo que buscan es incrementar la densidad de interconexión, y la tecnología Foveros Direct, que según esta compañía estará lista en 2023, persigue multiplicarla por 10 haciendo posible la conexión directa de conductores de cobre a cobre, lo que permite, de paso, minimizar la resistencia.

Como acabamos de ver, las innovaciones en las que Intel asegura estar trabajando sobre el papel pintan muy bien. Y, además, algunas de ellas podrían estar listas en no más de dos o tres años. Ojalá sea así porque no cabe duda de que lo que nos interesa a los usuarios es que los fabricantes de semiconductores, se llamen como se llamen, tengan las tecnologías más competitivas a su alcance. Y si, además, estas innovaciones llegan de la mano del fin de la crisis de los circuitos integrados, miel sobre hojuelas.

Más información | Intel

-
La noticia Intel tiene un plan para conseguir una fotolitografía ganadora y asegurar que la ley de Moore seguirá vigente más allá de 2025 fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Intel tiene un plan para conseguir una fotolitografía ganadora y asegurar que la ley de Moore seguirá vigente más allá de 2025

Intel tiene un plan para conseguir una fotolitografía ganadora y asegurar que la ley de Moore seguirá vigente más allá de 2025

Nuestro análisis de los microprocesadores Intel Core de 12ª generación 'Alder Lake' no deja lugar a dudas: estos chips tienen un rendimiento sobresaliente, pero piden a gritos ser fabricados utilizando una tecnología de integración más avanzada. Intel los está produciendo en su nodo de 10 nm, y, aunque esta compañía asegura que su tecnología es equiparable al nodo de 7 nm de TSMC o Samsung, sus cifras de consumo y temperatura arrojan dudas razonables.

Durante nuestras pruebas los núcleos de alto rendimiento de los procesadores 'Alder Lake' nos han demostrado ser unos auténticos devoradores de hilos de ejecución (threads), pero su fabulosa productividad se ha visto algo ensombrecida por un consumo máximo sensiblemente más alto que el de los procesadores Ryzen 5000 de AMD equiparables. Y, además, los chips de Intel también se calientan más.

El diseño de la microarquitectura es en cierta medida responsable de estas cifras, pero no cabe duda de que la fotolitografía también tiene un impacto directo tanto en el consumo de un microprocesador como en la energía que disipa en forma de calor. Intel sabe qué tiene entre manos mejor que nadie, y por esta razón ha dado a conocer algunas de las innovaciones en las que está trabajando en un claro intento no solo de propinar a su tecnología de integración el espaldarazo que necesita, sino también de sostener la ley de Moore más allá de 2025.

Estas son las innovaciones en tecnología de integración que tiene Intel entre manos

Antes de seguir adelante merece la pena que nos detengamos un momento para repasar qué dice la ley de Moore. Lo que Gordon Moore, el cofundador de Intel, percibió hace algo más de cinco décadas y media fue que el número de transistores de los circuitos integrados se duplicaría cada año, y, a la par, su coste relativo se reduciría drásticamente.

Diez años más tarde enmendó su observación al incrementar el plazo de tiempo necesario para que se lleve a cabo ese desarrollo de la tecnología de integración, colocándolo en 24 meses, y no en un año. Y desde entonces su pronóstico se ha cumplido con una precisión más que razonable. No obstante, para sostener esta tendencia a lo largo del tiempo ha sido necesario innovar. Innovar mucho y bien.

ASML, Intel, TSMC, Samsung, GlobalFoundries y otras compañías involucradas en la industria de la fabricación de circuitos integrados dedican una parte importante de sus recursos a la investigación y el desarrollo de nuevas tecnologías. Aquí no hay secretos: para mejorar la tecnología de integración es necesario innovar. Y es precisamente lo que está haciendo Intel. Estos son los tres pilares en los que está trabajando para conseguir una fotolitografía que le permita marcar la diferencia, y, por el camino, dilatar la ley de Moore:

  • Al silicio le debemos mucho. Muchísimo. Es el elemento químico que nos ha traído hasta aquí y el que durante décadas ha hecho posible un desarrollo tecnológico que aún perdura. El problema es que sus propiedades fisicoquímicas imponen unas restricciones que se van acercando más y más a medida que se va desarrollando la tecnología de integración. Intel asegura estar trabajando en nuevos materiales que solo tendrán unos pocos átomos de espesor y que le permitirán poner a punto transistores diseñados para superar las limitaciones impuestas por el silicio.
  • Uno de los objetivos que persiguen los fabricantes de semiconductores consiste en encontrar la forma de introducir más transistores por milímetro cuadrado, y una manera de conseguirlo pasa por no colocarlos únicamente uno al lado del otro; también es posible apilarlos unos encima de otros utilizando unas diminutas placas que permiten duplicar la densidad de integración. Este es uno de los objetivos primordiales que tendrá la arquitectura de transistores RibbonFET, que está llamada a reemplazar a la actual FinFET, y que podría estar lista en 2024.
  • La tercera área esencial en la que están trabajando los ingenieros de Intel no es otra que la optimización del empaquetado de sus circuitos integrados. Lo que buscan es incrementar la densidad de interconexión, y la tecnología Foveros Direct, que según esta compañía estará lista en 2023, persigue multiplicarla por 10 haciendo posible la conexión directa de conductores de cobre a cobre, lo que permite, de paso, minimizar la resistencia.

Como acabamos de ver, las innovaciones en las que Intel asegura estar trabajando sobre el papel pintan muy bien. Y, además, algunas de ellas podrían estar listas en no más de dos o tres años. Ojalá sea así porque no cabe duda de que lo que nos interesa a los usuarios es que los fabricantes de semiconductores, se llamen como se llamen, tengan las tecnologías más competitivas a su alcance. Y si, además, estas innovaciones llegan de la mano del fin de la crisis de los circuitos integrados, miel sobre hojuelas.

Más información | Intel

-
La noticia Intel tiene un plan para conseguir una fotolitografía ganadora y asegurar que la ley de Moore seguirá vigente más allá de 2025 fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El diamante, el berilio, la seda y otros materiales exóticos usados en los altavoces: analizamos si tienen sentido o es solo ‘marketing’

El diamante, el berilio, la seda y otros materiales exóticos usados en los altavoces: analizamos si tienen sentido o es solo 'marketing'

En el mundo de la alta fidelidad la línea que separa lo esotérico de lo que tiene una justificación técnica es a veces tenue. Una de las peculiaridades más llamativas del mercado que da soporte a esta afición consiste en que a pesar de su moderado tamaño está conformado por un número de empresas importante. Y muchas de ellas son relativamente pequeñas.

Sobrevivir en un mercado con un volumen comedido y en el que la competencia es muy dura requiere ser capaz de atraer la atención de los aficionados. Muchas marcas (probablemente la mayoría) apuestan por exponer aquellos atributos de sus productos que les parecen más competitivos, como, por ejemplo, su calidad de sonido, su diseño o su construcción.

Sin embargo, también hay marcas que apuestan por otra estrategia que a corto plazo puede funcionar, pero a medio y largo plazo suele condenarles a un fracaso estrepitoso. Las empresas que deciden recorrer este camino para capturar la atención de los aficionados suelen edulcorar las características de sus productos, y una forma de hacerlo consiste en introducir en ellos materiales o componentes llamativos que no responden a una justificación técnica.

Si su presencia no está justificada con un argumento técnico sólido, solo es 'marketing'

Afortunadamente los aficionados tenemos una herramienta muy valiosa que puede ayudarnos a protegernos de estas argucias: la coherencia. Si un material o un elemento concreto de un componente de alta fidelidad no va de la mano de una justificación técnica clara, sólida y libre de ambigüedades lo más probable es que se trate de un intento del fabricante de llamar nuestra atención introduciendo algo que encarece su producto pero que, en realidad, posiblemente no aporta nada relevante a su sonido.

Si un elemento concreto no va de la mano de una justificación técnica clara, sólida y libre de ambigüedades lo más prudente es desconfiar

Las cajas acústicas son un componente de nuestros equipos de música muy sensible a estas prácticas, especialmente si nos ceñimos a los materiales utilizados en la fabricación del recinto y el diafragma de los altavoces. Algunos fabricantes introducen en ellos elementos caros y llamativos que por el mero hecho de serlo pueden despertar la suspicacia de algunos aficionados.

Y llegados a este punto podemos encontrarnos con dos opciones: que solo estemos ante una maniobra de marketing que no está vinculada a una justificación técnica, o bien que ese elemento sí tenga un impacto en la calidad de sonido perceptible y cuantificable utilizando el instrumental de medida adecuado.

A estos últimos componentes está dedicado este artículo: a aquellos que por su naturaleza, e, incluso, por su carácter lujoso, pueden invitarnos a pensar que no son más que una argucia de marketing del fabricante, pero que, en realidad, aportan y están justificados desde un punto de vista estrictamente técnico.

Estos son algunos materiales exóticos, y con sentido, utilizados en el diafragma

Como he mencionado unas líneas más arriba, el diafragma de los altavoces es un elemento en el que algunos fabricantes introducen materiales que a priori podrían invitarnos a pensar que solo responden a una maniobra de marketing. Sin embargo, la presencia de algunos de ellos está justificada porque persigue aproximar el comportamiento del altavoz al de un pistón ideal.

Un altavoz de calidad debe exhibir un comportamiento lo más cercano posible al de un pistón perfecto

El diafragma de un altavoz perfecto debería ser capaz de desplazarse hacia delante y atrás de una forma instantánea, cambiando de dirección sin verse sometido a la inercia. Y, por supuesto, sin deformarse lo más mínimo como consecuencia del estrés mecánico al que está siendo sometido cuando está generando las ondas de presión que nosotros percibimos como sonido. Por supuesto, este es tan solo un ideal teórico completamente irrealizable.

En la práctica el diafragma de cualquier altavoz está sometido a la inercia, y, además, se deforma como consecuencia del estrés mecánico al que se ve sometido. Sin embargo, el material utilizado en su fabricación, y también la forma en que está ejecutada su suspensión periférica, determina tanto sus propiedades como su respuesta 'en combate'. Esta es la razón por la que muchos fabricantes utilizan en su puesta a punto materiales relativamente exóticos.

Diafragmadiamante

Los 'tweeters' de diamante suelen exhibir un nivel de detalle muy alto y una respuesta en frecuencia amplia, pero su producción es compleja, lo que provoca que sean muy caros.

Bowers & Wilkins y Usher Audio son dos de las marcas que han incorporado en sus cajas acústicas de gama alta tweeters con cúpula de diamante producidos mediante deposición química de vapor. El diafragma de diamante se caracteriza por tener una masa muy baja y una rigidez extremadamente alta, por lo que es capaz de soportar el estrés mecánico natural al que se ve sometido un altavoz de agudos asumiendo una deformación mínima que es posible medir con el instrumento adecuado.

Bowers & Wilkins y Usher Audio son dos de las marcas que han incorporado en sus cajas acústicas de gama alta 'tweeters' con cúpula de diamante

La firma francesa Focal, sin embargo, aduce que el diafragma de berilio es el que confiere al altavoz de agudos el comportamiento más cercano al de un pistón ideal gracias a su extrema rigidez. Curiosamente tanto los tweeters de diamante como los de berilio suelen exhibir un nivel de detalle muy alto y una respuesta en frecuencia muy amplia, pero a algunos aficionados a la alta fidelidad su elevada resolución les parece desagradable. Va en gustos, pero desde un punto de vista técnico ambos materiales tienen sentido.

Otros fabricantes, sin embargo, han seguido un camino diferente y han optado por utilizar en la fabricación del diafragma de sus altavoces de agudos una fibra textil ligera y muy parecida a la seda. Dynaudio, DALI o Scan-Speak, son algunos de ellos, y suelen argumentar que este material exhibe una frecuencia de resonancia muy baja y una gran capacidad de manejo de potencia.

Dynaudio

Dynaudio es uno de los fabricantes de cajas acústicas que apuestan por utilizar cúpulas textiles en sus altavoces de agudos.

Sus propiedades físicas son muy diferentes a las del diamante o el berilio, y, precisamente, estas diferencias provocan que su sonido también sea distinto. En cualquier caso, su presencia está justificada como consecuencia de la búsqueda de un comportamiento y una estética sonora concreta.

Cuando un fabricante explica con claridad por qué motivos ha elegido un material concreto, y lo respalda con argumentos técnicos sólidos, el esoterismo queda a un lado

Hasta ahora solo hemos hablado del diafragma del altavoz de agudos, pero el comportamiento del de los altavoces de medios y graves también depende en gran medida del material utilizado en su fabricación.

Por esta razón, cuando un fabricante explica con claridad por qué motivos ha elegido un material concreto, y lo respalda con argumentos técnicos sólidos, algo que hacen todas las marcas que he mencionado hasta ahora, y también muchas otras, el esoterismo queda a un lado. A partir de ahí los usuarios somos libres de decidir si la estética sonora que nos proponen encaja con nuestras preferencias.

El recinto debe ser inerte (casi siempre), y hay varias formas de conseguir que lo sea

La práctica totalidad de los fabricantes de cajas acústicas se esfuerza para dotar al recinto de sus soluciones, al menos al de las más elaboradas, de la máxima rigidez posible y la mínima presencia de vibraciones que puedan alterar el sonido generado por los altavoces.

El 'casi siempre' que he utilizado en el titular de esta sección responde al hecho de que hay algunas marcas que abogan por diseñar recintos meticulosamente concebidos y sintonizados para vibrar y generar sonido. Una de ellas, quizá la que lleva esta filosofía a su máxima expresión, es la japonesa Kiso Acoustic, pero es una práctica poco habitual.

El material más utilizado en la fabricación del recinto de las cajas acústicas es la madera reconstituida de densidad media

Lo más frecuente es buscar que el recinto sea muy rígido e inerte, y para lograrlo la mayor parte de los fabricantes recurre a una estructura de refuerzos internos que incrementa su rigidez. Sin embargo, hay otra opción que suele convivir con los refuerzos internos: el material utilizado en la fabricación del propio recinto de la caja acústica.

El más empleado es la madera reconstituida de densidad media, conocida habitualmente como DM o MDF, que en combinación con una estructura de refuerzos internos bien ejecutada puede ofrecer una rigidez muy notable.

Sin embargo, algunas marcas han optado por utilizar en la fabricación del recinto de sus cajas acústicas un material, o, incluso, una combinación de ellos, diferente a la madera de densidad media con el propósito de dotarlo de la máxima rigidez posible.

Wilsonaudio

Wilson Audio no ha dado a conocer la composición del material que utiliza en la fabricación del recinto de sus cajas acústicas, pero basta escucharlas para darse cuenta de que consigue lo que persigue: una rigidez a prueba de bombas.

Bowers & Wilkins utiliza aluminio en la fabricación del recinto de sus altavoces de agudos y medios de gama alta, e YG Acoustics mecaniza todo el recinto de sus cajas acústicas empleando este material. Hay otras marcas que también siguen un camino similar, pero lo interesante es que la elección del aluminio está justificada por su rigidez y notable inmunidad frente a las vibraciones.

Cuando una marca decide ser opaca y no justifica su elección nos está invitando a desconfiar

Otros fabricantes, sin embargo, prescinden tanto de la madera como del aluminio, y optan por emplear en sus recintos materiales relativamente exóticos cuya composición no está del todo clara. La opacidad que suelen mostrar puede estar vinculada a la ausencia de argumentos técnicos sólidos que respalden su elección, o bien a la necesidad de proteger la propiedad intelectual de su 'receta'.

Una marca que encaja en esta última filosofía es Wilson Audio, que no ha desvelado la composición del recinto de sus cajas acústicas, pero cuyos diseños tienen una calidad que está objetivamente fuera de toda duda y un sonido sobresaliente (aunque también un precio que los coloca fuera del alcance de la mayor parte de los usuarios).

Aun así, cuando una marca decide ser opaca y no justifica su elección nos está invitando a desconfiar. Y sí, cabe la posibilidad de que solo sea una maniobra de marketing, por lo que la postura más razonable que podemos adoptar los aficionados es, precisamente, el escepticismo.

Imágenes | Bowers & Wilkins | Dynaudio | Wilson Audio

-
La noticia El diamante, el berilio, la seda y otros materiales exóticos usados en los altavoces: analizamos si tienen sentido o es solo 'marketing' fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Esta es la sala de control de una central nuclear por dentro y así es como los operadores mantienen la fisión nuclear bajo control

Esta es la sala de control de una central nuclear por dentro y así es como los operadores mantienen la fisión nuclear bajo control

La sala de control que podéis ver en la fotografía de portada de este artículo pertenece a la central nuclear de Almaraz. Pero no está en esta central. Está en San Sebastián de los Reyes, una localidad situada a pocos kilómetros de Madrid. Eso sí, es una réplica exacta de la sala de control de Almaraz. Tiene el mismo tamaño, la misma forma, los mismos equipos electrónicos e informáticos, la misma luz… Todo está cuidado con tanto detalle que ni siquiera los operadores de la sala de control de la central de Almaraz serían capaces de distinguir una sala de la otra.

Las instalaciones que hemos tenido la oportunidad de visitar son las de San Sebastián de los Reyes, y pertenecen a una empresa privada de ingeniería nuclear llamada Tecnatom. Su propósito es doble. Se utilizan para formar a los operadores que ya trabajan o van a trabajar en las salas de control de las centrales nucleares, y también para probar en ellas cualquier cambio que afecte a los equipos electrónicos, eléctricos, mecánicos o al software antes de desplegarlo en la sala de control de la propia central nuclear. Es la estrategia más eficaz en una industria en la que la seguridad es un principio a defender a toda costa.


Leer más

Samsung ya está fabricando sus televisores QD-OLED y competirá con LG en su propio terreno, según los medios surcoreanos

Samsung ya está fabricando sus televisores QD-OLED y competirá con LG en su propio terreno, según los medios surcoreanos

Si se cumplen los pronósticos la próxima edición del CES, que comenzará el ya cercano 5 de enero, será una de las más interesantes de los últimos años. Una de las razones para esperar este evento con expectación es que tenemos motivos sólidos para creer que Samsung presentará en él sus primeros televisores equipados con un panel QD-OLED (Quantum Dot-OLED), lo que permitirá a esta marca competir de tú a tú con LG en un mercado en el que esta última ha campado a sus anchas durante casi una década.

Los medios de comunicación surcoreanos siguen muy de cerca los pasos que ha dado Samsung durante los últimos años. En 2019 desvelaron que esta compañía había comenzado a reestructurar sus fábricas de paneles LCD para iniciar la producción de matrices QD-OLED, y durante los últimos meses varios diarios asiáticos con una reputación sólida han asegurado que ya estaba a punto de iniciar la producción a gran escala de estos paneles.

Es muy razonable asumir que Samsung Display venderá sus paneles QD-OLED a terceros, y las filtraciones aseguran que Sony apostará por ellos en 2022

En cualquier caso, la información más jugosa llegó hace escasamente dos semanas de la mano de BusinessKorea. Y es que este medio asegura que Samsung Display, que es la filial especializada en el diseño y la fabricación de paneles de imagen, inició la producción masiva de matrices QD-OLED para televisores durante el pasado mes de octubre. ¿Su propósito? Brindar a Samsung Electronics la posibilidad de enseñar sus primeros televisores equipados con esta tecnología durante la próxima edición del CES.

No obstante, esto no es todo. Durante los últimos días varios medios de comunicación surcoreanos han filtrado algo razonablemente previsible (y, por tanto, creíble): Samsung Display va a vender sus paneles QD-OLED a terceros, por lo que no los encontraremos solo en los televisores de Samsung.

Es un movimiento idéntico al que ha hecho durante los últimos años LG Display, y que nos permite encontrar sus paneles OLED en los televisores de Philips, Panasonic, Hisense y Sony, entre otras marcas. De hecho, según estas filtraciones esta última compañía japonesa colocará en el mercado sus primeros televisores QD-OLED con un panel fabricado por Samsung durante la segunda mitad de 2022.

Esta es la fórmula de la tecnología QD-OLED: puntos cuánticos + OLED

La principal ventaja de los paneles White OLED (W-OLED) que fabrica LG Display frente a los RGB OLED convencionales es que no adolecen de la degradación prematura del subpíxel azul. Además, su producción es más sencilla, barata y permite obtener paneles con un tamaño sensiblemente mayor al de los paneles RGB OLED. Sin embargo, no todo son ventajas.

Los paneles OLED de 3ª generación de LG nos proponen una capacidad de entrega de brillo y una reproducción del color sobresalientes

La tecnología W-OLED requiere la colocación encima de la matriz de diodos orgánicos de un filtro de color RGB que permite la reproducción de los tres colores básicos, pero que, a cambio, absorbe luz, reduciendo sensiblemente la capacidad de entrega de brillo de los paneles W-OLED frente a los RGB OLED. Y, además, su capacidad de reproducción del color es inferior a la de esta última tecnología.

Los paneles OLED para televisores de LG han madurado mucho desde que vieron la luz por primera vez, y las matrices de tercera generación que podemos encontrar actualmente tanto en el modelo G1 de esta marca como en las soluciones de otros fabricantes nos proponen una capacidad de entrega de brillo y una reproducción del color sobresalientes.

En cualquier caso, la tecnología QD-OLED en la que está trabajando Samsung aspira a resolver los dos hándicaps de W-OLED, pero intentando mantener sus bazas frente a RGB OLED. Lo que propone Samsung es reemplazar el filtro RGB que requieren los paneles W-OLED por una matriz de nanocristales, o puntos cuánticos, que se responsabilice de la reproducción del color.

La eliminación del filtro RGB debería permitir al panel arrojar una capacidad de entrega de brillo superior tanto al medir el valor medio como los picos

En teoría la eliminación del filtro RGB debería permitir al panel arrojar una capacidad de entrega de brillo superior tanto al medir el valor medio como los picos. Y, además, los nanocristales deberían conseguir reproducir un espacio de color sensiblemente más amplio que el filtro de color RGB. No obstante, los cambios que propone Samsung frente a la tecnología W-OLED no acaban aquí.

A diferencia de los paneles OLED de LG Display, que utilizan píxeles de color blanco, los de Samsung recurrirán a píxeles de color azul, de manera que serán los nanocristales los responsables de actuar sobre la luz azul para generar los otros dos colores primarios (rojo y verde). Esta transformación es posible gracias a una propiedad muy interesante de los nanocristales: su estructura les permite modificar la longitud de onda de la luz, de ahí que consigan manipular la luz azul para generar a partir de ella luz roja y verde.

Los «puntos cuánticos» son un tipo de nanocristales compuestos por materiales semiconductores con unas propiedades muy curiosas. Y es que su tamaño es tan pequeño que su comportamiento queda descrito por las leyes de la mecánica cuántica, y no podría ser explicado utilizando la mecánica clásica.

Sus características electrónicas están definidas, por un lado, por su tamaño, y, por otro, por su forma, lo que explica que actualmente se estén utilizando nanocristales para aplicaciones muy diferentes, como son la tecnología fotovoltaica, el etiquetado biológico, las tecnologías de eliminación de agentes contaminantes… Y, por supuesto, en electrónica.

Para nosotros la innovación más rompedora en el ámbito de los dispositivos de visualización de gran formato es la tecnología microLED

El reto durante el proceso de fabricación de los puntos cuánticos consiste en controlar con mucha precisión el tamaño de los nanocristales. De esta forma es posible conseguir partículas que brillen en cualquier tono del espectro de luz visible al ser excitadas por una corriente eléctrica, colores entre los que se encuentran, por supuesto, el rojo, el verde y el azul que necesitamos para componer el color a través de un panel RGB como los utilizados en los televisores.

En nuestra opinión la innovación más rompedora en el ámbito de los dispositivos de visualización de gran formato es la tecnología microLED. Ya la hemos visto en acción, y está disponible desde hace meses en algunos televisores prémium de Samsung que tienen un precio inalcanzable para la mayor parte de los usuarios.

Precisamente por esta razón es una buena noticia que mientras se abaratan los televisores microLED los usuarios tengamos más opciones en el campo de batalla de los OLED. No cabe duda de que la inminente competencia entre LG y Samsung provocará que los precios de estos dispositivos se reduzcan, una tendencia que se ha consolidado con claridad durante los últimos tres años. Y que siga así.

Vía | BusinessKorea

-
La noticia Samsung ya está fabricando sus televisores QD-OLED y competirá con LG en su propio terreno, según los medios surcoreanos fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Samsung ya está fabricando sus televisores QD-OLED y competirá con LG en su propio terreno, según los medios surcoreanos

Samsung ya está fabricando sus televisores QD-OLED y competirá con LG en su propio terreno, según los medios surcoreanos

Si se cumplen los pronósticos la próxima edición del CES, que comenzará el ya cercano 5 de enero, será una de las más interesantes de los últimos años. Una de las razones para esperar este evento con expectación es que tenemos motivos sólidos para creer que Samsung presentará en él sus primeros televisores equipados con un panel QD-OLED (Quantum Dot-OLED), lo que permitirá a esta marca competir de tú a tú con LG en un mercado en el que esta última ha campado a sus anchas durante casi una década.

Los medios de comunicación surcoreanos siguen muy de cerca los pasos que ha dado Samsung durante los últimos años. En 2019 desvelaron que esta compañía había comenzado a reestructurar sus fábricas de paneles LCD para iniciar la producción de matrices QD-OLED, y durante los últimos meses varios diarios asiáticos con una reputación sólida han asegurado que ya estaba a punto de iniciar la producción a gran escala de estos paneles.

Es muy razonable asumir que Samsung Display venderá sus paneles QD-OLED a terceros, y las filtraciones aseguran que Sony apostará por ellos en 2022

En cualquier caso, la información más jugosa llegó hace escasamente dos semanas de la mano de BusinessKorea. Y es que este medio asegura que Samsung Display, que es la filial especializada en el diseño y la fabricación de paneles de imagen, inició la producción masiva de matrices QD-OLED para televisores durante el pasado mes de octubre. ¿Su propósito? Brindar a Samsung Electronics la posibilidad de enseñar sus primeros televisores equipados con esta tecnología durante la próxima edición del CES.

No obstante, esto no es todo. Durante los últimos días varios medios de comunicación surcoreanos han filtrado algo razonablemente previsible (y, por tanto, creíble): Samsung Display va a vender sus paneles QD-OLED a terceros, por lo que no los encontraremos solo en los televisores de Samsung.

Es un movimiento idéntico al que ha hecho durante los últimos años LG Display, y que nos permite encontrar sus paneles OLED en los televisores de Philips, Panasonic, Hisense y Sony, entre otras marcas. De hecho, según estas filtraciones esta última compañía japonesa colocará en el mercado sus primeros televisores QD-OLED con un panel fabricado por Samsung durante la segunda mitad de 2022.

Esta es la fórmula de la tecnología QD-OLED: puntos cuánticos + OLED

La principal ventaja de los paneles White OLED (W-OLED) que fabrica LG Display frente a los RGB OLED convencionales es que no adolecen de la degradación prematura del subpíxel azul. Además, su producción es más sencilla, barata y permite obtener paneles con un tamaño sensiblemente mayor al de los paneles RGB OLED. Sin embargo, no todo son ventajas.

Los paneles OLED de 3ª generación de LG nos proponen una capacidad de entrega de brillo y una reproducción del color sobresalientes

La tecnología W-OLED requiere la colocación encima de la matriz de diodos orgánicos de un filtro de color RGB que permite la reproducción de los tres colores básicos, pero que, a cambio, absorbe luz, reduciendo sensiblemente la capacidad de entrega de brillo de los paneles W-OLED frente a los RGB OLED. Y, además, su capacidad de reproducción del color es inferior a la de esta última tecnología.

Los paneles OLED para televisores de LG han madurado mucho desde que vieron la luz por primera vez, y las matrices de tercera generación que podemos encontrar actualmente tanto en el modelo G1 de esta marca como en las soluciones de otros fabricantes nos proponen una capacidad de entrega de brillo y una reproducción del color sobresalientes.

En cualquier caso, la tecnología QD-OLED en la que está trabajando Samsung aspira a resolver los dos hándicaps de W-OLED, pero intentando mantener sus bazas frente a RGB OLED. Lo que propone Samsung es reemplazar el filtro RGB que requieren los paneles W-OLED por una matriz de nanocristales, o puntos cuánticos, que se responsabilice de la reproducción del color.

La eliminación del filtro RGB debería permitir al panel arrojar una capacidad de entrega de brillo superior tanto al medir el valor medio como los picos

En teoría la eliminación del filtro RGB debería permitir al panel arrojar una capacidad de entrega de brillo superior tanto al medir el valor medio como los picos. Y, además, los nanocristales deberían conseguir reproducir un espacio de color sensiblemente más amplio que el filtro de color RGB. No obstante, los cambios que propone Samsung frente a la tecnología W-OLED no acaban aquí.

A diferencia de los paneles OLED de LG Display, que utilizan píxeles de color blanco, los de Samsung recurrirán a píxeles de color azul, de manera que serán los nanocristales los responsables de actuar sobre la luz azul para generar los otros dos colores primarios (rojo y verde). Esta transformación es posible gracias a una propiedad muy interesante de los nanocristales: su estructura les permite modificar la longitud de onda de la luz, de ahí que consigan manipular la luz azul para generar a partir de ella luz roja y verde.

Los «puntos cuánticos» son un tipo de nanocristales compuestos por materiales semiconductores con unas propiedades muy curiosas. Y es que su tamaño es tan pequeño que su comportamiento queda descrito por las leyes de la mecánica cuántica, y no podría ser explicado utilizando la mecánica clásica.

Sus características electrónicas están definidas, por un lado, por su tamaño, y, por otro, por su forma, lo que explica que actualmente se estén utilizando nanocristales para aplicaciones muy diferentes, como son la tecnología fotovoltaica, el etiquetado biológico, las tecnologías de eliminación de agentes contaminantes… Y, por supuesto, en electrónica.

Para nosotros la innovación más rompedora en el ámbito de los dispositivos de visualización de gran formato es la tecnología microLED

El reto durante el proceso de fabricación de los puntos cuánticos consiste en controlar con mucha precisión el tamaño de los nanocristales. De esta forma es posible conseguir partículas que brillen en cualquier tono del espectro de luz visible al ser excitadas por una corriente eléctrica, colores entre los que se encuentran, por supuesto, el rojo, el verde y el azul que necesitamos para componer el color a través de un panel RGB como los utilizados en los televisores.

En nuestra opinión la innovación más rompedora en el ámbito de los dispositivos de visualización de gran formato es la tecnología microLED. Ya la hemos visto en acción, y está disponible desde hace meses en algunos televisores prémium de Samsung que tienen un precio inalcanzable para la mayor parte de los usuarios.

Precisamente por esta razón es una buena noticia que mientras se abaratan los televisores microLED los usuarios tengamos más opciones en el campo de batalla de los OLED. No cabe duda de que la inminente competencia entre LG y Samsung provocará que los precios de estos dispositivos se reduzcan, una tendencia que se ha consolidado con claridad durante los últimos tres años. Y que siga así.

Vía | BusinessKorea

-
La noticia Samsung ya está fabricando sus televisores QD-OLED y competirá con LG en su propio terreno, según los medios surcoreanos fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Las suscripciones llegan a los coches: el grupo Stellantis prevé ingresar 20 000 millones de euros más al año gracias a las actualizaciones de software

Las suscripciones llegan a los coches: el grupo Stellantis prevé ingresar 20 000 millones de euros más al año gracias a las actualizaciones de software

La industria del automóvil se está transformando de una forma muy profunda y con una rapidez sorprendente. Las circunstancias lo exigen. El coche eléctrico es una herramienta valiosa en el marco de una estrategia global que persigue minimizar las emisiones contaminantes. Y el desarrollo del coche autónomo está siendo propulsado de una forma notable por los avances en inteligencia artificial y conectividad.

Dadas las circunstancias el 'hardware' de los coches, entendiéndolo como el conjunto de sus componentes físicos, está perdiendo relevancia a la misma velocidad a la que el software y los servicios vinculados a la industria del automóvil la están adquiriendo. El grupo Stellantis acaba de pronunciarse, y su apuesta no deja lugar a dudas: el software va a ser una fuente de ingresos fundamental para los fabricantes de coches. Y, además, lo va a ser dentro de muy poco tiempo.

Este conglomerado empresarial aglutina marcas tan relevantes como DS, Citroën, Peugeot, Fiat, Alfa Romeo o Chrysler, entre muchas otras, y Carlos Tavares, el director general del grupo, ha asegurado hace unos minutos que todas irán de la mano con un ambicioso objetivo común: incrementar los ingresos anuales de Stellantis en nada menos que 20 000 millones de euros para 2030 gracias al empujón de las actualizaciones de software que recibirán sus coches.

Objetivo: mejorar la experiencia de los usuarios y catapultar los ingresos

Las cifras que maneja el grupo Stellantis marean. De aquí a 2025 invertirá más de 30 000 millones de euros para afrontar la transformación de su porfolio de vehículos necesaria para desplegar la electrificación masiva que ya está en marcha. Y también para hacer posibles las actualizaciones del software de los coches que, sobre el papel, permitirán a todas las marcas del grupo desarrollar notablemente sus prestaciones globales.

En este contexto el término 'prestaciones' no se ciñe únicamente a su rendimiento sobre el asfalto; condiciona todos los apartados que inciden de alguna forma en la experiencia que tenemos los usuarios. Y es que lo que nos propone Stellantis es que «nuestros coches no sean únicamente un recurso para desplazarnos del punto A al B; también deben ser un espacio personalizado en el que podamos desarrollar nuestra productividad, e, incluso, disfrutar nuestros momentos de ocio».

Según Stellantis en 2030 habrá aproximadamente 34 millones de coches conectados y monetizables. Ahí queda eso

Este es el contexto en el que las actualizaciones de software están llamadas a tener en los coches una importancia similar a la que tienen actualmente en nuestros teléfonos móviles y ordenadores. Cuando nuestro coche reciba una de ellas pondrá en nuestras manos, al menos en teoría, capacidades que antes no tenía, por lo que las mejoras del software no se limitarán únicamente a corregir aquellos errores que han sido identificados.

Según Stellantis en 2030 habrá aproximadamente 34 millones de coches conectados y monetizables. Y en 2024 prácticamente todos los vehículos nuevos se podrán actualizar de forma remota. Una de las características importantes que tendrán estas actualizaciones de software es que se podrán desplegar vía OTA (Over-The-Air), por lo que llegarán a los coches de forma inalámbrica y sin necesidad de llevarlos a un taller o conectarlos a un ordenador.

Stellantis aún no ha dado a conocer los detalles acerca de las actualizaciones de software que llegarán a sus coches durante los próximos años. No sabemos en qué rango de precios se moverán, pero ha confirmado que pondrá a disposición de sus clientes varios servicios de suscripción, y también que lo que persigue, en definitiva, es desconectar el ciclo de desarrollo del software del ciclo de evolución del hardware.

Para conseguirlo planea lanzar actualizaciones de software OTA frecuentes, de manera que en 2026 llegarán como mínimo cada tres meses, y a partir de 2030 serán mucho más frecuentes: «llegarán de una forma casi constante», ha asegurado uno de sus ejecutivos. Aunque no lo han confirmado, esta estrategia nos invita a prever que posiblemente las suscripciones darán acceso a los usuarios de forma temporal a las actualizaciones, de modo que para seguir actualizando un vehículo será necesario sostener la suscripción a lo largo del tiempo.

A partir de 2030 las actualizaciones OTA serán muy frecuentes: «llegarán de una forma casi constante»

También cabe la posibilidad de que quien compre un coche de alguna de las marcas de Stellantis pueda pagar puntualmente una actualización de software que despliegue un paquete de mejoras concretas en su vehículo. Os contaremos más tan pronto como tengamos más información acerca de las modalidades de suscripción que baraja este grupo automovilístico. Es evidente que estamos a punto de presenciar cambios muy profundos en la industria del automóvil, y posiblemente no serán del agrado de todos los usuarios.

Dos apuntes interesantes antes de finalizar. Stellantis ha llegado a un acuerdo con Foxconn que permitirá a esta última desarrollar cuatro nuevas familias de chips que cubrirán más del 80% de las necesidades de semiconductores de este grupo a partir de 2024. Y ese mismo año también estarán disponibles tres nuevas plataformas tecnológicas que perseguirán desarrollar la inteligencia artificial de sus coches y favorecer el despliegue a gran escala de las actualizaciones OTA a las que hemos dedicado la mayor parte de este artículo.

Más información | Stellantis

-
La noticia Las suscripciones llegan a los coches: el grupo Stellantis prevé ingresar 20 000 millones de euros más al año gracias a las actualizaciones de software fue publicada originalmente en Xataka por Juan Carlos López .

Leer más