Las ondas de choque cósmicas ganan puntos como responsables de que las partículas subatómicas adquieran más energía

Las ondas de choque cósmicas ganan puntos como responsables de que las partículas subatómicas adquieran más energía

Los científicos vigilan con atención las ondas de choque que se propagan por algunas regiones del cosmos desde hace mucho tiempo. Y lo hacen porque sospechan que pueden ayudarnos a entender mejor los mecanismos que provocan que algunas partículas subatómicas adquieran más energía durante su periplo por el espacio.

Estas ondas de choque son el resultado de fenómenos naturales muy diversos, como, por ejemplo, las supernovas, o, incluso, algo mucho menos violento, como la interacción con el campo magnético de un planeta. Sea cual sea su origen, lo curioso es que pueden contribuir a la aceleración de algunas partículas hasta ayudarlas a alcanzar una velocidad muy próxima a la de la luz.

Las partículas con carga eléctrica que constituyen el viento solar sufren una aceleración, y, por tanto, un incremento de energía, cuando interaccionan con el campo magnético terrestre

Para darnos de bruces con este fenómeno no hace falta que nos vayamos muy lejos. Las partículas con carga eléctrica que constituyen el viento solar (protones, electrones y partículas alfa) sufren una aceleración, y, por tanto, un incremento de energía, cuando interaccionan con el campo magnético terrestre. No obstante, este fenómeno es más complejo de lo que parece debido a que hay otros mecanismos que también pueden intervenir en ese incremento de su energía.

Uno de ellos es la transición relativamente brusca que se produce entre un medio esencialmente vacío y frío como es el espacio, y otro mucho más denso y cálido, como es la atmósfera de nuestro planeta. En cierto modo parece contrario a la intuición que una partícula pueda sufrir un incremento de su energía como resultado de pasar de un medio vacío a otro más denso, pero los científicos creen que esa aceleración es el resultado del paso abrupto de un medio a otro. Precisamente ese cambio de presión actúa como una onda de choque capaz de desviar y acelerar las partículas.

Un pequeño inciso antes de seguir adelante. En realidad, el vacío del espacio es un falso vacío. Esta discusión queda fuera del alcance de este artículo, pero si os interesa que indaguemos en este falso vacío podemos hacerlo en otro reportaje. No obstante, si tenéis curiosidad quizá os apetezca echar un vistazo al texto en el que hablamos de la posibilidad de que el universo se haya originado a partir del vacío cuántico.

Así es como los científicos han recreado este fenómeno en el laboratorio

Un grupo de investigación que aglutina a científicos que desarrollan su actividad docente en universidades francesas, italianas, rusas, canadienses, checas y rumanas ha publicado un interesantísimo artículo en Nature Physics en el que explica con detalle cómo ha logrado recrear en el laboratorio, a pequeña escala, claro, la interacción que se produce cuando las partículas subatómicas se ven expuestas a una onda de choque de naturaleza cósmica.

El experimento que han llevado a cabo estos investigadores ha logrado que los protones de un gas adquieran una energía máxima de 80 000 eV

La idea es relativamente sencilla. Lo que han hecho ha sido emplear un láser de alta potencia para calentar de forma abrupta y muy intensa un gas, transformándolo en plasma. Después este gas extremadamente caliente lo han inyectado en una nube de hidrógeno, de manera que la interacción de las partículas de ambos gases tenga como resultado la aparición de una onda de choque. Al hacerlo los protones del gas más frío han sufrido una aceleración, adquiriendo una energía máxima de 80 000 eV (electronvoltios). Esta no es una unidad de energía que estemos acostumbrados a manejar, pero nos viene bien saber que es muchísima energía.

Este experimento no puede ser considerado definitivo porque no basta para comprender en toda su extensión los mecanismos que explican cómo las partículas subatómicas adquieren más energía cuando viajan a través del cosmos. Pero al menos está ayudando a los científicos a entender mejor algunos de esos mecanismos. No cabe duda de que es un avance importante. Ahora lo que toca es lo mismo de siempre: seguir investigando para dar caza a otros fenómenos que quizá también aportan su granito de arena al misterioso empujón que sufren algunas de las partículas que viajan por el universo.

Imagen de portada | NASA

Más información | Nature Physics

-
La noticia Las ondas de choque cósmicas ganan puntos como responsables de que las partículas subatómicas adquieran más energía fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Es tan grande como una tableta, pero no es una de ellas; es un monstruoso chip para aprendizaje profundo con más de 1,2 billones de transistores

Es tan grande como una tableta, pero no es una de ellas; es un monstruoso chip para aprendizaje profundo con más de 1,2 billones de transistores

Los algoritmos de aprendizaje profundo no se llevan del todo bien con los procesadores de propósito general. Su alto paralelismo intrínseco encaja mucho mejor con la arquitectura de los procesadores gráficos, lo que ha provocado que muchos centros de datos y laboratorios de investigación que se dedican a la inteligencia artificial hayan confiado el esfuerzo de procesado a un clúster de GPU más o menos ambicioso.

Sin embargo, esta no es la única opción. También es posible desplegar una infraestructura de chips enlazados mediante conexiones de alto rendimiento y diseñados específicamente para lidiar con el alto paralelismo intrínseco de los algoritmos de aprendizaje profundo. Una de las compañías que tiene soluciones de este tipo es Intel. Su chip neuromórfico Loihi está fabricado con fotolitografía de 14 nm e incorpora 128 núcleos y algo más de 130 000 neuronas artificiales.

El chip Wafer Scale Engine desarrollado por Cerebra incorpora 1,2 billones de transistores. Y son 1,2 billones de los nuestros, no de los anglosajones

IBM también tiene su propio procesador neuromórfico, un chip al que sus creadores han llamado TrueNorth. Integra 4096 núcleos, de manera que es posible conectar varios de ellos en una red con el propósito de emular, según IBM, un sistema con un millón de neuronas y 256 millones de sinapsis. Intel, IBM y NVIDIA son algunas de las grandes compañías que están involucradas en el desarrollo de hardware diseñado específicamente para inteligencia artificial, pero no son las únicas que tienen algo que decir en este ámbito.

Y es que la empresa californiana Cerebras ha desarrollado un chip diseñado específicamente para aprendizaje profundo. Lo curioso es que se parece relativamente poco a un procesador convencional. Ni siquiera se parece al hardware de Intel o IBM del que he hablado brevemente en los párrafos anteriores. Como podéis ver en la fotografía de portada de este artículo, es mucho más grande que un chip tradicional. De hecho, parece probable que estén empleando una oblea completa para producir cada uno de ellos. No obstante, esta no es en absoluto la única característica por la que el chip de Cerebras es muy poco habitual.

Un chip grande es mejor que muchos pequeños, según Cerebras

Ahí va otro dato sorprendente acerca del procesador Wafer Scale Engine (WSE), que es como lo llaman sus creadores: integra nada menos que 1,2 billones de transistores. Y son 1,2 billones de los nuestros, no de los anglosajones, por lo que esta cifra equivale a la monstruosa cantidad de 1 200 000 000 000 transistores. Sin duda, es una cifra ante la que es difícil no sorprenderse a pesar de las abultadas cantidades de transistores que incorporan los chips con los que todos estamos familiarizados, como las CPU y las GPU de nuestros ordenadores.

Esta descomunal cantidad de transistores responde a la aproximación por la que han optado los ingenieros que han diseñado el chip WSE, que es muy diferente a la estrategia de diseño que han utilizado Intel o IBM en sus propias soluciones. Y es que, siempre según Cerebras, para optimizar la ejecución de los algoritmos de aprendizaje profundo es necesario apostar por un chip dotado de un paralelismo intrínseco muy alto que se manifiesta a través del empaquetado de una enorme cantidad de núcleos. Esta es la razón por la que el chip WSE incorpora la sorprendente cifra de 400 000 núcleos programables.

Wsememoria

Este esquema refleja con mucha claridad que los ingenieros de Cerebras han apostado por distribuir la memoria alrededor de los 400 000 núcleos del chip WSE para minimizar la latencia e incrementar su rendimiento global.

No obstante, no toda la superficie del chip está dedicada a los núcleos de proceso, como es lógico. Otro de los subsistemas que también acapara una parte importante de la lógica es la memoria. Colocarla cerca de los núcleos permite reducir la latencia, incrementar el rendimiento y minimizar el consumo de forma perceptible, de nuevo según Cerebras. Y tiene sentido. El chip WSE integra 18 GB de memoria.

Y, para concluir, dos cifras más que afianzan la ambición que tiene este procesador: el ancho de banda de la memoria roza los 9,6 Petabytes, y los 400 000 núcleos se comunican con el exterior a través de un enlace con una velocidad de transferencia de 100 Petabits por segundo. Son unas cifras monstruosas que quedan muy lejos de las que manejan los procesadores de nuestros ordenadores. Eso sí, no debemos perder de vista que los chips WSE no sirven para cualquier cosa. Lo suyo es el aprendizaje profundo.

Imágenes | Cerebras

Más información | Cerebras

-
La noticia Es tan grande como una tableta, pero no es una de ellas; es un monstruoso chip para aprendizaje profundo con más de 1,2 billones de transistores fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El primer helicóptero eléctrico que utiliza hidrógeno ya está en camino: si satisface las expectativas demostrará la viabilidad de este combustible en la aviación

El primer helicóptero eléctrico que utiliza hidrógeno ya está en camino: si satisface las expectativas demostrará la viabilidad de este combustible en la aviación

La electrificación de los vehículos pesados de transporte plantea numerosos retos. La energía necesaria para hacer posible el desplazamiento de un camión, un helicóptero o un avión es mucho mayor que la que requiere un coche, por lo que llevar a buen puerto la electrificación de estos y otros vehículos pesados no es una tarea sencilla. Aun así, este camino ya lo estamos recorriendo.

Si nos ceñimos a los camiones son muchas las marcas que llevan varios años trabajando en soluciones eléctricas con el doble propósito de que desplacen definitivamente a los vehículos con motor de combustión y comiencen a surcar las carreteras lo antes posible. Tesla, Volvo, Daimler, MAN, Renault Trucks (que pertenece a Volvo Trucks), Irizar y Nikola son algunas de las empresas que ya han tomado posiciones en este mercado.

Las empresas que compiten en el ámbito de la aviación también están sumidas en esta transición, pero su avance por la senda de la electrificación es más lento que el de las compañías que se dedican a los grandes vehículos de transporte por carretera. Aun así, de cuando en cuando se produce algún anuncio significativo. Y la proximidad del primer helicóptero eléctrico que utilizará una pila de combustible de hidrógeno es un paso firme hacia delante.

Objetivo: conseguir la certificación en 2024 y llegar al mercado en 2025

Este helicóptero eléctrico es el resultado del esfuerzo conjunto de dos empresas: Piasecki Aircraft, una compañía estadounidense especializada en el desarrollo de helicópteros y vehículos aéreos autónomos, y HyPoint, una empresa emergente que se dedica a la puesta a punto de pilas de combustible de hidrógeno para aviación.

Los diseñadores del Piasecki PA-890, que es como se llama este helicóptero, pretenden que sea utilizado por los servicios médicos de emergencia, para transportar mercancías de alto valor, y también para facilitar el desplazamiento de personas. Según HyPoint su sistema de pila de combustible de hidrógeno es capaz de entregar una potencia específica de al menos 2000 W/kg, y propone una densidad energética no inferior a 1500 Wh/kg. Estas cifras sobre el papel encajan con los requisitos que imponen los vehículos de transporte aéreo.

Helicopteroelectrico 2

Para poner en perspectiva las cifras que acabamos de ver podemos fijarnos en el rendimiento energético que tienen las baterías de iones de litio utilizadas actualmente en los coches eléctricos. La mayor parte de ellas tiene una densidad energética inferior a los 300 Wh/kg, y las baterías de estado sólido que llegarán a medio plazo, si su desarrollo sigue su curso tal y como sus promotores han prometido, tendrán una densidad energética de unos 500 Wh/kg. En estas coordenadas los 1500 Wh/kg de los que habla HyPoint suenan muy bien.

No obstante, esto no es todo. Piasecki Aircraft y HyPoint aseguran que el prototipo que han construido ha salido airoso en las pruebas en laboratorio, y planean poner a punto a corto plazo un sistema de pila de combustible de hidrógeno de 650 kW para el PA-890. De hecho, tan a corto plazo que esperan conseguir la certificación para comercializar este helicóptero en 2024 e iniciar la entrega a sus clientes de las primeras 325 unidades en 2025. Ambición no les falta, desde luego.

Helicopteroelectrico 1

Imágenes | Piasecki Aircraft

Más información | Piasecki Aircraft | HyPoint

-
La noticia El primer helicóptero eléctrico que utiliza hidrógeno ya está en camino: si satisface las expectativas demostrará la viabilidad de este combustible en la aviación fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Las perovskitas ya están revolucionando las placas solares, y aspiran a hacer lo mismo con las memorias LEM

Las perovskitas ya están revolucionando las placas solares, y aspiran a hacer lo mismo con las memorias LEM

«El santo grial de las tecnologías fotovoltaicas reside actualmente en las perovskitas. Con ellas sucede una cosa asombrosa: cuando se publicó la primera célula solar fabricada con una perovskita en 2009 se reportó una eficiencia del 3,8%. Es una cifra muy baja. Además, se degradaba en horas. Sin embargo, ahora mismo están en el 25,5% y ya no se degradan en horas. Han recorrido en diez años lo que el silicio tardó cincuenta años en recorrer. Es algo asombroso».

Esta cita la hemos extraído de la conversación que mantuvimos a principios de este año con Ignacio Mártil de la Plaza, doctor en física y catedrático de electrónica en la Universidad Complutense de Madrid que dedica su actividad docente e investigadora a las tecnologías avanzadas en células solares. Es evidente que Ignacio sabe de lo que habla, así que nadie mejor que él para explicarnos qué son las perovskitas:

«Perovskita es una denominación genérica. Describe una familia de materiales cuya estructura cristalina es parecida a la de un material llamado titanato de calcio. Su enorme interés en las tecnologías fotovoltaicas procede de unas propiedades que las hacen óptimas desde el punto de vista teórico para convertir la energía solar en energía eléctrica. Hay una propiedad que tiene que tener un semiconductor para que sea óptimo, al menos en teoría, que se conoce como el gap de energía», nos explica Ignacio.

Su 'gap' de energía y su capacidad de absorción de la radiación solar erigen a las perovskitas como candidatas óptimas para los paneles fotovoltaicos

«Es un concepto que viene de la física cuántica e identifica la mínima energía que puede absorber un material. Para que la célula solar que queremos fabricar con ese material sea óptima tiene que estar en el entorno de 1,5 electronvoltios (eV), y hay una familia de materiales perovskita que tiene esa propiedad. Además, esos materiales absorben muy bien la radiación solar, por lo que hace falta muy poco material para que absorba la radiación del Sol. Estas dos condiciones hacen a las perovskitas candidatos óptimos para los paneles fotovoltaicos», concluye Ignacio.

Como acabamos de ver, las perovskitas ya están redefiniendo las reglas vinculadas a las tecnologías fotovoltaicas, pero este no es en absoluto el único ámbito en el que estos materiales parecen tener mucho que decir. Y es que un grupo de investigadores de la Universidad de Kyushu, en Japón, y la Universidad Nacional de Taiwán, ha desarrollado unos chips de memoria que recurren a las perovskitas para lograr algo sorprendente: transmitir datos simultáneamente a través de la electricidad y la luz.

Las perovskitas están derribando la barrera que separa la electrónica y la fotónica

Estos investigadores han descubierto que las peculiares propiedades eléctricas y ópticas de las perovskitas encajan como un guante en la fabricación de memorias LEM (Light-Emitting Memories). Estos dispositivos combinan las memorias de acceso aleatorio resistivas (RRAM) con diodos LED para permitir la lectura de los datos no solo a través de la identificación de los cambios de la conductividad eléctrica, que es la forma en que funcionan las memorias RRAM, sino también identificando si los LED están encendidos o apagados.

Por sí solas las memorias RRAM arrojan unos tiempos de lectura relativamente modestos debido a su principio de funcionamiento, pero al combinarlas con diodos LED cuyo estado puede ser leído mediante un sistema óptico este hándicap queda resuelto. El problema es que fabricar estos dispositivos híbridos es complejo. Y también caro. Pero aquí, precisamente, entran en acción las perovskitas.

Es posible producir memorias LEM utilizando únicamente perovskitas, lo que simplifica y abarata sensiblemente su fabricación

Lo que los investigadores que he mencionado unas líneas más arriba han descubierto es que es posible producir memorias LEM utilizando únicamente perovskitas, lo que simplifica y abarata sensiblemente su fabricación. Los elementos químicos que las constituyen son el cesio, el plomo y el bromo (CsPbBr₃), y dejando a un lado los detalles más complicados es interesante saber que las perovskitas se dividen en dos capas diferentes de material, de modo que una de ellas actúa como RRAM, y la otra emite pulsos de luz.

En la capa de perovskita que se comporta como una memoria RRAM convencional es posible escribir y leer utilizando la electricidad, mientras que la otra capa, la que emite pulsos de luz, permite leer e identificar si se están escribiendo o borrando datos a partir de la longitud de onda de la luz que emite. Los investigadores que han dado con esta aplicación de las perovskitas aseguran que estas LEM encajan perfectamente en cualquier escenario de uso en el que ya se están utilizando estas memorias, como los sistemas de cifrado o las redes de multidifusión, entre muchas otras opciones.

Imagen de portada | Tima Miroshnichenko

Más información | Nature Communications

-
La noticia Las perovskitas ya están revolucionando las placas solares, y aspiran a hacer lo mismo con las memorias LEM fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

La crisis de los semiconductores se cobra otra víctima: Toyota se ha visto obligada a recortar su producción mundial un brutal 40%

La crisis de los semiconductores se cobra otra víctima: Toyota se ha visto obligada a recortar su producción mundial un brutal 40%

El déficit de semiconductores continúa poniendo a los fabricantes de coches contra las cuerdas. Hace apenas dos semanas BMW y Stellantis saltaron a la palestra para confirmar que durante los últimos meses se han visto obligadas a llevar a cabo recortes muy importantes en su capacidad de producción. Y, lo que es aún más dramático, reconocieron que su previsión para el segundo semestre de 2021 es muy poco favorable debido a que esta crisis está teniendo un impacto claro en el volumen de las ventas.

La presión que los Gobiernos de Estados Unidos, Alemania y Japón, que son los tres países que fabrican más vehículos, están ejerciendo sobre los principales productores de semiconductores, como TSMC o Samsung, no está sacando a la industria del automóvil del atolladero. De hecho, el déficit de circuitos integrados parece estar torpedeando la producción de todos los fabricantes de coches en mayor o menor medida.

General Motors y Toyota hicieron pública su preocupación hace varios meses, cuando el impacto en su capacidad de producción parecía irreversible, y hace tan solo unas horas esta última compañía, que es el mayor fabricante de coches del mundo, ha confirmado los peores augurios: los 900 000 vehículos que había planificado fabricar durante el próximo mes de septiembre son inviables debido a la escasez de chips, por lo que esta cifra se verá recortada a 540 000 vehículos.

Las acciones de Toyota caen como respuesta al 40% de recorte de la producción

El impacto que la crisis de los semiconductores está teniendo en la capacidad de producción de esta compañía japonesa refleja muy bien su crudeza. Y lo hace debido a que Toyota tiene preparado desde hace una década un plan de contingencias que la ha colocado en una situación relativamente favorable frente a buena parte de sus competidores. Esta ventaja consiste, sencillamente, en que tenía un stock muy importante de chips justo antes de que esta crisis arreciase.

La escasez de semiconductores ha puesto contra las cuerdas a Toyota a pesar de que hace una década puso en marcha un plan para capear mejor las contingencias

No es la primera vez que la producción de Toyota se ve amenazada. El terremoto que tuvo lugar en Japón en marzo de 2011, y que, como todos sabemos, provocó un tsunami que arrasó la costa noreste del país y desencadenó el accidente nuclear de Fukushima, también puso contra las cuerdas a esta compañía. La producción de semiconductores en Japón se resintió durante varios meses, y los ejecutivos de Toyota se dieron cuenta de lo importante que era tener un almacén bien surtido de chips que les permitiese capear mejor el mal tiempo cuando se presentase.

Pero no ha bastado. A pesar de tener una reserva de semiconductores que con toda probabilidad debía de ser abultada, Toyota no ha conseguido soportar la embestida de esta crisis. De hecho, justo después de que anunciase el recorte en la producción que va a introducir durante el mes de septiembre sus acciones cayeron de forma inmediata un 4,4%. No caían tanto en un solo día desde diciembre de 2018.

Si el mayor fabricante de coches del planeta está sufriendo tanto a pesar de que disponía de un almacén bien surtido cuando comenzó esta crisis, podemos dar por hecho que no corren buenos tiempos para ninguno de sus competidores. En este contexto el precio de los coches, como cabía prever, se está incrementando sensiblemente, por lo que los consumidores no estamos saliendo indemnes de este panorama tan poco propicio. Crucemos los dedos para que esta tendencia comience a revertirse en 2022, algo que por el momento parece poco probable.

Imagen de portada | Sindre Strøm

Vía | BBC

-
La noticia La crisis de los semiconductores se cobra otra víctima: Toyota se ha visto obligada a recortar su producción mundial un brutal 40% fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

OPPO ha desarrollado cuatro innovaciones con las que aspira a ser la referencia en fotografía con el móvil: las explicamos

OPPO ha desarrollado cuatro innovaciones con las que aspira a ser la referencia en fotografía con el móvil: las explicamos

El avance que han experimentado el hardware y el software vinculados a la fotografía con los smartphones durante los últimos años ha sido espectacular. Aun así, los mejores móviles con ambición fotográfica todavía están lejos de igualar el rendimiento global que nos proponen las cámaras de fotos dedicadas más avanzadas.

En este ámbito los smartphones tienen un hándicap que juega en su contra y que no es fácil superar: el espacio disponible para el hardware fotográfico es muy limitado. El desarrollo del software y la inteligencia artificial está consiguiendo en gran medida contrarrestar esta desventaja, pero aún queda mucho por hacer para que los móviles se pongan a la altura de las mejores cámaras dedicadas.

Tomarlas como referencia a la que aspirar es un buen punto de partida si lo que se pretende es mejorar las prestaciones fotográficas de un teléfono móvil. Y esto es, precisamente, lo que han hecho los ingenieros de OPPO. Tres de las cuatro innovaciones en fotografía con el móvil que acaba de presentar esta marca se inspiran claramente en las cámaras de fotos dedicadas.

Oppoinnovaciones

La restante solo encaja en un smartphone, pero, sobre el papel, también pinta realmente bien. En cualquier caso, es evidente que esta compañía china está haciendo un esfuerzo importante en innovación para competir con las máximas garantías posibles en la primera división de los teléfonos móviles con vocación fotográfica.

Un nuevo sensor RGBW diseñado para recoger más luz y generar menos ruido

Los sensores RGBW llegaron hace tiempo a los smartphones. De hecho, OPPO introdujo un captador dotado de esta tecnología en su teléfono móvil R7 Plus, que llegó a las tiendas en 2015. No obstante, el sensor RGBW que esta marca acaba de presentar incorpora innovaciones que no están presentes en los captadores de este tipo que ha utilizado hasta ahora.

La cualidad más relevante de este componente, si nos ceñimos a la información que nos ha entregado OPPO, es que es capaz de recoger un 60% más de luz que sus predecesores. De ser así debería rendir sensiblemente mejor en escenarios de disparo en los que escasea la luz ambiental, y también en fotografía nocturna. Además, según esta marca su nivel de ruido es un 35% inferior, una característica que debería tener un impacto perceptible en la calidad de imagen de las fotografías en las que interviene.

Opporgbw

No obstante, esto no es todo. Según OPPO este sensor consigue minimizar con más eficacia el efecto muaré que tanto afea algunas fotografías en las que aparecen tramas conflictivas. Y también tiene un nuevo algoritmo de combinación de píxeles que, de nuevo según la propia marca china, consigue reproducir el color con más precisión.

Los primeros teléfonos móviles de OPPO equipados con este nuevo sensor RGBW llegarán a las tiendas a partir del cuarto trimestre de este año.

Rgbwanimacion

Un nuevo 'zoom' óptico progresivo con una focal equivalente de 85-200 mm

Esta innovación y la que veremos a continuación son las dos que a mí en particular más me han llamado la atención. En la siguiente imagen podéis ver que los ingenieros de OPPO han puesto a punto un nuevo zoom óptico progresivo con una distancia focal equivalente de 85-200 mm. Para desarrollar algo así en un teléfono móvil es necesario utilizar elementos ópticos de calidad y diseñar un sistema de lentes móvil que sea preciso. No es fácil, pero, al parecer, lo han hecho.

Zoomcontinuo

Según OPPO una de las claves de este zoom óptico progresivo consiste en que dos de las lentes que intervienen en la óptica son elementos de alta precisión que consiguen minimizar la dispersión de la luz y reducir las aberraciones cromáticas. Además, han implementado un sistema de estabilización óptica que, según esta marca, logra compensar con más eficacia las vibraciones.

Sobre el papel la principal ventaja que nos propone un zoom óptico progresivo como este consiste en que debería ser capaz de entregarnos una calidad de imagen muy alta en todo el rango de longitudes focales porque el procesado digital no debería intervenir. La nitidez y el nivel de detalle que nos entrega esta óptica no deberían resentirse sea cual sea la longitud focal que utilicemos.

En cualquier caso, esto es lo que nos indica la teoría. Cuando tengamos la oportunidad de analizar a fondo el primer móvil de OPPO equipado con este zoom comprobaremos si su rendimiento está a la altura de las expectativas que está generando.

Zoomanimacion

La estabilización de cinco ejes llega a los móviles de OPPO

A falta de que tengamos la oportunidad de comprobar si esta innovación rinde como cabe esperar, la estabilización de cinco ejes debería marcar la diferencia en los escenarios de disparo en los que la trepidación juega claramente en contra del fotógrafo. Este nuevo sistema de estabilización incorpora elementos mecánicos que persiguen compensar la vibración a la que están sometidos tanto el sensor como la óptica. Es una tecnología muy similar a la que podemos encontrar en algunas cámaras de fotos dedicadas de gama alta desde hace tiempo (y también en las profesionales).

Estabilizacion

Según OPPO su tecnología de estabilización en cinco ejes logra compensar totalmente el 65% de las vibraciones y tiene una precisión 3,5 veces más alta que su anterior tecnología de estabilización óptica. Suena muy bien, pero, de nuevo, no sabremos si realmente cumple lo que promete hasta que tengamos la oportunidad de probar un teléfono móvil equipado con esta tecnología. El primero de ellos llegará a las tiendas durante el primer trimestre de 2022.

Estabanimacion

Así es la nueva tecnología de cámara bajo la pantalla de OPPO

Las cámaras bajo la pantalla se enfrentan a un desafío que no es fácil resolver: la presencia de la matriz de píxeles del panel LCD o AMOLED sobre la óptica y el sensor reduce mucho la luz que incide sobre la superficie de este último componente. Para combatir este problema la mayor parte de las marcas está reduciendo la densidad de píxeles por pulgada de la zona del panel bajo la que reside la cámara. Esto es lo que ha hecho, por ejemplo, Samsung en su nuevo Galaxy Z Flip3 5G.

Cmarapantalla

OPPO, sin embargo, ha optado por una aproximación diferente con el propósito de no deteriorar la calidad de imagen de la zona del panel bajo la que reside la cámara. Sus ingenieros han rediseñado la geometría de la matriz de píxeles del panel para mantener una densidad de 400 ppp en la zona de la cámara y, al mismo tiempo, permitir el paso de la luz que necesitan recoger tanto la óptica como el sensor para hacer posible la toma de buenas fotografías.

Según esta marca la desviación del brillo en esta zona del panel es inferior al 2%, y la desviación cromática es inapreciable, por lo que apenas debería notarse que la cámara está ahí cuando miramos la pantalla. Será interesante comprobarlo cuando analicemos el primer móvil de OPPO equipado con esta tecnología, aunque también comprobaremos la calidad de las fotografías tomadas con esta cámara, que, al parecer, se apoya en nuevos algoritmos de inteligencia artificial para minimizar la difracción y optimizar el balance de blancos, entre otros cometidos.

-
La noticia OPPO ha desarrollado cuatro innovaciones con las que aspira a ser la referencia en fotografía con el móvil: las explicamos fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

China no anda con delicadezas con las tecnológicas: prepara nuevas medidas para atarlas aún más corto

China no anda con delicadezas con las tecnológicas: prepara nuevas medidas para atarlas aún más corto

Ni siquiera compañías con la envergadura que tienen Alibaba, Tencent o Baidu se han librado de la presión del Gobierno chino. De hecho, estas son solo algunas de las empresas que durante los últimos años han pagado multas, a menudo simbólicas, por llevar a cabo inversiones, adquisiciones o alianzas con otras entidades que, según el ejecutivo de su país, no eran procedentes.

Las razones por las que el Gobierno de este país asiático está incrementando la presión sobre las empresas de tecnología no están del todo claras, aunque hay teorías de todo tipo. Hay quien defiende que sus medidas están favoreciendo expresamente a unas compañías en detrimento de aquellas que están adquiriendo un carácter marcadamente capitalista, pero por el momento solo es una conjetura de la que os hablamos con más profundidad en el artículo que enlazo aquí mismo.

Según el Gobierno chino su nuevo paquete de medidas persigue acabar con la competencia desleal y limitar el uso que dan las empresas a los datos de los usuarios

La agencia del Gobierno chino que se encarga de regular la competencia, evitar el monopolio y proteger la propiedad intelectual, entre otros cometidos, es la Administración Estatal de Regulación del Mercado (SAMR por su sigla en inglés), y hoy mismo ha dado un nuevo paso hacia delante al publicar un nuevo paquete de medidas que, según la propia administración, persigue acabar con la competencia desleal y limitar el uso que dan las empresas a los datos de los usuarios.

Estas nuevas normas por el momento forman parte de un borrador, por lo que no entrarán en vigor hasta que sean aprobadas, pero si tenemos presentes los movimientos que el Gobierno chino ha hecho durante los últimos años en este ámbito es razonable prever que este paquete de medidas no tardará en ser aprobado. No obstante, prospere o no lo que es evidente es que la época en la que las tecnológicas se beneficiaban de cierta manga ancha en China ha terminado.

Una declaración de intenciones que está provocando la caída del valor en la Bolsa

Pocos minutos después de que SAMR hiciese público el nuevo paquete de medidas que va a tramitar, la Bolsa de Hong Kong cayó un 1,66% a causa del impacto que esta regulación presumiblemente va a tener en las tecnológicas. No parece mucho, pero si nos fijamos en los números de algunas empresas concretas el golpe se vuelve mucho más contundente. La plataforma de vídeos Bilibili ha caído un 7,4%, Tencent un 4,1% y Alibaba un 4,2%.

Este fragmento ha sido extraído del texto oficial de la nueva normativa, y refleja claramente cuál es su espíritu: «Los operadores de internet no deben implementar o facilitar la implementación de una competencia desleal en internet, interferir en el discurrir natural de la competencia, ni influenciar las transacciones justas de este mercado». Además, el texto de esta regulación también impone que los operadores no podrán interferir en el tráfico en internet ni influenciar de ninguna forma las elecciones tomadas por los usuarios.

Pero esto no es todo. El texto también limita el uso que las tecnológicas pueden dar a la información generada por los usuarios y penaliza cualquier maniobra utilizada por una empresa que pretenda dañar la reputación de sus competidores o mejorar su propia reputación mediante procedimientos ilícitos. Procedan del país del que procedan, estas medidas pretenden ser justas. Eso sí, todavía hay que ver cómo serán ejecutadas por la administración china, y, sobre todo, si tienen letra pequeña.

Imagen de portada | Karolina Grabowska

Vía | Reuters

-
La noticia China no anda con delicadezas con las tecnológicas: prepara nuevas medidas para atarlas aún más corto fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El polémico astrofísico de Harvard Avi Loeb está convencido de que el Proyecto Galileo es nuestra mejor baza para encontrar tecnología extraterrestre

El polémico astrofísico de Harvard Avi Loeb está convencido de que el Proyecto Galileo es nuestra mejor baza para encontrar tecnología extraterrestre

Avi Loeb continúa en el punto de mira de la comunidad científica. Su interpretación de la naturaleza de Oumuamua, el primer objeto procedente de más allá de las fronteras de nuestro sistema solar localizado por los astrónomos en 2017 en las inmediaciones de nuestra estrella, ha originado un debate acalorado entre los astrofísicos.

Muchos de ellos han alzado públicamente su voz para criticar las conclusiones a las que llega Loeb en su libro 'Extraterrestre: La humanidad ante el primer signo de vida inteligente más allá de la Tierra', y solo unos pocos parecen dejar abierta la posibilidad de que este astrofísico de Harvard esté en lo cierto.

En su ensayo Loeb desarrolla la misma idea que defendió en el artículo que publicó en 2018 en la revista Astrophysical Journal Letters junto al astrónomo Shmuel Bialy: el origen artificial de Oumuamua. De acuerdo con la interpretación de Bialy y Loeb las evidencias científicas les invitan a concluir que su origen es artificial y solo puede ser el resultado de la tecnología desarrollada por una avanzada civilización extraterrestre.

Steven Desch y Alan Jackson defienden que Oumuamua es un fragmento de nitrógeno sólido procedente de un planeta con una composición similar a la de Plutón

Sin embargo, otros astrofísicos interpretan las mismas evidencias científicas sobre las que Avi Loeb ha armado su especulación de una forma muy diferente. Steven Desch y Alan Jackson, dos cosmólogos de la Universidad Estatal de Arizona, defienden que, en realidad, Oumuamua tiene un origen completamente natural. Según ellos este objeto, que solo pudo ser observado por los astrónomos durante unos pocos días, es un fragmento de nitrógeno sólido procedente de un planeta con una composición similar a la de Plutón.

Probablemente el debate acerca de la procedencia de Oumuamua se irá relajando poco a poco, y es difícil que los científicos consigan entregarnos una explicación taxativa acerca del origen de un objeto que cruzó nuestro sistema solar como una exhalación durante solo un puñado de días, pero hay algo que no admite discusión: los postulados de Loeb le han dado una visibilidad de la que carecía cuando su trabajo como catedrático de Astronomía de la Universidad de Harvard apenas tenía eco en los medios de comunicación no especializados. Y lo ha aprovechado.

El Proyecto Galileo ya está en marcha

Hace unas horas Avi Loeb ha publicado un interesante artículo de opinión en la revista Scientific American en el que reflexiona acerca del momento en el que cree que la humanidad podría entrar en contacto con una civilización extraterrestre.

Su especulación más optimista plantea la posibilidad de que las primeras señales electromagnéticas que enviamos al espacio bajo la forma de ondas de radio, a finales del siglo XIX, ya hayan recorrido la distancia necesaria para poder ser recogidas por una civilización extraterrestre dotada de tecnología avanzada.

Esas ondas electromagnéticas han viajado por el espacio a la velocidad de la luz durante algo más de un siglo, de manera que, según Loeb, si una inteligencia extraterrestre estuviese asentada a una distancia de nosotros aproximada de 100 años luz, recibiese la señal y decidiese respondernos de la misma forma, no tendríamos noticias de ella hasta principios del siglo XXII.

El proyecto de Avi Loeb propone explorar el firmamento sistemáticamente con el propósito de localizar en las inmediaciones de la Tierra objetos inusuales

Sin embargo, y esto es lo más interesante, este astrofísico está poniendo en marcha un proyecto que propone buscar inteligencia extraterrestre de una forma proactiva y diferente a las que han propuesto otras iniciativas.

La intención de Loeb y Frank H. Laukien, el científico y empresario de origen alemán con el que se ha asociado para poner en marcha el Proyecto Galileo, es desplegar una red de nuevos telescopios ideados expresamente para explorar el firmamento sistemáticamente con el propósito de localizar en las inmediaciones de la Tierra objetos inusuales. Objetos que, quizá, no tendrán un origen natural.

Galileopro

Avi Loeb ha confirmado que la financiación con la que cuenta para poner en marcha el Proyecto Galileo es privada. Su socio en esta empresa, el empresario y científico de origen alemán Frank H. Laukien, le respalda.

La estrategia de Loeb consiste en desarrollar herramientas específicas para acometer esta tarea, y una pieza esencial de su proyecto será el desarrollo de algoritmos de inteligencia artificial concebidos para analizar las imágenes recogidas por los telescopios con el propósito de identificar objetos artificiales.

En su artículo de opinión Loeb insinúa también que el nombre de este proyecto toma su inspiración de la incomprensión a la que se enfrentó Galileo como reacción a su defensa bien fundamentada del sistema copernicano heliocéntrico. Su alusión a la incomprensión a la que se está enfrentando él mismo, presumiblemente de acuerdo con su propia perspectiva, es clara.

Según Loeb, la financiación con la que cuenta el Proyecto Galileo es privada, y no tiene ningún reparo en reconocer, en un alarde de honestidad, es justo apuntarlo, que la visibilidad que tiene desde que ha publicado el libro del que he hablado unos párrafos más arriba le ha ayudado a conseguir los fondos que necesita para poner en marcha su iniciativa.

Desde un punto de vista estrictamente científico es una buena noticia que la humanidad vaya a disponer de una nueva red de telescopios, más allá de si lo que persiguen es o no realista. Quién sabe, quizá en el futuro nos deparen alguna sorpresa. O quizá no. Como en tantas otras ocasiones será el tiempo el que otorgará a este capítulo de la investigación de Avi Loeb la relevancia que realmente merece.

Imagen de portada | Pixabay

Más información | Scientific American | Proyecto Galileo

-
La noticia El polémico astrofísico de Harvard Avi Loeb está convencido de que el Proyecto Galileo es nuestra mejor baza para encontrar tecnología extraterrestre fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

El polémico astrofísico de Harvard Avi Loeb está convencido de que el Proyecto Galileo es nuestra mejor baza para encontrar tecnología extraterrestre

El polémico astrofísico de Harvard Avi Loeb está convencido de que el Proyecto Galileo es nuestra mejor baza para encontrar tecnología extraterrestre

Avi Loeb continúa en el punto de mira de la comunidad científica. Su interpretación de la naturaleza de Oumuamua, el primer objeto procedente de más allá de las fronteras de nuestro sistema solar localizado por los astrónomos en 2017 en las inmediaciones de nuestra estrella, ha originado un debate acalorado entre los astrofísicos.

Muchos de ellos han alzado públicamente su voz para criticar las conclusiones a las que llega Loeb en su libro 'Extraterrestre: La humanidad ante el primer signo de vida inteligente más allá de la Tierra', y solo unos pocos parecen dejar abierta la posibilidad de que este astrofísico de Harvard esté en lo cierto.

En su ensayo Loeb desarrolla la misma idea que defendió en el artículo que publicó en 2018 en la revista Astrophysical Journal Letters junto al astrónomo Shmuel Bialy: el origen artificial de Oumuamua. De acuerdo con la interpretación de Bialy y Loeb las evidencias científicas les invitan a concluir que su origen es artificial y solo puede ser el resultado de la tecnología desarrollada por una avanzada civilización extraterrestre.

Steven Desch y Alan Jackson defienden que Oumuamua es un fragmento de nitrógeno sólido procedente de un planeta con una composición similar a la de Plutón

Sin embargo, otros astrofísicos interpretan las mismas evidencias científicas sobre las que Avi Loeb ha armado su especulación de una forma muy diferente. Steven Desch y Alan Jackson, dos cosmólogos de la Universidad Estatal de Arizona, defienden que, en realidad, Oumuamua tiene un origen completamente natural. Según ellos este objeto, que solo pudo ser observado por los astrónomos durante unos pocos días, es un fragmento de nitrógeno sólido procedente de un planeta con una composición similar a la de Plutón.

Probablemente el debate acerca de la procedencia de Oumuamua se irá relajando poco a poco, y es difícil que los científicos consigan entregarnos una explicación taxativa acerca del origen de un objeto que cruzó nuestro sistema solar como una exhalación durante solo un puñado de días, pero hay algo que no admite discusión: los postulados de Loeb le han dado una visibilidad de la que carecía cuando su trabajo como catedrático de Astronomía de la Universidad de Harvard apenas tenía eco en los medios de comunicación no especializados. Y lo ha aprovechado.

El Proyecto Galileo ya está en marcha

Hace unas horas Avi Loeb ha publicado un interesante artículo de opinión en la revista Scientific American en el que reflexiona acerca del momento en el que cree que la humanidad podría entrar en contacto con una civilización extraterrestre.

Su especulación más optimista plantea la posibilidad de que las primeras señales electromagnéticas que enviamos al espacio bajo la forma de ondas de radio, a finales del siglo XIX, ya hayan recorrido la distancia necesaria para poder ser recogidas por una civilización extraterrestre dotada de tecnología avanzada.

Esas ondas electromagnéticas han viajado por el espacio a la velocidad de la luz durante algo más de un siglo, de manera que, según Loeb, si una inteligencia extraterrestre estuviese asentada a una distancia de nosotros aproximada de 100 años luz, recibiese la señal y decidiese respondernos de la misma forma, no tendríamos noticias de ella hasta principios del siglo XXII.

El proyecto de Avi Loeb propone explorar el firmamento sistemáticamente con el propósito de localizar en las inmediaciones de la Tierra objetos inusuales

Sin embargo, y esto es lo más interesante, este astrofísico está poniendo en marcha un proyecto que propone buscar inteligencia extraterrestre de una forma proactiva y diferente a las que han propuesto otras iniciativas.

La intención de Loeb y Frank H. Laukien, el científico y empresario de origen alemán con el que se ha asociado para poner en marcha el Proyecto Galileo, es desplegar una red de nuevos telescopios ideados expresamente para explorar el firmamento sistemáticamente con el propósito de localizar en las inmediaciones de la Tierra objetos inusuales. Objetos que, quizá, no tendrán un origen natural.

Galileopro

Avi Loeb ha confirmado que la financiación con la que cuenta para poner en marcha el Proyecto Galileo es privada. Su socio en esta empresa, el empresario y científico de origen alemán Frank H. Laukien, le respalda.

La estrategia de Loeb consiste en desarrollar herramientas específicas para acometer esta tarea, y una pieza esencial de su proyecto será el desarrollo de algoritmos de inteligencia artificial concebidos para analizar las imágenes recogidas por los telescopios con el propósito de identificar objetos artificiales.

En su artículo de opinión Loeb insinúa también que el nombre de este proyecto toma su inspiración de la incomprensión a la que se enfrentó Galileo como reacción a su defensa bien fundamentada del sistema copernicano heliocéntrico. Su alusión a la incomprensión a la que se está enfrentando él mismo, presumiblemente de acuerdo con su propia perspectiva, es clara.

Según Loeb, la financiación con la que cuenta el Proyecto Galileo es privada, y no tiene ningún reparo en reconocer, en un alarde de honestidad, es justo apuntarlo, que la visibilidad que tiene desde que ha publicado el libro del que he hablado unos párrafos más arriba le ha ayudado a conseguir los fondos que necesita para poner en marcha su iniciativa.

Desde un punto de vista estrictamente científico es una buena noticia que la humanidad vaya a disponer de una nueva red de telescopios, más allá de si lo que persiguen es o no realista. Quién sabe, quizá en el futuro nos deparen alguna sorpresa. O quizá no. Como en tantas otras ocasiones será el tiempo el que otorgará a este capítulo de la investigación de Avi Loeb la relevancia que realmente merece.

Imagen de portada | Pixabay

Más información | Scientific American | Proyecto Galileo

-
La noticia El polémico astrofísico de Harvard Avi Loeb está convencido de que el Proyecto Galileo es nuestra mejor baza para encontrar tecnología extraterrestre fue publicada originalmente en Xataka por Juan Carlos López .

Leer más

Eddington, Dirac y la posibilidad de que, en realidad, las constantes fundamentales no sean inamovibles

Eddington, Dirac y la posibilidad de que, en realidad, las constantes fundamentales no sean inamovibles

«Hay dos tipos de constantes: aparentes y reales. Las constantes aparentes resultan simplemente de introducir unidades arbitrarias, pero pueden ser eliminadas. Las constantes reales son auténticos números que Dios debió escoger arbitrariamente cuando se dignó a crear este mundo». Esta cita ha sido extraída de una de las cartas que Albert Einstein envió a su antigua alumna y colega Ilse Rosenthal-Schneider, y refleja muy bien el rol que tienen las constantes universales en las teorías actuales de la física.

En el dominio de la ciencia una constante física es el valor que adquiere una determinada magnitud involucrada en procesos físicos que tiene una característica fundamental: permanece inalterada a lo largo del tiempo. Ese valor se expresa en una unidad concreta prefijada en un sistema de unidades que puede variar con el tiempo y el desarrollo de la ciencia. Actualmente utilizamos el Sistema Internacional de Unidades creado en 1960, pero a lo largo de la historia una misma magnitud física no ha sido descrita siempre empleando las mismas unidades.

Las constantes de las que vamos a hablar en este artículo, las fundamentales, están íntimamente ligadas a fenómenos naturales esenciales. Los científicos han conseguido medirlas con una mayor precisión a medida que la ciencia se ha ido desarrollando, pero, paradójicamente, ninguno de ellos ha podido explicar de dónde procede el valor de una sola constante fundamental. Estas magnitudes ni siquiera pueden calcularse a partir del valor de otras constantes.

El carácter enigmático de las constantes fundamentales tiene su origen en nuestra incapacidad para comprender en toda su extensión los procesos físicos en los que están involucradas. Como he mencionado unas líneas más arriba, los científicos han podido medirlas, y cada vez lo hacen con más precisión, pero nadie sabe de dónde salen. Por qué tienen ese valor y no otro.

Algunas constantes fundamentales con las que todos estamos en cierta medida familiarizados son la velocidad de la luz en el vacío, la carga elemental y las constantes de gravitación y Planck, pero hay otras. Muchas otras. En esta tabla recogemos solamente algunas de ellas:

Constante

símbolo

valor

unidad

gravitación

G

6,67384 (80) · 10⁻¹¹

m³kg⁻¹s⁻²

velocidad de la luz en el vacío

c

299 792 458

m s⁻¹

constante de planck

h

6,62606957 (29) · 10⁻³⁴

J s

carga elemental

e

1,602176565 (35) · 10⁻¹⁹

C

constante magnética

µ₀

4π · 10⁻⁷

N A⁻²

constante eléctrica

ε₀

1/µ₀c²

F m⁻¹

masa del electrón

mₑ

9,10938291 (40) · 10⁻³¹

kg

masa del protón

mₚ

1,672621777 (74) · 10⁻²⁷

kg

constante de avogadro

N(A)

6,02214129 (27) · 10²³

mol⁻¹

constante de boltzmann

k

1,3806488 (13) · 10⁻²³

J K⁻¹

Eddington, Dirac y la sospecha que se cierne sobre las constantes universales

El astrofísico británico Arthur Stanley Eddington realizó contribuciones muy importantes al desarrollo científico durante la primera mitad del siglo XX. Una de ellas, y probablemente por la que es más conocido por el público no especializado, fue la comprobación experimental de la Teoría General de la Relatividad que Einstein había publicado cuatro años antes gracias a sus observaciones del eclipse solar del 29 de mayo 1919.

Durante su carrera profesional Eddington tocó muchos palos, y uno de ellos está profundamente imbricado con el tema del que estamos hablando. Este científico estaba convencido de que una teoría de la física completa debía ser capaz de explicar el origen de las constantes fundamentales. Consideraba que medirlas, conocer su valor, no era suficiente, y también que las matemáticas nos proporcionaban las herramientas que necesitábamos para comprender su procedencia.

Muchos otros físicos de su época compartían su insatisfacción en lo que se refiere a la curiosidad por desvelar el origen de las constantes fundamentales, pero defendían que para conocerlo era necesario entender mejor los procesos naturales en los que están involucradas. Sin embargo, Eddington decidió utilizar las matemáticas para demostrar por qué las constantes tenían esos valores y no otros.

Al principio sus colegas, entre los que se encontraba el propio Einstein, examinaron sus demostraciones con curiosidad y respeto, pero pronto se dieron cuenta de que Eddington estaba recurriendo a constructos matemáticos rebuscados y a razonamientos muy poco claros. De alguna forma estaba jugando con los números de una manera artificiosa hasta conseguir conjeturar aquello que quería demostrar. Poco a poco el interés de la comunidad científica en esta parte de su trabajo se fue disipando, pero en cierto modo instigó a otros académicos a preguntarse acerca de la auténtica naturaleza de las constantes fundamentales.

En su artículo de 1937 Dirac apuntó la posibilidad de que la constante de la gravitación universal hubiese variado con el paso del tiempo

El matemático e ingeniero británico Paul Dirac fue uno de ellos. Observó que muchas de las constantes fundamentales quedaban descritas por unos números muy grandes entre los que existía una cierta relación. Había algún tipo de coherencia entre ellos, lo que le llevó a conjeturar que debía de darse alguna relación matemática simple que los explicase. Una de las muchas relaciones que exploró le llevó a comparar el tamaño del universo visible, que es asombrosamente grande, y el del electrón, que es sorprendentemente pequeño.

Pero su conclusión más catártica no fue esa. Sus análisis le llevaron a publicar en 1937 un artículo en la ya entonces prestigiosa revista científica Nature en el que apuntaba la posibilidad de que la constante de la gravitación universal hubiese variado con el paso del tiempo. Lo que Dirac sugería es que quizá las constantes universales no han sido las mismas durante los casi 14 000 millones de años que tiene el universo.

Su enfoque proponía contemplar las leyes de la física desde una perspectiva diferente, quizá unificadora. Incluso permitía entrever que la vida solo era posible en un universo en el que las constantes fundamentales habían adquirido el valor que tienen en el nuestro. En un principio Dirac no fue tomado en serio, pero poco a poco algunos de sus colegas observaron que su explicación era tan elegante que debía ser considerada. Y más de ocho décadas después su trabajo en esta área continúa ejerciendo como una fuente de inspiración para cientos de científicos de todo el planeta.

En Xataka | Tenemos la primera pista sobre una "quinta fuerza" en el universo. Y las implicaciones son brutales para la física

Imagen de portada | Arek Socha en Pixabay

Bibliografía | 'The Feynman Lectures on Physics', Richard Feynman, Matthew Sands y Robert Leighton | 'Las constantes universales', Jesús Navarro | 'Fundamental Constants in Mathematics & Physics: Are they universal codes?', Shahin A. Shayan

-
La noticia Eddington, Dirac y la posibilidad de que, en realidad, las constantes fundamentales no sean inamovibles fue publicada originalmente en Xataka por Juan Carlos López .

Leer más