A Apple no le importaban los megapíxeles, hasta que llegó el iPhone 14 Pro

A Apple no le importaban los megapíxeles, hasta que llegó el iPhone 14 Pro

Apple acostumbra a implementar tecnologías que llevan bastantes años en el mercado. Lo cierto es que la jugada suele salirle bien, y prueba de ello es la reinterpretación que hizo con los widgets en iOS 14 o el giro que le han dado al modo Always on Display. No obstante, el salto más importante de este año con los iPhone 14 Pro y 14 Pro Max está en la cámara: por fin, se dice adiós a los 12 megapíxeles.

La apuesta esta generación es por el Pixel Binning, el sistema de agrupación de píxeles que llevamos conociendo desde que Huawei lo implementase bajo el nombre de Light Fusion en su Huawei P20 Pro. Cuatro año más tarde, Apple apuesta por lo mismo. El reto que tiene por delante no es menor: tienen que demostrar que su implementación es mejor que la de su competencia.


Resulta que el Pixel Binning no era una mala idea

Notch

La guerra de los megapíxeles tuvo su época ferviente con los sensores de 108 megapíxeles, pareció calmarse años después y, estos dos últimos años, están siendo la prueba de que 12 megapíxeles ya no son suficientes. Google dio un salto histórico con su Pixel 6, renunciando a los 12 megapíxeles y abrazando los 50.

Pocos fabricantes han podido demostrar que el salto a los 50, 64 o 108 megapíxeles ha tenido sentido

Apple ha hecho lo mismo con su cámara, la cual ahora agrupa los píxeles de 4-1, para acabar disparando a 12 megapíxeles, pese a tener un sensor de 48. Gracias a esta técnica, sobre el papel, se consiguen fotografías más luminosas (a fin de cuentas, estamos agrupando píxeles en grupos de píxeles más grandes). La realidad es que pocos fabricantes le han sacado partido, tanto a nivel de luminosidad como de detalle bruto rescatado por el sensor. Para prueba, el apartado de fotografía en máxima resolución de nuestra comparativa fotográfica.

Pixel Binning

A este respecto, Apple asegura que ahora serán capaces de recoger el triple de luz en espacios poco iluminados. La apertura de la cámara principal se ha reducido considerablemente, por lo que Apple debe estar bastante segura de que su cámara es ahora más luminosa.

El iPhone 14 Pro será capaz de hacer zoom “óptico” 2X, usando información de la parte central del sensor de 48 megapíxeles, interpolándola y (teóricamente) fusionándola para obtener una fotografía de menor resolución, pero con un detalle mayor al del clásico zoom 2X digital (el que hacemos ampliando con el gesto de pinch to zoom). Suena prometedor sobre el papel, pero es algo que Samsung ya hace con su gama alta.

Hay, también, promesa de que Apple ProRaw mejorará sustancialmente, permitiendo disparos en bruto a 48 megapíxeles. Aquí será clave si Apple deja de lavar el ruido como en la generación pasada, para que podamos rescatar el máximo detalle del sensor. Funcione como debe o no, de nuevo, es una función ya presente en terminales Android.

Apple suele reinterpretar funciones que ya conocíamos en Android. Con el Pixel Binning, simplemente se han subido al carro de algo que lleva funcionando durante hace cuatro años

Apple tiene un gran reto por delante. Ha de demostrar que saltar a los 48 megapíxeles tiene sentido, que la diferencia de detalle entre el modo de 12 y 48 megapíxeles es real (no todos los teléfonos han podido decir esto) y que la espera ha merecido la pena.

Si el iPhone 14 Pro no mejora sustancialmente en cámara respecto al iPhone 13 Pro, se habrá llegado tarde a una tendencia prácticamente en vano.


La noticia

A Apple no le importaban los megapíxeles, hasta que llegó el iPhone 14 Pro

fue publicada originalmente en

Xataka

por
Ricardo Aguilar

.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *