What is Happening with iPhone Camera?

(Intro SFX) – Bueno, ¿qué está pasando exactamente
con la cámara del iPhone? Como hemos hecho años de
pruebas ciegas de cámaras de teléfonos inteligentes en formato de soporte y el iPhone, supuestamente una de las cámaras premium en toda la industria de teléfonos inteligentes, pierde constantemente en la primera ronda. Luego hacemos una
versión científica con más de 20 millones de votos y termina en medio del grupo. "Y, sin embargo, Marques, lo
nombró el mejor
sistema de cámara de teléfono inteligente en funcionamiento por cuarta vez en 2022 y le dio un trofeo. ¿Qué pasa con eso?" Una cantidad preocupante de personas ha comenzado a notar que la cámara del iPhone se siente como si
hubiera retrocedido unos pasos últimamente y estoy de acuerdo con ellos. Creo que deberíamos echar
un vistazo más de cerca a esto. (música relajada) En primer lugar, las cámaras
han recorrido un largo camino hasta el punto en que las cámaras de los teléfonos inteligentes ya no son solo cámaras.

Mira, en el pasado, una
cámara era básicamente un sensor que viajaba
cubierto todo el tiempo y cuando querías tomar una foto , exponías esa parte sensible al entorno que la rodeaba , recogía
la luz y la cerraba. . Entonces la foto sería una representación de cuánta luz incide en
cada parte del sensor. Cuanto mejor sea el sensor,
mejor será la imagen que puedas obtener , más información clara, súper simple. Sin embargo, en estos días, se ha convertido en un
evento computacional completo. El sensor de su teléfono inteligente está
muestreando el entorno, no una vez, sino varias veces en rápida sucesión a diferentes velocidades. Está tomando esa información ligera, fusionando exposiciones juntas. Está haciendo mapeo de tonos,
reducción de ruido, procesamiento HDR y juntándolo todo en lo que cree que
será la mejor imagen. Esto, por supuesto, es una definición muy diferente
de una imagen. Así que ahora no se trata solo de
tener el mejor sensor que recopile la mayor cantidad de información lumínica , está en el punto en que el software hace una diferencia mucho mayor en la forma
en que se ve la imagen al final del día que cualquier otra cosa.

Como la próxima vez que vea un evento de presentación de un teléfono inteligente, por ejemplo, vigile todas las nuevas
incorporaciones que se realicen y cuántas de
ellas son software puro. Entonces, Google básicamente encontró
oro cuando comenzó a usar el sensor IMX363 en el pasado con
la cámara del Pixel 3 porque ajustaron su software a la
perfección y fue un gran éxito instantáneo. Así que siguieron usando ese gran combo de cámara en cada Pixel desde entonces. El 3, el 3a, el 4, el 4a, el 5, el 5a y hasta el Pixel 6a. Así que año tras año de teléfonos nuevos, el mismo sensor, la misma combinación de ajuste de software porque simplemente funcionó.

Si no está roto, no lo arregles. Entonces, cuando vio que el Pixel 6a ganó la prueba científica de
la cámara del teléfono inteligente para ciegos de diciembre, lo que vio fue un sensor de cuatro años y una combinación de ajuste de software
que sigue siendo tan bueno que en una comparación del tamaño de un sello postal de comprimidos uno al lado del otro. imágenes laterales en las que realmente no se puede juzgar demasiado la nitidez o la profundidad de campo, básicamente solo apreciando los conceptos básicos, este combo absolutamente clavó los conceptos básicos mejor que nadie. Ahora, cuando apareció el Pixel
6, quédense conmigo, Google finalmente actualizó su
diseño y su marca y finalmente cambiaron a un nuevo sensor con este nuevo sistema de cámara. Así que pasan de los
12 megapíxeles probados y verdaderos a este nuevo sensor masivo de 50 megapíxeles y como que arruinó las cosas.

– Así que me parece que el
Pixel está demasiado afilado. Creo que el de la
izquierda se ve demasiado crujiente. – La cámara del
Pixel 6 tiene la costumbre de hacer que las cosas se vean HDR-y. No sé si realmente hay
un término técnico para eso. – [Dan] Y si miras todas las fotos , está claro que el Pixel
sigue haciendo cosas de Pixel. – Creo que Google sigue ejecutando todos sus algoritmos de cámara a las 11, como cuando ya no es necesario. – En este momento, los teléfonos nuevos
con sensores mucho más grandes todavía se procesan como
los más pequeños. – El principio básico es : estaban haciendo todo este
procesamiento con los sensores antiguos como si no recibieran mucha luz y luego, de repente, tenían
este nuevo sensor masivo que está recibiendo mucha
más información de luz, pero aún estaban ejecutando
todo esto. Procesando. Todavía harían cosas de alta sensibilidad y luego harían reducción de ruido porque si tienes alta sensibilidad , necesitas reducción de ruido. Pero luego, dado que está
haciendo la reducción de ruido , necesita hacer una nitidez además de eso para compensarlo y, en general, está
haciendo demasiado.

Y así, las fotos están
literalmente sobreprocesadas. Así que este elegante teléfono nuevo saldría con un nuevo sistema de cámara, pero se podría argumentar, legítimamente, que el Pixel anterior aún
tomaba fotos más atractivas. Entonces, Google tuvo que trabajar muy
duro en la mesa de dibujo y hacer algunos ajustes y
algunas actualizaciones en el software para marcar este nuevo sensor. Tomó un tiempo, pero
ahora, con el lanzamiento del Pixel 7 un año después con el
mismo enorme sensor de 50 megapíxeles , volvieron a la normalidad. Y mira eso, Pixel 7 justo detrás del Pixel
6a en la prueba de cámara ciega. Entonces, cuando veo que las fotos del iPhone 14 Pro se ven un poco inconsistentes y un poco sobreprocesadas en este momento, en realidad veo muchas de las mismas cosas que Google acaba de hacer
con Pixel.

Debido a que la historia del iPhone es más o
menos similar , usaron un pequeño sensor de 12 megapíxeles durante años y años y años. Luego, el sensor 13 Pro se hizo un poco más grande, pero este año, el iPhone 14 Pro es la primera vez que se suben a este
sensor de 48 megapíxeles dramáticamente más grande. ¿Y adivina qué? Algunas fotos de iPhone de este año se ven un poco demasiado procesadas y no es nada extremo, pero es real y tendrán que trabajar en esto. Sospecho que para cuando lleguemos al iPhone 15 Pro, ya sabes, un año después , tendrán algunas cosas de software nuevas en las
que están trabajando. Y apuesto a que hay una
palabra nueva que usan en el escenario. Ya sabes, finalmente tenemos Deep Fusion y el binning de píxeles y todas estas cosas , apuesto a que hay una nueva palabra que usan para explicar algunas
mejoras de software con la cámara. Pero de todos modos, creo que esto
seguirá mejorando con las actualizaciones de software con el tiempo y seguirán marcándolo y creo que estará bien.

Pero eso es sólo la mitad de mi teoría. Esto no explica por qué todos los iPhones de 12 megapíxeles anteriores también perdieron en la primera ronda en todas esas otras pruebas de estilo de soporte. Y este es un tema aparte sobre el que tengo un
poco más de curiosidad porque, como recordarán, todas nuestras fotos de prueba
han sido fotos mías. Ahora, esto fue a propósito, ¿verdad? Al igual que diseñamos específicamente las pruebas para tener tantos factores potenciales para juzgar una foto como sea posible. Como si fuera solo una
imagen de esta figura frente a una pared blanca, el ganador probablemente
sería el más brillante, quizás el que tenga un
mejor color dorado, básicamente.

Pero luego, si tomamos la figurilla con algo de atenuación en el fondo, estamos juzgando tanto el
color como el desenfoque del fondo. Tal vez agregue un cielo al fondo, ahora también está probando
el rango dinámico y HDR. Así que sí, con nuestra última
foto, es mucho. Son dos tonos de piel diferentes. Son dos camisas de diferentes colores. Son algunas texturas para la nitidez, el cielo allí atrás para un rango dinámico, caída de corto alcance a la izquierda, caída de largo alcance a la derecha. Quiero decir, con todos estos factores, cualquiera que la gente elija como ganador idealmente está más cerca de
la mejor foto general. También quería que las
fotos fueran de un humano solo porque siento que la mayoría de las
fotos importantes que la gente toma, la mayoría de las veces, que les
importan son de otros humanos. Pero resultó que usar mi propia cara como tema para estos reveló mucho sobre cómo los
diferentes teléfonos inteligentes manejan tomar una foto de un rostro humano.

Porque como ya mencioné, estas cámaras de teléfonos inteligentes
son tanto software ahora que la foto que
obtienes cuando presionas el botón del obturador no es tanto la realidad como
la mejor interpretación de esta computadora de lo que cree que
quieres realidad. parecerse Y cada compañía va a un nivel diferente de hacer diferentes elecciones
y diferentes optimizaciones para cambiar sus
imágenes para que se vean de diferentes maneras. Solían ser un
poco más transparentes al respecto. Hay teléfonos
que literalmente identifican cuando estás tomando una foto de un paisaje y realzan cualquier verde
que puedan encontrar de la hierba o identifican cualquier
imagen con un cielo y realzan los azules
para que se vea mejor Hice un video completo sobre
cámaras de teléfonos inteligentes versus la realidad que vincularé debajo del botón Me gusta si quieres verlo. Pero el punto es que cuando
tomas esa foto en tu teléfono , no
necesariamente obtienes una captura de lo que realmente estaba frente a ti. Realmente lo están doblando de muchas maneras. Lo del iPhone es que
cuando haces una foto le gusta identificar caras
e iluminarlas uniformemente.

Lo intenta cada vez. Y esto se siente como algo
bastante inocente, ¿verdad? Como si normalmente le preguntas a la gente: "¿Qué crees que debería
verse bien en una foto?" Y dices: "Oh,
iluminaré uniformemente todas las caras". Eso suena bien, ¿verdad? Y muchas veces se ve bien, pero es algo sutil como en una foto donde puedes ver que la luz
viene de un lado claramente, donde puedes ver desde la cámara del Pixel, hay una sombra en el
lado derecho de la cara. Sin embargo, con el iPhone, es casi como si alguien se acercara y agregara un pequeño relleno de rebote, (risas) solo un pequeño
relleno de rebote sutil muy agradable. Pero a veces se ve un poco fuera de lugar. Mira, esta es la
prueba fotográfica con poca luz que hicimos de nuestra prueba de cámara ciega. A la izquierda está nuevamente el Pixel 7, que se parece a todos los demás perros principales.

Y a la derecha está el iPhone 14 Pro que terminó en el medio del paquete. Puede ser difícil al
principio ver por qué se ve tan raro, pero mira cómo
eliminaron por completo la sombra de la mitad de mi cara. Claramente estoy siendo iluminado por una fuente que está a mi lado, y eso es parte de la realidad. Pero en la realidad del iPhone
, no puedes saber, al menos por mi cara, de dónde
viene la luz. De vez en cuando te encuentras
cosas raras como esta.

Y todo vuelve al hecho de que es el software el que toma decisiones. Y la otra mitad de eso son los tonos de piel. Así que me han escuchado decir
durante algunos años seguidos que prefiero principalmente las fotos que
provienen de la cámara de Pixel, y hemos hecho muchas pruebas en las que me tengo como una foto de muestra y pueden ver que se ve muy bien. Resulta que Google ha hecho
esto en los últimos años con la cámara Pixel llamada Real Tone. No recibe mucha atención, pero resulta que está marcando
una gran diferencia aquí.

Históricamente, un problema real para las
cámaras de cine en el pasado era que estaban calibradas
para tonos de piel más claros y las personas con tonos de piel más oscuros normalmente estaban
subexpuestas en esas imágenes. Así que ahora avance rápido hoy, las
cámaras son todo software. Las cámaras de los teléfonos inteligentes son un software, por lo que todas pueden hacer ajustes para tener en cuenta las diferentes variedades
de tonos de piel, por supuesto. Pero todavía todos lo hacen en
diferentes grados. Como habrás notado, muchos teléfonos vendidos en China simplemente iluminarán las
caras en todos los ámbitos porque eso es lo que la gente prefiere en las fotos en esa región con mucha frecuencia. Google hace un esfuerzo adicional para entrenar el
software de su cámara en conjuntos de datos que tienen una gran variedad de tonos de piel para tratar de representarlos
correctamente en todos los ámbitos. Y eso es lo que llama Real Tone. Y a las cámaras de Apple,
por lo que he observado, simplemente les gusta
iluminar rostros uniformemente en todos los ámbitos y no necesariamente tienen en cuenta los diferentes balances de blancos
y exposiciones necesarios para representar con precisión
diferentes tipos de tonos de piel cuando creo que podrían hacerlo.

Básicamente,
resulta que esto es una gran parte de lo que estábamos observando en Pixel y muchos de los teléfonos que representan con precisión mi tono de piel y terminaron más alto en esta
votación a ciegas que hicimos porque lo
hacen muy bien. Y eso es algo que la
gente realmente consideró cuando votó por ellos. No he dicho esto mucho, pero creo que esta es una
de las primeras razones por las que realmente me
gustaban las cámaras RED, ya sabes, obviamente 8K es genial, Color Science es genial,
pero la forma en que representa y reproduce mi piel. tonificar con
precisión en muchas, ya sabes, las Sony, las ARRI y las Canon que he probado, esa es en realidad una de las cosas que realmente me atrajo de estas cámaras.

Entonces, todo este software
es la razón por la cual las comparaciones de fotos entre los teléfonos inteligentes modernos son tan difíciles. Hay muchos canales
que hacen un muy buen trabajo con la
prueba de fotos de lado a lado, ya sabes, pero incluso mientras
intentas elegir uno sobre el otro, probablemente hayas notado esto, es posible que como la forma en que uno de ellos renderiza fotos de paisajes sobre el otro, pero la forma en que otro renderiza fotos con tu propio tono de piel y luego la forma en que otro renderiza fotos
de tu mascota, por ejemplo. Así que estoy seguro de que Apple defenderá
todo lo que está haciendo ahora con sus cámaras actuales,
como suele hacer. Pero estaré
atento a lo que también estoy seguro de que están trabajando para ajustar estas nuevas
cámaras, marcarlas y, finalmente, mejorarlas con el iPhone 15 y 15 Pro.

Entonces, volviendo a la pregunta original del comienzo del video, no podemos dejarla sin responder, que es: "Muy bien, el Pixel 6a, te gustan las fotos de Pixel, Marques , ganó la prueba de cámara científica a ciegas, pero aún así le dio el trofeo al mejor
sistema de cámara general al iPhone, el mismo 14 Pro del que
hemos estado hablando en todo este video, ¿por qué?". Y si escucha con atención
, ya lo entendió, que es esa prueba científica que hicimos para probar una cosa específica , probó la exposición general
del tamaño de un sello postal pequeño, ya sabes, y los
colores con un montón de factores diferentes, pero la nitidez y los detalles con toda la compresión
que hicimos no fueron probados.

Además, no se probó la velocidad del enfoque automático ni la confiabilidad del enfoque automático. No se probó el tiempo de apertura y cierre de la aplicación de la cámara, qué tan rápido y confiable puede
tomar una foto. Y tampoco se probó el video. Entonces, la calidad del micrófono, la calidad del video, la velocidad y la confiabilidad del enfoque automático allí, los formatos de archivo, la nitidez, HDR,
todo eso, no se probó.

Tal vez algún día probemos
todo eso, pero hasta entonces, la lección aprendida es que las bellas imágenes que provienen del Pixel o
cualquier teléfono que tenga en el bolsillo son en parte fotones, pero
principalmente procesamiento. (música relajada) Gracias por mirar. Atrápenlos, chicos, el siguiente. Paz. (registro crepitante).

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *