Google Pixel: La cámara "definida por software"

AndroidPIT Google Pixel 2 1663
© nextpit by Irina Efremova

En el segmento de gama alta, la cámara es el elemento que hace inclinar la balanza. Google ha avanzado mucho en los últimos años y ha obtenido resultados extraordinarios en el Pixel y Pixel 2. Hemos tenido la oportunidad de hablar con Isaac Reynolds, Product Manager de la cámara del Pixel 2 y nos ha dado algunas ideas sobre la filosofía detrás de la cámara de este smartphone.

Hay mucha tecnología detrás de las cámaras de los smartphones. No se trata solo de la calidad de las imágenes, sino también del camino que recorre. Os lo explico con una pregunta: ¿configuración manual o mejor modo automático rápido? Esto conduce inevitablemente a la cuestión de cómo diseñar la relación entre la cámara del smartphone y su reflejo. ¿Qué piensa Google?

Google18 5025
Isaac Reynolds, Product Manager para la cámara en el Pixel 2. / © Ulrich Schaarschmidt/Google LLC

Isaac Reynolds tiene una visión clara de esta discusión: por lo general, la cámara se ve principalmente desde el punto de vista del hardware. "Google es históricamente una empresa de software", nos dijo en una conversación. En el Google Pixel, esto se nota con la cámara, entre otras cosas. Aunque, por supuesto, eso no significa que el hardware sea insignificante. Simplemente, que Google se centra más en el software. Y aquí, en particular, Reynolds destaca la tecnología HDR+, presente en teléfonos Google desde hace seis años. En cierto modo, la cámara de la gama Pixel es una cámara definida por su software y así mismo basada esencialmente en software.

El HDR+ marca la diferencia

El HDR+ no funciona como un modo HDR clásico, que combina varias imágenes con diferentes configuraciones de exposición. El HDR+ usa hasta diez imágenes subexpuestas, pero tomadas con la misma configuración de exposición. El algoritmo HDR+ junta estas imágenes en una. Con este método, la cámara del Pixel puede lograr largos tiempos de exposición sin usar una imagen con un mayor tiempo de exposición. Aquí, se usan diferentes técnicas, que aseguran que las imágenes permanezcan nítidas.

Por lo tanto, un modo manual es difícil de implementar en la gama Google Pixel porque cancelaría la funcionalidad HDR+: el HDR+ procesa hasta diez imágenes, que Google podría proporcionar como un archivo RAW. Solo que no habría ningún software que pudiera procesar esto en una única imagen. Por lo tanto, Google decidió no utilizar la funcionalidad RAW en la cámara de Google.

AndroidPIt google pixel XL 9805
La cámara Pixel es conocida por su HDR+. (En la imagen: Google Pixel, primera generación). / © NextPit

En cuanto al zoom, el software proporciona muy buenos resultados. Principalmente gracias a RaisR. Este algoritmo ayuda en situaciones con fuerte contraste a mejorar el dibujo de detalles; y funciona particularmente bien, por ejemplo, en letras.

Google también puso mucho cariño en el modo autorretrato. Aunque simula el efecto bokeh óptico de una cámara, ha diseñado su propio camino. Por ejemplo, siempre mantiene a las personas nítidas incluso cuando no están en un plano de enfoque. En este modo, Google combina dos tecnologías: por un lado, la estimación de profundidad basada en dos imágenes desde diferentes perspectivas, gracias al sensor Dual Pixel cuyo desplazamiento mínimo ya es suficiente; y, por otro lado, Machine Learning se usa para ofrecer un mejor contorno de las personas.

Google: 'Apunta y dispara' como objetivo

En general, el concepto de las cámaras Google es principalmente proporcionar una solución fotográfica simple. Por este motivo, Reynolds rechaza los modos que consumen mucho tiempo a través del reconocimiento de objetos.

De cara al futuro, el equipo encargado de las cámaras de Google tiene los formatos de medios modernos como AV1 en mente. Sin embargo, para ello debe seguir habiendo un próspero apoyo. En cualquier caso, un usuario de Pixel no tendrá que preocuparse por el espacio de almacenamiento, ya que las imágenes se sincronizan a través de la nube (Google Fotos). Pero eso también significa que para Google deben trabajar Google Photos y la cámara siempre en conjunto.

Google18 4918
Apuntar y disparar (Point & Shoot): el lema de la cámara de Google. / © Ulrich Schaarschmidt/Google LLC

Pixel Visual Core: Google no usa el chip

Durante nuestra conversación Reynolds comentó un tema que Google comunicó previamente de manera contradictoria. Me refiero al asunto del Pixel 2 y Pixel Visual Core, un procesador que puede acelerar las aplicaciones de aprendizaje automático (Machine Learning). Inicialmente, no funcionaba y, de hecho, la cámara de Google no lo utiliza todavía.

De hecho, el Visual Core solo se usa para software de terceros para el que se proporcionan las características de Pixel Visual Core HDR+. "Hay razones para eso", dice Reynolds. Google quería darles a los desarrolladores de aplicaciones acceso fácil al HDR+, pero para su propia aplicación de cámara necesita funciones más complejas que actualmente no son factibles usando Visual Core. En el futuro, es más que probable que Google trabaje Visual Core.

La dualidad de la cámara dual

Las cámaras duales son la tendencia del momento y parece que no se puede concebir un smartphone de gama alta sin ellas, pero si lo pensamos detenidamente tampoco ofrecen un efecto tan asombroso en cuanto a calidad de imagen. Reynolds señala que una doble cámara cuesta dinero, lo que impulsa que los smartphones tengan un precio más alto y, en última instancia, el comprador se ve afectado. Así que, por un lado, como acabo de mencionar, dos sensores de imagen cuestan más que uno; y, por otro lado, las cámaras duales requieren más recursos en la memoria principal. Por lo tanto, una cámara doble requiere compromisos que aparentemente Google no ha querido tomar en el Pixel 2 XL.

¿Es la cámara para ti un criterio de compra importante? ¿Y qué cámara estás usando actualmente?

Notificación push Artículo siguiente
4 Comentarios
Escribir un nuevo comentario:
Los cambios realizados se guardarán. No hay borradores guardados durante su edición
Escribir un nuevo comentario:
Los cambios realizados se guardarán. No hay borradores guardados durante su edición

  • Chris Blue 50
    Chris Blue 1 jun. 2018 Link al comentario

    Es increíble lo que google ha demostrado, y si hasta ahora el Pixel 2 sigue siendo en mejor en eso, no me imagino el pixel 3.

    Un pixel 3 con el sensor del pixel 2 y otro con zoom o gran angular y estaría perfecto.


  • AlexT 29
    AlexT 31 may. 2018 Link al comentario

    Sony debería aprender muchísimo de la gente de Google en cuanto a sacarle partido a sus cámaras, no es posible los mejores fabricantes de cámara tengan unos sensores tan cutres en sus propios productos

    Daniel


  • Daniel 62
    Daniel 30 may. 2018 Link al comentario

    El primer punto para comprar un móvil es la cámara, para mi.


  • Неуроник 19
    Неуроник 30 may. 2018 Link al comentario

    Pues no será tan difrencial de precio de meter una o tres camaras igualmente un alta gama está a los 800€, la combinación de 3 que tiene el Huawei hace magia con las fotos nocturnas sin necesidad de tripode

Escribir un nuevo comentario:
Los cambios realizados se guardarán. No hay borradores guardados durante su edición