Las ultimas noticias en tecnología, ciencia y cultura digital.

Qué mejoras trae la cámara de Google en el nuevo Pixel 4

Google no es la compañía que más teléfonos vende, ni la que fabrica terminales más equilibrados, pero sí una de las principales impulsoras de la industria en el campo de la fotografía computacional. La cámara del Pixel 3 está considerada una de las mejores de su generación, y ahora que la cámara del Pixel 4 ha sido presentada oficialmente, la pregunta que nos hacemos es: ¿qué mejoras trae?

Hardware

El Pixel 4 tiene un total de tres cámaras, las mismas que tenía el Pixel 3, pero invertidas: si el Pixel 3 tenía una cámara trasera y dos frontales (una gran angular y una ultra gran angular), el Pixel 4 tiene una cámara frontal y dos traseras (una gran angular y un teleobjetivo equivalente a un zoom 1,8x).

Advertisement

Cámara principal:

  • Sensor de 12, 2 MP
  • Anchura de píxel de 1,4 μm
  • Autoenfoque y detección de fase con tecnología Dual Pixel
  • Estabilización de imagen electrónica y óptica
  • Apertura ƒ/1,7
  • Campo de visión de 77°

Teleobjetivo (1,8x):

  • Sensor de 16 MP
  • Anchura de píxel de 1,0 μm
  • Autoenfoque con detección de fase
  • Estabilización de imagen óptica y electrónica
  • Apertura ƒ/2,4
  • Campo de visión de 52°

Cámara frontal:

  • Sensor de 8 MP
  • Anchura de píxel de 1,22 μm
  • Enfoque fijo
  • Sin estabilizador
  • Apertura ƒ/2,0
  • Campo de visión: 90°

A estas especificaciones hay que sumar un sensor de espectro y parpadeo en la cámara trasera, un radar Soli en la cámara frontal y unas capacidades de vídeo bastante mediocres: 4K a 30 fps en la cámara trasera y 1080p a 30 fps en la cámara frontal. La cámara lenta alcanza los 240 fps cuando graba a 720p.

Software 

Google dice que el Pixel 4 es una “cámara definida por el software”. Un ejemplo claro es la tecnología HDR+ presente en todos los Pixels: cuando pulsas el obturador, la cámara no toma una sola foto, sino nueve fotos subexpuestas que el procesador de imagen une en una sola toma haciendo una media matemática. Este proceso, casi imperceptible para el usuario, sube el detalle de las sombras y las luces altas reduciendo el ruido de la captura final.

Advertisement

Así que... ¿qué novedades de software trae la cámara del Pixel 4?

Zoom híbrido

A la izquierda, lo que ve la cámara principal. A la derecha, un reencuadre hecho con Super Res Zoom
Advertisement

Gracias al teleobjetivo del Pixel 4, Google ha tenido margen para mejorar enormemente la tecnología Super Res Zoom del Pixel 3. Este “zoom de alta resolución” es en realidad un algoritmo de Google que fusiona fragmentos de múltiples fotos en una imagen de mayor definición. Aunque la cámara secundaria solo pueda ampliar la imagen 1,8 veces, el Pixel 4 logra un zoom híbrido de 8 aumentos gracias al Super Res Zoom. Esto solo ocurre si cierras el encuadre al momento de tomar la foto, ya que no puedes hacer zoom después.

HDR+ en tiempo real

Una de las desventajas del HDR+ de Google frente a alternativas como el HDR Inteligente de Apple era que no podías saber cómo se vería la foto, tenías que esperar a que el teléfono la procesara. El nuevo Pixel 4 lleva un procesador más potente que los anteriores Pixels y es capaz de procesar el HDR+ en tiempo real. De acuerdo con la propia Google, esta nueva función, llamada Live HDR+, muestra exactamente lo que verás en el resultado final tras tomar la foto.

Advertisement

Doble exposición manual

Advertisement

Con la introducción del aprendizaje automático, el mantra de la fotografía móvil ha pasado a ser “confía en la máquina”. Para esas veces en las que prefieres no confiar en la máquina y controlar la exposición de la foto, el Pixel 4 introduce un doble deslizador que te permite ajustar el brillo y las sombras por separado, por ejemplo para evitar que el HDR+ ilumine demasiado la cara de una persona.

Balance de blancos inteligente

El Pixel 4 activa en todos los modos de cámara una función que Google había introducido exclusivamente para el modo noche del Pixel 3: el balance de blancos inteligente. En resumen, un algoritmo de aprendizaje automático estudia la foto para controlar el balance de blancos en función del contexto. Si detecta que estás en la nieve, procura no enfriar demasiado el resultado para que tu piel siga siendo de un color cálido y no se vea artificialmente azul.

Advertisement

Caras frecuentes

Advertisement

Siguiendo con las mejoras de inteligencia artificial, la nueva función Caras frecuentes reconoce a las personas que más salen en tus fotos y procura que siempre salgan sonriendo, enfocadas y sin parpadear. Este y otros modos de cámara utilizan segmentación semántica mediante aprendizaje automático.

Modo retrato mejorado

Los anteriores Pixels podían desenfocar artificialmente el fondo de las fotos gracias a una tecnología llamada Dual Pixel. En resumen, Google creaba un mapa de profundidad tomando como referencia la información a un lado y a otro de cada píxel del sensor de la cámara. El Pixel 4 sigue haciendo lo mismo, pero ahora cuenta con información adicional de la segunda lente, por lo que el Modo Retrato ofrece un desenfoque más artístico y parecido a lo que hacen las cámaras réflex. Según Google, una de las mejoras del nuevo Modo Retrato es que separa mejor el pelo de nuestras mascotas del fondo de la imagen.

Advertisement

Astrofotografía

Advertisement

Por último, el Pixel 4 mejora el modo noche (oficialmente conocido como Night Sight o Visión Nocturna) con una nueva función de astrofotografía capaz de hacer fotos de la Vía Láctea. Esta función toma 15 fotos de distinta exposición en 16 segundos y las fusiona para crear imágenes claras del cielo estrellado.

Share This Story

About the author

Matías S. Zavia

Matías tiene dos grandes pasiones: Internet y el dulce de leche

EmailTwitterPosts
PGP Fingerprint: 08B1 8FBD 5DA0 45F1 2C2D F329 BD6D 0689 6FB2 7BEBPGP Key