Profundo de la Fusión de las diferencias, a veces sutiles, pero realmente en pet fotos



iOS 13.2 aterrizó a principios de esta semana, trayendo consigo un Profundo Fusión, la característica de Apple jefe de marketing se describe en el iPhone 11 keynote como ‘fotografía computacional de mad science.’ (Menos felizmente, también parece introducir problemas con el fondo apps.)

Como HDR Inteligente, Profunda Fusión de la mezcla de varios fotogramas para crear la mejor imagen compuesta. Pero mientras que Smart HDR está limitada a la mezcla de diferentes exposiciones, algunas diseñadas para la captura de zonas de sombra, otros para tirar destaca, en lo Profundo de Fusión también tiene el objetivo de llevar a cabo más detalle…

he Aquí cómo Schiller se describe la función, que está disponible sólo en los tres iPhone 11 modelos.

dispara nueve imágenes, antes de pulsar el botón del obturador es ya un disparo de cuatro imágenes, cuatro imágenes secundarias. Cuando usted presione el botón disparador toma de una larga exposición, y luego en tan sólo un segundo, el Neuronales Motor analiza la fusionada combinación de largo y corto imágenes escoger el mejor entre ellos, la selección de todos los píxeles, y un pixel por un pixel, pasando de 24 millones de píxeles para optimizar el detalle y bajo nivel de ruido, como se puede ver en el suéter de allí. Es increíble, esta es la primera vez que un Neural Procesador es el responsable de generar la imagen de salida. Es fotografía computacional ciencia loca.

Gizmodo’s Adam Estes ha estado probando la versión beta durante varias semanas. Uno de los problemas que tuvo de que no hay ningún usuario indicación de cuando en lo Profundo de Fusión es activo (a pesar de que hay situaciones en las que definitivamente no es). Sólo tienes que tomar fotos en idénticos dos teléfonos, uno con iOS 13.2, una sin, y buscar las diferencias.

La mala noticia es que, en muchos disparos, las diferencias sólo son visibles cuando pixel-espiando. No es probable que hacer una diferencia notable para la mayoría de las personas, la percepción de una foto, él sugiere.

Vamos a profundizar en lo Profundo de la Fusión del cálculo de la fotografía de mad science realmente se siente. Si estoy siendo honesto, no se siente como mucho. Justo después de la Profunda Fusión característica apareció en el iOS 13.2 beta pública, he instalado el software en Gizmodo del iPhone 11 Pro, mientras que yo seguía a la anterior versión de iOS, el uno sin Profunda Fusión en mi iPhone 11 Pro. Luego me tomó una crapload de imágenes en todo tipo de entornos diferentes. Francamente, yo a menudo no podría decir la diferencia entre la Profundidad de la Fusión de disparo y la no-Profunda Fusión de tiro.

a Veces, sin embargo, la diferencia es inmediatamente obvio. Aunque Estes describe como «sutil» la diferencia entre las dos fotos de el reloj en el centro de Nueva York Grand Central Terminal, para mí la diferencia es muy clara incluso antes de verla en tamaño completo.

Si la Profundidad de la Fusión de disparo es mejores es un juicio subjetivo. Sin duda es más nítida, pero tal vez las fronteras en más afiladas. Aplicaciones como Photoshop y Lightroom permite enfocar fotos en post-producción, y a veces el resultado puede parecer artificial si alguien va demasiado lejos – y yo diría que esto está peligrosamente cerca de este territorio. Para la persona promedio, sin embargo, más nítida es ‘mejor’, por lo que Apple probablemente el derecho de llamar allí.

Estes dice que hay un caso donde la diferencia es como la noche y el día: fotos de su cachorro, Maní, visto aquí en una visión cercana.

las Cosas cambiaron para mí cuando empecé a tomar fotos de la piel, sin embargo. En teoría, este es exactamente el tipo de situación donde Profundo de Fusión debe brillar, desde pequeños mechones de cabello tienden a entremezclarse, pero un neuronal motor podría identificar estos detalles y la combinación de ellos juntos en una Profunda Fusión de la foto. Esta podría ser la razón por la que Apple eligió utilizar un barbudo en una textura fina puente para mostrar Profundos de la Fusión en la reciente keynote. Mi versión de un hombre con barba en una textura fina puente es un perrito llamado Maní […]

Mientras ella se ve angelical en ambas de estas fotos, es bastante fácil ver que, en la foto de la izquierda, su suave poco destacados obtener borrosa alrededor de la corona de su cabeza y alrededor de su oreja. En la Profundidad de la Fusión de la foto de la derecha, son nítidas como puede ser […]

no quiero que me tome otra foto de Maní sin Profunda Fusión de nuevo.

Lo que estamos viendo hoy en día es, por supuesto, sólo la primera iteración de la Profundidad de la Fusión, y Estes especula con la posibilidad de que las futuras actualizaciones de mejorar las capacidades de zoom, por mucho que Google tiene con el Pixel 4.

Están notando diferencias significativas en las fotos de antes y después de actualizar a iOS 13.2? Por favor, háganos saber en los comentarios.

mira la pieza completa aquí.


Echa un vistazo 9to5Mac en YouTube por más de Apple noticias:



Este sitio web utiliza cookies para mejorar tu experiencia. Si continuas utilizando este sitio, consideramos que estás de acuerdo con esto. Más información

Los ajustes de cookies de esta web están configurados para «permitir cookies» y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en «Aceptar» estarás dando tu consentimiento a esto.

Cerrar