Sony presentó en su nuevo buque insignia Xperia el “AI Camera Assistant”, una función que, según la compañía, ayuda a “dar vida a tu visión”. La promesa llegó acompañada de ejemplos que hicieron justo lo contrario de lo que Sony parecía buscar: en redes sociales, la implementación fue criticada de forma casi unánime.
La empresa dijo que la herramienta, integrada con Xperia Intelligence, “sugiere varias opciones expresivas con diferentes ajustes para crear fotos memorables”. También la combinó con un nuevo sensor de cámara teleobjetivo que es casi cuatro veces más grande que antes, una mejora pensada para apuntalar su apuesta por la fotografía móvil de gama alta.
Pero los ejemplos compartidos por Sony mostraban otra cosa. Las imágenes aparecían drásticamente más brillantes, con menos color y menos contraste en toda la escena, una estética que muchos usuarios interpretaron como el extremo de un problema ya conocido en la fotografía computacional de los teléfonos: el impulso a procesar tanto la imagen que termina perdiendo naturalidad. En redes, algunos llegaron a describir la implementación como el “jefe final” de la peor tendencia de cámara.
El contraste llega en una semana en la que Google mostró una nueva herramienta llamada “Smart enhance” para la app Instagram Edits en Android, con una lógica parecida: iluminar todas las sombras para que coincidan con el sujeto y dejar una imagen más plana. Ese cruce deja a Sony en una posición incómoda. Mientras intenta vender control creativo y mejores resultados técnicos con el Xperia 1 VIII, la recepción pública se centró en si el sistema realmente mejora las fotos o solo empuja todavía más lejos la edición automática.
La crítica también abre una pregunta más incómoda para Sony: si el teléfono está pensado para ayudar al usuario a expresar una idea, ¿por qué los ejemplos oficiales terminaron pareciendo una versión menos viva de la escena original? Por ahora, la respuesta está menos en el marketing que en lo que la compañía decida mostrar la próxima vez.

