Categories: NoticiasSmartphones

Los futuros teléfonos Pixel deberían tener estas funciones habilitadas para IA

Robert Triggs/Autoridad de Android Los teléfonos Pixel de Google no fueron los primeros en implementar la inteligencia artificial para impulsar las capacidades de los teléfonos inteligentes, pero han mostrado constantemente algunos de los mejores ejemplos de mejoras diarias que benefician el uso diario. Desde una mejor captura de video usando HDRNet hasta funciones como Photo Unblur e incluso la transcripción de mensajes de audio, la serie Pixel ha impulsado las NPU y los núcleos infundidos con ML en procesadores como el Tensor G2, para crear experiencias de usuario sutiles pero transformadoras.
Lee mas: Guía del comprador de Google Pixel 7 Si bien la serie Google Pixel continúa impulsando el ámbito de la fotografía computacional y las experiencias de computación ambiental, todavía hay algunas características más que creemos que podrían beneficiarse del toque mágico de Google. Aquí hay algunas características habilitadas para IA que queremos ver en futuros teléfonos inteligentes Pixel.

Mejor borrador mágico

Rita El Khoury / Android AuthorityEl año pasado, Google presentó la herramienta Magic Eraser junto con la serie Pixel 6 para eliminar sujetos y objetos no deseados de las fotografías. Siguió con las funciones Face and Photo Unblur que, bueno, desenfocan las fotos movidas usando el poder de las capacidades de aprendizaje automático del procesador Tensor. Google debería seguir el ejemplo de los editores de fotos alternativos como Samsung’s Enhance-X para traer muaré o eliminación de sombras. Sin embargo, me gustaría que Google ampliara aún más la función. Siguiendo los pasos de la herramienta Object Eraser de Samsung, me gustaría ver que Google agregue la capacidad de eliminar o ajustar sombras y reflejos. Si bien la implementación de Samsung está más cerca del Relleno consciente del contenido en Photoshop, es decir, menos que perfecto, puedo ver que las habilidades de inteligencia artificial de Google y los enormes conjuntos de fotos llenan el vacío para una mejor conciencia espacial y una apariencia más limpia. Además, tomar fotos de pantallas y visualizaciones es un caso de uso bastante común para los teléfonos inteligentes. Sin embargo, con demasiada frecuencia, terminará con un patrón muaré en la pantalla causado por la interferencia entre la pantalla y el filtro Bayer en el sensor de la cámara de su teléfono inteligente. Este patrón puede hacer que el texto sea ininteligible o que las telas de tejido apretado se vean raras. Al igual que la aplicación Enhance-X de Samsung, que le permite eliminar patrones muaré, sería genial ver a Google incorporar la herramienta de edición en Google Photos o, mejor aún, en la propia aplicación de la cámara.

Restauración de imagen

Dhruv Bhutani / Autoridad de Android Google no tiene reparos en introducir herramientas avanzadas de edición de fotos en la experiencia Pixel. Los tradicionalistas pueden afirmar que las herramientas opcionales como Photo Unblur y Magic Eraser manipulan la fotografía original, pero el resultado final es una imagen perfecta y estéticamente agradable sin distracciones. Construir una restauración de imagen completa en Google Photos es pan comido. Llevar ese mismo enfoque computacional a la restauración de imágenes es una obviedad. De hecho, Google habló sobre arreglar fotos de películas borrosas en el evento de lanzamiento de Pixel 7. Una extensión fácil de esa función sería la capacidad de corregir el balance de blancos en escaneos antiguos. Yendo un paso más allá, las herramientas de inteligencia artificial de Google podrían extenderse para corregir defectos como grano y rayones o agregar color a una imagen en blanco y negro. Las posibilidades son infinitas. Recientemente comparamos la función Photo Unblur incorporada de Pixel y la corrección manual usando Photoshop, y los resultados no fueron muy diferentes entre sí. Unas pocas adiciones simples serían todo lo que se necesita para hacer de un teléfono Google Pixel el mejor estudio fotográfico en su bolsillo.

Ver síntesis

¿Alguna vez deseó haber cambiado ligeramente la perspectiva antes de capturar una toma? Si bien existen herramientas de corrección de perspectiva, tienden a distorsionar la imagen. La síntesis de vista, sin embargo, puede arreglar eso sin ninguna aberración. La técnica futurista utiliza algoritmos de aprendizaje automático para generar vistas alternativas de una escena en función de las entradas de varias imágenes. La síntesis de vista puede tomar puntos de datos de varias imágenes y permitirle manipular la foto en la publicación. Los ingenieros de Google han estado experimentando con la síntesis de vista desde hace un tiempo (y han implementado algo similar en las sugerencias automatizadas de fotos cinemáticas de Google Photo). De hecho, se estaba considerando para la desafortunada cámara Google Clips, pero se abandonó debido a su alto requerimiento computacional. Sin embargo, un futuro conjunto de chips Tensor podría tener suficiente gruñido para habilitar la función en el dispositivo. La técnica computacional podría capitalizar los múltiples cuadros capturados al capturar imágenes HDR Plus y permitirle alterar sutilmente imágenes extrañamente sesgadas sin roturas ni distorsiones.

Difusión estable incorporada

Zak Khan / TecNoticias ¿Recortado demasiado cerca del tema? Tal vez le gustaría más telón de fondo para la estética creativa perfecta. Los fotógrafos han utilizado durante mucho tiempo la herramienta Relleno consciente del contexto de Photoshop para ampliar los límites de una fotografía. Sin embargo, los algoritmos de generación de imágenes como Stable Diffusion y DALL-E 2 hacen que sea más fácil y preciso reducir y obtener más del marco. Los algoritmos de generación de imágenes en el dispositivo permitirían ediciones más creativas o una mejor expansión de la imagen. Construcción en el dispositivo Los algoritmos de IA para permitirle expandir su imagen serían una herramienta fantástica, dadas las ambiciones centradas en la fotografía de Pixel. De hecho, Snapseed, el editor de fotos propiedad de Google, ya tiene una herramienta de expansión integrada. Sin embargo, esa herramienta usa señales contextuales para alejar la toma. La difusión estable en el dispositivo impulsada por núcleos ML en teléfonos Pixel y combinada con los vastos conjuntos de datos de Google puede mejorar drásticamente la herramienta al permitirle agregar más fondo a la imagen utilizando inteligencia artificial.

Tomas HDR de resolución completa

Dhruv Bhutani / TecNoticias Con los sensores de alta resolución novedosos en los teléfonos Pixel modernos, no es descabellado esperar que los usuarios quieran imágenes de resolución completa con la misma magia HDR Plus que obtenemos en las tomas de 12 MP con resolución reducida. Mire, el agrupamiento de píxeles se beneficia enormemente fotografía y detalle con poca luz, pero a veces solo desea la imagen de mayor resolución posible. Marcas como Realme ya han hablado sobre el uso de la salida de resolución completa del sensor de la cámara para generar los resultados finales. Una toma de 50MP de resolución completa con las mismas ventajas que las fotografías estándar de 12MP de Pixel permitiría a los usuarios recortar a voluntad la imagen tan grande como deseen. Para los usuarios que desean la máxima flexibilidad al editar sus fotos, sería una gran adición sin el alboroto asociado con el procesamiento de imágenes RAW. Claro que puede tomar un poco más de tiempo renderizar la toma, pero tenerla como una configuración opcional debería ser una obviedad, y me encantaría verla en la próxima generación de hardware de Pixel.

Adicionales de calidad de vida

Dhruv Bhutani / TecNoticias Por todo el enfoque de Google en las funciones originales y con visión de futuro, podría copiar algunas funciones de otros OEM y iPhones de Android. Para empezar, me encantaría ver a Google copiar la excelente función de pixelado de capturas de pantalla de los teléfonos Oppo y OnePlus que pueden desenfocar información clave como fotos de contactos o números de teléfono automáticamente. La capacidad de sacar objetos de una foto puede parecer un truco. pero es una forma ingeniosa de crear pegatinas o agregar documentos. Del mismo modo, la capacidad de iOS 16 para extraer objetos de una foto puede parecer un truco, pero puede ser una adición interesante para los usuarios que desean crear calcomanías personalizadas u otros casos de uso creativo.
Relacionado: 10 cosas que iOS hace mejor que Android Desde el filtrado de spam hasta mejores servicios basados ​​en audio, reconocimiento de música y mejoras relacionadas con la fotografía, la serie Pixel ha presentado muchas características que se han beneficiado de la inteligencia artificial y el aprendizaje automático. ¿Qué otras funciones te gustaría ver en los próximos teléfonos Pixel? Háganos saber a continuación. Comentarios

aliintizar71

Recent Posts

Máquina de mano Lean, Green, Raspberry Pi

Los días felices de la PDA y Blackberry han quedado definitivamente atrás, pero el factor…

1 year ago

Cómo pronosticar series de tiempo usando autorregresión

Tutorial sobre cómo pronosticar usando un modelo autorregresivo en PythonFoto de Aron Visuals en UnsplashForecasting…

1 year ago

Aquí están todas las formas en que puede cargar su AirPods Pro

Si tienes un iPhone, los AirPods Pro son la opción obvia para escuchar música, ¡aunque…

1 year ago

Las principales noticias tecnológicas del lunes: la prohibición de clientes de terceros de Twitter parece no ser un accidente

Ilustración de Alex Castro / The Verge Plus nuevos rumores sobre el quinto Galaxy Fold.…

1 year ago

AirPods Max 2: aquí están las características más solicitadas

Se rumorea que los auriculares premium de próxima generación de Apple, los AirPods Max 2,…

1 year ago

El remake de Dead Space continúa luciendo terriblemente genial en el nuevo tráiler de la historia

El desarrollador Motive Studio y el editor EA han lanzado un nuevo tráiler de la…

1 year ago