Categories: NoticiasSmartphones

Alexa se está enseñando a sí misma para mejorar en entender lo que quieres decir

Uno de los inconvenientes de confiar en un asistente digital basado en la voz como Alexa es que puede estar interactuando con él sin el beneficio de una pantalla o algún tipo de elemento visual. Lo que significa que gran parte de la interacción puede depender de lo que realmente pueda hacer el software del asistente, y de los comandos necesarios para ejecutar esas capacidades. Dicho esto, algunas nuevas habilidades para la Alexa de Amazon se están implementando hoy en los Estados Unidos y están destinadas a ayudar a Alexa a comprender mejor a qué te refieres cuando hablas con ella.

Más específicamente, gracias al aprendizaje automático en segundo plano, Alexa es cada vez más capaz de aprender a entender mejor lo que realmente estás tratando de decir.

Estas nuevas habilidades facilitan el tipo de interacciones que le permitirán hablar más naturalmente con los dispositivos Alexa. Por ejemplo, Amazon está expandiendo las llamadas "interacciones sin nombre" hoy en los Estados Unidos, así como en el Reino Unido, Canadá, Australia, India, Alemania y Japón. ¿Qué es una interacción sin nombre? Se puede decir algo así como "Alexa, tráeme un auto" en lugar de tener que especificar un servicio específico de viaje compartido.

Estas interacciones para las habilidades relacionadas con el hogar inteligente también se están ampliando en los Estados Unidos. Ahora, simplemente puede pedirle a Alexa que realice una tarea como, por ejemplo, limpiar, sin tener que especificar una habilidad específica. Alexa simplemente se dará cuenta de lo que quieres decir.

Ruhi Sarikaya, director de ciencia aplicada de Alexa AI, explica en una publicación de blog de desarrolladores publicada hoy en qué consiste todo para ayudar a Alexa a entender mejor el mundo leyendo las claves de contexto. "Ha habido un progreso notable en los sistemas de AI conversacionales en esta década, gracias en gran parte al poder de la computación en la nube, la abundancia de datos necesarios para entrenar los sistemas de AI y las mejoras en los algoritmos fundamentales de AI", escribe. “Sin embargo, cada vez más, a medida que los clientes amplían sus horizontes conversacionales de inteligencia artificial, esperan que Alexa interprete sus solicitudes contextualmente; proporcionar respuestas más personales, relevantes al contexto; ampliar sus capacidades de conocimiento y razonamiento; y aprender de sus errores ".

Alexa está confiando cada vez más en un conjunto creciente de señales contextuales, continúa, para "resolver la ambigüedad". Incluyen todo, desde contextos personales, que incluyen la actividad y preferencias históricas, además del contexto de sesión existente y contextos físicos, como por ejemplo si este dispositivo está en Un hogar, automóvil, hotel u oficina.

"A principios de esta semana lanzamos en los EE. UU. Un nuevo sistema de autoaprendizaje que detecta los defectos en la comprensión de Alexa y se recupera automáticamente de estos errores", escribe Ruhi. "Este sistema no está supervisado, lo que significa que no implica ninguna anotación humana manual; en su lugar, aprovecha las señales contextuales implícitas o explícitas de los clientes para detectar interacciones insatisfactorias o fallas de comprensión. El sistema aprende cómo abordar estos problemas y despliega automáticamente arreglos en nuestros sistemas de producción poco después ".

Durante la fase beta de este trabajo, Alexa aprendió a asociar a alguien que decía "Jugar Bueno para qué"Entendiendo que el usuario realmente quería que Alexa tocara la canción de Drake Bueno para que.

La publicación de Ruhi concluye con esto: "Estamos en un viaje de varios años para cambiar fundamentalmente la interacción humano-computadora. Todavía es el Día 1, y no a diferencia de los primeros días de Internet, cuando algunos sugirieron que la metáfora de un mercado describía mejor el futuro de la tecnología. "Casi un cuarto de siglo después, se está formando un segmento de mercado alrededor de Alexa, y está claro que para que ese segmento de mercado prospere, debemos expandir nuestro uso de señales contextuales para reducir la ambigüedad y la fricción y aumentar la satisfacción del cliente".

Fuente: BGR

Sebastian Jimenez

Si hubiera una ciencia basada en el código binario, sería su principal devoto. Dame juegos y circuitos y me harás feliz. Residiendo en Sevilla.

Recent Posts

Máquina de mano Lean, Green, Raspberry Pi

Los días felices de la PDA y Blackberry han quedado definitivamente atrás, pero el factor…

2 years ago

Cómo pronosticar series de tiempo usando autorregresión

Tutorial sobre cómo pronosticar usando un modelo autorregresivo en PythonFoto de Aron Visuals en UnsplashForecasting…

2 years ago

Aquí están todas las formas en que puede cargar su AirPods Pro

Si tienes un iPhone, los AirPods Pro son la opción obvia para escuchar música, ¡aunque…

2 years ago

Las principales noticias tecnológicas del lunes: la prohibición de clientes de terceros de Twitter parece no ser un accidente

Ilustración de Alex Castro / The Verge Plus nuevos rumores sobre el quinto Galaxy Fold.…

2 years ago

AirPods Max 2: aquí están las características más solicitadas

Se rumorea que los auriculares premium de próxima generación de Apple, los AirPods Max 2,…

2 years ago

El remake de Dead Space continúa luciendo terriblemente genial en el nuevo tráiler de la historia

El desarrollador Motive Studio y el editor EA han lanzado un nuevo tráiler de la…

2 years ago