Mobility experience para crear skills de Alexa auto

Mobility experience. Cómo crear skills de Alexa auto

Los conductores usan normalmente 2-3 aplicaciones mientras conducen, pero utilizarían más si el caso de uso fuera relevante.

Es necesario hacer foco en la personalización y en la experiencia de conducción, en el viaje, en todas las actividades que pasan en la carretera cuando conducimos y que sean específicas para esos contextos como el parking.

La voz sustituye a la vista y al tacto

Vamos a hacer un ejercicio. Por favor, coged vuestro móvil y ponerlo encima de las piernas, manos al frente y quiero, que, sin mirar al teléfono, me enviéis un wasap.

Bueno, sería algo así, Ok Google, envía un Whatsapp a Enrique de LetMePark.

Eso es lo que ocurre a la gente cuando está en el coche donde la interacción es totalmente diferente.

Hasta ahora la interfaz de usuario dominante (web y apps) es visual. Implica una navegación y respuesta visual, requiere tu atención. Se necesitan los ojos y, normalmente, las manos.

Todo el sector está viendo el UX, cómo son los botones en la pantalla, etc. pero ahora, entra otro sentido que sustituye a la vista y al tacto para ciertas acciones. La voz puede ser una experiencia de manos y ojos libres.

El usuario puede prestar atención a la interacción de voz, pero sus ojos y manos podrían estar ocupados de otra manera, por ejemplo, conduciendo. De esta forma, decimos que se mejora la seguridad vial ya que las distracciones al volante causan el 20% de los accidentes de tráfico.

Alexa, donde puedo aparcar por aquí

LetMePark buscará, reservará la plaza, si lo prefieres, y pagará el parking automáticamente.  LetMePark utiliza la ubicación GPS de tu dispositivo, para ofrecerte el parking más cercano a ti y te navega hasta él.

Qué es mobility experience

Cuando desarrollamos una aplicación, la interfaz visual es programática, si la función no está en la pantalla no se puede hacer, sin embargo, en la interfaz de voz no hay límites en términos de entradas, las personas pueden decir cualquier cosa.

Una interfaz de voz en el coche no se consigue solamente con el desarrollo de una skill, aquí es donde aparecen además los datos y comportamiento del conductor, y por eso hablamos del “mobility experience” para que el conductor, haciendo lo que tiene que hacer, consiga su objetivo, en este caso centrado sobre el parking, pero también puede ser para una recarga de coche o gasolineras, etc.

Existe mucha información y guías sobre cómo crear una skill, pero ¿cuál es el problema?

Que es una conversación guiada donde los campos que necesitáis para el mundo de la movilidad no existen.

No hay un campo para direcciones, un campo de fecha y hora que funcione en alemán y castellano. Se opera en un escenario donde las búsquedas tienen una gran variabilidad y decimos la dirección de una calle, un punto de interés (por ejemplo, el auditorio nacional) o la intersección de dos calles, etc., No son campos que se meten en el sistema.

En una aplicación, cuando pulsas un botón es muy difícil que se active otro botón, pero ¿cuántas veces hablamos a las máquinas y entienden otra cosa? Cuando hablamos no es tan sencillo.

Voz y datos van relacionados

A veces el sonido no es limpio, no recoge bien las palabras, por eso en LetMePark tenemos un sistema de limpieza y trabajamos también cuándo se equivoca el sistema para ver cuáles son los sesgos que produce.

Da igual la tecnología en que os apoyéis, el sistema, te deja elegir castellano, pero los acentos son diferentes de andaluz a catalán o latino (“Alexa, dime donde estacionar”, “Alexa me quiero aparcar”).

Por supuesto que gran parte del trabajo lo hace los sistemas de reconocimiento de Google y Amazon pero la excelencia reside en dar valor al conductor, contextualizar y limpiar estos errores.

Nosotros de cada petición que se haga, sabemos lo que entra y lo que responde, contabilizamos todo y como sabemos cuándo es un fracaso lo convertimos en aprendizaje para mejorar el sistema.

Aquí no hay que hablar de la voz y luego de los datos. Van relacionados.

No es que LetMePark sea mejor en voz porque hemos estudiado las frases o preguntas que tenemos que hacer, sino porque entendemos, que la gente no habla como queremos.

No nos dedicamos a predecir cómo va a hablar la gente, sino a medir y a corregir, pero ese sistema de corrección, lo automatizamos con técnicas de inteligencia artificial, para que cuando más usuarios haya, o más equivocaciones, o más países que abramos o lo que sea, que ese proceso de corrección se haga.

ACTIVA LA SKILLS