Parking impulsado por voz y datos

Parking impulsado por voz y datos
Parking impulsado por voz y datos

LetMePark para Alexa tiene un enfoque en datos que permite proporcionar servicios personalizados y relevantes para el conductor en el momento adecuado y, además, entender el evento de parking, para diferenciarlo y poder desarrollar futuros modelos predictivos.

Los asistentes de voz están cambiando el marketing y el comportamiento del consumidor con servicios transaccionales como, por ejemplo, el pago del parking por voz.

Generar datos de valor de parking

Decíamos en la anterior entrada aquí, que la voz y los datos van relacionados en la creación de una skill de Alexa auto.

En LetMePark, recogemos toda la información y la categorizamos desde el principio. Para ello, hemos generado un identificador único que relaciona el evento de “búsqueda” con el de “parking” para poder relacionar la intención de hacer algo por parte de usuario (búsqueda de un parking) de lo que finalmente hace (el evento de parking)

El evento de parking implica diferentes alternativas como parking con acceso automático – parking con reserva; o sugerencias como – zona de aparcamiento gratuita o parking offline donde el usuario debe coger ticket para entrar.

Para entender mejor cómo LetMePark para Alexa reinventa la experiencia del conductor y de aparcar, puedes comprobarlo en la siguiente demo mientras conduces a través de asistentes de voz.

Estamos recogiendo datos de dónde me lo pides, dónde vas y dónde terminas aparcando.

Tanto ubicaciones como distancias y de ahí sacamos otros datos, por ejemplo, vectores, que sea información valiosa que pudiera darnos datos para el algoritmo para esa búsqueda y para ese usuario. 

Parte de nuestro valor como empresa reside en generar datos de valor para hacer modelos de movilidad.

Modelos para entender mejor tu movilidad

Cuando tengo unos datos, sacamos una fórmula que es lo que llamamos algoritmo, que me da un valor y me encuentra la solución para eso. Eso está muy bien cuando nosotros encontramos la solución a ese problema.

En otros casos, no resolvemos el problema o lo resolvemos y no sabemos cómo.

Es aquí, cuando usamos técnicas de inteligencia artificial, que básicamente lo que hace es entrenar un modelo de machine learning basado en unos datos, y aplicarlo a las búsquedas, para luego predecir lo que los usuarios quieren, sin saber todavía cuál es el resultado del primero. Por ello relacionamos los datos de las búsquedas con los eventos de parking

Estamos enfocados en sacar modelos, para luego trabajar en tiempo real, que nos permita, una analítica de agrupación de diferentes comportamientos sobre el uso del parking y perfilado de clientes

Hacemos un proceso de entrenamiento para entender el lenguaje y convertir la respuesta en una longitud y latitud para que se produzca la búsqueda y entender mejor la movilidad

Utilizamos los mismos modelos genéricos NLP y texto y estamos recabando experiencia en distintas áreas como el análisis del lenguaje o la predicción de movimientos para saber qué modelos y, dentro de esos modelos, qué hiperparámetros son los adecuados. Buscamos los de movilidad

Predicción

Los fabricantes de coches y empresas de hardware del sector ya recogen datos internos del coche, de uso y hacen sus propios modelos de predicción para mantenimiento del coche entre otros.

En el caso del aparcamiento, LetMePark trabaja en relacionar los datos del coche (si es eléctrico o no, nivel de carga o carburante,) con la intención sobre el parking que nos permita categorizar y perfilar a los conductores.

Entender qué ocurre en el coche antes de que el usuario me pregunte por aparcar y clasificar los que son de búsqueda aquí o alejada. Buscar los patrones que puedan existir. 

Por eso nuestra relación con la empresa Next Smart Car que transforma un coche sin conectividad en uno conectado incorporando servicios telemáticos e información sobre el vehículo.

Nuestra oferta final sobre modelos predictivos se orienta, por un lado, al conductor o cliente final, personalizando el servicio con “su mejor oferta para aparcar” y por otro, a la industria, que puedan introducir sistemas predictivos en sus sistemas sean de parking o no, sujetos al área de movilidad que es donde estamos enfocados. 

Mobility experience. How to create Alexa auto skills

Drivers typically use 2-3 apps while driving, but would use more if the use case was relevant. Therefore, we must focus on personalization and the driving experience, on the trip, in all the activities that happen on the road when we drive and that are specific to those contexts such as parking. We present a Mobility experience. LetMePark for Alexa

Voice replaces sight and touch

Inside the car, developments have been made, focused on the control of the car’s functions and some other services such as navigation. On the other hand, there are also applications developed for mobile phones, which can now be displayed in the car, through Apple car or Android auto, but they have not been designed for use «in the car» and overlap with navigation, the radio or the entertainment that we have on.

Let’s do an exercise. Please, take your mobile and put it on your legs, hands in front and I want that, without looking at the phone, you send me a whatsapp.

Well, it would be something like this, “Ok Google, send a whatsapp to Enrique from LetMePark”.

That is what happens to people when they are driving, where the interaction is totally different.

So far the dominant user interface (web and apps) is visual. It involves visual navigation and response, and it requires your attention. The eyes are needed, and usually the hands.

Everybody is working on the UX, how are the buttons on the screen, etc. but now, another sense replaces sight and touch for certain actions. Voice can be a hands-free experience.

The user can pay attention to the voice interaction, but their eyes and hands could be occupied in another way, for example, driving. In this way, we say that road safety is improved since distractions at the wheel cause 20% of traffic accidents.

In Car LetMePark for Alexa

LetMePark will search, reserve the parking space, if you prefer, and pay for the parking automatically. LetMePark uses the GPS location of your device, to offer the closest parking to you and navigates you to it.

What is mobility experience

When we develop an application, the visual interface is programmatic, if the function is not on the screen it cannot be done, however, with the voice interface there are no limits in terms of inputs. People can say anything.

A voice interface in the car is not only achieved with the development of a skill, this is where the data and behavior of the driver also appear, and that is why we talk about the “mobility experience” so that the driver, doing what he has to do, achieves their goal, in this case centered on the parking lot, but it can also be for a car recharge or gas stations, etc.

There is a lot of information and guides on how to create a skill, but what is the problem?

It is a guided conversation where the fields you need for the world of mobility do not exist.

There is no field for addresses, a date and time field that works in German and Spanish. It operates in a scenario where searches have great variability and we say the address of a street, a point of interest (for example, the national auditorium) or the intersection of two streets, etc., They are not fields that are entered into the system.

In an application, when you press a button it is very difficult to activate another button, but how many times do we talk to the machines and they understand something else? When we speak it is not so simple.

Voice and data are related

Sometimes the sound is not clean, it does not pick up the words well, that is why at LetMePark we have a cleaning system and we also work when the system is wrong to see what biases it produces.

No matter what technology you rely on, the system lets you choose Spanish, but the accents are different from Andalusian to Catalan or Latin (“Alexa, tell me where to park”, “Alexa I want to park”).

Of course, much of the work is done by the Google and Amazon recognition systems, but excellence lies in giving value to the driver, contextualizing and cleaning up these errors.

From each request that is made, we know what comes in and what responds, we count everything and since we know when it is a failure, we turn it into feed back to improve the system.

Here we do not have to talk about the voice and then data. They are related.

It is not that LetMePark is better in voice because we have studied the phrases or questions that we have to ask, but because we see that people do not speak the way we want.

We are not predicting how people are going to speak, but to measuring and correcting. But we automate that correction system with artificial intelligence techniques, so that when there are more users, more mistakes, more countries that we open or whatever, that correction process is done.

ACTIVATE SKILLS

Mobility experience para crear skills de Alexa auto

Mobility experience, para crear skills de Alexa auto
Mobility experience. Cómo crear skills de Alexa auto

Los conductores usan normalmente 2-3 aplicaciones mientras conducen, pero utilizarían más si el caso de uso fuera relevante.

Es necesario hacer foco en la personalización y en la experiencia de conducción, en el viaje, en todas las actividades que pasan en la carretera cuando conducimos y que sean específicas para esos contextos como el parking.

La voz sustituye a la vista y al tacto

Vamos a hacer un ejercicio. Por favor, coged vuestro móvil y ponerlo encima de las piernas, manos al frente y quiero, que, sin mirar al teléfono, me enviéis un wasap.

Bueno, sería algo así, Ok Google, envía un Whatsapp a Enrique de LetMePark.

Eso es lo que ocurre a la gente cuando está en el coche donde la interacción es totalmente diferente.

Hasta ahora la interfaz de usuario dominante (web y apps) es visual. Implica una navegación y respuesta visual, requiere tu atención. Se necesitan los ojos y, normalmente, las manos.

Todo el sector está viendo el UX, cómo son los botones en la pantalla, etc. pero ahora, entra otro sentido que sustituye a la vista y al tacto para ciertas acciones. La voz puede ser una experiencia de manos y ojos libres.

El usuario puede prestar atención a la interacción de voz, pero sus ojos y manos podrían estar ocupados de otra manera, por ejemplo, conduciendo. De esta forma, decimos que se mejora la seguridad vial ya que las distracciones al volante causan el 20% de los accidentes de tráfico.

Alexa, donde puedo aparcar por aquí

LetMePark buscará, reservará la plaza, si lo prefieres, y pagará el parking automáticamente.  LetMePark utiliza la ubicación GPS de tu dispositivo, para ofrecerte el parking más cercano a ti y te navega hasta él.

Qué es mobility experience

Cuando desarrollamos una aplicación, la interfaz visual es programática, si la función no está en la pantalla no se puede hacer, sin embargo, en la interfaz de voz no hay límites en términos de entradas, las personas pueden decir cualquier cosa.

Una interfaz de voz en el coche no se consigue solamente con el desarrollo de una skill, aquí es donde aparecen además los datos y comportamiento del conductor, y por eso hablamos del “mobility experience” para que el conductor, haciendo lo que tiene que hacer, consiga su objetivo, en este caso centrado sobre el parking, pero también puede ser para una recarga de coche o gasolineras, etc.

Existe mucha información y guías sobre cómo crear una skill, pero ¿cuál es el problema?

Que es una conversación guiada donde los campos que necesitáis para el mundo de la movilidad no existen.

No hay un campo para direcciones, un campo de fecha y hora que funcione en alemán y castellano. Se opera en un escenario donde las búsquedas tienen una gran variabilidad y decimos la dirección de una calle, un punto de interés (por ejemplo, el auditorio nacional) o la intersección de dos calles, etc., No son campos que se meten en el sistema.

En una aplicación, cuando pulsas un botón es muy difícil que se active otro botón, pero ¿cuántas veces hablamos a las máquinas y entienden otra cosa? Cuando hablamos no es tan sencillo.

Voz y datos van relacionados

A veces el sonido no es limpio, no recoge bien las palabras, por eso en LetMePark tenemos un sistema de limpieza y trabajamos también cuándo se equivoca el sistema para ver cuáles son los sesgos que produce.

Da igual la tecnología en que os apoyéis, el sistema, te deja elegir castellano, pero los acentos son diferentes de andaluz a catalán o latino (“Alexa, dime donde estacionar”, “Alexa me quiero aparcar”).

Por supuesto que gran parte del trabajo lo hace los sistemas de reconocimiento de Google y Amazon pero la excelencia reside en dar valor al conductor, contextualizar y limpiar estos errores.

Nosotros de cada petición que se haga, sabemos lo que entra y lo que responde, contabilizamos todo y como sabemos cuándo es un fracaso lo convertimos en aprendizaje para mejorar el sistema.

Aquí no hay que hablar de la voz y luego de los datos. Van relacionados.

No es que LetMePark sea mejor en voz porque hemos estudiado las frases o preguntas que tenemos que hacer, sino porque entendemos, que la gente no habla como queremos.

No nos dedicamos a predecir cómo va a hablar la gente, sino a medir y a corregir, pero ese sistema de corrección, lo automatizamos con técnicas de inteligencia artificial, para que cuando más usuarios haya, o más equivocaciones, o más países que abramos o lo que sea, que ese proceso de corrección se haga.

ACTIVA LA SKILLS

Asistentes de Voz en los Coches – Presente y Futuro

Los asistentes de voz en los coches permiten mejorar la seguridad vial y la conveniencia del conductor.

En LetMePark somos conscientes de esta tendencia y por ello estamos ya involucrados en el uso de asistentes de voz para aparcar de forma segura en las principales ciudades de España

Capgemini, en el estudio «Charla inteligente: cómo las organizaciones y los consumidores están adoptando asistentes de voz y chat«, ha predicho que el uso de asistentes de voz se disparará al 73% en los próximos tres años.

Veamos las conclusiones del estudio y cómo los asistentes de voz en los coches y chat cambiarán nuestras interacciones en los próximos años.

conductor con asistente en el automóvil
Los asistentes en el automóvil son ya realidad. Foto: Andras Vas en Unsplash

Cómo usamos los asistentes de voz

La voz en el automóvil y la voz en cualquier otro lugar son diferentes. Usar su voz como medio para interactuar con el automóvil no sólo le permite al conductor concentrarse en conducir el vehículo, sino que también lo ayuda a realizar una variedad más amplia de tareas.

Aproximadamente la mitad de los consumidores encuestados utilizan asistentes de voz en el automóvil para la navegación y la música, pero un mayor número también desea controlar las funciones en el hogar.

Dentro de tres años, el 71% de los consumidores dicen que usarán cada vez más sus asistentes de voz en otros medios de interacción. Esto se debe a una mayor facilidad para programar citas con la voz, ordenar productos y servicios o incluso llamar por una queja.

Hoy en día, los consumidores de entre 32 y 44 años son los mayores usuarios de asistentes de conversación en el coche. Los consumidores, especialmente los millennials, están dispuestos a pagar una prima por los asistentes de voz.

Sorprendentemente, la industria de la automoción necesita recalibrar su efectividad para evaluar la experiencia del usuario. El 81% de los ejecutivos de la industria cree que sus asistentes de voz entienden las necesidades y preferencias de las personas, aunque sólo el 59% de los consumidores están de acuerdo.

Con toda la tecnología disponible, incluso hoy en día, más de la mitad de los consumidores sienten que el asistente de voz en el coche es confuso ya que no comprende bien los comandos. Como resultado, tienen que volver a usar los diales manuales.

Un porcentaje similar de usuarios considera que los asistentes de voz no son seguros y consideran que el enfoque es demasiado intrusivo. Todo esto lleva a que sólo un tercio de los consumidores consideren que su experiencia es excelente.

Hábitos y experiencia del usuario

Los asistentes de voz en los coches han estado en escena desde hace casi 16 años.

Curiosamente, la tracción sólo ha aumentado en los últimos años, respaldada en parte por la penetración de los asistentes de voz en el hogar y en parte por las integraciones de asistentes móviles OEM.

Para 2022, el 95% de los consumidores utilizarán un asistente de conversación para acceder a la información dentro del automóvil. Esto le da a los fabricantes una gran razón para ser innovadores y empáticos al mejorar la experiencia del usuario.

La investigación de Capgemini muestra que el 53% usa su asistente de voz en el automóvil para funciones más diversas que los asistentes en el hogar.

Una buena experiencia con un asistente de voz puede hacer o deshacer la decisión del usuario de seguir utilizando el servicio.

Tengamos en mente, que el 76% de los consumidores dijeron que usarían el asistente de voz con más frecuencia después de una experiencia positiva.

Expectativas y mejora de la experiencia

Años de interacción con el asistente en el hogar, el asistente en el móvil y una exposición justa a los asistentes en el coche han elevado las expectativas de los consumidores.

Los fabricantes permitirán que terceros innoven y den una experiencia consistente. Ahora es necesaria la educación del usuario a gran escala. A medida que se agregan más y más habilidades en varios asistentes de voz, es de suma importancia que los usuarios conozcan las capacidades existentes.

Es necesario que los consumidores sepan que han sido escuchados. Al ser un oyente empático al dar aclaraciones, la experiencia del usuario puede elevarse. Una preocupación que debe considerarse es el aumento del miedo a la privacidad.

Los datos serán críticos para brindar una mejor experiencia, por lo que será cada vez más importante mantener la confianza del usuario.

Sólo si los asistentes de voz son consistentes, los consumidores confiarán más.

Se puede atraer interés con trucos y novedades sencillas, pero lo que mantendrá a los usuarios usando el servicio es la frecuencia con la que obtienen una experiencia sin fricciones.

Una interfaz más humana y sugerencias contextuales inteligentes que utilizan la ubicación, búsquedas pasadas, etc. harán que el usuario se sienta más cómodo. En geografías como India y Europa, ser multilingüe y admitir diferentes dialectos puede dar una penetración masiva en el mercado.

La construcción de un ecosistema comandado por voz que integra pagos, compras, música, compra de gasolina, peaje y estacionamiento, entre otros, hará que la experiencia de manejo sea mucho más efectiva.

Casos avanzados de uso de asistente de voz

Aunque hoy en día se utilizan principalmente para reproducir música, hacer llamadas telefónicas y navegar, los asistentes en el automóvil pueden manejar consultas más complejas.

Por ejemplo, Dragon Drive, un asistente de voz impulsado por inteligencia artificial que se utiliza en ciertos modelos de Audi, Daimler y Ford, ayuda a la interacción de múltiples pasajeros mediante biometría de voz.

Como el 60% de los consumidores prefieren usar un único servicio de voz integrado en el vehículo, el hogar y el móvil, BMW en China ha presentado el asistente de voz de Alibaba.

La experiencia del usuario de Mercedes-Benz indica si su automóvil estacionado fue golpeado o remolcado. Maserati ha integrado tres asistentes de voz (Alexa, Bixby y Cortana) en su tablero, a cada uno de los cuales se puede acceder girando una perilla. GM ha lanzado la aplicación «Marketplace» para permitir a los consumidores comprar bienes y servicios.

Adicionalmente, Honda Motor Company se ha asociado con Visa, Chevron, MasterCard y PayPal para crear una plataforma unificada para servicios integrados dentro del tablero y accesibles sin un dispositivo móvil.

Conclusión

Los consumidores ven su coche como una extensión de sus vidas digitales al convertirse en una interfaz más con la que interactuamos, aunque bajo un conjunto diferente de circunstancias.

Es necesario ejercer más empatía por parte de los fabricantes para no sólo igualar la experiencia del usuario a la que tiene con otros asistentes, también para exceder expectativas y proporcionar una satisfacción ilimitada.

Sin duda, un factor decisivo será educar a los usuarios sobre las capacidades de lo que puede hacer su automóvil, trazando una línea para no violar la privacidad y aún así tener suficientes datos para ser predictivos.

Las grandes asociaciones tecnológicas y de fabricantes de automóviles tienen una gloriosa oportunidad de atraer a sus usuarios al brindarles una experiencia sobresaliente.

Contribución de LetMePark: el asistente de conductor inteligente

Hoy en día, hablar, navegar y jugar se logra de manera magnífica en algunos de los casos de uso de voz más empleados mientras se conduce.

¿Y qué pasa con aparcar? . Como opción  mientras se conduce tiene todo el sentido.

LetMePark, una startup española de movilidad, le permite encontrar, reservar y pagar un lugar de estacionamiento simplemente usando el comando de voz a través de Amazon Alexa de manera fluida, mejorando así la experiencia del conductor.  

Para que el estacionamiento no sea un problema, hemos reinventado la experiencia de aparcar y del conductor al presentar LetMePark para Alexa

Le ayudamos a hacer una búsqueda personalizada de acuerdo con sus preferencias: distancia, precio y conveniencia, para garantizar que obtenga la mejor oferta.

Ya sea que necesite aparcar mientras conduce o quiera hacer una reserva para el futuro, LetMePark toma las tareas de encontrar, reservar y pagar el parking en sus manos, permitiéndole mantener las suyas al volante y mejorar su seguridad.

Fuente:

Capgemini Research Institute. How organizations and consumers are embracing voice and chat assistants. https://www.capgemini.com/research/smart-talk/