VUI una aproximación a las interfaces orales

Un resumen del UXperience 8.0

Soledad Abad
3 min readJan 18, 2019

El pasado sábado Ironhack Madrid y Webedia patrocinaron un evento en el que los UX de Madrid pudimos disfrutar de un maravilloso acercamiento a las Voice User Interfaces.

Javier Martínez durante su presentación.

¿De qué estamos hablando? Es posible que en estas fiestas hayas recibido o regalado algún tipo de “altavoz inteligente”. Bien, el motivo por el cual somos capaces de comunicarnos con ellos es porque existe una interfaz desarrollada para ellos. Pero no solo vamos a referirnos a este tipo de asistentes de voz, también Siri o el Google Assistant instalado en tu dispositivo están basados en este tipo de interfaz.

¿Y con quién pudimos aprender algo de ellas? De la mano de Javier Martínez, de Google; Germán Viscuso, de Amazon y Helen Creeger, que ha ayudado en alguna de las skills de voz desarrolladas para Webedia.

¿Y qué tienen de particular estas interfaces? La primera y, probablemente, la más importante de sus características, es que la interacción con el dispositivo se realiza a través de comandos de voz —sí, algunos de ellos pueden tener también interfaz gráfica, pero es secundaria—.

¿Y qué aporta este tipo de interacción? La posibilidad de utilizar un auxiliar en contextos en los que nuestras manos y nuestros ojos puedan estar comprometidos.

Germán Viscuso mostrando la evolución de los dispositivos.

Estas características hacen que el desarrollo de las VUI sea diferente y se tenga que abordar desde la perspectiva oral y con un amplio conocimiento de la comunicación humana, por ello, en estos procesos se hace necesario la unión de perfiles tecnológicos y lingüísticos. Por un lado, gran parte del éxito de estas interfaces reside en las técnicas de Machine Learning que se utilicen para el entrenamiento de los modelos que alimentan a la skill. Las facilidades que ofrecen los motores de Google o Amazon permiten que no sea necesario que introduzcamos un altísimo número de frases para alimentar nuestras respuestas, pero debemos hacerlo con sentido y proponiendo una lógica conversacional.

Atendiendo a este punto, debemos tener presente que la memoria auditiva es limitada y que no podemos saturar de información al usuario: por ello se han de construir frases cortas, claras y sencillas; como norma general, el usuario utilizará también el mismo formato. La utilización de estas herramientas suele ir vinculado a la realización de tareas con un objetivo corto y específico.

Helen Creeger introduciendo el contexto

Esto nos lleva al concepto introducido durante la intervención de Helen Creeger: place-ona, que hace referencia al contexto de utilización y cuáles son los límites que un espacio puede interponer a una interacción —en la biblioteca, por ejemplo, tenemos disponibilidad para usar libremente nuestros ojos y nuestras manos, pero no ocurre lo mismo con la voz o los oídos, pues no se debe hacer ruido—.

¿Qué relación tiene esto con las VUI? Fácil: no todos los contextos son óptimos para la utilización de este tipo de interfaces, lo que implica que no será necesario que todas aplicaciones tengan esta posibilidad y, lo más importante, que no se deberá de tratar como un reemplazo sino siempre ha de tratarse como una adaptación.

Para diseñar este tipo de experiencias no hay nada mejor que trabajar con conversaciones de pruebas, ellas serán los wireframes de estas interfaces, que no han de construirse como flujos sino, como ya hemos adelantado, atendiendo a las interacciones orales humanas, es decir, a través de la construcción de diálogos.

Un pequeño acercamiento a este nuevo formato del que queda mucho camino por recorrer pero que va ocupando cada vez más espacio en nuestro día a día, como muestra el tuit de Helen Creeger:

Saluditos =D

--

--

Soledad Abad

Diseñadora de contenido y doctoranda en Teoría de la Literatura.