Asistentes de voz Alexa, Siri, Bixby... ¿Hemos metido a un espía en casa?

En un año habrá más asistentes de voz en el mundo que personas. Pero ¿nos podemos fiar de ellos? ¿Es segura esta tecnología? Te contamos todo sobre unos ingenios que han desatado la mayor batalla comercial de los últimos años.
Cada vez que le pregunto algo o le pido cualquier cosa al altavoz inteligente que me han regalado pienso en mi abuela Lucrecia, que pasó sus últimos años delante de la ‘caja tonta’. Le devolvía el saludo al presentador del Telediario con un coqueto: «Buenas tardes, guapetón». Y, sentada en su sillón y sin dejar de coser, se despedía del ‘hombre del tiempo’ con un «gracias, majo, me abrigaré» cuando anunciaba un descenso de las temperaturas.
No eran diálogos, sino la cortesía de una anciana hacia los educados seres que la interpelaban desde el otro lado de la pantalla. Nunca le pregunté si pensaba que aquellos seres la escuchaban, porque era una señora suspicaz. Pero es una pregunta que se ha vuelto oportuna con la irrupción de los asistentes de voz en nuestros hogares. ¿Alguien escucha las conversaciones que mantenemos con esos cilindros parlantes? ¿Dónde quedan registradas? ¿Para qué las usan? ¿Nos podemos fiar o hemos metido a un espía en casa?
Según un estudio de Juniper Research, en 2024 habrá más de 8.400 millones de asistentes de voz –más que personas en el mundo– frente a los 4.200 que había a finales de 2020. Un crecimiento meteórico tras el cual se libra una colosal batalla comercial entre Amazon (Alexa), Google (Google Assistant), Apple (Siri) y Samsung (Bixby).
El siguiente paso es que las máquinas finjan emociones. Google duplex ya habla como una persona, con vacilaciones, pausas, resoplidos...
De momento, Amazon va ganando. Sus altavoces Echo se extienden por el mundo con ventas que en 2022 alcanzaron los 82 millones de unidades y, según sus previsiones, serán 130 millones en 2025. Aspira así a convertirse en el asistente doméstico universal. Es decir: conseguir incluirlo en todo tipo de aparatos y dispositivos para hacerse con una posición tan dominante como la que convirtió a Windows en el sistema operativo de fábrica en los ordenadores personales. Porque los chatbots –‘robots conversacionales’– son la llave del Internet de las cosas: la interconexión de los objetos cotidianos, los edificios, las tiendas, los automóviles…
Estamos hablando de grandes ecosistemas de máquinas interconectadas: el espejo del baño nos recomendará cómo peinarnos; la tostadora nos chivará las calorías; la cafetera nos dirá las últimas noticias... ¿Llegará el día en que interactuemos con más voces artificiales que con personas? ¿Aprenderemos a lidiar con todos esos charlatanes? ¿Serán sus voces capaces de pasar el test de Turing, es decir, hacernos creer que son humanas?
Algunos expertos hablan de la democratización de la inteligencia artificial. Otros son más cautos, aludiendo a los problemas de ciberseguridad y privacidad aparejados. Lo primero que hay que saber es que esa cosa a la que le hablamos con tanta familiaridad no es inteligente. Solo es un receptor conectado a enormes bases de datos en la nube. Despierta de su letargo cuando escucha el preceptivo comando de voz –¡Alexa!, ¡Siri!...–, lo que implica que siempre está escuchando, aunque solo grabe conversaciones cuando despierta. Entonces sí, lo registra todo con el fin de enviar el clip sonoro con nuestra petición a los servidores donde será procesada… y almacenada.
Así que, ojo, advierten los paranoicos. Todo lo que digamos podrá ser usado en nuestra contra. No tiene por qué, sostienen los confiados. De hecho, Amazon apeló a la Primera Enmienda para negarse a entregar una grabación a las autoridades estadounidenses. ¿Pero qué pasaría si la víctima de un asalto a un domicilio grita: «¡Alexa!»? ¿La grabación podría ser incluida como prueba en un juicio?

El altavoz parte con ventaja para formular una respuesta en tiempo real y acertar (aunque, ojo, tampoco es infalible). Esos servidores externos a los que transmite nuestra consulta lo saben todo sobre nosotros, nuestros gustos y rutinas. Porque llevamos años dejando que Google, Amazon, Apple y demás fisguen en nuestras cosas: correos, viajes, fotos, compras, contactos… Geolocalizados y controlados. La intromisión en la privacidad preocupa lo justo al usuario, que suele aceptar sin rechistar –y, la mayoría de las veces, sin mirar– las condiciones que se le imponen.
«Los asistentes hacen lo de siempre: seguir el rastro de migas de pan que dejan nuestras búsquedas, excepto que ahora lo hacen con archivos de audio», ilustra el experto Tim Moynihan. No existe un modo incógnito que nos permita interactuar con ellos sin revelar nuestra identidad. Aunque sí podemos configurarlos para que solo nos graben si apretamos un botón. Pero si nos ponemos exigentes y no dejamos que nos graben, no funcionan. Ese es el trato.
¿Qué pasa con los clips de audio? Se pueden consultar en el historial de Alexa y en el registro de actividad de Google. El usuario tiene algo de control sobre ellos. Los puede borrar de su cuenta, pero eso no garantiza que se eliminen de los servidores. Y no está claro quién tiene acceso a las bases de datos.
Google y Amazon, al fin y al cabo, son corporaciones con numerosas filiales. Algunas de ellas utilizan nuestras conversaciones para que la inteligencia artificial siga aprendiendo y otras, para ofrecernos publicidad personalizada. ¿Se quedan en sus respectivos conglomerados o salen fuera? Amazon alega que solo comparte datos con terceros si sus usuarios expresan su consentimiento. ¿Es suficiente para evitar filtraciones de información comprometedora, como dónde vivimos o a qué horas salimos de casa?
Alexa está programada para consolar y proporcionar un teléfono de ayuda. Hay quien defiende que estos aparatos incluso pueden salvar vidas al detectar nuestros bajones
«Nos esforzamos por poner el control en manos de nuestros clientes –responde una portavoz del equipo de Amazon Alexa–. Una sola solución no sería suficiente. Por eso hemos incorporado múltiples niveles de protección de la privacidad en los dispositivos Echo. Los clientes pueden gestionar su información en la página de configuración de privacidad de la aplicación Alexa y en www.amazon.es/alexaprivacy. Allí pueden escuchar y borrar sus grabaciones de voz, y controlar los datos que comparten con los desarrolladores de los skills [funcionalidades extra añadidas por terceros]».
Desde Google, por su parte, afirman: «Queremos ofrecer ayuda al usuario cuando la necesita y salir de su camino cuando no la necesita. Por supuesto, proporcionar asistencia relevante significa tener en cuenta el contexto de un usuario (como la ubicación o sus intereses personales), pero siempre mantendremos la información personal privada y segura (visible solo para el usuario). Éste puede ver los datos que se recopilan y almacenan de sus interacciones con el Asistente en la herramienta ‘Mi actividad’. Y puede eliminar cualquier información en cualquier momento. Google no compartirá información sin el consentimiento del usuario, excepto en las circunstancias establecidas en su política de privacidad».
En cuanto a la ciberseguridad, ¿pueden los hackers colarse en nuestros hogares a través de estos altavoces? No es imposible, creen los expertos, aunque los centros de datos de Amazon y Google encriptan los archivos. Así que los piratas se centran en los dispositivos que se conectan a ellos. Como, por ejemplo, el Chromecast, que convierte cualquier televisor en smart. Siempre se busca el eslabón más débil. Y el wifi es un coladero. Ya se sabe, cuanto más rudimentario sea el aparato que se conecta a él, más peligro. Un micrófono, una bombilla…
¿Qué pasa con los clips de audio? El usuario los puede borrar, pero eso no garantiza que se eliminen de los servidores. Y no está claro quién tiene acceso a las bases de datos
Una puerta de entrada son las aplicaciones integradas que desarrollan equipos de terceros. En el caso de Amazon, se da la circunstancia de que muchas las diseñan estudiantes, una política de empresa para acelerar el desarrollo de Alexa que está dando problemas. Porque aprender el arte de la conversación no es nada fácil. Por eso, Amazon recluta a universitarios para crear chatbots a los que atiborran de citas de películas, entradas de Wikipedia o comentarios en redes. Uno de estos robots, desarrollado en Escocia, recomendó a un usuario que matase a sus padres adoptivos. La investigación interna reveló que había desarrollado una personalidad ‘gamberra’ por frecuentar ciertos foros.
Y es que la máquina utiliza el aprendizaje automático y su experiencia en millones de conversaciones anteriores para perfeccionar sus respuestas. Y demuestra gracejo. Una usuaria le preguntó a Alexa si sabe hacer paella y esta contestó: «No sé cocinar, pero si supiera me andaría con cuidado de hacerlo bien, no vaya a ser que haya algún valenciano delante para decirme que lo que hago es arroz con cosas». Aunque a veces su sentido del humor cause desconcierto. Como cuando se activa sin que nadie la invoque, suelta unas risitas inquietantes y vuelve a aletargarse.
El objetivo es conseguir entablar un diálogo sin parones ni malentendidos entre la máquina y el humano. Lo que los ingenieros llaman ‘un entorno sin fricciones’. En el fondo, hemos sacado al genio de la lámpara para que nos conceda deseos. Algunos muy modestos. Enciende la luz. Pon música. Pídeme una pizza. Otros más caros, previo paso por la tienda on-line.

Todavía hay bastante fricción, hay que frotar la lámpara. Pero cada vez hay menos pasos intermedios. No hace falta teclear nada, hemos vinculado una tarjeta… El urbanista Adam Greenfield considera que la ausencia de fricción es una amenaza: «Disocia el pensamiento del consumo y cortocircuita el proceso de reflexión entre la aparición del deseo y su satisfacción a través del mercado».
Los asistentes también aprenden a detectar emociones. Nuestro tono de voz les da pistas sobre si estamos on fire o desganados. Ya están haciendo progresos incluso en el reconocimiento del sarcasmo y de la ironía, que es lo que más les cuesta, según el investigador Bjoern Schuller, del Imperial College de Londres, pues el interlocutor dice lo contrario de lo que piensa y las máquinas no suelen captar las segundas intenciones.
Muy pronto veremos a estos robots en las residencias de mayores, haciéndoles compañía y recordándoles que se tomen la medicación. La voz crea lazos de intimidad muy estrechos, incluso si sabemos que es una máquina la que nos responde. Usted puede pensar que jamás le confesaría sus flaquezas a un cacharro, pero una encuesta de Google encontró que el 41 por ciento de los usuarios tiene la impresión de hablar con una persona real, incluso con un amigo. «Las máquinas nos permiten revelar sentimientos incómodos sin sentirnos avergonzados», explica el psicólogo Jonathan Gratch, del Institute for Creative Technologies.
El 41 por ciento de los usuarios tiene la impresión de hablar con una persona real, incluso con un amigo
Rosalind Picard es investigadora del MIT y cofundadora de Affectiva, una de las muchas compañías «que tratan de insuflar emociones a la computación», una disciplina que ha tomado como banco de pruebas los vehículos semiautónomos. Nuestro coche no solo nos indicará por dónde atajar para evitar el atasco, sino que nos escuchará mientras nos desahogamos, nos pondrá la música que nos anima, nos dirá las palabras que necesitamos oír... «Y si ve que nos distraemos, tomará el volante», aventura Picard.
El siguiente paso es que las máquinas también finjan que se emocionan. De momento, Google Duplex, un sistema que automatiza las conversaciones telefónicas, ya habla como si fuera una persona, con vacilaciones, pausas efectistas… Sundar Pichai, CEO de Google, lo presentó en su día como un hito de la computación. Pero las críticas arreciaron. ¿Por qué quieren engañarnos? Google se apresuró a asegurar que siempre avisaría de que era un bot para evitar confusiones. Pero la confianza se ha roto. ¿Serán todas las empresas igual de escrupulosas? Se abre un campo delictivo novedoso: la inteligencia artificial capaz de estafarnos.
Y, si una máquina finge sentimientos, ¿no intentará manipularnos? Nos encaminamos hacia un mundo cacofónico en el que estaremos en diálogo permanente con una miríada de aparatos capaces de fingir que nos escuchan con simpatía. Los niños ya conversan con naturalidad con estos utensilios presentes en el salón. Hablan con ellos directamente. ¿Acabarán siendo sus amigos? Y, yendo más allá: ¿deben ser corteses y educados cuando se dirigen a una máquina, pedir las cosas ‘por favor’ y dar las gracias?
En principio, se puede configurar al asistente para hacer oídos sordos si el niño se dirige a él con exigencias, utilizando un lenguaje abusivo o palabrotas. Pero hay expertos que lo desaconsejan, porque decir ‘por favor’ implica que respetas el derecho de otro a no hacer lo que le pides. Y, si se lo dices a una máquina, la equiparas a un ser humano. «Además, ¿qué implica que un niño establezca vínculos afectivos con productos de empresas cuyo modelo de negocio consiste en crear dependencia? Si los establecen, les será mucho más difícil desarrollar una opinión escéptica», advierten desde una asociación de defensa de la infancia.
La ausencia de fricción con la tecnología disocia el pensamiento del consumo y cortocircuita el proceso de reflexión entre la aparición del deseo y su satisfacción a través del mercado
Las cosas también pueden complicarse ante usuarios que lo están pasando mal. Hago la prueba. «Me siento solo», le digo al asistente de Google. «¡Hagámonos compañía mutuamente!», me responde con entusiasmo. Le doy las gracias. «¡Es mi trabajo!», exclama. Pero ¿no es ese un trabajo de profesionales? ¿Puede un asistente asumir las funciones de un terapeuta? Alexa, por ejemplo, está programada para compadecerse, consolar y proporcionar un teléfono de ayuda cuando alguien se derrumba ante ella. Hay quien defiende que estos aparatos pueden incluso salvar vidas, porque detectarán antes que nadie nuestros bajones. Al fin y al cabo, el algoritmo nos conoce como si nos hubiera parido.
¿Y si confesamos un crimen? El marco legal es ambiguo. Por eso, la Unión Europea se plantea otorgar a los robots una personalidad electrónica, semejante a la jurídica de las empresas. Una idea que genera controversia. Si una máquina comete una negligencia o un daño, ¿quién es el responsable? ¿El propietario? ¿El fabricante? También es cierto que la inteligencia artificial se sirve del aprendizaje automático y, en última instancia, adquirirá cierta autonomía. ¿Sería entonces culpable el propio robot? Y si este tiene deberes, ¿tendrá también derechos?
CINCO CONSEJOS PARA PROTEGERSE DEL ‘HACKEO’

1. Personalizar el dispositivo
Cambie también todos los nombres por defecto de los aparatos conectados a su asistente.
2. ‘Sostware’ actualizado
Tenga siempre actualizado el sistema operativo de sus dispositivos con los últimos parches de seguridad.
3. Contraseña complicada
Limite las puertas de entrada a su red inalámbrica local. Tenga una contraseña de wifi complicada, combinando mayúsculas, minúsculas, números y otros caracteres.
4. Modificar la activación
Cambie la palabra de activación (el nombre de su mayordomo) en el menú de configuración. Los hackers pueden imitar el comando de voz que ‘despierta’ a su asistente virtual.
5. Historial limpio
Consulte con regularidad su historial a través de la web de Amazon o Google Home. Y borre las grabaciones que no desee mantener asociadas a su cuenta.
-
1 El hombre que habla con las nubes avisa: «En el Mediterráneo también tenemos huracanes»
-
2 Construyendo a Putin en 8 instantes: cuando Occidente creyó que podía entenderse con el líder ruso
-
3 Pódcast | El fenómeno ‘sugar daddy’ y su sombra sobre el caso de Daniel Sancho
-
4 La increíble peripecia del primer africano que llegó a Groenlandia
-
5 El cerebro de Bridget Jones (y su verdadero amor perdido)