
Secciones
Servicios
Destacamos
Los asistentes virtuales llegaron a nuestras vidas hace ya unos años: Alexa, Siri, Google Assistant... convirtieron en habitual hablarle a nuestros dispositivos para conocer el ... estado del tráfico, la cartelera o la previsión meteorológica. Muchos usuarios los utilizan además para controlar el hogar conectado, ordenándoles subir los estores, apagar las luces o ajustar el termostato. Usos prácticos que han propiciado la instalación de altavoces inteligentes en varias habitaciones de la casa, lo que a su vez ha despertado ciertos temores: ¿no estaremos exponiendo nuestra privacidad ante los gigantes tecnológicos?
La respuesta es algo más compleja de lo que podríamos pensar. Según recalcan desde la Oficina de Seguridad del Internauta (OSI, dependiente del Instituto Nacional de Ciberseguridad), el algoritmo en que se basan los asistentes virtuales funciona de forma local: «Nos escucha constantemente tratando de buscar patrones que se correspondan de manera acústica con una palabra de activación ('Oye Siri', 'Alexa', 'Ok Google'...), pero esos audios no se envían a un servidor».
Solo cuando el altavoz reconoce que nos hemos dirigido a él, envía nuestras peticiones a la nube para que sean procesadas y así ofrecernos una respuesta certera. Esto no quita para que el sistema de reconocimiento falle de vez en cuando, lo que supone el verdadero 'quid' de la cuestión: un estudio realizado por la Universidad Ruhr de Bochum y el instituto Max Planck para la Seguridad y la Privacidad demostró la existencia de falsos positivos en 11 'gadgets' de los principales fabricantes, después de analizar cómo los asistentes integrados respondían frente a más de 1.000 horas de programación televisiva. Nombres comunes y frases cotidianas activaron a Siri, Google y Alexa sin necesidad, lo que para los investigadores Dorothea Kolossa y Thorsten Holz demuestra que «los altavoces inteligentes no son tan precisos como se cree; se activan muchas más veces de lo que el usuario percibe».
Esto último no sería un problema si dichas grabaciones no fuesen escuchadas por terceros, algo que se descubrió que ocurría bajo el seno de Amazon, Google y Apple: contratan a miles de empleados para analizar los audios con el fin de mejorar la respuesta de sus asistentes por voz. Y es que poco importa si alguien en la India nos escucha pedirle a Alexa un temporizador de 10 minutos, pero la cosa cambia si nos graban –sin que lo sepamos– hablando sobre nuestra cuenta bancaria o unos informes médicos.
Los titulares más escandalosos al respecto surgieron en 2019, cuando un contratista filtró grabaciones de Google Assistant a varios medios de comunicación belgas. Contenían numerosos datos personales y motivaron una respuesta contundente por parte de la autoridad de protección de datos de Bélgica, que exigió a Google cesar su programa de revisión hasta que pudiera blindarlo. Ese mismo año, una investigación de Bloomberg destapó casos similares por parte de Amazon: la multinacional entonó el 'mea culpa' y ofreció la opción de deshabilitar el uso de las grabaciones de Alexa.
El estudio del instituto Max Planck concluyó, a fin de cuentas, que la transmisión de información sensible «no es un problema aislado, sino consecuencia directa del diseño de la tecnología de activación por voz», por lo que atañe a todas las compañías (Xiaomi y Microsoft inclusive). Por mucho que estas prometan usar los datos recopilados para mejorar sus sistemas, en la práctica el usuario no siempre es consciente de qué conversaciones se recogen, cuándo y por qué: «Incluso si las empresas prometen proteger esos datos, el hecho de que estas grabaciones existan representa un potencial riesgo de abuso», sentencia Holz.
Como siempre en estos casos, no se trata de alarmarse o dejar de utilizar cierta tecnología, sino de aprender a manejarla conscientemente. En este sentido, la OSI recomienda consultar las opciones de privacidad de los asistentes virtuales: permiten, entre otras cosas, desactivar el almacenamiento de grabaciones de voz (aunque esto puede limitar las funciones de Siri, Alexa y compañía). Ciertas plataformas también nos dejan consultar qué aplicaciones de terceros pueden acceder a los datos del asistente virtual, lo que conviene hacer regularmente para asegurarnos de que no se han concedido permisos innecesarios.
Otro punto clave es revisar el historial de grabaciones de Alexa, Siri y Assistant para saber qué han escuchado y, en caso de que encontrar algo inconveniente, borrarlo al instante. Claro que también podemos programar la eliminación automática de dichas grabaciones o suprimir el historial por completo. ¿Cómo? En la app de Alexa seguiremos la ruta 'Privacidad de Alexa' > 'Gestionar mis datos de Alexa' > 'Elegir cuánto tiempo se guardarán las grabaciones'; con Siri, desde Mac, accederemos a 'Eliminar el historial de Siri y Dictado' desde el apartado 'Siri' de 'Ajustes del Sistema'; y para el Asistente de Google, en el apartado pertinente dentro de nuestro perfil, escogeremos 'Eliminar actividad por' y 'Desde siempre'.
Como precauciones adicionales, los expertos aconsejan usar el botón que silencia el micrófono de nuestro altavoz cuando sea conveniente (si tenemos visita o nos disponemos a hablar de algún tema delicado por teléfono, por ejemplo); así como evitar colocar el aparato en zonas sensibles de la casa como el despacho o el dormitorio.
¿Tienes una suscripción? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Recomendaciones para ti
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.