Skip to main content

En un mundo cada vez más conectado, la presencia de asistentes virtuales como Alexa de Amazon, Google Assistant y Siri de Apple en nuestros hogares se ha vuelto una constante. Estos dispositivos, diseñados para facilitar nuestras vidas mediante la respuesta a comandos de voz, han suscitado una pregunta crucial: ¿Están escuchando nuestras conversaciones sin que lo sepamos?, plantea este artículo en El País.

La política oficial de Amazon es clara: los dispositivos con Alexa no almacenan ni envían audios a la nube a menos que detecten la palabra de activación específica. Sin embargo, un video viral compartido por la criminóloga María Aperador en TikTok e Instagram ha reavivado el debate. Aperador descubrió que algunos fragmentos de voz fueron grabados sin pronunciar la palabra «Alexa», lo que sugiere que estos dispositivos podrían estar escuchando activamente sin nuestro consentimiento explícito.

Un reciente estudio revela más de 1.000 activaciones involuntarias en dispositivos inteligentes, abriendo el debate sobre la privacidad y la seguridad de nuestras conversaciones en el hogar.

David Arroyo, investigador del CSIC especializado en ciberseguridad y datos, propone que los sistemas de reconocimiento de voz, como los empleados por estos asistentes, pueden tener «falsos positivos» debido a su sensibilidad a variaciones en la pronunciación, acentos, y otros factores ambientales. Esto podría explicar las grabaciones sin la activación verbal intencionada.

Un estudio de la Universidad Ruhr de Bochum y el Instituto Max Planck para la Seguridad y la Privacidad destacó la incidencia de activaciones accidentales en altavoces inteligentes, con más de 1.000 casos documentados. Esto plantea preguntas significativas sobre la precisión de estos algoritmos y su impacto en la privacidad de los usuarios.

Los asistentes virtuales operan mediante un algoritmo que rastrea constantemente la palabra de activación, procesando localmente el sonido sin grabarlo. Aunque esta tecnología ofrece la posibilidad de activar el dispositivo manualmente para evitar la monitorización constante, la preocupación por la privacidad persiste.

Los expertos en ciberseguridad coinciden en que, si bien no hay evidencia de que estos dispositivos procesen el sonido para extraer datos más allá de la búsqueda de palabras clave, la sola posibilidad plantea serios problemas de privacidad. La confianza del consumidor en estos dispositivos es crucial, y cualquier indicio de escucha no autorizada podría tener consecuencias significativas tanto para la privacidad del usuario como para la reputación de las empresas involucradas.

Toda revolución necesita sus cronistas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.