Por qué Google debe pagar por escuchar tus conversaciones

Por qué Google debe pagar por escuchar tus conversaciones

Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.

María S. Taboada
Lingüista y Magíster en Psicología Social.  Profesora Titular de “Linguística General I” y “Política y Planificación Linguísticas” de la Fac. de Filosofía y Letras de la UNT.

Todo empezó con una sospecha que muchos teníamos: ¿me está escuchando el teléfono? Sí. Y no sólo el teléfono.

En julio de 2019, el medio belga VRT News publicó una investigación que confirmó lo que parecía paranoia: contratistas de Google escuchaban grabaciones privadas obtenidas por Google Assistant, incluyendo conversaciones que nunca debieron grabarse.

Días después, un grupo de usuarios en Estados Unidos decidió dejar de sospechar y empezar a litigar. El 25 de julio de 2019 presentaron una demanda colectiva contra Google en un tribunal federal de California.

La acusación era simple y perturbadora: los dispositivos con Google Assistant -esos parlantes inteligentes que ponemos en la cocina, los teléfonos que llevamos al dormitorio, las pantallas que instalamos en el living- estaban grabando conversaciones privadas sin que nadie dijera “OK Google” ni “Hey Google”. Grababan solos. Grababan todo el tiempo. Grababan sin permiso.

Los dispositivos que escuchan, según la demanda, incluyen: Google Pixel (todos los smartphones), Google Home, Google Home Mini, Google Home Max, Google Nest Audio, Google Nest Mini, Google Home Hub, Nest Hub, Nest Hub Max, Pixelbook, Pixelbook Go, Pixel Slate, Chromecast con Google TV, Pixel Buds, Pixel Buds A Series y Pixel Buds Pro. A esto se suman todos los teléfonos Android de terceros (Samsung, Xiaomi, Motorola, etc.) que tienen Google Assistant preinstalado.

La “escucha eficaz” aprovecha nuestros modos de uso y localización de los dispositivos. Según Voicebot.ai y Variety/Adobe, los parlantes inteligentes se ubican principalmente en el living (43-63%), el dormitorio (42-45%) y la cocina (37-41%). La cocina es especialmente relevante: allí muchos usuarios activan temporizadores, consultan recetas con las manos ocupadas, y mantienen conversaciones familiares mientras cocinan. Es donde el dispositivo está más expuesto a captar diálogos cotidianos, discusiones, confesiones casuales, según Statista y How-To Geek.

En el hogar

¿Cómo es posible que graben sin permiso? El sistema funciona así: para que el asistente pueda responder cuando lo llamás, tiene que estar escuchando permanentemente, esperando detectar las palabras mágicas. Pero el algoritmo no es perfecto. A veces cree escuchar “OK Google” cuando en realidad alguien dijo otra cosa, o tosió, o simplemente habló con cierta entonación. Eso se llama técnicamente “false accept” -una falsa aceptación- y dispara una grabación que el usuario nunca autorizó ni supo que ocurrió, según explica el sitio oficial del caso.

Hasta ahí, podría ser un error técnico. Pero la investigación de VRT reveló algo peor: esas grabaciones no quedaban guardadas en el vacío. Eran enviadas a servidores de Google y luego cedidas a contratistas externos -personas reales, de carne y hueso- que las escuchaban. ¿Para qué? Supuestamente para “mejorar el reconocimiento de voz”. En la práctica, desconocidos escuchaban discusiones de pareja, conversaciones médicas, momentos íntimos, charlas con hijos, confesiones que nadie imaginó que saldrían de las paredes de su casa. Esto fue confirmado por ABC News, MIT Technology Review y TechCrunch. Tras el pretexto del “entrenamiento del algoritmo”, el reconocimiento de voz, invaden nuestra privacidad: un “gran hermano” oculto en nuestra vida cotidiana.

El escándalo fue global. Google admitió la práctica y prometió cambios, según reportó el Washington Times.

Cómo siguió

Pero la demanda siguió su curso. Durante años, los abogados de los usuarios y los de Google litigaron sobre cada detalle. ¿Hubo consentimiento? ¿Las políticas de privacidad advertían sobre esto? ¿Es legal transferir grabaciones de voz a terceros sin autorización expresa? En diciembre de 2022, el tribunal certificó la clase afectada. En enero de 2024, Google intentó forzar un arbitraje individual y perdió.

En enero de 2026, Google decidió no seguir peleando. Propuso un acuerdo: pagar 68 millones de dólares para cerrar el caso sin admitir culpa formalmente, pero aceptando compensar a los afectados, según Top Class Actions. El acuerdo completo tiene 111 páginas, para el que quiera profundizar.

La audiencia donde la jueza Beth Labson Freeman debe decidir si aprueba ese acuerdo está fijada para el 19 de marzo de 2026, según el sitio oficial del caso.

¿Qué significa ese número? Si se aprueba, cada usuario que compró un dispositivo Google Assistant desde mayo de 2016 podría recibir entre 18 y 56 dólares. Quienes fueron grabados por “false accepts” pero no compraron dispositivos directamente, entre 2 y 10 dólares. Poco dinero para cada uno. Una fortuna en total. Y sobre todo: un reconocimiento implícito de que algo estuvo muy mal.

No es la primera vez. Apple acordó en 2024 un settlement de 95 millones de dólares por un caso similar con Siri, cuyos pagos se distribuyeron en enero de 2026 según NBC Chicago y CNN. Amazon también enfrenta demandas activas por Alexa y en 2023 la FTC le impuso una multa de 25 millones de dólares por violar leyes de privacidad infantil.

Pero el caso de Google tiene un peso particular: es el primero centrado específicamente en los parlantes inteligentes del hogar y en el mecanismo técnico de las “falsas aceptaciones” como práctica sistemática. No se trata de un error aislado ni de una función mal explicada. Se trata de dispositivos diseñados para estar en tu cocina, en tu living, en tu dormitorio, escuchando permanentemente y grabando cuando no deberían.

Google no lo dice, pero lo paga. Y cuando una empresa paga 68 millones de dólares para que un caso desaparezca, el silencio habla más fuerte que cualquier admisión.

La pregunta que queda es incómoda: si esto pasó en Estados Unidos, donde al menos hubo una demanda, un juicio y una compensación, ¿qué pasa en Argentina? Los mismos dispositivos se venden acá. El mismo software funciona en nuestras casas. Las mismas grabaciones viajan a los mismos servidores. Y mientras tanto, el parlante y los otros dispositivos siguen en los espacios que creíamos íntimos de nuestro hogar. Esperando. Escuchando. Confundiendo. Apropiándose de nuestras palabras, nuestros pensamientos, nuestros deseos, nuestra identidad. Mientras la posibilidad de una ley que regule la IA en Argentina y proteja nuestros derechos, duerme (¿plácidamente?) el sueño de la injusticia.

Comentarios