Ocho horas en el estrado, un juez alertando sobre grabaciones con gafas inteligentes y una pregunta de fondo: si el “diseño” de Instagram y YouTube puede considerarse responsable de daños reales en la salud mental de jóvenes.
Mark Zuckerberg entró en un juzgado del centro de Los Ángeles como lo haría cualquier testigo clave en un proceso de alto voltaje —traje, gesto contenido, prisa medida— salvo por un detalle que concentró miradas y simbolismo: iba flanqueado por un pequeño séquito aparentemente equipado con las gafas inteligentes Ray-Ban de Meta. No era un elemento anecdótico, sino un recordatorio físico de la era que se juzga: plataformas sociales acusadas de moldear conductas y, al mismo tiempo, dispositivos que expanden la captura de lo cotidiano. En el exterior, padres que atribuyen a las redes sociales parte del sufrimiento que vivieron sus hijos observaban el desfile hacia la sala. Dentro, la escena se convirtió en un examen público de la tesis que recorre cientos de litigios: no se trata solo de contenidos, sino de arquitectura del producto.
El caso, conocido por las iniciales de la demandante (K.G.M., una mujer de 20 años), enfrenta a Meta y a Google por supuestas decisiones de diseño que habrían incentivado un uso compulsivo desde edades tempranas y empeorado problemas de salud mental. La acusación sostiene que los mecanismos de enganche —notificaciones, bucles de consumo, recomendaciones, fricción mínima para continuar— se construyeron con conocimiento de sus efectos en menores. Las compañías lo rechazan y alegan que los daños no pueden atribuirse linealmente a sus productos, subrayando además factores personales y familiares en la historia de la demandante.
Un juicio que busca perforar el escudo legal de las plataformas
Este proceso se ha presentado como “histórico” por una razón práctica: si un jurado concluye que el diseño de las aplicaciones —y no el contenido publicado por terceros— puede generar responsabilidad civil, se abre una vía distinta a la que tradicionalmente ha protegido a las plataformas en Estados Unidos. Reuters enmarca el arranque del juicio como una prueba directa de si Big Tech puede ser considerada responsable por cómo “construye” el producto, no solo por lo que aloja. Es un matiz jurídico con consecuencias industriales: obliga a debatir qué es exactamente un “daño” atribuible a la interfaz, a los patrones de recomendación, a la gamificación y a la economía de la atención.
En la apertura del caso, el abogado principal de la demandante, Mark Lanier, planteó ante el jurado una tesis contundente: que existían indicios internos de que las empresas conocían el potencial adictivo del diseño para cerebros jóvenes. Meta, por su parte, defendió que el historial clínico y el contexto personal eran determinantes y que la atribución causal a las aplicaciones es, como mínimo, discutible. Esa pugna —causalidad vs. correlación, responsabilidad del diseño vs. complejidad de factores— es el corazón del juicio.
Ocho horas de testimonio: el CEO como testigo del “diseño”
Zuckerberg permaneció alrededor de ocho horas declarando, con un estilo descrito por cronistas como sobrio y literal, buscando matizar cómo se discutían internamente decisiones de seguridad. Según el relato del día en sala, Lanier —un litigador conocido por su oratoria y también pastor— contrastó con un Zuckerberg que trató de reencuadrar preguntas que le atribuían intenciones explícitas. En un momento, ante una interpretación del interrogatorio, llegó a replicar: “Eso no es lo que estoy diciendo en absoluto”, según recogió NPR en la cobertura citada por el artículo que documenta la jornada.
Más allá del tono, el contenido importaba por lo que representa: cuando un CEO declara sobre decisiones de producto, el juicio deja de ser abstracto. Se vuelve una auditoría humana sobre por qué una empresa elige mantener una función, cómo evalúa riesgos, qué prioriza cuando hay tensión entre crecimiento y seguridad, y qué entiende por “mitigación” frente a daños.
Filtros de belleza: una discusión de “seguridad” que no siempre parece seguridad
Entre los puntos que afloraron en el interrogatorio hubo decisiones sobre herramientas concretas, como determinados filtros estéticos en Instagram. El debate alrededor de estos filtros tiene un componente técnico —son efectos visuales— pero sobre todo social: qué hacen a la percepción corporal, cómo se consumen en masa, qué efecto tienen sobre usuarios jóvenes y si deben tratarse como un riesgo de salud digital.
La relevancia de que esta cuestión aparezca en un juicio es doble. Primero, porque muestra que la seguridad ya no se entiende solo como “evitar delitos” o “quitar contenido”, sino como gestionar impactos psicológicos de funciones aparentemente inocuas. Segundo, porque introduce una pregunta incómoda: si una función genera engagement y al mismo tiempo puede reforzar inseguridades, ¿qué pesa más y cómo se decide? El testimonio de Zuckerberg, presionado sobre decisiones de este tipo, sitúa ese dilema en el centro del debate público.
Un juez avisa sobre las Ray-Ban: la tecnología entra en la sala… y el tribunal frena
La imagen del “entourage” con gafas Ray-Ban no fue solo estética. En la sala, el juez advirtió que no se podían llevar estas gafas y que cualquier grabación debía eliminarse, con la posibilidad de consecuencias por desacato si no se cumplía. La escena aporta una capa casi irónica: se discute sobre daños atribuidos a productos digitales mientras un accesorio de grabación/IA amenaza con convertir el juicio en contenido o, peor, en material capturado sin control.
En términos simbólicos, es potente. El tribunal, como institución, intenta proteger la integridad del proceso limitando la captura tecnológica. Las plataformas, como industria, han crecido precisamente optimizando la captura de atención, la circulación de estímulos y la amplificación. El choque cultural es evidente.
Del “uso excesivo” a la responsabilidad del diseño: por qué este caso importa
El litigio no se limita a un relato individual. Reuters apunta que un veredicto adverso podría allanar el camino para miles de demandas similares. Eso explica el interés: no es un caso de reputación, es un caso de precedente.
Para Meta y Google, el riesgo no es solo económico. Es también de modelo operativo: que el “diseño persuasivo” —lo que en la práctica es producto/crecimiento— pase a tratarse como un frente legal equiparable a fallos de seguridad o negligencias. Para reguladores y legisladores, un juicio así funciona como un laboratorio de hechos: obliga a exponer documentos, discusiones internas, racionales de producto y criterios de decisión, incluso si el resultado final no sienta doctrina formal.
Y para el ecosistema de IA aplicada a redes (recomendación más potente, edición automática, avatares, filtros generativos), el impacto puede ser indirecto pero real: cuanto más “autónomo” y optimizado sea el sistema para mantener a la gente dentro, más presión habrá para demostrar controles y límites medibles.