Multa récord: Meta deberá pagar u$s375 millones por no proteger a menores en Facebook e Instagram
Meta Platforms deberá pagar u$s375 millones en sanciones civiles tras un fallo de un tribunal del estado de Nuevo México. Un jurado determinó que la compañía de Mark Zuckerberg incumplió la legislación local de ese estado norteamericano de protección al consumidor al no garantizar la seguridad de menores en Facebook, Instagram y WhatsApp.
La decisión se conoció después de un juicio de seis semanas. El veredicto marca un hito en la responsabilidad de las plataformas digitales sobre la protección de usuarios adolescentes.
El fiscal general Raúl Torrez calificó el fallo como un precedente clave. "Este caso sienta las bases para que otras jurisdicciones actúen contra prácticas que ponen en riesgo a los menores", afirmó.
El jurado concluyó que Meta implementó prácticas engañosas respecto de las condiciones de seguridad ofrecidas a los usuarios. La compañía no habría garantizado controles suficientes para evitar la interacción entre adolescentes y adultos con fines delictivos.
La acusación argumentó que los sistemas de recomendación y los algoritmos de Meta facilitaron la exposición de adolescentes a contactos desconocidos, pese a advertencias internas sobre estos riesgos que no derivaron en medidas preventivas concretas.
La sanción fijada es considerable. Sin embargo, queda lejos de los u$s2.000 millones que solicitó el Estado de Nueva México durante el proceso judicial.
Qué prácticas cuestionó el jurado durante el juicio
El proceso incluyó la declaración de más de 40 testigos. También se incorporaron documentos internos de la empresa, informes técnicos y correos electrónicos como prueba.
La fiscalía sostuvo que los algoritmos utilizados por Meta priorizaban el engagement sobre la seguridad. Estos sistemas habrían expuesto a usuarios menores a perfiles de adultos sin verificación adecuada.
Durante el juicio se analizaron casos en los que el contacto entre usuarios iniciado en entornos digitales derivó en hechos ocurridos fuera de las plataformas. El proceso se centró en determinar la responsabilidad de Meta en la gestión de sus políticas de seguridad.
También se presentaron advertencias internas. Estos documentos mostraban que empleados de la compañía habían identificado riesgos potenciales vinculados al uso de las plataformas por menores. Sin embargo, no se habrían implementado medidas de prevención suficientes.
El caso reveló que Meta no contaba con mecanismos efectivos para detectar y bloquear interacciones sospechosas entre adolescentes y adultos, lo que habría facilitado situaciones de riesgo para los usuarios menores.
Qué dice Meta sobre el fallo y qué pasos siguen
La compañía encabezada por Zuckerberg rechazó el veredicto y confirmó que apelará la sentencia. Desde Meta sostuvieron que cuentan con herramientas de seguridad destinadas a proteger a los usuarios.
La empresa afirmó que sus sistemas detectan y eliminan contenido perjudicial. También aseguró que bloquea cuentas vinculadas a comportamientos sospechosos de forma regular.
La defensa argumentó durante el juicio que la detección de conductas delictivas en entornos digitales presenta dificultades técnicas y operativas. Meta sostiene que informa sobre estos desafíos en sus políticas públicas.
Además, la compañía señaló que realiza mejoras continuas en sus mecanismos de control. Sin embargo, el jurado no consideró estos argumentos suficientes para absolver a la empresa.
El proceso judicial continuará en una segunda fase prevista para mayo. En esa instancia, la fiscalía buscará que el tribunal ordene cambios obligatorios en el diseño y funcionamiento de las plataformas.
Entre las medidas que podrían discutirse se encuentran modificaciones en los sistemas de recomendación, mayores controles en la interacción entre usuarios y nuevas herramientas de protección para menores, lo que podría alterar significativamente el funcionamiento de Facebook e Instagram.
El contexto más amplio: otros litigios y qué viene
El fallo en Nuevo México no es un caso aislado. En Estados Unidos se multiplican los litigios relacionados con el impacto de las redes sociales en menores de edad.
Distintas demandas han cuestionado el rol de las plataformas en la exposición a contenidos perjudiciales. También se analiza la generación de dinámicas consideradas adictivas entre usuarios adolescentes.
En paralelo, un tribunal en California analiza la posible responsabilidad de plataformas como Meta y YouTube en casos vinculados a contenidos dirigidos a adolescentes. Ese proceso podría sentar un precedente adicional en la materia.
El fallo es considerado uno de los primeros de este tipo contra una empresa tecnológica de gran escala. Podría influir en futuras decisiones judiciales en otros estados.
La regulación del entorno digital continúa en evolución. Este caso marca un punto de inflexión en la forma en que se evalúa la responsabilidad de las plataformas sobre la seguridad de sus usuarios más jóvenes.