Para disfrutar los contenidos de Clarín es necesario que actives JavaScript en tu navegador.
Un fallo histórico en California (marzo 2026, Social Media Adolescent Addiction/Personal Injury Products Liability Litigation), ha perforado el cristal de la impunidad tecnológica. Bajo la figura de un Litigio Multidistrital (MDL), que agrupó miles de demandas individuales y acciones de clase, la justicia de EE. UU. ha enviado un mensaje revelador: el diseño adictivo genera responsabilidad civil. Ya no se juzga lo que los usuarios publican, sino cómo el software está diseñado para capturar la voluntad de los menores, tornándolo perjudicial para la salud de ese segmento de consumidores.
La sentencia rompe el viejo precedente y paradigma de la "Sección 230" en el sistema jurídico norteamericano, que protege (o protegía, en pasado) a las Big Tech como meros intermediarios. La justicia de California asume que, al declarar que funciones como el scroll infinito son "productos defectuosos", el algoritmo es una "cosa riesgosa".
Ahora bien, ante este fallo judicial, y cabria el interrogante ¿Qué implicancias tiene este fallo en nuestro país? La respuesta: muchas. Ya que, desde el ordenamiento jurídico argentino, este concepto encaja perfectamente en nuestro Art. 1757 del Código Civil y Comercial: quien obtiene un beneficio económico de un mecanismo que crea riesgos (adicción, ansiedad, trastornos alimentarios), debe responder objetivamente por los daños.
Sin embargo, el desafío en la práctica judicial de nuestros tribunales no es solo de fondo, sino de forma. El caso de EE. UU. avanzó gracias a mecanismos procesales que permiten a miles de ciudadanos unirse contra un gigante. En Argentina, nuestra regulación de procesos colectivos es todavía un traje que queda chico para la era digital o este tipo de conflictos a gran escala. Necesitamos una Ley de Bienestar Digital que no solo regule el algoritmo, sino que facilite las acciones colectivas tecnológicas, evitando que cada familia tenga que emprender una odisea judicial solitaria de diez años, a fin de no aplicar el viejo sistema románico de contienda judicial (es decir A contra B).
Ante esta situación se torna necesario una regulación normativa adaptativa a los cambios que la propia realidad impone. Se tratan de nuevas costumbres o hábitos de la sociedad, que antes el Derecho no regulaba, o, por lo menos, no de manera directa.
Resulta ahora que esta costumbre o habito novedoso, podría ser un riesgo para la salud, pudiendo tornarse adictiva, y, eso se potencia cuando se trata de menores y adolescentes, que sabemos, son sujetos de preferente tutela constitucional y convencional. -
En Argentina, ante la situación planteada, y la falta de una ley que regule este tipo de actividad o conducta, se precisa una regulación normativa, la que debería estar centrada en Responsabilidad Objetiva por Diseño: que la empresa responda por la "toxicidad" de su arquitectura algorítmica; Seguridad por Diseño (Safety by Design): auditorías obligatorias antes de lanzar funciones adictivas para menores; Inversión de la Carga de la Prueba: que sea la tecnológica la que deba demostrar que su algoritmo no es dañino, rompiendo la asimetría entre el ciudadano y la Big Tech.-
La seguridad jurídica también implica proteger el capital humano del futuro, en palabras del preámbulo: nuestra posteridad. El fallo de California es el espejo donde la justicia argentina debe mirarse si no quiere quedar como un espectador analógico de un daño que ya es digital y masivo.
Recibí en tu mail todas las noticias, historias y análisis de los periodistas de Clarín