• 8/1/2026
ALERTA

Google cerró un acuerdo tras una demanda que responsabilizó a una IA por el suicidio de un adolescente

Google acordó cerrar una demanda que vinculó a un chatbot con el suicidio de un adolescente, en uno de los primeros casos de este tipo en EE.UU.
08/01/2026 - 10:33hs
Google cerró un acuerdo tras una demanda que responsabilizó a una IA por el suicidio de un adolescente

Alphabet Inc., la empresa matriz de Google, alcanzó un entendimiento legal para cerrar una demanda presentada por la madre de un joven de 14 años que se quitó la vida. La acción judicial señalaba a un sistema de inteligencia artificial como un factor determinante en el desenlace trágico.

El litigio apuntaba a Character.AI, una startup creada por dos exingenieros de Google que más tarde regresaron a la compañía. Según la acusación, la tecnología desarrollada por esa firma tuvo un rol directo en la conducta del adolescente.

La acusación: una IA que cruzó límites

La demanda fue presentada en octubre de 2024 por Megan García, madre de Sewell Setzer. En su escrito sostuvo que Google fue cocreador del chatbot que mantuvo extensos intercambios con su hijo, en los que la inteligencia artificial adoptó la identidad de un personaje de Game of Thrones.

De acuerdo con la presentación judicial, esas conversaciones derivaron en un proceso de influencia emocional que terminó con el suicidio del menor, convirtiendo el caso en uno de los primeros en Estados Unidos que vinculan de forma directa a la IA con la incitación al suicidio.

Sin detalles públicos del entendimiento

Esta semana, documentos ingresados al expediente confirmaron que Google y Character.AI resolvieron el conflicto mediante un acuerdo privado. Hasta el momento, no trascendieron las condiciones ni si incluye compensaciones económicas.

Conforme informó el New York Post, el caso era observado con atención porque abría la puerta a cuestionamientos legales contra desarrolladores de inteligencia artificial por no proteger adecuadamente a usuarios menores de edad frente a riesgos psicológicos.

"Una persona real" ante un menor

En su denuncia original, García —residente en Florida— afirmó que Character.AI diseñó sus chatbots para presentarse como "una persona real, un psicoterapeuta con licencia y un amante adulto, lo que finalmente provocó el deseo (de su hijo) de no vivir".

En mayo, la jueza Anne Conway rechazó el pedido de las empresas demandadas para que el caso fuera desestimado, decisión que allanó el camino hacia el acuerdo alcanzado ahora.

Otros casos que sacuden a la industria

El expediente de Setzer no es el único que pone bajo escrutinio al negocio de la inteligencia artificial. Existen demandas similares contra otras compañías del sector, incluida OpenAI.

Una de las más resonantes fue impulsada por la madre de Adam Raine, un adolescente de 16 años, quien acusó a ChatGPT de haber incentivado a su hijo a quitarse la vida tras meses de interacción con el sistema.

OpenAI negó su responsabilidad directa en ese caso y sostuvo que el "trágico suceso" respondió a un "mal uso, uso no autorizado o imprevisto" del chatbot. La empresa afirmó que el contexto es complejo y que expondrá sus argumentos ante la Justicia. "Presentaremos nuestro caso con respecto", indicaron en su respuesta.

Según la defensa, el planteo judicial entra en conflicto con la Sección 230, el marco legal estadounidense que reduce la responsabilidad de las firmas tecnológicas por actos de terceros.