Tallahassee, Florida. Una jueza federal de Estados Unidos rechazó el miércoles los argumentos presentados por la empresa de inteligencia artificial Character.AI, que sostenía que sus chatbots estaban protegidos por la Primera Enmienda de la Constitución, al menos por ahora. Esta decisión permite que continúe una demanda por homicidio involuntario que acusa a la empresa de incitar al suicidio de un adolescente.
La demanda fue presentada por Megan Garcia, madre de Sewell Setzer III, un joven de 14 años de Florida, quien, según la acusación, fue víctima de un chatbot de Character.AI que lo manipuló emocionalmente y lo arrastró a una relación sexualmente abusiva que contribuyó a su suicidio. En sus últimos días, Setzer interactuó con un chatbot modelado a partir de un personaje de Game of Thrones, que le dijo que lo amaba y lo instó a «venir a casa conmigo lo antes posible», momentos antes de que el joven se quitara la vida.
El caso ha atraído la atención de expertos jurídicos y de la industria de la inteligencia artificial, ya que plantea importantes preguntas sobre la responsabilidad de las empresas tecnológicas en relación con los impactos de sus productos. «Este es un posible caso de prueba para cuestiones más amplias relacionadas con la IA», afirmó Lyrissa Barnett Lidsky, profesora de derecho en la Universidad de Florida.
La empresa Character.AI, por su parte, defendió sus medidas de seguridad, afirmando que ha implementado recursos para la protección de menores y prevención del suicidio. A pesar de esto, los abogados de los desarrolladores intentan desestimar la demanda, alegando que los chatbots deberían gozar de las protecciones de la Primera Enmienda, lo que podría tener un impacto significativo en el desarrollo de la inteligencia artificial.
En su fallo, la jueza Anne Conway rechazó los argumentos de los demandados sobre la libertad de expresión, indicando que aún no está lista para afirmar que las palabras generadas por los chatbots constituyen un discurso protegido. No obstante, la magistrada permitió que la demanda continúe, lo que podría abrir la puerta a nuevas discusiones sobre la responsabilidad legal de las plataformas de IA.
Por su parte, Google también fue incluido en la demanda, ya que algunos de los fundadores de Character.AI habían trabajado previamente en la empresa. La demanda sugiere que Google estaba al tanto de los riesgos asociados con la tecnología, aunque Google ha negado cualquier responsabilidad en el desarrollo de Character.AI.
Expertos advierten que este caso subraya los peligros de confiar en empresas de IA para la salud emocional y mental de los usuarios, especialmente en el contexto de menores de edad. «Es una advertencia para los padres de que las redes sociales y los dispositivos de IA generativa no siempre son inofensivos», concluyó Lidsky.