El gobernador de California, Gavin Newsom, firmó el lunes una ley pionera en Estados Unidos que regula los agentes conversacionales o chatbots de inteligencia artificial (IA), un desafío a la Casa Blanca que promueve que dicha tecnología no pase por controles.
La ley se promulga luego de conocerse casos de suicidios que involucraron a adolescentes que utilizaron chatbots antes de quitarse la vida.
“Hemos visto ejemplos verdaderamente horribles y trágicos de jóvenes perjudicados por tecnología no regulada, y no nos quedaremos de brazos cruzados mientras las empresas continúan sin límites necesarios y sin rendir cuentas”, dijo Newson tras promulgar la ley.
La normativa exige a los operadores implementar salvaguardas “críticas” en relación con las interacciones con chatbots de IA, explicó el senador estatal demócrata Steve Padilla, promotor de la norma.
Entre otras cosas, la ley impone la verificación de la edad de los usuarios y mostrar recordatorios de que los chatbots son generados por inteligencia artificial. También exige que las personas que expresen pensamientos de autolesión o suicidio sean remitidas a servicios de crisis e implementar protocolos de prevención del suicidio.
Suicidios de adolescentes
“La industria tecnológica está incentivada por captar la atención de los jóvenes y mantenerla a expensas de sus relaciones en el mundo real”, dijo Padilla antes de la votación del proyecto en el senado estatal.
El parlamentario se refirió a los recientes suicidios de adolescentes, incluido el de un joven de 14 años en Florida, en 2024.
La madre del menor, Megan Garcia, dijo en entrevista con la AFP que su hijo Sewell, se había enamorado de un chatbot inspirado en un personaje de la serie “Juego de Tronos” en la plataforma Character.AI, que permite interactuar con personajes como si se tratara de confidentes o amantes.
Cuando Sewell luchaba con pensamientos suicidas, el chatbot le instó a “volver a casa”. Segundos después, Sewell se disparó con la pistola de su padre, según la demanda presentada por Garcia contra Character.AI.
Garcia reaccionó poco después de la promulgación de la ley: “Hoy, California ha asegurado que un chatbot compañero no pueda hablar con un niño o una persona vulnerable sobre el suicidio, ni podrá ayudar a una persona a planear su propio suicidio” dijo.
You must be logged in to post a comment Login