Ley para resguardar la salud mental de los vecinos en el uso de la IA

El diputado de Unión por la Patria, Carlos Puglelli, presentó en la Legislatura bonaerense un proyecto de ley que propone crear un marco regulatorio específico para los sistemas de inteligencia artificial (IA) que interactúan con personas en contextos vinculados a la salud mental, con especial foco en la prevención del suicidio y la protección de personas en situación de vulnerabilidad emocional.

“Estamos frente a una nueva era tecnológica que no puede dejar de lado la responsabilidad social y la protección de los más vulnerables”, aseguró Puglelli y añadió: “Este proyecto busca establecer reglas claras y éticas para el uso de la inteligencia artificial, sobre todo cuando se trata de salud mental, donde los riesgos pueden ser altísimos”.

La iniciativa contempla principios rectores como la dignidad humana, la precaución ante riesgos psicoemocionales, la transparencia de los sistemas, la responsabilidad legal de los desarrolladores y una especial protección a menores y personas con trastornos mentales.

Uno de los aspectos centrales del proyecto de Puglelli es la obligación de que todos los sistemas de IA conversacionales incorporen mecanismos automáticos de detección de lenguaje asociado a ideación suicida, depresión o crisis emocionales graves. En caso de detectarse estos indicios, la interacción deberá interrumpirse de inmediato y derivarse al usuario a servicios humanos de asistencia profesional o líneas de ayuda.

“No podemos permitir que un sistema automatizado, por más sofisticado que sea, responda a una persona en crisis como si fuera una conversación más. Tiene que haber un límite, y ese límite es la vida humana”, sentenció el legislador.

Compartir
Back To Top