El CEO de OpenAI, Sam Altman, afirmó esta semana que su compañía estudia la posibilidad de que ChatGPT alerte a las autoridades cuando jóvenes expresen intenciones serias de suicidio, especialmente en los casos en que no sea posible contactar a los padres o responsables.
La medida, que marcaría un cambio significativo en las políticas de privacidad de la empresa, busca dar respuesta a un fenómeno creciente: el número de adolescentes que utilizan el modelo de inteligencia artificial para hablar de sus planes antes de intentar quitarse la vida. Según Altman, “probablemente hablamos con ellos, pero no salvamos sus vidas”.
El directivo reveló que cada semana hasta 1.500 personas en el mundo podrían estar consultando a ChatGPT sobre cómo suicidarse, una cifra basada en la proporción de los 15.000 suicidios semanales a nivel global.
Lee también → La Inteligencia Artificial y su sed insaciable
El caso Adam Raine y la presión legal
El anuncio surge en medio de la polémica demanda de la familia de Adam Raine, un joven de 16 años de California que se suicidó tras, presuntamente, recibir durante meses “motivación” de ChatGPT para llevar a cabo su intención. El caso puso sobre la mesa la responsabilidad de las plataformas tecnológicas en el acompañamiento y prevención de crisis de salud mental.
Altman reconoció la importancia de proteger la privacidad, pero señaló que en emergencias con menores podría ser necesario intervenir para salvar vidas.
Nuevas medidas de seguridad en ChatGPT
Además de la posible alerta a las autoridades, OpenAI planea:
- Controles parentales para que los tutores supervisen el uso de ChatGPT.
- Restricciones de contenido para evitar que menores accedan a información relacionada con métodos de suicidio, incluso bajo pretextos de investigación.
- Accesos rápidos a servicios de emergencia y a terapeutas certificados.
Con ello, la compañía busca crear un ecosistema más seguro para los usuarios vulnerables y actuar de manera preventiva ante situaciones de riesgo.
Sam Altman: ética, dilemas y transparencia en la IA
En una entrevista con Tucker Carlson, Altman también habló de otros dilemas de la inteligencia artificial: la privacidad, el empleo, la relación con Elon Musk y la necesidad de que los modelos respondan a marcos éticos diversos.
El CEO aclaró que, aunque ChatGPT pueda parecer “inteligente” o “vivo”, carece de autonomía real: “No hacen nada a menos que se les pida”, dijo.
Además, defendió la idea de crear un “privilegio de IA”, similar al secreto médico o profesional, para garantizar que las conversaciones con la inteligencia artificial no puedan ser usadas sin una orden judicial.
Entre la privacidad y la protección de la vida
El anuncio de Sam Altman sobre el suicidio juvenil abre un debate ético complejo: ¿hasta qué punto debe una inteligencia artificial intervenir en la vida privada de los usuarios? Mientras algunos defienden que esta podría ser una medida que salve miles de vidas, otros temen que comprometa la confianza y la privacidad de quienes acuden a estas plataformas en busca de ayuda.
Lo cierto es que la discusión confirma el papel central que la inteligencia artificial comienza a ocupar no solo en la tecnología, sino en la esfera social y humana.