La inteligencia artificial se ha convertido en un refugio silencioso para millones de personas que buscan consejo, desahogo o incluso consuelo. Pero ahora, una advertencia directa del CEO de OpenAI, Sam Altman, sacude esa confianza. Durante una conversación en el pódcast This Past Weekend del comediante Theo Von, Altman dejó claro que las conversaciones con ChatGPT, especialmente cuando se usan con fines terapéuticos, no están protegidas legalmente, y podrían llegar a usarse en tribunales.
La afirmación no es menor, pues cada vez más usuarios, particularmente jóvenes, recurren a asistentes de IA como ChatGPT para expresar sus inquietudes emocionales, sus dilemas personales o sus crisis existenciales. La promesa de disponibilidad 24/7, sin juicios ni barreras económicas, ha hecho que el chatbot gane terreno como una suerte de “terapeuta de bolsillo”. Pero Altman advierte: esa conversación que parece privada no lo es tanto.
“Aún no hemos resuelto eso para cuando hablas con ChatGPT”, señaló, en alusión a la falta de protecciones legales equivalentes a las que existen en consultas con médicos, abogados o psicólogos.
Si bien los profesionales de la salud mental están legalmente obligados a resguardar la confidencialidad de sus pacientes, los modelos de lenguaje no están regulados bajo los mismos principios. En teoría, las conversaciones podrían ser solicitadas como evidencia en un proceso judicial si se cumplen ciertos requisitos legales. Y aunque OpenAI ha repetido que no entrena sus modelos con datos personales de usuarios, y que existe un modo de “historial desactivado”, no ha garantizado protección total en caso de una demanda.
Altman no evade la responsabilidad. Reconoce que esta zona gris en la que se mueve la IA debe ser atendida con urgencia por los legisladores. “Si hablas con ChatGPT sobre tus cosas más sensibles y luego hay una demanda, podríamos estar obligados a presentar eso. Y pienso que eso está muy mal”, dijo.
Te puede interesar: Más allá del escándalo: ‘Artificial’ retrata el poder sin regulación de Musk y Altman en el mundo tecnológico
Ahora bien, el uso de IA con fines personales aún carece de un marco normativo robusto que proteja a los usuarios. En parte, porque el ritmo de adopción ha superado al de la legislación. Pero también porque estas tecnologías, a pesar de su interfaz amable, aún no son equivalentes a una relación terapéutica formal.
La discusión planteada por Altman abre preguntas incómodas: ¿debería un chatbot tener el mismo nivel de confidencialidad que un psicólogo? ¿Quién es responsable si esa información se filtra o se usa en un proceso judicial? ¿Están los usuarios al tanto de estos riesgos cuando abren su corazón frente a una pantalla?
En un momento en que los asistentes de IA parecen estar integrándose cada vez más en la vida íntima de las personas, el llamado de atención de Altman es también una invitación a repensar los límites de esta tecnología. Más allá de sus capacidades técnicas, la confianza que despierta puede estar desfasada con las garantías que ofrece.
La popularidad de ChatGPT como consejero digital sigue creciendo, pero la privacidad no debe quedar relegada a un pie de página. Por ahora, quienes lo usan como un “coach de vida” harían bien en recordar que la línea entre lo privado y lo público aún no está bien definida. Y que, en ausencia de leyes claras, la confidencialidad sigue siendo una ilusión.
Imagen: Archivo ENTER.CO