Tus conversaciones con ChatGPT podrían ser usadas en tribunales
En tiempos donde la inteligencia artificial se ha convertido en una herramienta cotidiana para millones de personas, una advertencia del propio CEO de OpenAI, Sam Altman, encendió las alarmas: las conversaciones con ChatGPT no están protegidas por secreto profesional y podrían ser utilizadas como prueba en procesos judiciales.
Durante su participación en el pódcast This Past Weekend, Altman expresó su preocupación por la creciente confianza de los usuarios que recurren a la IA para abordar temas sensibles, como cuestiones legales, médicas o psicológicas, creyendo erróneamente que lo compartido queda en un ámbito confidencial.
“A diferencia de médicos, abogados o psicólogos, ChatGPT no está amparado por leyes que garanticen la confidencialidad de lo que se dice”, explicó Altman.
Una herramienta útil, pero sin blindaje legal
ChatGPT ha dejado de ser una simple curiosidad digital para transformarse en una “navaja suiza” tecnológica. Desde redactar correos y resolver dudas técnicas hasta pedir consejos personales, su uso creció exponencialmente. Sin embargo, Altman advierte que la privacidad de esas interacciones aún no está protegida por leyes específicas.
Esto significa que si un usuario comparte datos personales o confidenciales con la IA, y esa información es requerida judicialmente, OpenAI podría verse obligada a entregarla como prueba documental, dependiendo del marco legal vigente en cada país.
El vacío normativo: una brecha peligrosa
Altman señaló que ya inició conversaciones con líderes políticos y legisladores para crear una normativa que contemple la confidencialidad en entornos digitales de IA, pero por ahora, no existe ninguna garantía jurídica para resguardar lo que se conversa con ChatGPT.
La falta de regulación, sumada a la facilidad con la que los usuarios comparten información delicada sin entender las implicancias legales, crea una vulnerabilidad crítica. Expertos en privacidad digital coinciden en que el uso de la inteligencia artificial en áreas sensibles necesita ser urgentemente acompañado por nuevas leyes que protejan a los usuarios.
¿Qué hacer mientras tanto?
La recomendación es clara: evitar compartir datos sensibles, personales o confidenciales con sistemas de inteligencia artificial, al menos hasta que exista un marco jurídico robusto que garantice su protección.
La advertencia de Altman no busca desalentar el uso de la IA, sino concientizar sobre la necesidad de adaptar las leyes del siglo XX a los desafíos tecnológicos del siglo XXI. En una era donde la privacidad digital es tan valiosa como frágil, la transparencia sobre los límites de las herramientas que usamos se vuelve indispensable.