Logo

Cuidado: lo que hable con ChatGPT puede ser utilizado en procesos legales

Según dio a conocer Sam Altman, director ejecutivo de OpenAI, la empresa creadora de ChatGPT

Por Daniel Córdoba | 3 de Ago. 2025 | 6:11 am

La inteligencia artificial (IA) se ha convertido en una herramienta común en la vida cotidiana, principalmente por su fácil acceso desde un celular, computadora o tableta, ya sea mediante una aplicación, una página web o incluso por medio de redes sociales.

El uso de la IA ha simplificado la búsqueda de información, pero su auge explosivo también ha traído consigo nuevos dilemas éticos, sociales y legales. Este último punto ha cobrado relevancia recientemente, debido a que las conversaciones con esta IA pueden ser utilizadas en procesos judiciales.

La advertencia fue realizada por Sam Altman, director ejecutivo (CEO, por sus siglas en inglés) de OpenAI, la empresa creadora de ChatGPT.

El pasado 23 de julio, Altman participó en el pódcast This Past Weekend w/ Theo Von, donde advirtió que las conversaciones con el chatbot no cuentan con protección legal de confidencialidad, a diferencia de las que se sostienen con profesionales como médicos, abogados o psicólogos.

Falta un marco legal

El CEO aseguró que muchos usuarios, particularmente los jóvenes, comparten información personal sensible con ChatGPT. En muchos casos, lo utilizan como si fuera una especie de terapia o un coach de vida.

Creo que, sin duda, necesitamos un marco legal o de políticas para la IA, indicó.

La gente habla de sus problemas más personales con ChatGPT. Especialmente los jóvenes lo usan como terapeutas o coaches de vida, cuando tienen problemas de relación o preguntan: ¿Qué debo hacer? Y ahora mismo, si hablas con un terapeuta, un abogado o un médico sobre ese tipo de problemas, existe un privilegio legal, como la confidencialidad médico-paciente o la confidencialidad legal. Eso aún no lo hemos resuelto cuando se habla con ChatGPT, comentó Altman.

Sin embargo, fue claro al afirmar que, en caso de un proceso legal, las conversaciones pueden ser utilizadas como evidencia si una orden judicial lo requiere, ya que actualmente no están protegidas por marcos legales de privacidad.

Si hablas con ChatGPT sobre tus asuntos más sensibles y luego surge una demanda o algo similar, podríamos estar obligados a presentar esa información. Y creo que eso es un desastre. Considero que deberíamos tener el mismo concepto de privacidad para tus conversaciones con la IA que con un terapeuta o lo que sea, recalcó.

Altman también expresó su preocupación por el vacío legal actual en torno a la privacidad y el uso de la IA, el cual se ha vuelto urgente abordar.

Nadie tenía que pensar en esto ni siquiera hace un año. Y ahora creo que es un gran problema en cómo vamos a abordar las leyes sobre este tema. Los abogados y jueces con los que he hablado coinciden en que esto es nuevo y que debemos actuar con rapidez, explicó.

Contexto en Costa Rica

CR Hoy conversó con el abogado, informático y profesor universitario  Roberto Lemaître Picado, experto en delitos informáticos, protección de datos y seguridad de la información.

Lemaître contextualizó las declaraciones de Altman en el marco legal costarricense y explicó que en el país rige el principio de libertad probatoria. Esto significa que se puede aportar cualquier elemento como prueba en un proceso judicial, siempre y cuando cumpla con los requisitos de admisibilidad establecidos por el Código Procesal Penal.

Básicamente, las pruebas deben haber sido obtenidas legalmente, es decir, no mediante tortura ni métodos ilícitos, y deben ser útiles para el caso.

El abogado aclaró que, si bien las conversaciones con ChatGPT no cuentan con una protección de confidencialidad como la que existe entre médico y paciente o abogado y cliente, eso no significa que "estén por la libre".

En términos claros, las conversaciones podrían ser utilizadas en un proceso judicial, pero solo si un juez lo autoriza. Además, como los servidores de la IA no están en territorio nacional, la solicitud tendría que tramitarse mediante cooperación internacional.

Una vez que un organismo extranjero acceda a la información y la comparta con Costa Rica, también habría que considerar cómo están cifrados esos datos.

Como ejemplo, Lemaître mencionó el caso de WhatsApp: aunque el escenario es diferente, las comunicaciones en esa plataforma están protegidas por un modelo de cifrado, lo que impide su acceso.

Allanamientos y dispositivos electrónicos

Lemaître agregó que hay otro escenario en el que se podría acceder a conversaciones con ChatGPT: a través de un allanamiento judicial. Si durante una investigación se decomisan dispositivos como teléfonos o computadoras, estos pueden ser revisados a fondo si existe una orden de un juez.

Esto significa que las conversaciones con la IA no son confidenciales, y que podrían ser utilizadas en su contra en un proceso legal, ya sea mediante cooperación internacional o mediante la revisión directa de su dispositivo electrónico.

Usar la IA con responsabilidad

El experto también hizo un llamado a no ver a ChatGPT ni a otras inteligencias artificiales como un "oráculo" que lo sabe todo, sino como algoritmos que aprenden a partir de la información que los usuarios les suministran. Esa información condiciona las respuestas que brindan.

Lo que responda la IA puede ser incorrecto o no aplicar a nuestro contexto. Si formulamos la consulta (o prompt) de forma errónea, obtendremos una respuesta en consecuencia, porque el chatbot no comprende en el sentido humano del término, explicó.

Recomendaciones para los usuarios

Lemaître ofreció una serie de recomendaciones para quienes usan la IA:

  1. Leer las condiciones del servicio. Muchas veces aceptamos términos y condiciones sin saber a qué estamos dando nuestro consentimiento.
  2. Ser conscientes de lo que compartimos. Al usar ChatGPT, estamos alimentando un sistema que aprende; esa información podría usarse para entrenar modelos o ser vista por otros bajo ciertas condiciones.
  3. Evitar incluir datos personales o sensibles. Se puede formular una consulta sin revelar información privada.
  4. Conocer la tecnología que usamos y cómo utilizarla de manera responsable.
  5. Consultar a profesionales cuando sea necesario. Si requiere asesoría legal, médica o psicológica, lo más recomendable es acudir a un profesional humano, ya que la IA puede ofrecer una respuesta equivocada según cómo se redacte la consulta.

Comentarios
0 comentarios
OPINIÓNPRO