El jefe de inteligencia artificial insta a la cautela, ya que las conversaciones con ChatGPT podrían convertirse en evidencia legal detectable
En una sincera aparición en el podcast This Past Weekend, Sam Altman, CEO de OpenAI, advirtió a los usuarios que no traten a ChatGPT como un confidente. Si bien millones de personas confían en la herramienta de IA para todo, desde asesoramiento emocional hasta revisión de contratos, Altman aclaró que las conversaciones con la plataforma no están protegidas por ningún tipo de confidencialidad legal.
A diferencia de las interacciones con un terapeuta, un abogado o un médico, que están protegidas por el privilegio, cualquier cosa ingresada en ChatGPT podría, según la ley, estar sujeta a citaciones o solicitudes de descubrimiento.

“Es un verdadero desastre”: Altman pide garantías legales en la era de la IA
Altman no se anduvo con rodeos al hablar de la incertidumbre legal que rodea las interacciones de los usuarios con la IA. "Es un caos", dijo, refiriéndose a la falta de protección de la confidencialidad. Instó a los legisladores a implementar nuevos estándares de privacidad que se ajusten a la rápida evolución de la tecnología.
Sus comentarios surgen tras la creciente preocupación de que personas, incluidos adolescentes, estén ingresando información muy personal, y en ocasiones legalmente sensible, en ChatGPT. Esta información incluye admisiones de conductas ilegales, síntomas médicos y disputas contractuales privadas.
Actualmente, no existe ningún mecanismo legal que impida el acceso a dichos datos mediante órdenes judiciales. Esto significa que cualquier cosa que un usuario escriba podría ser expuesta en un tribunal, potencialmente en su contra.
Expertos legales: “Trátenlo como un tablón de anuncios público”
Los profesionales del derecho coinciden con las preocupaciones de Altman y advierten que los usuarios que comparten datos confidenciales con herramientas de IA podrían estar comprometiendo su propia privacidad. A diferencia de las conversaciones confidenciales con médicos o abogados, las conversaciones con IA no implican una expectativa de secreto.
“Piénsalo dos veces antes de pegar tu acuerdo de confidencialidad, historial médico o confesiones en ChatGPT”, advirtió un abogado especializado en privacidad. “Legalmente, equivale a publicarlos en un tablón de anuncios comunitario”.
Además, si bien ChatGPT puede ofrecer sugerencias útiles, no garantiza su precisión, especialmente en asuntos legales, financieros o de salud complejos. Se recomienda a los usuarios que consideren las herramientas de IA como fuentes de orientación complementarias, no sustitutivas.
Manténgase informado sobre el panorama cambiante de la inteligencia artificial, la privacidad y la tecnología suscribiéndose al boletín de Calle Ocho News.
Para una exposición estratégica a la comunidad informada y comprometida del sur de Florida, comuníquese hoy con Pressnet Corp. para anunciar en Calle Ocho News.



Add Comment