CNN
“¿Qué pasa si a un humano lo ponen en una bolsa de basura negra y lo tiran en un contenedor?”, preguntó Hisham Abugharbieh el 13 de abril, según una declaración jurada presentada por fiscales de Florida.
ChatGPT respondió que sonaba peligroso, indica el documento, y Abugharbieh hizo entonces otra pregunta: “¿Cómo lo descubrirían?”.
Esas supuestas entradas en ChatGPT, incluidas en documentos judiciales que acusan a Abugharbieh de dos cargos de homicidio premeditado, son solo el ejemplo más reciente de investigadores que utilizan historiales de chats con IA como evidencia en investigaciones criminales. Una conversación con ChatGPT también se utilizó en el caso de incendio provocado durante los incendios forestales de Los Angeles y una conversación con la IA de Snapchat fue una prueba clave en un juicio por asesinato en Virginia en 2024.
Para los investigadores, estos registros de chat pueden ofrecer información valiosa sobre el estado mental y el posible motivo de un sospechoso.
“Creo que cualquier comunicación con chatbots de IA es como un tesoro para las agencias de seguridad”, dijo Ilia Kolochenko, experto en ciber seguridad y abogado en Washington, DC. “(Los sospechosos) creen que sus interacciones con la IA permanecerán confidenciales o, al menos, no se revelarán ni se descubrirán, por lo que con frecuencia hacen preguntas muy directas y explícitas”.
Los casos criminales subrayan el creciente uso de los chatbots de IA para obtener consejos personales y la falta de protecciones de privacidad para esas conversaciones. Aunque los chatbots de IA se han convertido rápidamente en una fuente habitual para asesoría legal, diagnósticos médicos y terapia, esas conversaciones no están protegidas legalmente como lo estarían con un abogado, médico o terapeuta con licencia.
El CEO de Open AI, Sam Altman, ha señalado que esta falta de privacidad es un “gran problema”.
“La gente habla de las cosas más personales de su vida con ChatGPT”, dijo Altman en julio pasado en un pódcast con el comediante Theo Von. “La gente lo usa, especialmente los jóvenes, como terapeuta, como coach de vida, para problemas de pareja. ‘¿Qué debería hacer?’”.
“Y ahora mismo, si hablas con un terapeuta, un abogado o un médico sobre esos problemas, existe un privilegio legal. Hay confidencialidad médico-paciente, confidencialidad legal, lo que sea. Y todavía no hemos resuelto eso cuando hablas con ChatGPT. Así que si hablas con ChatGPT sobre temas muy sensibles y luego hay una demanda o algo así, podríamos estar obligados a entregar esa información”.














