La reciente exposición de información personal de contacto a través de chatbots de inteligencia artificial, como el Gemini de Google, ha llevado a un creciente conjunto de preocupaciones sobre la privacidad del usuario. Los casos reportados incluyen a un ingeniero de software israelí que recibió un mensaje directamente a su WhatsApp con instrucciones erróneas de servicio al cliente que contenían su número personal. Este tipo de incidentes no solo pone en duda la seguridad de los datos, sino que también resalta una falta alarmante de protección para la información privada, dejando a los damnificados sin una forma clara de evitar futuros problemas de privacidad.
Según DeleteMe, una compañía de gestión de privacidad digital, las consultas relacionadas con la exposición de datos personales han aumentado un asombroso 400% en los últimos siete meses. Los usuarios están cada vez más preocupados por el mal uso de su información personal por parte de modelos de lenguaje de IA, que, en algunos casos, generan respuestas que incluyen no solo sus datos de contacto, sino también información sintética plausible que podría pertenecer a otros. Este incremento en las solicitudes refleja un miedo creciente entre los consumidores sobre cómo sus datos están siendo procesados y utilizados por tecnologías emergentes.
El caso de Daniel Abraham, quien recibió un mensaje de un extraño a través de WhatsApp basado en una instrucción errónea del chatbot Gemini, subraya la necesidad urgente de abordar estas brechas de privacidad. Tras investigar el origen de su número publicado, Abraham encontró que había estado disponible en un foro de internet desde 2015, lo que plantea cuestiones sobre la longevidad de la información personal en línea y su reutilización por modelos de inteligencia artificial. Esta situación pone en la mira la responsabilidad de las empresas de tecnología en la gestión y protección de los datos personales en un mundo cada vez más digitalizado.
Investigadoras de la Universidad de Washington, como Meira Gilbert, han experimentado de primera mano la ineficacia de las medidas de seguridad integradas en estos modelos de IA. En una búsqueda aparentemente inocente sobre una amiga, el chatbot no solo devolvió información relevante sobre su trabajo, sino que también expuso su número de teléfono. Este incidente alarmó a Gilbert y a su amiga Yael Eiger, quien, aunque había compartido su número para un taller, no esperaba que este estuviera disponible de manera tan expuesta a través de un motor de búsqueda. Los resultados de esta interacción abren un debate sobre la visibilidad de la información privada en la era de la inteligencia artificial.
Ante la falta de legislación efectiva que regule cómo se recopila y utiliza la información personal en el entrenamiento de modelos de lenguaje, los expertos, como Jennifer King, sugieren que las políticas existentes son insuficientes. Aunque idealmente los consumidores deberían tener la capacidad de solicitar la eliminación de su información personal, las leyes actuales están diseñadas principalmente para proteger los datos que los usuarios proporcionan directamente a las empresas. La presión recae sobre los desarrolladores para que implementen medidas más eficientes que eliminen la posibilidad de exponer información sensible, un objetivo que actualmente resulta en una lucha constante y sin respuestas claras en el horizonte.










