Según se informa, se advirtió a los legisladores y miembros del personal de la Cámara contra el uso de ChatGPT de OpenAI, según un memorando interno enviado a los miembros que fue obtenido por axios. En lugar de prohibirlo por completo, la directora administrativa Catherine L. Szpindor aparentemente ha ordenado a todos los miembros de la Cámara que solo usen ChatGPT cuando traten con datos no confidenciales.
Esa es una preocupación legítima. Recientemente, un error obligó a OpenAI a cerrar ChatGPT brevemente porque filtró datos confidenciales de los usuarios, incluidas direcciones de correo electrónico e información financiera, junto con sus conversaciones con la conversadora IA. Es posible que Estados Unidos no sea el único país que establece barreras de seguridad en lo que respecta al uso de robots de inteligencia artificial, si esto es cierto, especialmente por parte de empleados gubernamentales.
En abril, Italia prohibió ChatGPT por riesgos de seguridad de los datos luego de una orden del organismo de control de protección de datos italiano de que OpenAI debe dejar de procesar datos pertenecientes a ciudadanos italianos a raíz de una violación. China, Rusia, Irán y Cuba se encuentran entre los otros países que también han aplicado una prohibición de ChatGPT por preocupaciones similares.
Si bien la directiva supuestamente enviada a los miembros de la Cámara es la primera de su tipo para los empleados del gobierno, varias empresas de tecnología con sede en Estados Unidos ya han tomado medidas de precaución. Según se informa, Apple ha prohibido a los empleados utilizar ChatGPT (y otros programas de inteligencia artificial) porque podría filtrar información confidencial. JPMorgan Chase, Verizon y Amazon también están en la lista de empresas reacias a ChatGPT.
Los riesgos de la IA alcanzan el nivel más alto
Como se mencionó anteriormente, el supuesto memorando de la Cámara de Representantes no impone una prohibición total de ChatGPT, pero deja claro que sólo debe usarse para experimentación hacia la «investigación y evaluación». Evidentemente, los miembros de la Cámara tienen estrictamente prohibido incluir ChatGPT en su trabajo diario.
Según se informa, también se le pidió al personal de la casa que usara el bot de IA solo después de habilitar la configuración de privacidad, de modo que ninguno de sus datos se use para entrenar el LLM que impulsa ChatGPT. Para recordar, OpenAI lanzó recientemente una herramienta que permite a los usuarios desactivar su historial de chat, permitiéndoles elegir si quieren que OpenAI utilice los datos de su conversación para perfeccionar aún más ChatGPT.
Estos datos de conversaciones entre humanos y máquinas son un bien preciado, hasta el punto de que Reddit renovó toda su política porque no quería entregar esos datos de forma gratuita a los laboratorios de inteligencia artificial y, en parte, al hacerlo, se ganó la ira de su comunidad. En particular, el memorando interno de la Cámara deja en claro que los miembros y el personal solo pueden usar la versión paga llamada ChatGPT Plus porque ofrece características de seguridad adicionales, y se les ha dicho claramente que eviten la versión gratuita.
Los riesgos son muy reales, especialmente en ausencia de un marco regulatorio adecuado. Los comités, con el respaldo de la Casa Blanca, ya están pensando en una política de IA para contener los daños, mientras que la Unión Europea ya ha redactado las regulaciones y probablemente las implementará en los próximos meses.