Los laboratorios de IA líderes en el mundo han aceptado resoluciones de gran alcance hacia el desarrollo y despliegue responsable de IA en una sesión informativa en la Casa Blanca. Entre ellos se encuentra un acuerdo histórico para construir un sistema de producción de agua que ayudaría a identificar el trabajo generado por IA.
La sesión informativa contó con representantes de siete de los nombres más importantes del mundo en el campo de la IA (OpenAI, fabricante de ChatGPT, Microsoft, Google, Amazon, Meta, Anthropic e Inflection) que acordaron construir un sistema de huellas dactilares que frenaría los riesgos de fraude y engaño mediante el uso de trabajo generado por IA.
La idea central es «desarrollar mecanismos técnicos sólidos para garantizar que los usuarios sepan cuándo el contenido se genera con IA, como un sistema de marca de agua». Piense en ello como huellas dactilares de ADN, pero para trabajos generados por IA como párrafos de texto, líneas de código, una ilustración visual o un clip de audio.
Es posible que la marca de agua no sea visible, pero estaría integrada a nivel técnico para que la verificación sea probablemente infalible. Ya existen herramientas de verificación de IA, pero son propensas a errores, lo que puede tener consecuencias devastadoras a nivel profesional y académico. Si bien los maestros y profesores desconfían de que los estudiantes usen herramientas de IA para hacer trampa, a los estudiantes les preocupa que las herramientas de verificación de IA puedan marcar incorrectamente su trabajo como plagiado.
Incluso OpenAI advierte que su herramienta clasificadora para distinguir entre texto escrito por humanos y escrito por máquina «no es totalmente confiable». En este momento, los detalles sobre este sistema de marcas de agua de IA son escasos, pero definitivamente es un paso en la dirección correcta, especialmente en un momento en que las herramientas de IA plantean riesgos laborales y han abierto un mundo de estafas.
Tomando pasos positivos y colectivos
La atención se centra en la seguridad, la transparencia, la seguridad y la confianza. Las empresas invitadas a la sesión informativa de la Casa Blanca acordaron realizar pruebas internas y externas de sus herramientas de IA por parte de expertos antes de que pasen al dominio público. Los laboratorios de IA también prometieron que no aceptarán las amenazas planteadas por la inteligencia artificial, comprometiéndose a compartirla con expertos de la industria, expertos académicos y la sociedad civil.
En cuanto al aspecto de seguridad, las empresas se comprometieron a crear guardias de seguridad internos y solo después de pruebas rigurosas lanzarán sus modelos de IA. Para garantizar que se minimice el riesgo de ciberseguridad, también se acordó que estos incondicionales de la IA permitirán que expertos independientes verifiquen sus productos y que también habrá un camino abierto para informar vulnerabilidades.
Otra parte notable del compromiso es que los laboratorios de IA informarán sobre las «capacidades, limitaciones y áreas de uso apropiado e inapropiado de sus sistemas de IA». Esto es de crucial importancia, porque los sistemas de IA de generación actual tienen algunos problemas bien conocidos con precisión y sesgo en múltiples formas.
Finalmente, los fabricantes de herramientas de IA también acordaron dedicar esfuerzos y recursos al desarrollo de IA de una manera que contribuya al bienestar de la sociedad, en lugar de dañarla. Se harían esfuerzos para utilizar la IA para resolver problemas como la crisis climática y la investigación del cáncer.
Los expertos en IA y las partes interesadas de la industria ya han firmado compromisos para el desarrollo responsable de la IA, y este es otro paso ético para la IA.