Casi ninguna innovación tecnológica en la memoria reciente ha tenido un impacto tan profundo como la IA. Desde escribir respuestas hasta crear arte visual sofisticado e incluso generar música, las herramientas de inteligencia artificial generativa como ChatGPT han capturado la imaginación del público. Su impacto es tal que las agencias reguladoras están ocupadas estableciendo barreras de seguridad para que estas herramientas de inteligencia artificial no terminen arrebatando empleos humanos o, en el peor de los casos, provoquen la perdición de la civilización humana.
Estas herramientas de IA están lejos de ser perfectas, especialmente en lo que respecta a su sesgo inherente. Pero parece que este sesgo no es sólo un defecto de estas herramientas de IA, ya que pueden afectar los pensamientos humanos y alterar las creencias, especialmente los niños. Según una investigación colaborativa de expertos del Trinity College de Dublín y la Sociedad Estadounidense para el Avance de la Ciencia (AAAS), estos modelos generativos de IA también pueden alterar las creencias humanas, especialmente en lo que respecta a sus percepciones sobre lo que la IA puede hacer y lo que pueden hacer. debe confiar.
Un tema recurrente en el artículo de investigación publicado en la revista Ciencia, es que cuando las personas creen firmemente que estos programas de IA generativa tienen conocimiento y confianza, es más probable que confíen en ellos. Y uno de los problemas más comunes que afectan a los modelos de IA generativa como ChatGPT, Bard y Bing Chat son las alucinaciones.
Cómo la IA engaña
La alucinación ocurre cuando un modelo de IA produce una respuesta que no formaba parte de sus datos de entrenamiento o una respuesta que no se esperaba de él, pero el modelo de IA la proporciona de todos modos, para complacer a su usuario humano. ChatGPT es notoriamente propenso a sufrir alucinaciones, al igual que Bard de Google. Uno de los escenarios de alucinaciones más comunes son los datos históricos. Al informar a ChatGPT sobre un encuentro ficticio entre dos personajes históricos, uno de ellos es Mahatma Gandhi. Respondió con confianza con un relato falso de Gandhi participando en un tiroteo como si fuera un evento histórico real.
Según el informe oficial institucional liberar nota de AAAS, «La IA está diseñada para fines de búsqueda y suministro de información; por el momento, puede ser difícil cambiar la opinión de las personas expuestas a información falsa o sesgada proporcionada por la IA generativa». El artículo señala que los niños son más susceptibles a los efectos nocivos de la IA.
Celeste Kidd, profesora de psicología de la Universidad de California, Berkeley y una de las coautoras del artículo, explicado en Twitter que las capacidades de los modelos de IA a menudo son sobrevaloradas, exageradas y poco realistas. Tales presentaciones públicas de IA. En su opinión, «crean una idea errónea de que estos modelos exceden el razonamiento a nivel humano y exacerban el riesgo de transmisión de información falsa y estereotipos negativos a las personas». Otro factor psicológico que está en juego aquí es el hecho de que los humanos a menudo forman opiniones y creencias basadas en un pequeño subconjunto de información a su disposición.
La IA es un canal de información defectuoso
Si la IA sirve como fuente de información crítica y conceptualización de ideas para una persona, resulta extremadamente difícil revisar esas creencias, incluso cuando se exponen a información correcta más adelante. Aquí es donde los modelos de IA generativa se vuelven peligrosos. Una IA no sólo puede hacer que una persona crea en información incorrecta porque tuvo alucinaciones, sino que sus propios prejuicios inherentes pueden impregnar la conciencia de un usuario humano.
El escenario se vuelve especialmente peligroso cuando se trata de niños, quienes son más propensos a creer en la información que encuentran fácilmente disponible a través de estos modelos generativos de IA en lugar de hacer su propia diligencia debida con investigaciones rigurosas obtenidas de Internet o fuentes de información convencionales, como libros. , padres o profesores.
El uso de modelos de IA generativa como ChatGPT en instituciones educativas ya se ha convertido en un tema de debate candente, lo que preocupa a los miembros del mundo académico no solo por el plagio, sino también por cómo está cambiando fundamentalmente el enfoque de recopilación de conocimientos de las mentes jóvenes y su inclinación a hacerlo. sus propias investigaciones y experimentaciones.
Kidd también destacó otro factor crucial: la certeza lingüística, con el que los humanos discuten la información. Ella señala que los humanos a menudo usan términos como «Creo» durante su comunicación para aclarar que la información que están transmitiendo podría ser su opinión o un recuerdo personal y, por lo tanto, es propensa a errores. Los modelos de IA generativa parlanchina como ChatGPT y Bard, por otro lado, no se basan en esos matices.
Un ciclo de confianza equivocada
«Por el contrario, los modelos generativos generan unilateralmente respuestas seguras y fluidas sin representaciones de incertidumbre ni la capacidad de comunicar su ausencia», señala Kidd. Estos modelos evitan dar una opinión sobre un tema delicado utilizando descargos de responsabilidad como «Como modelo de IA», o simplemente alucinan y elaboran información falsa que se presenta como una respuesta objetiva a una persona.
Cuanto mayor es la frecuencia con la que una persona está expuesta a información falsa, más fuerte es su creencia en dicha información errónea. Asimismo, la repetición de información sospechosa, especialmente cuando proviene de modelos de IA «confiables», hace aún más difícil evitar inculcar creencias falsas. Esto muy bien podría transformarse en un ciclo perpetuo de difusión de información falsa.
«La acción colaborativa requiere enseñar a todos cómo discriminar las capacidades reales de las imaginadas de las nuevas tecnologías», señala Kidd, y pide a los científicos, a los formuladores de políticas y al público en general que difundan información realista sobre la tecnología de inteligencia artificial de moda y, lo que es más importante, sobre sus capacidades.
«Estos problemas se ven exacerbados por intereses financieros y de responsabilidad que incentivan a las empresas a antropomorfizar los modelos generativos como inteligentes, sensibles, empáticos o incluso infantiles». dice coautor del artículo Abeba Birhane, profesor asistente adjunto en la Escuela de Informática y Estadística de Trinity.
solo esta empeorando
El documento señala que cuando los usuarios no están seguros, ese es el momento en que recurren a la IA como salida de información. Tan pronto como obtienen una respuesta, sea 100% precisa o no, sus dudas desaparecen y su curiosidad se desvanece porque ya se han formado una opinión. Por lo tanto, dejan de considerar o sopesar nueva información con el mismo tipo de urgencia que lo hicieron cuando la necesitaron por primera vez para formarse una opinión informada.
Lo preocupante es que la situación no parece mejorar ahora que los modelos de IA se han vuelto multimodales, lo que significa que pueden generar respuestas en múltiples formatos. ChatGPT y Bing Chat de Microsoft dan respuestas en forma de texto. Luego tenemos modelos de IA generativa de texto a imagen como Dall-E y MidJourney. Existen herramientas que pueden generar audio a partir de texto, de dominio público.
Con su actualización GPT-4, ChatGPT de OpenAI ya se ha vuelto multimodal. En todas sus iteraciones modales, especialmente en el lado visual, los sesgos una vez más levantan la cabeza. Al probar ChatGPT con un cineasta, resultó visiblemente inclinado hacia una narrativa anglófona centrada en Occidente cuando se trata de productos creativos como el arte, el lenguaje, la geografía y la cultura. Para una persona que no es consciente del problema de sesgo de la IA, resulta natural absorber la producción de la IA como información creíble y formar una creencia sólida construida sobre esa base defectuosa.