La inteligencia artificial es capaz de distorsionar nuestras creencias a base de mentiras y sinsentidos

Los modelos pueden transmitir sesgos e información falsa a los usuarios, según advierten dos especialistas en una reciente publicación en Science. Llaman a ofrecer una visión realista e informada del funcionamiento de estas aplicaciones y a corregir la desinformación y la alharaca existentes en torno a estas nuevas tecnologías

¿Dónde están los 'verificadores de datos' cuando realmente se los necesita? Porque el excepcional marketing de las aplicaciones de inteligencia artificial (IA), incluidos los vaticinios sobre su potencial superador en muchas de las tareas que realizan hoy los seres humanos, ha logrado un boom de usuarios, que en su mayoría ignora las serias falencias o puntos débiles de este tipo de tecnologías. En concreto, la inteligencia artificial generativa puede crear ni más ni menos que información falsa y sesgada capaz de difundirse amplia y repetidamente hasta arraigarse en las creencias de la gente, según advierten Celeste Kidd, del departamento de Psicología de la Universidad de California Berkeley, y Abeba Birhane, profesora adjunta en la Facultad de Informática y Estadística del Trinity College de Dublin e investigadora principal en Inteligencia Artificial fiable en la Fundación Mozilla. En pocas palabras, estamos ante una nueva forma de poderosa manipulación ‘inadvertida’ de nuestros sistemas de creencias, que se suma a otras, como los medios masivos de comunicación.

En un artículo publicado el jueves último en la revista Science, Kidd y Birhane alertan que las personas son más influenciables cuando buscan información y se aferran más a ella una vez que la reciben. Sugieren que, dado que gran parte de la IA generativa está diseñada por el momento con fines de búsqueda y suministro de información, puede resultar difícil hacer cambiar de opinión a las personas expuestas a información falsa o sesgada proporcionada por este tipo de sistema.

En el espacio de unos pocos meses, los modelos de IA generativa, como ChatGPT, Bard de Google y Midjourney, fueron adoptados por un número cada vez mayor de personas en diversos ámbitos profesionales y personales. “Pero cada vez son más las investigaciones que subrayan que estas aplicaciones están introduciendo sesgos y estereotipos negativos en sus usuarios, además de generar y difundir masivamente información aparentemente precisa pero sin sentido. Lo preocupante es que los grupos marginados se ven desproporcionadamente afectados por la fabricación de esta información sin sentido”, escriben las autoras del artículo en Science.

"Ahora que esta tecnología es joven, existe la oportunidad de realizar estudios interdisciplinarios para evaluar estos modelos y medir su impacto en las creencias y prejuicios humanos antes y después de la exposición a modelos generativos, antes de que estos sistemas se adopten más ampliamente y se integren más profundamente en otras tecnologías cotidianas", evalúan.

La fabricación masiva de información tiene el potencial de influir en la creencia humana a medida que los modelos que la impulsan se hacen cada vez más comunes, poblando internet. No sólo la gente obtiene información de internet, sino que gran parte del material de entrenamiento primario utilizado por los modelos de IA también procede de ahí. “En otras palabras, se desarrolla un bucle de retroalimentación continua en el que los sesgos y los sinsentidos se repiten y aceptan una y otra vez”, subrayan Kidd y Birhane, quienes llaman a los psicólogos y a los expertos en aprendizaje automático a que colaboren sin demora a fin de evaluar la magnitud del problema e idear soluciones.

"Las personas comunican habitualmente la incertidumbre mediante frases como 'creo', retrasos en las respuestas, correcciones y disfluencias en el habla. En cambio, los modelos generativos dan respuestas seguras y fluidas sin representaciones de incertidumbre ni capacidad para comunicar su ausencia. Como resultado, esto puede causar una mayor distorsión en comparación con las respuestas humanas y llevar a la gente a aceptar las respuestas como objetivamente exactas”, argumentan estas investigadoras, al tiempo que ponen de manifiesto que estos problemas “se ven exacerbados por los intereses financieros y de responsabilidad civil que incentivan a las empresas a antropomorfizar los modelos generativos como inteligentes, sensibles, empáticos o incluso infantiles".

Especialmente preocupante es el hecho de que no es fácil deshacerse de los sesgos o la información fabricada una vez que ha sido aceptada por un individuo. “Los niños corren un riesgo especialmente alto, ya que son más vulnerables a la distorsión de las creencias al ser más propensos a antropomorfizar la tecnología y ser más fácilmente influenciables”, aclaran.

“Lo que se necesita es un análisis rápido y detallado que mida el impacto de los modelos generativos en las creencias y prejuicios humanos”, insisten.

Para Kidd y Birhane, "lo más eficaz sería centrar los estudios y las consiguientes intervenciones en las repercusiones sobre las poblaciones marginadas, que se ven afectadas de forma desproporcionada tanto por las invenciones como por los estereotipos negativos de los resultados de estos modelos”.

Además, “se necesitan recursos para la educación del público, los responsables políticos y los científicos interdisciplinarios, a fin de ofrecer una visión realista e informada del funcionamiento de los modelos generativos de IA y corregir la desinformación y la alharaca existentes en torno a estas nuevas tecnologías", enfatizan las autoras del artículo.

Kidd y Birhane hacen hincapié en que las capacidades sobredimensionadas, poco realistas y exageradas impregnan la forma en que se presentan los modelos de IA generativa, lo que contribuye a la idea popular errónea de que estos modelos superan el razonamiento de nivel humano y agrava el riesgo de transmisión de información falsa y estereotipos negativos a las personas.

Según las investigadoras estos modelos contienen estereotipos y sesgos raciales, de género y de clase conocidos a partir de sus datos de entrenamiento y otros factores estructurales, que se transmiten a los resultados del modelo. “Los grupos marginados son los más afectados por estos sesgos. Además, estos modelos suelen fabricar información. Algunos creadores de modelos han reconocido estos problemas, pero han sugerido que, para solucionarlos, la gente debe utilizar los sistemas para revelar tendencias en los resultados que muestran problemas”, detallan, pero aclaran que “esto ignora que las distorsiones de las creencias humanas causadas por modelos generativos de AI no pueden corregirse fácilmente una vez descubiertos los problemas”.

Además, la naturaleza reactiva de este enfoque no reconoce un problema clave de los actuales sistemas de IA generativa: la incapacidad de su arquitectura para distinguir la realidad de la ficción, agregan.

Tres principios básicos de la psicología humana pueden ayudar a tender un puente de comprensión sobre lo que está en juego cuando se debaten opciones de regulación y política, escriben estas especialistas: “Estas ideas de la psicología pueden conectar con el aprendizaje automático, pero también con las de la ciencia política, la educación, la comunicación y los demás campos que están considerando el impacto de los sesgos y la desinformación en las creencias de la población”.

Las personas forman creencias más fuertes y duraderas cuando reciben información de agentes que consideran seguros y bien informados, desde la primera infancia. “Por ejemplo, los niños aprendían mejor cuando eran enseñados por un agente que demostraba su conocimiento del tema, en comparación con otro que no lo hacía. El hecho de que los niños muy pequeños evalúen la capacidad de conocimiento de los agentes y la utilicen para fundamentar sus creencias y su comportamiento exploratorio apoya la teoría de que esta habilidad refleja una capacidad evolucionada fundamental para el desarrollo del conocimiento de nuestra especie”, puntualizan.

Una de las claves vinculadas con el peligro al que apuntan Kidd y Birhane es el hecho de que el número de exposiciones a información fabricada predice lo arraigada que se vuelve la creencia en esa información. “Una mayor repetición predijo una mayor fuerza en la creencia de la persona en una afirmación falsa, incluso cuando la afirmación contradice los conocimientos previos de la persona”, remarcan, y añaden que la tendencia a integrar modelos de IA generativa en las tecnologías existentes como los motores de búsqueda y los teléfonos inteligentes casi seguramente significará una mayor exposición a las invenciones y los sesgos de estos modelos.

Es por ello que para concluir Kidd y Birhane insisten en que la acción colaborativa requiere enseñar a todos a distinguir las capacidades reales de las imaginarias de las nuevas tecnologías para centrarse en abordar retos reales y concretos.