El logotipo de OpenAI se muestra en un
teléfono celular con una imagen de computadora generada por el modelo de texto
a imagen Dall-E de ChatGPT, el 8 de diciembre de 2023, en Boston.
(Michael Dwyer /
Associated Press)
WASHINGTON —
Cuando el investigador de
desinformación Wen-Ping Liu investigó los esfuerzos de China para influir en
las recientes elecciones de Taiwán utilizando cuentas falsas en las redes
sociales, algo inusual se destacó en los perfiles más exitosos.
Eran mujeres, o al menos
eso es lo que parecían ser. Los perfiles falsos que decían ser mujeres
obtuvieron más participación, más ojos y más influencia que las cuentas
supuestamente masculinas.
“Fingir ser una mujer es la
forma más fácil de ganar credibilidad”, dijo Liu, investigador del Ministerio
de Justicia de Taiwán.
Ya sean agencias de propaganda chinas
o rusas, estafadores en línea o chatbots de IA, vale la pena ser mujer, lo que
demuestra que, si bien la tecnología puede volverse cada vez más sofisticada,
el cerebro humano sigue siendo sorprendentemente fácil de hackear gracias en
parte a los antiguos estereotipos de género que han migrado del mundo real al
virtual.
Durante mucho tiempo la gente ha asignado
características humanas, como el género, a objetos inanimados —los barcos son
un ejemplo_, por lo que tiene sentido que los rasgos humanos hagan que los
perfiles falsos de las redes sociales o los chatbots sean más atractivos. Sin
embargo, las preguntas sobre cómo estas tecnologías pueden reflejar y reforzar
los estereotipos de género están recibiendo atención a medida que ingresan al
mercado más asistentes de voz y chatbots habilitados para inteligencia
artificial, desdibujando aún más la línea entre hombre (y mujer) y máquina.
“Quieres inyectar algo de emoción y calidez y una
manera muy fácil de hacerlo es elegir el rostro y la voz de una mujer”, dijo
Sylvie Borau, profesora de marketing e investigadora de internet en Toulouse,
Francia, cuyo trabajo ha descubierto que los usuarios de internet prefieren
bots “femeninos” y los ven como más humanos que las versiones “masculinas”.
La gente tiende a ver a las mujeres como más cálidas,
menos amenazantes y más agradables que los hombres, dijo Borau a The Associated
Press. Mientras tanto, a menudo se percibe que los hombres son más competentes,
aunque también más propensos a ser amenazantes u hostiles. Debido a esto,
muchas personas pueden estar, consciente o inconscientemente, más dispuestas a
interactuar con una cuenta falsa que se hace pasar por femenina.
Cuando el director general de OpenAI, Sam Altman,
estaba buscando una nueva voz para el programa ChatGPT AI, se acercó a Scarlett
Johansson, quien comentó que Altman le dijo que los usuarios encontrarían su
voz “reconfortante”. Hace unos años, la actriz dio voz a una asistente de
computadora en la película “Her”. Johansson rechazó la solicitud de Altman y
amenazó con demandar cuando la compañía utilizó lo que ella consideró una voz
“inquietantemente similar”. OpenAI puso la nueva voz en espera.
Las fotos de perfil femeninas, en particular aquellas
que muestran mujeres con piel perfecta, labios exuberantes y ojos muy abiertos
con atuendos reveladores, pueden ser otro atractivo online para muchos hombres.
Los usuarios también tratan a los bots de manera
diferente según su sexo percibido: la investigación de Borau ha encontrado que
los chatbots “femeninos” tienen muchas más probabilidades de recibir acoso
sexual y amenazas que los bots “masculinos”.
Los perfiles femeninos en las redes sociales reciben
en promedio más de tres veces más visitas en comparación con los de los
hombres, según un análisis de más de 40.000 perfiles realizado para AP por
Cyabra, una empresa tecnológica israelí que se especializa en la detección de
bots. Cyabra descubrió que los perfiles femeninos que dicen ser más jóvenes
obtienen la mayor cantidad de visitas.
“Crear una cuenta falsa y presentarla como una mujer
ayudará a que la cuenta tenga más alcance que si se le presenta como un
hombre”, según el informe de Cyabra.
Las campañas de influencia en línea montadas por
naciones como China y Rusia han utilizado durante mucho tiempo a mujeres falsas
para difundir propaganda y desinformación. Estas campañas a menudo explotan la
opinión de la gente sobre las mujeres. Algunas parecen abuelas sabias y
cariñosas que imparten sabiduría casera, mientras que otras imitan a mujeres
jóvenes, convencionalmente atractivas, ansiosas por hablar de política con
hombres mayores.
El mes pasado, investigadores de la firma NewsGuard
descubrieron que se utilizaron cientos de cuentas falsas, algunas con imágenes
de perfil generadas por inteligencia artificial, para criticar al presidente
Joe Biden. Sucedió después de que algunos partidarios de Trump comenzaran a
publicar una foto personal con el anuncio de que “no votarán por Joe Biden”.
Si bien muchas de las publicaciones eran auténticas,
más de 700 procedían de cuentas falsas. La mayoría de los perfiles afirmaban
ser mujeres jóvenes que vivían en estados como Illinois o Florida; uno se
llamaba PatriotGal480. Pero muchas de las cuentas usaban un lenguaje casi
idéntico y tenían fotos de perfil generadas por inteligencia artificial o
robadas a otros usuarios. Y aunque no pudieron decir con certeza quién operaba
las cuentas falsas, encontraron docenas con vínculos a países como Rusia y
China.
La red social X eliminó las cuentas después de que
NewsGuard se comunicara con la plataforma.
Un informe de la ONU sugirió que hay una razón aún más
obvia por la que tantas cuentas falsas y chatbots son femeninos: fueron creados
por hombres. El informe, titulado “¿Son sexistas los robots?”, analizó las
disparidades de género en las industrias tecnológicas y concluyó que una mayor
diversidad en la programación y el desarrollo de la IA podría conducir a menos
estereotipos sexistas integrados en sus productos.
Para los programadores deseosos de hacer que sus
chatbots sean lo más humanos posible, esto crea un dilema, dijo Borau: si
seleccionan una persona femenina, ¿están fomentando puntos de vista sexistas
sobre las mujeres de la vida real?
“Es un círculo vicioso”, señaló Borau. “Humanizar la
IA podría deshumanizar a las mujeres”.