El mundo de la Inteligencia Artificial Generativa se basa en un modelo de enfrentar un Generador contra un Discriminador. El usuario que quiere algo de ella le escribe lo que quiere al Generador, y el Discriminador revisa el trabajo del Generador para ver si lo ha conseguido o no. De esto os hablé largo y tendido en un artículo que os dejé publicado por aquí que llamé “El Misterio de la Creación” donde contaba en detalle este proceso.
Aquí os explico cómo se hace esto para que tengas una IA haciéndote fotos molonas todo el rato. Y como os contaba en el artículo anterior, el de El Misterio de la Creación, se puede utilizar para pedir cualquier imagen, como un gato sobre un monopatín, o un elefante rosa. Esto lo puedes probar en el Copilot que trae el buscador de Microsoft, llamado Bing.com. Donde basta con que le digas que te cree una imagen de lo que sea, y te creará cuatro.
Esto se ha puesto muy de moda, porque los resultados son muy realistas. Así que muchas de las publicaciones en blogs, en revistas, en libros, están empezando a usar estas imágenes creadas por IA, que en algún caso copian los estilos de grandes artistas. Por ejemplo, puedes crear imágenes que copien los estilos de los grandes dibujantes de cómics de superhéroes, como estas que copian el estilo de Frank Miller.
Así que no es raro pensar que las grandes tecnológicas, como Google o Microsoft, se hayan volcado con esta tecnología para que sus Inteligencia Artificiales creen imágenes a petición de los usuarios. Pero claro, como ya he contado muchas veces, las Inteligencias Artificiales Generativas tienen sesgos, y por eso suelen crear hombres cuando se les pide que cree “a boss”, o mujeres cuando se pide “a nurse”. Y esto no está bien, porque prolonga la existencia de estereotipos.
Yo estoy a favor de que Google y Microsoft arreglen sus sesgos de género por defecto en los servicios de traducción, y tengo incluso una campaña abierta en Change.ORG para que los eviten. Vamos, que tampoco estoy pidiendo tanto, estoy pidiendo que cuando se inventen el género avisen a los usuarios.
Es decir, si alguien pide la traducción de un texto como “the judge told the nurse to call the engineer”, si lo traduce como “el juez le dijo a la enfermera que llamara al ingeniero”, ha aplicado sesgo de género por defecto a judge, nurse y engineer: que al menos avise al usuario indicando que se ha inventado el género en esas palabras en la traducción.
Pero eso es una cosa, y otra cosa muy distinta es que cambiemos la historia, y es que en Internet ha corrido cómo la pólvora un experimento hecho con la inteligencia artificial Gemini de Google, donde se le ha pedido que haga imágenes de soldados alemanes de la II Guerra Mundial… y se les ha ido la mano con los filtros de diversidad.
No soy muy bueno en historia, que yo soy de los que fue por Ciencias Puras en el Bachillerato, pero creo recordar por las películas que de estas cuatro imágenes hay tres que son poco probable que fueran soldados alemanes de 1943.
Como os podéis imaginar, Twitter ha comenzado a hacer sorna de este hecho, y es que todas las imágenes históricas que le pedías a Google Gemini pasaban por el filtro de diversidad para visibilizar a las minorías, y salían cosas muy curiosas como estos vikingos.
Como os podéis imaginar, Google ha dicho que lo va a arreglar, que se les ha ido la mano queriendo hacer un bien, y nos ha dejado muchos memes en la red, además de imágenes sorprendentes, como estas de una pareja alemana de 1820.
Si antes era difícil encontrar gente que conociera medianamente la historia de otros países —y del suyo propio—, con este tipo de reescritura por error de la historia, va a ser más complejo todavía que la gente la conozca realmente, así que la labor de preservar el conocimiento del pasado va a ser muy valiosa, que ya no lo intentan reescribir solo algunos interesados, también lo hace la IA por error.
Zenda es un territorio de libros y amigos, al que te puedes sumar transitando por la web y con tus comentarios aquí o en el foro. Para participar en esta sección de comentarios es preciso estar registrado. Normas: