Deprecated: Methods with the same name as their class will not be constructors in a future version of PHP; GDLR_Import has a deprecated constructor in /var/www/vhosts/zenda.trestristestigres.com/httpdocs/wp-content/plugins/goodlayers-importer/goodlayers-importer.php on line 28
Cibercircus (III): Un mundo hecho a medida - Gabri Rodenas - Zenda
Warning: is_dir(): open_basedir restriction in effect. File(/usr/share/nginx/html/wp-content/plugins/wpdiscuz/themes/default) is not within the allowed path(s): (/var/www/vhosts/zenda.trestristestigres.com/:/tmp/) in /var/www/vhosts/zenda.trestristestigres.com/httpdocs/wp-content/plugins/wpdiscuz/forms/wpdFormAttr/Form.php on line 157

Cibercircus (III): Un mundo hecho a medida

La precisión y exactitud publicitaria deja lugar a pocas dudas. A fin de cuentas, no parece del todo habitual que Google inserte un banner sobre crema para hemorroides, pañales para adultos o pienso para cachorros de gato con dificultades urinarias. A menos, claro está, que hayas mostrado de un modo un otro esa necesidad. ¿Se...

Tal vez te hayas preguntado alguna vez cómo es posible que tu buscador de Internet te recomiende un artículo, producto o servicio que no has buscado en la Red, pero sobre el cual has estado hablando con tu pareja, con tu familia o con tus amigos y seres queridos. O incluso con tu mascota (¡miiaaaauu!).

La precisión y exactitud publicitaria deja lugar a pocas dudas. A fin de cuentas, no parece del todo habitual que Google inserte un banner sobre crema para hemorroides, pañales para adultos o pienso para cachorros de gato con dificultades urinarias. A menos, claro está, que hayas mostrado de un modo un otro esa necesidad.

¿Se trata de mera casualidad? ¿Acaso nuestro teléfono móvil, nuestro Smart TV, nuestro sistema domótico, nuestros altavoces inteligentes o nuestro hornos microondas de última generación escuchan nuestras conversaciones?

"La afirmación de que Alexa graba nuestras conversaciones privadas fue corroborada por varios trabajadores de la empresa fundada por Jeff Bezos a la agencia Bloomberg"

En 2018, el MIT Technology Review publicó un artículo firmado por Rachel Metz titulado: «Alexa graba conversaciones privadas sin permiso, y es espeluznante». Para quien aún no lo sepa, seguramente nadie que esté leyendo este texto, Alexa no es una vecina cotilla, sino el asistente virtual creado por Amazon (el equivalente al Siri de Apple —que, por mucha conversación que nos dé, tampoco es una amiga, ni siquiera un ser humano—).

La afirmación de que Alexa graba nuestras conversaciones privadas fue corroborada por varios trabajadores de la empresa fundada por Jeff Bezos a la agencia Bloomberg. Las excusas aducidas se centraban básicamente en que aquellas escuchas, en ocasiones aleatorias, tenían por finalidad mejorar el sistema de reconocimiento y comprensión del lenguaje natural. En otras palabras: perfeccionar el sistema de inteligencia artificial (AI), del que te hablaré en otra entrega. Y de hecho, todo apunta a que lo han logrado, ya que el sistema es tan sofisticado que es capaz de «predecir» cuándo tendremos que cambiar de coche (y qué modelo es el más adecuado para nosotros, «casualmente» en base a nuestra profesión y/o ingresos) o, quizá, cuándo nuestro matrimonio ha tocado a su fin (recomendándonos un buen abogado matrimonialista… o una empresa de mudanzas).

En principio, aunque se trata de una sospecha generalizada, no le concedemos mayor importancia porque damos por sentado que la finalidad de tales prácticas se reduce al ámbito de lo comercial. Asumiendo la insidiosa presencia de la publicidad —una suerte de mal menor y una necesidad para las empresas, especialmente aquellas que no nos cobran directamente para sostenerse y cuyos servicios utilizamos—, convenimos que la propaganda personalizada de acuerdo con nuestros gustos e intereses no es el mayor de los desastres.

Ahora bien, como reza la frase atribuida al bloguero Andrew Lewis: «Si no pagas por algo, no eres el cliente; eres el producto».

"¿El mundo es el mismo para todos nosotros?"

La pregunta acerca de la existencia de un mundo exterior, objetivo, ajeno a nuestras impresiones es un clásico de la filosofía, especialmente de la rama dedicada a la teoría del conocimiento o la filosofía de la mente. Dar una respuesta afirmativa a dicha cuestión es algo intuitivo, pero cuando tratamos de argumentarlo la cosa se complica. Y así ha sido desde Descartes, pasando por Jonathan Dancy, hasta llegar a Hilary Putnam. ¿Nuestros sentidos nos engañan? ¿Somos simples cerebros en una cubeta, sometidos a los caprichos de un científico (maligno o benigno)? ¿Estamos condenados al solipsismo (la doctrina filosófica que sostiene que el sujeto pensante, es decir, tú y yo, no puede afirmar ninguna existencia aparte de la suya, de cada uno de nosotros)? ¿Vivimos en Matrix?

A quien se sienta inclinado a explorar esos territorios, lo remito a los citados autores. Eso sí, te advierto que sus textos no son nada fáciles de leer y que tal vez te entren ganas de echarte una siestecita. Mi consejo, si eso te sucede, es que no te prives de ello. Es lo que un gato haría sin pensárselo dos veces, y podemos aprender mucho de ellos.

Pero dentro del marco delimitado por este ensayo, el interrogante es más modesto: ¿el mundo es el mismo para todos nosotros?

Lejos de los experimentos mentales que tanto parecen gustar a los filósofos, hay uno que puedes realizar cómodamente desde el sofá de tu salón, en un aula o en la terraza de una cafetería. Puedes realizarlo en compañía de tus amigos o a distancia. Consiste en pedir a varias personas que busquen la misma palabra en el buscador de Internet. ¿Arrojará el buscador los mismos resultados? Aun a riesgo de destriparte el desenlace, la respuesta es no. El resultado será todavía más impactante si dichas personas viven en zonas geográficas diferentes o si pertenecen a estratos sociales diferentes, o si su punto de vista político e ideológico se halla muy alejado de los nuestros. Haz la prueba, ¡lo que sigue a continuación te sorprenderá y no te dejará indiferente! (la sombra del clickbait es alargada, no me lo tengas en cuenta).

"Tu buscador te ofrecerá resultados muy diferentes a los obtenidos por tus amigos. En definitiva, te ofrecerá un mundo hecho a tu medida"

Tal vez este experimento siga sin ofrecernos una respuesta definitiva sobre el trasfondo ontológico de la cuestión, pero sí ofrece algunas conclusiones que merece la pena tener en cuenta y que pueden resumirse en la siguiente afirmación: en función de nuestra zona geográfica, circunstancias personales, historial de búsquedas, intereses, género y un sinfín de variables, obtendremos resultados diferentes. Quizá la primera entrada, o las dos primeras entradas, puedan coincidir. Y esto con un poco de suerte, y entiendo por suerte aquí la mera estadística. Lo que habitualmente es más buscado estará en la primera o primeras posiciones (hay gente y también robots que se ocupan de que así sea). Pero a partir de ahí, advertirás que tu buscador te ofrecerá resultados muy diferentes a los obtenidos por tus amigos. En definitiva, te ofrecerá un mundo hecho a tu medida.

Si, como sostiene el filósofo de origen vienés Ludwig Wittgenstein en el aforismo 5.6 del Tractatus Logico-Philosohicus, «los límites de mi lenguaje significan los límites de mi mundo», cabe preguntarse si los límites de las imágenes e información que recibimos también significan los límites de nuestro mundo (del mundo de cada uno de nosotros, de tu mundo).

Eli Pariser acuñó en 2017, en su obra El filtro burbuja: Cómo la web decide lo que leemos y lo que pensamos, el término homónimo. La metáfora del «filtro burbuja» hace referencia a dos aspectos: el primero a la existencia de un filtro que permite que ciertos contenidos lleguen a nosotros, excluyendo necesariamente otros, y, el segundo, a un modelo en forma de burbuja que nos protege o aísla de esos materiales y realidades desechados por el algoritmo.

Varias cuestiones surgen de manera inmediata: quién determina, y con qué fines, qué materiales son asimilados y a cuáles se les impide el paso, en base a qué criterios y para qué.

Jaron Lanier —uno de los pioneros de la realidad virtual, quien contribuyó a popularizar el término en la década de los ochenta del pasado siglo, al que no encontrarás en redes sociales, y que es un fan de los instrumentos musicales exóticos—, en su libro Diez razones para borrar tus redes sociales de inmediato, nos ofrece algunas pistas, algunas de las cuales reproducen un esquema clásico: «Sigue la pista del dinero».

Pero antes de entrar a discutir esta metodología resulta útil hacer algunas precisiones.

"Los algoritmos, bastante útiles para resolver problemas cotidianos o a la hora de recomendarte una serie de Netflix, no están para juzgarnos, sino para establecer patrones probables"

El Big Data, o la gestión de datos a gran escala, carece de toda ética. Y esto no en un sentido necesariamente negativo o peyorativo, sino en un sentido neutro pero literal. Al igual que no podemos atribuir bondad o maldad a la naturaleza o a los números, sería un error sostener que una razón diabólica subyace a la recopilación, gestión y conexión de datos. Los algoritmos, bastante útiles para resolver problemas cotidianos o a la hora de recomendarte una serie de Netflix, no están para juzgarnos, sino para establecer patrones probables —cada vez más sofisticados, eso sí—, aunque no exentos de errores en algunos casos bastante irrisorios, y llevar a cabo predicciones cada vez más fiables.

Desde un punto de vista lógico, muchos de estos fallos o cortocircuitos del sistema se asemejan bastante a lo que se denomina «afirmación del consecuente». Por ejemplo: «Si llueve, la calle se moja. La calle está mojada, luego debe haber llovido». Evidentemente, la calle puede estar mojada por varias razones aparte de la lluvia. O también a la «falacia de la negación del antecedente»: «Si hace sol, iré a la playa. No iré a la playa, luego no hace sol». Esto es un paralogismo (un razonamiento falso o incorrecto). ¿O acaso porque tú decidas ir o no ir a la playa el sol dejará de brillar?

Huelga decir que a los algoritmos la lógica y la filosofía les preocupa casi tan poco como la bondad, maldad, verdad o falsedad (en realidad no les preocupa nada porque no son humanos). Al algoritmo sólo «le interesa» recabar un mayor número de datos que le permita establecer comportamientos probables. En otras palabras: la «lógica» del algoritmo dice que cuando sale el sol, vas a la playa… Y tratará de venderte una sombrilla. Eso es lo único que cuenta para sus fines.

"El algoritmo no hace distinciones y todo lo reduce a meras relaciones entre múltiples factores"

Supongamos, por recurrir a un ejemplo del todo aleatorio y más o menos neutral, a un varón de entre 25 y 50 años, con un poder adquisitivo X, con un trabajo Y —todos ellos indicadores de que a priori, podrá adquirir o financiar con un bajo índice de morosidad el artículo que finalmente aparezca promocionado en forma de banner u otro procedimiento—, soltero pero independizado de sus padres (las redes sociales son un buen caladero de información, claro como un libro abierto, un libro que cada uno de nosotros se ha encargado de redactar voluntaria y alegremente), cuyo extracto de la tarjeta de crédito o de su carnet de fidelización de cliente ofrezca un listado de restaurantes de lujo y vinos caros, y cuyo historial de búsquedas muestre un interés notable por destinos turísticos ubicados en un margen de quinientos kilómetros. La probabilidad de que reciba un anuncio de un coche deportivo de cierta gama será muy superior a si tomamos por modelo un padre de familia de clase media, con tres hijos y dos hipotecas (a éste, seguramente, le sugerirá un monovolumen adaptado a su poder adquisitivo).

Nótese que el algoritmo, o el filtro burbuja, no juzga si es mejor o peor estar casado que soltero, ser rico que pobre, o cualquier otro detalle. Simplemente conecta diversos factores y arroja un resultado probable.

Lo mismo se aplica a un modelo de zapatillas deportivas, un teléfono móvil, un curso de yoga o cualquier otra cosa. El algoritmo no hace distinciones y todo lo reduce a meras relaciones entre múltiples factores.

En caso de que el algoritmo todavía no se haya sofisticado lo suficiente, puede sugerir a una persona de color un menú económico —dando por sentado que forma parte de la clase baja—. Y no hace esto porque sea racista, sino por simple estadística; porque aún no ha recabado la suficiente información y, en consecuencia, sus propuestas serán, amén de sesgadas e insultantes desde un punto de vista humano, potencialmente irrisorias. ¿A todos los japoneses debe gustarles el wasabi? ¿Todos los homosexuales visten ropas de diseño? ¿Todos los varones heterosexuales, con o sin pareja, desean contactar con una modelo rusa? ¿Todos los habitantes de las zonas rurales tienen una ideología conservadora o de extrema derecha? Evidentemente no (y espero que coincidas conmigo).

"¿Qué sentido puede tener recopilar información de personas anónimas, como tú y como yo, sin mayor relevancia social?"

En el documental de Netflix What the Health (Kip Andersen y Keegan Kuhn, 2017) se afirma que empresas cárnicas o dedicadas a los lácteos, así como farmacéuticas, financian programas como el de la Asociación Americana contra la Diabetes o de prevención del cáncer, lo que equivaldría, en términos de los propios realizadores del documental, a incluir bebidas espirituosas en las reuniones de Alcohólicos Anónimos. De aquí se sigue que los tratamientos y recomendaciones sugeridas por estas asociaciones serán sesgados y serán, en cierto modo, contradictorios. No lo digo yo, sino que es lo que se desprende de las tesis de este alegato vegano, cuyo productor ejecutivo es el actor Joaquin Phoenix.

En unas líneas comprenderás a la perfección por qué te hablo de esta pieza audiovisual.

Se ha criticado a los grandes recopiladores de datos (Facebook, Google, Amazon, etc.) el hecho comerciar con nuestra información. Pero los algoritmos que manejan, opacos en su mayor parte por lo demás, no son los responsables últimos de todos los males recientes de la humanidad. Sería más acertado señalar a quienes los diseñan, a quienes recurren a ellos y al uso que de ellos se hace.

La periodista y ciberactivista Marta Peirano se pregunta en una charla TED de 2015 titulada «¿Por qué me vigilan, si no soy nadie?»… precisamente lo que el título señala. También lo hace en su libro El enemigo conoce el sistema: Manipulación de ideas, personas e influencias después de la economía de la atención (2019).

¿Qué sentido puede tener recopilar información de personas anónimas, como tú y como yo, sin mayor relevancia social?

La respuesta nos conecta de nuevo con la necesidad de seguir el hilo del dinero. ¿Quién concede valor a nuestra información personal? ¿A quién puede interesarle? ¿Quién o qué agencias pueden querer recopilar, e incluso segmentar y manipular, los diversos aspectos de nuestra vida privada? La respuesta a todas estas preguntas es la misma: los clientes; las empresas que compran paquetes de información para utilizarlos con fines de diversa naturaleza (publicitarios o como estudios de mercado, con objeto de orientar y redirigir nuestra intención de voto o establecer mecanismos de control social, así como un interminable etcétera).

"Ciertamente, como intuyo que ya sospechas, el tráfico informativo en la Red no es ni tan libre ni tan inocente"

A falta de una normativa rigurosa y transparente, los algoritmos y los filtros burbuja polarizan nuestra visión del mundo, limitándola y radicalizándola. El problema estriba en que aquellos que deberían establecer dicha normatividad son, en muchos casos, los mismos que se benefician de su ausencia, algo similar a lo que sucede con las empresas cárnicas y las agencias estatales para la prevención del cáncer, de acuerdo con el documental What the Health, del que te he hablado.

Ciertamente, como intuyo que ya sospechas, el tráfico informativo en la Red no es ni tan libre ni tan inocente, de forma que tildar a los demás de fanáticos, extremistas o, simplemente, de estúpidos, supone un grave error. O, al menos, constituye una respuesta bastante simplista.

Si a través de los grupos de Whatsapp o Telegram en los que participamos, los buscadores de Internet que utilizamos, los medios que consultamos, los periódicos que leemos mientras tomamos en primer café de la mañana, se nos ofrece una visión sesgada de la realidad, hasta el punto de que pareciera que es la única realidad posible (y, desde luego, la verdadera), rápidamente nos deslizaremos por la pendiente del extremismo. Y no siempre lo haremos por pura malicia, sino por desconocimiento y miedo (un miedo atávico a lo desconocido, al otro). Cualquier otra visión del mundo nos parecerá errónea, amenazante… por la sencilla razón de que, como nuestro eje de coordenadas hiperindividualizado exige, no es la nuestra, la de cada uno de nosotros.

Pocas personas se molestan en contrastar la información, ya que, por obra y gracia de los algoritmos y de los filtros burbuja, la información que recibimos se ajusta a nuestra sensibilidad y a nuestros puntos de vista; los refuerza. Nos reconforta. Al igual que sucede con el populismo, nos dicen y nos muestran lo que queremos oír y lo que queremos ver.

"¿Por qué hemos tolerado esta manipulación informativa y mediática de la realidad y una flagrante violación de nuestra intimidad?"

Indudablemente, estos aspectos no nos eximen por completo de toda responsabilidad. A fin de cuentas, somos nosotros, en última instancia, quienes elegimos aquellas personas a las que seguimos en redes sociales, los periódicos que consultamos, o nuestras afinidades.

Ya que hablamos de filosofía, conviene recordar que el existencialismo —la doctrina filosófica que defiende que la existencia precede a la esencia o, dicho de otro modo, que primero existimos, somos, y luego viene el pensamiento y todo lo demás— nos recuerda que la libertad, lo característico del ser humano, incluye una «cláusula» adicional: el compromiso y la responsabilidad (aunque esto se nos olvide de vez en cuando).

Pero una cuestión sigue latiendo en el fondo de este debate: ¿por qué hemos tolerado esta manipulación informativa y mediática de la realidad y una flagrante violación de nuestra intimidad?

En la siguiente entrega, contaremos con la presencia del «Monstruo de las galletas» para que nos ayude a dilucidar esta cuestión. ¿Podrás resistirte?

4.7/5 (19 Puntuaciones. Valora este artículo, por favor)

Gabri Rodenas

Gabri Ródenas (España, 1976). Escritor, doctor en filosofía y profesor de Comunicación Audiovisual en la Universidad de Murcia. Fan del helado de pistacho, los gatos y los bosques. Su última novela es La abuela que cruzó el mundo en una bicicleta (Urano, 2018). Twitter: @Gabrirodenas Web: comomeconvertienunescritormillonario.com

Ver más publicaciones

Zenda es un territorio de libros y amigos, al que te puedes sumar transitando por la web y con tus comentarios aquí o en el foro. Para participar en esta sección de comentarios es preciso estar registrado. Normas:

  • Toda alusión personal injuriosa será eliminada.
  • No está permitido hacer comentarios contrarios a las leyes españolas o injuriantes.
  • Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
  • Zenda no se hace responsable de las opiniones publicadas.
Notificar por email
Notificar de
guest

1 Comentario
Antiguos
Recientes Más votados
Feedbacks en línea
Ver todos los comentarios
Florencia
Florencia
2 años hace

Me encanto el articulo!!.. Vivimos en un holograma?

suscríbete a nuestra newsletter

Recibe cada semana una selección de los mejores contenidos de la web, ¡No te lo pierdas!

[contact-form-7 id="6d737e1" title="Formulario de newsletter"]