Desnudos frente al algoritmo
Por Carlos Fernández Liria
18/03/2024
Es imprescindible empezar a pensar en controlar políticamente
los algoritmos. Mejor hacerlo ahora en que todavía son relativamente estúpidos
que cuando ya nos den cien vueltas
He vivido estos días una experiencia onírica que me ha
traído a la memoria una anécdota que leí en un libro de antropología. Una vez,
un misionero reprochó a un indígena su desnudez y éste le respondió,
señalándole la cara: “Pero vosotros también estáis desnudos aquí”. “¡Pero eso
es la cara!” , respondió el misionero. Y entonces el indígena replicó: “Es que
para nosotros todo es cara”.
Estos días, yo lo he tenido más difícil que ese indígena. Un
algoritmo de Youtube ha decidido interrumpir una serie de antropología que
estaba colgando en mi espacio La Filosofía en Canal, que tengo abierto desde
hace cosa de tres años. Resumo apretadamente la extraña distopía en la que me
he visto envuelto en estas últimas semanas. De pronto, Youtube se negó a
aceptar mis videos, tal y como ocurre cuando intentas subir algún contenido con
derechos de autor susceptibles de reclamación.
Me costó mucho encontrar el motivo, porque cuando preguntas
a Youtube te contesta un algoritmo de muy parcas explicaciones. Hay la
posibilidad de insistir hasta que logras contactar con una persona humana. Tras
mucho tirar de la lengua a los humanos supuestamente responsables, se me
comunicó más o menos la siguiente situación: el algoritmo de Youtube había
considerado que en mi canal se exhibía pornografía infantil (“imágenes de
menores sexualizados o donde se les explote sexualmente”). Eso había provocado
que se me adjudicara un número que volvía sospechosa cada cosa que intentara
subir, de tal manera que, cada vez más, todos mis contenidos eran rechazados. Y
cuanto más insistía, más sospechoso me volvía. Incluso algunos de mis videos
pasaron a ser calificados de “incitación al odio”. A ello se sumó que, por lo
visto, ya hace años, el algoritmo me había calificado de negacionista de las
vacunas, lo que me convertía en reincidente.
He tenido que rebobinar. En efecto, he recordado que hace
tiempo Youtube retiró un video de mi canal en el que retóricamente venía a
decir que lo más peligroso del negacionismo durante la pandemia era el empeño
que se ponía en negar el capitalismo y sus terribles efectos en la industria
farmacéutica. Pero el algoritmo había entendido que lo que negaba era las
vacunas. Investigando un poco más, he llegado a entender que el motivo por el
que se me ha clasificado de “incitador al odio” es que había pretendido titular
‘El ser humano en la basura’ el capítulo 5 de mi serie de antropología, algo
que venía bastante a cuento si se considera que todo el capítulo era un
comentario de un texto de Claude Lévi-Strauss en el que dice que “los
antropólogos buscamos nuestro tesoro en los cubos de la basura de los
historiadores”. Y así llegué a entender también lo de la pornografía infantil.
El algoritmo había localizado semejante cosa en las fotos de los nambikaras
(hombres, mujeres y niños) que Lévi-Strauss incluyó en su libro ‘Tristes
Trópicos’, un clásico inmortal de la antropología, traducido a todas las
lenguas del mundo y del que se habrán vendido miles de millones de ejemplares
sin que el algoritmo de Youtube se haya percatado. Tampoco ha caído en la
cuenta, el dichoso algoritmo, de que los nambikaras de las fotos, en realidad,
no están desnudos, porque llevan un cordón en la cintura; y, de hecho, se
sienten muy avergonzados de mostrarse sin él, porque se sienten desnudos.
Un gran malentendido, sin duda. Pero a partir de aquí es
cuando todo se vuelve onírico. Los humanos que hay detrás del algoritmo
aseguran que no hay medios para intervenir en el criterio de la máquina (si es
que es una máquina). La única posibilidad sería “enseñarle”, hacer que cambie su opinión sobre mí. Y no
pueden informar sobre cómo se podría hacer eso. Todo el mundo sabe que es un
error, pero no se puede hacer nada, no se le puede decir al algoritmo que se ha
equivocado. La única posibilidad es enseñarle a cambiar su criterio, un
verdadero acertijo o quizás un sortilegio que recuerda a los cuentos de hadas.
Finalmente, tras mucho meditar, hemos recurrido a una especie de tratamiento
conductista: subir centenares y centenares de contenidos para “reeducar” al
algoritmo, a ver si se acostumbra al hecho de que soy una persona normal.
Algunos youtubers más experimentados me han asegurado que así acaba por
entender en cosa de dos o tres meses. Respecto al capítulo 5 de la serie de
antropología, hemos recurrido provisionalmente
a una estratagema de las antiguas: hemos vestido con fotoshop a los
indígenas con unos grandes calzones blancos (antes probamos a pixelar los
pezones y los culos, pero el algoritmo no se dio por satisfecho).
Hablar con los humanos de Google ha sido como estrellarse
contra un muro, porque esto de los algoritmos es un poco como un “gran
secreto”, una especie de “piedra filosofal” que nadie sabe bien cómo funciona y
que los influencers creadores de contenido están todo el tiempo intentando
averiguar (“oye, que parece que me va mejor si la gente comenta mucho, o si
comparte el link o si le dan like…”) y es todo como ir dando palos de ciego. De
hecho, cada vez que hay algún cambio en cómo los algoritmos consideran que eres
relevante, suele haber un poco de revuelo entre la gente que se dedica a esto,
intentando averiguar cómo pueden salir beneficiados; y de esto siempre hay mucha literatura y
mucha leyenda (que si el algoritmo de TikTok beneficia los rostros de mujeres y
el de Instagram los de hombres siempre que sean guapos, que si TikTok te
beneficia si sales sonriendo o bailando… De hecho, durante un tiempo, salía la
gente lanzando mensajes políticos en TikTok mientras bailaba, para que el
algoritmo les diera visibilidad).
A mí, todo esto me da mucho miedo. Yo recuerdo muy bien lo que
era enfrentarse a un profesor que te tenía manía en el colegio. Algunos eran
sádicos diagnosticables, otros malos y tristes, bestias franquistas que no
tenían dos dedos de frente. Pero nunca tuve que enfrentarme a alguien tan
rematadamente estúpido como este algoritmo generado por la imbatible
Inteligencia Artificial, la que ganó a Kaspárov jugando al ajedrez. No sé qué
opinará el ChatGPT sobre esto.
De lo que no me cabe duda es que es imprescindible empezar a
pensar en controlar políticamente los algoritmos. Mejor hacerlo ahora en que
todavía son relativamente estúpidos que cuando ya nos den cien vueltas. Que yo
sepa, aunque sé muy poco, sólo recuerdo a Iñigo Errejón, desde Más País,
alertando sobre el asunto, proponiendo crear una Agencia Estatal de Algoritmos.
La cosa es gravísima, en el fondo. Lo que me ha ocurrido a mí es una tontería,
sin duda. Pero personalmente, me ha hecho entender la que se avecina. El
algoritmo ha tomado una decisión errónea. Eso lo saben perfectamente y así lo
reconocen quienes crearon la máquina. Pero, sin embargo, ellos no pueden
intervenir, es imposible.
Por mi parte, he tenido que investigar cómo funciona y cómo
aprende esa máquina (cosa que, además, es un secreto), para intentar
convencerla de que ha cometido un error. Nos encontramos frente a un ostracismo
inapelable, en el que, incluso sabiendo todos que ha habido un error, no hay
más remedio que intentar convencer a ese ente extraño y secreto de que es así.
En este caso, hay que enseñarle la diferencia entre la pornografía infantil y
la etnografía. Pero esto es lo de menos. Ya estamos administrados por
algoritmos en demasiados ámbitos. Un ejemplo significativo es lo que puede
leerse en esta noticia: Trabajo exigirá a las empresas de reparto compartir los
algoritmos que utilizan para decidir a qué trabajador envían en cada trayecto.
Desde luego, no creo que haya que demandar un algoritmo
perfecto, capaz de machacarnos cuando se vuelva loco. Lo importante es demandar
la posibilidad de someterlo a un control humano. Es algo que se viene
repitiendo desde los tiempos de Asimov (“Artículo primero: los robots
obedecerán a los humanos”) y ‘2001. Una odisea en el espacio’. Antes era el
futuro. Ahora es un presente distópico que ya está en marcha. Hemos creado
algoritmos para que nos ayuden, no para que se nos responda “no podemos hacer
nada, porque lo dice el algoritmo”. Exactamente la misma barbaridad, por
cierto, a la que nos tiene acostumbrados el capitalismo: no se puede hacer
nada, porque lo dicen los mercados. Ningún Parlamento se atreverá a llevar la
contraria a los mercados. Y se suponía que los mercados, por criminales que
fueran, eran tan inteligentes como una mano invisible. Los algoritmos serán
igualmente criminales y, por ahora, ni siquiera parecen muy inteligentes. Por
lo menos respecto a cuestiones de interés humano. Porque no están administrando
nada que tenga interés humano. Están administrando, como bien demuestra Johann
Hari en su espléndido libro ‘El valor de la atención‘, los inconmensurables
negocios que se pueden hacer con nuestra atención en la pantalla. Y eso, sin
duda, lo hacen muy bien. Pero mientras tanto, no saben distinguir entre un
indígena vestido con un cordón y un amuleto y la pornografía infantil. Son muy
inteligentes, pero no están interesados en las mismas cosas que nos interesan a
nosotros. Exactamente lo mismo que ha pasado con el capitalismo ya desde el
siglo XIX.
PD: Evidentemente, yo no he tenido ni idea de cómo
reaccionar frente a todo esto. Le agradezco a Miguel Ángel Ojeda García que, además
de crear y organizar ‘La Filosofía en Canal’, se haya ocupado también de la
batalla contra el algoritmo.
Fuente: https://www.eldiario.es/opinion/tribuna-abierta/desnudos-frente-algoritmo_129_11217913.html
No hay comentarios:
Publicar un comentario