3 noviembre 2025
Laura G. De Rivera afirma que los algoritmos están determinando nuestras
vidas casi sin que nos demos cuenta.
Es de noche y decides salir a cenar. Puede que tu pareja no sepa qué
quieres comer, pero la inteligencia artificial sí: en la tarde te vio
mirando videitos de tacos y tiene claro que ahora no puedes dejar de
pensar en ello.
"Si no tomamos decisiones, otros lo harán por nosotros", escribe la periodista
y escritora española Laura G. De Rivera en su libro "Esclavos del
algoritmo: Manual de resistencia en la era de la inteligencia artificial",
fruto de años de investigación.
"Vivimos inmersos en pensamientos, deseos y sentimientos impuestos desde fuera
porque resulta que los humanos somos bastante predecibles. Basta con aplicar
la estadística a nuestras acciones pasadas, y es como si alguien nos leyera la
mente", continúa.
La finura en predecir cuáles son nuestras necesidades o deseos es tanta que
Michal Kosinski, psicólogo y profesor de la Universidad de Stanford, demostró
en sus experimentos que un algoritmo bien entrenado con suficientes datos
digitales puede predecir qué quieres o qué cosas te gustan mejor que tu madre.
Que la inteligencia artificial pueda anticipar con altísima precisión
los intereses de una persona, en principio, suena bien. Pero tiene un precio,
dice De Rivera, y es alto: "Perdemos libertad, perdemos la capacidad de ser
nosotros mismos, perdemos imaginación".
"Trabajamos gratis para Instagram subiendo nuestras fotos para que la red
social exista y gane millones. Hay que ser consciente y aprovechar los
beneficios de las plataformas sin que los riesgos te hagan daño", dice.
Charlamos con De Rivera en el marco del Hay Festival que se celebra del
6 al 9 de noviembre (2025) en la ciudad peruana de Arequipa, un evento que
reúne a 130 participantes de 15 países.
"La información es poder. Y la carrera por hacerse con ella está
desbocada", escribe la autora.
¿Cuál es la solución para no ser esclavos del algoritmo?
La solución que yo veo es muy sencilla, está al alcance de cualquier persona,
es gratis y no tiene impacto medioambiental. Y es simplemente pensar. O sea,
utilizar nuestro cerebro. Es una capacidad humana que está en desuso, se ha
perdido.
Cada momento en el que no estamos trabajando o con gente, lo que hacemos es
coger el teléfono y distraernos con la pantalla. Ya no pensamos en la sala de
espera del médico ni cuando nos aburrimos en casa.
Esos espacios que teníamos para pensar están completamente ocupados ahora por
una distracción continua. A través de nuestro smartphone recibimos un
bombardeo de estímulos que no nos está dejando pensar.
Hay más cosas que se pueden hacer, pero a mí me parece esta la más básica y la
más fácil. Solo el pensamiento crítico pueden defender la libertad individual
frente al control algorítmico y la voluntad de terceros.
Es casi imposible no dar tus datos cuando te suscribes a una plataforma.
Más complicado todavía leerse toda la letra pequeña de un servicio o
rechazar las "cookies" cada vez entramos en una página web. ¿Nos hemos
vuelto perezosos?
Somos un poco vagos y un poco marionetas, pero también nos falta la
información.
Hay mucha gente que no entiende que cuando está pasando horas delante de
TikTok, lo que está haciendo es trabajar gratis para la plataforma. Le das
toda tu información de tu comportamiento online y esa información vale dinero.
Por eso es importante la educación, que es explicar cómo funciona el modelo de
negocio de estas grandes plataformas.
¿Cómo es posible que Google sea una de las compañías más ricas del mundo si no
nos cobra por su servicio? Reflexionar sobre esto es muy importante para que
la gente entienda lo valiosísima que es toda la información que estamos dando
sobre nosotros.
¿Cuál es el peligro de la inteligencia artificial?
En realidad, el verdadero peligro es la estupidez humana, porque a ti la
inteligencia artificial no tiene por qué hacerte nada, son ceros y unos.
Lo que pasa es que nuestra pereza es tan grande que si nos dan las cosas
hechas, pues mucho mejor. Todo esto nos coloca en una situación en la que
somos más manipulables.
Vivimos en un adormecimiento generalizado de la voluntad. Nos resignamos ante
la digitalización del sistema sanitario, la vigilancia masiva y la educación
online de nuestros hijos. Asumimos las injusticias, los abusos y la ignorancia
como cosas inevitables contra las que no podemos rebelarnos porque nos da
pereza.
¿Cuáles podrían ser las consecuencias de confiar plenamente en las
predicciones automáticas de un sistema algorítmico?
Cuando delegamos les decisiones importantes, que incluso pueden tener que ver
con la vida y la muerte, el riesgo es muy grande, sobre todo porque hay
estudios que demuestran que los humanos tendemos a pensar que si lo dice un
ordenador, será verdad. Aunque nosotros pensemos distinto.
Entonces, ¿a quién le vas a dejar que decida? ¿A tu madre, a tu profesor, a tu
jefe, a la inteligencia artificial? Este es un problema muy antiguo del ser
humano y a mí me gusta mucho el libro el psicoanalista, sociólogo y miembro de
la Escuela de Frankfurt Erich Fromm, "Miedo a la libertad", que está dedicado
a esto, precisamente.
Fromm defiende que los seres humanos preferimos que nos digan qué tenemos que
hacer, porque nos da pánico pensar que depende de nosotros. Decidir nos da
mucho miedo y preferimos ser como robots y que nos digan qué hacer. Y esto ya
lo decía Fromm a principios del siglo XX.
Toda la complicada madeja de información sobre nuestra vida privada se
guarda en grandes centros de datos.
¿Hay alguna forma de no dar nuestros datos online?
Claro que sí. Hay forma de no dar nuestros datos. Hay forma de dar lo justo.
Pero lo principal es saber cómo funcionan las plataformas. Y entonces puedes
tomar medidas.
Aunque solo sea para ponérselo un poco más difícil a los que comercian con tu
vida y con tus datos. Puedes acostumbrarte a pequeñas acciones como rechazar
las cookies al entrar en una página.
¿Qué más podemos hacer?
También podemos hablar de la necesidad de tener una regulación que nos
proteja, de desarrollar la ética por parte de las empresas que utilizan
inteligencia artificial.
Podemos hablar lo importante que es escuchar a los whistleblowers, a toda esa
gente que está dentro, que conoce el sistema porque trabaja dentro de empresas
como Google o Meta y que cuentan cosas. Escucharlos y protegerlos también
cuando deciden hablar.
Cada vez se necesitan centros de datos y otras infraestructuras más
grandes para la inteligencia artificial.
¿Te refieres al caso Edward Snowden, que sacó a la luz los sistemas de
vigilancia masiva aplicados por las agencias de inteligencia
estadounidenses?
Sí, Snowden es para mí es uno de los héroes de este siglo, pero hay más. El
suyo es el caso más conocido.
También está Sophie Zhang, científica de datos de Facebook, despedida después
de alertar internamente sobre el uso sistemático de cuentas falsas y bots por
gobiernos y partidos políticos para manipular la opinión pública y sembrar el
odio.
Zhang se dio cuenta de que en muchas partes del mundo, en América Latina,
Asia, incluso algunos sitios de Europa, había políticos usando cuentas falsas,
con seguidores que no existían, con likes y reenvíos imparables, para engañar
a los ciudadanos y hacerles creer que contaban con un apoyo y una aceptación
popular que no era cierta.
Cuando informó a sus superiores del problema, comprobó asombrada que nadie
quería hacer nada para solucionarlo.
Tardaron un año, por ejemplo, en borrar la red de seguidores falsos del
entonces presidente de Honduras Juan Orlando Hernández, declarado culpable por
el Tribunal Federal de Distrito en Nueva York de conspirar para importar
cocaína a Estados Unidos y de posesión de ametralladoras.
En tu libro hablas también del caso de la ingeniera informática Timnit
Gebru, codirectora del equipo de Ética de la inteligencia artificial de
Google, que también fue despedida.
Sí, por denunciar que los algoritmos favorecen la discriminación racial y de
género. Alertó de que los modelos grandes de lenguaje podían suponer un
peligro, que la gente se podía creer que eran humanos y que podían manipular a
las personas. A pesar de la carta de protesta por su despido firmada por más
de 1.400 empleados de la compañía, se quedó en la calle.
Otro "héroe del silbato" es Guillaume Chaslot, exempleado de YouTube, quien
descubrió que el algoritmo de recomendaciones empujaba sistemáticamente a los
usuarios hacia contenidos sensacionalistas, conspiranoicos y polarizantes.
¿Qué esperanza nos queda?
Lo que sí sabemos seguro es que, haga lo que haga, un programa de software no
puede aportar la más mínima dosis de creatividad para inventar opciones
nuevas, es decir, no basadas en la estadística de datos pasados.
Tampoco podrá dar soluciones basadas en la empatía para ponerse en la piel de
otro ni en la solidaridad para buscar la felicidad propia en la felicidad del
prójimo.
Tres cualidades exclusivamente humanas por definición
Artículo en BBC Mundo News
Libo: Esclavos
del algoritmo



No hay comentarios.:
Publicar un comentario