"El verdadero peligro de la inteligencia artificial es la estupidez humana"

especiales

"El verdadero peligro de la inteligencia artificial es la estupidez humana"
Por: 
Fecha de publicación: 
3 Noviembre 2025
0
Imagen principal: 

"Decidir nos da mucho miedo y preferimos ser como robots y que nos digan qué hacer", dice la periodista.

Es de noche y decides salir a cenar. Puede que tu pareja no sepa qué quieres comer, pero la inteligencia artificial sí: en la tarde te vio mirando videitos de tacos y tiene claro que ahora no puedes dejar de pensar en ello.

"Si no tomamos decisiones, otros lo harán por nosotros", escribe la periodista y escritora española Laura G. De Rivera en su libro "Esclavos del algoritmo: Manual de resistencia en la era de la inteligencia artificial", fruto de años de investigación.

"Vivimos inmersos en pensamientos, deseos y sentimientos impuestos desde fuera porque resulta que los humanos somos bastante predecibles. Basta con aplicar la estadística a nuestras acciones pasadas, y es como si alguien nos leyera la mente", continúa.

La finura en predecir cuáles son nuestras necesidades o deseos es tanta que Michal Kosinski, psicólogo y profesor de la Universidad de Stantford, demostró en sus experimentos que un algoritmo bien entrenado con suficientes datos digitales puede predecir qué quieres o qué cosas te gustan mejor que tu madre.

Que la inteligencia artificial pueda anticipar con altísima precisión los intereses de una persona, en principio, suena bien. Pero tiene un precio, dice De Rivera, y es alto: "Perdemos libertad, perdemos la capacidad de ser nosotros mismos, perdemos imaginación".

"Trabajamos gratis para Instagram subiendo nuestras fotos para que la red social exista y gane millones. Hay que ser consciente y aprovechar los beneficios de las plataformas sin que los riesgos te hagan daño", dice.

Charlamos con De Rivera en el marco del Hay Festival que se celebra del 6 al 9 de noviembre en la ciudad peruana de Arequipa, un evento que reúne a 130 participantes de 15 países.

¿Cuál es la solución para no ser esclavos del algoritmo?

La solución que yo veo es muy sencilla, está al alcance de cualquier persona, es gratis y no tiene impacto medioambiental. Y es simplemente pensar. O sea, utilizar nuestro cerebro. Es una capacidad humana que está en desuso, se ha perdido.

Cada momento en el que no estamos trabajando o con gente, lo que hacemos es coger el teléfono y distraernos con la pantalla. Ya no pensamos en la sala de espera del médico ni cuando nos aburrimos en casa.

Esos espacios que teníamos para pensar están completamente ocupados ahora por una distracción continua. A través de nuestro smartphone recibimos un bombardeo de estímulos que no nos está dejando pensar.

Hay más cosas que se pueden hacer, pero a mí me parece esta la más básica y la más fácil. Solo el pensamiento crítico pueden defender la libertad individual frente al control algorítmico y la voluntad de terceros.

Es casi imposible no dar tus datos cuando te suscribes a una plataforma. Más complicado todavía leerse toda la letra pequeña de un servicio o rechazar las "cookies" cada vez entramos en una página web. ¿Nos hemos vuelto perezosos?

Somos un poco vagos y un poco marionetas, pero también nos falta la información.

Hay mucha gente que no entiende que cuando está pasando horas delante de TikTok, lo que está haciendo es trabajar gratis para la plataforma. Le das toda tu información de tu comportamiento online y esa información vale dinero.

Por eso es importante la educación, que es explicar cómo funciona el modelo de negocio de estas grandes plataformas.

¿Cómo es posible que Google sea una de las compañías más ricas del mundo si no nos cobra por su servicio? Reflexionar sobre esto es muy importante para que la gente entienda lo valiosísima que es toda la información que estamos dando sobre nosotros.

¿Cuál es el peligro de la inteligencia artificial?

En realidad, el verdadero peligro es la estupidez humana, porque a ti la inteligencia artificial no tiene por qué hacerte nada, son ceros y unos.

Lo que pasa es que nuestra pereza es tan grande que si nos dan las cosas hechas, pues mucho mejor. Todo esto nos coloca en una situación en la que somos más manipulables.

Vivimos en un adormecimiento generalizado de la voluntad. Nos resignamos ante la digitalización del sistema sanitario, la vigilancia masiva y la educación online de nuestros hijos. Asumimos las injusticias, los abusos y la ignorancia como cosas inevitables contra las que no podemos rebelarnos porque nos da pereza.

¿Cuáles podrían ser las consecuencias de confiar plenamente en las predicciones automáticas de un sistema algorítmico?

Cuando delegamos les decisiones importantes, que incluso pueden tener que ver con la vida y la muerte, el riesgo es muy grande, sobre todo porque hay estudios que demuestran que los humanos tendemos a pensar que si lo dice un ordenador, será verdad. Aunque nosotros pensemos distinto.

Entonces, ¿a quién le vas a dejar que decida? ¿A tu madre, a tu profesor, a tu jefe, a la inteligencia artificial? Este es un problema muy antiguo del ser humano y a mí me gusta mucho el libro el psicoanalista, sociólogo y miembro de la Escuela de Frankfurt Erich Fromm, "Miedo a la libertad", que está dedicado a esto, precisamente.

Fromm defiende que los seres humanos preferimos que nos digan qué tenemos que hacer, porque nos da pánico pensar que depende de nosotros. Decidir nos da mucho miedo y preferimos ser como robots y que nos digan qué hacer. Y esto ya lo decía Fromm a principios del siglo XX.

¿Hay alguna forma de no dar nuestros datos online?

Claro que sí. Hay forma de no dar nuestros datos. Hay forma de dar lo justo. Pero lo principal es saber cómo funcionan las plataformas. Y entonces puedes tomar medidas.

Aunque solo sea para ponérselo un poco más difícil a los que comercian con tu vida y con tus datos. Puedes acostumbrarte a pequeñas acciones como rechazar las cookies al entrar en una página.

¿Qué más podemos hacer?

También podemos hablar de la necesidad de tener una regulación que nos proteja, de desarrollar la ética por parte de las empresas que utilizan inteligencia artificial.

Podemos hablar lo importante que es escuchar a los whistleblowers, a toda esa gente que está dentro, que conoce el sistema porque trabaja dentro de empresas como Google o Meta y que cuentan cosas. Escucharlos y protegerlos también cuando deciden hablar.

¿Te refieres al caso Edward Snowden, que sacó a la luz los sistemas de vigilancia masiva aplicados por las agencias de inteligencia estadounidenses?

Sí, Snowden es para mí es uno de los héroes de este siglo, pero hay más. El suyo es el caso más conocido.

También está Sophie Zhang, científica de datos de Facebook, despedida después de alertar internamente sobre el uso sistemático de cuentas falsas y bots por gobiernos y partidos políticos para manipular la opinión pública y sembrar el odio.

Zhang se dio cuenta de que en muchas partes del mundo, en América Latina, Asia, incluso algunos sitios de Europa, había políticos usando cuentas falsas, con seguidores que no existían, con likes y reenvíos imparables, para engañar a los ciudadanos y hacerles creer que contaban con un apoyo y una aceptación popular que no era cierta.

Cuando informó a sus superiores del problema, comprobó asombrada que nadie quería hacer nada para solucionarlo.

Tardaron un año, por ejemplo, en borrar la red de seguidores falsos del entonces presidente de Honduras Juan Orlando Hernández, declarado culpable por el Tribunal Federal de Distrito en Nueva York de conspirar para importar cocaína a Estados Unidos y de posesión de ametralladoras.

En tu libro hablas también del caso de la ingeniera informática Timnit Gebru, codirectora del equipo de Ética de la inteligencia artificial de Google, que también fue despedida.

Sí, por denunciar que los algoritmos favorecen la discriminación racial y de género. Alertó de que los modelos grandes de lenguaje podían suponer un peligro, que la gente se podía creer que eran humanos y que podían manipular a las personas. A pesar de la carta de protesta por su despido firmada por más de 1.400 empleados de la compañía, se quedó en la calle.

Otro "héroe del silbato" es Guillaume Chaslot, exempleado de YouTube, quien descubrió que el algoritmo de recomendaciones empujaba sistemáticamente a los usuarios hacia contenidos sensacionalistas, conspiranoicos y polarizantes.

¿Qué esperanza nos queda?

Lo que sí sabemos seguro es que, haga lo que haga, un programa de software no puede aportar la más mínima dosis de creatividad para inventar opciones nuevas, es decir, no basadas en la estadística de datos pasados.

Tampoco podrá dar soluciones basadas en la empatía para ponerse en la piel de otro ni en la solidaridad para buscar la felicidad propia en la felicidad del prójimo.

Tres cualidades exclusivamente humanas por definición.

Añadir nuevo comentario

CAPTCHA
Esta pregunta es para comprobar si usted es un visitante humano y prevenir envíos de spam automatizado.
CAPTCHA de imagen
Introduzca los caracteres mostrados en la imagen.