(escuchando Transitions de Adam Freeland)
¿Se acuerdan de cuando nos vendieron la idea de que la tecnología venía a salvarnos de nosotros mismos? Nos prometieron la “Era de la Razón Pura”. Nos dijeron: “Tranquilo, humano falible y emocional, deja que la Inteligencia Artificial tome el volante. Ella no tiene hambre, no tiene sueño y, sobre todo, no tiene prejuicios”.
Permítanme soltar una carcajada socrática aquí mismo.
He estado leyendo sobre lo que llaman el “Espejismo Numérico” y, spoiler alert: nos han vendido humo. O mejor dicho, nos han vendido silicio con los mismos viejos fantasmas de siempre. La IA, esa entidad que imaginamos como un juez galáctico de Star Trek, resulta que se parece mucho más a un burócrata del siglo XIX con una actitud que apesta.
Hoy vamos a diseccionar por qué tu “feed” de noticias (y tu solicitud de hipoteca) no es neutral, y por qué creer en la objetividad del código es la nueva religión de los incautos.
1. El mito de la “Data Pura” (O por qué la IA es como tu tío conservador)
Empecemos por lo básico. Nos encanta creer que los datos son fríos y objetivos. Si la máquina dice que hay un 90% de probabilidad de algo, agachamos la cabeza y decimos “Amén”.
Pero, ¿de dónde salen esos datos?
Aquí es donde la filosofía se pone interesante (y la tecnología se pone fea). Los datos no caen del cielo platónico de las ideas; los datos son historia congelada. Y nuestra historia, amigos míos, no es precisamente un cuento de hadas de equidad y justicia.
Imagina que entrenas a un algoritmo para detectar “éxito profesional” usando datos de los últimos 50 años. ¿Qué va a aprender la máquina?
- Que el éxito tiene cara de hombre.
- Que el éxito suele ser blanco.
- Que el éxito vive en ciertos códigos postales.
La máquina no es racista ni machista per se; es simplemente una alumna muy aplicada que repite como un loro lo que ha visto en los libros de historia. Si le das basura histórica, te devuelve basura probabilística. Como bien dice la teoría: el sesgo no es un “bug”, es una “feature” de nuestra sociedad que hemos tenido la brillante idea de automatizar.
La paradoja: La IA se inventó para ver más clara, pero hemos creado un lente de aumento para nuestras propias miserias. Mi otro yo en modo se los dije
2. La Jaula de Cristal: “Lo dice la computadora”
Aquí entra en juego mis amigos de la Escuela de Frankfurt (unos alemanes muy serios que ya nos avisaron de esto hace años). Vivimos bajo la tiranía de la Racionalidad Instrumental.
En cristiano: nos importa más que algo sea eficiente a que sea justo.
El algoritmo es la herramienta perfecta para el capitalismo salvaje porque optimiza beneficios sin tener que mirarte a los ojos. Si un banco te niega un crédito, ya no es un señor con bigote el que te dice “no me fío de tu cara”. Ahora es una “Caja Negra”.
Es la excusa perfecta para la opresión moderna:
- ¿Por qué no me contrataron? El algoritmo.
- ¿Por qué mi condena fue más larga? El algoritmo
- ¿Por qué mi seguro es más caro? El algoritmo.
Se ha convertido en una entidad abstracta, invisible y, lo peor de todo, irresponsable. Es como si hubiéramos creado un Dios digital solo para poder echarle la culpa de nuestras decisiones inmorales. “No fui yo, fue el Big Data”. ¡Qué cómodo!
3. El Compromiso de Ícaro: ¿Y ahora qué hacemos?
No quiero que terminen de leer esto y tiren su smartphone al inodoro. No hay que ser fatalistas. La tecnología no es el enemigo; la pereza moral sí lo es.
Para arreglar esto, necesitamos menos ingenieros obsesionados con la optimización y más filósofos obsesionados con la justicia. Necesitamos aplicar lo que John Rawls llamaría una Justicia Distributiva Algorítmica.
Esto significa cambiar el chip:
- Auditoría radical: No me digas que tu sistema acierta el 90% de las veces. Dime si ese 10% de error siempre le cae a los mismos pobres diablos de siempre. Si tu IA funciona genial para hombres blancos de Oslo pero falla para mujeres latinas, tu IA no sirve.
- . Diseñar desde el margen: Deja de diseñar software desde una oficina acolchada en Silicon Valley. Invita a la mesa a sociólogos, a activistas, a la gente que sufre las consecuencias. La tecnología debe diseñarse pensando en el más vulnerable, no en el más rentable.
Cuando el Algoritmo se Graduó de Machista (y otros cuentos de terror digital)
Bueno, agárrense, porque vamos a ver qué pasa cuando soltamos a estas bestias matemáticas en la selva del mundo real. Spoiler: el resultado es tragicómico.
1. El Caso Amazon: El Reclutador Misógino
Hace unos años, Amazon, en su afán de conquistar el mundo y optimizar hasta el aire que respiramos, decidió crear una IA para automatizar la contratación de personal. La idea era brillante sobre el papel: “Tenemos miles de currículums. Que la máquina encuentre a los mejores talentos basándose en los patrones de nuestros empleados estrella de los últimos 10 años”.
¿El problema? La industria tecnológica, históricamente, ha estado dominada por hombres.
La IA, en su infinita “sabiduría” estadística, analizó los datos y llegó a una conclusión lógica implacable: Ser mujer es un factor de riesgo para el éxito en Amazon.
El algoritmo empezó a penalizar currículums que incluyeran la palabra “femenino” (como en “capitana del club de ajedrez femenino”) o que mencionaran universidades exclusivas de mujeres. Básicamente, Amazon gastó millones de dólares para construir un “bro” digital de fraternidad universitaria que descartaba mujeres automáticamente.
Tuvieron que desenchufarlo. No falló técnicamente; hizo exactamente lo que le pidieron: replicar el pasado. Y el pasado, amigos, era un club de chicos.
2. Reconocimiento Facial: La Invisibilidad Selectiva
Hablemos de Joy Buolamwini, una investigadora del MIT. Ella descubrió algo fascinante y aterrador mientras trabajaba con software de reconocimiento facial: el sistema no detectaba su rostro. Joy es una mujer negra.
¿La solución para que la máquina la viera? Ponerse una máscara blanca.
Esto no es un chiste. Es la realidad del “Gender Shades”. La mayoría de estos sistemas se entrenan con bases de datos públicas donde predominan rostros de hombres blancos (porque, adivinen, los desarrolladores y las fotos disponibles en internet históricamente sesgan hacia ahí).
Precisión para hombres blancos: Casi 100%.
Precisión para mujeres de piel oscura: El error se disparaba hasta un 35%.
Imaginen esto aplicado a la seguridad pública o a la vigilancia policial. Si el algoritmo confunde a una mujer inocente con una sospechosa porque “no sabe distinguir bien esos rasgos”, no estamos ante un “glitch” ; estamos automatizando el racismo y dándole una placa de policía digital. La máquina no odia; la máquina simplemente ignora lo que no se le ha enseñado a ver.
3. El Fenómeno del “Mathwashing” (Lavado Matemático)
¿Por qué permitimos esto? Porque sufrimos de lo que los críticos llaman Mathwashing.
Es el acto de usar las matemáticas para limpiar decisiones turbias. Si un gerente de RRHH dice “no contrato mujeres”, lo demandan. Si un algoritmo dice “este candidato tiene un score de idoneidad de 3/10” (y casualmente es mujer), aceptamos el resultado porque “los números no mienten”.
El algoritmo se convierte en una máquina de blanqueo moral. Nos permite decir: “Lo siento, no fui yo, fue la computadora”, mientras nos lavamos las manos como Poncio Pilatos con conexión 5G.
Conclusión: Cuidado con el sol (La Revolución será Auditada)
A ver, recordemos al pobre Ícaro: acercarse mucho al sol con alas de cera suele terminar en desastre. La IA es nuestro fuego moderno; calienta, pero también quema. Si dejamos que la única brújula sea la ganancia fría y sin memoria, que se olviden de esa utopía futurista estilo Los Supersónicos.
Lo que estamos construyendo se parece más a una Edad Media con Wi-Fi: la misma barbarie de siempre, solo que ahora la injusticia viaja cómodamente a la velocidad de la fibra óptica.
Que no se me malinterprete: no les estoy pidiendo que tiren su smartphone al río y vuelvan al ábaco. Me encanta que la tecnología funcione, que puedas leerme desde cualquier pantalla y que Spotify sepa qué canción necesito escuchar antes que yo. Eso es genial.
Pero cortemos con el misticismo. Esto no es magia, es manufactura. Detrás de ese código ‘infalible’ hay humanos, con sus datos sucios, sus sesgos y sus manías.
El algoritmo no tiene conciencia ni remordimientos; tú sí. Úsala. Tu servibar en modo tío
Así que la próxima vez que alguien se lave las manos diciendo ‘fue decisión del algoritmo’, arquea la ceja con tu mejor sarcasmo y dispara: ‘Ajá, ¿y quién le enseñó a pensar así? ¿Con qué datos? ¿Y quién gana con este resultado?’.
La verdadera inteligencia no está en el chip; está en tu capacidad de dudar de la máquina. Jorge Cocompech en modo escepticista clásico (o cartesiano… algo más moderno)
