[Columna] ¿Sueñan los androides con mujeres eléctricas?

26 Septiembre 2017

En 1982, se estrenaba una película que rápidamente se convertiría en un objeto de culto: Blade Runner. Basada parcialmente en la novela de Philip K. Dick que parafraseamos para esta nota, ¿Sueñan los androides con ovejas eléctricas?, la película exploraba un futuro donde humanos creados genéticamente y humanos reales mantienen una relación particularmente tensa: explotados de manera brutal en colonias extraterrestres, los replicantes ingresan ilegalmente a la Tierra, donde un cuerpo especial de policía (los Blade Runner) deben darles caza.

Los replicantes se parecen en todo a los humanos, salvo en una cualidad: son incapaces de demostrar emoción o empatía. Pero, como siempre, hasta a los replicantes se les daba la manía de reproducir estereotipos de género, así que Harrison Ford termina amando a la pobre y desesperada replicante que cae bajo sus encantos -capaces de derribar a una superinteligencia.

Blade Runner compartía con muchas películas de su género esa visión de futuro donde los límites de la ingeniería nos permitirían literalmente fabricar humanos. En muchos sentidos, decir que era una premonición sería injusto, ya que por aquellas épocas (más o menos desde 1950) estaba bastante claro que las técnicas de manipulación genética, el poder de cálculo y las capacidades de almacenamiento de la información nos iban a llevar a ese futuro resplandeciente donde la productividad se incrementaría y las máquinas reemplazarían a los humanos en una gran cantidad de trabajos. Casualmente, aquella clase de trabajos que tenían lugar en las fábricas, donde la capacidad de organización de los trabajadores había puesto en jaque más de una vez a las ansias de extracción del plusvalor.

Los replicantes se parecen en todo a los humanos, salvo en una cualidad: son incapaces de demostrar emoción o empatía. Pero, como siempre, hasta a los replicantes se les daba la manía de reproducir estereotipos de género

El punto central de la cuestión, sin embargo, nunca fue el qué, sino el cómo y el cuándo. La inteligencia artificial iba a llegar. ¿En cincuenta años? ¿En el 2050? ¿En el 2030? ¿Cuándo? En la medida en que las diferentes predicciones se fueron posponiendo, en 1993 Vernor Vinge habló en un ensayo de un momento crucial en la historia de los humanos y las computadoras: "la singularidad" (singularity). En ese momento, la inteligencia de las computadoras va simplemente a superar la de los humanos, y el tablero de juego cambiará radicalmente sus reglas.

Hablemos de inteligencia artificial

Por supuesto, es difícil establecer cuándo y de qué forma llegará ese momento. Una hoja de ruta más realista se basa en determinar que hay tres clases de inteligencia artificial: la IA estrecha (ANI, por sus siglas en inglés); la IA general (AGI) y la superinteligencia artificial (ASI). Entre la IA general y la superinteligencia artificial el salto es muy corto.

La IA estrecha es la que básicamente le permite a una computadora ganar un partido de ajedrez. No es que sea más inteligente que el humano contra el que se enfrenta, sino que ha sido entrenada obsesivamente para descollar en una tarea específica. Si a esa inteligencia artificial se le pide que haga otro tipo de actividades (algo por otra parte muy frecuente en los humanos), probablemente no pueda. Por eso es posible reemplazar a los cirujanos por máquinas y a los chóferes por autos autónomos: a grandes rasgos, el grado de especialización que requiere una tarea es proporcional a su capacidad de ser automatizado o no y de ser reemplazado o no por una máquina.

Reemplazar a un humano en una línea de producción es simple, pero construir artificialmente una máquina que tenga las mismas habilidades que nuestros antepasados cazadores-recolectores es, hoy por hoy, imposible. Sin embargo, la inteligencia artificial estrecha está tan extendida en una multiplicidad de dispositivos, aplicaciones y situaciones de la vida cotidiana que directamente ignoramos que interactuamos con ella cada vez que, de hecho, lo hacemos. Hay inteligencia artificial en el buscador de Google, pero también en el sistema que consigue que el petróleo de la refinería llegue a un surtidor.

Reemplazar a un humano en una línea de producción es simple, pero construir artificialmente una máquina que tenga las mismas habilidades que nuestros antepasados cazadores-recolectores es, hoy por hoy, imposible

La segunda clase de inteligencia artificial, la IA general, es aquella que le permite a una máquina ser igual de inteligente que un humano en una variedad de áreas y tópicos, y no simplemente en aquello en que se especializó. Leer una imagen y comprender su contexto -incluso erradamente- es algo que a un humano le toma poco tiempo, pero a una computadora algo semejante le toma horas de entrenamiento y un proyecto multimillonario. Y aunque la capacidad de las "redes neuronales" está cada vez más extendida, aún sigue siendo muy difícil que puedan ejecutar tareas que a los humanos les cuestan poco, como por ejemplo reconocer los rasgos prosódicos del lenguaje que nos dan la pauta de que nuestro interlocutor está hablando en modo irónico o las diferencias que existen entre los elementos de una foto.

En parte, estas dificultades tienen que ver con la forma en que los humanos aprehendemos el mundo: observamos y hablamos, pero lo hacemos siempre de una manera creativa, bajo las reglas de un contexto cultural determinado. Y, aún más, en general no percibimos el mundo en la serie de unidades discretas en las que se basan. Nuestra habilidad para comprender el idioma castellano no se basa en el conocimiento de que para armar una frase en castellano necesito una cantidad determinada de letras del alfabeto combinadas según unas reglas particulares. Las interacciones sociales se dan según una serie de reglas que no tienen nada que ver con el manejo habilidoso del alfabeto o de las reglas sintáticas. Una máquina necesita horas y horas de entrenamiento y grandes cantidades de datos para entender qué es, efectivamente, el idioma castellano, y aún así probablemente se le escapen los detalles sutiles de las ironías.

El enfoque tradicional de la inteligencia artificial pasaba justamente por ahí: grandes cantidades de datos a partir de los cuales se conseguirá que, una vez entrenada según determinadas reglas, la máquina "piense". Los nuevos enfoques en inteligencia artificial buscan no tanto repetir el ingreso mecánico y lógico de los datos sino los procesos a través de los cuales esos datos son interpretados y recreados, es decir, alientan que las máquinas "interpreten". Esa es la revolución copernicana que se produjo en el campo de la investigación en inteligencia artificial: según esta serie discreta de datos, ¿de qué forma interpretará la máquina toda la serie de datos siguientes?

El camino a la inteligencia artificial está lleno de sesgos

Y, justamente, es en este punto donde aparecen los problemas. Hace unos años atrás, la gran "buzzword" era el "big data". Donde uno fuera, el big data era lo principal: big data esto, big data aquello. Tras todo el humo que fue dejando el big data, empezó a emerger de manera más clara que uno de los usos fundamentales de la recolección masiva de datos no era solamente venderte champú o tests de embarazos, sino también entrenar a las redes de inteligencia artificial. En efecto, cuanto más grande y correctamente organizado sea el conjunto de datos que un sistema de inteligencia artificial tiene para entrenarse, tantas más posibilidades tiene de mejorar el sistema sus capacidades. O eso pensábamos.

Pronto, distintas aplicaciones que hacen uso de inteligencia artificial empezaron a mostrar sus fallas. Así, Google confundió las caras de las personas negras con gorilas; Nikon le insistió a una asiática para que manteniera los ojos abiertos, pero también los resultados de búsqueda le devolvieron a las mujeres trabajos por salarios menores a los que les ofrecían a los hombres, y así sucesivamente.

Los sistemas de inteligencia artificial se alimentan con los datos que los humanos producimos, y en ese sentido "heredan" los prejuicios que existieron en primer lugar a la hora de construir esos conjuntos

Por supuesto, esto -que algunos llaman la "sociedad de los algoritmos"- tiene una estrecha correlación con el hecho de que, en buena medida, aplicamos inteligencia artificial sin siquiera saber demasiado bien cómo toma las decisiones que toma. A esa inteligencia artificial, además, la alimentamos con datos sesgados. El ejemplo más claro es que si en un área determinada, las fuerzas policiales tienden a arrestar más personas pobres, jóvenes y de tez morocha u oscura, cualquier sistema de inteligencia artificial que tome decisiones sobre criminalidad, por ejemplo, estará más inclinado a marcar a personas pobres, jóvenes y de tez oscura, sin importar la realidad de los índices de criminalidad (o, por caso, la gravedad de los crímenes cometidos entre un grupo de hombres blancos y otro grupo de hombres de tez oscura). Los sistemas de inteligencia artificial se alimentan con los datos que los humanos producimos, y en ese sentido "heredan" los prejuicios que existieron en primer lugar a la hora de construir esos conjuntos.

Ya podemos ir imaginando cómo respondería un sistema de inteligencia artificial a aquella famosa pregunta con la que Simone de Beauvoir abría el revolucionario "El segundo sexo": ¿Qué es una mujer? Las mujeres cocinamos, lavamos los platos, criamos a los hijos, estamos definidas por nuestras relaciones filiales (somos madres de, hermanas de, esposas de, sobrinas de), y estamos más cerca de las tareas domésticas que de las computadoras. Si vivir en una sociedad patriarcal y heteronormativa ya era un desafío, con todos los sesgos y prejuicios culturales, ahora la inteligencia artificial desmaterializa el problema y lo vuelve parte de su forma de comprender el mundo. La pregunta que permanece flotando en el aire es si dado un conjunto de datos, la inteligencia artificial tiene la capacidad de corregir este sesgo.

Y aunque existan métodos informáticos para corregir esas desviaciones y sesgos, el problema subyace en el conjunto de datos. Y a ese conjunto de datos, aún cuando estemos hablando de inteligencia artificial y de que los humanos quedaremos simplemente como los antepasados de los replicantes, todavía lo atan restricciones legales muy concretas. Así, el derecho de autor también hace su mella en el conjunto de datos con los que se entrena la inteligencia artificial.

Si vivir en una sociedad patriarcal y heteronormativa ya era un desafío, con todos los sesgos y prejuicios culturales, ahora la inteligencia artificial desmaterializa el problema y lo vuelve parte de su forma de comprender el mundo

.

Para mencionar un ejemplo, ningún país de América Latina tiene en su ley de derecho de autor una provisión que permita la lectura automática de textos. Las prácticas de los crawlers u operaciones como el scraping, aplicadas a un conjunto de textos protegidos, podrían ser consideradas ilegales según la mayoría de las leyes de derecho de autor de nuestros países.

Como ya discutimos en otras columnas, las leyes de derecho de autor afectan de manera diferente a las mujeres que a los hombres; pero, además, en un mundo donde los conjuntos de datos están protegidos, construir una base de datos alternativa que permita las correcciones de sesgo también podría enfrentarse con más de un escollo legal. La ausencia de limitaciones y excepciones que permitan estas prácticas vuelven a pegar otra vez sobre una cultura que abraza sus sesgos para no dejarlos ir.

Ya sabemos que los androides sueñan con mujeres. Quizás lo que debamos preguntarnos es si sueñan con mujeres eléctricas.

Share this
 

Enviar un comentario nuevo

CAPTCHA
Esta pregunta se hace para comprobar que es usted una persona real e impedir el envío automatizado de mensajes basura.
By submitting this form, you accept the Mollom privacy policy.