ESSION{id_auteur}|oui)

Portada del sitio > Mensual > 2011 > 2011/08 > La hostilidad de las máquinas

Programadas para dominar

La hostilidad de las máquinas

por Jean-Noël Lafargue, agosto de 2011

No es difícil experimentar la violencia de las puertas automáticas del metro de París. Una falta de atención, un mal movimiento, una mochila un poco más ancha, un niño que llevamos de la mano y no se da prisa… y la tenaza de goma tritura los hombros o golpea las sienes. La aventura hace sonreír a los usuarios cotidianos del metro: adaptados a las máquinas. Las mismas víctimas culpabilizan únicamente a su propia torpeza. Pero imaginemos por un momento que esas puertas automáticas se reemplazaran por vigilantes encargados de distribuir bofetadas o golpes a los clientes que no circulan a la velocidad adecuada: sería escandaloso, insoportable. Sin embargo, aceptamos ese trato de las máquinas, porque sabemos que no piensan. Entonces consideramos que no las mueve ninguna mala intención. Error: los autómatas no tienen conciencia de sus actos, pero obedecen siempre a un programa, intencionalmente regulado. En algunas ciudades hay máquinas controladoras de billetes, pero no puertas automáticas; en otras, el control de los billetes se efectúa bajo vigilancia humana; y en Aubagne o en Châteauroux, el transporte urbano es… gratuito.

La aparente lógica del control de los billetes (de muy discutible racionalidad económica) produce otros condicionamientos. Las barreras delimitan zonas precisas para las personas: o están dentro, o están fuera. En la estación de trenes de mi localidad de las afueras de París, la instalación reciente de puertas automáticas impide a los pasajeros salir libremente del andén a comprar un periódico, tomar un café o volver a la ventanilla a preguntar algo. El pasajero no tiene más opción que utilizar el dispensador automático de gaseosas y “snacks” (excesivamente caro) ubicado en el andén. Y si quiere leer, conformarse con los carteles de publicidad.

Innumerables dispositivos programados manejan o asisten nuestra vida diaria. ¿Quién no se ha vuelto loco alguna vez frente a uno de esos contestadores interactivos que intiman a “presionar la tecla asterisco” o a articular con una voz in-te-li-gi-ble expresiones ridículas: —“Si desea información, diga ‘información’”/ —“Información”/ —“Lo lamento, pero no he comprendido su respuesta, vuelva a intentarlo por favor”/ —“In-for-ma-ción”/ —“¿Vuelva a llamar más tarde?”

Anticipando la existencia de conversaciones programadas, Alan Turing, pionero de la informática, propuso en 1950 una prueba: cuando nos comunicamos únicamente a través de una interfaz textual, ¿cómo podemos saber si nuestro interlocutor es hombre, mujer, o un programa particularmente bien diseñado?

Las prácticas del marketing telefónico o de los servicios de asistencia en línea añaden un parámetro a este problema: ¿con quién hablamos realmente en esos intercambios programados? En muchos casos, los empleados de los telecentros (call-center) obedecen a un programa “experto” y carecen de todo margen de maniobra. Esos automatismos están diseñados sobre la idea, sin duda verificable, de que la gran mayoría de las preguntas son más o menos las mismas para todo el mundo. Los empleados “robotizados” actúan como filtro y evitan movilizar a técnicos para problemas menores. Muchas veces, el filtro resulta tan poderoso que es totalmente imposible dar con una persona competente.

Pero si los que responden son humanos, y no programas interactivos, es también porque, a falta de resolver sus problemas, los usuarios sienten que pueden encontrar en su interlocutor alguna forma de empatía, o en el peor de los casos, la posibilidad de desahogarse verbalmente –lo cual, como demostró Henri Laborit a finales de la década de 1950, permite aliviar el estrés, a nivel neurológico, casi tanto como lo permitiría la resolución efectiva del problema que lo causa.

Como remate, los teleoperadores cuya conversación sigue un guión programado tienen la ventaja de ser perfectamente intercambiables. Trabajan un día para una empresa pública, al día siguiente para un operador de telefonía, y el otro para una agencia de sondeos, y gozan de una formación muy escueta, que consiste ante todo en aprender a pronunciar solo frases positivas (no se dice “eso no es posible” sino “hacemos todo lo posible para resolver su problema”). Es posible que esos operadores, muchas veces ubicados en terceros países: francófonos para “clientes de Francia”, hispanohablantes para “clientes” de España, donde la mano de obra es barata, no comprendan realmente los problemas que supuestamente deben manejar –cuesta imaginar que a una habitante de Casablanca, Túnez, Quito o Bogotá, le apasionen los problemas de los clientes de un servicio de envío de paquetes de Francia, España o Reino Unido.

Proletarizados (privados de sus saberes prácticos), los empleados de los telecentros no tienen la posibilidad de tomar iniciativas, ni de adquirir (y convertir en dinero) ningún conocimiento ni experiencia: ningún riesgo de que uno u otro empleado se vuelva indispensable. Aleatoriamente, otros programas robotizados (esta vez 100% automáticos) llaman a los clientes para verificar su nivel de satisfacción. Las preguntas no suelen referirse al servicio en general, sino a la calidad de la conversación: “¿Le pareció satisfactoriamente amable su interlocutor?” “¿Se expresaba en un francés correcto?”. Gracias a ese cuestionario, que sólo tiene interés para el empleador, la tarea de control la efectúa el usuario, que pasa a ser un asistente del jefe del equipo y es colocado en posición de “patrón previo” (patron en aval), según la expresión de Marie-Anne Dujarier (1).

Presentada como una forma de reducir las tareas monótonas, la automatización no valora el libre arbitrio o las aptitudes del “recurso humano”, (el procedimiento no es de la incumbencia del agente), sino la capacidad de absorber el estrés y la agresividad. Todo parece montado, no para solucionar problemas, sino para impedir que éstos lleguen a sus responsables.

Dirijamos por un momento la vista hacia nuestros documentos de identidad. Nuestro retrato es completamente irreconocible: sin sonrisa, sin expresión, con la mirada vacía, damos una triste imagen de nosotros mismos, un poco angustiada, que no se nos parece y en la que nadie nos reconocerá. Así son las directivas oficiales del Ministerio del Interior: el sujeto debe “fijar la vista en el objetivo. Debe adoptar una expresión neutra y tener la boca cerrada. (…) El tamaño del rostro debe ser de 32 a 36 mm, desde el mentón hasta la coronilla” (Norma ISO/IEC 19794-5). El ministerio de la tristeza tiene una buena razón: esa imagen no está destinada a ojos humanos sino a programas de biometría, muy complejos, que solo reconocen a la gente en condiciones normatizadas. Así, el rostro oficial de cada uno está definido por las exigencias de un programa que solo ve una suma de cotas y una cara cuya expresividad debe ser completamente desterrada.
Actualmente, se están testeando unos programas que leen los labios de las personas filmadas –como el ordenador HAL9000 en 2001: Odisea del espacio de Stanley Kubrick–, analizan los gestos, la actitud, la postura o los desplazamientos. Un individuo que permanece en el andén y deja pasar varios trenes es sospechoso. Otro que camina a contracorriente de la multitud también lo es. Cada fenómeno que se desvía de la norma activa una alerta y provoca un control. Más aún, el departamento de seguridad interna de Estados Unidos cuenta con equipar los aeropuertos con un sistema denominado Future attribute screening technology (FAST), cuyo objetivo es detectar las actitudes que anuncian malas acciones: mirada huidiza, aceleración de los latidos del corazón, etc. Como en la película de Steven Spielberg Minority Report (basada en una novela de Philip K. Dick), el crimen se sabe antes de ser cometido (2).

Algunos dispositivos digitales en apariencia mucho más neutros pueden tener un carácter igualmente coercitivo. La informática personal modificó radicalmente muchas prácticas profesionales, y esto ha hecho caducar ciertos conocimientos prácticos. Antes llevaba años formar a un retocador de fotos, porque este debía disponer de una habilidad manual particular, conocer sus materiales y sus herramientas. Hoy en día se desplaza el conocimiento técnico al programa/software y se proletariza al artesano, que se hace tributario de decisiones tomadas por los ingenieros de las empresas Adobe o Apple. Como explica el artista y diseñador John Maeda, nadie puede pretender ser “un gran maestro del Photoshop” “Quién tiene el poder? ¿La herramienta o su dueño?” Para él, la salvación del creador pasa por la posesión de sus medios de producción.

¿Cómo volver a tener en nuestras manos nuestro “destino digital”, en una época en que por ser todos usuarios de herramientas programadas, corremos el riesgo de convertirnos en la cosa? Los debates en torno a la cuestión del hacking –utilización de una herramienta digital más allá de su modo de uso (3)–, el software libre –no ignorar nada del funcionamiento de un programa y poder mejorarlo– o el “hágalo usted mismo” (do it yourself) son mucho más políticos que tecnológicos.

(1) Marie-Anne Dujarier, Le travail du consommateur, La Découverte, 2008.

(2) “Terrorist ’pre-crime’ detector field tested in United States”, Nature, Londres, 27 de mayo de 2011.

(3) Jean-Marc Manach, “Les ‘bidouilleurs’ de la société de l’information”, Le Monde diplomatique, París, septiembre de 2008.

Jean-Noël Lafargue

Realizador multimedia, docente de la Universidad París 8, coautor con Jean-Michel Géridan de Processing: Le code informatique comme outil de création, Pearson, París, 2011.

Galería de imágenes

Todas las imágenes