El nooscopio MANIFIESTO

• La IA como instrumento del extractivismo del conocimiento

1. Algunas luces sobre el proyecto de mecanizar la razón.

The Nooscope es una cartografía de los límites de la inteligencia artificial, que pretende ser una provocación tanto para la informática como para las humanidades. Cualquier mapa es una perspectiva parcial, una forma de provocar el debate. Del mismo modo, este mapa es un manifiesto de los disidentes de AI. Su objetivo principal es desafiar las mistificaciones de la inteligencia artificial. Primero, como una definición técnica de la inteligencia y, segundo, como una forma política que sería autónoma de la sociedad y de lo humano. 1 En la expresión ‘inteligencia artificial’, el adjetivo ‘artificial’ conlleva el mito de la autonomía de la tecnología: alude a ‘mentes alienígenas’ caricaturescas que se autorreproducen in silico pero, en realidad, mistifica dos procesos de alienación propiamente dicha: la creciente autonomía geopolítica de empresas de alta tecnología y la invisibilización de la autonomía de los trabajadores en todo el mundo. El proyecto moderno de mecanización de la razón humana ha mutado claramente, en el siglo XXI, hacia un régimen corporativo de extractivismo del conocimiento y colonialismo epistémico. 2 Esto no es sorprendente, ya que los algoritmos de aprendizaje automático son los algoritmos más poderosos para la compresión de información.

El propósito del mapa de Nooscope es secularizar la IA del estatus ideológico de ‘máquina inteligente’ a uno de instrumento de conocimiento. En lugar de evocar leyendas de cognición alienígena, es más razonable considerar el aprendizaje automático como un instrumento de ampliación del conocimiento que ayuda a percibir características, patrones y correlaciones a través de vastos espacios de datos más allá del alcance humano. En la historia de la ciencia y la tecnología, esto no es ninguna novedad: ya lo han perseguido los instrumentos ópticos a lo largo de la historia de la astronomía y la medicina. 3 En la tradición de la ciencia, el aprendizaje automático es solo un nooscopio , un instrumento para ver y navegar el espacio del conocimiento (del griego skopein ‘examinar, mirar’ y noos‘conocimiento’).

Tomando prestada la idea de Gottfried Wilhelm Leibniz, el diagrama de Nooscope aplica la analogía de los medios ópticos a la estructura de todos los aparatos de aprendizaje automático. Discutiendo el poder de su cálculo raciocinador y los ‘números característicos’ (la idea de diseñar un lenguaje numérico universal para codificar y resolver todos los problemas del razonamiento humano), Leibniz hizo una analogía con instrumentos de aumento visual como el microscopio y el telescopio. Escribió: «Una vez que se establezcan los números característicos para la mayoría de los conceptos, la humanidad poseerá un nuevo instrumento que mejorará las capacidades de la mente en un grado mucho mayor que el que los instrumentos ópticos fortalecen los ojos, y reemplazará al microscopio y al telescopio en la medida de lo posible». en la misma medida en que la razón es superior a la vista. 4Aunque el propósito de este texto no es reiterar la oposición entre culturas cuantitativas y cualitativas, no es necesario seguir el credo de Leibniz. Las controversias no pueden computarse de manera concluyente. El aprendizaje automático no es la última forma de inteligencia.

Los instrumentos de medición y percepción siempre vienen con aberraciones incorporadas. De la misma manera que las lentes de los microscopios y telescopios nunca son perfectamente curvilíneas y lisas, las lentes lógicas del aprendizaje automático incorporan fallas y sesgos. Comprender el aprendizaje automático y registrar su impacto en la sociedad es estudiar el grado en que estos lentes difractan y distorsionan los datos sociales. Esto se conoce generalmente como el debate sobre el sesgo en la IA, pero las implicaciones políticas de la forma lógica del aprendizaje automático son más profundas. El aprendizaje automático no está trayendo una nueva era oscura, sino una de racionalidad difractada, en la que, como se mostrará, una episteme de causalidad es reemplazada por una de correlaciones automatizadas. Más en general, la IA es un nuevo régimen de verdad, prueba científica, normatividad social y racionalidad, que a menudo toma la forma de una alucinación estadística.. Este diagrama manifiesto es otra forma de decir que la IA, el rey de la computación (fantasía patriarcal del conocimiento mecanizado, ‘algoritmo maestro’ y máquina alfa ) está desnuda. Aquí, estamos mirando dentro de su caja negra.

Sobre la invención de las metáforas como instrumento de ampliación del conocimiento. 
Emanuele Tesauro, Il canocchiale aristotelico [El telescopio aristotélico], frontispicio de la edición de 1670, Turín.

2. La línea de montaje del aprendizaje automático: Datos, Algoritmo, Modelo.

La historia de la IA es una historia de experimentos, fallas de máquinas, controversias académicas, rivalidades épicas en torno a la financiación militar, conocidas popularmente como «inviernos de la IA». 5 Aunque la IA corporativa hoy describe su poder con el lenguaje de la ‘magia negra’ y la ‘cognición sobrehumana’, las técnicas actuales aún se encuentran en la etapa experimental. 6 La IA se encuentra ahora en la misma etapa que cuando se inventó la máquina de vapor, antes de que se descubrieran las leyes de la termodinámica necesarias para explicar y controlar su funcionamiento interno. Del mismo modo, hoy en día existen redes neuronales eficientes para el reconocimiento de imágenes, pero no existe una teoría del aprendizaje .para explicar por qué funcionan tan bien y por qué fallan tanto. Como cualquier invención, el paradigma del aprendizaje automático se consolidó lentamente, en este caso durante el último medio siglo. Un algoritmo maestro no ha aparecido de la noche a la mañana. Más bien, ha habido una construcción gradual de un método de computación que todavía tiene que encontrar un lenguaje común. Los manuales de aprendizaje automático para estudiantes, por ejemplo, aún no comparten una terminología común. ¿Cómo esbozar, entonces, una gramática crítica del aprendizaje automático que pueda ser concisa y accesible, sin entrar en el juego paranoico de definir la Inteligencia General?

Como instrumento de conocimiento, el aprendizaje automático se compone de un objeto a observar ( conjunto de datos de entrenamiento ), un instrumento de observación ( algoritmo de aprendizaje ) y una representación final ( modelo estadístico ). El ensamblaje de estos tres elementos se propone aquí como un diagrama espurio y barroco de aprendizaje automático, llamado extravagantemente Nooscope. 7 Siguiendo con la analogía de los medios ópticos, el flujo de información del aprendizaje automático es como un haz de luz que es proyectado por los datos de entrenamiento, comprimido por el algoritmo y difractado hacia el mundo por la lente del modelo estadístico.

El diagrama de Nooscope tiene como objetivo ilustrar los dos lados del aprendizaje automático al mismo tiempo: cómo funciona y cómo falla , enumerando sus componentes principales, así como el amplio espectro de errores, limitaciones, aproximaciones, sesgos, fallas, falacias y vulnerabilidades que son nativos de su paradigma. 8 Esta doble operación enfatiza que la IA no es un paradigma monolítico de racionalidad sino una arquitectura espuria hecha de técnicas y trucos de adaptación. Además, los límites de la IA no son simplemente técnicos, sino que están imbricados con sesgos humanos. En el diagrama de Nooscope, los componentes esenciales del aprendizaje automático están representados en el centro, los sesgos humanos y las intervenciones a la izquierda, y los sesgos técnicos .y limitaciones al derecho. Las lentes ópticas simbolizan sesgos y aproximaciones que representan la compresión y distorsión del flujo de información. El sesgo total del aprendizaje automático está representado por la lente central del modelo estadístico a través del cual se difracta la percepción del mundo.

Las limitaciones de la IA generalmente se perciben hoy en día gracias al discurso sobre el sesgo: la amplificación de la discriminación de género, raza, capacidad y clase por parte de los algoritmos. En el aprendizaje automático, es necesario distinguir entre el sesgo histórico, el sesgo del conjunto de datos y el sesgo del algoritmo, todos los cuales ocurren en diferentes etapas del flujo de información. 9 El sesgo histórico (o sesgo mundial) ya es evidente en la sociedad antes de la intervención tecnológica. Sin embargo, la naturalización de tal sesgo , es decir, la integración silenciosa de la desigualdad en una tecnología aparentemente neutra, es en sí misma dañina. 10Parafraseando a Michelle Alexander, Ruha Benjamin lo ha llamado el Nuevo Código Jim: ‘el empleo de nuevas tecnologías que reflejan y reproducen las desigualdades existentes pero que son promovidas y percibidas como más objetivas o progresistas que los sistemas discriminatorios de una época anterior’. 11 El sesgo del conjunto de datos se introduce a través de la preparación de datos de entrenamiento por parte de operadores humanos. La parte más delicada del proceso es el etiquetado de datos, en el que las taxonomías antiguas y conservadoras pueden causar una visión distorsionada del mundo, tergiversando las diversidades sociales y exacerbando las jerarquías sociales (ver más abajo el caso de ImageNet).

El sesgo algorítmico (también conocido como sesgo de máquina, sesgo estadístico o sesgo de modelo, al que el diagrama de Nooscope presta especial atención) es la mayor amplificación del sesgo histórico y el sesgo de conjuntos de datos mediante algoritmos de aprendizaje automático. El problema del sesgo se originó principalmente por el hecho de que los algoritmos de aprendizaje automático se encuentran entre los más eficientes para la compresión de información, lo que genera problemas de resolución, difracción y pérdida de información. 12 Desde la antigüedad, los algoritmos han sido procedimientos de carácter económico, diseñados para lograr un resultado en el menor número de pasos consumiendo la menor cantidad de recursos: espacio, tiempo, energía y trabajo. 13La carrera armamentista de las empresas de IA, todavía hoy, se preocupa por encontrar los algoritmos más simples y rápidos con los que capitalizar los datos. Si la compresión de información produce la máxima tasa de beneficio en la IA corporativa, desde el punto de vista social, produce discriminación y pérdida de diversidad cultural.

Si bien las consecuencias sociales de la IA se entienden popularmente bajo el tema del sesgo, la comprensión común de las limitaciones técnicas se conoce como el problema de la caja negra . El efecto de caja negra es un problema real de las redes neuronales profundas (que filtran tanto la información que su cadena de razonamiento no se puede revertir), pero se ha convertido en un pretexto genérico para la opinión de que los sistemas de IA no solo son inescrutables y opacos, sino incluso ‘ajenos’. ‘ y fuera de control. 14El efecto de caja negra es parte de la naturaleza de cualquier máquina experimental en la etapa temprana de desarrollo (ya se ha notado que el funcionamiento de la máquina de vapor siguió siendo un misterio durante algún tiempo, incluso después de haber sido probado con éxito). El problema real es la retórica de la caja negra, que está estrechamente ligada a los sentimientos de la teoría de la conspiración en los que la IA es un poder oculto que no se puede estudiar, conocer ni controlar políticamente.

3. El conjunto de datos de entrenamiento: los orígenes sociales de la inteligencia artificial.

La digitalización masiva, que se expandió con Internet en la década de 1990 y aumentó con los centros de datos en la década de 2000, ha puesto a disposición vastos recursos de datos que, por primera vez en la historia, son gratuitos y no están regulados. Un régimen de extractivismo del conocimiento (entonces conocido como Big Data) empleó gradualmente algoritmos eficientes para extraer ‘inteligencia’ de estas fuentes abiertas de datos, principalmente con el fin de predecir el comportamiento de los consumidores y vender anuncios. La economía del conocimiento se transformó en una nueva forma de capitalismo, llamada capitalismo cognitivo y luego capitalismo de vigilancia, por diferentes autores. 15Fue el desbordamiento de información de Internet, los grandes centros de datos, los microprocesadores más rápidos y los algoritmos para la compresión de datos lo que sentó las bases para el surgimiento de los monopolios de IA en el siglo XXI.

¿Qué tipo de objeto cultural y técnico es el conjunto de datos que constituye la fuente de la IA? La calidad de los datos de entrenamiento es el factor más importante que afecta a la llamada ‘inteligencia’ que extraen los algoritmos de aprendizaje automático. Hay una perspectiva importante a tener en cuenta para entender la IA como un nooscopio. Los datos son la primera fuente de valor e inteligencia. Los algoritmos son segundos; son las máquinas que calculan tal valor e inteligencia en un modelo. Sin embargo, los datos de entrenamiento nunca son crudos, independientes e imparciales (ellos mismos ya son ‘algorítmicos’). dieciséisTallar, formatear y editar conjuntos de datos de entrenamiento es una tarea laboriosa y delicada, que probablemente sea más significativa para los resultados finales que los parámetros técnicos que controlan el algoritmo de aprendizaje. El acto de seleccionar una fuente de datos en lugar de otra es la marca profunda de la intervención humana en el dominio de las mentes ‘artificiales’.

El conjunto de datos de entrenamiento es una construcción cultural, no solo técnica. Por lo general, comprende datos de entrada que están asociados con datos de salida ideales, como imágenes con sus descripciones, también llamadas etiquetas o metadatos. 17El ejemplo canónico sería la colección de un museo y su archivo, en el que las obras de arte están organizadas por metadatos como autor, año, medio, etc. El proceso semiótico de asignar un nombre o una categoría a una imagen nunca es imparcial; esta acción deja otra profunda huella humana en el resultado final de la cognición de la máquina. Un conjunto de datos de entrenamiento para el aprendizaje automático generalmente se compone de los siguientes pasos: 1) producción: mano de obra o fenómenos que producen información; 2) captura: codificación de información en un formato de datos por un instrumento: 3) formateo: organización de datos en un conjunto de datos: 4) etiquetado: en el aprendizaje supervisado, la clasificación de datos en categorías (metadatos).

La inteligencia artificial se entrena en grandes conjuntos de datos que se acumulan de formas que no son técnicamente neutrales ni socialmente imparciales. Los datos sin procesar no existen, ya que dependen del trabajo humano, los datos personales y los comportamientos sociales que se acumulan durante largos períodos, a través de redes extendidas y taxonomías controvertidas. 18 Los principales conjuntos de datos de entrenamiento para el aprendizaje automático (NMIST, ImageNet, Labeled Faces in the Wild, etc.) se originaron en corporaciones, universidades y agencias militares del Norte Global. Pero si se observa con más cuidado, se descubre una profunda división del trabajo que inerva en el Sur Global a través de plataformas de crowdsourcing que se utilizan para editar y validar datos. 19 La parábola de la ImageNetEl conjunto de datos ejemplifica los problemas de muchos conjuntos de datos de IA. ImageNet es un conjunto de datos de entrenamiento para Deep Learning que se ha convertido en el punto de referencia de facto para los algoritmos de reconocimiento de imágenes: de hecho, la revolución de Deep Learning comenzó en 2012 cuando Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton ganaron el desafío anual de ImageNet con la red neuronal convolucional AlexNet. 20 ImageNet fue iniciado por el científico informático Fei-Fei Li en 2006. 21 Fei-Fei Li tuvo tres intuiciones para construir un conjunto de datos confiable para el reconocimiento de imágenes. Primero, para descargar millones de imágenes gratuitas de servicios web como Flickr y Google. En segundo lugar, adoptar la taxonomía computacional WordNet para etiquetas de imágenes. 22Tercero, subcontratar el trabajo de etiquetar millones de imágenes a través de la plataforma de crowdsourcing Amazon Mechanical Turk. Al final del día (y de la línea de montaje), trabajadores anónimos de todo el planeta cobraban unos pocos centavos por tarea para etiquetar cientos de imágenes por minuto de acuerdo con la taxonomía de WordNet: su trabajo resultó en la ingeniería de una controvertida cultura. construir. Los académicos de inteligencia artificial Kate Crawford y el artista Trevor Paglen han investigado y revelado la sedimentación de categorías racistas y sexistas en la taxonomía de ImageNet: vea la legitimación de la categoría ‘fracaso, perdedor, fracasado, persona sin éxito’ para cien imágenes arbitrarias de personas. 23

El voraz extractivismo de datos de la IA ha causado una reacción violenta imprevisible en la cultura digital: a principios de la década de 2000, Lawrence Lessig no podía predecir que el gran depósito de imágenes en línea acreditadas por licencias Creative Commons se convertiría una década más tarde en un recurso no regulado para las tecnologías de vigilancia de reconocimiento facial. . De manera similar, los datos personales se incorporan continuamente sin transparencia en conjuntos de datos privatizados para el aprendizaje automático. En 2019, el artista e investigador de inteligencia artificial Adam Harvey reveló por primera vez el uso no consensuado de fotos personales en conjuntos de datos de entrenamiento para el reconocimiento facial. La divulgación de Harvey provocó que la Universidad de Stanford, la Universidad de Duke y Microsoft retiraran sus conjuntos de datos en medio de un gran escándalo de violación de la privacidad . 24Los conjuntos de datos de capacitación en línea desencadenan problemas de soberanía de datos y derechos civiles que las instituciones tradicionales tardan en contrarrestar (consulte el Reglamento general europeo de protección de datos). 25 Si 2012 fue el año en que comenzó la revolución del aprendizaje profundo, 2019 fue el año en que se descubrió que sus fuentes eran vulnerables y corruptas.

Patrones combinatorios y escrituras cúficas, pergamino de Topkapi, ca. 
1500, Irán.

4. La historia de la IA como automatización de la percepción.

La necesidad de desmitificar la IA (al menos desde el punto de vista técnico) también se entiende en el mundo corporativo. El jefe de IA de Facebook y padrino de las redes neuronales convolucionales, Yann LeCun, reitera que los sistemas de IA actuales no son versiones sofisticadas de cognición, sino de percepción. De manera similar, el diagrama de Nooscope expone el esqueleto de la caja negra de la IA y muestra que la IA no es un autómata pensante sino un algoritmo que realiza el reconocimiento de patrones.. La noción de reconocimiento de patrones contiene cuestiones que deben elaborarse. ¿Qué es un patrón, por cierto? ¿Es un patrón únicamente una entidad visual? ¿Qué significa leer los comportamientos sociales como patrones? ¿Es el reconocimiento de patrones una definición exhaustiva de inteligencia? Probablemente no. Para aclarar estas cuestiones, sería bueno emprender una breve arqueología de la IA.

El arquetipo de la máquina para el reconocimiento de patrones es el Perceptrón de Frank Rosenblatt . Inventado en 1957 en el Laboratorio Aeronáutico de Cornell en Buffalo, Nueva York, su nombre es una abreviatura de «Percepción y reconocimiento de autómatas». 26 Dada una matriz visual de fotorreceptores de 20×20, el Perceptron puede aprender a reconocer letras simples. Un patrón visual se registra como una impresión en una red de neuronas artificiales que se disparan en concierto con la repetición de imágenes similares y activan una sola neurona de salida. La neurona de salida dispara 1=verdadero, si se reconoce una imagen dada, o 0=falso, si no se reconoce una imagen dada.

La automatización de la percepción, como un montaje visual de píxeles a lo largo de una línea de montaje computacional, estaba originalmente implícita en el concepto de redes neuronales artificiales de McCulloch y Pitt. 27Una vez que el algoritmo para el reconocimiento de patrones visuales sobrevivió al ‘invierno de la IA’ y demostró ser eficiente a fines de la década de 2000, se aplicó también a conjuntos de datos no visuales, inaugurando adecuadamente la era del aprendizaje profundo (la aplicación de técnicas de reconocimiento de patrones a todo tipo de datos, no solo visuales). Hoy, en el caso de los autos sin conductor, los patrones que deben reconocerse son objetos en escenarios de carretera. En el caso de la traducción automática, los patrones que deben reconocerse son las secuencias de palabras más comunes en los textos bilingües. Independientemente de su complejidad, desde la perspectiva numérica del aprendizaje automático, nociones como imagen, movimiento, forma, estilo y decisión ética pueden describirse como distribuciones estadísticas de patrones. En este sentido, el reconocimiento de patrones se ha convertido verdaderamente en una nuevatécnica cultural que se utiliza en diversos campos. A efectos explicativos, el Nooscope se describe como una máquina que opera en tres modalidades: entrenamiento , clasificación y predicción . En términos más intuitivos, estas modalidades pueden denominarse: extracción de patrones, reconocimiento de patrones y generación de patrones.

El Perceptron de Rosenblatt fue el primer algoritmo que abrió el camino al aprendizaje automático en el sentido contemporáneo. En un momento en que la ‘ciencia de la computación’ aún no se había adoptado como definición, el propio Rosenblatt llamó al campo ‘geometría computacional’ y específicamente ‘conexionismo’. El negocio de estas redes neuronales, sin embargo, era calcular una inferencia estadística. Lo que calcula una red neuronal no es un patrón exacto sino la distribución estadística de un patrón . Simplemente raspando la superficie del marketing antropomórfico de la IA, uno encuentra otro objeto técnico y cultural que necesita ser examinado: el modelo estadístico .. ¿Qué es el modelo estadístico en el aprendizaje automático? ¿Cómo se calcula? ¿Cuál es la relación entre un modelo estadístico y la cognición humana? Estos son temas cruciales para aclarar. En cuanto al trabajo de desmitificación que hay que hacer (también para evaporar algunas preguntas ingenuas), sería bueno reformular la trillada pregunta ‘¿Puede pensar una máquina?’ en las preguntas teóricamente más sólidas ‘¿Puede pensar un modelo estadístico?’, ‘¿Puede un modelo estadístico desarrollar conciencia?’, etcétera.

5. El algoritmo de aprendizaje: comprimiendo el mundo en un modelo estadístico.

Los algoritmos de la IA a menudo se evocan como fórmulas alquímicas, capaces de destilar formas de inteligencia «alienígenas». Pero, ¿qué hacen realmente los algoritmos de aprendizaje automático? Pocas personas, incluidos los seguidores de AGI (Inteligencia General Artificial), se molestan en hacer esta pregunta. Algoritmo es el nombre de un proceso, mediante el cual una máquina realiza un cálculo. El producto de tales procesos de máquina es un modelo estadístico (denominado con mayor precisión «modelo estadístico algorítmico»). En la comunidad de desarrolladores, el término «algoritmo» se reemplaza cada vez más por «modelo». Esta confusión terminológica surge del hecho de que el modelo estadístico no existe por separado del algoritmo: de alguna manera, el modelo estadístico existe dentro del algoritmo bajo la forma de memoria distribuida entre sus parámetros. Por la misma razón, es esencialmente imposible visualizar un modelo estadístico algorítmico, como se hace con funciones matemáticas simples. Aún así, el desafío vale la pena.

En el aprendizaje automático, hay muchas arquitecturas de algoritmos : perceptrón simple, red neuronal profunda, máquina de vectores de soporte, red bayesiana, cadena de Markov, codificador automático, máquina de Boltzmann, etc. Cada una de estas arquitecturas tiene una historia diferente (a menudo arraigada en agencias y corporaciones militares). del Norte Global). Las redes neuronales artificiales comenzaron como estructuras informáticas simples que evolucionaron hasta convertirse en estructuras complejas que ahora están controladas por unos pocos hiperparámetros que expresan millones de parámetros . 28Por ejemplo, las redes neuronales convolucionales se describen mediante un conjunto limitado de hiperparámetros (número de capas, número de neuronas por capa, tipo de conexión, comportamiento de las neuronas, etc.) que proyectan una topología compleja de miles de neuronas artificiales con millones de parámetros. en total. El algoritmo comienza como una pizarra en blanco y, durante el proceso llamado entrenamiento o ‘aprendizaje de los datos’, ajusta sus parámetros hasta que alcanza una buena representación de los datos de entrada. En el reconocimiento de imágenes, como ya se ha visto, el cálculo de millones de parámetros tiene que resolverse en una salida binaria simple: 1=verdadero, se reconoce una imagen dada; o 0=falso, no se reconoce una imagen determinada. 29

Intentando una explicación accesible de la relación entre el algoritmo y el modelo, echemos un vistazo al complejo algoritmo Inception v3, una red neuronal convolucional profunda para el reconocimiento de imágenes diseñada en Google y entrenada en el conjunto de datos de ImageNet. Se dice que Inception v3 tiene una precisión del 78% en la identificación de la etiqueta de una imagen, pero el rendimiento de la «inteligencia de la máquina» en este caso también se puede medir por la proporción entre el tamaño de los datos de entrenamiento y el algoritmo (o modelo) entrenado. . ImageNet contiene 14 millones de imágenes con etiquetas asociadas que ocupan aproximadamente 150 gigabytes de memoria. Por otro lado, Inception v3, que pretende representar la información contenida en ImageNet, tiene solo 92 megabytes. La relación de compresión entre los datos de entrenamiento y el modelo describe parcialmente también la tasa de difracción de la información.30 Esta es una forma brutal pero efectiva de mostrar la relación entre el modelo y los datos, para mostrar cómo se mide y evalúa la ‘inteligencia’ de los algoritmos en la comunidad de desarrolladores.

Documentación para modelos individuales
ModeloTamañoPrecisión Top-1Precisión de los 5 mejoresParámetrosProfundidad
Xcepción88 MB0.7900.94522,910,480126
VGG16528 MB0.7130.901138,357,54423
VGG19549 megabytes0.7130.900143,667,24026
ResNet5098 MB0.7490.92125,636,712
ResNet101171 megabytes0.7640.92844,707,176
ResNet152232 MB0.7660.93160,419,944
ResNet50V298 MB0.7600.93025,613,800
ResNet101V2171 megabytes0.7720.93844,675,560
ResNet152V2232 MB0.7800.94260,380,648
OrigenV392 MB0.7790.93723,851,784159
InceptionResNetV2215 MB0.8030.95355,873,736572
MobileNet16 MB0.7040.8954,253,86488
MobileNetV214 MB0.7130.9013,538,98488
DenseNet12133 MB0.7500.9238,062,504121
DenseNet16957MB0.7620.93214,307,880169
DenseNet20180 MB0.7730.93620,242,984201
NASNetMóvil23 MB0.7440.9195,326,716
NASNetLarge343 megabytes0.8250.96088,949,818
Fuente: keras.io/aplicaciones

Los modelos estadísticos siempre han influido en la cultura y la política. No solo surgieron con el aprendizaje automático: el aprendizaje automático es solo una nueva forma de automatizar la técnica del modelado estadístico. Cuando Greta Thunberg advierte ‘Escucha a la ciencia’. lo que realmente quiere decir, siendo una buena estudiante de matemáticas, es ‘Escucha los modelos estadísticos de la ciencia del clima’. Sin modelos estadísticos, sin ciencia climática: sin ciencia climática, sin activismo climático. La ciencia del clima es de hecho un buen ejemplo para comenzar, a fin de comprender los modelos estadísticos. El calentamiento global se ha calculado recopilando primero un vasto conjunto de datos de temperaturas de la superficie de la Tierra cada día del año y, segundo, aplicando un modelo matemático que traza la curva de variaciones de temperatura en el pasado y proyecta el mismo patrón en el futuro. 31Los modelos climáticos son artefactos históricos que se prueban y debaten dentro de la comunidad científica, y hoy en día, también más allá. 32 Los modelos de aprendizaje automático, por el contrario, son opacos e inaccesibles al debate comunitario. Dado el grado de creación de mitos y el sesgo social en torno a sus construcciones matemáticas, la IA ha inaugurado la era de la ciencia ficción estadística . Nooscope es el proyector de este gran cine estadístico.

6. Todos los modelos son incorrectos, pero algunos son útiles.

‘Todos los modelos están equivocados, pero algunos son útiles’: el dicho canónico del estadístico británico George Box ha resumido durante mucho tiempo las limitaciones lógicas de las estadísticas y el aprendizaje automático. 33Esta máxima, sin embargo, se usa a menudo para legitimar el sesgo de la IA corporativa y estatal. Los informáticos argumentan que la cognición humana refleja la capacidad de abstraer y aproximar patrones. Entonces, ¿cuál es el problema de que las máquinas sean aproximadas y hagan lo mismo? Dentro de este argumento, se repite retóricamente que ‘el mapa no es el territorio’. Esto suena razonable. Pero lo que debe cuestionarse es que la IA es un mapa del territorio muy comprimido y distorsionado y que este mapa, como muchas formas de automatización, no está abierto a la negociación comunitaria. AI es un mapa del territorio sin acceso comunitario y consentimiento comunitario. 34

¿Cómo traza el aprendizaje automático un mapa estadístico del mundo? Enfrentemos el caso específico del reconocimiento de imágenes (la forma básica del trabajo de percepción , que ha sido codificada y automatizada como reconocimiento de patrones). 35 Dada una imagen para ser clasificada, el algoritmo detecta los bordes de un objeto como la distribución estadística de píxeles oscuros rodeados de píxeles claros (un patrón visual típico). El algoritmo no sabe qué es una imagen, no percibe una imagen como lo hace la cognición humana, solo calcula píxeles, valores numéricos de brillo y proximidad. El algoritmo está programado para registrar solo el borde oscuro de un perfil (es decir, para ajustarse al patrón deseado) y no todos los píxeles de la imagen (eso daría como resultado un ajuste excesivo ).y repitiendo todo el campo visual). Se dice que un modelo estadístico se entrena con éxito cuando puede ajustarse elegantemente solo a los patrones importantes de los datos de entrenamiento y aplicar esos patrones también a nuevos datos ‘en la naturaleza’. Si un modelo aprende demasiado bien los datos de entrenamiento, solo reconoce coincidencias exactas de los patrones originales y pasará por alto aquellos con similitudes cercanas, ‘en la naturaleza’. En este caso, el modelo está sobreajustado , porque lo ha aprendido todo meticulosamente (incluido el ruido) y no es capaz de distinguir un patrón de su fondo. Por otro lado, el modelo es insuficientecuando no es capaz de detectar patrones significativos a partir de los datos de entrenamiento. Las nociones de sobreajuste, ajuste y desajuste de datos se pueden visualizar en un plano cartesiano.

El desafío de proteger la precisión del aprendizaje automático radica en calibrar el equilibrio entre el ajuste insuficiente y el ajuste excesivo de los datos, lo cual es difícil de hacer debido a los diferentes sesgos de las máquinas.  El aprendizaje automático es un término que, al igual que la ‘IA’, antropomorfiza una parte de la tecnología: el aprendizaje automático  no aprende nada en el sentido estricto de la palabra, como lo hace un ser humano;  el aprendizaje automático simplemente mapea una distribución estadística de valores numéricos y dibuja una función matemática que, con suerte, se aproxima a la comprensión humana.  Dicho esto, el aprendizaje automático puede, por esta razón, arrojar nueva luz sobre las formas en que los humanos comprenden.

El modelo estadístico de los algoritmos de aprendizaje automático también es una aproximación en el sentido de que adivina las partes faltantes del gráfico de datos: ya sea a través de la  interpolación , que es la predicción de una salida  y dentro del intervalo conocido de la entrada  x en el conjunto de datos de entrenamiento, o a través de la  extrapolación, que es la predicción de la salida  y más allá de los límites de  x, a menudo con altos riesgos de inexactitud.  Esto es lo que hoy significa ‘inteligencia’ dentro de la inteligencia artificial: extrapolar una función no lineal más allá de los límites de datos conocidos. 
Como bien dice Dan McQuillian: ‘No hay inteligencia en la inteligencia artificial, ni aprende, aunque su nombre técnico es aprendizaje automático, es simplemente minimización matemática’. 36

Es importante recordar que la ‘inteligencia’ del aprendizaje automático no está impulsada por fórmulas exactas de análisis matemático, sino por algoritmos de aproximación de fuerza bruta .  La forma de la función de correlación entre la entrada  x y la salida y se calcula algorítmicamente, paso a paso, a través de tediosos procesos mecánicos de ajuste gradual (como el descenso del gradiente, por ejemplo) que son equivalentes al cálculo diferencial de Leibniz y Newton.  Se dice que las redes neuronales se encuentran entre los algoritmos más eficientes porque estos métodos diferenciales pueden  aproximarse a la forma de cualquier función dadas suficientes capas de neuronas y abundantes recursos informáticos. 37 La aproximación gradual de fuerza bruta de una función es la característica central de la IA actual, y solo desde esta perspectiva se pueden comprender sus potencialidades y limitaciones, en particular su creciente huella de carbono (el entrenamiento de redes neuronales profundas requiere cantidades exorbitantes de energía debido al descenso de gradiente y algoritmos de entrenamiento similares que operan sobre la base de ajustes infinitesimales continuos). 38

7. Mundo a vector.

Las nociones de ajuste de datos, ajuste excesivo, ajuste insuficiente, interpolación y extrapolación se pueden visualizar fácilmente en dos dimensiones, pero los modelos estadísticos suelen operar a lo largo de espacios de datos multidimensionales. Antes de ser analizados, los datos se codifican en un espacio vectorial multidimensional que dista mucho de ser intuitivo. ¿Qué es un espacio vectorial y por qué es multidimensional? Cardon, Cointet y Mazière describen así la vectorialización de los datos:

Una red neuronal requiere que las entradas de la calculadora tomen la forma de un vector. Por lo tanto, el mundo debe codificarse de antemano en forma de una representación vectorial puramente digital. Mientras que ciertos objetos, como las imágenes, se descomponen naturalmente en vectores, otros objetos deben «incrustarse» dentro de un espacio vectorial antes de que sea posible calcularlos o clasificarlos con redes neuronales. Este es el caso del texto, que es el ejemplo prototípico. Para ingresar una palabra en una red neuronal, el Word2vecla técnica la ‘incrusta’ en un espacio vectorial que mide su distancia de las otras palabras del corpus. Las palabras heredan así una posición dentro de un espacio con varios cientos de dimensiones. La ventaja de tal representación reside en las numerosas operaciones que ofrece tal transformación. Dos términos cuyas posiciones inferidas están próximas entre sí en este espacio son igualmente similares semánticamente; se dice que estas representaciones están distribuidas: el vector del concepto ‘apartamento’ [-0.2, 0.3, -4.2, 5.1…] será similar al de ‘casa’ [-0.2, 0.3, -4.0, 5.1. ..]. […] Si bien el procesamiento del lenguaje natural fue pionero para ‘incrustar’ palabras en un espacio vectorial, hoy asistimos a una generalización del proceso de incrustación que se extiende progresivamente a todos los campos de aplicación:graph2vec , textos con párrafo2vec , películas con movie2vec , significados de palabras con sens2vec , estructuras moleculares con mol2vec , etc. Según Yann LeCun, el objetivo de los diseñadores de máquinas conexionistas es poner el mundo en un vector ( world2vec ). 39

El espacio vectorial multidimensional es otra razón por la cual la lógica del aprendizaje automático es difícil de comprender. El espacio vectorial es otra nueva técnica cultural con la que vale la pena familiarizarse. El campo de las Humanidades Digitales, en particular, ha estado cubriendo la técnica de vectorización a través de la cual nuestro conocimiento colectivo se procesa y procesa de manera invisible. La definición original de ciberespacio de William Gibson profetizó, muy probablemente, la llegada de un espacio vectorial en lugar de una realidad virtual: ‘Una representación gráfica de datos extraídos de los bancos de cada computadora en el sistema humano. Complejidad impensable. Líneas de luz se alineaban en el no espacio de la mente, cúmulos y constelaciones de datos. Como las luces de la ciudad, alejándose. 40 

Derecha: Espacio vectorial de siete palabras en tres contextos. 41

Sin embargo, se debe enfatizar que el aprendizaje automático todavía se parece más a la artesanía que a las matemáticas exactas. La IA sigue siendo una historia de trucos y trucos en lugar de intuiciones místicas. Por ejemplo, un truco de la compresión de información es la reducción de la dimensionalidad , que se utiliza para evitar la maldición de la dimensionalidad, es decir, el crecimiento exponencial de la variedad de características en el espacio vectorial. Las dimensiones de las categorías que muestran poca variación en el espacio vectorial (es decir, cuyos valores fluctúan solo un poco) se agregan para reducir los costos de cálculo. La reducción de dimensionalidad se puede utilizar para agrupar los significados de las palabras (como en el modelo word2vec), pero también puede conducir a la reducción de categorías ., lo que puede tener un impacto en la representación de la diversidad social. La reducción de la dimensionalidad puede reducir las taxonomías e introducir sesgos, normalizando aún más la diversidad mundial y eliminando las identidades únicas. 42

8. La sociedad de bots de clasificación y predicción.

La mayoría de las aplicaciones contemporáneas del aprendizaje automático pueden describirse según las dos modalidades de clasificación y predicción, que perfilan los contornos de una nueva sociedad de control y gobernanza estadística. La clasificación se conoce como reconocimiento de patrones, mientras que la predicción también se puede definir como generación de patrones . Se reconoce o genera un nuevo patrón al interrogar el núcleo interno del modelo estadístico.

La clasificación de aprendizaje automático generalmente se emplea para reconocer un signo, un objeto o un rostro humano, y para asignar una categoría correspondiente (etiqueta) de acuerdo con la taxonomía o la convención cultural. Un archivo de entrada (p. ej., una fotografía de la cabeza capturada por una cámara de vigilancia) se ejecuta a través del modelo para determinar si se encuentra dentro de su distribución estadística o no. Si es así, se le asigna la etiqueta de salida correspondiente. Desde los tiempos del Perceptrón, la clasificación ha sido la aplicación original de las redes neuronales: con Deep Learning, esta técnica se encuentra de manera omnipresente en los clasificadores de reconocimiento facial que implementan las fuerzas policiales y los fabricantes de teléfonos inteligentes por igual.

La predicción de aprendizaje automático se utiliza para proyectar tendencias y comportamientos futuros de acuerdo con los pasados, es decir, para completar una información sabiendo solo una parte de ella. En la modalidad de predicción, se utiliza una pequeña muestra de datos de entrada (un cebador) para predecir la parte faltante de la información siguiendo nuevamente la distribución estadística del modelo (esta podría ser la parte de un gráfico numérico orientado hacia el futuro o el parte faltante de una imagen o archivo de audio). Por cierto, existen otras modalidades de aprendizaje automático: la distribución estadística de un modelo se puede visualizar dinámicamente a través de una técnica llamada exploración del espacio latente y, en algunas aplicaciones de diseño recientes, también exploración de patrones. 43

La clasificación y la predicción del aprendizaje automático se están convirtiendo en técnicas omnipresentes que constituyen nuevas formas de vigilancia y gobernanza. Algunos aparatos, como los vehículos autónomos y los robots industriales, pueden ser una integración de ambas modalidades. Un vehículo autónomo está capacitado para reconocer diferentes objetos en la carretera (personas, automóviles, obstáculos, señales) y predecir acciones futuras en función de las decisiones que un conductor humano ha tomado en circunstancias similares. Si bien reconocer un obstáculo en un camino parece un gesto neutral (no lo es), identificar a un ser humano según categorías de género, raza y clase (y en la reciente pandemia de COVID-19 como enfermo o inmune), como instituciones estatales están haciendo cada vez más, es el gesto de un nuevo régimen disciplinario.44

Recientemente, la modalidad generativa del aprendizaje automático ha tenido un impacto cultural: su uso en la producción de artefactos visuales ha sido recibido por los medios de comunicación como la idea de que la inteligencia artificial es ‘creativa’ y puede hacer arte de forma autónoma.  Una obra de arte que se dice que fue creada por IA siempre oculta un operador humano, que ha aplicado la modalidad generativa de una red neuronal entrenada en un conjunto de datos específico.  En esta modalidad, la red neuronal se ejecuta  al revés(moviéndose desde la capa de salida más pequeña hacia la capa de entrada más grande) para generar nuevos patrones después de ser entrenados para clasificarlos, un proceso que generalmente se mueve desde la capa de entrada más grande a la capa de salida más pequeña.  La modalidad generativa, sin embargo, tiene algunas aplicaciones útiles: puede usarse como una especie de verificación de la realidad para revelar lo que el modelo ha aprendido, es decir, para mostrar cómo el modelo ‘ve el mundo’.  Se puede aplicar al modelo de un coche autónomo, por ejemplo, para comprobar cómo se proyecta el escenario de la carretera.

Una forma famosa de ilustrar cómo un modelo estadístico ‘ve el mundo’ es Google DeepDream. 
DeepDream es una red neuronal convolucional basada en Inception (que está entrenada en el conjunto de datos ImageNet mencionado anteriormente) que fue programada por Alexander Mordvintsev para proyectar patrones alucinatorios.  Mordvintsev tuvo la idea de «dar la vuelta a la red», es decir, convertir un clasificador en un generador, utilizando como entrada ruido aleatorio o imágenes genéricas de paisajes. 45Descubrió que «las redes neuronales que fueron entrenadas para discriminar entre diferentes tipos de imágenes también tienen bastante de la información necesaria para generar imágenes». 
En los primeros experimentos de DeepDream, las plumas de las aves y los ojos de los perros comenzaron a surgir en todas partes, ya que las razas de perros y las especies de aves están sobrerrepresentadas en ImageNet.  También se descubrió que la categoría ‘mancuerna’ se aprendió con un brazo humano surrealista siempre pegado a ella.  Prueba de que muchas otras categorías de ImageNet están tergiversadas.

Las dos modalidades principales de clasificación y generación se pueden ensamblar en otras arquitecturas, como en las Redes adversarias generativas.  En la arquitectura GAN, una red neuronal con función de  discriminador (un clasificador tradicional) debe reconocer una imagen producida por una red neuronal con función de generador, en un bucle de refuerzo que entrena los dos modelos estadísticos simultáneamente.  Para algunas propiedades convergentes de sus respectivos modelos estadísticos, las GAN han demostrado ser muy buenas para generar imágenes muy realistas. Esta habilidad ha provocado su abuso en la fabricación de ‘falsificaciones profundas’. 46Con respecto a los regímenes de verdad, una aplicación controvertida similar es el uso de GAN para generar datos sintéticos en la investigación del cáncer, en el que las redes neuronales entrenadas en conjuntos de datos desequilibrados de tejidos cancerosos han comenzado a alucinar cáncer donde no lo había. 47 En este caso ‘en lugar de descubrir cosas, estamos inventando cosas’, advierte Fabian Offert, ‘el espacio de descubrimiento es idéntico al espacio de conocimiento que ya ha tenido el GAN. […] Mientras pensamos que estamos viendo a través de GAN, mirando algo con la ayuda de un GAN, en realidad estamos viendo un GAN.  La visión GAN no es realidad aumentada, es realidad virtual.  Las GAN desdibujan el descubrimiento y la invención. 
48La simulación GAN del cáncer cerebral es un trágico ejemplo de alucinación científica impulsada por IA.
Joseph Paul Cohen, Margaux Luck y Sina Honari. ‘Distribution Matching Losses Can Hallucinate Features in Medical Image Translation’, 2018. Cortesía de los autores.

9. Defectos de un instrumento estadístico: la indetección de lo nuevo.

El poder normativo de la IA en el siglo XXI debe examinarse en estos términos epistémicos: ¿qué significa enmarcar el conocimiento colectivo como patrones y qué significa dibujar espacios vectoriales y distribuciones estadísticas de comportamientos sociales? Según Foucault, en la Francia moderna temprana, el poder estadístico ya se usaba para medir las normas sociales, discriminando entre el comportamiento normal y el anormal. 49AI extiende fácilmente el ‘poder de normalización’ de las instituciones modernas, entre otras la burocracia, la medicina y las estadísticas (originalmente, el conocimiento numérico que posee el estado sobre su población) que ahora pasa a manos de las corporaciones de AI. La norma institucional se ha convertido en una norma computacional: la clasificación del sujeto, de los cuerpos y de los comportamientos, parece ya no ser un asunto de registros públicos, sino de algoritmos y centros de datos. 50 ‘La racionalidad centrada en los datos’, ha concluido Paula Duarte, ‘debe entenderse como una expresión de la colonialidad del poder’. 51

Sin embargo, siempre persiste una brecha, una fricción, un conflicto entre los modelos estadísticos de IA y el sujeto humano que se supone que debe medirse y controlarse. Esta brecha lógica entre los modelos estadísticos de IA y la sociedad suele debatirse como sesgo . Se ha demostrado ampliamente cómo el reconocimiento facial tergiversa las minorías sociales y cómo los barrios negros, por ejemplo, son pasados ​​por alto por el servicio de logística y entrega impulsado por IA. 52 Si los algoritmos de IA amplifican las discriminaciones de género, raza y clase, esto también es parte de un problema mayor de discriminación y normalización en el núcleo lógico del aprendizaje automático. La limitación lógica y política de la IA es la dificultad de la tecnología en el reconocimiento y predicción de un nuevo evento. ¿Cómo lidia el aprendizaje automático con una anomalía verdaderamente única, un comportamiento social poco común, un acto innovador de disrupción? Las dos modalidades de aprendizaje automático muestran una limitación que no es simplemente un sesgo.

Un límite lógico de la clasificación del aprendizaje automático, o reconocimiento de patrones, es la incapacidad de reconocer una anomalía única que aparece por primera vez, como una nueva metáfora en la poesía, un nuevo chiste en la conversación cotidiana o un obstáculo inusual (¿un peatón? ¿una bolsa de plástico?) en el escenario de la carretera. El desconocimiento de lo nuevo(algo que nunca ha «visto» un modelo y, por lo tanto, nunca antes se clasificó en una categoría conocida) es un problema particularmente peligroso para los automóviles autónomos y que ya ha causado muertes. La predicción del aprendizaje automático, o la generación de patrones, muestra fallas similares en la adivinación de tendencias y comportamientos futuros. Como técnica de compresión de información, el aprendizaje automático automatiza la dictadura del pasado, de las taxonomías y patrones de comportamiento del pasado, sobre el presente. Este problema puede denominarse la regeneración de lo viejo : la aplicación de una visión homogénea del espacio-tiempo que restringe la posibilidad de un nuevo evento histórico.

Curiosamente, en el aprendizaje automático, la definición lógica de un problema de seguridad también describe el límite lógico de su potencial creativo. Los problemas propios de la predicción de lo nuevo están lógicamente relacionados con los que caracterizan la generación de lo nuevo., porque la forma en que un algoritmo de aprendizaje automático predice una tendencia en un gráfico de tiempo es idéntica a la forma en que genera una nueva obra de arte a partir de patrones aprendidos. La trillada pregunta «¿Puede la IA ser creativa?» debería reformularse en términos técnicos: ¿es capaz el aprendizaje automático de crear obras que no sean imitaciones del pasado? ¿Puede el aprendizaje automático extrapolar más allá de los límites estilísticos de sus datos de entrenamiento? La ‘creatividad’ del aprendizaje automático se limita a la detección de estilos a partir de los datos de entrenamiento y luego a la improvisación aleatoria dentro de estos estilos. En otras palabras, el aprendizaje automático puede explorar e improvisar solo dentro de los límites lógicos establecidos por los datos de entrenamiento. Por todas estas cuestiones, y su grado de compresión de la información, sería más exacto denominar arte de aprendizaje automático como arte estadístico.

Lewis Fry Richardson, Predicción meteorológica por proceso numérico, Cambridge University Press, 1922.

Otro error tácito del aprendizaje automático es que la correlación estadística entre dos fenómenos a menudo se adopta para explicar la causalidad de uno a otro. En estadística, se entiende comúnmente que la correlación no implica causalidad , lo que significa que una coincidencia estadística por sí sola no es suficiente para demostrar la causalidad. Se puede encontrar un ejemplo trágico en el trabajo del estadístico Frederick Hoffman, quien en 1896 publicó un informe de 330 páginas para las compañías de seguros para demostrar una correlación racial entre ser estadounidense negro y tener una esperanza de vida corta. 53Extrayendo datos superficialmente, el aprendizaje automático puede construir cualquier correlación arbitraria que luego se perciba como real. En 2008, esta falacia lógica fue adoptada con orgullo por el director de Wired, Chris Anderson, quien declaró el «fin de la teoría» porque «el diluvio de datos vuelve obsoleto el método científico». 54 Según Anderson, que no es un experto en métodos científicos e inferencias lógicas, la correlación estadística es suficiente para que Google administre su negocio de anuncios, por lo tanto, también debe ser lo suficientemente buena para descubrir automáticamente paradigmas científicos. Incluso Judea Pearl, pionera de las redes bayesianas, cree que el aprendizaje automático está obsesionado con el ‘ajuste de curvas’, registrando correlaciones sin dar explicaciones. 55Tal falacia lógica ya se ha convertido en política, si se considera que las fuerzas policiales en todo el mundo han adoptado algoritmos policiales predictivos. 56 Según Dan McQuillan, cuando el aprendizaje automático se aplica a la sociedad de esta manera, se convierte en un aparato biopolítico de preferencia, que produce subjetividades que posteriormente pueden ser criminalizadas. 57 En última instancia, el aprendizaje automático obsesionado con el ‘ajuste de curvas’ impone una cultura estadística y reemplaza la episteme tradicional de causalidad (y responsabilidad política) con una de correlaciones impulsadas ciegamente por la automatización de la toma de decisiones.

10. Inteligencia adversarial vs. inteligencia artificial.

Hasta ahora, las difracciones estadísticas y las alucinaciones del aprendizaje automático se han seguido paso a paso a través de las múltiples lentes del Nooscope. En este punto, la orientación del instrumento debe invertirse: tanto las teorías científicas como los dispositivos computacionales tienden a consolidar una perspectiva abstracta: la ‘visión científica de la nada’, que a menudo es solo el punto de vista del poder. El estudio obsesivo de la IA puede succionar al erudito en un abismo de computación y la ilusión de que la forma técnica ilumina la social. Como comenta Paola Ricaurte: ‘El extractivismo de datos asume que todo es una fuente de datos’. 58¿Cómo emanciparnos de una visión del mundo centrada en los datos? Es hora de darse cuenta de que no es el modelo estadístico el que construye el sujeto, sino el sujeto el que estructura el modelo estadístico. Los estudios internalistas y externalistas de la IA tienen que desdibujarse: las subjetividades hacen las matemáticas del control desde adentro, no desde afuera. Para secundar lo que Guattari dijo una vez sobre las máquinas en general, la inteligencia de las máquinas también está constituida por «formas hiperdesarrolladas e hiperconcentradas de ciertos aspectos de la subjetividad humana». 59

Más que estudiar únicamente cómo funciona la tecnología, la investigación crítica estudia también cómo se rompe, cómo los sujetos se rebelan contra su control normativo y cómo los trabajadores sabotean sus engranajes. En este sentido, una forma de sondear los límites de la IA es observar las prácticas de piratería. La piratería es un método importante de producción de conocimiento, una prueba epistémica crucial en la oscuridad de la IA. 60 Los sistemas de aprendizaje profundo para el reconocimiento facial han desencadenado, por ejemplo, formas de activismo de contravigilancia. A través de técnicas de ofuscación facial, los humanos han decidido volverse ininteligibles para la inteligencia artificial: es decir convertirse, ellos mismos, en cajas negras . Las técnicas tradicionales de ofuscacióncontra la vigilancia adquiere inmediatamente una dimensión matemática en la era del aprendizaje automático. Por ejemplo, el artista e investigador de inteligencia artificial Adam Harvey ha inventado un tejido de camuflaje llamado HyperFace que engaña a los algoritmos de visión por computadora para ver múltiples rostros humanos donde no hay ninguno. 61 El trabajo de Harvey provoca la pregunta: ¿qué constituye un rostro para un ojo humano, por un lado, y un algoritmo de visión por computadora, por el otro? Las fallas neuronales de HyperFace explotan esa brecha cognitiva y revelan cómo se ve un rostro humano para una máquina. Esta brecha entre la percepción humana y la de las máquinas ayuda a introducir el creciente campo de los ataques adversarios.

Adam Harvey, patrón HyperFace, 2016.

Los ataques adversarios aprovechan los puntos ciegos y las regiones débiles en el modelo estadístico de una red neuronal, generalmente para engañar a un clasificador y hacer que perciba algo que no está allí. En el reconocimiento de objetos, un ejemplo contradictorio puede ser una imagen manipulada de una tortuga, que parece inocua para el ojo humano pero que una red neuronal clasifica erróneamente como un rifle. 62 Los ejemplos adversos se pueden realizar como objetos 3D e incluso pegatinas para las señales de tráfico que pueden confundir a los vehículos autónomos (que pueden leer un límite de velocidad de 120 km/h cuando en realidad es de 50 km/h). 63Los ejemplos contradictorios se diseñan sabiendo lo que una máquina nunca ha visto antes. Este efecto también se logra aplicando ingeniería inversa al modelo estadístico o contaminando el conjunto de datos de entrenamiento. En este último sentido, la técnica de envenenamiento de datos se dirige al conjunto de datos de entrenamiento e introduce datos manipulados. Al hacerlo, altera la precisión del modelo estadístico y crea una puerta trasera que eventualmente puede ser explotada por un ataque adversario. 64

El ataque adversario parece apuntar a una vulnerabilidad matemática que es común a todos los modelos de aprendizaje automático: «Un aspecto intrigante de los ejemplos adversarios es que un ejemplo generado para un modelo a menudo es mal clasificado por otros modelos, incluso cuando tienen arquitecturas diferentes o fueron entrenados en conjuntos de entrenamiento disjuntos. sesenta y cincoLos ataques adversarios nos recuerdan la discrepancia entre la percepción humana y la de las máquinas y que el límite lógico del aprendizaje automático también es político. El límite lógico y ontológico del aprendizaje automático es el sujeto rebelde o el evento anómalo que escapa a la clasificación y el control. El tema del control algorítmico responde. Los ataques adversarios son una forma de sabotear la línea de montaje del aprendizaje automático al inventar un obstáculo virtual que puede desarticular el aparato de control. Un ejemplo contradictorio es el sabot en la era de la IA.

11. El trabajo en la era de la IA.

Las naturalezas de la ‘entrada’ y la ‘salida’ del aprendizaje automático deben aclararse. Los problemas de la IA no solo tienen que ver con el sesgo de información, sino también con el trabajo. La IA no es solo un aparato de control, sino también productivo. Como se acaba de mencionar, una fuerza de trabajo invisible está involucrada en cada paso de su línea de ensamblaje (composición de conjuntos de datos, supervisión de algoritmos, evaluación de modelos, etc.). Conductos de tareas interminables inervan desde el Norte Global hacia el Sur Global; Las plataformas colaborativas de trabajadores de Venezuela, Brasil e Italia, por ejemplo, son cruciales para enseñar a los automóviles autónomos alemanes ‘cómo ver’. 66En contra de la idea de una inteligencia alienígena en acción, se debe enfatizar que en todo el proceso de cómputo de la IA, el trabajador humano nunca ha salido del circuito, o dicho con mayor precisión, nunca ha salido de la línea de montaje. Mary Gray y Siddharth Suri acuñaron el término » trabajo fantasma » para el trabajo invisible que hace que la IA parezca artificialmente autónoma.

Más allá de algunas decisiones básicas, la inteligencia artificial actual no puede funcionar sin humanos en el circuito. Ya sea que se trate de entregar una fuente de noticias relevante o de realizar un pedido de pizza complicado por mensaje de texto, cuando la inteligencia artificial (IA) falla o no puede terminar el trabajo, miles de empresas llaman a las personas para que completen el proyecto en silencio. Esta nueva línea de montaje digital agrega el aporte colectivo de trabajadores distribuidos, envía piezas de proyectos en lugar de productos y opera en una gran cantidad de sectores económicos en todo momento del día y de la noche.

La automatización es un mito; Debido a que las máquinas, incluida la IA, constantemente requieren ayuda humana, algunos autores han sugerido reemplazar ‘automatización’ con el término más preciso heteromación . 67 La heteromación significa que la narrativa familiar de la IA como perpetuum mobile solo es posible gracias a un ejército de trabajadores de reserva.

Sin embargo, hay una forma más profunda en la que el trabajo constituye la IA. La fuente de información del aprendizaje automático (cualquiera que sea su nombre: datos de entrada, datos de entrenamiento o simplemente datos) es siempre una representación de las habilidades, actividades y comportamientos humanos, la producción social en general. Todos los conjuntos de datos de entrenamiento son, implícitamente, un diagrama de la división del trabajo humano que la IA tiene que analizar y automatizar. Los conjuntos de datos para el reconocimiento de imágenes, por ejemplo, registran el trabajo visual que los conductores, guardias y supervisores suelen realizar durante sus tareas. Incluso los conjuntos de datos científicos dependen del trabajo científico, la planificación de experimentos, la organización del laboratorio y la observación analítica.68 En resumen, el origen de la inteligencia artificial es la división del trabajo y su objetivo principal es la automatización del trabajo .

Los historiadores de la computación ya han destacado los primeros pasos de la inteligencia artificial en el proyecto del siglo XIX de mecanizar la división del trabajo mental, específicamente la tarea de cálculo manual. 69 La empresa de la computación ha sido desde entonces una combinación de vigilancia y disciplina del trabajo, de cálculo óptimo de la plusvalía y planificación de comportamientos colectivos. 70 La computación fue establecida y aún aplica un régimen de visibilidad e inteligibilidad, no solo de razonamiento lógico. La genealogía de la IA como aparato de poder se confirma hoy por su uso generalizado en tecnologías de identificación y predicción, pero la anomalía central que siempre queda por calcular es la desorganización del trabajo ..

Como tecnología de automatización, la IA tendrá un tremendo impacto en el mercado laboral. Si Deep Learning tiene una tasa de error del 1% en el reconocimiento de imágenes, por ejemplo, significa que aproximadamente el 99% del trabajo rutinario basado en tareas visuales (por ejemplo, la seguridad del aeropuerto) puede ser potencialmente reemplazado (si lo permiten las restricciones legales y la oposición sindical). El impacto de la IA en el trabajo está bien descrito (desde la perspectiva de los trabajadores, finalmente) en un documento del Instituto Sindical Europeo, que destaca ‘siete dimensiones esenciales que la futura regulación debería abordar para proteger a los trabajadores: 1) salvaguardar la privacidad de los trabajadores y protección de datos; 2) abordar la vigilancia, el seguimiento y el control; 3) hacer transparente el propósito de los algoritmos de IA; 4) garantizar el ejercicio del ‘derecho a la explicación’ con respecto a las decisiones tomadas por algoritmos o modelos de aprendizaje automático; 5) preservar la seguridad y protección de los trabajadores en las interacciones hombre-máquina; 6) impulsar la autonomía de los trabajadores en las interacciones hombre-máquina; 7) permitir que los trabajadores se familiaricen con la IA.’71 

En última instancia, el Nooscopio se manifiesta para una nueva cuestión de maquinaria en la era de la IA. La Cuestión de la Maquinaria fue un debate que se desató en Inglaterra durante la revolución industrial, cuando la respuesta al empleo de máquinas y al posterior desempleo tecnológico de los trabajadores fue una campaña social por más educación sobre las máquinas, que tomó la forma del Movimiento del Instituto de Mecánica. 72Hoy se necesita una Cuestión de Maquinaria Inteligente para desarrollar más inteligencia colectiva sobre ‘inteligencia de máquina’, más educación pública en lugar de ‘máquinas de aprendizaje’ y su régimen de extractivismo de conocimiento (que refuerza viejas rutas coloniales, con solo mirar el mapa de redes de plataformas de crowdsourcing Este Dia). También en el Norte Global, esta relación colonial entre la IA corporativa y la producción de conocimiento como un bien común debe destacarse. El propósito de Nooscope es exponer la habitación oculta del Turco Mecánico corporativo e iluminar el trabajo invisible del conocimiento que hace que la inteligencia artificial parezca ideológicamente viva.

Creditos y agradecimientos

  • Autores: Vladan Joler y Matteo PasquinelliVladan Joler es profesor de la Academia de las Artes de la Universidad de Novi Sad y fundador de la Fundación SHARE. Dirige SHARE Lab, un laboratorio de investigación e investigación que explora los aspectos técnicos y sociales de la transparencia algorítmica, la explotación laboral digital, las infraestructuras invisibles y las cajas negras tecnológicas.Matteo Pasquinelli es profesor de Filosofía de los Medios en la Universidad de Artes y Diseño de Karlsruhe, donde coordina el grupo de investigación sobre Inteligencia Artificial y Filosofía de los Medios KIM. Para Verso Books está preparando una monografía sobre la historia de la IA titulada provisionalmente The Eye of the Master .
  • Cita completa: Matteo Pasquinelli y Vladan Joler, “The Nooscope Manifested: Artificial Intelligence as Instrument of Knowledge Extractivism”, ensayo visual, KIM HfG Karlsruhe y Share Lab, 1 de mayo de 2020. http://nooscope.ai
  • Correo electrónico: entrada [arroba] nooscope.ai
  • Agradecimientos: Gracias a Jon Beller, Kate Crawford, Dubravko Ćulibrk, Ariana Dongus, Claire Glanois, Adam Harvey, Leonardo Impett, Arif Kornweitz, Wietske Maas, Dan McQuillan, Fabian Offert, Godofredo Pereira, Johannes Paul Raether, Natascha Sadr Haghighian, Olivia Solis , Mitch Speed ​​y la comunidad extendida alrededor de KIM HfG Karlsruhe por sus aportes y comentarios.

notas al pie

  • 1Sobre la autonomía de la tecnología, véase: Langdon Winner, Autonomous Technology: Technics-Out-of-Control as a Theme in Political Thought . Cambridge, MA: MIT Press, 2001.
  • 2Para la extensión del poder colonial a las operaciones de logística, algoritmos y finanzas ver: Sandro Mezzadra y Brett Neilson, The Politics of Operations: Excavating Contemporary Capitalism . Durham: Duke University Press, 2019. Sobre el colonialismo epistémico de la IA, véase: Matteo Pasquinelli, ‘Three Thousand Years of Algorithmic Rituals’. e-flujo 101, 2019.
  • 3Las humanidades digitales denominan una técnica similar de lectura a distancia , que gradualmente ha involucrado el análisis de datos y el aprendizaje automático en la historia literaria y del arte. Véase: Franco Moretti, Lecturas distantes . Londres: Verso, 2013.
  • 4Gottfried W. Leibniz, ‘Prefacio a la ciencia general’, 1677. En: Phillip Wiener (ed.) Selecciones de Leibniz . Nueva York: Scribner, 1951, 23.
  • 5Para una historia concisa de la IA, consulte: Dominique Cardon, Jean-Philippe Cointet y Antoine Mazières, ‘Neurons Spike Back: The Invention of Inductive Machines and the Artificial Intelligence Controversy’. 211 Redes , 2018.
  • 6Alexander Campolo y Kate Crawford, ‘Determinismo encantado: poder sin control en inteligencia artificial’. Comprometiendo la ciencia, la tecnología y la sociedad 6, 2020.
  • 7El uso de la analogía visual también pretende registrar la distinción cada vez menor entre imagen y lógica, representación e inferencia, en la composición técnica de la IA. Los modelos estadísticos de aprendizaje automático son representaciones operativas (en el sentido de las imágenes operativas de Harun Farocki).
  • 8Para un estudio sistemático de las limitaciones lógicas del aprendizaje automático, consulte: Momin Mailk, ‘A Hierarchy of Limitations in Machine Learning’. Preimpresión de Arxiv, 2020. https://arxiv.org/abs/2002.05193
  • 9Para obtener una lista más detallada de los sesgos de la IA, consulte: John Guttag y Harini Suresh, ‘A Framework for Understanding Unintended Consequences of Machine Learning’. Preimpresión de Arxiv, 2019. https://arxiv.org/abs/1901.10002 Ver también: Aram Galstyan, Kristin Lerman, Ninareh Mehrabi, Fred Morstatter y Nripsuta Saxena, ‘A Survey on Bias and Fairness in Machine Learning’. Preimpresión de Arxiv, 2019. https://arxiv.org/abs/1908.09635 
  • 10Virginia Eubanks, Automatización de la desigualdad . Nueva York: St. Martin’s Press, 2018. Ver también: Kate Crawford, ‘The Trouble with Bias’. Conferencia magistral, Conferencia sobre sistemas de procesamiento de información neuronal, 2017.
  • 11Ruha Benjamin, Race After Technology: herramientas abolicionistas para el nuevo código Jim . Cambridge, Reino Unido: Polity, 2019, 5.
  • 12Los informáticos argumentan que la IA pertenece a un subcampo del procesamiento de señales , es decir, la compresión de datos.
  • 13Matteo Pasquinelli, El ojo del maestro . Londres: Verso, de próxima publicación.
  • 14Proyectos como la Inteligencia Artificial Explicable, el Aprendizaje Profundo Interpretable y el Mapeo de Calor, entre otros, han demostrado que es posible entrar en la ‘caja negra’ del aprendizaje automático. Sin embargo, la interpretabilidad y la explicabilidad completas de los modelos estadísticos de aprendizaje automático siguen siendo un mito. Ver: Zacharay Lipton, ‘The Mythos of Model Interpretability’. Versión preliminar de ArXiv, 2016. https://arxiv.org/abs/1606.03490
  • 15A. Corsani, B. Paulré, C. Vercellone, JM Monnier, M. Lazzarato, P. Dieuaide and Y. Moulier-Boutang, ‘El capitalismo cognitivo como salida a la crisis del capitalismo industrial. Un program de recherche’, París: Laboratoire Isys Matisse, Maison des Sciences Economiques, 2004. Ver también: Zuboff, Shoshana, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power . Londres: Profile Books, 2019.
  • 16Lisa Gitelman (ed.), Raw Data es un oxímoron , Cambridge, MA: MIT Press, 2013.
  • 17En el aprendizaje supervisado. También el aprendizaje autosupervisado mantiene formas de intervención humana.
  • 18Sobre la taxonomía como forma de conocimiento y poder ver: Michel Foucault, El orden de las cosas . Londres: Routledge, 2005.
  • 19Como Amazon Mechanical Turk, cínicamente denominado «inteligencia artificial artificial» por Jeff Bezos. Ver: Jason Pontin, ‘Inteligencia artificial, con la ayuda de los humanos’. The New York Times, 25 de marzo de 2007.
  • 20Aunque la arquitectura convolucional se remonta al trabajo de Yann LeCunn a fines de la década de 1980, Deep Learning comienza con este artículo: Geoffrey Hinton, Alex Krizhevsky e Ilya Sutskever, ‘ImageNet Classification with Deep Convolutional Neural Networks’. Comunicaciones de la ACM 60(6), 2017.
  • 21Para una descripción accesible (aunque no muy crítica) del desarrollo de ImageNet, consulte: Melanie Mitchell, Artificial Intelligence: A Guide for Thinking Humans . Londres: Penguin, 2019.
  • 22WordNet es ‘una base de datos léxica de relaciones semánticas entre palabras’ que fue iniciada por George Armitage en la Universidad de Princeton en 1985. Proporciona una estricta estructura de definiciones en forma de árbol.
  • 23Kate Crawford y Trevor Paglen, ‘Excavando la IA: la política de los conjuntos de entrenamiento para el aprendizaje automático’. 19 de septiembre de 2019. https://excavating.ai
  • 24Adam Harvey y Jules LaPlace, proyecto Megapixel, 2019. https://megapixels.cc/about/ Y: Madhumita Murgia, ‘¿Quién está usando tu cara? La fea verdad sobre el reconocimiento facial.’ Financial Times , 19 de abril de 2019.
  • 25Sin embargo, la regulación de privacidad de datos GDPR que aprobó el Parlamento Europeo en mayo de 2018 es una mejora en comparación con la regulación que falta en los Estados Unidos.
  • 26Frank Rosenblatt, ‘El perceptrón: un autómata que percibe y reconoce’. Informe del Laboratorio Aeronáutico de Cornell 85-460-1, 1957.
  • 27Warren McCulloch y Walter Pitts, ‘Cómo conocemos los universales: la percepción de las formas auditivas y visuales’. El Boletín de Biofísica Matemática 9 (3): 1947.
  • 28Los parámetros de un modelo que se aprenden de los datos se denominan «parámetros», mientras que los parámetros que no se aprenden de los datos y se fijan manualmente se denominan «hiperparámetros» (Estos determinan el número y las propiedades de los parámetros).
  • 29Este valor también puede ser un valor porcentual entre 1 y 0.
  • 30https://keras.io/applications (Documentación para modelos individuales).
  • 31Paul Edwards, Una gran máquina: modelos informáticos, datos climáticos y la política del calentamiento global . Cambridge, MA:
  • 32Vea el Modelo del Sistema Terrestre Comunitario (CESM) que ha sido desarrollado por el Centro Nacional para la Investigación Atmosférica en Bolder, Colorado, desde 1996. El Modelo del Sistema Terrestre Comunitario es una simulación numérica totalmente acoplada del sistema terrestre que consiste en la atmósfera, el océano, el hielo, superficie terrestre, ciclo del carbono y otros componentes. CESM incluye un modelo climático que proporciona simulaciones de última generación del pasado, presente y futuro de la Tierra’. http://www.cesm.ucar.edu
  • 33George Box, ‘Robustez en la estrategia de construcción de modelos científicos’. Informe Técnico #1954, Centro de Investigación de Matemáticas, Universidad de Wisconsin-Madison, 1979.
  • 34Las escuelas poscoloniales y posestructuralistas de antropología y etnología han subrayado que nunca hay territorio per se, sino siempre un acto de territorialización.
  • 35El reconocimiento de patrones es una entre muchas otras economías de atención. ‘Mirar es trabajar’, como nos recuerda Jonathan Beller. Jonathan Beller, El modo de producción cinematográfico: la economía de la atención y la sociedad del espectáculo . Líbano, NH: University Press of New England, 2006, 2.
  • 36Dan McQuillan, ‘Manifiesto sobre el humanitarismo algorítmico’. Presentado en el simposio Reimagining Digital Humanitarianism, Goldsmiths, Universidad de Londres, 16 de febrero de 2018.
  • 37Como lo demuestra el teorema de aproximación universal.
  • 38Ananya Ganesh, Andrew McCallum y Emma Strubell, ‘Consideraciones de política y energía para el aprendizaje profundo en PNL’. Preimpresión de ArXiv, 2019. https://arxiv.org/abs/1906.02243
  • 39Cardon et al, ‘Neurons Spike Back’.
  • 40William Gibson, neuromante . Nueva York: Ace Books, 1984, 69.
  • 41Fuente: corpling.hypotheses.org/495
  • 42Jamie Morgenstern, Samira Samadi, Mohit Singh, Uthaipon Tantipongpipat y Santosh Vempala, ‘The Price of Fair PCA: One Extra Dimension’. Avances en sistemas de procesamiento de información neuronal 31, 2018.
  • 43Ver la idea de creación asistida y generativa en: Roelof Pieters y Samim Winiger, ‘Creative AI: On the Democratization and Escalation of Creativity’, 2016. http://www. medium.com/@creativeai/creativeai-9d4b2346faf3
  • 44Os Keyes, ‘Las máquinas de confusión de género: implicaciones trans/HCI del reconocimiento automático de género’. Actas de la ACM sobre interacción humano-computadora 2(88), noviembre de 2018. https://doi.org/10.1145/3274357
  • 45Alexander Mordvintsev, Christophe Olah y Mike Tyka, ‘Inceptionism: Profundizando en las redes neuronales’. Blog de investigación de Google, 17 de junio de 2015. https://ai.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html
  • 46Las falsificaciones profundas son medios sintéticos como videos en los que la cara de una persona se reemplaza con los rasgos faciales de otra persona, a menudo con el propósito de falsificar noticias.
  • 47Joseph Paul Cohen, Sina Honari y Margaux Luck, ‘Las pérdidas de coincidencia de distribución pueden alucinar características en la traducción de imágenes médicas’. Congreso Internacional de Computación de Imágenes Médicas e Intervención Asistida por Computador. Cham: Springer, 2018. arXiv:1805.08841
  • 48Fabian Offert, panel Neural Network Cultures, festival Transmediale y KIM HfG Karlsruhe. Berlín, 1 de febrero de 2020. http://kim.hfg-karlsruhe.de/events/neural-network-cultures
  • 49Michel Foucault, Abnormal: Lectures at the Collège de France 1974-1975. New York: Picador, 2004, 26.
  • 50Sobre las normas computacionales ver: Matteo Pasquinelli, ‘The Arcana of Imperial Mathematica: The Evolution of Western Computational Norms’. En: María Hlavajova et al. (eds), Antiguo Oeste . Cambridge, MA: MIT Press, 2017.
  • 51Paola Ricaurte, ‘Epistemologías de datos, la colonialidad del poder y la resistencia’. Televisión y nuevos medios, 7 de marzo de 2019.
  • 52David Ingold y Spencer Soper, ‘Amazon no tiene en cuenta la raza de sus clientes. ¿Debería hacerlo?’, Bloomberg, 21 de abril de 2016. https://www.bloomberg.com/graphics/2016-amazon-same-day
  • 53Cathy O’Neil, Armas de destrucción matemática . Nueva York: Broadway Books, 2016, capítulo 9.
  • 54Chris Anderson, ‘El fin de la teoría: el diluvio de datos vuelve obsoleto el método científico’. Wired , 23 de junio de 2008. Para consultar una crítica, véase: Fulvio Mazzocchi, ‘Could Big Data Be the End of Theory in Science? Algunas observaciones sobre la epistemología de la ciencia basada en datos.’ Informes EMBO 16(10), 2015.
  • 55Judea Pearl y Dana Mackenzie, El libro del por qué: la nueva ciencia de la causa y el efecto . Nueva York: Libros básicos, 2018.
  • 56Experimentos realizados por el Departamento de Policía de Nueva York desde finales de la década de 1980. Véase: Pasquinelli, ‘Arcana Mathematica Imperii’.
  • 57Dan McQuillan, ‘Consejos populares para el aprendizaje automático ético’. Redes Sociales y Sociedad 4(2), 2018.
  • 58Ricaurte, ‘Data Epistemologies.’
  • 59Félix Guattari, Cartografías esquizoanalíticas . Londres: Continuo, 2013, 2.
  • 60La relación entre la IA y la piratería no es tan antagónica como puede parecer: a menudo se resuelve en un bucle de aprendizaje, evaluación y refuerzo mutuos.
  • 61Adam Harvey, proyecto HyperFace, 2016. https://ahprojects.com/hyperface
  • 62Anish Athalye et al., ‘Synthesizing Robust Adversarial Examples’. Preimpresión de ArXiv, 2017. https://arxiv.org/abs/1707.07397
  • 63Nir Morgulis et al., ‘Engañar a un automóvil real con señales de tráfico adversarias’. Preimpresión de ArXiv, 2019. https://arxiv.org/abs/1907.00374
  • 64El envenenamiento de datos también se puede emplear para proteger la privacidad al ingresar información anónima o aleatoria en el conjunto de datos.
  • 65Ian Goodfellow et al., ‘Explicación y aprovechamiento de ejemplos adversarios’. Versión preliminar de ArXiv, 2014. https://arxiv.org/abs/1412.6572
  • 66Florian Schmidt, ‘Producción colaborativa de datos de capacitación de IA: cómo los trabajadores humanos enseñan a los autos autónomos a ver’. Düsseldorf: Hans-Böckler-Stiftung, 2019.
  • 67Hamid Ekbia y Bonnie Nardi, Heteromation, and Other Stories of Computing and Capitalism . Cambridge, MA: MIT Press, 2017.
  • 68Para conocer la idea de la inteligencia analítica, véase: Lorraine Daston, ‘Calculation and the Division of Labor 1750–1950’. Boletín del Instituto Histórico Alemán 62, 2018.
  • 69Simon Schaffer, ‘La inteligencia de Babbage: Motores de cálculo y el sistema de fábrica’, Critical Inquiry 21, 1994. Lorraine Daston, ‘Cálculos de iluminación’. Critical Inquiry 21, 1994. Matthew L. Jones, Reckoning with Matter: Calculating Machines, Innovation, and Thinking about Thinking from Pascal to Babbage. Chicago: Prensa de la Universidad de Chicago, 2016. 62, 2018.
  • 70Matteo Pasquinelli, ‘Sobre los orígenes del intelecto general de Marx’. Filosofía Radical 2.06, 2019.
  • 71Aida Ponce, ‘La mano de obra en la era de la IA: por qué es necesaria la regulación para proteger a los trabajadores’. Documento de investigación de ETUI – Informe prospectivo 8, 2020. http://dx.doi.org/10.2139/ssrn.3541002
  • 72Maxine Berg, La cuestión de la maquinaria y la construcción de la economía política . Cambridge, Reino Unido: Cambridge University Press, 1980. De hecho, incluso The Economist ha advertido recientemente sobre «el retorno de la cuestión de la maquinaria» en la era de la IA. Véase: Tom Standage, ‘La cuestión del retorno de la maquinaria’. The Economist , 23 de junio de 2016.

Comenta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s