Lo que los artistas pueden enseñarnos sobre una tecnología más humana

GG3A0197
La pieza de Lisa Park, titulada “Blooming”, utiliza las propiedades capacitivas de los cuerpos humanos cuando se tocan para hacer que una representación tridimensional de un árbol brote de flores. BETH HOLZER FOR WIRED

A última hora de la tarde de abril, Lisa Park estaba en medio de una cavernosa habitación en Mana Contemporary, una fábrica que se convirtió en una galería en Jersey City, Nueva Jersey, que se tomaba de la mano a su pasante. Debajo de sus pies, tres placas de metal del tamaño de un bache estaban anidadas en un parche de hierba falsa con cables que iban desde una serie de sensores que miden la electricidad. En frente de las mujeres, una pantalla semi translúcida de 19 por 12 pies se extendía por la habitación y protegía la maraña de cables, computadoras y luces que se escondían detrás de ella.

Park, un artista multimedia conocido por convertir las ondas cerebrales y los latidos del corazón en una performance artística, se aferró a la mano de la mujer y, en tándem, miraron hacia la pantalla donde una representación en 3D de un árbol de cerezos sin hojas brillaba en la oscuridad. “Se supone que debe florecer”, dijo Park con un toque de frustración. Las dos mujeres se abrazaron con más fuerza y esperaron. No pasó nada.

“Tienes que quitarte los zapatos”, dijo una voz desde el fondo de la habitación.

“Oh, cierto”, dijo Park con una risa.

Park y su interna se soltaron y se quitaron las botas. Descalzos, regresaron a los platos y se envolvieron mutuamente en un abrazo forzado. En unos segundos, las computadoras en la parte posterior de la sala registraron un ligero aumento en la conductividad eléctrica entre las dos mujeres, y las flores de color rosa claro comenzaron a llenar las ramas de los árboles antes de caerse y caer a través del aire digital al suelo.

Unos meses antes de la demostración, Park estaba sentada en su estudio en Nokia Bell Labs, el famoso parque de investigación de Nueva Jersey, mostrando un pequeño prototipo del árbol en la pantalla de su computadora portátil. En la pared había fotos de personas tomados de la mano y cuchareando. Su mesa de trabajo estaba llena de sensores de parche de gel y cables. Park describe su pieza, llamada “Blooming”, como una meditación sobre el futuro de la conexión interhumana. “La idea es que la flor de cerezo florecerá en función de tu conexión emocional con otra persona”, dijo, haciendo clic en las diapositivas de su computadora. “La conductividad, la capacitancia, la resistencia, son todos proxies para la intimidad”.

GG3A0254
La artista Sougwen Chung colabora con máquinas en su trabajo, “Omnia per Omnia”, creando un paisaje abstracto junto con una colección de cuadros de pintura BETH HOLZER FOR WIRED
GG3A0225
Los robots que pintan esperan instrucciones en la pieza de Sougwen Chung, “Omnia per Omnia”. ENTRE HOLZER PARA CABLEADO

Durante el último año, Park, junto con el artista Sougwen Chung y los bailarines Jason Oremus y Garrett Coleman del colectivo de danza Hammerstep, han trabajado en los Laboratorios Bell como parte de una residencia llamada Experiments in Art and Technology. La residencia de un año de duración, una colaboración entre Bell Labs y la incubadora del New Museum, New Inc, culminó en “Only Human”, una exposición recientemente inaugurada en Mana, donde se exhibirán las piezas de los artistas hasta fines de mayo.

GG3A0295
Este “Opticon” es a la vez una instalación y un conjunto para la actuación de danza interactiva de Hammerstep. HOLZER PARA CABLEADO

“Only Human” es una especie de regreso a casa para los Bell Labs, que tiene una rica historia de colaboración con artistas que se remonta a la década de 1960. Fue entonces que la primera iteración de E.A.T. fue iniciado por los ingenieros de Bell Labs Billy Kluver y Fred Waldhauer y los artistas Robert Rauschenberg y Robert Whitman. El comer. La década de los 60 fue famosa por una presentación llamada “9 tardes”, en la que los artistas y los ingenieros de Bell Labs crearon una serie de experimentos tecno-artísticos que definieron las obras de arte interactivas en las próximas décadas. En ese momento, E.A.T. era un concepto extraño: los artistas, en su mayor parte, no utilizaban la tecnología. Y los tecnólogos ciertamente no tenían la costumbre de compartir su trabajo con los artistas.

GG3A0361.jpg
La exposición “Only Human” ahora se muestra en Mana Contemporary en Jersey City, Nueva Jersey. HOLZER PARA CABLEADO

Cincuenta años después, E.A.T. Significa algo diferente para los artistas y los investigadores involucrados. La tecnología ya no es una novedad, es un hecho. Y los artistas, que en el pasado pudieron haber abordado el avance tecnológico con un indicio de curiosidad idealista, ahora cuestionan el impacto que tiene en la forma en que los humanos interactúan entre sí.

Esta tensión es un territorio maduro para los artistas, que a menudo están más interesados en crear provocaciones en torno a la tecnología que en crear aplicaciones prácticas. El renacimiento de E.A.T. es una oportunidad para que ellos exploren grandes preguntas (¿Cómo podemos hacer que la tecnología sea más humana? ¿Debemos hacer que la tecnología sea más humana?) junto con los ingenieros de Bell Labs, las mismas personas que están construyendo las redes, cámaras y cables que los artistas usan en sus obras. , dice Julia Kaganskiy, directora de New Inc. “Mi esperanza es que no fetichemos la tecnología”, dijo Kaganskiy durante una reciente visita a Bell Labs. “Realmente estamos tratando de entender cómo está configurando la cultura y nuestra comprensión de nosotros mismos y nuestras relaciones con otras personas”.

EL BHAG
Comprender esa pregunta: ¿cómo nos comunicamos mejor los humanos? Es lo que Bell Labs denomina “BHAG”: una meta audaz, grande y peluda. A lo largo de los años, Bell Labs ha abordado el desafío con el rigor científico que se podría esperar de una compañía compuesta por 1,000 ingenieros especializados con doctorados. La investigación fundamental es clave para la identidad y los negocios de Bell Labs, y sus ingenieros han abordado muchos problemas de investigación técnicos y nerd para mejorar la tecnología de la comunicación.

Sin embargo, hace aproximadamente un año y medio, la perspectiva corporativa de Bell Labs comenzó a cambiar sutilmente. Las tensiones en torno a las elecciones de 2016 descubrieron profundos abismos de comunicación entre grupos de personas que habían estado allí todo el tiempo. Quedó claro que, si bien reducir la latencia de la red y mejorar la resolución de la cámara podría facilitar el diálogo entre las personas, hizo muy poco para ayudarles a comprender lo que realmente pensaba el otro.

Para el presidente de Bell Labs, Marcus Weldon, esta realización fue un punto de inflexión en la forma en que pensó sobre la investigación de la compañía. Bell Labs continuaría haciendo la investigación fundacional que paga las facturas, pero también hubo problemas más grandes y más urgentes en los que pensar más allá de mejorar los cables de fibra óptica. Weldon decidió que el próximo BHAG de Bell Labs se enfocaría en desarrollar algo llamado “comunicación empática”, una frase que usa para describir un estado de comunicación aspiracional en el que las personas pueden conectarse en un nivel más profundo y significativo. Para Weldon, y por lo tanto para el resto de los Laboratorios Bell, eso significa pasar del audio, el video y el texto básicos al ámbito de la tecnología que captura y transfiere la sensación.

“Estamos muy interesados ​​en la idea de, ¿cuál es la codificación correcta de los humanos que nos permite transferirla a una distancia?”, Preguntó Weldon un día pasado mientras pasaba frente a una pantalla del tamaño de una pared en la sede de Bell Labs. Detrás de él se proyectaron imágenes de Replicator, Holodeck y Transporter de Star Trek. Weldon ve a Star Trek como una analogía adecuada, aunque obvia, con el estado actual de la tecnología. “Conceptualmente, obtuvieron la mayoría de estas cosas futuristas más o menos bien”, dijo.

Weldon explicó que los tecnólogos ya han resuelto dos de estas tres tecnologías de Star Trek. El Holodeck es más o menos realidad virtual aumentada, y el Replicator es básicamente una impresora 3D avanzada. El Transporter, una máquina de teletransportación que desmaterializa a un humano en un patrón de energía y los rematerializa en una nueva ubicación, sigue siendo un concepto difícil de alcanzar para los científicos. “Es absurdo pensar que realmente puedes disolver a un humano y recrearlo sin ningún error entrópico”, dijo, reflexionando sobre la veracidad científica del Transporter. “No es la forma correcta de resolver el problema”.

Pensó que es más fácil transmitir una impresión de una persona: una emoción o la esencia de lo que un humano está pensando y sintiendo, pero no la persona misma. “Lo que estamos tratando de hacer es capturar las cosas sutiles que puedes captar cuando realmente conoces a una persona”, dijo. “Cosas como el humor”.

Los seres humanos, por supuesto, han hecho exactamente esto durante miles de años. Primero a través de la voz y luego a través de la palabra escrita. Hoy en día, el video y los emoji ayudan a completar los contornos emocionales de nuestras conversaciones digitales, pero Weldon sostiene que incluso esos modos de comunicación han hecho poco para transmitir lo que realmente siente la persona en el otro extremo de la línea.

Él cree que esta falta de conexión emocional verdadera está en el centro de nuestro clima político actual. Es la raíz de los malentendidos, los desacuerdos, el amor perdido y las amistades fracturadas. “Nos hemos aislado en pequeños silos de existencia; no entendemos cómo es ser otra persona “, dijo. “Lo que falta es la transferencia de estado entre individuos para que realmente puedas sentir cómo se sienten”.

Sin embargo, hay un problema: la transferencia de estado es increíblemente complicada, y no solo por razones tecnológicas. Decirle a alguien que lamentas su pérdida o que estás enamorado de ella es relativamente fácil. Hacerles sentir que su corazón se hunde o su pulso se acelera requiere más que una batería de sensores inteligentes; requiere una manera de traducir de manera significativa los datos biométricos en algo que otra persona pueda intuir. “La gran pregunta es, ¿cómo se mide con precisión el cuerpo? preguntó Domhnaill Hernon, jefe del nuevo laboratorio de investigación Experimentos en artes y tecnología de Bell Labs. “¿Y cómo lo expresas de una manera realmente convincente?”

Bell Labs es bueno en lo primero, pero no tanto en lo segundo. Ahí es donde entran los artistas.

Pensamiento divergente
A principios de esta primavera, Hernon estaba liderando a un grupo de artistas e ingenieros a través de un laberinto de pasillos en el campus de Bell Labs, mientras explicaba la importancia de E.A.T. “Los científicos capacitados tienen un enfoque muy diferente en su pensamiento”, dijo. “Somos reduccionistas en nuestro pensamiento, los artistas son divergentes. Reunir esos dos modos puede ser muy poderoso “.

GG3A0444.jpg
De izquierda a derecha, los ingenieros de Bell Labs, Michael Baldwin, Jacquilene Jacob, Paul Wilford, Larry O’Gorman, Gang Huang y Prasanth A

Para Bell Labs, la brecha en el cerebro izquierdo y derecho está en el centro de la inversión de la compañía para resucitar a E.A.T. Hernon cree que asociar artistas con ingenieros puede ayudar a los ingenieros de Bell Labs, que tradicionalmente han adoptado un enfoque académico riguroso en su investigación, a comenzar a pensar en su trabajo con un toque de creatividad. “Usted nos dice: ‘Quiero pensar en las maneras en que los cables de fibra óptica nos permiten comunicarnos mejor, y le diremos que le daré una velocidad récord mundial en ceros y unos”, dijo. “No podemos responder las preguntas correctas de forma aislada”.

Al comienzo de la E.A.T. En la residencia, los artistas participaron en una forma de citas científicas rápidas, donde se reunieron con un puñado de investigadores de Bell Labs para descubrir qué tecnologías podrían usar en sus proyectos. La idea era crear asociaciones mutuamente beneficiosas: los ingenieros prestarían su experiencia técnica; Los artistas prestarían su proceso de ideación poco convencional.

Cada proyecto requería algo diferente de la tecnología de Bell Labs. Para la pieza “Blooming”, Park quería construir una representación artística de datos biométricos extraídos de una serie de sensores que leen los matices del movimiento, la frecuencia cardíaca y la capacitancia. Sougwen Chung, cuya obra artística de performance “Omnia per Omnia” usa vectores de movimiento de las imágenes de vigilancia de la ciudad de Nueva York para controlar a un pequeño ejército de robots de pintura, estaba interesada en usar el motor de movimiento de Bell Labs para programar los trazos de pincel de los robots. El proyecto de Hammerstep, una actuación de danza interactiva llamada “Indigo Gray: The Micah Gray Experiment”, requería una tecnología de seguimiento de movimiento que permitiera a las personas controlar de forma inalámbrica los drones a través de simples gestos. “Era importante que los ingenieros [con los que trabajamos] tengan una mentalidad abierta”, dijo Jason Oremus de Hammerstep. “Que había una indulgencia con la tecnología que estaban desarrollando”.

Los tres proyectos son muy diferentes en su forma final, aunque son similares en la forma en que transforman los datos duros en algo más poético. Para Chung, descubrir los matices entre la interacción entre humanos y robots está en el punto crucial de la residencia. “Pensé que sería realmente interesante extraer esta información y convertirla en gestos pictóricos que los robots articularían”, dijo mientras estaba con sus compañeros artistas y un puñado de ingenieros en un pasillo del Edificio Dos, una oficina de la década de los 70. Complejo donde ocurre la mayor parte de la investigación de análisis de video de Bell Labs.

En la pared, las cámaras baratas se sentaban sobre un monitor como una fila de patos, midiendo el entorno a través del movimiento, las frecuencias y la profundidad, y mostrando los datos en tiempo real en la pantalla. Larry O’Gorman, investigador de Bell Labs que desarrolló la tecnología de Motion Engine que Chung y Hammerstep utilizaron en sus piezas, señaló una cámara y explicó cómo, en ese mismo momento, el software consideraba al pequeño grupo de personas como un sin rostro. completo, analizando los gestos macro como la permanencia, la densidad y la dirección y traduciendo esos datos a las líneas onduladas que se muestran en la pantalla.

Este fue el mismo algoritmo básico que Chung usaría para alimentar a sus robots y que Hammerstep usaría para rastrear a los miembros de la audiencia durante su actuación. “Sougwen se me acercó y me dijo lo que quería hacer, y escribí una ecuación en la pizarra”, explicó.

R (t) = A (t) * P (t) * E (x, t)

“La forma en que escribimos la ecuación fue decir: Sougwen, el artista en el momento T, se ha convocado con la audiencia en el momento T, y luego con el medio ambiente. Eso puso su trabajo en términos matemáticos que puedo entender “.

“Ha sido un proceso real de traducción”, dijo Chung.

blooming3

Sentir sin detectores

Más tarde esa mañana, mientras los artistas e ingenieros caminaban por el corredor del Edificio Dos en el camino hacia el laboratorio de Materiales, Componentes y Dispositivos Emergentes de los Laboratorios Bell, pasaron por una pequeña habitación equipada como un estudio familiar con un monitor, una lámpara y una silla. “Aquí hay sensores que pueden decirle si comió o no una dona para el desayuno”, dijo Paul Wilford, director de investigación de Bell Labs a cargo del grupo de análisis de video. Wilford estaba medio bromeando; Hoy en día, la tecnología inalámbrica de Bell Labs no puede decirle exactamente lo que desayunó, pero al analizar los datos de múltiples fuentes, puede decir que comió algo y que está contento (o triste) al respecto.

“Acabamos de hacer que esto funcionara ayer”. Señaló una pequeña cámara barata pegada a la pared. “Podemos medir [su ritmo cardíaco] mediante leves cambios de color en dos partes de su mejilla y una en su frente”, explicó. “Basado en esa pésima cámara, y muchos algoritmos y muchos filtros y muchas cosas de red”.

Bell Labs cree que la capacidad de “sentir sin sensores” a un humano a través de la tecnología de red es clave para su objetivo de comunicación empática. Una vez desagregada la tecnología de nuestro teléfono; una vez que esté sutilmente omnipresente, en todas partes pero en ninguna parte, tendremos la infraestructura para entender realmente lo que está sucediendo tanto en el medio ambiente como con nosotros mismos.

Esta visión se vuelve un poco más clara dentro del laboratorio de Materiales Emergentes. La habitación luminosa está llena de cables de colores y cámaras ópticas que pueden asomarse a la piel con una resolución micro. El día en que los artistas lo visitaron, el equipo estaba desarrollando un prototipo de algo llamado The Sleeve, un tejido elástico con sensores, cables y motores hápticos que se pueden deslizar en el antebrazo como un calentador de brazos.

Hernon llevó al grupo de artistas al laboratorio donde estaba parado Sanjay Patel, vicepresidente de investigación en el laboratorio de Materiales Emergentes, junto a un pedestal cubierto con un pedazo de tela azul. Con un ademán, Patel se quitó la tela y reveló un primer prototipo de The Sleeve. La maraña de cables, sensores y la pantalla se adhirieron a un brazo azul impreso en 3-D, lo que lo hace parecer mitad humano, mitad robot

“Creo que estamos al borde de una revolución en términos de nuevos dispositivos”, dijo Patel, señalando el brazo. En el futuro, explicó, la gente ya no confiará en sus teléfonos para todo. En cambio, interactuaremos con el medio ambiente y con otras personas a través de una serie de dispositivos discretos, algunos desgastados y otros incrustados en el mundo que nos rodea. “¿Cómo controlo mi mundo hoy?”, Preguntó Patel. “Saco mi teléfono, veo una aplicación y presiono algunos botones en mi pantalla. “Lo que nos gustaría hacer para avanzar a medida que instrumentamos el mundo, es permitirnos tener un sexto sentido de lo que nos rodea”.

The Sleeve, que está lejos de estar listo para la producción, es capaz de leer biomarcadores como el ritmo cardíaco, el azúcar en la sangre y los niveles de estrés a través de un sensor de tomografía óptica que se asoma a la piel. Aunque Patel y su grupo consideran que The Sleeve es más una provocación que cualquier otra cosa, también creen que es un paso en la dirección correcta hacia un futuro en el que estamos desconectados de nuestros pequeños ladrillos de vidrio y metal. Es un futuro en el que las personas controlarán sus entornos a través de gestos y se comunicarán con sus seres queridos a través de mensajes hápticos que se refuerzan con el equivalente de lecturas de temperatura emocional.

Rescate Emocional

Las observaciones de Patel sobre un “sexto sentido” se sienten familiares cuando unas semanas más tarde los artistas se encuentran nuevamente en Mana preparándose para la apertura de “Only Human”, la culminación de E.A.T. residencia. Las huellas de las tecnologías de Bell Labs eran evidentes en la galería, aunque estaban enmascaradas por la glosa y la abstracción del arte.

Mientras los tipos de artistas deambulaban por la galería, mezclándose con ingenieros y estudiando las obras con curiosidad, las preguntas con las que empezaron los artistas aún se avecinaban: ¿qué sucede cuando los humanos se comunican a través del tacto en lugar de las palabras? ¿Puedes imbuir la robótica con un sentido humanista de colaboración? ¿Es posible transferir la empatía a través de la música, el ritmo y la tecnología? Estas son preguntas de 10 años, el equivalente artístico de un BHAG, y no iban a ser respondidas en una sola tarde o incluso durante una residencia de un año.

En un momento durante la apertura, un grupo de personas se reunieron alrededor de la hierba falsa frente al árbol resplandeciente del parque. Una pareja mayor se quitó los zapatos y se paró en los platos. “Veamos cómo se ven los 37 años de matrimonio”, dijo el hombre, agarrando con fuerza la mano de su esposa. Pasó un segundo, luego otro. El árbol brotó sus flores blancas rosáceas y luego cayeron al suelo.

Texto recuperado de The Wired publicado el 5 de noviembre de 2018 y escrito por Elizabeth Stinson.

Traducción YVR

Anuncios

Comenta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s