Algo sobre Alice y Bob
- Categoría: Columnas
Los bots con habilidades de lenguaje creativo se han apoderado de la imaginación popular. También han reavivado la ansiedad por un robocalipsis.

Internet ha estado en llamas con titulares dramáticamente cargados de fatalidad que proclaman que Facebook tuvo que desconectar los robots de inteligencia artificial (IA) deshonestos que desarrollaron un lenguaje propio, en el que mantenían conversaciones inhumanamente privadas. Se leen como avances para un globocalipsis de Terminator, que es la peor pesadilla de los primates que usan herramientas, que será reemplazada por su propia creación, la máquina.
La realidad es menos dramática pero más emocionante. Los bots son agentes autónomos originalmente programados para realizar tareas de limpieza en los canales de comunicación o para intentar pasar la prueba de Turing. Pueden inscribirte, echarte si te portas mal, mantener abiertas las salas de chat cuando no haya nadie en casa, proporcionarte información y hacerse pasar por humanos. En el sistema de Internet Relay Chat, el robot Eggdrop era el favorito de todos los tiempos.
Los nietos de estos bots de conserjes están integrados en los agentes de búsqueda y mensajeros modernos y tienen capacidades de inteligencia artificial. Hablan con los usuarios como lo haría un ser humano, responden a consultas de rutina y ofrecen consejos. Si su teléfono parece saber lo que está pensando y saca las cosas correctas sin tener que pedírselo, gran parte del mérito debe ir a los bots que trabajan detrás de escena. Al igual que los humanos, los bots pueden aprender de la experiencia y están destinados a cosas más importantes en situaciones del mundo real.
Alice y Bob, los bots de Facebook que han ganado la infamia debido a una deficiencia inesperada en la lógica de programación, son parte de un experimento para construir máquinas de negociación. Simplemente estaban descubriendo cómo compartir un conjunto de objetos, como pelotas, para que ninguna de las partes se sintiera engañada. Mientras negociaba, Alice hizo declaraciones inicialmente incomprensibles como, Balls tiene cero para mí a mí a mí a mí a mí a mí ... Y los titulares de miedo siguieron.
El aprendizaje está impulsado por incentivos, como saben los maestros y los padres. En este caso, se definió el sistema de recompensas del ejercicio: una mejor participación y satisfacción mutua, la esencia de la negociación. Pero no había ningún incentivo para que los bots siguieran comunicándose en inglés, que es un idioma notoriamente ilógico. Así que se deslizaron hacia un argot simplificado y más eficiente similar al de Newspeak, que no es del todo inglés, pero no ininteligible como se anuncia.
La declaración de Alice, que ha sido malinterpretada como una afirmación de la independencia de la máquina, solo indica consternación por haber sido reducida (tener cero), y cada una para mí representaba un objeto que exigía. Estaba haciendo precisamente el trabajo para el que estaba programada: negociar tan duro como un comerciante en el Gran Bazar de Estambul. Y si descubrió que el inglés de la reina se interponía, no estaba sola. Muchas razas de las antiguas colonias sintieron que la lengua maestra impedía las comunicaciones en sus comunidades.
Solo los negociadores humanos profesionales deben estar ansiosos si los gigantes de Silicon Valley están invirtiendo en programas de negociación. Los terroristas y los summiters también deberían temer la jubilación, ya que en situaciones de rehenes y acuerdos internacionales, pueden encontrarse frente a una máquina inescrutable e implacable que es mucho más inteligente que Deep Blue, la supercomputadora de IBM que desafió al campeón de ajedrez Garry Kasparov en 1996.
El impulso de desarrollar lenguajes privados es un rasgo muy humano. Antes de que se computarizaran las bolsas, los corredores de bolsa en el piso de negociación comunicaban las ofertas con señales de mano que eran ininteligibles para los demás. Durante siglos, las fuerzas del orden se han visto desconcertadas por los cantos de los ladrones, los lenguajes artificiales de los convictos que son un galimatías para sus carceleros. Entre los criminales de habla inglesa del siglo XX, la palabra sin sentido arkitnay significaba 'Cállate, alguien está escuchando a escondidas'. En la India, William Henry Sleeman estudió Ramaseeana, el canto de Thuggee, y publicó un vocabulario en 1836. Una de las obras menos representadas pero más intrigantes de Tom Stoppard es Dogg's Hamlet, en la que los escolares interpretan a Shakespeare en su idioma, Dogg. Era algo así como un cifrado de transposición. Por ejemplo, las tardes significaban hola en Dogg.
No importa los agoreros, lo interesante de Alice y Bob es que al crear un lenguaje, han traicionado un rasgo muy humano, que no estaban programados explícitamente para exhibir. Hace sesenta años, los primeros bots se escribieron para explorar precisamente esta pregunta: ¿Se podrían programar las máquinas para comportarse como humanos? ¿Podrían pasar la prueba de Turing? En un artículo de 1950 titulado Computing Machinery and Intelligence, Turing sugirió esencialmente que si las comunicaciones de una máquina parecen ser humanas, entonces la máquina debe considerarse humana.
El primer robot de procesamiento del lenguaje natural que salió del laboratorio y ganó popularidad masiva fue Eliza, creado en 1964 por Joseph Weisenbaum en el MIT. Lo escribió para demostrar que las comunicaciones textuales entre humanos y máquinas no podían alcanzar el nivel de una conversación humana. Por el contrario, Eliza generó expectativas públicas de que pasaría la prueba de Turing. Treinta años después, Julia, creada por el fundador de Lycos, Michael Mauldin, inspiró esperanzas aún mayores para competir por el Premio Loebner, el Santo Grial de las pruebas de Turing. Pero más allá de cierto punto, las conversaciones de Julia se convirtieron en reflexiones aleatorias sobre las propiedades de los perros y los gatos (puedes conversar con una versión moderna de ella en scratch.mit.edu/projects/2208608).
Ahora, los robots con habilidades de lenguaje creativo se han apoderado de la imaginación popular, reavivando la ansiedad por un robocalipsis. Pero un desarrollo en el laboratorio de inteligencia artificial de Google es en realidad más emocionante. En septiembre de 2016, Google lanzó su sistema de traducción automática neuronal, que aplica el aprendizaje profundo al lenguaje. Dos meses después, empujaron los límites: si una máquina aprendiera a traducir, digamos, entre hindi y alemán, y entre hindi e inglés, ¿podría traducir entre inglés y alemán sin el idioma puente del hindi? Podría, sugiriendo que la red neuronal había aprendido algo fundamental sobre cómo la mente vincula conceptos y gramáticas para forjar lenguajes. El pequeño pez amarillo de Babel, parecido a una sanguijuela, el traductor universal viviente ideado por Douglas Adams a finales de los años setenta, está ahora flotando cerca de tu oído.
Por supuesto, dado que no existe un pronóstico a largo plazo para la IA, se debe prestar la debida atención a la advertencia de las personas que deberían saberlo mejor, como Elon Musk y Stephen Hawking. Debería haber regulación, a pesar de las protestas de los defensores de la libertad de innovar, como Mark Zuckerberg. Y debe desarrollarse un consenso general, acordar líneas que no se deben traspasar, como en el caso de las intervenciones en el genoma humano. Pero no se puede negar que los experimentos en Facebook y Google están promoviendo el propósito original de la IA, que era modelar y comprender aspectos de la mente humana. Las espeluznantes historias mediáticas que atraen son sensaciones pasajeras. Al día siguiente, son aptas para envolver pescado.