Todo empezó con Google, hace 20 años. La gente le preguntaba cosas y
el sistema —lo que más se parecía a una especie de robot invisible al
otro de la pantalla— les contestaba. Desde entonces los seres humanos no han parado de comunicarse con los ordenadores,
primero rellenando formularios y presionando botones, y después a
través de cada vez más sofisticados sistemas de asistencia personal como
Siri o Alexa. Cada vez más, se espera que los dispositivos informáticos
comprendan preguntas o comandos. El problema, explican los expertos, es
que el lenguaje de los ordenadores es literal, mientras que el lenguaje
humano es ambiguo y complejo. Y todavía no existe un puente entre los
dos.
"Las máquinas están preparadas para acceder a la profundidad y amplitud de toda la información en el mundo, si solo pudieran entender lo que les estamos pidiendo", comenta Jonathan Berant, catedrático de inteligencia artificial en la Universidad de Tel Aviv y experto en el procesamiento del lenguaje natural. Su investigación implica extraer el significado y la relación de las palabras para que los programas informáticos puedan responder a las preguntas con los resultados más relevantes. Berant explica que, aunque el aprendizaje automático —una rama de la inteligencia artificial que permite que las máquinas aprendan sin ser explícitamente programadas— ha permitido que los robots de hoy en día puedan generar una comunicación más fluida con los usuarios, queda mucho por hacer en el campo del diálogo no orientado a tareas. Es decir, cuando el objetivo es que una persona y una máquina hablen entre sí con el simple propósito de la interacción.
La dificultad en construir un lenguaje común entre humanos y
máquinas, según los expertos, reside en el hecho de que no queda claro
para el sistema cuáles son los objetivos de esa conversación. “Es como
si los robots se preguntaran por qué un usuario querría hablar con
ellos. ¿Qué es lo que lo hace interesante?”, dice Berant. “Las personas
hablan entre sí para cumplir una función social y las entidades no
humanas que se han creado hasta ahora no tienen la capacidad de cumplir
esa función”, añade Armand Ruiz, responsable de aprendizaje automático
en IBM.
Ambos coinciden en que ahora mismo es “complicado” imaginar cómo una máquina podría mantener una conversación inteligente motivada por objetivos similares a los humanos y dicen que las preguntas de investigación en ese campo ni siquiera están bien definidas. Y aunque IBM logró en marzo un récord global al desarrollar un sistema de reconocimiento de lenguaje hablado que casi alcanza la paridad humana, Ruiz reconoce que esa todavía es una asignatura pendiente. “Sobre todo ahora que hemos pasado a considerar las máquinas no solo como herramientas, sino como socios o colaboradores en nuestras vidas diarias”, comenta.
Parte de los medios anglosajones hicieron una cobertura
“sensacionalista” del caso, en palabras de los expertos, sobre los
riesgos de que dos robots crearan su propio lenguaje, aunque Dhruv
Batra, investigador de FAIR que participó en el proyecto explica que se
trataba de un error de programación. “No especificamos una recompensa
para que el sistema utilizara el inglés común. A medida que los dos
agentes compitieron para obtener el mejor trato, no se ofreció ningún
tipo de incentivo para que hablaran como una persona normal. Así que
comenzaron a divergir, eventualmente reordenando las palabras legibles
en frases aparentemente absurdas”, aclara.
Para Berant, el caso simplemente ejemplifica que los robots solo entienden el lenguaje en un contexto particular, cuando son explícitamente enseñados a hacerlo. “Por eso, no creo que las máquinas representen una amenaza. No tienen todavía la capacidad de desarrollar un lenguaje espontáneo”, afirma. Ruiz tampoco está de acuerdo con las opiniones alarmistas, pero defiende la importancia de mantener los recursos para deshabilitar o cerrar sistemas de inteligencia artificial cuando necesario. Admite, sin embargo, “que el verdadero desastre sería abandonar o inhibir la tecnología cognitiva antes de que se pueda explotar todo su potencial”.
"Las máquinas están preparadas para acceder a la profundidad y amplitud de toda la información en el mundo, si solo pudieran entender lo que les estamos pidiendo", comenta Jonathan Berant, catedrático de inteligencia artificial en la Universidad de Tel Aviv y experto en el procesamiento del lenguaje natural. Su investigación implica extraer el significado y la relación de las palabras para que los programas informáticos puedan responder a las preguntas con los resultados más relevantes. Berant explica que, aunque el aprendizaje automático —una rama de la inteligencia artificial que permite que las máquinas aprendan sin ser explícitamente programadas— ha permitido que los robots de hoy en día puedan generar una comunicación más fluida con los usuarios, queda mucho por hacer en el campo del diálogo no orientado a tareas. Es decir, cuando el objetivo es que una persona y una máquina hablen entre sí con el simple propósito de la interacción.
Es difícil crear un lenguaje común: los robots no tienen la necesidad social de comunicarse
Ambos coinciden en que ahora mismo es “complicado” imaginar cómo una máquina podría mantener una conversación inteligente motivada por objetivos similares a los humanos y dicen que las preguntas de investigación en ese campo ni siquiera están bien definidas. Y aunque IBM logró en marzo un récord global al desarrollar un sistema de reconocimiento de lenguaje hablado que casi alcanza la paridad humana, Ruiz reconoce que esa todavía es una asignatura pendiente. “Sobre todo ahora que hemos pasado a considerar las máquinas no solo como herramientas, sino como socios o colaboradores en nuestras vidas diarias”, comenta.
El caso de Facebook
Otro obstáculo hacia una conversación común, según Berant, es que mientras los seres humanos utilizan símbolos que conforman un lenguaje, esos símbolos no son necesariamente la forma más eficiente de comunicación para las máquinas. “Los robots pueden pasar información entre ellos de otras maneras, utilizando series de números o combinando símbolos que no tienen sentido para el usuario humano”, explica. El ejemplo más reciente ocurrió en el laboratorio de Investigación de Inteligencia Artificial de Facebook (FAIR), donde dos chatbots, llamados Bob y Alice, tenían que negociar entre sí para intercambiar libros y ganar puntos. Al principio, hablaban en inglés, pero luego empezaron a reordenar las palabras y a formar frases que no tenían sentido en el lenguaje humano, y el proyecto fue cerrado.
Los robots solo entienden el lenguaje en un contexto particular, cuando son explícitamente enseñados a hacerlo
Para Berant, el caso simplemente ejemplifica que los robots solo entienden el lenguaje en un contexto particular, cuando son explícitamente enseñados a hacerlo. “Por eso, no creo que las máquinas representen una amenaza. No tienen todavía la capacidad de desarrollar un lenguaje espontáneo”, afirma. Ruiz tampoco está de acuerdo con las opiniones alarmistas, pero defiende la importancia de mantener los recursos para deshabilitar o cerrar sistemas de inteligencia artificial cuando necesario. Admite, sin embargo, “que el verdadero desastre sería abandonar o inhibir la tecnología cognitiva antes de que se pueda explotar todo su potencial”.
Comentarios
Publicar un comentario