Back





 ¿Cuál es el futuro de la inteligencia artificial? Pregúntale a la inteligencia artificial o a los investigadores.

¿Cuál es el futuro de la inteligencia artificial? No existe un lugar mejor para hacer esa pregunta que en la Conferencia sobre Sistemas de Procesamiento de Información Neural, también conocido como NIPS, realizada el 4 de diciembre del 2017 en Long Beach, California.

Los asistentes tuvieron la oportunidad de realizarle preguntas a MILABOT, el bot de inteligencia artificial desarrollado por un equipo de la Universidad de Montreal, que forma parte de una de las dos demostraciones que se exhibieron en la conferencia pasada.

La especialidad del bot es entablar conversaciones con los usuarios en que pueden ir desde juegos de palabras hasta sutiles preguntas personales sobre la vida.

“Algunas personas terminan hablando entre 20 y 30 minutos sobre sus vidas personales”, dice Iulian Vlad Serban, uno de los investigadores que la desarrolló, cuando invitaba a los desarrolladores de inteligencia artificial para probarla.

Cuando se le consultó sobre el futuro de la inteligencia artificial, MILABOT emitió la misma respuesta que escucharás de los más de 7000 estudiantes e investigadores que participaron en conversaciones variadas, en los pasillos del Centro de Convenciones de Long Beach el pasado diciembre “Tengo que reflexionar un poco al respecto”, respondió MILABOT.

NVIDIA por su parte, apoya el trabajo de investigadores como Serban a través de NVIDIA AI Labs, o el programa NVAIL, mediante el cual contribuimos a la investigación en 20 universidades e institutos de primer nivel, al ofrecer asistencia técnica de parte de nuestros ingenieros y al ofrecer apoyo a los estudiantes y acceso a nuestros sistemas de supercomputadoras de inteligencia artificial DGX.

Mirar y aprender

Una respuesta: el aprendizaje profundo o Deep Learning, ayudará a las máquinas a interactuar con el mundo físico, y las personas que lo habitan, de forma mucho más fluida.

“Creo que los próximos años serán de las máquinas autónomas”, dijo el CEO de NVIDIA Jensen Huang, durante su visita al NIPS, en donde estuvo hablando con Sergey Levine, Chelsea Finn y Frederik Ebert de la Universidad de Berkeley sobre su trabajo. “Estamos frente a la intersección de la inteligencia artificial y las máquinas que pueden interactuar con el mundo físico”.

El CEO de NVIDIA Jensen Huang habla con Chelsea Finn y Frederik Ebert sobre su trabajo.

El equipo del laboratorio de investigación de Berkeley, o BAIR, llevó un par de demostraciones a NIPS para exhibir las nuevas técnicas de aprendizaje profundo.

En la primera de las demostraciones de BAIR, colocas un objeto, como las llaves del auto o un par de anteojos, en el espacio de trabajo de un robot. Luego, haz clic en una interfaz de usuario para mostrar la máquina dónde está el objeto que quieres mover y adónde quieres que vaya.

El robot imagina, mediante una predicción de video donde los usuarios podrán ver, a dónde se moverá el objeto que especificaste, de acuerdo con las acciones del robot. El robot usará esta predicción para planear sus próximos movimientos.

Gracias a un diseño innovador para la red neural convolucional, la habilidad del robot sorprendió incluso a algunos de los estudiantes que lo entrenaron durante un día completo.

En la segunda demostración, deberás realizar una acción, como colocar algo en un contenedor, guiando a un brazo robótico. Con el video de tu demostración, el robot encontrará el contenedor y colocará el mismo elemento en él.

MILABOT tenía otra demostración que cautivó a los asistentes de NIPS, muchos de los cuales eran investigadores ansiosos por encontrar una forma de enredar al chatbot.

Si bien es posible, MILABOT puede mantener una conversación, aun cuando debe echar mano a un juego de palabras malo para responder a un investigador que le pide que haga una “desambiguación de un pronombre”.

“No tengo un gato, pero si tuviera uno, me gustaría miaucho”, responde MILABOT cuando le preguntan si le gustan los gatos. (Por supuesto, los gatos son una broma recurrente entre los investigadores de inteligencia artificial).

Este chatbot es una creación del Instituto de Algoritmos de Aprendizaje de Montreal para competir por el premio Amazon Alexa. No se basa en un modelo de conversación, sino en 22 modelos.

Mantener una conversación con personas de forma oral o escrita es un desafío al que se enfrentan los científicos de computación, desde que Joseph Weizenbaum, del MIT, creó ELIZA, que emite respuestas frustrantemente superficiales a las preguntas humanas, cuatro décadas atrás.

A diferencia de ELIZA, MILABOT se basa en lo que los creadores describen como un “ensamble” de modelos. Incluyen modelos basados en plantillas, modelos de grupos de palabras, modelos de redes neurales variables y latentes, y modelos de redes neurales secuencia a secuencia, así como una variante del modelo ELIZA original.

El truco es utilizar aprendizaje profundo de refuerzo para decidir qué modelo usar. Para hacerlo, MILABOT usa el aprendizaje de refuerzo, donde los agentes de software aprenden al tomar una gran secuencia de acciones para maximizar la recompensa acumulativa, aplicado a los datos reunidos a partir de interacciones reales con personas.

No es perfecto, pero es suficiente para atraer a una multitud y entretenerlos mientras hacen preguntas capciosas al software.

Enlaces relacionados:

Conoce las novedades de NVIDIA

Visita nuestro blog y síguenos en Facebook y Twitter

Acerca de NVIDIA

La invención del GPU por parte de NVIDIA (NASDAQ: NVDA) en 1999 generó el crecimiento del mercado de juegos para PC, redefinió los gráficos por computación modernos y revolucionó la computación en paralelo. Recientemente, el aprendizaje profundo de GPU impulsó la inteligencia artificial moderna, la próxima era de la computación, ya que la GPU ocupa el papel del cerebro de las computadoras, los robots y los automóviles de conducción autónoma que pueden percibir y comprender al mundo. Obtén más información en //nvidianews.nvidia.com/.





 
 


TwitterFacebookLinkedInGoogle+Reddit