Un Estudio del MIT Revela una Debilidad en la Inteligencia Artificial

Un nuevo experimento, surgido del Centro de Cerebros, Mentes y Máquinas (CBMM) del MIT, ha demostrado que incluso los sistemas de inteligencia artificial (IA) más avanzados tienen problemas para comprender la causa y el efecto y las leyes elementales de la física. Si bien los algoritmos de inteligencia artificial pudieron describir objetos con precisión, tuvieron dificultades para descifrar los efectos que un objeto puede tener sobre otro objeto. Esta falla podría ser potencialmente bastante problemática dada la cantidad de maquinaria autónoma que la IA pronto estará funcionando.

El experimento fue diseñado y dirigido por Josh Tenenbaum, profesor del MIT en CBMM, junto con el investigador del MIT Chuang Gan y el estudiante de doctorado de Harvard Kexin Yi. Los investigadores diseñaron una prueba de inteligencia de IA para resaltar las brechas en la comprensión de los programas. Al sistema de IA se le mostraría un entorno virtual con un puñado de objetos interactuando entre sí. Luego se pidió a los programas de IA que describieran elementos específicos asociados con los objetos. Se desempeñaron muy bien en tareas descriptivas, como identificar el color de un objeto, que identificaron correctamente más del 90% de las veces. Sin embargo, los programas lucharon con preguntas más causales y dinámicas, respondiendo correctamente solo alrededor del 10% del tiempo. Un ejemplo de este tipo de pregunta es: “¿Qué provocó que la bola chocara con el cubo?” Aquí, los programas mostraron una comprensión del mundo casi infantil.

El estudio ha señalado un problema significativo, que debe abordarse antes de avanzar con la introducción de automóviles autónomos, máquinas industriales autónomas y programas de campo médicos basados en inteligencia artificial. Los seres humanos damos por sentado nuestro pensamiento causal, por lo que puede ser difícil programar estos sistemas para poder reaccionar de forma segura ante todos los escenarios posibles.

Los sistemas de inteligencia artificial son excelentes para notar e identificar objetos, pero no se dan cuenta de cómo sus acciones pueden tener efectos externos negativos. David Cox, director de IBM del MIT-IBM Watson AI Lab, dio el ejemplo de un robot que puede detectar un objeto, pero sin saber que si lo empuja, el objeto podría romperse. Esta deficiencia podría resultar costosa e incluso peligrosa.

Un sistema de inteligencia artificial también es tan inteligente como el conjunto de datos en el que está entrenado. El aprendizaje automático, y especialmente el “aprendizaje profundo” cada vez más popular, requiere un programa que lea grandes cantidades de datos para aprender a identificar cosas con precisión. Pueden surgir problemas en el futuro si el conjunto de datos no es lo suficientemente diverso. Por ejemplo, los primeros programas de inteligencia artificial para automóviles autónomos no podían reconocer a las personas con piel muy oscura porque los conjuntos de datos en los que habían sido entrenados solo incluían rostros blancos y asiáticos.

Al entrenar programas de inteligencia artificial para leer, los codificadores deben elegir entre un conjunto diverso de archivos, de modo que el programa no entienda una palabra en un solo contexto. Por ejemplo, un programa entrenado en una biblioteca de escritura médica se confundiría completamente con el uso coloquial de bipolar, especialmente si se usa para describir si.

La inteligencia artificial es un avance tecnológico asombroso, pero en este punto los sistemas de inteligencia artificial aún se encuentran en la etapa de desarrollo de un niño. Un profesor asociado de Harvard que estudia el aprendizaje automático resumió el problema diciendo que si un programa de inteligencia artificial fuera consciente del hecho de que los hombres tienen más probabilidades de morir por el consumo de alcohol que las mujeres, “[Él], sin noción de causalidad, podría inferir que la forma de reducir la mortalidad es administrar operaciones de cambio de sexo a los hombres “.

Siempre que los investigadores tengan en cuenta que incluso los programas de inteligencia artificial más complejos aún no tienen las mismas habilidades de razonamiento que los seres humanos, podrán evitar malentendidos que van desde el humor hasta la muerte.

Artículos relacionados

Escribe un comentario

Please enter your comment!
Please enter your name here
Captcha verification failed!
CAPTCHA user score failed. Please contact us!

This site uses Akismet to reduce spam. Learn how your comment data is processed.