“Es comparativamente fácil hacer que las computadoras muestren un rendimiento de nivel adulto […] y difícil o imposible darles las habilidades de un niño de un año”.
Además, los sistemas basados en reglas no podrían funcionar bien en condiciones de incertidumbre o datos contradictorios, que son de naturaleza ubicua debido a errores aleatorios y sistemáticos. Debido a estas limitaciones y a la falta de perspectivas, el interés por la IA disminuyó y el campo entró en un período conocido como IA invierno.Eventualmente, unos años más tarde, en gran medida independiente del campo de la IA clásica, un nuevo campo conocido como Aprendizaje automático empezó a surgir. Al igual que los primeros trabajos de Rosenblatt sobre el perceptrón, Machine Learning se basó en la observación de que las representaciones y las reglas de los sistemas inteligentes naturales se adquieren a partir de la experiencia a través de procesos de evolución y aprendizaje en lugar de la hipótesis de la regla del símbolo. Desde entonces, Machine Learning y especialmente Aprendizaje profundoun subcampo del aprendizaje automático basado en redes neuronales artificiales, han producido los éxitos más notables en el campo de la IA. Sin embargo, aunque estos tremendos desarrollos han tomado por sorpresa a muchos científicos y han inducido a muchos a creer que el advenimiento de IA fuerte está cerca, todavía estamos lejos de desarrollar una máquina al borde de la inteligencia a nivel humano y, tal vez, no lo vamos a lograr a menos que se produzca un cambio significativo en la investigación de la IA. De hecho, las capacidades de generalización de los sistemas de IA de última generación aún son absolutamente deficientes, lo que limita su aplicación a tareas limitadas y específicas. Por el contrario, los humanos pueden adaptarse con facilidad a entornos nuevos y completamente diferentes. Lo más sorprendente es que preguntas como “Qué si hago …?”, “Cómo …?”, “Por qué …?” y “¿Y si hubiera hecho…?”, que los humanos encuentran relativamente fácil de responder, son prohibitivos para los sistemas informáticos. Como resultado directo, las máquinas no pueden razonar sobre los posibles efectos de sus acciones en el entorno externo y elegir entre estas alteraciones deliberadas para producir el resultado deseado. Además, carecen de imaginación y retrospección, ya que no pueden reflexionar sobre sus acciones pasadas y visualizar escenarios alternativos. Quizás, estas limitaciones no sorprenden; después de todo, los sistemas de aprendizaje automático actuales funcionan completamente en un mero modo asociativo y, en última instancia, su éxito se reduce a cuatro factores principales: (i) suposición de variables aleatorias independientes e idénticamente distribuidas, (ii) cantidades masivas de datos, (iii) modelos de alta capacidad y (iv) computación de alto rendimiento. En pocas palabras, solo intentan ajustar una función a los datos sin procesar mediante la captura de correlaciones estadísticas en lugar de razonar sobre la compleja red de relaciones causales, y lo hacen consumiendo grandes cantidades de datos sin procesar y recursos computacionales. A modo de ejemplo, los paraguas abiertos y los días de lluvia son fenómenos correlacionados, pero solo el último tiene un vínculo causal directo con el primero. Así, mientras que ver gente con los paraguas abiertos sugiere que está lloviendo, cerrar los paraguas no detiene la lluvia. Aunque esto puede parecer trivial para los humanos, las máquinas aún no tienen idea de este tipo de relación y, como tal, predecirían que cerrar los paraguas en realidad detiene la lluvia. Por lo tanto, al igual que los prisioneros en la Alegoría de la caverna de Platón, los programas de aprendizaje automático aprenden a predecir el movimiento de las sombras en la caverna, pero no logran comprender que esas sombras son meras proyecciones de objetos tridimensionales. Incluso nuestros antepasados inicialmente carecían de causalidad. conocimiento, pero como postula Yuval Harari en su libro sapiens, tan pronto como los humanos comenzamos a darnos cuenta de que ciertas cosas causan otras y que jugar con las primeras puede cambiar las segundas, hemos evolucionado a un ritmo dramáticamente más rápido. Este proceso evolutivo llegó a ser conocido como Revolución cognitiva. Todas estas consideraciones sugieren que no nos estamos acercando a la ambición de construir una máquina de pensamiento humano capaz de actuar en un espacio imaginado en el sentido de Konrad Lorenz a menos que la integremos con un modelo mental basado en el conocimiento causal. Para lograr este objetivo, Judea Pearl, una de las más destacadas exponentes de la nueva ciencia llamada Causalidadpropone implantar un “motor de inferencia causal” en futuros sistemas de IA. Este motor de inferencia causal es una máquina que recibe una consulta y un conjunto de datos como entrada para generar una estimación y una estimación de la respuesta. Si bien la estimación se puede considerar como una receta para responder a la consulta y se produce de acuerdo con el modelo causal subyacente, la estimación es la respuesta real a la luz de los datos de entrada. Por lo tanto, a diferencia del enfoque estadístico tradicional, el papel de los datos solo se relega al cálculo de la estimación. Esto contrasta profundamente con el aprendizaje automático, que se basa en cambio en el aprendizaje basado en datos. La lógica detrás de este diseño es que los datos sin procesar son intrínsecamente tontos. De hecho, aunque las tendencias de investigación actuales parecen esperar que un enfoque centrado en los datos nos lleve a la respuesta correcta siempre que surjan preguntas causales, se puede demostrar que las preguntas causales no pueden responderse directamente a partir de datos sin procesar. De hecho, el razonamiento causal requiere algunas suposiciones sobre el proceso de generación de datos subyacente, y el campo de la Causalidad ha demostrado que podemos formalizar estas suposiciones por medio de un conjunto de objetos matemáticos conocidos como modelos causalesEn este punto, conviene señalar que el campo de la Causalidad tradicionalmente asume los modelos causales a priori dados por los humanos. Además, se supone que las variables causales generadas por los modelos causales subyacentes son directamente observables. Sin embargo, estas suposiciones son generalmente poco realistas.
De hecho, en algunos campos, nuestro conocimiento se encuentra en un estado tan embrionario que no tenemos ni idea de cómo funciona el mundo. Además, las observaciones del mundo real no suelen estar estructuradas en unidades de variables causales. Como ejemplo, primero se deben extraer los objetos en imágenes que permiten el razonamiento causal. Por lo tanto, dado que el aprendizaje automático fue más allá de la hipótesis de la regla de los símbolos al no requerir que los símbolos se den a priori, el campo emergente de la causalidad se esforzará por aprender los modelos causales de los fenómenos del mundo real y descubrir sus unidades variables causales a partir del mundo real. observaciones de forma automática. Después de todo, una futura máquina Strong-AI equipada con un motor de inferencia causal será capaz de formular hipótesis sobre algunas suposiciones sobre el mundo y luego ajustarlas a medida que adquiera más experiencia. Estas deficiencias pueden abordarse beneficiándose de los avances en Machine Learning. . De hecho, tanto el descubrimiento de variables causales a partir de datos brutos no estructurados como el aprendizaje sucesivo de los modelos causales subyacentes son operaciones centradas en los datos, y el aprendizaje automático sobresale en esto. Además, las técnicas modernas de aprendizaje automático pueden ayudarnos a superar la maldición de la dimensionalidad durante el paso de estimación estadística del motor de inferencia causal. Todo esto nos lleva a la conclusión de que si realmente queremos construir una máquina al borde de la inteligencia humana, debemos fusionar Causalidad y Machine Learning en un solo campo: Aprendizaje automático causalPara resumir, todavía nos queda un largo viaje por delante para construir una máquina de pensamiento humano, y es obligatorio un cambio en las tendencias actuales de investigación de IA para lograr este propósito. Al igual que el campo de la IA fue más allá de la hipótesis de la regla de los símbolos al adoptar los avances del aprendizaje automático, ahora es necesario abandonar un paradigma de aprendizaje puramente estadístico y basado en datos en favor de un enfoque basado en la causalidad. Sin embargo, las herramientas del campo emergente de la causalidad son insuficientes para dar a las máquinas el don del pensamiento causal. Es por esto que, aunque estos dos campos surgieron y se desarrollaron por separado, la causalidad y el aprendizaje automático deben fusionarse en un campo nuevo y prometedor llamado aprendizaje automático causal. Tal vez, a medida que los humanos evolucionamos a un ritmo dramáticamente más rápido cuando comenzamos a hacernos preguntas causales, una vez que descubrimos cómo emparejar la causalidad con el aprendizaje automático con éxito, el Singularidad estará a la vuelta de la esquina.
Los días felices de la PDA y Blackberry han quedado definitivamente atrás, pero el factor…
Tutorial sobre cómo pronosticar usando un modelo autorregresivo en PythonFoto de Aron Visuals en UnsplashForecasting…
Si tienes un iPhone, los AirPods Pro son la opción obvia para escuchar música, ¡aunque…
Ilustración de Alex Castro / The Verge Plus nuevos rumores sobre el quinto Galaxy Fold.…
Se rumorea que los auriculares premium de próxima generación de Apple, los AirPods Max 2,…
El desarrollador Motive Studio y el editor EA han lanzado un nuevo tráiler de la…