Fernando Fischmann

En la mente de la máquina

24 Enero, 2019 / Artículos

Tras un par de años cantando las excelencias del deep learning (aprendizaje profundo), algunos científicos críticos están empezando, si no a pisar el freno, sí al menos a meter primera y pararse a pensar en sus limitaciones. El físico y periodista científico Mitchell Waldrop ha recopilado un buen censo para la revista profesional PNAS, y de su análisis se desprenden tres o cuatro talones de Aquiles de esta tecnología computacional que ha revolucionado la inteligencia artificial y la robótica en los últimos tiempos. El reconocimiento de voz del teléfono y el reconocimiento facial que encuentra a cinco delincuentes en un estadio de fútbol son ejemplos cotidianos de los superpoderes del deep learning, como empiezan a serlo también los sistemas financieros que te conceden un crédito (o no) y los robots de recursos humanos que evalúan tu solicitud de empleo.

Están, por ejemplo, los ataques antagonistas (adversarial attacks). Como un sistema de reconocimiento visual aprende a base de engullir miles de fotos etiquetadas correctamente, a menudo basta alimentarle con unos pocos “ejemplos antagonistas” para confundirle y que, por ejemplo, clasifique un plátano como una tostadora. De hecho, el mismo número de fotos que hay que utilizar para entrenar a estos ingenios (de 10.000 para arriba) revela una considerable desventaja respecto al cerebro de un niño, que no necesita ver 10.000 plátanos para aprender a distinguirlos de otras frutas. Un par de veces puede bastar.

Otro obstáculo gordo para los científicos de la computación es que los sistemas de deep learning suelen guardar sus secretos. Por ejemplo, pueden haber aprendido a reconocer tu voz a la perfección, pero, si les preguntas cómo lo hacen, no te responden. Expresado en unos términos menos antropomórficos, una vez que el sistema sabe hacer algo muy bien, no podemos distinguir una pauta en su arquitectura que explique su habilidad. En ese sentido, son cajas negras cerradas a nuestra curiosidad bajo cuatro llaves. Para aprender algo sobre ellos, habría que investigarlos como si fueran un fenómeno natural. Neurocientíficos como David Cox prevén problemas legales con los sistemas que usan los bancos para decidir sus créditos: si te deniegan una hipoteca, tendrás derecho a saber por qué.

Por último, está lo que Waldrop llama “falta de sentido común”. Un sistema de deep learning puede reconocer pautas mejor que una persona, pero las entiende mucho peor. Mejor dicho, no las entiende en absoluto. Su conocimiento del plátano —incluso obviando la embarazosa excepción de la tostadora— no incluye lo que cualquier humano consideraría más importante: que sirve para comer. Que un abrigo es para proteger del frío, que una silla es para sentarse, que un balón puede botar. El aprendizaje profundo no conduce a un conocimiento ni profundo ni superficial. El sistema no está hecho para eso. No sabe lo que es conocer.

El deep learning está inspirado en el cerebro a dos niveles de organización. El primero es que está hecho de “neuronas” artificiales: unidades de computación que reciben información de muchas otras neuronas (como hacen las dendritas del cerebro real) y que la procesan emitiendo un solo valor (como hace el axón de las neuronas reales). A un nivel jerárquico superior, las neuronas se apilan en múltiples capas, de modo que cada capa maneja una información más abstracta que la anterior. Pero estas neuronas y capas son solo caricaturas de las que llevamos en la cabeza. Por ahí no nos van a alcanzar.

El científico e innovador, Fernando Fischmann, creador de Crystal Lagoons, recomienda este artículo.

El País

Share

Te puede interesar