Profundo, sinónimos: insondable, abismal, hundido, recóndito, amplio, reflexivo, intenso.
Desde la década de 2010, los avances en los algoritmos de aprendizaje automático y en el hardware de la computadora han permitido desarrollar métodos para entrenar redes neuronales que contienen muchas capas de unidades ocultas no lineales y una capa de salida muy grande.
Cada circulo representa un modelo de neurona, i.e. un perceptron, cuya respuesta, no lineal y dependiente de un umbral de excitación, depende de los inputs que les llegan de las neuronas de la capa superior y de las fuerzas de sus conexiones, o pesos sinápticos, aguas arriba. En otras palabras el substrato donde operan estos algoritmos es una cascada de capas con unidades de procesamiento no lineal para extraer y transformar variables. Cada capa usa la salida de la capa anterior como entrada. Las capas forman una jerarquía de características desde un nivel de abstracción más bajo a uno más alto. Estos métodos, que se reúnen bajo el nombre de aprendizaje profundo o Deep Learning (DL)[1], transforman la señal mientras se propaga desde la capa de entrada a la capa de salida. Cada una de estas transformaciones incluye parámetros que se pueden entrenar como pesos y umbrales.
El DL recoge actualmente un enorme entusiasmo y confianza, debido a una creciente velocidad de aprendizaje y de tiempo de respuesta en un vasto campo de aplicaciones: reconocimiento y clasificación de imágenes, generación de imágenes y videos sintéticos engañosos (parecen auténticos a observadores humanos), reconocimiento de mensajes vocales y preguntas (asistente de Google y Alexa), resolución de juegos a nivel experto (AlphaGO para el juego del GO), sistemas de visión para toma de decisiones en los pioneros proyectos de vehículos autónomos.
Conforme se desarrollaba las distintas aplicaciones del DL en el mundo real, empezaron a surgir también críticas de distinto orden, procedentes del mundo académico de investigación teórica[2] y operativa[3].
Personalmente clasifico las actuales problemáticas del DL en las siguientes categorías, cada una asociada a un sinónimo de profundo:
Críticas de orden computacional:
Amplio e intenso: el Deep Learning es un famélico devorador de datos[2][4]…
Los algoritmos basados en el aprendizaje profundo necesitan ser entrenados con muchos ejemplos, desde decenas de miles hasta millones. Para estar bien entrenado y eficaz necesita comer intensamente un conjunto heterogéneo, amplio, de datos. Hay muchos problemas en los que no tenemos conjuntos de datos tan grandes. Si por ejemplo quisiéramos implementar un modelo para predecir el éxito de los trasplantes de corazón y pulmón basado en DL, tendríamos una disponibilidad muy escasa de datos: el número de estas operaciones son solo unos pocos cientos en todo el mundo.
Recóndito: ¿…y si los nuevos datos son “fuera de muestra”? [3]
Un algoritmo de DL tiene dificultades en trabajar con datos «fuera de muestra”, i.e. que sean muy distintos, a distancias recónditas, de los empleados en el entrenamiento. Así el algoritmo de predicción de estructuras tridimensionales proteicas Alphafold, entrenado con proteínas naturales, falla en predecir proteínas sintéticas, o bien un sistema de reconocimiento de escritura a mano entrenado en letras impresas, puede fallar con letras cursívas.
Hundido: Las reglas del juego han cambiado, ¿y ahora? [4][5]
El DL actual cree vivir en un mundo estable: el aprendizaje profundo funciona mejor en un mundo estable con reglas precisas y tareas concretas, como, por ejemplo, un juego de mesa. El algoritmo de Google AlphaGO, que ha llegado en su última versión a aprender el juego del GO de forma autodidacta, jugando contra si misma sin información de partidas reales entre humanos, con performances superiores a las humanas, solo puede jugar en un tablero de 19×19 casillas. Una pequeña variación de las condiciones al contorno del juego, como pasar a jugar con un tablero de 29×29 casillas, perfectamente gestionables para el humano, hundiría por completo las capacidades del AlphaGO. Que pasaría entonces con el DL en entornos menos predecibles, como puede ser la evolución de los sistemas financieros, o la fase inicial de la pandemia en febrero 2020. ¿Cuándo hubiese declarado el estado de alarma un algoritmo de DL? ¿Antes o después de un presidente de gobierno?
Por otra parte sería más fácil en ciertos casos enfrentarse a los problemas descritos con la ayuda de expertos humanos, capaces de operar y tomar decisiones con pocos ejemplos y adaptándose a cambios del entorno, mediante una intuición desarrollada por los años trabajos y estudio.
Críticas de asociadas a la imitación de los procesos de pensamiento humano
Insondable: ¡Adivino el que, pero no el porqué! [3]
Debido intrínsecamente a la dinámica de aprendizaje de los algoritmos de DL, que de alguna forma imita las dinámicas de pruning de las redes neuronales biológicas, no tenemos un control sobre la forma de procesar los datos. Es decir, el DL puede acertar bien la solución de un cierto input, pero no puede decirnos porqué.
Abismal: ¿Causalidad o correlación? [4]
Como consecuencia de lo anterior el Deep Learning actual no es capaz de distinguir claramente causalidad y correlación. La diferencia entre causalidad y correlación es abismal y muy importante en todos procesos racionales, lógicos y científicos. Esto puede ser determinante para los algoritmos que se encargan de clasificar y tomar decisiones en campo médico, i.e. asignando protocolos terapéuticos en función del historial clínico los pacientes, o en campo bancario, estableciendo la concesión de préstamos en función de las características y los hábitos de vida de los solicitantes. Un buen médico y un buen economista, cada uno con años de estudio sobre los principios generales de su disciplina, sabrían muy rápidamente si dos parámetros del usuario estuvieran simplemente correlacionados, y bien uno fuera causa del otro. Esta critica también tiene claras consecuencias en el campo de la etica.
Reflexivo: Soluciones sin conocimientos [4]
El Deep Learning no ha sido integrado con un conocimiento previo de leyes abstractas y formales Por ejemplo un sistema destinado a estudiar la física de las torres que se derrumban en el que no se han introducido previamente las leyes de Newton, aunque el algoritmo las acaba deduciendo más o menos a base al análisis de los millones de ejemplos que se le han introducido en su fase de entrenamiento. Si un sistema de inteligencia artificial no puede apoyarse en principios generales previos o crear de nuevos en un lenguaje universal, formal y bien establecido, como las matemáticas, persistirá en su redundancia reflexiva.
Estas críticas nos llevan a la pregunta: ¿Es mejor hacer predicciones muy precisas sin entender exactamente por qué, o mejor hacer predicciones menos precisas y más lentas, a través de algoritmos de machine learning de antigua generación con una buena aportación de supervisión humana, pero con una lógica clara detrás de ellos?
«Yo se hacer una sola cosa, ¡pero muy bien!»
Finalmente si queremos recoger bastante bien todas las criticas descritas anteriormente podemos concluir que al estado actual de avance tecnológico del DL, los algoritmos son especializados en resolver muy bien una tarea concreta, pero carecen de la versatilidad y de la adaptabilidad frente a las innumerables tareas desempeñadas por al mente humana. En un trabajo del estudio del 2017 [5] [6]sobre el riesgo real de la inteligencia artificial analizando sus actuales capacidades, científicos de la Academia de Ciencias de China estudiaron cuál sería el coeficiente intelectual (IQ) de los distintos sistemas de inteligencia artificial, llegando a la conclusión de que son como niños pequeños: el de Google es de 47, el doble que el de Siri, que es 24. Tomando en consideración las habilidades de los sistemas en torno a su «dominio del conocimiento, aprendizaje, uso y creación», llegaron a la conclusión de que la inteligencia de la versión de 2016 AlphaGO (que todavía aprendía en la base de ejemplos de partidos jugados por humanos) seguía estando por debajo de la humana.
Insondable aprendizaje,
Intenso y amplio aprendizaje,
Hundido aprendizaje,
Reflexivo aprendizaje,
Recóndito aprendizaje…
[1] https://es.wikipedia.org/wiki/Aprendizaje_profundo
[2] https://arxiv.org/abs/1801.00631
[3] https://ai100.stanford.edu/
[4] https://telos.fundaciontelefonica.com/la-cofa/las-limitaciones-del-aprendizaje-profundo/
[5] https://elpais.com/elpais/2017/10/17/ciencia/1508235763_015093.html
Pingback: Humano, demasiado humano – La ciencia es aburrida