Humano, demasiado humano

Visión crítica de la IA y de sus aplicaciones en la actualidad

Inteligencia artificial y mente

En 2017 el AlphaGo Zero ha demostrado que el conocimiento humano puede incluso ser un lastre a la hora de alcanzar mayores niveles de efectividad. Los especialistas de DeepMind alimentaron a una copia de este algoritmo con información de partidas reales entre humanos, para comparar su rendimiento con la versión autodidacta. El resultado: la máquina autodidacta derrotó a la máquina entrenada.

AlphaGo Zero ha desarrollado creatividad intelectual enseñando a sí mismo a ganar, y se ha colocado en uno de los grados de inteligencia más alto, por encima del ayudante de Google, y de Siri.

¿Y mientras tanto los humanos? ¿Qué es de su inteligencia? Mientras tanto nosotros, cada uno con sus aparatos digitales, comprobando informaciones, y fagocitando cada día más noticias, videos y foto, perfiladas y personalizadas con técnicas de big data, cada día perdemos un granito de habilidad.

Ya me cuesta repetir un poema de memoria, google me lo proporciona en cinco segundos; no se ya cómo se pregunta una indicación a un transeúnte, google maps es muy cómodo e intuitivo y siempre acierta el mejor camino; no se ni siquiera cuales con mis gustos musicales ni que película quiero ver esta noche, spotify y filmin eligen por mi; dentro de poco ni necesitaré conducir el coche, una self-driving car sabrá como desenvolverse en el atasco más complejo de la ciudad.

No creo en todo caso que los avances en Inteligencia Artificial (IA) llegarán en algún momento a replicar en funcionamiento de una mente humana, por lo menos no de una mente de la era pre-digital, ya que nuestras capacidades cognitivas se irán modulando y plasmando, con éxitos no siempre beneficiosos, conforme en las próximas generaciones seguiremos delegando tareas mentales a devices externos de silicio.

La maquinaria física está, y es muy poderosa, todavía varios ordenes de magnitud por encima del software y hardware más sofisticados, del ultimo algoritmo de Deep Learning (DL): se estima que en el cerebro humano adulto hay alrededor de 100 mil millones de neuronas, y entre 100 y 500 billones de sinapsis. Evolucionando desde hace 300 mil años en su versión más reciente, la del Homo sapiens.

En un articulo anterior desarrollaba algunas de las principales críticas técnico científicas al DL: la que más me llamó a la atención, y que resumía varias de aquellas, se centraba en la incapacidad de los algoritmos de DL de proporcionar conocimiento, pudiendo solo extraer soluciones desde una gran cantidad de datos de entrada, pero sin explicar porque.

¿Qué significa entonces conocimiento? ¿Será tal vez íntimamente ligado a los procesos de abstracción, y formulación de leyes generales?

Una de las mejores versiones de la mente humana del siglo V a.C., la mente de Platón, consideraba que el hombre pensaba construyendo su conocimiento por categorías abstractas: tenemos a nivel consciente y la “idea del caballo” y no necesitamos llamar a la vez millones de ejemplos.

Nuestra especie ha dado un salto evolutivo importante porqué tiene herramientas comunicativas avanzadas para comunicar el conocimiento, un conocimiento que se moldea a través de los individuos y las generaciones. En este sentido conocimiento y comunicación son casi sinónimos.

La IA ya llega a procesar bien el lenguaje, sin embargo no puede crear un lenguaje formal y compartido, i.e. una matemática, y por eso no podrá generalizar un conjunto de casos y elaborar leyes abstractas y formales.

Una teoría de la mente más moderna considera que en nuestro subconsciente guardamos, minuciosamente detalladas, todas las experiencias de cada día de nuestra vida. Estas pueden salir a la luz de vez en cuando, y en respuesta de estímulos externos que no procuramos necesariamente para resolver una tarea concreta. A través de este proceso podemos crear y encontrar soluciones nuevas, adaptarnos a nuevos retos.

Una máquina que puede si manipular a la vez mucha más información que una mente, pero precisamente por no tener un subconsciente, y por ende faltar de una sutil comunicación consciente-subconsciente, faltará de creatividad intelectual.   

Como dijo el maestro de ajedrez Kasparov: “Las maquinas son muy buenas dando respuestas, pero los humanos son muy buenos haciendo las preguntas!”

¿Hemos perdido el control sobre las máquinas? ¡Que viva el supervisor humano experto!

Estamos delegando a los algoritmos de IA muchas tomas de decisiones, de las más triviales de nuestro día a día, i.e. la peli que veré esta noche, hasta las más delicadas y críticas, relacionadas por ejemplo con protocolos de terapia médica o inversiones financieras.

La industria 4.0 quiere una extensa aplicación de los algoritmos de IA en sus procesos, en concepto de análisis y Big Data, desarrollo de robots autónomos autonomos, flexibles y cooperativos, simulaciones de procesos en directo, optimización de productos en tiempos real a través del internet industrial de las cosas y de la computación en la nube.

La razón es fácil: las aplicaciones de la IA son increíblemente eficaces en desarrollar respuestas rápidas, procesando un gran volumen de datos.

Con este panorama tendría especial cuidado la pérdida de control operativo sobre las máquinas de IA, que puede conllevar muchos riesgos. Consideremos una tuerca, un motor, una pieza electromecánica, un programa escrito en fortran: en todos estos casos sabemos como funcionan internamente. Son objetos tecnológicos controlables: nos facilitan y mejoran la vida, y si fallan, sabríamos como repararlos, aunque sea desde el punto de vista teórico porqué luego habrá que confiar en un técnico experto humano.

¿Estamos seguros que es sano confiar en máquinas para toma de decisiones que no son controlables, como algunas sofisticadas redes neuronales de DL, para las cuales no hay experto humano que pueda entenderlas internamente? ¿Los algoritmos de DL están generando real conocimiento, o bien un verdadero conocimiento necesita de una valoración de dinámica y causas internas del proceso mismo?

En el mundo de la industria, de la finanza y de la medicina, podrá pasar a grande escala lo que ha pasado a pequeña escala con las pequeñas tecnologías de nuestros devices: tablets, móviles y laptop, que mal funcionan y no sabemos porque, que podríamos arreglarlos en un pequeña paso o nunca, y no tenemos criterios para establecerlo, y que a menudo antes de repararlos conviene reemplazarlos con uno nuevo porque no hay técnicos que la entiendan (aunque en estos casos estamos tratando un nivel de complejidad mucho menor de las IA).

De la misma forma ¿Podrán producirse fallos, en los algoritmos de DL encargadas de toma de decisiones, que no sepamos de donde proceden, o peor, de los cuales ni siquiera nos diéramos cuenta? En este sentido tengo más confianza en algoritmos de IA con formalizaciones más antiguas, basadas en lenguaje matemático, y por esto controlables y comprensibles por expertos, como los basados en la Lógica Fuzzy o los algoritmos de Machine Learning supervisados, anteriores al 2010.

Por otra parte una consideración quizás más política y económica: ¿la IA aplicada a la industria 4.0 es una verdadera revolución humana, o bien es solo un medio técnico, novedoso y altamente eficaz, para perseguir los objetivos de productividad y crecimiento indefinido del sistema económico capitalista? ¿Los algoritmos de IA en economía, finanza e investigación médica nos ayudan a tomar las decisiones más racionales, o bien su alta velocidad de respuesta siguen simplemente fomentando competición y beneficios para pocos a cuesta de muchos? ¿La IA será la prosecución del actual sistema productivo con otros medios?

Para contrarrestar estos riesgos hay que tomar como figura central de control el supervisor humano experto:  personas con experiencia, intuición creatividad, que cometen errores, tienen escrúpulos, e incluso en ocasiones mezquinidádes.

Los supervisores expertos en definitiva pueden contrapesar las rápidas evaluaciones de las máquinas de un enorme mole de datos, con su conciencia de la historia, personal y colectiva, que define un sistema ético. De lo contrario seguiremos siendo “ricos en datos pero pobres en conocimiento”.

Críticas éticas: ¿Quién es el responsable de las decisiones del DL?

Es necesario hacer un estudio profundo de las consecuencias éticas de las tomas de decisiones mediante algoritmos de DL cuando aplicadas en campo médico, bancario, legal (e.g. DL que establece criterios de libertad condicional en función de las características del sujeto), financiero (e.g. en operaciones de portfolio en el stock market) o en valorar cuotas en pólizas y seguros. Sin embargo los casos anteriores tienen o dinámicas lentas o consecuencias inmateriales.

Las aplicaciones más importantes, en las cuales establecer una ética, son aquellas en las cuales los algoritmos de DL están integrados en sistemas físicos, como los automóviles autónomos, ya que tienen el potencial de actuar sobre sus decisiones en el mundo real de manera rápida. Es comprensible que esto plantee preguntas sobre la seguridad y sobre si la inteligencia artificial autónoma en algún momento superará a los humanos. Aunque algunas de estas preocupaciones pertenecen más al dominio de la ciencia ficción que a la realidad, la circunscripción adecuada de los sistemas inteligentes autónomos y su alineación con los valores humanos es un desafío importante que debe abordarse. Es necesario tener reglas claras que restrinjan el comportamiento de los sistemas autónomos de IA, para que los desarrolladores puedan integrarlos en sus aplicaciones. También es necesario aclarar quién es responsable de la falla, como ocurre con todos los productos.

Humano, demasiado humano

¿Puede un algoritmo de DL inventar y entender una nueva jerga adolescenciál? ¿Puede reírse de chistes sutiles? ¿Puede una sociedad de maquina DL desarrollar diversidad de caracteres?

En el fondo lo que acabo de escribir, que debería ser una crítica científica, basadas en hechos medibles y objetivos, está tremendamente sesgada por emociones, sentimientos, y pensamientos ilógicos profundos: esta la verdadera Deep Mind con la cual tenemos que lidiar todos los días

1 comentario en “Humano, demasiado humano”

  1. Pingback: Política, democracia, grandes retos y un partido de ajedrez a tres bandas – La ciencia es aburrida

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *