jueves, 1 de enero de 2015


La inteligencia artificial:
¿un simple juego de imitación?

Carlos Blank



 


A manera de introducción: ¿ficción vs. realidad?
Quisiéramos comenzar diciendo que la realidad, la “cochina realidad” como decía Unamuno, está sobrevalorada. O mejor dicho, solemos despreciar aquellas actividades que en principio nos aíslan de la realidad o de las duras realidades de la vida cotidiana, y nos ubican en un mundo de imaginación, de fantasía y de ficción, las cuales solemos considerar como medios de evasión o de escape frente a lo real. Solemos darle una  connotación negativa a la palabra “evasión” o “escape”, aunque es posible que sin una mínima dosis de evasión cotidiana la vida o la realidad sería insufrible o insoportable. Así que podemos decir que este mecanismo de evasión tiene una utilidad hasta biológica, nos permite, junto con otras cosas, sobrevivir, huir de la desesperación y del aburrimiento, extremos que según Woody Allen, acechan el cotidiano discurrir de nuestras vidas.[1] No se trata, por cierto, de afirmar que la realidad y la verdad dan señales de decadencia, son vintage como se dice ahora, y que lo cool es la ficción o el mundo irreal. Por el contrario lo que más nos interesa subrayar es que el mundo de la ficción, esa “verdad de las mentiras”[2], es una herramienta poderosísima para sumergirnos de lleno en la realidad o realidades, para ampliar nuestra experiencia de las realidades. Curiosamente, entonces, cuanto más nos alejamos de la realidad, cuanto más hacemos abstracción de la realidad, tanto más somos capaces de explicar o comprender mejor ese mundo externo, natural o social, que nos rodea o en el cual estamos, queramos o no, instalados.
Lo que nos interesa destacar por el momento es la fina línea que separa la imitación y la simulación con la realidad.[3] De hecho, como todos experimentamos cuando soñamos –y todos somos artistas o dementes entonces- para nuestro cerebro no hay diferenciación alguna entre sueño y realidad. Nuestro cerebro es una fuente permanente de ficciones, de simulaciones, en engaños, de ilusiones.  Por eso poetas como Calderón de la Barca se han preguntado si la vida misma no es toda ella un sueño o dramaturgos como Shakespeare se han preguntado si la vida no es más que un cuento relatado por un idiota.
Resulta significativo que los más hambrientos de realidad y verdad sean precisamente los matemáticos, quienes buscan la certeza mediante la formulación de suposiciones o definiciones y las consecuencias necesarias que se siguen de ellas. En esta disciplina invención y descubrimiento, suposición y realidad, se dan constantemente la mano. Las matemáticas encarnan mejor que cualquier otra disciplina la paradoja de que cuanto más nos alejamos de la realidad concreta –mediante la abstracción- tanto más es posible acercarnos a ella o somos capaces de comprenderla.   Por eso, la definición que daba Bertrand Russell de las matemáticas, sin dejar de tener un tono epigramático, resulta ser perfectamente amoldada al quehacer del matemático: “Las matemáticas podrían definirse como aquello en lo que nunca sabemos de qué estamos hablando, ni si lo que decimos es verdad.” No se le escapaba por cierto a Russell el gran poder de evasión de las matemáticas y como ellas en más de una oportunidad fueron un dique de contención de pensamientos negros o tendencias suicidas que experimentó alguna vez. La belleza y la perfección de las matemáticas compensan con creces las fealdades y las imperfecciones del mundo de la vida cotidiana,  por eso fue un gran shock emocional para él admitir posteriormente que esa ciencia se debatía entre la contradicción y la tautología, entre la paradoja y la vacía trivialidad.  Fue dentro de esa atmósfera intelectual que tres siglos antes acogiera a un Barrow o un Newton, la que ahora, mutatis mutandis, cobija a un Russell, a un Wittgenstein, a un Turing, y más recientemente, a un Penrose o un Hawking, quien hasta el 2009 ocupó  la Cátedra Lucasiana de Matemáticas que en su momento ocupase también Sir Isaac Newton.
Hablando precisamente de la ficción o simulación como mecanismo para adentrarnos en la realidad, queremos destacar el próximo estreno de dos películas cuyos personajes son dos grandes mentes  contemporáneas educadas en Cambridge. Las películas en cuestión son: La teoría del todo (2014), dirigida por James Marsh y protagonizada por Eddie Redmayne como Stephen Hawking y El juego de imitación (2014), dirigida por el noruego Morten Tyidum y protagonizada por  Benedict Cumberbach en el papel de Alan Turing y que se ocupa de las peripecias para quebrar el código de la conocida máquina alemana Enigma por medio de otra máquina diseñada con ese fin conocida como Bomba.[4] Lo que quizás pudiera dar origen a otra película es que precisamente durante los años anteriores a la Segunda Guerra Mundial, Turing participó activamente en los seminarios de Wittgenstein sobre los fundamentos de las matemáticas, junto con Norman Malcom, Rush Rhees o George Henrik von Wright, entre otros,  y que dichas discusiones han sido recogidas en un texto titulado Wittgenstein’s Lectures on the Foundations of Mathematics (Cornell University Press, Cornell, 1976).[5]

Algunos mitos sobre la invención del computador u ordenador
A menudo se suele señalar la guerra como una de las causas principales de los avances científicos y tecnológicos modernos y es innegable que en muchos casos ha sido así. En el caso que nos ocupa, la invención del ordenador, la cuestión es solo parcialmente verdadera. Sin duda, que durante la Segunda Guerra Mundial se crearon centros de automatización de datos vinculados a departamentos de balística y a la propia creación de la bomba atómica, si bien su creación definitiva se hizo con total independencia del ordenador. También es cierto que muchas de esa máquinas fueron diseñadas para romper los códigos de los enemigos y encontraron en ello una fuente permanente de estimulo y financiamiento. Pero también hay que tomar en cuenta que muchos proyectos que habían sido iniciados antes de la guerra para desarrollar máquinas automáticas ultrarrápidas fueron abandonados a causa de la guerra, como ocurrió, por ejemplo,  con proyectos llevados a cabo por la IBM en 1942 y que fueron interrumpidos por la incursión de los EEUU en la guerra.
Otro error que puede cometerse a la hora de trazar los momentos más importantes de la invención de algo tan complejo como el computador digital moderno es atribuirle demasiados precursores o genios fundadores. Siguiendo este esquema deberíamos tomar el ábaco como el primer modelo de una computadora moderna y al inventor del ábaco como su precursor. (Más risible aún es tomar al ábaco como un modelo de la mente humana.) Pero resulta, en primer lugar,  que nadie sabe quién inventó el ábaco, lo que suele ser el caso de muchos inventos importantes –el lenguaje o el dinero serían otros- y que es obvio que existe una distancia nada desdeñable entre el antiguo ábaco y las modernas computadoras. Incluso en los casos en que se conoce el nombre específico del inventor, como la máquina inventada por Pascal para facilitar los cálculos a su padre que era funcionario de aduanas o la máquina diferencial más compleja inventada por Leibniz, que permitía hacer multiplicaciones y divisiones complejas, existe un gran salto con relación a las computadoras modernas. También el caso de  Charles Babbage, que suele ponerse como el precursor más inmediato con su máquina analítica resulta bastante discutible en muchos aspectos. Sin duda,  que fue el primero que separó las funciones de memoria y cálculo, y que utilizó un sistema de programas codificados por medio de tarjetas perforadas – que se utilizaron hasta no hace tanto tiempo-, las cuales, por cierto,  fueron tomadas de los telares mecánicos, protagonistas principales de la revolución industrial en Manchester. Dicho sea de paso, el inventor de la tarjeta perforada no fue un inglés sino un mecánico francés llamado Bastidor de Falcon.  Sin embargo, la máquina de Babbage nunca fue realmente construida y él tampoco pensó en un proceso totalmente automatizado o en un programa interno que programara la máquina. Y la razón de ello es muy sencilla: aun no se habían inventado máquinas electrónicas de alta velocidad.[6]
Normalmente, definimos el ordenador como una calculadora electrónica programable por programas internos. La noción de programa grabado internamente es fundamental, ya que, como veremos más adelante, es la que encarna la flexibilidad de uso y el carácter realmente universal de los ordenadores. Ahora bien, la grabación de un programa sólo es una ventaja técnica si se dispone de una gran velocidad de cálculo, es decir, a partir de la invención de las máquinas electrónicas. El ordenador como tal era algo impensable para Babbage. Algunos fragmentos marginales de los escritos de lady Lovelace (principal colaboradora de Babbage) han podido interpretarse como alusiones a una posible incorporación de programas a la máquina analítica. Pero el significado de esta idea en una máquina dotada de una memoria interna mecánica, es decir, muy lenta, no es comparable al que tiene para nosotros.[7]
Quien, sin duda, se acerca mucho más a la invención de la computadora digital es Alan Turing. Es él quien comprende perfectamente la vinculación de un programa interno y una gran capacidad para almacenamiento de datos en una máquina de alta velocidad. Como veremos con más detalle después, fue a raíz de la publicación de un artículo sobre la imposibilidad de resolver todo problema de cálculo que ideó la existencia de una máquina universal que fuese capaz de realizar cualquier función o computación, y no orientada a funciones específicas como era el caso más corriente. Es importante tomar en cuenta esto, que el interés inicial de Turing era un problema teórico de resolución mecánica de problemas de cálculo más que el diseño concreto de computadoras. Desde luego resulta irónico pensar que  la idea de una computadora moderna surge como experimento mental para establecer lo que está más allá de toda computación o cálculo efectivo.
Por otro lado, aunque se viese involucrado en los primeros diseños electrónicos de computadoras su interés principal era comprender cómo funciona la mente humana y desarrollar un modelo artificial de la mente humana, lo que con el tiempo se conocerá como Inteligencia Artificial.  Según Levy, el que se suela asignarles mayor importancia a determinados pensadores o matemáticos en la invención de las computadoras, como los ya mencionados Babbage o Turing, podríamos añadir a von Neumann, en detrimento de las dificultades concretas a las que se enfrentaban los ingenieros a la hora de construir dichas máquinas y las soluciones aportadas por ellos, es que predomina una lectura logicista  de la secuencia de hechos históricos que llevaron a su invención concreta. 
La máquina universal de Turing no inspiró a ningún constructor un autómata concreto. El contexto en que había sido ideada se encontraba demasiado alejado de los problemas planteados a los inventores de calculadoras de vidrio y metal, para que pudieran sacarle provecho. A posteriori solamente, una historia de inspiración logicista pudo citar a Turing entre los fundadores de la informática. Como si la isomorfía funcional abstracta entre los ordenadores y la máquina universal de Turing permitiera extraer una relación condicional de posibilidad de causa a efecto, o de derivación. Suponiendo una serie de condiciones idénticas a las reales, sin la máquina universal, los ordenadores hubieran existido igualmente. Los fundamentos, de tipo teórico, deben distinguirse de los cimientos, de tipo genético.[8]

El punto de vista de Levy nos parece importante para compensar una descripción histórica claramente sesgada a favor de los lógicos y matemáticos y que suele dejar de lado a todos aquellos que hicieron importantes contribuciones de detalle y que tuvieron que enfrentarse a la utilización o no de determinados materiales en la construcción de esas máquinas, que generalmente eran competentes mecánicos o ingenieros. Como suele decirse indistintamente, dios o el diablo está en los detalles.  No siempre es fácil encontrar en una misma persona la comprensión de las bases teóricas de un invento y tener el ingenio suficiente para realizarlo o ser capaz de hacer frente a las dificultades concretas que la realización del diseño de una máquina como la computadora tuvo que sortear. Pero sin ser expertos en el tema, nos parece que el propio Levy se contradice cuando reconoce que no puede atribuirse el adjetivo de fundador a Turing y al mismo tiempo nos invita a diferenciar entre fundamentos teóricos y cimientos genéticos, lo cual presupone precisamente lo que quiere que neguemos, que sea un fundador teórico, contradicción que puede entenderse como producto de la propia ambigüedad del concepto de Informática: ¿ciencia o técnica?  Sin duda que la historia de la ciencia o de la tecnología suele ser mucho más compleja de lo que ciertas descripciones esquemáticas propias de manuales de texto presentan y que trabajos como el de Levy permiten equilibrar o compensar el sesgo marcadamente teoreticista o logicista en este caso. Seguramente una historia que tome solamente en cuenta los materiales utilizados o solamente los ingenieros y mecánicos o solamente los matemáticos y  lógicos, será una historia sesgada e incompleta, así como aquella que solamente tomase en cuenta factores económicos o  militares. 
Siempre es bueno destruir ciertos mitos que asumimos como verdaderos simplemente porque han sido transmitidos por generaciones y tomar en cuenta que determinadas narraciones históricas pueden ser siempre criticadas, mejoradas o ampliadas.  Pero siempre podemos caer en la tentación de destruir determinados mitos para sustituirlos por otros. Por eso tampoco debemos  negar el peso específico que algunos pensadores tienen en un campo. Y como veremos en el caso de Turing, no ha sido precisamente atribuirle meritos que no son  propios sino el no haber reconocido suficientemente sus méritos en algunos casos lo que más nos interesa destacar. Con lo cual no pretendemos quitarle ni un ápice de verdad ni humor a las ideas de Levy expresadas en extenso a continuación:
En este repaso a las distintas formas de narrar la historia de la informática, llegamos, finalmente, a la presentación teleológica. Según esta versión de los hechos, el ordenador, tal como lo conocemos actualmente, estaba ya, de manera solapada, en el punto de mira de todos aquellos que trabajaban directamente o indirectamente en la mejora de los métodos de cálculo, de los primeros constructores de ábacos al inventor de los logaritmos. Toda la historia converge, desde el principio, en el estado actual de nuestras técnicas y de nuestro saber. No existieron bifurcaciones, opciones ni reinterpretaciones del pasado encaminadas a la realización de nuevos proyectos. Nuestro presente y, sobre todo, nuestra forma de entender dicho presente, es una especie de punto omega que, desde el futuro, orientó el curso de la historia. Los innumerables riesgos y contingencias que caracterizan a la historia sólo son medios puestos al servicio de este proyecto. Las circunstancias se ven así despojadas de su carácter decisivo, de su poder de orientación.
La frase inicial de la obra de Robert Ligonnière ilustra perfectamente esta tendencia:
‘La creación de los ordenadores constituye la culminación de un antiguo sueño, inconsciente en un principio y posteriormente madurado durante veinte siglos, en el cual la máquina llevaba a cabo un trabajo intelectual. Esta aventura ha arrastrado a toda la humanidad, desde las civilizaciones más antiguas hasta el período contemporáneo, caracterizado por una colección de potentes soluciones tecnológicas.’
¿Cómo admitir que el mismo sueño dirigiera subrepticiamente a un creador chino de ábacos del siglo X, a Nicolas Chuquet, a Leibniz y a Steve Jobs (fundador de la compañía Apple)? Objetos y conceptos cambian de sentido en función de los usos a los que los destinan los diferentes actores. Cada una de las creaciones de la historia del cálculo se enmarcan en un mundo imaginario, social y técnico determinado. Las propias nociones de cálculo y de automatismo se han transformado radicalmente desde las maravillas de teatro montadas por los mecánicos de Alejandría o desde los primeros dameros aritméticos trazados en las arenas de Egipto. La crítica de las causas futuras en la historia debería basarse, prácticamente, en los mismos argumentos que la crítica de la teleología en la teoría de la evolución. No existe ninguna razón para extenderse en este punto.
Con la noción de fundación, andamos en busca de una determinación procedente del pasado, buscamos el punto a partir del cual el futuro queda establecido de una vez por todas. En la idea de una presciencia del futuro que orienta solapadamente la actividad de nuestros antepasados hacia un presente en el que todo converge, creemos haber encontrado el punto fijo, el polo magnético de la historia. Se trata en el fondo de la fábula del progreso. En ambos casos se elimina lo indeterminado de la duración, las bifurcaciones imprevistas en las que se modifica sin cesar el futuro y la contingencia que preside estas modificaciones.[9]


La era de la Inteligencia Artificial

Si alguna era puede representar el mito de Prometeo y el robo del fuego sagrado como símbolo del conocimiento es la nuestra. Puestos a elegir una imagen de nuestra era tecnológica avanzada seguramente podríamos elegir la imagen desgraciada de un hongo nuclear con todas las ideas negativas que lleva asociadas dicha imagen. Pero otra imagen o logo que representa el desarrollo exponencial de las tecnologías de información y comunicación o TIC’s –posiblemente la más representativa- es la manzana mordida de Apple. Existen muchas versiones sobre el origen de dicho logo: que si representa la manzana de Newton, que si simboliza la manzana mordida del Paraíso o  la manzana con cianuro mordida por Turing, que si viene por el interés inicial de Steven Jobs por el cultivo de las manzanas en granjas comunitarias o por el sello disquero de los Beatles Apple Records  –las  dos últimas encajan perfectamente en el perfil de ejecutivo-hippie que representaba Jobs y las primeras en su cualidad de “nerd” o “geek”-. La mordida de la manzana, por otra parte,  también se ha asociado a la palabra inglesa “bite”,  la cual asociamos a los “bytes” del lenguaje de las computadoras. Si bien Steve Jobs descartó específicamente que simbolizara la manzana con la cual Alan Turing se suicidó en 1954, lo cierto del caso es que si alguien puede simbolizar esta era de cambios vertiginosos y de fusiones o sinergias entre los campos de la informática y las comunicaciones es precisamente Alan Turing.
Como ya hemos mencionado, él tuvo un rol estelar en el diseño de la máquina llamada BOMB, la cual en definitiva rompería los códigos o mensajes cifrados de la máquina de los nazis llamada ENIGMA, siendo así una gran aliada de la victoria final. La BOMBA era una máquina con una tarea bien definida: buscar patrones en las posiciones de las ruedas de ENIGMA a alta velocidad mediante un sistema de búsqueda basado en probabilidades bayesianas. . La primera fue bautizada VICTORY e instalada en 1940 en Bletchey Park, y estaba hecha a base de relés electromagnéticos,  que darán paso a las válvulas electrónicas o tubos al vacio.  La idea de utilizar tubos al vacio fue de un ingeniero, Thomas Flowers, quien fue responsable  de la  construcción de la primera computadora digital de gran escala llamada COLOSSUS (1943) en colaboración con el grupo de Bletchey Park, a cuyo mando estaba un matemático de Cambridge, Max Newman[10], antiguo profesor de Alan Turing y quien lo interesó en problemas de fundamentación de las matemáticas. Si durante la guerra figuras como Newman y Turing desempeñaron un papel decisivo, en los años posteriores a la Guerra fueron desplazados en los puestos directivos por ingenieros, aunque siguieron colaborando en el desarrollo de otros proyectos pioneros de la informática y la computación modernas.
 El caso de Turing tiene ribetes incluso trágicos, pues al final (1952) se le juzgó por su homosexualidad, que entonces era un crimen, y se le dio a elegir entre la cárcel y la castración química –tratamiento con hormonas. Turing eligió esta última, aunque al final presionado por el sistema de “inteligencia” británico, que lo veía como una amenaza de que se filtrase información dadas sus inclinaciones ya ampliamente conocidas,  se suicidó (1954) con una manzana que contenía cianuro. Varios gobiernos británicos pidieron disculpas por el trato inhumano al que fue sometido, aunque solamente fue el 24 de Diciembre de 2013 que la Reina Isabel II promulgó  un indulto de  delito alguno.   
Muchos de los trabajos que se llevaron a cabo durante la Guerra, e incluso  después de ella, estaban protegidos por los servicios de Inteligencia Británico que colaboraban, por cierto,  con los norteamericanos, por lo que no fue sino mucho tiempo después que se conocieron los avances británicos, mientras que los avances de los norteamericanos si fueron dados a conocer mucho antes o fueron ampliamente difundidos. Por ejemplo, la primera computadora equivalente a COLOSSUS construida en los EEUU dos años después en 1945 fue ENIAC, aunque por las razones antes expuestas ha solido señalarse como la primera.   Otro ejemplo es que se suele hablar de la arquitectura de von Neumann, la cual todavía se utiliza en la mayoría de las modernas computadoras, como si él hubiese sido el dueño original de la idea, cuando lo cierto es que fue Alan Turing, y no von Newmann,  el primero que entendió realmente cuáles eran los componentes fundamentales en la arquitectura de las computadoras. Se dice que von Neumann mandaba a los ingenieros encargados del diseño de las primeras computadoras a leer el trabajo seminal de Turing: “On computable Numbers, with an  Application to the Entscheidungsproblem” (1936), como para que tuviesen una idea de lo que había que realizar. Este trabajo tenía como finalidad resolver el problema planteado por David Hilbert de si era posible encontrar un medio mecánico, una función recursiva o algoritmo que fuese capaz de decidir si una fórmula del cálculo de primer grado es un teorema o no, es decir, si es una fórmula derivable de los axiomas básicos del sistema,  lo cual fue reformulado por Turing por medio de la posibilidad de un programa de instrucciones que tuviese la capacidad de señalarle a una máquina cuándo detenerse o no, tomando en cuenta que detenerse era sinónimo de haber resuelto el problema. La respuesta al problema de Hilbert, que hoy se conoce también como la tesis Turing-Church, fue negativa: no hay tal procedimiento algorítmico o mecánico de decisión universal. Lo interesante del caso es que para dar dicha solución Turing utilizó lo que entonces era un simple experimento mental para hablar de una máquina universal y anticipase con asombrosa precisión  el diseño y funcionamiento de las computadoras modernas. Se suele decir que una máquina de Turing es como un escribiente que dispone de tinta y papel en cantidad infinita para resolver problemas en un tiempo infinito.

Por si fueran poco los logros de Turing como lógico, matemático, criptógrafo o “hacker oficial”, pionero en el diseño de las modernas computadoras, todavía no hemos mencionado el campo en el cual sería más destacado y del  que ciertamente fue su verdadero fundador, cuando todavía no se utilizaba el término: la Inteligencia Artificial.
Donde realmente puede apreciarse el carácter innovador, visionario y original de Turing es en sus breves ensayos sobre lo que en 1956 sería bautizado por las siglas en inglés  AI o Artificial Intelligence. El más conocido y único publicado en vida por la revista Mind  (1950) fue: “Computing Machinery and Intelligence”. Los demás, que corresponden a conferencias o discusiones en la BBC,  aparecen, junto con sus demás escritos, en la excelente recopilación de Jack Copeland (2014).[11]
Si uno sigue la trayectoria del pensamiento de Turing con cierto nivel de detalle se encuentra que sus intereses en simular la inteligencia humana o construir artificialmente un cerebro aparecen ya en la década de los 30 y que todas sus peripecias futuras están orientadas a la comprensión de la mente humana, a comprender las bases de funcionamiento de la mente humana. A pesar de que se suele asociar el enfoque de Turing a una visión de corte reduccionista, conductista u operacionalista de la mente humana -nosotros hemos cometido ese error alguna vez[12]- lo cierto es que Turing sienta las bases de lo que se conoce como el enfoque cognitivo de la mente humana, el cual representa justamente una alternativa al enfoque conductista entonces predominante. Creemos que es importante retomar este punto pues a menudo se ha tomado también el famoso test de Turing, que precisamente fue superado este año por un programa o software llamado EUGINE que simula la mente de un joven de 13 años, como si fuese una definición de inteligencia a secas.[13]
De hecho, Turing no proponía una definición de ‘pensamiento’ o  ‘inteligencia’. Definiciones son expresadas de forma estándar como condiciones necesarias y suficientes. En su presentación del test en 1950, Turing enfatizaba que superar el test (produciendo una conducta que asemejara la conducta intelectual humana) no es una condición necesaria del pensamiento. Él decía que las máquinas podían ‘llevar a cabo algo que podemos describir como pensamiento, pero que es muy diferente de lo que un ser humano realiza.’ Y en su presentación del test en 1952, en una discusión por radio (con, entre otros, Max Newman), negó explícitamente que estuviese ofreciendo  una definición.[14]

Muchas de las objeciones  contra el test de Turing asumen precisamente eso: que se trata de una definición de pensamiento o de inteligencia. Sin embargo, este test tenía un valor heurístico y estaba orientado al diseño de programas cada vez más sofisticados que fuesen capaces de simular las capacidades de comprensión de la mente humana, del cerebro humano, de esa “sopa de potaje”, como él decía.  Él mejor que nadie fue capaz de anticipar las limitaciones en las que se vería envuelta esta nueva disciplina. Comprendió los dos enfoques básicos o líneas posibles de investigación: el enfoque formalista o informacional y el enfoque conexionista o de simulación/construcción de redes neuronales. También anticipó como nadie los diversos campos de aplicación: programas de resolución de problemas, sistemas expertos, programas de juegos como el ajedrez[15], autómatas o robótica.  Entendió lo novedoso y joven de este campo y la importancia de que las máquinas tuviesen programas flexibles capaces de modificarse a sí mismos y que fuesen, como los propios seres humanos, capaces de aprender de sus errores.  La idea de máquinas que fuesen capaces de aprender implicaba también la idea de máquinas que cometiesen errores, lo cual suele contradecir la idea que solemos tener de una máquina, en particular, de una computadora. Sabía de la importancia de la búsqueda por medio del azar y del valor de programas heurísticos que no tuviesen una solución definida y la importancia de que las máquinas fuesen capaces de mostrar la misma plasticidad del cerebro humano, ese órgano al mismo tiempo multifuncional y altamente especializado.  Sus últimas contribuciones fueron en el campo de la biología matemática, donde ya comprendía la importancia de la aplicación de la computación a la biología como herramienta para comprender procesos biológicos, mediante un algoritmo genético, como se llamará después.[16] Como señala su biógrafo:
Una figura extraña, que deleitaba y a menudo enfurecía a sus amigos, Alan Turing estuvo envuelto en eventos mundanos y al mismo tiempo era capaz de preocuparse con una intensa integridad personal. Al escribir de modo tan sencillo como hablaba, era una suerte de Orwell de la ciencia; pero su gran capacidad para la frivolidad, como se ilustra en sus puestas en escena de las discusiones sobre el Test de Turing, le dieron un puesto de honor en el más ligero y descarado ambiente de la cultura inglesa. Su vida estuvo llena de paradojas, como que siendo una de las personas más originales y socialmente inconformes, fuese considerado como uno de los más famosos abogados del carácter puramente mecánico de la mente humana. Siendo uno de los más puros espíritus científicos, su aplicación al trabajo de la guerra ha tenido posiblemente mayor efecto que cualquier otro científico. Comprometido con la honestidad y la verdad, su vida siempre estuvo envuelta en el secreto y el silencio.[17]


 Bibliografía de consulta sobre Turing:

Charles Petzold: The Anotated Turing. A Guided Tour through Alan Turing’s Historic Paper on Computability and the Turing Machine, Wiley Publishing, Inc., Indianapolis, 2008.
Christof Teuscher (ed.): Alan Turing: Life and Legacy of a Great Thinker, Springer-Verlag, Berlin/Heidelberg, 2004.
Gregory J. Chaitin: Thinking about Gödel and Turing. Essays on Complexity, 1970-2007, World Scientific Publishing, Londres, 2007.
Jack Copeland (ed.): The Essential Turing: Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence and Artificial Life: Plus the Secrets of Enigma, Oxford University Press, Oxford, 2004.
James H. Moor (ed.): The Turing Test. The Elusive Standard of Artificial Intelligence, Springer-Science+Business Media, Dordrecht, 2003.
Robert Epstein & Gary Roberts & Grace Beber (eds.): Parsing the Turing Test. Philosophical and Methodological Issues in the Quest for the Thinking Computer, Springer, 2008.
S. Barry Cooper & Jan van Leeuwen (eds.): Alan Turing. His Work and Impact, Elsevier, Amsterdam, 2013
Sara Turing: Turing, Centenary Edition, Cambridge University Press, Cambridge, 2012.
Simon Lavington (ed.): Alan Turing and His Contemporaries. Building the world’s first computers, British Informatics Society, Swindon, 2012.
Stuart M. Shieber (ed.): The Turing Test. Verbal Behavior as the Hallmark of Intelligence, MIT Press, Massachusetts, 2004.

Notas:  





[1] Por cierto ese mismo genial director de cine, guionista y actor –además de clarinetista-, también señala que no sabe muy bien qué es la realidad y que él se la pasa la mayor parte del tiempo -y esa es su realidad- en un plató de cine, es decir, simulando la realidad, remedando  o recreando la realidad.  Posiblemente evadimos la realidad última, nuestra condición de mortalidad, por lo que el propio Woody destaca que “no es que le tenga miedo a la muerte sino que no quisiera estar allí cuando eso suceda”.
[2] Expresión de Vargas Llosa,  pero que  tiene la misma tesitura de un  Oscar Wilde cuando se lamenta de la decadencia de la mentira en el arte y denuncia esa inclinación malsana o patológica a decir la verdad. Como es bien conocido, invierte la relación de origen platónico –el arte como imitación de otra imitación- entre el arte y la naturaleza, y destaca que es la naturaleza la que imita al arte humano.  En otros artículos de este blog nos hemos ocupado de la importancia que tiene la literatura como medio de aprendizaje moral, siguiendo, entre otros,  a Martha Nussbaum.
[3] Generalmente hablamos despectivamente de la imitación y no tomamos en cuenta que gracias a ella se producen procesos de aprendizaje estrechamente vinculados a la adquisición del lenguaje y al desarrollo de la mente humana en general. Sobre el particular véase Andrew N. Meltzoff & Wolfgang Prinz (eds.): The Imitative Mind. Development, Evolution and Brain Bases, Cambridge University Press, Cambridge, 2002.
[4] Ambas películas y sus respectivas actuaciones protagónicas son fuertes candidatas al Oscar del 2015, así que ya tendremos oportunidad de comentarlas en extenso. Curiosamente Cumberbatch encarnó hace 10 años el papel de Hawking en una adaptación del mismo nombre de la BBC para la televisión y que está siendo repuesta por el canal Film&Arts.
[5] Turing era formalista y le daba gran importancia a los problemas matemáticos, en particular, a aquellos que involucraban el infinito, mientras que Wittgenstein consideraba que las matemáticas estaban sobrevaloradas y que los problemas relativos al infinito estaban simplemente mal planteados si no podía construirse una prueba o solución satisfactoria, por ejemplo, decidir si en la expansión decimal de p   aparece el número 777. Sin embargo, en cierto sentido compartían un enfoque externalista   de la mente humana. En otra oportunidad nos ocuparemos de este tema. Por lo pronto reseñamos el excelente trabajo de Diane Proudfoot: “Robots and Rule-Following” en Jack Copeland (2004). Entre los papeles de Wittgenstein se encontró el trabajo seminal de Turing sobre los números computables que seguramente él le hizo llegar y que ya era ampliamente reconocido en el medio académico.
[6] Aunque cabe señalar que ello no fue óbice para Turing, como veremos más adelante.
[7] Pierre Lévy: “La invención del ordenador”, en Michel Serres (ed.): Historia de las ciencias, Cátedra, Madrid, 1991, p. 578.
[8] Ibid. p. 580. La idea de una máquina universal o máquina de Turing es genialmente sencilla: en lugar de tener distintas máquinas que hagan distintas operaciones o una máquina para cada función, podemos tener una sola máquina que haga diferentes operaciones o funciones mediante un programa adecuado para tal fin.
[9] Ibid. p. 584. El  libro al que hace referencia el autor es Préhistoire et histoire des ordinateurs: Des origines du calcul aux premiers calculateurs éléctroniques, La Fontaine, Paris, 1987. En inglés hay un libro que sigue los mismos pasos, aunque menos ambicioso,  y al que seguramente Levy pondría los mismos reparos, nos referimos a Martin Davis: The Universal Computer. The Road from Leibniz to Turing, CRC Press, Boca Ratón, 2012. Para conocer mejor  términos técnicos como logicismo, entre otros,  puede consultarse Stewart Shapiro (ed.): The Oxford Handbook of Philosophy of Mathematics and Logic, Oxford University Press, Oxford, 2005.

[10] Cuidado en no confundirlo con John von Neumann, el genial matemático de origen húngaro y niño mimado del establishment norteamericano.
[11] Entre estos documentos aparece la carta que dirigió a Winston Churchill solicitando mayores recursos para seguir desarrollando el proyecto de decodificación de los mensajes nazis durante la guerra.
[13] Como se ha señalado la superación del test de Turing es solo una señal de que se es capaz de llevar otras muchas funciones que implican inteligencia.
[14] B. J. Copeland  & D. Proudfoot: “The Computer, Artificial Intelligence, and the Turing Test” en Christof Teuscher (2004), p. 338.
[15] De hecho la primera formulación del test de Turing consistía en que alguien pudiese diferenciar entre un jugador de ajedrez y un programa de computadora diseñada con ese fin. Después introduciría el famoso juego de imitación en que había que diferenciar entre un hombre y una mujer inicialmente y después entre una máquina y una mujer, siendo así que en el primer caso el hombre nos haría pensar que era una mujer y después sería la máquina la que tratase de engañarnos.  
[16] Curiosamente un nieto de Darwin, que era director el laboratorio en que trabajó Turing después de la guerra, consideraba sus trabajos como infantiles, lo que demuestra que el genio no se hereda.
[17] Andrew Hodges : “Introductory Biography” en  Christof Teuscher (2004), p. 7.