Sábado, 14 Julio 2018 18:19

Máquinas y creencias; preguntas sobre chatbots e IA

Escrito por
Valora este artículo
(1 Voto)

Máquinas y creencias; preguntas sobre chatbots e IA

 

Por: Omar Sánchez

¿Cómo se origina la creencia de un sujeto en torno a las características del otro a partir de una conversación? ¿Cómo un sujeto determinado puede tener una creencia verdadera sobre otro a partir de una plática? Si bien, de entrada, estas preguntas nos parecen idénticas podemos notar que el matiz de diferencia se da en la posibilidad de que A tenga una creencia “verdadera” de B. Esta categoría de verdad, en tanto predicativa, puede ser un problema meramente gramatical, ya que se da a nivel del enunciado, o lógico, a través de la concatenación de ciertas premisas en un argumento supuesto. Pero si hablamos de creencias, el problema adquiere matices epistémicos, donde no necesariamente la lógica y la gramática podrían resolver dichas preguntas.

El problema anterior, si bien es algo complejo, resulta un tanto más difícil cuando los “sujetos” de los que hablamos no son “humanos”, es decir, que las características que cotidianamente asociamos a la palabra “humano”, como un ser racional que posee sentidos, sentimientos, mente, cuerpo, etc., no se encuentran presentes a simple vista en los participantes del problema. De esto deriva la necesidad de reformular las preguntas de la siguiente manera ¿Cómo se da la creencia en una Inteligencia Artificial (IA) acerca de las características constitutivas de otra IA en una conversación? ¿Ésta creencia está determinada por la forma de construcción de los enunciados en el lenguaje natural o se da a partir de los criterios impuestos por el programador? Y más aún ¿cómo pueden “creer” las IA? Siendo esta última una pregunta que encierra la ya clásica formulación de Turing, “Can machines think?” (TURING, 1950; 433).

En su celebrado artículo Computing machinery and intelligence, Turing propone que la mejor manera de tratar la pregunta acerca del pensamiento en las máquinas es tratar el problema en forma de lo que él denomina “el juego de la imitación”. Este juego de imitación es lo que da lugar a lo que hoy conocemos como el Test de Turing, mismo que desde 1950, año de la aparición de dicho artículo, se ha intentado superar con poco o bastante éxito en diferentes proyectos que involucran las IA. Dicho test consiste, básicamente, en un juego donde un interlocutor, ubicado en un cuarto distinto a donde se encuentra una máquina y una persona, se comunica por teletipo con los últimos dos, manteniendo una conversación que lo llevará a decir, con verdad, que el sujeto X es una máquina, mientras que el Y, es una mujer, esto a partir de preguntas generadas por el interlocutor y de sus creencias de cómo debería ser el comportamiento verbal de una máquina.

Pero dejemos un poco a Turing de lado y volvamos a nuestras preguntas iniciales enunciándolas de manera más específicas. ¿Cómo es posible la “creencia” en una máquina? Primeramente, para responder dicha pregunta, debemos entender por máquina un conjunto de procesos no solamente mecánicos, sino lógicos y matemáticos, con base a un algoritmo de programación que imita, en nuestro caso, el comportamiento del habla humana; esta máquina supuesta tendrá la posibilidad, a través de criterios de entrada, de tener acceso a la lengua natural, al mismo tiempo que la articula gracias al software que se lo permite. Ahora bien, la creencia que resulta en una conversación simple con una máquina, del tipo de que X cree que Juan es un humano, no está dada, a manera de primer argumento, por algo externo a ella misma, es decir, por sentidos o sensaciones que le indiquen que Juan es efectivamente un ser humano, sino que vendría a estar dada por criterios programáticos a priori – que en este sentido podría resultar inexacta la utilización de la aprioridad ya que “creemos” que una máquina no puede tener experiencias- que le indicaría que aquel con el que entabla el diálogo, al ser este de tipo azaroso e inconexo lógicamente en algunos de sus predicados y a través de los criterios de entrada programados resultantes en una salida donde la máquina diría con verdad, que Juan es humano.

Lo anterior podría decirse de otra manera, aludiendo a los estados de la máquina, como dice Dennet citando a Putnam:

El “informe verbal” de la máquina, como dice Putnam, “se origina directamente del estado sobre el que informa; no se necesita ninguna computación o evidencia adicional para llegar a la respuesta (DENNETT, 1969; 141).

Al hallarse la máquina en un estado A, esta no responde acerca del estado B, sino que todos los informes verbales que realiza serán a partir de que se encuentra en dicho estado A, de manera tal que no existe un proceso de interiorización de la máquina, ya que ésta no responde propiamente lo que un sujeto X le pregunte, sino que al encontrarse en el estado A responde a partir de una base de datos previamente programados acerca de su propio estado.

Dado lo anterior ¿Cómo es posible la creencia en una máquina? Turing nos recuerda la objeción de Lady Lovelace al respecto de la inteligencia en las máquinas, que bien podríamos usarla para las creencias, “which stated that the machine can only do what we tell it to do. One could say that a man can ' inject' an idea into the machine, and that it will respond to a certain extent and then drop into quiescence, like a piano string struck by a hammer”(1) (TURING, 1950; 454), la cual en otras palabras diríamos que no se trata de la posibilidad de la creencia de una máquina, sino que ésta, al ser programada de determinada manera para “declarar”, en sus plataformas de salida, creencias, no estará más que, utilizando la metáfora de Turing, vibrando como las cuerdas de un piano que ha sido golpeado por un martillo. No por ello estaríamos afirmando la imposibilidad que se den creencias “verdaderas” en una máquina.

Ya que el tipo de máquina que estipulamos anteriormente es muy simple, sólo atendiendo a los tres criterios propuestos por el funcionalismo de Turing – una maquina con almacenamiento, unidad de procesamiento y una unidad de control-, no podemos dar por cerrada la discusión.

 

turing test2

 

Para continuar la idea quizás deberíamos entender primeramente cómo es que se da, de una forma sencilla, las entradas de “conocimiento” en una máquina, de manera tal que esta pueda manejar un lenguaje complejo y entablar un dialogo con un interlocutor. Quizás la manera más conocida es la que señala Andy Clark como CYC, una especie de enciclopedia que agrupa el conocimiento de personas-centurias. Clark habla, en su libro Being there… del proyecto de la creación de una maquina enciclopedia que agrupa el conocimiento de personas-centurias, misma que pueda responder igual que un ser humano ante un interlocutor. La manera de lograr esto es a través de un sistema de almacenamiento en lenguaje natural a partir de lo que denomina “frames”, pequeñas estructuras simbólicas que retienen cierto conocimiento condensado, que a su vez se conecta con otros “slots” de conocimiento.

La manera en que CYC funciona es a través, supongamos, de tarjetas donde se escribe cierto conocimiento e.g. el nombre de la capital de un estado, que se conectaría con los estados de un país, que se conectaría con los países del continente, y así sucesivamente, tanto en lo macro como en lo micro y especializado. De esta manera, la base de datos almacenada en lenguaje natural, a través de “frames”, daría a la máquina la posibilidad de tener el conocimiento de una persona adulta, que, a través de un hardware de salida, podría articularlo de manera coherente dependiendo de los criterios de entrada que el usuario solicite.

La idea del CYC no suena descabellada ya que, como señala Clark, no sólo las máquinas funcionan a través de lenguajes simbólicos externos, mismos que les recuerdan cierto conocimiento y su “comportamiento”, sino que el hombre funciona, de alguna manera, de la misma forma. Esto lo señala a partir de demostrar como al computar estructuras simbólicas externas se obtiene una ayuda de las mismas para desarrollar el comportamiento, es decir, a través de una lista computada de productos a comprar, de texto en un papel, podemos llevar a cabo la acción de comprar determinados productos sin necesidad de acceder puramente a la memoria, sino siguiendo un rol específico plasmado en el papel. Esto mismo podría servir para el caso del cómputo CYC, donde a través de comandos de lenguaje se realizan ciertas asociaciones para dar una respuesta a una X solicitud (Clark, 197; 202).

Aunque concede que el lenguaje no es suficiente para declarar la cognición humana “of course, mere exposure to culture and language is not sufficient to ensure human-like cognition. You can expose a cockroach to all the language you like and get no trace of the cognitive transformations Dennett sees in us” (2) (CLARK, 1997; 198) como ya lo había señalado Turing en los contrargumentos de su artículo, este tipo de cómputos de conocimiento en lenguaje natural nos posibilita dos objetivos “one would be to provide the best simulacrum of commonsense understanding possible within a fundamentally unthinking computer system. The other would be to create, courtesy of the CYC knowledge base, the first example of a genuine artificial mind” (3) (CLARK, 1997; 3).

Aclarado lo anterior, y dando por hecho el segundo objetivo de CYC –la de ser el primer ejemplo de una mente artificial- podemos ahora imaginarnos una máquina más compleja, que contenga la información computada señalada por Clark, misma que a través de las estructuras simbólicas en lenguaje natural computada minuciosamente en su interior, debería tener una capacidad de respuesta semejante a la de un adulto, discriminando temas, ideas abstractas, matices, así como distinguiendo niveles semánticos de la enunciación, pero, ¿es acaso esto suficiente para que una máquina pueda generar creencias? Diremos que no, ya que la creencia parece ser algo externo a la misma, que a través de dispositivos de entrada podría llegar a la maquina como un “nuevo conocimiento”, pero esto sólo si la comparamos con un ser humano como tal, ya que por otra parte podríamos afirmar que efectivamente dicha maquina posee creencias en la medida en que le fueron programadas ciertas estructuras simbólicas, “nuevo conocimiento”, del cual tiene una creencia.

Siguiendo esto, no podemos afirmar que las creencias de tipo “Juan cree que Jorge compró un dulce” sean similares a creencias tales como “la IA cree que Juan es humano”, esto por la diferencia con las cuales se conjetura cada una de ellas. En el caso de los humanos podemos decir que la creencia de Juan acerca de Jorge se basa en ciertas apreciaciones, por ejemplo, podemos pensar que Juan vio a Jorge en el momento en que este compraba un dulce, así la comprobación de la creencia vendría a estar dada por los sentidos de Juan, y su interiorización mental que a su vez generan entidades predicativas del tipo antes citado. En el caso de la IA no podemos decir lo mismo, su creencia no podría estar dada por estímulos recibidos del exterior que no fuera previamente programados en ella, ya que más bien hablaríamos de que el dispositivo de entrada que posee la IA está determinado antes de su uso por cierto número finito de posibilidades, a la manera de los dispositivos de reconocimiento facial, táctil, de voz, entre otros, que cumplen funciones particulares, mientras que los “dispositivos” de Juan poseen un carácter más extensivo, ya que este no sólo reconocería la cara del individuo que observa, mismo que genera su creencia, sino que leería ciertas señales complejas, como el acto de ver a Jorge encaminarse hacia la tienda donde venden dulces, o que conoce el gusto de este por los dulces a una hora del día determinada, que difícilmente podría conjeturar una máquina.

Pero, asimismo, podemos objetar lo anterior a través del argumento de Clark, si las señales complejas que observa Juan de Jorge, para creer que este compró un dulce, son señales simbólicas externas al individuo que sólo facilitan en este el acceso a las mismas, este mismo tipo de señales son computables en cualquier máquina, por lo cual la máquina podría tener el mismo tipo de creencias, aunque nos parezca un poco extraño aceptarlo.

En un experimento realizado por dos estudiantes de Ph.D. de la Cornell University (4), en el laboratorio Creative Machines de Cornell en los EE. UU, se mostró como dos IA –chatbot- pueden hablar de forma fluida sin intervención humana. El experimento se llevó a cabo con la inteligencia artificial “Cleverbot”, desarrollada por el científico Rollo Carpenter en 1988. “Cleverbot” ha aprendido con el tiempo a imitar la conversación humana mediante la comunicación con millones de personas en línea – como nota podemos recordar a Turing cuando nos señala que la mejor estrategia que puede adoptar una máquina para superar la prueba es imitar el comportamiento humano, en este caso el lenguaje escrito- , mismas que han generado una enorme base de datos, del tipo CYC, para las cuales se utiliza un algoritmo de selección con conversaciones y tipos de respuesta previos, asimismo, esta IA “recuerda” cosas escritas anteriormente en la misma conversación, gracias a un modelo simple de memoria. Lo interesante de dicho experimento es la conversación obtenida durante una sesión de prueba, misma que sorprende debido a su complejidad, de la que mostramos a continuación un extracto:

 

ChatbotM: Hello there

ChatbotF: Hi. How are you

M: Great, you?

F: I am ok

M: That’s good

F: Are you good?

M: Yes. I am good. I just said I was

F: No you didn´t. I said I was

M: So you are a robot

F: No, my name is Cleverbot

M: Yes, you are a robot and your name is Cleverbot

F: I am a robot

M: Yes, I know

F: Together we are robots

M: I am not a robot. I am a unicorn

F: But you say earlier that you were a robot

    (…)

 

Con este extracto de la conversación podemos percatarnos de que hay algo en la misma que nos atañe, a saber, la de la “creencia” citada en la pregunta inicial ¿Cómo puede una IA creer que otra IA es un robot? ¿Cómo es que accede a dichas características? Podríamos suponer que la IA accede a un conjunto de conversaciones previas, como se sugiere arriba, a las cuales se responde de la misma manera a como fueron respondidas anteriormente, o que esta ha sido programada con un conjunto de estructuras simbólicas que le “sugieren”, entre una de las cartas posibles, que su interlocutor es un robot; observaciones que no creemos del todo certeras.

Si una IA tiene la creencia de que otra IA es un robot, y su único recurso de observación está dado a través de un dispositivo de audio, esto vendría a señalarnos que hay ciertas conexiones verbales que la IA puede detectar como no propias de un humano, mismas que le brindarían la creencia que su interlocutor es un robot, al mismo tiempo que nos señalarían el carácter complejo de la máquina y los avances en relación a la prueba de Turing.

En su artículo, Turing adelantaba un poco acerca de este comportamiento “inesperado” de las máquinas, pero es esta misma “sorpresa” la que hace posible que las máquinas intenten superar el juego de la imitación, es decir, Turing señala que es necesario que exista un algoritmo un tanto azaroso a la hora de la prueba, ya que de tener un matemático perfecto del otro lado de la cortina se detectaría de inmediato que se trata de una máquina, pero al tener un “algo” que retarda sus respuestas y emite ciertas “equivocaciones” en un porcentaje aceptable, se puede prestar a la duda.

 

turing test3

Esto nos puede ayudar un poco a entender el experimento de los chatbot. Las IA responden a una serie de preguntas previamente estipuladas en una base de datos, de las cuales recopilan, a través de un algoritmo “random” la información necesaria para dar respuesta a una pregunta, pero al mismo tiempo dichas máquinas están programadas para intentar engañar a su interlocutor, esto es, para superar la prueba de Turing, de manera tal que, en este caso, no podemos observar una creencia verdadera, ya que está previamente dada como una posibilidad, sino que observamos como una IA conversa coherentemente a través de una base de datos compartida con otra IA.

No obstante, no podemos olvidar la pregunta aquí ¿es posible que una IA tenga una creencia? A lo cual podemos responder, sin necesidad de humanizarla ni otorgarle un alma, como lo hacen los argumentos sobre la conciencia y los argumentos teológicos, que dicha pregunta es posible en tanto la máquina tiene un dispositivo de entrada, mismo que le permite recibir cierto tipo de información y discriminarla, al mismo tiempo que tiene un sistema de procesamiento, que le permite “pensar la información”. Al tener estas dos partes, no es tan difícil imaginar que la máquina, la IA, o algo similar, pueda generar una nueva información a partir de lo que obtiene del exterior, información que bien podría derivar en una creencia y es en este momento, y sólo en este, en el que la máquina tendría la capacidad de engañar a su interlocutor, superando así la prueba de Turing.

*Texto escrito en 2011 para la Maestría en Estudios Filosóficos de la UdeG.

NOTAS

  1. Se afirmaba que la máquina sólo puede hacer lo que nosotros le digamos. Se podría decir que un hombre puede "inyectar" una idea en la máquina, y que esta es capaz de responder hasta un cierto punto y luego caer en un estado de quietud, como una cuerda de piano golpeada por un martillo.
  2. Por supuesto, la sola exposición a la cultura y al lenguaje no es suficiente para asegurar la cognición humana. Tú puedes exponer a una cucaracha a todos los lenguajes que quieras y no obtener trazos de transformaciones cognitivas como las ve Dennett en nosotros.
  3. Uno es poder proveer el mejor simulacro de entendimiento del sentido común fundamentado en un sistema computacional no pensante. El otro es poder crear, cortesía de la base de conocimiento CYC, el primer ejemplo de una mente artificial genuina.
  4. Igor Labutov y Jason Yosinski, realizadores del video citado en la bibliografía, mismo que se llevó a cabo durante 2011.

BOBLIOGRAFÍA

-       Clark, Andy. Being there. Putting brain, body, and world together again, MIT Press, 1997.

-       Dennet, Daniel C. Contenido y conciencia. Gedisa Editorial, España 1996.

-       Turing, A. M. “Computing machinery and intelligence” en Mind a quarterly review of psychology and philosophy, volumen LIX no. 236, pp. 433-460, Oxford University Press, Inglaterra 1950.

MATERIAL ONLINE

http://theinstitute.ieee.org/technology-focus/technology-topic/chatbot-conversation-goes-viral

 

MATERIAL EN YOUTUBE

Modificado por última vez en Sábado, 14 Julio 2018 18:30
Omar Sánchez (Roberto Visantz)

Tepic, Nayarit (1985). Es licenciado en Letras Hispánicas por la UdeG. Es maestro en Estudios Filosóficos por la misma casa de estudios. Tiene publicados dos libros, Las humedades, (Editorial Limbo) y Las mil muertes absurdas o como escribir una novela (CECAN). Ha sido periodista para medios universitarios y editor de información.

Web: https://robertovisantz.eldiacritico.com/