El problema de la semántica en la inteligencia artificial
Yo no soy ningún experto en Inteligencia Artificial. “El problema de la semántica en la inteligencia artificial” es un trabajo que hace ya años hice para una asignatura en la universidad y que he rescatado revisando algunos cd’s viejos. Lo pasé muy bien haciéndolo y lo pongo aquí por si a alguien le interesa.
Introducción
Desde que Turing definió su modelo de computador digital (la máquina de Turing) hasta la actualidad, la inteligencia artificial ha sido una de las constantes en la investigación relacionada con los computadores.
De hecho, este interés por el desarrollo de la capacidad de pensamiento en las máquinas es anterior incluso al computador digital tal y como lo definió Turing. Cuando Charles Babbage imaginó su máquina analítica, lo que hoy en día consideramos el primer ordenador (aunque la tecnología de su época no fue capaz de construirlo), lo hizo no intentando desarrollar una simple máquina de calcular, sino una máquina que realizara inferencias lógicas a partir de una serie de premisas iniciales.
Pero ¿qué es lo que hace que el estudio de la inteligencia artificial tenga tanto atractivo para los investigadores? ¿En qué se basa la certeza por parte de algunos de que algún día las máquinas podrán tener pensamientos, así como la seguridad de otros de que jamás podrá ocurrir?
A estas preguntas, situadas hoy en día en el ojo del huracán de la inteligencia artificial es a las que pretende responder este trabajo.
El parecido entre la Mente y la Máquina
Tal vez la principal razón que ha llevado desde un principio a la investigación científica sobre inteligencia artificial es el hecho (comprobado por cualquier programador) de que hay procesos que funcionan igual en un ordenador que en nuestra mente. Cuando realizamos una raíz cuadrada, por ejemplo, seguimos una serie de reglas, una serie de pasos preestablecidos que tenemos la certeza de que nos llevará hasta la solución. Un ordenador puede ser adiestrado para que siga los mismos pasos que nosotros hasta llegar al mismo resultado. Tan importante es el concepto de este “proceso que nos lleva a la solución” para la inteligencia artificial, y para la ciencia informática en general, que posee un nombre propio: Algoritmo.
Se puede definir un algoritmo como una serie de pasos que nos llevan hasta la solución de un problema. Para que se trate realmente de un algoritmo estos pasos deben estar perfectamente definidos y no deben dejar lugar para la iniciativa del que los sigue.
Ya que este es el método que utiliza nuestra mente para resolver muchos de los problemas que se nos presentan, los investigadores en inteligencia artificial han estudiado los algoritmos para saber que problemas son los que se pueden resolver mediante este método (véase Turing) y su aplicación a los ordenadores.
Después de unas décadas la investigación en inteligencia artificial parece haberse llegado a un punto estancado. Por un lado, los ordenadores han demostrado ser muy buenos para determinadas tareas que a priori podrían parecer muy difíciles y exclusivas de una mente humana. Como jugadores de ajedrez, por ejemplo, han resultado ser unos excelentes adversarios. Pero por otro lado existen algunas facetas en las que han conseguido avanzar bien poco.
La duda Searle
En este entorno, John Searle ha surgido planteando una profunda duda en la inteligencia artificial.
Según Searle, los avances que hasta ahora ha habido en la inteligencia artificial no se pueden entender realmente como tales, es decir todavía no se ha logrado construir ni un solo ordenador que haya desarrollado la mínima actividad mental que se pueda calificar de inteligente y, de hecho, no ha podido desarrollar ni siquiera nada que se pueda calificar como “actividad mental”.
¿A qué se debe esto? ¿No le parece al doctor Searle suficientemente “inteligente” (o al menos con un mínimo de inteligencia) un ordenador capaz de ganar a un maestro internacional en una partida de ajedrez?
Veamos ‘la sala China’, un experimento que Searle propone para demostrar que los ordenadores no están desarrollando inteligencia artificial.
La sala China
Supongamos que una persona que no sabe chino se encerrase en una habitación. En la sala tiene una serie de símbolos chinos sobre hojas de papel en distintas cajas. A la persona se le escriben una serie de preguntas escritas en chino que se le hacen llegar a través de una ventana. Nuestra intención es, naturalmente, que esta persona responda a nuestras preguntas escribiéndonos una respuesta en perfecto chino. ¿Pero como? Si esa persona no sabe chino lo único que podremos obtener de ella será una serie de símbolos sin el menor sentido. Bueno, habíamos olvidado un elemento más que esta persona tiene a mano: Un libro de instrucciones. En éste se le especifica (en castellano naturalmente) una serie de reglas que le permiten combinar símbolos en respuesta a otra cadena de símbolos que se especifique como entrada (la pregunta). Las reglas son del tipo “ante un símbolo de la primera caja con un símbolo de la segunda respóndase con la unión de tres símbolos de la cuarta, sexta y segunda caja”. Es muy importante resaltar que en las instrucciones no se hace ninguna mención al significado de los símbolos sino solo a la forma de combinarlos. Tampoco se hace ninguna restricción en cuanto a la longitud de las reglas ni del libro de reglas. El libro podría muy bien ser una enciclopedia de 2000 tomos y cada regla ocupar medio tomo, y no por ello cambiaría el planteamiento del problema. Finalmente supongamos que el libro de reglas está tan bien hecho que las respuestas resultan ser perfectas en chino.
La pregunta es: ¿La persona ‘sabe’ chino?
Antes de responder a esta pregunta veamos las similitudes entre este experimento planteado por Searle y su desarrollo el el caso de la propia inteligencia artificial.
En primer lugar, es evidente que la persona a la cual se introduce en la sala es el ordenador. Los símbolos chinos que manipula son los símbolos de nuestro propio lenguaje cuando son manipulados por el ordenador. El objetivo sería pues, en el campo de la inteligencia artificial, que el ordenador respondiese a nuestras preguntas con una perfecta lógica que demuestre la existencia de una inteligencia (del mismo modo que antes el objetivo era que la persona respondiese en tan perfecto chino que demostrase el conocimiento del mismo). Un último elemento nos falta en esta interpretación del experimento: El manual. El manual, la parte más importante del experimento anterior, es en esta adaptación el algoritmo que seguirá el ordenador, el programa que debemos introducirle, para que acabe con éxito la labor. Quizá alguien podría argumentar que este programa sería tan complejo que se debe dudar seriamente de que sea factible. Aunque esa es una apreciación interesante hay que destacar que Searle no ataca a la inteligencia artificial por ese lado, en su argumentación no duda de que se pueda lograr tan perfecto programa, simplemente no se lo plantea.
Una vez localizados todos los elementos del símil volvamos a plantear la pregunta: ¿La persona sabe chino? ¿El ordenador estaría desarrollando inteligencia?
La respuesta de Searle es, evidentemente, no.
Su argumentación se basa en la evidencia de que no es lo mismo la realidad que la simulación de ella. Si una compañía aérea tiene un programa que les permite simular como responderían sus aviones en situaciones adversas, nadie duda de la utilidad de tal programa para mejorar la seguridad de los vuelos, pero desde luego nadie piensa que sea la realidad misma. Nadie piensa que cuando un accidente tiene lugar en la simulación realmente se este destruyendo ningún avión. Del mismo modo, por el hecho de que el ordenador sea capaz de simular con toda minuciosidad el comportamiento característico de una inteligencia, no debemos pensar que realmente exista dicha inteligencia.
Ante esto muchos han argumentado que, por lo que hasta ahora sabemos, el cerebro funciona también de esa manera. Es decir, el cerebro humano sigue unos ciertos algoritmos con los que trabaja. Por supuesto, la complejidad del cerebro es de una magnitud mucho mayor con “tecnologías” que no podemos ni imaginar y otras de las que hoy en día sólo disponemos burdas aproximaciones. Procesamiento paralelo, redes neuronales y otros términos que se empiezan a manejar en la inteligencia artificial debido a que se ha encontrado que esos son los procesos que tienen lugar en nuestro cerebro.
Sintaxis vs. Semántica
Pero a pesar de estos adelantos, a pesar de que cada vez se logrará que los ordenadores simulen mejor el cerebro humano, Searle ve una diferencia enorme entre ambos. Una diferencia que el incremento de complejidad de los ordenadores no será capaz de cubrir. Y esta diferencia es que el ordenador trabaja de modo sintáctico mientras que nuestros cerebros lo hacen además de modo semántico. Con esto quiere decir que la mente humana dota de significado a los símbolos con los que trabaja mientras que los ordenadores no lo hacen. Para el ordenador las frases introducidas (que pretenden medir su inteligencia) no son más que secuencias de unos y ceros sin el menor significado. De hecho, el programa que el ordenador sigue para obtener una respuesta maneja esos símbolos como secuencias sin sentido, del mismo modo que el manual para formar frases en chino no hacía ninguna referencia al significado de dichas frases.
Searle he recibido numerosas respuestas ante este planteamiento muchas de las cuales se centran en que la persona de la sala China es solo un elemento del símil, y que el cerebro humano se debe comparar más con la sala China completa (con todos los elementos que contiene: el hombre, las cajas con los símbolos y el manual de instrucciones) que solamente con el hombre. De esta manera, el hombre de la sala China no sabría chino (del mismo modo que una sola neurona no tiene inteligencia) pero la sala entera sí sabría chino. Para estos investigadores, la semántica aparecería cuando la complejidad del programa llegase a ser suficientemente grande, del mismo modo que, según ellos, la semántica aparece en el cerebro debido a su enorme número de neuronas y a la complejidad de las conexiones sinápticas.
Este es seguramente el punto en el que realmente difiere Searle con el resto de investigadores: Mientras que para éstos, el significado aparece de modo natural en cualquier tipo de elemento que, como el ordenador, simule la inteligencia, para Searle esta atribución de significado se da solo gracias a la construcción específica del cerebro, a su química y a su eléctrica particular.
De este modo, Searle no niega la posibilidad de realizar máquinas que sean capaces de desarrollar inteligencia, lo que niega es que estas maquinas se puedan realizar sin tener en cuenta la morfología del cerebro humano. Lo que niega es la validez de la inteligencia artificial clásica en la cual se centra la atención en la lógica de la inteligencia dejando de lado los elementos físicos que hacen posible su realización en el mundo real y no en el “mundo de las ideas”.
Conclusión
Hoy en día, la polémica está abierta. Aunque todos los investigadores afirman la necesidad de la semántica para cualquier proceso mental que pueda calificarse de ‘inteligente’, la naturaleza de está semántica ya es otra cosa. ¿Se trata de algo ligado a la estructura de nuestro cerebro (con lo cual deberíamos centrarnos en la investigación de este cerebro desde el punto de vista físico) o es algo que aparece de modo automático cuando la complejidad de una estructura lógica es sufientemente grande (sin importar entonces la forma física sobre la que está asentada dicha estructura lógica)?
Investigadores de ambas opiniones prosiguen a diario con sus investigaciones y tal vez la respuesta esté en un futuro cercano.
Como se dice posteriormente en el articulo ¿Que mas da que el hombre sepa o no sepa chino? La Sala sabe chino.
Opino que simplemente hay que afinar un poco mas. El ejemplo de Searle solo demuestra que si se consiguen poner en juego todos los factores la inteligencia artificial sera factible.
¿Que solo se puede conseguir una simulacion de inteligencia? Si la simulacion es tan completa de poder pasar por inteligencia "normal" la inteligencia artificial sera un hecho. ¿Que es lo que busca este hombre? ¿Un alma? Personalmente opino que solo faltan medios. Con la cantidad adecuada de algoritmos se puede conseguir esa inteligencia. Decir lo contrario es manifestar que no solo tenemos algoritmos dentro de nuestra cabeza.¿Que mas tenemos aparte de una serie de algoritmos en una computadora biologia realmente cojonuda? ¿Lo sabe alguien? Cualquier respuesta en ese sentido me parece una mera especulacion.
Hasta que no entendamos este proceso y lo dupliquemos, creo que no podemos hablar de intelegencia artificial.
Ruego tu comprension y apoyo......
En cualquier caso, no entiendo bien tu pregunta. ¿Qué quieres saber exactamente?
Por favor necesito que me ayude, estoy realizando un trabajo y tengo que hablar sobre el te " el experimento mental de John Searle" sera que puedo contar con su ayuda. Gracias
Comentarios cerrados para este artículo