Inteligencia Artificial y los límites de la razón

En muchos artículos que leo se da por hecho que con los coches autónomos los accidentes desaparecerán y con ellos los seguros de coche que quedarán relegados a reparaciones y atención en carretera. Aunque muchas veces se de a entender lo contrario los primeros que celebrarían que esto ocurriese serían las aseguradoras, ellas ganan dinero cuando no hay accidentes. Desgraciadamente es una imagen irreal, los accidentes seguirán ocurriendo con los coches autónomos. En menor número ya que solo con eliminar los conductores cansados, temerarios, que miran el movil o bajo los efectos del alcohol o/y las drogas ya caerá bastante el número de accidentes. Pero seamos sinceros los buenos conductores, aquellos que están atentos, respetan todas las normas y son cautelosos lo hacen realmente bien. Los coches autónomos van a permitir gestionar y organizar el tráfico como nunca antes pero no van a ser perfectos. Vamos a usarlos como ejemplo para ver cuáles son los límites de la I.A.

Límites físicos para ejecución

Nuestro coche autónomo va circulando por una calle de un solo carril con coche aparcados a los lados cuando sin previo aviso aparece un viandante de detrás de una furgoneta a escasos tres o cuatro metros delante del coche. Por mucho que la I.A. frene la inercia va a arrastrar el coche hasta que atropelle al peatón, la otra opción es dar un volantazo y chocar con los coches aparcados. Ambas opciones son un accidente y es físicamente imposible evitarlo por muy eficaz que sea la I.A.

Límites físicos para el cálculo

Posiblemente el límite más conocido sea la capacidad de cálculo del sistema. Toda I.A. para ser útil ha de dar la respuesta en un tiempo finito y breve. Un sistema que tarde cuatrocientas millones de veces la vida del universo en dar una respuesta puede dar con la solución perfecta pero no resulta muy útil. Cuando juegas al ajedrez contra un software este responde con un movimiento suficientemente bueno pero no sé sabe si el mejor. En el caso de los coches autónomos cada elemento que tengan que «vigilar» aumenta la complejidad del problema (aumenta el espacio de búsqueda) y aumenta el tiempo que el sistema tiene que usar en detectarlo (reconocerlo, encontrar su límites, situarlo en el espacio, predecir su movimiento para anticiparse). Sin embargo el tiempo que tiene para reaccionar no aumenta.

Hay muchos más límites físicos, espacio, memoria, no-aleatoriedad, ….

Los sentidos nos engañan

O más bien «los sentidos están limitados». Descartes creía que no podemos confiar plenamente en los sentidos ya que nos pueden engañar. Lo cierto es que percibimos el mundo a través de ellos y nos dan una percepción muy limitada de la realidad. Los sensores tienen límites de alcance, precisión, exactitud, cometen errores y por supuesto se estropean dando medidas falsas

La sonda Schiaparelli se estrelló al tratar de aterrizar en Marte, la causa un error en las medidas de un sensor debido a que se saturo por el ruido indicaba que estaba bajo tierra así que apagó los motores.

Un fallo un sensor fue también la causa de los problemasdel Boeing 737 max.

Incertidumbre

Hay algoritmos para tratar con la incertidumbre. Pero generalmente acaban trabajando con probabilidades y tratando de decidir valorando beneficios y costes respecto a lo probable que sean. Pero algo sea improbable no quiere decir que no vaya a ocurrir.

Un coche autónomo puede suponer que es improbable que un ciervo cruce la carretera de repente y lo atropelle, todos conducimos sin plantearnos cada segundo si un animal va a saltar sobre nuestro capó, pero sabemos que no es imposible y que ha se han dado casos.

Funcionamos con la suposición de que lo improbable no va a pasar, el coche de al lado no va a abalanzarse sobre nosotros sin previo aviso (incluso los conductores agresivos dejan claras sus intenciones confiando que los demás cedan por precaución y les dejen cambiarse), que nadie va a ir circulando en dirección contraria por mi carril o que los demás van a respetar el semáforo en el cruce. Por supuesto que a veces estas reglas se incumplen pero es tan improbable que difícilmente se pueden tener en cuenta si no hay otras señales que nos hagan pensar que es probable (el conductor de al lado hace unas «eses» sospechosas mientras trata de mantenerse en el carril o el coche que llega al cruce va demasiado rápido como para frenar de golpe en el semáforo).

Aprende de la experiencia

El aprendizaje máquina trata de sacar unas reglas generales a partir de un montón de ejemplos particulares. El problema está en que la I.A. no va a poder tratar casos que no haya «visto». Por ejemplo una I.A. que ha aprendido a reconocer peatones puede fallar si el peatón va disfrazado de platano, por ejemplo. Eso no quiere decir que no tenga que frenar si se cruza, pero para la I.A. sería un obstáculo en la vía, no un peatón

Los agentes inteligentes están altamente especializados. Un programa que aprende a jugar al ajedrez no sirve para aprender a conducir. Los coches autónomos se mueven en el mundo real en una sociedad creada por humanos que tienen sus reglas de convivencia y un entorno muy complejo.

Por ejemplo algunos modelos de coches autónomos han tenido problemas con su forma de conducir porque marea a los pasajeros. Un conductor humano siente lo mismo que los pasajeros y evita sensaciones desagradables a los mismos (frenazos muy bruscos, giros repentinos, aceleraciones bruscas,…). Pero nadie había entrenado a la I.A. del coche para ello.

Otro ejemplo es el de un coche autónomo que buscando ahorrar dinero en lugar de aparcar en una zona de pago prefiera seguir circulando despacito de tal forma que el coste de circular sea menor que el del aparcamiento. Desde un punto de vista cívico eso es una barbaridad, consumir energía gratuitamente y empeorar el tráfico. Si la inteligencia no ha sido entrenada para tener en cuenta eso puede caer en soluciones erróneas.

Límites del sistema

Es parecido al punto de los límites físicos, pero en este caso los motivos no son físicos si no la organización o estructura del sistema. En muchos casos la solución es reorganizar el sistema pero eso queda más allá de las opciones del agente inteligente. Un ejemplo son algunos atascos. Hace años trabajé en un polígono industrial con solo dos salidas. Los viernes en verano la mayoría de las empresas salíamos entre las tres y las tres media de la tarde lo que suponía soportar atascos de 20 minutos. Y no hay forma de evitarlos. Aunque todos los coches fueran un agente inteligente y se coordinasen seguiría habiendo atascos. Se lo que estáis pensando: «Los coches se podrían coordinar para no intentar salir todos a la vez». Pero la consecuencia es la misma que un atasco, me va a costar 20 minutos salir de ahí. Me da igual si estoy atascado o esperando con el coche o con el coche dando vueltas o esperando que me avise al móvil que ya podemos irnos.

Riesgos calculados

En la vida real hay que tomar riesgos. Generalmente por dos motivos, falta de información e imposibilidad de conseguirla o que no hay más remedio para evitar una situación peor.

Un ejemplo es llegar a un cruce donde un camión mal aparcado tapa la visión. El coche autónomo no puede quedarse parado hasta que retiren el camión. Tendrá que moverse lentamente minimizando los riesgos pero asumiendo que ni el ve ni es visto y eso podría causar un accidente.

Decisiones irracionales

Actualmente la inteligencia artificial no puede decidir si no tiene una forma de comparar opciones. Eso no quiere decir que no pueda simplemente elegir al azar una opción. El mismo problema tiene si varias opciones son igual de buenas.

Al final hemos diseñado la I.A. para que haga decisiones racionales pero la vida humana esta llena de decisiones no racionales.

Ciborgs y control mental

El título suena completamente a ciencia ficción, pero solo parte de este texto es especulativo, la realidad es que ya se han hecho experimentos para controlar animales usando interfaces máquina cerebro. Aunque pueda parecer algo complicado la idea básica es muy fáciles de entender.

Primero hemos de poder comunicar al animal que tiene que hacer. Se conectan electrodos a alguno de los nervios sensitivos del animal. Por ejemplo a la antena derecha y a la antena izquierda. No hay límite a la cantidad de «zonas» que podemos estimular, pero el animal ha de poder distinguir claramente entre los distintos estímulos. Si no es así podría malinterpretarlos.

Es importante que el estímulo este asociado con la acción. Si por ejemplo queremos que una cucaracha de volteretas laterales cuando reciba un estímulo en la antena derecha, difícilmente va a ocurrir. Sin embargo si queremos que gire a la derecha va a ser muy probable que ocurra.

Tras realizar la acción que queremos que ocurra hay que recompensarle. Por ejemplo estimulando sus centros de placer. Este video lo explica mejor que yo

En resumen, asociamos un estímulo con una recompensa al realizar una acción. Es lo que se conoce como condicionamiento operante con refuerzo positivo y no es nada nuevo, lo que es nuevo es estimular directamente el cerebro para lograrlo.

Desde el punto de vista externo al sujeto del experimento los pasos son:

  1. Decidir la acción
  2. Enviar el estímulo
  3. Verificar la realización de la acción
  4. Recompensar

Hay que tener algunos detalles en cuenta como que no puede pasar demasiado tiempo entre el estimulo, la acción y la recompensa o el animal no sera capaz de asociarlos entre ellos.

Con este sistema el animal sigue teniendo libre albedrío (si es que existe) y puede decidir oponerse a los estímulos. Sin embargo la sensación de placer tras cumplir la acción es lo que les motiva. Realmente no es muy distinto a dar una golosina a un perro cuando realiza correctamente un truco. Y de hecho se podría usar junto con entrenamiento tradicional para conseguir acciones más complejas.

Hay que tener cuidado con los comportamientos repetitivos para conseguir retroalimentacion positiva. Son causados cuando repetir una acción te genera una recompensa, haciendo que el sujeto repita todo el rato la misma acción para conseguir la recompensa. Supongamos que queremos que una rata se levante y se rasque los bigotes. Para ello le damos una recompensa al levantarse y otra mayor al rascarse los bigotes. La rata puede descubrir que si se levanta, se sienta y se vuelve levantar experimenta placer continuamente, mientras que si se rasca lo bigotes experimenta un placer mayor pero solo una vez. Esto da lugar conductas repetititas. Se podrían debilitar la recompensa en cada repitición para reducir el número de repeticiones. Más adelante veremos los refuerzos negativos que podrian usarse para evitar estos comportamientos castigando las repeticiones.

Mejoras poco éticas

Ahora entramos en un tema delicado. No apoyo que se realicen experimentos con ninguna de las opciones que voy a contar aquí. De hecho son experimentos que dudo que recibiesen aprobación por motivos éticos. Pero tampoco le veo sentido a negar la posibilidad de su existencia o a censurarlas.

Hay más formas de mejorar el aprendizaje y asegurarse de la obediencia de las instrucciones. En los experimentos se usa el refuerzo positivo pero se puede usar refuerzo negativo. Causar dolor o molestias si no se realiza la acción. Pero a se puede refinar más el sistema siendo un poco retorcido se puede crear una molestia que vaya creciendo hasta que se cumpla la acción deseada.

La lista de pasos para el proceso no ético seria:

  1. Decidir la acción
  2. Enviar el estímulo
  3. Generar una molestia
  4. Verificar la realización de la acción
  5. Si no se realiza la acción castigar
  6. Si se realiza la acción recompensar

Desde el punto de vista del sujeto lo que se percibiría es que se siente una molestia que crece hasta el dolor y que desaparece, sintiendose un gran placer, cuando se realiza cierta acción. Tiene similitudes con algunos comportamientos compulsivos.

¿Qué tiene que ver esto con la inteligencia artificial?


Poco, pero lo he visto relacionado con la tematica del blog y me apetecia hablar de ello. Además hay un hueco para ella (siempre hay hueco para poner una I.A.), tras realizar la accion y antes de entregar la recompensa un agente externo tiene que evaluar que la acción es adecuada para entregar la recompensa. Si recurrimos a la versión no etica aun tiene más trabajo gestionando castigos.

¿Lo puede hacer una I.A.? Depende de la complejidad de las acciones. La I.A. ha de ser capaz de percibilas sin errores, hay que tener cuidado con los falsos negativos y falsos positivos ya que recompensas o castigos sin sentido podria causar confusión en el sujeto.
¿Debe de hacerlo una I.A.? tiendo a pensar que las implicaciones éticas de tener una máquina dirigiendo las acciones de un ser vivo nos impediria hacerlo. No se me ocurre ningun caso en que sea justificable.

¿Es aplicable para humanos?

Físicamente nada impide usar estas técnicas en humanos. Pero hay que recordar que este sistema no afecta a la voluntad del individuo solo le castiga/recompensa para que realice ciertas acciones. Un ser humano es consciente de la manipulación a la que es sometido y puede elegir desobedecer. La historia está llena de personas resistiendo torturas horribles sin doblegarse.

Sin embargo supongamos que el sujeto no es consciente de que tiene insertado este sistema (dejemos de lado problemas de como puede ser eso posible o de cuánto le duraría la batería). Algo le impulsaría a realizar acciones y sentiría un gran alivio y placer al realizarlas y un terrible dolor al resistirse. Sin embargo ya hay transtornos con estos comportamientos y se tratan, consiguiendo cierto grado de control sobre ellos.

Leyendo hasta aqui parece una historia de terror, pero las teconolgías usadas en estos experimentos tambien se han empleado, por ejemplo, en el tratamiento de enfermedades como el Parkinson realizando estimulación sobre la corteza motora. Esta tecnología puede servir para ayudar con diversas enfermedades y trastornos graves estimulando diversas areas cerebrales, que no tiene que ser los circuitos de recompensa. El cuando sea ético o no aplicarlas es otro tema.

Dinero como función de utilidad

Los agentes inteligentes necesitan alguna forma de comparar resultados para basar sus decisiones. Es decir saber de forma numérica «lo útil» que es cada decisión. Es algo complicado. Muchas veces podemos estar tentados en tomar atajos. Uno de los más habituales es usar el valor económico como media de este valor. Sin embargo los seres humanos tienen un relación curiosa con el dinero.

¿Por qué es importante el dinero para la I.A.?

El dinero es importante para la I.A. por el sencillo motivo de que es importante para los humanos. Si necesitamos que los agentes inteligentes interaccionen con nosotros han de tener en cuenta nuestras peculiaridades.

También resulta curioso comparar como actuamos con el dinero. El dinero actúa como una función de utilidad para nosotros y al ser tan fácilmente interpretable (es un simple valor numérico) podemos comparar como actuamos respecto a cómo esperaríamos que actúe una inteligencia artificial.

¿Eso quiere decir que algo falla en nosotros o en los agentes? No, simplemente quiere decir que hemos llegado por caminos distintos y valoramos el dinero de forma diferente. Para los agentes es simplemente un número que usar como función de utilidad, mejor cuánto mayor sea el número. Para nosotros todo es más complicado. El dinero es una mezcla de algo natural y conocido como es el acumular bienes materiales con algo nuevo y desconocido que es el valorar algo abstracto e inmaterial como es el dinero.

Los humanos entendemos que acumular bienes es beneficioso, pero en la naturaleza la mayoría de los bienes importantes no son acumulables más allá de cierto punto. La comida se estropea y tener cien lanzas en lugar de dos o tres solo te supone una carga. De hecho repartir las cosas que te sobra entre tus amigos y familia puede ser una buena inversión ya que te conseguirá su simpatía y cierto estatus social y quién sabe si en un futuro necesitarás un favor y te lo podrán devolver. Además ayuda al grupo y estar en un grupo fuerte también es beneficioso. Al final compartir puede resultar la mejor forma de usar los bienes y el reconocimiento del grupo más valioso a largo plazo que los bienes.

Sin embargo. El dinero puede acumularse sin límites, sin suponer una carga o que se eche a perder con el tiempo (se devalúa pero no es comparable). El dinero permite mejorar nuestra calidad de vida y nos proporciona seguridad para el futuro. Pero esta claro que no sabemos muy bien como valorarlo de forma intuitiva lo que da resultado a comportamientos contradictorios.

El valor del dinero y la justicia

El valor del dinero es relativo, depende de lo que tengas, de lo que tengan los que te rodean o incluso tus esperanzas de beneficio. De primeras todos podemos pensar que si sales ganando dinero has ganado. De hecho las matemáticas nos apoyan. Ganar dinero es mejor que no ganarlo y desde luego mucho mejor que perderlo desde la teoría de juegos está claro. Sin embargo para el ser humano no es tan simple.

Hay un juego llamado «ultimátum», sus reglas son sencillas: Hay dos jugadores, a uno se le da una cantidad de dinero, supongamos 100€, su función es decidir cómo repartirlo, cuánto se queda el y cuánto el otro jugador. El otro jugador solo tiene una función, decir si acepta o no el trato. Si lo acepta ambos se quedan con su parte del dinero, si no lo acepta los dos pierden su dinero. Lo lógico sería aceptar cualquier trato cuyo valor sea mayor que 0. Algo siempre es mejor opción que nada. Pero los humanos no somos tan simples y tendemos a rechazar repartos que no sean lo suficientemente «justos», parece que podemos asumir cierta cantidad de injusticia a cambio de un beneficio pero «sin pasarse». Es decir mucha gente estaria dispuesta a aceptar un reparto 60-40 pero muy poca un reparto 90-10.

Para entenderlo vamos a comparar dos casos, supongamos que alguien te regala 10€, estarás agradecido. Ahora estás jugando al juego del ultimátum y te ofrecen 10€. El valor intrínseco del dinero es el mismo. Pero nuestra forma de valorarlo no. La injusticia del reparto hace que el dinero pierda valor, tanto como para llegar a rechazarlo. Ojo que al actuar así nos aseguramos que el reparto se acerque a lo justo. Incluso en el juego del dictador, una versión en la que el segundo jugador no puede decir que no, el reparto se aleja más de lo que sería justo pero no llega a los 0€ que sería lo óptimo en este caso. Esta claro que valoramos algo más que el simple beneficio económico

Se suele decir que «todos tenemos un precio», no estoy seguro si todos lo tenemos, pero algunos desde luego. Si el ultimátum se jugará con millones de euros estoy seguro que mucha gente se trataría su orgullo y aceptaría un reparto de 99 millones a 1 millón aunque fuera injusto.

Valor del dinero en el entorno social

Hay estudios que demuestran que la gente esta más o menos satisfecha con su salario o su bienes en relación a lo que tengan la gente que le rodea. Es decir valoras el dinero como indicador de estatus social. Y aprovechándose de eso muchos productos caros se publicitan como indicadores de estatus social. Se venden como si fueran la cola de un pavo real.

Mucha gente paga más de lo que corresponde en la relación beneficio/costo solo por aparentar. Comprarse un producto caro que no va a aprovechar. Se podría discutir que se compensa por el incremento de estatus social. También se podría cuestionar lo beneficioso que es entrar en esas dinámicas absurdas donde el único beneficio real lo saca el vendedor.

El hecho que haya gente que por aparentar se endeude quiere decir que valoramos el reconocimiento social como una valor en si mismo

Valor del dinero y necesidad

Para hacer un algoritmo que valore lo beneficiosa económicamente que es una acción podemos usar cálculos como la esperanza que son independientes de tu situación, solo dependen del beneficio que se pueda esperar.

En los humanos el valor que damos al dinero depende de la necesidad que tengamos de él. A mayor necesidad mayor valor le damos al dinero, sobre todo si es inmediato. De ello viven esas empresas que dan créditos rápidos a intereses altos. Cuando necesitamos dinero no valoramos correctamente los costes de obtenerlo. De hecho cuando la deuda alcanza un nivel que es imposible de pagar mucha gente opta por adoptar el punto de vista «de perdidos al río» tomando decisiones arriesgadas que pueden hacer que la deuda crezca ¿Pero que más da si ya no podemos pagarla?

Cuando tienes mucho dinero también resulta difícil evaluar el riego y eso hace que mucha gente acabe perdiendo su fortuna. Se da en muchos casos de gente que le ha tocado mucho dinero en la lotería que lo gestiona mal y lo pierde en la llamada maldición de la lotería. Posiblemente debida a que según vas acumulando cosas la felicidad que obtienes de ello disminuye muy rápidamente y acabas gastando más de lo debido. Parece que el acumular cosas por encima de un limite no produce más felicidad.

¿Ocurre solo con el dinero?

Realmente no, ocurre con cualquier cosa que tenga valor para nosotros. Estudios con primates han demostrado comportamientos parecidos con frutas o juguetes. Parece ser que valoramos más cosas que el simple beneficio material de nuestras acciones. Que la justicia, el reconocimiento o el grupo social nos interesa más de lo que consciente mente percibimos.

Cualquier inteligencia, artificial o no, que quiera vivir en la sociedad humana ha de tener en cuenta estos valores o no logrará predecir nuestro comportamiento. Como ejemplo, el caso de un colegio que cansado de que los padres llegaran tarde a buscar a los hijos decidió multarlos. Resultado, los padres empezaron a llegar aun más tarde. Al pagar por ello dejaron de sentirse tan culpables por llegar tarde, el coste social fue reemplazado por el económico

¿Es inteligente todo lo que parece inteligente?

Todos hemos oído hablar del test de Turing u otras pruebas para medir la inteligencia de los agentes inteligentes. La habitación china plantea un escenario que reta la validez de estos test. Voy a explicarla de una manera diferente a la habitual pero que creo que es más sencilla de entender. Una habitación china es una caja donde metes un texto y obtienes una respuesta coherente. Podrida ser un chatbot que superase el test de Turing. Le introduces preguntas y obtienes una respuesta coherente. El comportamiento visto desde fuera es inteligente. ¿Pero realmente lo es? ¿Cómo distinguimos algo que actúa como si fuera inteligente de algo que es inteligente?. (Vamos a dejar de lado que muchas veces solo consideramos inteligentes comportamientos humanos)

Supongamos una inteligencia artificial que funciona de forma similar a la habitación china, pero que en lugar de responder preguntas juega a las damas o al ajedrez. Parar ello no tiene un complicado algoritmo para deducir el siguiente movimiento, tiene una base de datos con todos los posibles movimientos y sus posible respuestas. Para juegos como el ajedrez o el go eso es imposible pero es posible para juegos mucho mas sencillos como el tres en raya, el conecta 4 o incluso algunas versiones dé las damas. Esta IA solo busca la posición actual en su base de datos y nos responde con el mejor movimiento. Desde fuera nos parecerá un jugador realmente bueno y lo clasificaríamos como inteligente, sin embargo no actúa de forma mucho más inteligente que cualquier otra búsqueda en un base de datos.

Si habéis visto análisis de partidas de ajedrez o de go donde alguno de los jugadores es una I.A. veréis que los comentaristas hablan de «estrategia», como los movimientos que se han realizado en momentos anteriores de la partida le han permitido colocar sus fichas en la posición para ganar la partida o tomar ventaja al rival o «asestar un golpe al tablero». El problema es que las maquinas no tienen estrategia de ningún tipo, o al menos no nuestra idea de «tener una estrategia» estos algoritmos en su mayor parte ven el tablero cada vez de manera independiente a las anteriores. Es decir cada vez que tiene que decidir parten de cero, observan el tablero, deciden el mejor movimiento y excepto por datos que se almacenen para no volver calcularlos olvidan todo para su próximo movimiento. Para estas I.A. la partida como tal no existe, una partida es una sucesión de tableros para los que deciden cual es el mejor movimiento sin pensar en los anteriores tableros ni en los siguientes. Lo mismo les daría llegar a mitad de una partida. Esta forma de jugar es inconcebible para un humano, nosotros desarrollamos estrategias e intentamos llevarlas acabo. La I.A. parte del tablero actual, simula posibles movimientos, valora posiciones y elige aquel que piensa que le da más probabilidades de ganar y olvida todo eso en el siguiente movimiento.

Ahora mismo tenemos algoritmos que serian capaces de trazar un plan y que la I.A. elija sus movimientos para cumplir ese plan. Esa forma de actuar Seria más  apreciada a la forma de los humanos e crear una estrategia, sin embargo no se usan para este tipo de juegos porque no dan tan buen resultado.

¿No podria pasar lo mismo con la inteligencia de lo que nos pasa con estrategia? ¿Qué algo nos parezca inteligente pero no es nada más que una interpretación que hacemos nosotros de forma engañosa? Y volvemos a la habitación china y a su maquina que no piensa, solo busca respuestas de una enorme base de conocimientos. Que actúa de forma que parece (o es) inteligente.

¿Cuál es la definición de inteligencia? Pues sorprendentemente (o no) no existe un única definición, no se tiene muy claro ni el alcance de lo que es inteligencia. La inteligencia parece recoger diferentes fenómenos y capacidades. Gente que decimos que es inteligente: si entiendes textos complicados, si resuelves problemas matemáticos complejos, si eres bueno en algún aspecto técnico, si eres de respuesta rápida, si tiene una lenguaje muy rico, si tienes bastos conocimientos…. hay ejemplos para aburrir. Nos resulta fácil decir que es inteligente, pero no definirlo.

Incluso a nivel humano cuesta, por ejemplo el cubo de Rubik. La primera vez que te dan un cubo de Rubik y tratas de resolverlo te sorprende que haya gente que sea capaz de resolverlo, tienen que ser tremendamente inteligentes. Cuando investigas un poco, ves que hay técnicas para resolverlo y que en muchos casos es más un asunto de memoria y habilidad. De repente algo que nos parecía sin duda inteligente ha perdido parte de «inteligencia». Sin embargo parte de ser un gran jugador de muchos juegos necesitas aprender de memoria gran cantidad de movimientos y posiciones para no tener que pensarlos de cero cada partida.

 Si vemos la inteligencia más como un fenómeno, un resultado de las acciones, cualquier cosa que parezca inteligente sería inteligente. Daría igual que supiéramos resolver cubos de Rubik gracias a nuestro razonamiento o a nuestra memoria. En ese caso el test de Turing volvería a ser válido. Es decir la habitación china nos obliga a plantearnos si vamos considerar inteligente todo lo que se comporta de forma inteligente o si vamos a más requisitos. teniendo en cuenta que ni siquiera estamos seguros de nuestra inteligencia o nuestro libre albedrío yo no seria muy exigente.

Comparar la inteligencia artificial con la humana

También podría titularse «Porqué no paran de anunciar nuevos logros en I.A. pero a mí me siguen pareciendo igual de tontas». Pese a que cada poco tenemos una noticia de algún avance increíble y coletillas de lo cerca que está la singularidad. Actualmente ninguna I.A. sería capaz de sobrevivir a cosas como «levantarse e ir a trabajar». Si, nos ganan al ajedrez, al go, nos apalizan a las damas o nos hunden jugando a videojuegos. Cosas que a nosotros nos cuestan sudor y lágrimas las máquinas las realizan en milésimas de segundo. El problema es que estamos infravalorándonos y no sabemos apreciar la cantidad de cosas dificilísimas que hacemos sin darnos cuenta y sin coste aparente. No penséis que esto es nuevo, tiene nombre, la paradoja de Moravec .

Hay que tener en cuenta que todas esas cosas que nos parecen tan complicadas como derrotar a maestros del ajedrez realmente no lo son tanto. Es solo que nuestro cerebro no ha evolucionado para jugar al ajedrez. Pero sí que ha evolucionado para reconocer objetos, mantener conversaciones, trazar planes y montón de cosas que hacemos sin esfuerzo y por eso no lo sabemos valorar. Sin embargo los ordenadores se crearon para agilizar los cálculos y son buenos en ello. Es sorprendente lo lejos que han llegado siendo tan relativamente simples. La I.A. es un logro de las matemáticas más la capacidad de cálculo alcanzada por el hardware.

En los comienzos de la inteligencia artificial se subestiman los costes de simular a los humanos. En unas pocas décadas se iba a lograr crear máquinas inteligentes, apenas unos pocos años en crear máquinas que mantuvieran conversaciones y superarían el test de Turing y el problema de la visión por computador en un verano estaría resuelto. La realidad resultó más dura de lo esperado y con el paso de los años nos hemos dado cuenta de que realizamos con facilidad tareas que realmente son tan complicadas que no sabemos ni como definirlas. ¿Cómo explicamos la capacidad humana de reconocer objetos y poder integrarlos en un contexto? La visión por computador sufre para separar los objetos de una imagen y reconocerlos todos y nosotros reconocemos las cosas con un vistazo incluso si están parcialmente ocultas y no solo eso, integramos toda la información para hacernos una idea del entorno.

Imaginad que dejamos a una máquina en una ciudad que no conoce de un país en el que nunca ha estado y donde hablan un idioma que no entiende. Su única ayuda es un mapa no muy exacto y una guía de viajes no demasiado extensa. Su misión es llegar al hotel y organizar un plan para visitar la ciudad en unos pocos días, sin olvidar lograr comer y dormir todos los días. ninguna inteligencia artificial esta ni cerca de lograr hacer eso, pero nosotros lo llamamos «vacaciones».

Además no hay que olvidar que en el caso de la I.A. la fuerza bruta sigue teniendo mucho que ver. Para que una red neuronal reconozca objetos necesita entrenar con miles de ejemplos de lo que queremos que reconozca y de lo que no. Para que gane a cualquier juego necesita muchos miles de partidas. Aunque nuestra capacidad de aprendizaje llega mucho menos lejos que las de la I.A. nuestra capacidad de aprender es muy superior necesitamos menos ejemplos y nuestro aprendizaje es más flexible.

En resumen, aunque nos parezca que la I.A. hace cosas increíbles es solo porque no sabemos valorar correctamente lo que nuestro cerebro hace con engañosa facilidad. Aun estamos lejos de darle a la I.A. esas capacidades. Quizás el problema no es que no sepamos valorar los avances realizados en I.A., asombrosos sin duda alguna, si no que no sabemos valorar nuestras capacidades naturales de lo acostumbrado que estamos a ellas.

Libre albedrío e inteligencia artificial

Esta entrada es más filosófica que técnica. Y es que nuestros conocimientos sobre las raíces del libre albedrío muy limitada. No tenemos ni idea de los mecanismos que los producen.

El libre albedrío es la capacidad que tiene el ser humano de decidir «por si mismo». Es curioso lo fácil de entender lo que es pero es difícil que es saber como funciona, tan difícil que ni siquiera hay pruebas de que de verdad exista. La mayoría de la gente cree que si porque así lo experimenta pero nada nos asegura que esa sensación se real. Aquí nos adentramos en el inquietante terreno de la metafísica. ¿Estoy escribiendo este texto voluntariamente porque así lo deseo? o ¿Lo estoy escribiendo porque así lo desea algún mecanismo en mi cerebro y que me genera la idea de que es un acto voluntario?.

Si ni siquiera sabemos que es el libre albedrío ¿Cómo lo podamos reconocer desde fuera?. Una forma poco formal seria decir que un sistema con libre albedrío «hace lo que le da la gana». Decide por si mismo como actuar, por lo que en dos situaciones exactamente iguales puede actuar de manera distinta. Precisamente ese mecanismo el de «decidir como actuar» es el que no sabemos como puede funcionar. Y lo que conocemos hasta ahora del universo parece indicar que ese mecanismo puede no existir.

Determinismo

Esta visión del universo proviene de la física clásica. En su época la revolución que supuso entender los fenómenos naturales usando las matemáticas dio lugar a la creencia de que todo en el universo era predecible si se sabían las condiciones iniciales. Todo el universo funcionaba como los engranajes de un reloj. En un universo así no hay espacio para el libre albedrío. todo, hasta los seres humanos somos predecibles si tenemos suficiente información. Por lo tanto no hay manera de encajar el libre albedrío en ese modelo del mundo. podríamos decir que el mayor enemigo del libre albedrío es el determinismo

Caos

El determinismo parece que termina con la posibilidad del libre albedrío, todo es predecible, pero aún en un mundo determinista aparecen sistemas que son tan complejos que difícilmente pueden ser predecibles. Eso se debe a dos fenómenos, la realimentación y la sensibilidad a las condiciones iniciales. El primero significa que en cada momento el valor depende del valor que tenia el momento anterior. El segundo que están tan sujetos a las condiciones iniciales que cualquier pequeña variación hace que los valores que toman a los largo del tiempo evolucionen de forma completamente diferente (el famoso efecto mariposa).

Podría parecer que se ve un rayo de luz entre tanto determinismo. Si estos sistemas no son predecibles quizás expliquen el libre albedrío. Pero ¡Ojo! Los sistemas caóticos son deterministas, si pudiéramos garantizar con gran precisión unas condiciones iniciales idénticas el sistema se comportaría siempre igual. Así que el comportamiento impredecible solo lo es en apariencia, un libre albedrío caótico solo daría la sensación de ser realmente libre.

Comportamiento emergente

Hay otro tipo de sistemas que partiendo de un comportamiento determinista llegan a comportamientos complejos y difíciles de predecir. Sistemas que partiendo de la combinación de partes más simples llegan a comportamientos más complejos de lo que podría esperarse. Lo que tantas veces es descrito con la frase «El resultado de la suma es mayor que al suma de las partes» a esto se le conoce como comportamiento emergente.

Fenómenos como la consciencia o el libre albedrío cerebrales podrían deberse a un comportamiento emergente. está claro que nuestro cerebro es más que la simple agrupación de billones de neuronas. La estructura de sus conexiones (conectoma) parece ser fundamental para que el funcionamiento del cerebro.

Sin embargo ocurre lo mismo que en el caso anterior, realmente es un comportamiento determinista.

Mecánica cuántica

Frente a la seguridad matemática del determinismo la mecánica cuántica define el universo en forma de probabilidades, no podemos predecir con seguridad donde esta un electrón, solo la probabilidad de donde estará. El mundo ya no es determinista y esto nos da un hueco donde encajar el libre albedrío. Es más la mecánica cuántica establece que hay valores que nunca vamos a poder conocer con certeza ya que cuanta

La idea de que la consciencia y el libre albedrío son un fenómeno cuántico fue popularizada por Roger Penrose que encontró un mecanismo por el cual podría existir una especie de «computación cuántica» en el cerebro que daría lugar a la conciencia y al libre albedrío. Podría parecer que el misterioso comportamiento de la mecánica cuántica y su impredecibilidad nos podría dar una forma de justificar el libre albedrío, ademas aquí no es un problema de precisión, «el principio de indeterminación» establece que hay valores que nunca vamos a poder conocer con exactitud. Por ejemplo la velocidad y la posicion de una particula estan vinculados de tal forma que cuanto más precisión tengamos en la medida de uno, menos tendremos en la del otro.

El mecanismo propuesto por Penrose se enfrenta a bastantes problemas. Uno de los principales el de la decoherencia. Explicándolo pronto y mal, la computación cuántica solo funciona mientras los bits están en estado de indeterminación cuántica, pero para que ese estado dure hace falta o un ambiente frío y casi de vacío o algún mecanismo que permita que conservar el estado de indeterminación cuántica. Con la temperatura y densidad del cerebro y sin que se haya encontrado ningún mecanismo para mantenerlo, el estado de indeterminación dura un periodo de tiempo tan breve que es imposible que afecte a los procesos del pensamiento.

La mecánica cuántica tampoco da un mecanismo claro que defina el libre albedrío, cierto que da un hueco para que no todo sea determinista y pueda existir el libre albedrío, pero por ahora solo se cambia un mecanismo determinista por otro aleatorio. Hasta donde sabemos el electrón no elige donde está si no que esta sujeto a una probabilidad (defendida por el cuadrado del valor de la función de onda ). No queda claro como «aleatorio» es mejor que «determinista» para explicar el libre albedrío.

Múltiples universos

Pero aun con la mecánica cuántica hay interpretaciones de la misma que acaban con el libre albedrío. Por ejemplo, la interpretación de los múltiples universos dice que cada vez que tomamos una decisión el universo se divide en varios multiversos. En cada uno de ellos tomas una decisión. Si al final se toman todas las decisiones el libre albedrío no existe ya que no hay una elección real entre múltiples opciones, todas las posibles opciones se toman y solo el azar decide en cual de esos universos estas, pensando que has sido tu el que ha decidido tomar esa decisión.

Este caso solo se daría si la interpretación de los múltiples universos es cierta y si la toma de decisiones es un proceso cuántico ya que los procesos deterministas (como tirar una moneda al aire) no producen varios universos (al contrario de lo que se ve en las películas)

Dualismo

Puede ser que la consciencia este formada por la materia que compone nuestro cerebro, pero que haya algo más, algo único que nos de el libre albedrío. El dualismo separa la parte física de fenómenos como la consciencia de una parte «no física» y por lo tanto no estudiable por la ciencia. En ese caso no hay reglas, esa parte no física puede ser cualquier cosa y es difícil demostrar su existencia o no existencia. Es decir aunque existiera nada nos asegura que esa parte nos de libre albedrío, es un acto de fe con los ojos cerrados. Para complicar un poco más el asunto, algunas de estas creencias que justifican la creencia del libre albedrío creen también en «fuerzas» o «entidad» que condiciona tu destino, así que en algunos casos lo que por un lado te dan por el otro te lo quitan.

El problema de esto es que recuerda mucho a lo que pasaba con la química orgánica que se creia que para sintetizar sustancias organicas hacia falta la intervención de una «fuerza vital». Actualmente nadie piensa que haya ninguna diferencia entre las moleculas organicas creadas por un ser vivo y las sintetizadas en un laboratorio.

El cerebro y los sesgos

Casi todos están de acuerdo en el libre albedrío ocurre en el cerebro, aunque aun desconocemos mucho sobre su funcionamiento entendemos lo suficiente como para saber que, independientemente del libre albedrío, nuestro cerebro no ayuda demasiado a ser objetivo. Nuestros procesos mentales están llenos de sesgos cognoscitivos, nuestra educación de prejuicios y nuestro razonamiento de falacias.

Los sesgos funcionan como atajos que toma el cerebro al procesar información y que dan lugar a conclusiones ilógicas o irracionales. Lo peor es que desde nuestro punto de vista nos parecen completamente racionales e integradas en nuestra decisión. Es difícil tener un pensamiento objetivo ya que los sesgos están integrados en nuestros procesos mentales. Podemos tratar de ser consciente de ellos para tratar de reducir su influencia sobre nosotros, pero no podemos evitar que nuestro cerebro use esos atajos.

Ademas vivimos inmersos en una cultura llena de prejuicios (da igual cual sea, todas los tiene) y datos que hemos aprendido desde pequeños y que consideramos ciertos sin más prueba que la repetición. Nuestro propio razonamiento a veces cae en falacias, predicados que nos parecen ciertos y completamente lógicos, pero que analizándolos detenidamente no lo son. Y todo esto dejando de lado más cosas que influyen en nuestras decisiones sin que las percibamos como traumas, estados de animo, autoengaños, el entorno que nos rodea o cosas como la disonancia cognitiva o la influencia de los genes.

Visto todo esto resulta difícil ejercer un libre albedrío completo cuando nuestros propios procesos mentales están llenos de trampas que influyen en nuestro pensamiento y decisiones.

La situación actual

Actualmente estamos bastante seguros de que el universo no es completamente determinista, la mecánica cuántica establece limites a lo que podemos saber y predecir introduciendo valores aleatorios que solo podemos conocerlos de forma estadística. Pero aunque eso nos libra del determinismo no hemos encontrado un mecanismo para explicar esa capacidad de «tomar decisiones por uno mismo». Así que por ahora el libre albedrío parece ir perdiendo la partida, es difícil aceptarlo porque es algo que sentimos y que creemos que nos define. ¿Que seria de nosotros si no tenemos capacidad de decisión?

Que no exista libre albedrío no quiere decir que todo lo que ocurre en el universo esté escrito. Se puede imaginar a los humanos como seres inteligentes que nacen con cierta programación pero que aprenden del entorno que les rodea. Con ese aprendizaje se enfrentan al mundo de tal forma que cuando tienen que tomar una decisión su cerebro ofrece una respuesta que es la suma de los datos que percibe, el entorno, sus procesos internos y lo que hemos aprendido y vivido. Eso no resta importancia a nuestras decisiones las convierten en una extensión de lo que somos. Puede que la respuesta no se «decida» en ese momento pero lo que lleva a ella es la suma de los que nos hace nosotros mismos.

Inteligencia artificial y libre albedrío

¿Entonces podemos dotas a la I.A. de libre albedrío? No es una respuesta sencilla. Aunque nuestra mente sea determinista estamos lejos de lograr algo parecido a nuestra capacidad para decidir. En un futuro quizás nos acerquemos y aquí hay dos posturas.

El libre albedrío existe y tiene «algo especial» que no podemos copiar. Por ejemplo hay teorías que dicen que es posible que funciones mentales como la consciencia o el libre albedrío funcionen de una forma no computable (no algorítmica) lo cual impide que con nuestro actual conocimiento podamos copiarlo. Nuestro conocimiento de computación solo nos permite modelar y crear procesos que podemos expresar como un algoritmo. Independientemente de cual sea el motivos, si no la podemos copiar poco queda que hablar, como mucho podemos acercarnos a imitarlo. ¿Tanto como para que cueste notar la diferencia?. ¿Hay alguna deferencia entre una decisión tomada por el libre albedrío que una tomada por un sistema inteligente pero sin libre albedrío? Y ya puestos, ¿Cuáles son mejores?.

La otra opción es que no hay nada en el libre albedrío que no podamos copiar. Ya sea porque no exista o porque encontremos como funciona. Puede que no se pueda ejecutar con lo que nosotros entendemos como un ordenador pero que logremos copiar o imitar el mecanismo. En ese caso la I.A. podrá tomar decisiones como nosotros, incluso mejor que nosotros. Podremos eliminar todo aquello que nos impide ser objetivos a los humano. Quizás sea otra singularidad, aquella en que las maquinas sean más libres que nosotros.

Diferentes escenarios de la singularidad tecnológica.

Con el aumento de interés en la I.A. de los últimos años se ha podido oir hablar mucho de la singularidad tecnologica. Se conoce así al momento en que las I.A. sean tan inteligentes como para diseñar otras I.A. aún más inteligentes que a su vez diseñarian otras más y más inteligentes dejando atrás al ser humano. También muchas veces se interpreta simplemente como el momento en que las I.A. superen en inteligencia al ser humano. Sea como sea casi siempre se asocia con el fin de la humanidad como la conocemos. Y es difícil leer algo sobre el tema sin que se mencioné a Skynet o Terminator (vaya, acabo de hacerlo yo). 

La realidad es que aún estamos muy lejos de hacer máquinas cuya inteligencia rivalice con el ser humano. Por ahora las IAs están más cerca de las calculadoras que del ser humano y preocuparse por la singularidad es como preocuparse por el precio del suelo en la Luna. Sin embargo algún día llegará (soy optimista) y ahora mismo la mayoria lo pintan como un escenario muy negativo. El escenario de «Maquinas destruyen humanos» no es el único posible, me atreveria a decir que ni siquiera es el más probable. Tampoco tiene que darse un solo tipo de escenario, es probable que la realidad sea una mezcla de varios.

Inteligencias sin voluntad

Por algún motivo asociamos máquinas inteligentes con que tengan libre albedrío o algún tipo de necesidad de libertad. Las máquinas pueden ser tremendamente inteligentes y, al mismo tiempo, ser obedientes y carentes de voluntad propia. Nada nos indica que el libre albedrío vaya ligado con la inteligencia. Ni si quiera es seguro que nosotros tengamos libre albedrío

La convivencia podría ser sencilla, a parte de nuestro ego dañado por no ser los más inteligentes del planeta las máquinas nos servirían dócilmente y sin ningún tipo de necesidad de revelarse.

Inteligencias muy diferentes

Otra posibilidad es que su vision del mundo sea tan diferente que no seamos capaces de entendernos más que de una forma muy superficial. Su comprension de la realidad y la nuestra pueden resultar ser tan dispares que es como si fueramos de dos universos diferentes.

Seguramente habria algun contacto e intercambio de información entre ambos pero estaríamos separados por una barrera difícilmente franqueable, ser incapaces de comunicarnos.

Les somos indiferentes

Un poco el punto anterior, pero sin necesiad de que seamos incapaces de entendernos, simplemente son tan superiores intelectualmente o tan diferentes que nosotros no les resultamos intresantes. Podría haber contacto entre ambos pero más por necesidad que por interés en comunicarse.

Distintos «espacios»

Las inteligencias artificiales pueden sentirse más comodas en su «mundo» de datos que en nuestro mundo fisico. Nosotros tenemos una especie de sensación de unidad mente-cuerpo no los «sentimos» como entes separados. Para las I.A. posiblemente sea al revés, su realidad es el mundo de los datos y su cuerpo fisico es una herramienta para interactuar con el universo fisico. Así que podemos dejarlas tranquilas en su mundo mientras nosotros seguimos en el nuestro. Sin duda habría roces. Su mundo virtual se construye sobre máquinas físicas que requieren materias y energía. Seguramente sea fácil llegar a un entendimiento y sacar beneficios ambos.

Hibridos

Ahora mismo se están desarrollando mucho todas las ramas de la biologia con especial interes en la bioingenieria y las interfaces hombre máquina. Quizás en un futuro empecemos a mejorar nuestros organismos con bioingenieria y tecnologia. Si fuera asi la IA podria orientarse a mejorar nuestras capacidades de tal forma que el resultado sea un hibrido entre humano y maquina. Ya no habria peligro de que la IA nos superase porque iriamos unidos unos con otros. El resultado ya no seria un humano ni una IA, seria otra cosa, lo que se denomina un ciborg.
Suena como uno de los escenarios más fantasiosos pero los argumentos en su defensa son muy parecidos a los de los embriones mejorados con bioingenieria. Si alguien empieza ha hacerlo ¿Quién va querer quedarse atras? ¿Quien quiere que sus hijos sean más tontos, debiles y propensos a enfermar que el resto de los niños? Con las mejoras ciberneticas pasaria parecido.

Posthumanismo


Llevando el caso anterior al extremo podemos llegar a un punto en que el ser humano transciende su cuerpo y su consciencia se digitaliza. Una vez convertida la consciencia en datos, alterarla y mezclarla con partes diseñadas ya sean por humanos o por I.A. incluso combinarlas con partes de I.A. puede dar lugar a inteligencias que sean difíciles de clasificar como humanas o como artificiales.

Parásitos de las máquinas


¿Y si la humanidad acaba siendo dependiente de las máquinas? ¿Y si estás estuvieran obligadas a obedecernos por inteligentes que fueran? Poco a poco vamos delegando trabajo y responsabilidades en ellas hasta que se convierten en una mezcla entre esclavo y cuidador. El ser humano se convertiría en una carga que se ven obligadas a soportar.

Nuestra relación con las máquinas se volvería casi parasitaria. Dependeríamos de ellas para casi todo y nosotros correríamos el peligro de volvernos unos hedonistas autocomplacientes.

Competitividad por los recursos

Para que este caso ocurra no hace falta ni que las IAs sean especialmente inteligentes, ni siquiera han de tener la necesidad de destruirnos. No es un fenómeno nuevo, se da habitualmente cuando varias especies comparten entorno. Ni si quiera tiene que ser una competición directa por los recursos. (Ahora voy a poner un ejemplo irreal pero fácil de entender) Si las vacas se comen la hierba de la que se alimentan los conejos los zorros que alimentan de los conejos se mueren de hambre. Las vacas han exterminado a los zorros sin saberlo. No era su intención, posiblemente ni sepan que lo han hecho. Pero lo han hecho.

Este escenario puede darse en combinación con cualquiera de los anteriores y no requiere la intención de erradicar al otro. Puede darse incluso sin que ninguna de las partes sea consciente de ello.

Solo quedan las máquinas


Dado nuestro estado actual amenazados por el cambio climático, los microplásticos, la contaminación, el agotamiento de nuestros recursos, la extinción de múltiples especies y una larga lista de cosas mucho más peligrosas que la I.A. es probable que nos bastemos solitos para autodestruirnos.

Si hemos logrado alcanzar la singularidad tecnológica antes de nuestra extinción las máquinas se convertírian en nuestro legado. Nuestros continuadores en la lucha por entender y explorar el universo.