martes, 20 de octubre de 2015

Inteligencia Artificial

Una vez tuve una conversación con un primo mío sobre inteligencia artificial. Pronto le quedó claro que yo creo firmemente que un día existirá la tecnología necesaria para crear inteligencias artificiales tan avanzadas, al menos, como la nuestra. Se sorprendió porque, según dijo, no les podemos dar algo fundamental: el alma.

La inteligencia artificial es un tema importante en la historia de la humanidad. Seguramente, uno de los más importantes. Si un día se desarrolla una inteligencia artificial suficientemente potente para tomar conciencia de sí misma, no solo será un hito en nuestra historia: podría marcar un punto de inflexión en ella. Y un punto de inflexión tan emocionante como peligroso.

Recientemente vi la entrevista que hizo John Oliver a Stephen Hawking. En ella, Hawking muestra una opinión muy compartida: la inteligencia artificial podría suponer un peligro para la humanidad. Uno de los argumentos que maneja es que puede desarrollar mejoras para sí misma.

Es un tema que siempre me ha fascinado. Descubrir cómo funciona un cerebro a nivel algorítmico me parece un reto extraordinario. Seguramente, el mayor de todos. Y sí: creo que podría suponer un peligro. Existen muchas películas y novelas sobre el tema, pintando escenarios apocalípticos a causa de una gran inteligencia que se rebela contra nosotros, por una u otra razón. Sin embargo, creo también que olvidamos ciertos factores que pueden suponer una gran diferencia entre el final apocalíptico y la realidad.

El factor más inmediato que puede acabar siendo crítico para la humanidad no es tanto la existencia de robots inteligentes como el trato que les demos. Cada vez más, percibimos en estudios sobre nuestro cerebro la importancia que tienen las emociones en nuestra inteligencia. Es posible, y considero incluso que muy probable, que una primera generación de inteligencias artificiales no puedan ser programadas sin un sistema emocional, ya sea por necesidad o por ser una consecuencia inevitable de la propia inteligencia. Si esto es así, el mayor problema será que esos robots no se sientan mal porque les tratemos como "seres sin alma".

La humanidad tiene un larguísimo expediente atribuyendo carencia de alma a todo aquel grupo de seres que fuese diferente. Consideramos en su momento que las mujeres no tenían alma, o ésta era pecadora o a saber cómo. Creímos que los indios de América no tenían alma, hasta que nos dimos cuenta de que no era así. Entonces decidimos que era la gente de color la que no tenía alma. Y ahora, ya bien metidos en el siglo XXI, creemos que estamos libres de esos prejuicios. Justo cuando alguien por la calle te dice que un robot nunca tendrá alma.

El argumento del alma es, muy probablemente, un reflejo de nuestra necesidad de marcar diferencias con criaturas inteligentes a las que queremos relegar por alguna estúpida razón, probablemente nuestro egocentrismo. No creo que sea una cuestión de interés: es pura egolatría. El ser humano, se ve más avanzado que otras criaturas y, por ello, piensa efectivamente que es superior. ¿Su ventaja? El alma.

Y lo digo yo, católico practicante. En serio: no sé qué es exactamente el alma, pero sí sé que cada vez que hemos tenido la estúpida idea de dársela o quitársela a algo o alguien la hemos cagado. La consecuencia casi siempre ha sido la inevitable generación de un horrible y más que justificado odio a nuestra civilización.

Pero los robots no son una de esas tribus africanas a las que los británicos tiroteaban sin piedad porque, total, no tenían alma. No. Los robots son potencialmente un terrible enemigo. Por eso no nos conviene tratarles mal, ni cometer por enésima vez el error de creer que el alma es una licencia para hacer todo tipo de faenas a un colectivo determinado. La humanidad, por una vez, por una primerísima y crítica vez, no estaría mal que se plantearse adelantar una ley a su necesidad. Una ley, tal vez, podría hacer que la balanza entre el apocalipsis y un esperanzador futuro tienda a inclinarse a nuestro favor. No sería definitivo, pero sí importante: dotar a todo individuo inteligente, humano o no, de los mismos derechos básicos que ahora tenemos nosotros, independientemente de su género, raza o especie. Me da igual si son robots, aliens o espíritus venidos del más allá. Y sí: sé que es complejo eso de definir la inteligencia. Pero si queremos evitar que quienes piensan que somos el no va más de la evolución nos arrebaten el futuro, mejor que empecemos a hacer algo.

Las consecuencias de una ley así son dos: Primero, que los robots no serán esclavizables. Y eso es mucho, porque no les hará rentables, disminuyendo drásticamente su producción y número. Segundo, que no acabarán teniendo una conciencia de grupo anti-humanos. Y ¡ay! Si conseguimos eso hay muchísimo ganado.

Aparte de eso, hay un factor importante que la gente, creo, olvida. En efecto, la inteligencia artificial puede ser más rápida, fuerte, etcétera. Pero es que nosotros también. El desarrollo de una inteligencia artificial implica el conocimiento del funcionamiento de nuestro propio cerebro. Y eso nos lleva a que, si podemos hacer mejoras para sus cerebros, probablemente podamos hacerlas para los nuestros. No creo que estemos mucho más lejos de dotarnos a nosotros mismos de coprocesadores matemáticos que de lograr que un ordenador tome conciencia de sí mismo.

En fin, que sí: es un camino peligroso. Pero es un camino inevitable. La humanidad está diseñada contra el mandato de "no cruces esa puerta". Siempre la cruzaremos. Y lo haremos porque somos curiosos. Porque nos gusta mejorar. Porque tenemos como constante ambición nuestra propia superación. Y eso no es malo, pero debemos aprender a convivir con ello. Si la puerta es peligrosa, preparémonos para cruzarla. Prohibirlo nunca ha funcionado.

1 comentario:

  1. Este artículo en dos páginas de inteligencia artificial son brutales y "asustantes"

    http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

    ResponderEliminar