La sospecha de que no es ni inteligente ni artificial

Me han escrito Elon Musk y el cofundador de Apple, Steve Wozniak, dicen, como si fueran unos activistas de toda la vida, que pidamos una moratoria de seis meses en el desarrollo de los sistemas de Inteligencia Artificial. En realidad, aunque no lo sepa, también le han escrito a usted. Otra cosa es que, con buen criterio, no lea las cartas de estos señores. De hecho, les confieso que cuando conocí el nombre de los firmantes estuve a punto de montar una plataforma a favor de la rapidez. En realidad, lo que les molesta a ambos es que se les han adelantado en el negocio.

El objetivo, dicen y no es absurdo, es dar tiempo a la sociedad para que se adapte a lo que los firmantes llaman un “verano de IA” que creen que, en última instancia, beneficiará a la humanidad, ellos siempre tan preocupados, siempre que se establezcan las medidas de seguridad adecuadas.

O sea, protocolos de seguridad rigurosamente auditados, supongo que por ellos, porque, como se sabe, odian la regulación. Y éticamente contrastados, cosa que, tras despedir a veinte mil currantes, preocupa mucho a Elon Musk.

Dicho así, es todo tan loable que casi resulta enternecedor. Pero el problema, empiezo a sospechar y alguna vez se lo he comentado aquí, es que el asunto de la Inteligencia Artificial puede ser aterrador.

El término IA pertenece al mismo montón de basura de la historia que no significa nada y que incluye “telón de acero”, “teoría del dominó” o “el gobierno de los mejores”, por un poner. Sobrevivió al final de la guerra fría, debido a su atractivo para los entusiastas de la ciencia ficción.

En realidad, lo que hoy llamamos “inteligencia artificial” no es ni artificial ni inteligente. Sé que esta afirmación es de cronista antiguo, pero acabarán dándome la razón, que lo sepan.

Carlos Lillo ponderaba hace unos días en el guasap un producto del ChatGPT. Afirmaba: “Yo no lo hubiera escrito mejor”. En realidad, estimado Carlos Lillo: lo has escrito tú.

Los primeros sistemas de IA estaban fuertemente dominados por reglas y programas, por lo que al menos estaba justificado hablar de “artificialidad”. Pero los de hoy, incluido el favorito de todos, ChatGPT, extraen su contenido del trabajo de humanos reales: artistas, músicos, programadores y escritores cuya producción creativa y profesional ahora se apropia en nombre de salvar la civilización.

En el mejor de los casos, esto es “inteligencia no artificial”. En cuanto a la parte de “inteligencia”, la fuerza de la IA moderna radica en la coincidencia de patrones. No es de extrañar dado que uno de los primeros usos militares de las redes neuronales, la tecnología detrás de ChatGPT, fue detectar barcos en fotografías aéreas.

Las máquinas no pueden tener un sentido (más que un mero conocimiento) del pasado, el presente y el futuro.

Éste es el tema que conduce a lo que en el guasap de la revista que generosamente acoge algunas de mis crónicas, News ClickCiber, llevaba a Joan Massanet a hacerse una pregunta trascendental sobre ética e Inteligencia Artificial.

Dicho de otra manera, como principio para una reflexión ética: la IA no permite distinguir la verdad de la mentira. Un algoritmo no define lo cierto, como no lo define el posicionamiento en Google.

La IA nunca llegará a la verdad porque no tiene emoción, suprimiendo uno de los componentes fundamentales de la lógica humana. Así que ahí se pierde una parte de “inteligencia”.

ChatGPT tiene sus utilidades. Es un motor de predicción que también puede funcionar como una enciclopedia. Cuando alguien le preguntó qué tienen en común el botellero, la pala de nieve y el urinario, respondió correctamente que todos son objetos cotidianos que el artista Duchamp convirtió en arte.

Pero cuando se le preguntó cuáles de los objetos de hoy en día Duchamp convertiría en arte, sugirió: teléfonos inteligentes, aparatos electrónicos y máscaras faciales. No hay indicios de ninguna “inteligencia” aquí. Es una máquina estadística bien administrada pero predecible.

El peligro de seguir usando el término “inteligencia artificial” es que corre el riesgo de convencernos de que el mundo funciona con una lógica singular: la del racionalismo altamente cognitivo y de sangre fría. Muchos en Silicon Valley ya creen eso, y están ocupados reconstruyendo el mundo informado por esa creencia.

Pero la razón por la que las herramientas como ChatGPT pueden hacer cualquier cosa, incluso aparentemente creativa, es porque sus patrones de entrenamiento han sido producidos por humanos realmente existentes, con sus emociones, ansiedades y todo lo demás, en lo que incluyo la falta de diversidad (sea racial, de orientación sexual o cultural) de Silicon Valley.

Si queremos que esa creatividad persista, también podríamos financiar la producción de arte, ficción e historia, no solo los centros de datos y el aprendizaje automático. Claro que para eso no tenemos bancos a mano.

Voy a contestarle al antipático de Elon Musk: en lugar de pasar seis meses de moratoria, auditando los algoritmos, esperando el “verano de la IA”, como cuando en la pandemia esperábamos las “redes soleadas” que nunca llegaron y se convirtieron en repositorios de odio, también podríamos volver a leer alguna novela o ver alguna obra de arte. Igual no es artificial, pero sí será inteligente. Cosas de cronista enfurruñado con el nuevo invento.

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Time limit is exhausted. Please reload CAPTCHA.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.