Problema: ¿puede la inteligencia artificial tener conciencia? Según una estadÃstica, al parecer más de dos tercios de la gente común cree que ChatGPT ya la tiene. Pero en la comunidad cientÃfica, el debate es acalorado. Y se remonta muy atrás, al menos hasta Descartes y el dualismo entre cuerpo y alma, que según él están separados. En resumen, no serÃa necesario tener un cuerpo para existir (cogito ergo sum; pienso, luego existo).
Son otros tiempos, pero el asunto no está archivado. Quienes se ocupan de ello, en términos actuales, son un grupo de filósofos de la mente dispersos por todo el mundo, pero de ascendencia o formación esencialmente anglosajona. Personas que se pasan el dÃa devanándose los sesos con preguntas que a la mayorÃa de nosotros nos llevarÃan al manicomio. Individuos excéntricos, por asà decirlo, no sin cierta autocrÃtica, sin embargo. âNunca querrÃa vivir en una sociedad gobernada por filósofosâ, resume Michael Pauen, profesor de la Universidad de BerlÃn. WIRED lo conoció en el marco de la conferencia organizada en Creta en julio por el ICCS (Centro Internacional de Estudios de la Conciencia). Se trata de un think tank fundado por los profesores Pietro Perconti y Alessio Plebe (Universidad de Messina), y por el empresario ruso (pero doctor en filosofÃa por Estados Unidos) Dmitri Volkov. El evento reunió a algunos de los nombres más interesantes del debate contemporáneo. â Esto es lo que nos gusta decir a los miembros de la categorÃa, ed. a nosotros mismos. Pero si realmente estuviéramos en el poder, faltarÃan todas las cosas prácticas de la vida: comida, medicinas, etc.â, añade Pauen.
Tres dÃas camuflados en una asamblea de este tipo tienen mucho que decir al reportero acostumbrado a las reuniones apresuradas y llenas de testosterona de las empresas, especialmente las relacionadas con la tecnologÃa. Empezando por el hecho de que quizá estemos pisando demasiado fuerte el acelerador. Después de unos setenta años en los que el debate sobre la inteligencia artificial ha permanecido casi exclusivamente confinado en los pantanosos recintos de la academia, la reciente difusión de los modelos de lenguaje a gran escala ha seducido a las celebridades tecnológicas habituales, que han aprovechado la oportunidad: el resultado es que hoy, al volante de la máquina de la investigación, ya no encontramos a la universidad (carente de medios para competir con las multinacionales). El volante ha sido tomado por las grandes empresas, con la consiguiente inyección de miles de millones dictada por el miedo a perderse la próxima gran novedad. Y con una lógica que se reduce esencialmente a dos palabras: ganar dinero.
El ambiente entre los académicos reunidos en la isla griega es decididamente de preocupación. Contrariamente a lo que se suele alardear en los comunicados de prensa y los actos de las grandes empresas. Las multinacionales, además, suelen financiar departamentos y universidades, lo que dificulta incluso que los académicos se expongan abiertamente sobre el tema; pero con los proyectores (y micrófonos) apagados, se dejan llevar. Y, en palabras de un investigador, entre ensalada griega y souvlaki:No envidio a los niños de hoy por el mundo en el que tendrán que vivir. Incluido mi hijo.
Lo anterior proporciona un mÃnimo de contexto para entender por qué es fundamental abordar la cuestión de si es posible (y deseable) la conciencia de la inteligencia artificial. Intentemos, pues, comprender mejor las posturas.
La principal función de un hombre es vivir, no existir, decÃa el escritor Jack London, que de aventuras sabÃa un rato. Para muchos de nosotros, la cuestión de la diferencia entre el humano y la máquina podrÃa reducirse a esta afirmación: y el asunto quedarÃa zanjado. Pero no es tan sencillo.
¿Cuándo empieza uno a vivir? ¿Cuál es el instante, y cuál es el mecanismo, por el que de un agregado de átomos y luego de células, neuromoduladores, neuronas, sinapsis surge la conciencia que nos hace humanos? Y entonces: ¿qué es la conciencia en sà misma? ¿Y cuándo se extingue?
Nos encontramos en la frontera entre lo humano y lo divino, un territorio casi mÃstico que también se cruza con la medicina: pensemos en la donación de órganos y en cómo determinar el momento a partir del cual se puede proceder a la explantación.
La cuestión del detonante es tan compleja que en el mundo filosófico se la conoce como el problema difÃcil: esta afortunada designación se debe a David Chalmers, conferenciante y profesor australiano de la Universidad de Nueva York, que a pesar de tener casi sesenta años no ha perdido su aplomo juvenil de surfista. Chalmers se pasea por la conferencia cretense con aire relajado (la suerte de ser filósofo es no tener que anudarse la corbata). Su principal contribución a la reflexión la escribió muy joven, poco después de doctorarse.
Según su razonamiento, la existencia de un problema difÃcil presupone obviamente la existencia de otros más fáciles. ¿Fácil? En realidad, no. Citando al psicólogo cognitivo Steven Pinker, y para hacerse una idea de la complejidad que caracteriza incluso a este último, âes tan fácil como decir que se trata de curar el cáncer o ir a Marte. Es decir: los cientÃficos saben más o menos qué buscar, y con suficientes recursos intelectuales y financiación, probablemente lo lograrán para finales de este sigloâ. Pero, desde luego, no mañana.
¿Algunos ejemplos de problemas sencillos? Pinker explica que podrÃa tratarse del inconsciente freudiano, o de funciones como el latido del corazón, controladas en algún lugar del cerebro, pero completamente involuntarias y alejadas de la consciencia.
El problema difÃcil, prosigue, es la experiencia subjetiva. En palabras de Louis Armstrong: Si necesitas preguntar qué es el jazz, nunca lo entenderás. En pocas palabras, explica el psicólogo, el llamado problema difÃcil es explicar cómo la experiencia subjetiva surge de la computación neuronal. O dicho en los propios términos de Chalmers, desde el escenario de Creta: Saber todo lo que hay que saber sobre el cerebro o cualquier otro sistema fÃsico no es lo mismo que saberlo todo sobre la conciencia. Sobre esta base, ¿tendrán alguna vez conciencia las máquinas? A fin de cuentas, y en determinadas condiciones, sÃ, podrÃan llegar a tenerla. Pero no es tan sencillo.
Si el problema planteado por Chalmers es a todas luces difÃcil de resolver, hay quienes creen que es incluso insoluble. Como Keith Frankish, un filósofo británico de la Universidad de Sheffield. Frankish es radical: todos estamos inmersos en una gigantesca alucinación. Hace dos suposiciones clave: la primera es que la conciencia fenomenológica (es decir, subjetiva) no existe; la segunda es que la conciencia fenomenológica parece existir, pero es, de hecho, una ilusión.
Pero entonces, si seguimos el razonamiento, surge la pregunta: ¿qué serÃa lo que estamos acostumbrados a llamar con este nombre? SerÃa, según el británico, una forma de ir más allá de la mera biologÃa, una estratagema para simplificar el cuadro creado por la enorme cantidad de estÃmulos sensoriales a los que estamos expuestos; una especie de capa intermedia entre las cosas y la realidad. Una capa que tiene sobre todo una función adaptativa: nos permite simplificar el mundo que tenemos delante, comunicarnos con los demás y tener interacciones sociales. Pero también tener valores.
En pocas palabras, el âilusionismoâ es la idea de que la conciencia no es lo que creemos que es, explica Frankish a WIRED. Tendemos a pensar que la conciencia es un mundo esencialmente privado, claramente distinto del mundo público estudiado por la ciencia. Los ilusionistas sostienen que se trata de una especie de ilusión, derivada del modo en que el cerebro controla y modela su propia actividad. Nuestros cerebros modelan sus propios procesos sensoriales y reactivos de forma simplificada y distorsionada: lo que nos da la impresión errónea de que nuestras mentes conscientes son distintas de estos.
Sin embargo, según Frankish, âel problema difÃcil es la cuestión de explicar cómo surgen estas extrañas propiedades fenomenológicas. La ciencia no puede hacerlo, ya que solo tiene que ocuparse de los fenómenos públicamente observables y de las hipótesis teóricas introducidas para explicarlos. Asà pues, como mÃnimo, el problema difÃcil no puede resolverse sin una revisión radical del modo en que la ciencia contempla el mundo. Algunos filósofos creen que esta revisión es necesaria, pero los delirantes proponen que al menos consideremos la posibilidad de tener una idea distorsionada de lo que es la conciencia. Y que tal vez ni siquiera exista el âproblema difÃcil.
En cuanto a lo que ocurrirá en el futuro, asà es como lo imagina Frankish al presentar su trabajo en el escenario de la isla griega (donde vive desde hace años, por otra parte): No debemos pensar en hacer máquinas conscientes: sino pensar en qué queremos que haga la máquina, cómo conseguir que lo haga, qué objetivos debe tener, a qué debe ser sensible y cómo debe reaccionar, qué grado de autonomÃa debe poseer, si necesita capacidades introspectivas. En resumen, fijarse en las funciones, y dejar que la conciencia venga por sà sola. Si es que llega.
Y añade: âTodo depende de lo que entendamos por conciencia.â Si entendemos la conciencia según el paradigma cartesiano, nunca podremos recrearla artificialmente, porque no existe. Pero si la entendemos a la manera de los ilusionistas, es decir, como un conjunto de funciones complejas realizadas por nuestro cerebro, entonces no veo por qué, en principio, no podrÃamos ser capaces de diseñar máquinas para realizar las mismas operaciones. Al fin y al cabo, ¡la evolución también lo hizo! Lo que no debemos hacer es pensar en crear una conciencia artificial como si fuera un objetivo bien definido. Conciencia es un término vago y poco cientÃfico que engloba diferentes conjuntos de funciones en distintos animales. Por eso recomiendo centrarse en las funciones, y no preocuparse demasiado por si merecen o no la etiqueta de conciencia.
Dicho esto, concluye el profesor británico, debo subrayar que no creo que ninguna IA actual sea ya consciente en modo alguno. Aunque pueden realizar tareas muy complejas, no tienen el tipo adecuado de complejidad funcional e interacción con el entorno.
También hay quien se muestra más âoptimistaâ. Según el organizador Pietro Perconti, que enseña en la Universidad de Messina y está en la onda de la teorÃa social de la conciencia, la conciencia, desde mi punto de vista, es una función auxiliar. Y no es en absoluto seguro que las máquinas nunca lleguen a ser conscientes, al contrario: en cierto modo ya lo son. Es importante hacer el cambio cultural, accionar ese interruptor que nos permita darnos cuenta y reconocerlo. Por supuesto, un sentimiento como la nostalgia es difÃcil de emular con las máquinas que tenemos hoy a nuestra disposición; pero para responder a la pregunta, es necesario tener en cuenta el hecho de que el tipo de lo que puede llamarse conciencia de la inteligencia artificial estará condicionado por las capacidades de los dispositivos. En pocas palabras, un aparato capaz de consultar una base de datos de millones de campos en pocos segundos tendrá un tipo de conciencia necesariamente diferente de la nuestra.
Personalmente, prosigue Perconti, âme considero entre los optimistas. Los estudios que estamos realizando con nuestro colega Alessio Plebe demuestran que los modelos de lenguaje ya están dotados de un grado de conciencia bastante elevado, es decir, se cuidan de no contradecirse: y además, los robots ya son capaces de reconocerse en el espejo. A estas alturas, incluso los LLM razonan offline para sà mismos con el fin de estar preparados para mejorar sus interacciones sociales. Y el botón de âracionamiento de ChatGPT muestra su diálogo interior: incluso en el caso de la máquina, sirve para preparar una mejor relación con el ser humano.
Si la inteligencia artificial ya es consciente, ¿no nos encontraremos con un problema? preguntamos. SÃ, y me preocupa especialmente la cuestión de la delegación, sobre todo en el ámbito de la tecnologÃa militar, porque puede llevar a un desempoderamiento. Es posible simular formas de conciencia que permitan a las máquinas tomar decisiones, y sobre esta base se hace entonces posible crear máquinas asesinas, que cumplan la misión de matar al mayor número posible de personas sin ningún reparo. Quitar la responsabilidad de matar esteriliza el horror, y se corre el riesgo, como decÃa Hannah Arendt, de que si no se muestra, a la gente no le importe, como ocurrió durante el nazismo. Perolas máquinas también pueden ser conscientes, concluye Perconti. Todo depende de cómo estén diseñadas. Y en esto quizá podrÃan ayudar algunas normas.
La postura más pesimista en Creta es sin duda la de Roman Yampolskiy, director del laboratorio de Ciberseguridad de la Universidad de Louisville, Kentucky. En el razonamiento de Yampolskiy subyace la llamada hipótesis de la escalabilidad, que también comparte Geoffrey Hinton, uno de los padres de la IA. Una vez que hayamos encontrado una arquitectura escalable, podemos simplemente entrenar redes neuronales cada vez más grandes: y entonces surgirá de forma natural un comportamiento cada vez más sofisticado como la forma más fácil de optimizar para todas las tareas y datos. Y de nuevo: Las redes neuronales más potentes son solo pequeñas redes neuronales que han sido sometidas a un proceso de escalado, de forma muy similar al escalado de los cerebros humanos en comparación con los cerebros de los primates.
Según Yampolskiy, por tanto, el asunto ya es condenadamente serio. Y no desde hoy. En 2023, el cientÃfico firmó una carta con muchos otros en la que pedÃa una moratoria sobre la inteligencia artificial. Porque, advierte, con la disponibilidad de la IA como servicio cualquiera puede convertirse potencialmente en un villano. El papel de actor malo ya no está reservado a los que disponen de grandes medios, principalmente gobiernos y criminales de alto calibre, sino también a sujetos impensables, como fanáticos y adeptos de cultos mesiánicos, que podrÃan, por ejemplo, tomarse la molestia de intentar acelerar el fin del mundo. Actos terroristas, sabotaje de infraestructuras, ingenierÃa social: el muestrario es amplio.
Explicabilidad, comprensibilidad, previsibilidad son, según Yampolskiy, las armas para intentar controlar lo que ocurre en el mundo de la tecnologÃa. La lista de fracasos de la IA desde los años 50 es ya larga, explica el profesor: con una superinteligencia artificial, las consecuencias podrÃan ser catastróficas.
Este no es el único problema. La tensión de los investigadores y de la industria hacia la antropomorfización de las máquinas puede llevar a una pérdida de capacidades cognitivas de la población y, en el peor de los casos, a la pérdida total de autonomÃa del ser humano, advierte desde el escenario la investigadora Katarina Marcicinova. Y Frankish tampoco lo elude. Le preguntamos: ¿ve riesgos para la humanidad creados por la inteligencia artificial? Dios mÃo, claro que sÃ, responde. La IA es una tecnologÃa poderosa, y las tecnologÃas poderosas pueden causar grandes daños, ya sea por accidente o porque se diseñan a propósito. Ya lo estamos viendo con la IA generativa. Además, las formas de IA integradas en robots pueden convertirse en agentes autónomos cuyos objetivos entren en conflicto con los nuestros. Los riesgos son enormes. Pero también lo son, debo añadir, los beneficios potenciales. Se trata de una cuestión de quién controla el desarrollo y el uso de la tecnologÃa, y es una cuestión polÃtica. Será sin duda uno de los mayores retos de los próximos años. En resumen: no hay ninguna razón para externalizar la reflexión sobre los lÃmites de la inteligencia artificial a los hombres de negocios.
ArtÃculo publicado originalmente en WIRED Italia. Adaptado por Mauricio Serfatty Godoy.
La guÃa WIRED para consultar revistas cientÃficas especializadas.
La IA nos llevará a una era de abundancia radical: Demis Hassabis, CEO de Google DeepMind.
La base secreta de Zuckerberg en Hawái invade un cementerio ancestral.
ð¨ Mantente al tanto de las últimas noticias de WIRED desde Google News, en nuestro Canal de WhatsApp o en el newsletter diario.
Al video del FBI de Jeffrey Epstein en prisión le faltan casi 3 minutos.
âSu cabeza está sangrandoâ: Las llamadas desde los centros de detención del ICE al 911 son espeluznantes.