Design market

Los especialistas en ocasiones no coinciden en dónde están los riesgos de herramientas como ChatGPT, pero sí tienen claro que el peligro es auténtico. 

Facebook

Whatsapp

Twitter

Linkedin

Telegram

Copiar url

Enlace copiado

La idea no es ni mucho menos nueva, sino que ya se veía en películas y libros de ciencia ficción. Imagina una IA descontrolada que toma conciencia de sí misma, como en Terminator o Matrix, y decide acabar con la humanidad. ¿Puede algo así suceder realmente? Cada vez hay más expertos que responden que sí, que la extinción es una realidad que hay que contemplar. 

Sin embargo, no todos los especialistas que hablan de los peligros de la inteligencia artificial piensan lo mismo. Algunos están de acuerdo en que la IA es un peligro, y que incluso puede ponerlo en riesgo todo, como se dice. Pero no exactamente por las mismas razones; por ejemplo la evolución de la tecnología o algo así. Sus razones son mucho más humanas, por así decirlo. 

Gente tan reputada como Geoffrey Hinton no ha tenido inconveniente en decir que la IA podría destruir a la humanidad. Es más, que es muy probable que algo así suceda si no se controla esta tecnología. Algunos, incluso han ido más allá y se han atrevido a dar fecha a la catástrofe. Todos coinciden en que hacer algo tan inteligente no sería una buena idea para nadie. 

La visión de Eric Oliver, experto en la materia del The Washington Post, es sin embargo bastante diferente. En su opinión, estas predicciones carecen de fundamentos lógicos. No piensa que cuando se dice que hay tal o cual porcentaje de posibilidades de que la IA extinga a la humanidad se sostengan en nada. ¿Quiere decir esto que la IA no pueda destruir a la humanidad? 

En realidad, la amenaza sí es auténtica. Pero, según su criterio, por otra razón: la propia mano del hombre. Para empezar, dice que convendría dejar claro qué se entiende por inteligencia. La inteligencia no consiste solamente en manejar datos, como hace la inteligencia artificial, sino que surgió para poner orden en el caos, algo que ChatGPT y demás herramientas no hacen. 

Dicho de otra forma: los modelos de IA que la gente llama inteligentes, funcionan con datos que proporcionan los propios seres humanos. De esta forma, Oliver llega a una conclusión lógica: la IA es una extensión del pensamiento y de las intenciones de los seres humanos. En ningún caso pueden entenderse por entidades independientes, como algunos sí consideran en gran medida. 

La auténtica amenaza de la IA, por lo tanto, está para Eric Oliver en las decisiones humanas. Los discursos de odio, el malware que se cree o, sobre todo, el uso de los sistemas críticos son una amenaza (las redes, el ejército). Pero lo son por lo que los seres humanos pueden pedirle a la inteligencia artificial que haga, no por una voluntad propia como tal. 

Para ello, el experto propone todo lo que pueda considerarse delicado. Es decir, que recomienda proteger a la inteligencia artificial de los humanos, y no justamente lo contrario, proteger a los seres humanos de la IA. Aquí el orden de los factores sí altera el producto, aunque el riesgo, eso sí, sigue existiendo. 

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial