¿Por qué cada vez más especialistas se han vuelto tan rotundos a la hora de la hablar de la inteligencia artificial? ¿Hasta qué punto puede ser una amenaza?
Telegram
Copiar url
Enlace copiado
El miedo a perder el control frente a las máquinas no es nuevo. Ni tampoco exclusivo del cine y la ciencia ficción. El propio Alan Turing ya jugaba con esta idea a principios de los 50. Lo expresó bastante claro, en realidad: En algún momento deberíamos esperar que las máquinas tomen el control, fue lo que dijo. El investigador Simon Goldstein, experto moderno en IA, está de acuerdo.
El problema es que ahora la inteligencia artificial lo ha acelerado todo. Sobre todo a la hora de meter el miedo en el cuerpo a la gente. ¿Cómo de peligrosa es realmente esta tecnología? Probablemente, nadie lo sepa. Pero sí es significativo que los mensajes que hablan de extinción de la humanidad o cosas por el estilo se hayan multiplicado. Y en muy poco tiempo, además.
Es indudable que cuando lo extraordinario se convierte en cotidiano, deja de ser extraordinario. Pero eso no quita para que llame la atención la creciente psicosis que empieza a surgir alrededor de la inteligencia artificial. Raro es el día en el que un nuevo investigador o experto no se sube al carro de anunciar que hay un peligro para la humanidad. Se habla mucho de extinción.
¿Es por afán de notoriedad de algunos expertos? ¿Son los propios medios quienes lo buscan, exagerando el nivel de alarma? O lo que sería preocupante: ¿realmente existe esa posibilidad, y es tan probable como el propio Simon Goldstein advierte? Puede que este especialista no sea tan mediático como Sam Altman o Geoffrey Hinton, pero es un buen conocedor de la materia de la Universidad de Hong Kong.
Para él, la inteligencia artificial está al mismo nivel que otras amenazas mundiales. En unas recientes declaraciones se ha mostrado cuanto menos rotundo. Reducir el riesgo de extinción causado por la IA tendría que convertirse en una prioridad global, al igual que otros riesgos a una misma escala, como pueden ser las pandemias y las guerras nucleares.
Goldstein también está de acuerdo con la idea de que un conflicto entre los seres humanos y las máquinas (la IA, para ser más precisos), será poco menos que inevitable. En especial si no se toman medidas como, para empezar, “nacionalizar OpenAI y distribuir sus ganancias”. Por ejemplo, con una renta básica universal, como ya han propuesto gente como Elon Musk.
Hay que tener en cuenta que, como ponen de manifiesto diferentes estudios, entre el 38% y el 51% de investigadores destacados en IA consideran seriamente que una inteligencia artificial general podría llevar a consecuencias semejantes a la extinción humana. No es un caso exclusivo de expertos como Simon Goldstein, sino que cada vez más gente lo cree así.
Si realmente esa amenaza existe, ¿cómo es posible que cada vez más compañías apuesten por esta tecnología, llamada a manejar el futuro? Para muchos, la respuesta está clara, y no puede decirse que sea demasiado original. Solo hace falta seguir el rastro del de siempre. El dinero, claro.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial