El que actualmente es el CEO de Google no se anda con ningún rodeo al lanzar al mundo una dura advertencia sobre la IA que seguro que pone los pelos de punta a más de uno.
Generada con IA / Computer Hoy
Telegram
Copiar url
Enlace copiado
En una reciente entrevista con Lex Fridman, conocido divulgador tecnológico, Sundar Pichai dejó claro que este boom y exponencial avance que la inteligencia artificial está viviendo es tan rápido y potente que hay que tomárselo en serio.
Lo curioso es que Pichai suele ser más comedido que otros grandes del sector como Elon Musk o Sam Altman, pero esta vez no se ha querido cortar un pelo. Reconoce que la tecnología avanza tan rápido que da un poco de miedo, y que mucha gente está nerviosa por si la IA les quita el trabajo o no saben cómo adaptarse a esta nueva realidad, pero parece que hay cosas peores que esta tecnología podría hacer.
Cuando le preguntaron si esta podría destruirnos, no dudó: El riesgo es alto. Se refería a ese miedo que muchos llaman p doom, la posibilidad de que una inteligencia artificial súper avanzada se descontrole y cause un desastre.
Pero, por supuesto, la visión de este CEO es algo más positiva que la del resto y en la entrevista hubo bastante espacio para dejar alguna que otra gota de optimismo en el aire. Sin ir más lejos, Pichai cree que la IA tiene un potencial enorme para hacer el bien en el mundo. Según él, esta tecnología puede liberar la creatividad de millones de personas y ayudar a poner fin a problemas que antes parecían imposibles.
En pocas palabras, considera esta tecnología como una herramienta que puede empoderar a miles de millones de una forma positiva, siempre teniendo muy presentes la responsabilidad y ética.
Uno de los temas más interesantes que se trataron durante la charla fue el de cuándo tendremos una IA que pueda pensar y hacer todo lo que hace un humano, la llamada inteligencia artificial general o simplemente AGI. Pichai es claro y aunque el tema de las fechas suele ser bastante osado y más marketiniano que otra cosa, cree que podría llegar hacia 2030, aunque nadie sabe con certeza.
Lo que sí está 100% claro es que la IA ya está creciendo a pasos agigantados. Por ejemplo, el uso de modelos como Gemini se ha multiplicado por 50 en un año, y eso que aquí no se menciona el uso diario de herramientas realmente virales como ChatGPT. Pese a esto, muestra que la gente quiere y usa estas herramientas, y que la tecnología está justamente dando a las personas lo que necesitan.
Siguiendo con este toque tan peliagudo en lo que IA se refiere, un informe llamado AI 2027, elaborado por expertos que han trabajado en grandes compañías de IA, explica que dentro de uno o dos años el mundo podría tener sistemas tan avanzados que la supervisión humana será casi imposible.
Y esto no es porque no se quiera controlar esas máquinas, sino porque serán demasiado complicadas y rápidas para nosotros.
Que esto pueda suceder en cuestión de dos años tiene un cierto sentido geopolítico. En la actualidad, la competencia por el liderazgo en el desarrollo de la inteligencia artificial entre China y Estados Unidos está que arde.
Existe una preocupación generalizada de que cualquier desaceleración en el desarrollo de la IA por motivos de seguridad podría dar una ventaja estratégica al adversario, comenta Matt Sheehan, miembro del Carnegie Endowment for International Peace. Añade que esta desconfianza mutua está destinada a arraigarse aún más con el tiempo.
Esto no es solo una cuestión de orgullo nacional; se trata de poder económico, militar y geopolítico. El problema es que todo esto tiene sus peligros. Expertos en IA han advertido que se podría perder el control sobre estas tecnologías si no se es cuidadoso. Un mal uso de la IA podría tener consecuencias graves para la salud humana y la sociedad en general.
En una carrera así, nadie quiere frenar primero y perder la ventaja estratégica y claro, este ritmo podría llevar a una situación donde la IA no solo transforme la economía y el trabajo, sino también la política y la seguridad a nivel mundial, con decisiones tomadas por máquinas que ni siquiera los humanos entienden.
En pocas palabras, ahora la prioridad es ganar y no tanto la seguridad, algo que el informe antes comentado deja bien claro que es un error.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Software