Design market

La creciente amenaza del espionaje chino no habría pasado desapercibida ante los ojos de Sam Altman y OpenAI. Según reporta Financial Times, la empresa ha reforzado la seguridad de sus oficinas y centros de datos, y también ha comenzado a restringir el acceso a sus tecnologías más sensibles, con el fin de impedir el robo de información secreta. La compañía buscaría evitar nuevos episodios como el de DeepSeek a comienzos de este año.

El citado medio indica que en el último tiempo OpenAI ha comenzado a tomar medidas más agresivas vinculadas con la seguridad. Entre ellas, la contratación de más personal y la implementación de más lineamientos y prácticas que se vinculan con dicha área. Esto no solo abarca la fortificación de las instalaciones, sino también la adopción de más capas de protección en el ámbito de la ciberseguridad.

En lo que concierne a las medidas de seguridad edilicias, se indica que OpenAI ha incrementado los controles de seguridad en sus centros de datos. Mientras que en sus oficinas de San Francisco se han implementado lectores de huellas dactilares en los ingresos, bloqueando el acceso a ciertos sectores a las personas que no cuentan con autorización para ello.

Por otra parte, los de Sam Altman han reforzado las medidas de protección para sus algoritmos y otras tecnologías propietarias y confidenciales. Ahora las mantiene en entornos aislados, en sistemas desconectados de la red y de otros servidores, y con una estricta política que les impide conectarse a internet a menos que se otorgue una aprobación explícita.

Pero las nuevas medidas de seguridad reforzadas de OpenAI para combatir el espionaje chino van más allá. La compañía también ha comenzado a segmentar el acceso de sus empleados a los desarrollos más sensibles. De modo que solo los involucrados en un proyecto específico pueden acceder a este y conocer sus detalles a fondo.

Según FT, los de Sam Altman incluso han instruido a sus empleados a no conversar sobre aspectos sensibles de su trabajo con sus compañeros de oficina, a no ser que tengan la absoluta certeza de que estos también cuentan con acceso a la misma información.

A esto se le suma que OpenAI habría endurecido su proceso de contratación de nuevos empleados. La compañía ahora sería más estricta a la hora de rechazar a los potenciales candidatos a incorporarse a su staff, por el creciente temor a la infiltración de agentes encubiertos que puedan robar secretos y filtrarlos a empresas o países adversarios.

La gran pregunta es por qué los creadores de ChatGPT se han empezado a preocupar más en la seguridad en los últimos tiempos. Y la respuesta parece ser solo una: el ascenso de DeepSeek que hizo tambalear a la industria a comienzos de 2025.

Recordemos que la IA china acaparó los titulares bajo la premisa de que era posible crear modelos de lenguaje extremadamente capaces, pero a una fracción del precio de los de OpenAI o con un hardware mucho menos potente que el de NVIDIA. Sin embargo, desde la Casa Blanca dijeron que existía evidencia de que DeepSeek supuestamente había accedido a tecnología de la firma californiana sin autorización.

Hay evidencia sustancial de que lo que DeepSeek hizo aquí fue extraer el conocimiento de los modelos de OpenAI. Y creo que una de las cosas que verán en los próximos meses es que nuestras principales empresas de IA tomarán medidas para intentar evitar la extracción, lo que definitivamente ralentizaría algunos de estos modelos imitadores, aseveró David Sacks, portavoz del gobierno de Trump en materia de IA y criptomonedas.

La extracción de conocimientos de un modelo para transferirlos a otro se llama destilación y viola los términos de uso de las API de OpenAI. La startup y Microsoft analizaron cuentas de desarrolladores vinculadas con DeepSeek y hallaron rastros de este tipo de prácticas. Por dicho motivo, las suspendieron y bloquearon el acceso a su tecnología. Poco después, los de Sam Altman enviaron una propuesta al gobierno de EE. UU. para prohibir DeepSeek y otras IA desarrolladas en China con presunto apoyo del Partido Comunista Chino.