Design market

Publicado

el

por

ChatGPT, con su actualización más reciente, ha vuelto a recordarnos que lo aparentemente trivial puede ocultar una complejidad asombrosa. Y también, que nuestros ojos no son los únicos capaces de leer el mundo. A veces una imagen, que a nosotros nos parece inofensiva, puede contener tantas pistas que, bien interpretadas, revelan no solo qué estamos viendo, sino dónde estábamos cuando lo vimos. Eso es exactamente lo que está comenzando a hacer ChatGPT, y la forma en que lo está logrando merece un análisis pausado.

La clave está en o3, el modelo más avanzado de OpenAI integrado en ChatGPT hasta la fecha. Se trata de un sistema multimodal, no limitado al lenguaje, sino capaz de integrar texto, imágenes y herramientas externas en un proceso de razonamiento unificado. Su fortaleza no reside solo en describir lo que ve, sino en deducir, inferir y razonar a partir de eso. En los últimos días, esta capacidad se ha puesto a prueba a través de un fenómeno que ha explotado en redes: el geoguessing con IA.

La mecánica es sencilla: los usuarios suben a ChatGPT imágenes sin metadatos, y el modelo intenta averiguar dónde se han tomado. Y lo que inicialmente parecía una prueba anecdótica ha terminado mostrando resultados que rozan lo inquietante. ChatGPT ha conseguido identificar países, ciudades e incluso lugares concretos basándose en detalles como el tipo de pavimento, el diseño de una farola, la tipografía de un cartel o la vegetación circundante. Sin ayuda de coordenadas ni de datos ocultos, solo con razonamiento visual.

Esto es posible gracias a la arquitectura de o3, optimizada para el análisis profundo de imágenes. No se limita a interpretar la escena, sino que la procesa en capas: puede aislar elementos, hacer “zoom mental”, rotar, y comparar lo que ve con lo que sabe sobre culturas, arquitecturas o sistemas de señalización. Es lo que OpenAI ha definido como pensar con imágenes, una aproximación que difumina la frontera entre percepción y cognición en los modelos artificiales.

Por supuesto, esto plantea preguntas importantes sobre privacidad y uso responsable. Si una foto, por inocente que parezca, puede ser usada por una IA para identificar su ubicación, ¿dónde trazamos el límite entre capacidad técnica y exposición no deseada? OpenAI asegura haber implementado medidas para limitar usos sensibles, como rechazar solicitudes relacionadas con ubicaciones privadas, pero como en tantas otras áreas de la inteligencia artificial, la cuestión no es solo técnica, sino ética.

Y mientras tanto, en paralelo, OpenAI también ha presentado o4-mini y lo ha sumado a ChatGPT. Se trata de una evolución más ligera y eficiente que comparte muchas de las capacidades de razonamiento de o3. El ritmo es vertiginoso. La inteligencia artificial no solo está aprendiendo a ver, sino a entender. Y con ello, a revelarnos cuánta información hemos estado dejando a la vista sin darnos cuenta.

 

Más información

Meta bloquea Apple Intelligence en sus apps

WhatsApp ya prueba traducción automática de mensajes

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología… pues sí, tendría las canas que tengo.

Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

Meta bloquea Apple Intelligence en sus apps

Gemini Live llega a todos los usuarios de Android

Wikipedia abre sus puertas a la IA… y frena a los bots

OpenAI trabaja en una red social con IA

Amuse 3.0: AMD y TensorStack amplían la IA generativa local

¿Para qué sirve el reinicio automático de Android anunciado por Google?

Windows 11 va lento: cómo resolverlo y cómo mejorar el rendimiento

Extensiones de archivos en Windows: qué son y cómo se manejan

GEEKOM Mini Air12 en oferta, un mini PC muy económico con un descuento del 40%

GeForce RTX 5060 Ti y GeForce RTX 5060, especificaciones finales, rendimiento y precio