La más reciente carátula de The Economist lanza una pregunta provocadora: ¿puede el futuro de la inteligencia artificial quedar en manos de cinco personas? Sam Altman (OpenAI), Elon Musk (xAI), Mark Zuckerberg (Meta), Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic) concentran hoy una influencia que, hace apenas una década, habría parecido imposible.

El punto de inflexión lo marcó el lanzamiento de Claude Mythos por parte de Anthropic. No es simplemente un modelo más avanzado: es una herramienta capaz de identificar vulnerabilidades críticas en sistemas informáticos con una eficacia sin precedentes. En manos equivocadas, podría poner en riesgo infraestructura esencial como bancos u hospitales. No es casualidad que su propio creador haya decidido restringir su acceso a un grupo limitado de empresas.

Ese episodio encendió alarmas en Washington, que hasta ahora había dejado competir libremente a las empresas para ganar la carrera tecnológica frente a China. El problema ya no es solo quién gana, sino qué tan peligroso puede ser el camino.

El riesgo es múltiple. En el plano de la seguridad, estos sistemas pueden facilitar ciberataques a gran escala. En el plano económico, crece el temor de una disrupción acelerada del empleo. Y en el plano político, emerge un factor aún más delicado: la concentración de poder. Si unas pocas compañías deciden quién accede a los modelos más avanzados, podrían configurar una economía donde unos pocos tienen ventajas estructurales frente al resto.

La historia ofrece paralelos. Figuras como Rockefeller o Ford también concentraron poder en su momento, hasta que los gobiernos intervinieron. Pero la inteligencia artificial plantea un desafío distinto: su velocidad de evolución es exponencial y sus fronteras son globales. Regular demasiado puede frenar la innovación y ceder terreno a China; regular poco puede dejar expuestas a las sociedades a riesgos inéditos.

En Estados Unidos, la opinión pública empieza a volverse más escéptica frente a la inteligencia artificial, y el tema se perfila como un eje político central hacia 2028. Incluso los propios líderes del sector reconocen que han liberado una tecnología cuyo impacto apenas comenzamos a dimensionar.

Sin embargo, hay una oportunidad. La historia también muestra que las sociedades han sabido adaptarse, crear instituciones y establecer reglas cuando las tecnologías lo han exigido. Si se logra un equilibrio entre innovación, competencia y regulación inteligente, esta misma concentración inicial podría dar paso a un ecosistema más abierto, seguro y dinámico. Porque el desafío no es detener la inteligencia artificial, sino gobernarla bien. Y en eso, todavía estamos a tiempo.