El escenario que cambió las reglas del juego
Nueva Delhi no es Silicon Valley ni Bruselas. Esa fue, precisamente, la señal más poderosa que envió la cuarta Cumbre sobre el Impacto de la Inteligencia Artificial celebrada entre el 16 y el 20 de febrero de 2026. Por primera vez en la historia de estas cumbres anuales, el epicentro del debate global sobre IA se trasladó a un país en desarrollo. India —la nación más poblada del planeta, una potencia tecnológica emergente y hogar de más de 250 millones de jóvenes con vocación digital— subió al escenario mundial para decir: nosotros también estamos aquí, y tenemos mucho que decir.
El evento reunió a una veintena de jefes de Estado, al menos 60 delegaciones ministeriales, y a los CEOs más influyentes del sector tecnológico global: Sam Altman de OpenAI, Sundar Pichai de Google, Dario Amodei de Anthropic, representantes de Microsoft, Nvidia, Meta y decenas de compañías más. Más de 250.000 personas pasaron por los espacios del evento a lo largo de la semana. No fue solo una conferencia. Fue un acontecimiento histórico.
Los prolegómenos: un mundo dividido antes de sentarse a la mesa
Para entender la cumbre hay que entender la turbulencia geopolítica que la precedía.
Las tres ediciones anteriores —en Reino Unido (2023), Corea del Sur (2024) y Francia (2025)— habían producido declaraciones cargadas de buenas intenciones pero escasas de compromisos concretos. El patrón ya era conocido: palabras grandilocuentes, pocas acciones vinculantes.
Pero en 2026, las tensiones se habían agudizado. La administración Trump había dejado claro desde sus primeras semanas que no toleraría ningún tipo de gobernanza supranacional sobre la IA. En la cumbre parisina del año anterior, el vicepresidente JD Vance ya había advertido que una “regulación excesiva podría matar un sector transformador justo cuando está despegando”. El mensaje era inequívoco: Estados Unidos no negociaría su liderazgo tecnológico bajo ningún marco multilateral que pudiera restringirlo.
China, por su parte, llegaba con su propia agenda. Desde su Iniciativa Global sobre Gobernanza de la IA propuesta en 2023, Beijing venía sosteniendo que los estándares tecnológicos no podían ser definidos unilateralmente por Occidente. Para el gobierno chino, la soberanía digital es un principio irrenunciable: cada nación tiene derecho a regular la IA conforme a sus propias condiciones sociales y culturales.
India, mientras tanto, aspiraba a algo más concreto. El gobierno de Narendra Modi esperaba atraer más de 200.000 millones de dólares en inversiones tecnológicas en los próximos dos años. La cumbre era su gran escaparate.
Lo que ocurrió: cuatro días que sacudieron el debate global
La provocación de Washington
El viernes 20 de febrero, antes incluso del cierre oficial, el asesor tecnológico de la Casa Blanca, Michael Kratsios, lanzó la frase que resonaría en todas las salas: “Como la Administración Trump ha dicho en muchas ocasiones: rechazamos totalmente la gobernanza global de la IA”. No fue un susurro diplomático. Fue una declaración de guerra institucional contra cualquier intento de regular colectivamente la tecnología más transformadora del siglo.
La paradoja fue que, horas después, ese mismo Estados Unidos terminaría firmando la declaración final junto a China, Rusia y otros 86 países.
La voz de la ONU: control humano como imperativo
Horas antes de la declaración estadounidense, el secretario general de Naciones Unidas, António Guterres, confirmó la creación de una comisión científica con un objetivo preciso: “convertir el control humano sobre la IA en una realidad técnica”. También lanzó un mensaje que sintetizaba el espíritu del encuentro: “Nos estamos adentrando en lo desconocido. Menos exageración, menos miedo. Más acción.”
Simultáneamente, el CEO de OpenAI, Sam Altman, planteó algo sin precedentes: la creación de un organismo regulador de la IA similar al Organismo Internacional de Energía Atómica. La propuesta generó tanto entusiasmo como escepticismo, pero su sola formulación marcó un hito: el principal emprendedor de la IA global estaba pidiendo regulación internacional de su propio sector.
El CEO de DeepMind y la cuenta regresiva
Demis Hassabis, director ejecutivo de Google DeepMind, pronunció quizás la frase más perturbadora del evento: una IA capaz de razonar de manera similar al ser humano podría existir en un plazo de 5 a 8 años. No lo dijo un activista ni un político. Lo dijo uno de los científicos más respetados del campo. Esa sola declaración cambió el tono de todos los debates que siguieron.
India como anfitrión y jugador
El primer ministro Modi no fue un mero maestro de ceremonias. India presentó un Informe de Políticas y un Kit de Herramientas para Desarrolladores en tecnologías de voz multilingüe, reconociendo que en un país con decenas de idiomas activos, la IA tiene una responsabilidad específica de inclusión lingüística. Anthropic anunció la apertura de su primera oficina en India, en Bengaluru, asociándose con Infosys. AMD y Tata Consultancy Services sellaron una colaboración para infraestructura de IA a gran escala. El fondo de capital de riesgo indio destinado a IA alcanzó los 1.100 millones de dólares.
La Declaración de Nueva Delhi: ¿consenso o espejismo?
La declaración final fue suscrita por 89 países y organizaciones internacionales. Su frase central: “Promover una IA segura, fiable y sólida es clave para construir confianza y maximizar los beneficios económicos y sociales”.
Los tres ejes del documento reflejan la visión del anfitrión indio:
- Diversidad e inclusión: la IA debe representar a toda la humanidad, no solo a quienes tienen acceso a infraestructura de punta.
- Sostenibilidad ambiental: los centros de datos de IA consumen cantidades masivas de energía. El documento llama a desarrollar sistemas eficientes y responsables.
- Distribución equitativa de beneficios: “La promesa de la IA se cumple de la mejor manera solo cuando sus beneficios se comparten con la humanidad.”
Sin embargo, hay que ser francos: el comunicado no incluye ningún compromiso vinculante. Todo son iniciativas voluntarias. Los analistas que cubrieron el evento fueron categóricos: después de cuatro cumbres, el patrón de las “buenas intenciones sin consecuencias” persiste.
Las fracturas que nadie pudo ocultar
Detrás del consenso aparente, la cumbre expuso tres grandes fracturas que definirán la gobernanza de la IA en los próximos años:
1. El choque regulatorio Norte-Sur: Estados Unidos defiende la libertad de mercado e innovación sin restricciones. Europa empuja marcos regulatorios estrictos. El Sur Global —India, Brasil, los países africanos presentes— exige que la discusión incluya soberanía tecnológica y acceso equitativo al hardware.
2. La carrera por los estándares globales: Quien defina los estándares técnicos de la IA definirá el poder blando del siglo XXI. Estados Unidos, China y Europa están en una competencia abierta por ese liderazgo normativo.
3. El empleo como bomba de tiempo: Vinod Khosla, fundador de Khosla Ventures, no fue sutil: los servicios de TI y BPO podrían “desaparecer casi por completo” en cinco años. 250 millones de jóvenes indios deberían reorientar sus carreras hacia la creación y venta de productos basados en IA. El mensaje fue claro y brutal para economías que dependen de estos sectores.
El futuro de la IA: cinco tendencias que ya son inevitables
A partir de lo debatido en Nueva Delhi, y con la perspectiva de quien sigue de cerca el avance tecnológico, estas son las tendencias que marcarán los próximos años:
1. La IA con razonamiento humano es una cuestión de tiempo
La declaración de Hassabis no fue retórica. Los modelos de razonamiento avanzado están evolucionando a una velocidad que supera las predicciones de hace apenas dos años. Modelos como los actuales ya resuelven problemas complejos de matemáticas, código y ciencia. La transición hacia sistemas con razonamiento general no es ciencia ficción: es ingeniería en curso.
2. La energía será el cuello de botella
Los centros de datos que alimentan la IA ya consumen más electricidad que muchos países medianos. Sin una revolución en eficiencia energética o sin una apuesta masiva por energías renovables dedicadas, el crecimiento de la IA chocará contra sus propios límites físicos. Las declaraciones de Nueva Delhi reconocen esto, pero sin compromisos de acción.
3. La fragmentación regulatoria será la norma
Con Estados Unidos apostando por la desregulación, Europa por el control estricto y el Sur Global por la soberanía digital, no habrá un único marco global de gobernanza de la IA. Habrá un mosaico regulatorio que las empresas deberán navegar mercado por mercado. Esto beneficiará a los gigantes con capacidad de adaptarse y perjudicará a los pequeños actores.
4. El Sur Global emergerá como nuevo epicentro
India no fue sede de esta cumbre por casualidad. Con el mayor mercado mundial de usuarios jóvenes de tecnología, capacidad productiva en software y una voluntad política explícita de convertirse en potencia de IA, el subcontinente indio tiene todos los ingredientes para ser el próximo campo de batalla tecnológico. Brasil, Nigeria, Indonesia y México están en la misma trayectoria.
5. La regulación llegará, tarde o temprano
La propuesta de Sam Altman de un organismo tipo OIEA para la IA puede sonar utópica hoy. Pero también sonaba utópica la regulación de la energía nuclear en los años 50, antes de que ocurriera lo inevitable. El nivel de preocupación expresado en Nueva Delhi —no solo por activistas, sino por los propios CEOs del sector— sugiere que la autorregulación voluntaria tiene un horizonte de vida limitado.
Conclusión: Nueva Delhi marcó el comienzo de una nueva era, no su resolución
La Cumbre de Nueva Delhi no resolvió nada. Pero esa, quizás, era una expectativa equivocada. Lo que sí hizo fue dejar en evidencia que el debate sobre la gobernanza de la IA ya no es una conversación técnica entre expertos: es una cuestión de poder geopolítico, justicia social y supervivencia económica para cientos de millones de personas.
El mundo llegó a la capital india con posiciones encontradas y se fue con una declaración de consenso mínimo. Lo significativo no es la declaración: es que, por primera vez, el Sur Global reclamó un asiento en la mesa donde se decide el futuro tecnológico de la humanidad.
La próxima cita será en Ginebra, en 2027. Para entonces, la IA habrá avanzado más que en los cinco años anteriores. Y la pregunta que quedó flotando en los pasillos de Nueva Delhi seguirá sin respuesta: ¿lograremos que los humanos mantengan el control sobre lo que estamos construyendo, o lo construido ya nos superó sin que nos diéramos cuenta?
La próxima Cumbre sobre el Impacto de la IA se celebrará en Ginebra en 2027.
