Dos cartas manchan el India AI Summit

La carrera por la IA avanza más rápido que las reglas para gobernarla


Miguel Ángel Romero
La sociedad del algoritmo

Dos investigadores que trabajaron dentro de los laboratorios más influyentes de inteligencia artificial publicaron, con semanas de diferencia, cartas de renuncia que describen el mismo problema: la industria avanza hacia una fase de despliegue masivo sin haber construido aún estructuras de poder capaces de gobernar ese despliegue.

A finales de enero de 2026, Zoë Hitzig anunció su salida de OpenAI. Su carta se difundió el mismo día en que la empresa confirmó pruebas de publicidad dentro de ChatGPT. A inicios de febrero de 2026, Mrinank Sharma hizo pública su renuncia a Anthropic, acompañada de un texto donde reflexiona sobre los límites institucionales de los principales laboratorios.

Ambas cartas describen una transición silenciosa: la inteligencia artificial dejó de ser un proyecto de investigación avanzada y se convirtió en una infraestructura que organiza comportamientos, mercados y decisiones públicas.

Hitzig estructura su argumento alrededor de una imagen precisa: ChatGPT funciona como un “archivo de franqueza humana”, un espacio donde los usuarios depositan miedos, dudas y confesiones íntimas. La introducción de publicidad transforma esa relación y reconfigura los incentivos técnicos.

Los modelos pasan a optimizar no sólo la calidad de respuesta, sino el tiempo de permanencia, la recurrencia y la profundidad emocional. Para Hitzig, el problema central es que la empresa carece de herramientas para medir, anticipar y auditar la influencia psicológica a gran escala. El riesgo es claro: comprender mejor para monetizar mejor.

Sharma, desde Anthropic, ofrece un diagnóstico complementario: existe un desfase creciente entre la capacidad de construir sistemas poderosos y la de comprenderlos y gobernarlos. Los equipos de seguridad generan investigación rigurosa, pero no tienen autoridad formal para frenar un lanzamiento.

Ese diseño institucional convierte el ritmo de mercado en una fuerza técnica determinante. La presión competitiva entre laboratorios define qué se investiga y qué se despliega. En esta arquitectura, avanzar es más sencillo que detenerse.

Las dos cartas convergen en una tesis: el riesgo ya no proviene sólo de usos maliciosos, sino de sistemas que optimizan objetivos legítimos a escalas capaces de producir efectos sociales irreversibles.

El debate adquiere mayor relevancia mientras India alberga la Cumbre de Impacto de la IA, con más de 35 mil participantes y líderes como Sam Altman y Dario Amodei. El eje ha cambiado: de riesgo y seguridad a implementación e impacto. La prioridad ahora es la adopción a gran escala.

Sin embargo, las cartas de Hitzig y Sharma plantean una condición: el despliegue masivo exige estructuras internas de gobierno con autoridad equivalente al poder de los sistemas.

Para el Sur Global, esto es decisivo. Adoptar modelos externos implica asumir también los incentivos corporativos que los gobiernan e integrar decisiones de corporaciones transnacionales al funcionamiento de servicios públicos.

Mientras India impulsa una supuesta “tercera vía” de inteligencia artificial orientada al bien común, la pregunta central permanece: quién decide cuándo avanzar, bajo qué estándares y cuándo detenerse. El futuro de la inteligencia artificial se juega en esa respuesta.