¿Debe OpenAI seguir siendo una organización sin fines de lucro? Una mirada crítica a su futuro

Una comisión asesora pide mantener el modelo sin fines de lucro mientras la inteligencia artificial redefine el mundo

Una encrucijada crítica para OpenAI: ¿de laboratorio altruista a gigante corporativo?

Desde su fundación en 2015, OpenAI ha sido una de las entidades más influyentes en el desarrollo de inteligencia artificial (IA). Comenzó como un laboratorio de investigación sin fines de lucro, con una misión ambiciosa: desarrollar inteligencia artificial segura y distribuida de forma equitativa. Sin embargo, su meteórico crecimiento, impulsado especialmente por el éxito de productos como ChatGPT, la ha llevado a incorporar una estructura corporativa con fines de lucro que hoy se valora en aproximadamente 300 mil millones de dólares.

Este viraje ha generado preocupaciones legítimas entre expertos, gobiernos, inversionistas y la sociedad civil. En respuesta, una comisión asesora independiente ha publicado un informe instando a OpenAI a conservar su corazón sin fines de lucro. ¿Por qué? Porque, sostienen, la inteligencia artificial es demasiado trascendental para ser gobernada exclusivamente por el mercado.

¿Por qué importa el modelo sin fines de lucro?

Según Daniel Zingale, convocante de la comisión y exasesor de tres gobernadores de California, mantener una estructura sin fines de lucro permite crear un "sector común" que equilibre intereses privados y públicos. "Creemos que esto es demasiado importante para confiarlo a un solo sector —ni al privado ni siquiera al gubernamental", declaró.

El argumento de la comisión es claro: preservar una governanza democrática en el desarrollo de la IA. Proponen un modelo organizativo en el que la comunidad tenga voz sobre cómo la IA se construye, implementa y regula. Dolores Huerta, reconocida activista laboral, resumió el reto de la comisión así: lograr que la IA sea una bendición y no una maldición.

El cambio estructural de OpenAI: de sin fines de lucro a corporación de beneficio público

En ese contexto de tensiones, OpenAI busca transformarse en una Public Benefit Corporation (PBC), una figura híbrida en EE.UU. que debe equilibrar los intereses financieros de los inversores y su misión pública. No obstante, el detalle clave es que el modelo PBC carece de mecanismos firmes de rendición de cuentas a la población.

Además, esta transición ha generado hondas fricciones internas. En noviembre de 2023, el CEO de OpenAI, Sam Altman, fue destituido por la junta directiva sin fines de lucro, aunque reinstalado días después tras presión externa e interna. Esto desató una ola de cuestionamientos sobre la integridad institucional y el poder real de la junta sin fines de lucro.

Hoy, la organización mantiene una estructura dual: un brazo corporativo que genera ingresos y un componente sin fines de lucro que aún posee acciones, aunque OpenAI no ha revelado qué porcentaje exacto mantienen.

¿Qué propone la comisión asesora?

La comisión, que no tiene poder vinculante, ha delineado una hoja de ruta transformadora para consolidar el rol de la sociedad en el futuro de la IA:

  • Establecer un órgano sin fines de lucro con acceso y participación real de los ciudadanos.
  • Invertir masivamente en alfabetización en IA para eliminar brechas de acceso al conocimiento.
  • Canalizar recursos para proyectos de interés público (como arte, teatro y salud), que promuevan interacciones humanas significativas.
  • Crear un fondo de respuesta rápida para abordar impactos económicos inmediatos derivados de la automatización.
  • Garantizar que la IA tenga componentes de gobernanza humana, incluyendo un liderazgo explícitamente humano en el componente sin fines de lucro de OpenAI.

Además —y quizás más importantemente— el reporte afirma que una IA ética sólo es posible si es supervisada públicamente: "La medida del éxito del componente sin fines de lucro no será sólo en lo que genere, sino en quiénes incluye y cómo se mantiene fiel a su misión e impacto social".

¿Qué opina la sociedad sobre la IA que se está construyendo?

Uno de los ejercicios más reveladores de esta comisión fue su trabajo de campo. Durante recorridos por diversas comunidades en California y audiencias recogidas en línea, identificaron una disonancia clara en la ciudadanía: comprensión de la importancia de la IA, pero desconocimiento absoluto sobre su desarrollo y gobernanza.

Zingale lo resumió así: "Saben que algo enorme está ocurriendo en esta 'Era de la Inteligencia', pero quieren saber qué es, cómo se desarrolla, y quién toma las decisiones importantes".

El dilema del poder tecnológico: de Musk a los fiscales generales

Este debate no ocurre en el vacío. La reestructuración ha activado múltiples voces críticas, incluyendo demandas legales, como la presentada por Elon Musk, uno de los fundadores y primeros financiadores de OpenAI. También ha despertado el interés de los fiscales generales de California y Delaware, responsables legales de supervisar organizaciones sin fines de lucro.

Estas tensiones reflejan preocupaciones más amplias: ¿Puede una organización manejar responsables con fines de lucro y sin fines de lucro sin conflictos de interés? ¿Cómo asegurar el interés público en una tecnología tan potente?

Capital, misión y transparencia: ¿pueden coexistir?

En 2023, la parte sin fines de lucro de OpenAI reportó 23 millones de dólares en activos. En contraste, su brazo de capital riesgo opera sobre cientos de miles de millones en inversión. Esta desproporción es crítica: sin recursos suficientes, los ideales de responsabilidad social y ética pueden quedar en segundo plano.

Por eso, la comisión llamó a OpenAI a asignar recursos sustanciales a su componente sin fines de lucro. Esto no solo permitiría su estabilidad operativa, sino que también aseguraría que pueda cumplir su misión de beneficiar a la humanidad.

¿IA gobernada por el pueblo?: utopía o necesidad

Aunque la comisión evitó coordinar directamente con Altman —para salvaguardar su neutralidad institucional—, sí se reunió con ingenieros, quienes según Zingale, mostraron disposición humilde ante la idea de una IA con legitimidad democrática.

Este último punto es crucial: la comisión argumenta que una inteligencia artificial democrática y justa no puede surgir sin participación ciudadana efectiva. No se trata solo de consultar a expertos, sino de integrar a colectivos históricamente marginados, comunidades locales e incluso artistas en la toma de decisiones clave.

Las grandes preguntas de nuestro tiempo

La encrucijada de OpenAI no es una excepción, sino una demostración de una tensión global: ¿puede la revolución tecnológica actual responder realmente al bien común o terminará acumulando más poder en pocas manos?

Las decisiones tomadas por OpenAI y su ecosistema tendrán implicancias profundamente éticas, económicas y políticas. Dejar que el curso lo marque únicamente el mercado podría llevarnos a repetir errores anteriores, en los que la tecnología se usó para consolidar desigualdades, no para disolverlas.

Como escribió recientemente la académica Shoshana Zuboff: "La tecnología sin democracia es autoritarismo digital".

¿Está la humanidad lista para participar activamente en diseñar su propio futuro digital? Si OpenAI realmente quiere ir más allá de su slogan de "beneficiar a la humanidad", entonces la batalla por su estructura organizativa no es una cuestión administrativa, sino un paso frente a nuestros principios más esenciales.

Este artículo fue redactado con información de Associated Press