¿Quién debe controlar la inteligencia artificial? El conflicto que sacude a OpenAI
Ex empleados, premios Nobel y expertos en IA exigen frenar la transformación de OpenAI en una empresa con fines de lucro
¿Puede una organización comprometida con “beneficiar a la humanidad” mantener esa misión cuando el dinero y el poder comienzan a mover los hilos? Esa es la pregunta que un grupo de ex empleados de OpenAI, junto con tres premios Nobel y reconocidos expertos en inteligencia artificial, plantean a los fiscales generales de California y Delaware.
El nacimiento altruista de OpenAI
OpenAI fue fundada en 2015 por un grupo de líderes tecnológicos entre los que se encontraba Elon Musk y Sam Altman. Su visión era clara y ambiciosa: desarrollar inteligencia artificial general (AGI) que sirviera al bien común, dejando a un lado los intereses económicos que pudieran sesgar el desarrollo de una tecnología tan poderosa.
La organización fue establecida como una entidad sin fines de lucro, una decisión centrada en priorizar la ética y la seguridad sobre las ganancias financieras. Tal estructura permitió, al menos inicialmente, apostar por la investigación cuidadosa y responsable.
Del idealismo al pragmatismo: el giro hacia las ganancias
Con el paso del tiempo, OpenAI comenzó a evolucionar. En 2019 creó una entidad “capped-profit” que permitiría inversiones externas bajo la condición de limitar los beneficios a los inversores. No obstante, esta nueva estructura provocó críticas de quienes temían que la misión original se diluyera.
Con el éxito astronómico de ChatGPT (que cuenta con más de 400 millones de usuarios semanales), y una valoración de mercado de $300.000 millones, muchos empezaron a ver señales de que la filosofía original de OpenAI estaba decayendo en pro de un enfoque eminentemente comercial.
Una carta pública: “Salven a OpenAI de sí misma”
Recientemente, diez extrabajadores de OpenAI, entre ellos Page Hedley (exasesor ético y legal), enviaron una carta a los fiscales generales de California y Delaware, pidiendo que intervengan legalmente para frenar la reestructuración de OpenAI que trasladaría definitivamente su núcleo organizacional hacia la categoría de empresa con fines de lucro.
La carta no solo fue firmada por ex empleados, sino también por figuras de talla internacional, incluyendo:
- Joseph Stiglitz, economista y premio Nobel
- Oliver Hart, experto en contratos y también Nobel de Economía
- Geoffrey Hinton, pionero de la IA y ganador del premio Turing
- Stuart Russell, científico coautor del texto clave Artificial Intelligence: A Modern Approach
“Estoy preocupado por quién va a poseer y controlar esta tecnología una vez que se cree”, enfatizó Hedley en entrevistas recientes. “El deber con la humanidad no se puede entregar a la lógica urgente del crecimiento empresarial.”
La respuesta de OpenAI: ¿una estructura híbrida viable?
La defensa de OpenAI ante estas críticas sostiene que cualquier nueva forma corporativa que adopten será en la forma de Public Benefit Corporation (o Corporación de Beneficio Público), una herramienta legal reconocida que permite a las empresas tener obligaciones tanto hacia sus accionistas como hacia el bien común.
En un comunicado, indicaron: “Esta estructura continuará asegurando que, a medida que crece la parte lucrativa, también lo haga la sin fines de lucro, logrando nuestra misión compartida.”
Esta forma híbrida es similar a la utilizada por Anthropic o xAI, otra empresa de IA liderada por Elon Musk. Sin embargo, muchos expertos no están convencidos de que los incentivos de mercado no terminen predominando inevitablemente.
¿Qué está en juego realmente?
Los trabajadores que firmaron la misiva argumentan que la seguridad y ética de la IA se ha visto comprometida en los últimos años por la parrilla competitiva de lanzamientos que implica estar primero en el mercado. “Han estado lanzando productos sin evaluaciones profundas”, indica Hedley.
Otra de las preocupaciones centrales gira en torno a la cláusula “stop-and-assist” contenida en los estatutos originales de OpenAI. Esta disposición obliga a la empresa a detenerse y colaborar si otra organización estuviera por lograr una AGI más avanzada, evitando una carrera tecnológica fuera de control.
“Si OpenAI se convierte en una empresa con fines de lucro, estas salvaguardas pueden desaparecer de la noche a la mañana”, dijo Anish Tondwalkar, ingeniero de software que trabajó hasta hace poco en la empresa.
Nisan Stiennon, otro ex trabajador, fue aún más contundente: “Puede que algún día OpenAI cree tecnología que pueda matarnos a todos. Es a su favor que haya una estructura sin fines de lucro que actúe como freno moral. Renunciar a ese control sería una traición.”
Un conflicto con raíces pasadas
Este no es un conflicto nuevo. Elon Musk abandonó el proyecto en 2018, alegando diferencias profundas sobre el rumbo que tomaba la organización. En 2023, Sam Altman fue brevemente expulsado por la junta directiva, solo para ser restituido tras una intervención masiva de empleados y accionistas.
Musk también ha demandado a OpenAI, acusando a Altman y a la empresa de haber abandonado los principios fundacionales y de haberse convertido en una subsidiaria de Microsoft, empresa que ha invertido miles de millones en OpenAI.
Por su parte, otros involucrados en el conflicto se muestran escépticos con las motivaciones de Musk, quien a su vez dirige otra firma competidora en el campo de la IA. “Esto va más allá de un resentimiento corporativo”, asegura Hedley, “se trata de evitar peligros reales.”
¿Quién debería decidir el futuro de una tecnología tan poderosa?
Las preocupaciones no son meramente filosóficas. A medida que la inteligencia artificial se acerca a capacidades que rivalizan con la inteligencia humana, decisiones en este campo afectan temas tan diversos como:
- El desempleo tecnológico masivo
- La autonomía de sistemas de defensa
- La manipulación informativa y la ciberseguridad
- La privacidad personal
- La concentración de poder en pocas manos
Geoffrey Hinton, uno de los padres fundadores del aprendizaje profundo, insiste: “Me gusta la misión de OpenAI de ‘asegurar que la AGI beneficie a toda la humanidad’. Solo espero que hagan lo necesario para cumplirla… sin depender de Elon Musk.”
Una mirada inquietante al futuro
Los dilemas alrededor de OpenAI son una microcosmos del gran debate ético-tecnológico del siglo XXI: ¿hasta qué punto podemos permitir que tecnologías con el potencial de reformular la sociedad estén regidas por las lógicas tradicionales del mercado?
En palabras de Stuart Russell: “Estamos creando algo más poderoso que nosotros mismos. Deberíamos replantear completamente el sistema de gobernanza antes de seguir adelante.”
Y en este punto, la sociedad parece estar colgada de un hilo: entre la promesa de un futuro floreciente impulsado por la IA… y los riesgos de delegar el control de esa promesa a intereses que, inevitablemente, prioricen el rendimiento financiero sobre el bienestar global.