El esfuerzo legal de Elon Musk para desmantelar OpenAI puede depender de cómo su subsidiaria con fines de lucro mejora o perjudica la misión fundacional del laboratorio de frontera de asegurar que la humanidad se beneficie de la inteligencia general artificial. El jueves, un tribunal federal en Oakland, California, escuchó a una ex empleada y miembro de la junta decir que los esfuerzos de la compañía para impulsar productos de IA en el mercado comprometieron su compromiso con la seguridad de la IA. Rosie Campbell se unió al equipo de preparación de AGI de la compañía en 2021, y dejó OpenAI en 2024 después de que su equipo fuera disuelto. Otro equipo enfocado en la seguridad, el equipo de Super Alineación, fue cerrado en el mismo período. “Cuando me uní, estaba muy enfocado en la investigación y era común que la gente hablara sobre AGI y problemas de seguridad”, testificó. “Con el tiempo, se convirtió más en una organización enfocada en productos.” Bajo el contrainterrogatorio, Campbell reconoció que probablemente era necesario un financiamiento significativo para el objetivo del laboratorio de construir AGI, pero dijo que crear un modelo de computadora superinteligente sin las medidas de seguridad adecuadas no encajaría con la misión de la organización a la que originalmente se unió. Campbell señaló un incidente en el que Microsoft desplegó una versión del modelo GPT-4 de la compañía en India a través de su motor de búsqueda Bing antes de que el modelo fuera evaluado por la Junta de Seguridad de Despliegue (DSB) de la compañía. El modelo en sí no presentaba un gran riesgo, dijo, pero la compañía necesitaba “establecer precedentes sólidos a medida que la tecnología se vuelve más poderosa. Queremos tener buenos procesos de seguridad en su lugar que sepamos que se siguen de manera confiable.” Los abogados de OpenAI también hicieron que Campbell admitiera que, en su “opinión especulativa”, el enfoque de seguridad de OpenAI es superior al de xAI, la compañía de IA que Musk fundó y que fue adquirida por SpaceX a principios de este año. OpenAI publica evaluaciones de sus modelos y comparte un marco de seguridad públicamente, pero la compañía se negó a comentar sobre su enfoque actual para la alineación de AGI. Dylan Scandinaro, su actual jefe de preparación, fue contratado de Anthropic en febrero. Altman dijo que la contratación le permitiría “dormir mejor esta noche.” Sin embargo, el despliegue de GPT-4 en India fue una de las señales de alerta que llevaron a la junta sin fines de lucro de OpenAI a despedir brevemente al CEO Sam Altman en 2023. Ese incidente ocurrió después de que empleados, incluido el entonces científico jefe Ilya Sutskever y la entonces CTO Mira Murati, se quejaran del estilo de gestión averso al conflicto de Altman. Tasha McCauley, miembro de la junta en ese momento, testificó sobre las preocupaciones de que Altman no era lo suficientemente franco con la junta para que su estructura inusual funcionara. McCauley también discutió un patrón ampliamente reportado de Altman engañando a la junta. Notablemente, Altman mintió a otro miembro de la junta sobre la intención de McCauley de remover a Helen Toner, un tercer miembro de la junta que publicó un documento técnico que incluía algunas críticas implícitas a la política de seguridad de OpenAI. Altman también no informó a la junta sobre la decisión de lanzar ChatGPT públicamente, y los miembros estaban preocupados por su falta de divulgación de posibles conflictos de interés. “Somos una junta sin fines de lucro y nuestro mandato era poder supervisar la organización con fines de lucro debajo de nosotros”, dijo McCauley al tribunal. “Nuestra forma principal de hacer eso estaba siendo cuestionada. No teníamos un alto grado de confianza en absoluto para confiar en que la información que se nos transmitía nos permitía tomar decisiones de manera informada.” Sin embargo, la decisión de expulsar a Altman se produjo al mismo tiempo que una oferta de compra para los empleados de la compañía. McCauley dijo que cuando el personal de OpenAI comenzó a ponerse del lado de Altman y Microsoft trabajó para restaurar el status quo, la junta finalmente dio marcha atrás, con los miembros opuestos a Altman renunciando. El aparente fracaso de la junta sin fines de lucro para influir en la organización con fines de lucro va directamente al caso de Musk de que la transformación de OpenAI de una organización de investigación a una de las compañías privadas más grandes del mundo rompió el acuerdo implícito de los fundadores de la organización. David Schizer, ex decano de la Facultad de Derecho de Columbia que está siendo pagado por el equipo de Musk para actuar como testigo experto, hizo eco de las preocupaciones de McCauley. “OpenAI ha enfatizado que una parte clave de su misión es la seguridad y van a priorizar la seguridad sobre las ganancias”, dijo Schizer. “Parte de eso es tomar las reglas de seguridad en serio, si algo necesita estar sujeto a revisión de seguridad, debe suceder. Lo que importa es el problema del proceso.” Con la IA ya profundamente incrustada en las compañías con fines de lucro, el problema va mucho más allá de un solo laboratorio. McCauley dijo que los fracasos de la gobernanza interna en OpenAI deberían ser una razón para adoptar una regulación gubernamental más fuerte de la IA avanzada — “[si] todo se reduce a un solo CEO tomando esas decisiones, y tenemos el bien público en juego, eso es muy subóptimo.”
Fuente original: techcrunch.com
