OpenAI crea una junta de seguridad capaz de detener nuevos lanzamientos

OpenAI está realizando cambios al interior de su organización con la finalidad de mejorar la seguridad de sus modelos. De acuerdo con una publicación de la empresa, el Comité de Seguridad y Protección ahora es un organismo independiente que tiene la facultad y autoridad para retrasar lanzamientos de modelos de Inteligencia Artificial , bajo argumentos de seguridad. La decisión de modificar la estructura de la empresa se tomó después de que el comité hiciera una revisión de 90 días sobre los “procesos y salvaguardas relacionados con la seguridad y protección” de OpenAI. Esto significa que el nuevo organismo obtendrá información acerca de los desarrollos, en términos de evaluación de seguridad para los modelos más importantes, y tendrá mayor control sobre ellos, incluso la capacidad de retrasar el lanzamiento de algún modelo hasta abordar las problemáticas de seguridad que puedan representar.

Según OpenAI, el consejo también recibirá “informes periódicos” sobre los asuntos de seguridad y protección de la empresa y estará presidido por Zico Kolter, quien se unió a la junta directiva de la compañía el mes pasado y es director del Departamento de Aprendizaje Automático de la Universidad Carnegie Mellon. Otros integrantes de este nuevo comité son Adam D’Angelo, Paul Nakasone y Nicols Seligman, quienes también forman parte de la junta directiva de OpenAI, lo cual genera dudas respecto a qué tan independiente será este organismo. Sin embargo, un punto relevante es que Sam Altman, CEO de la compañía, ya no forma parte del comité. Para la compañía es importante establecer una gobernanza independiente para la seguridad de sus modelos, además de mejorar las características en torno a transparencia y colaboración con organizaciones externas. Este movimiento en torno al Comité de Seguridad y Protección recuerda al enfoque que Meta adoptó con su Junta de Supervisión, la cual se encarga de revisar algunas de las políticas de contenido de sus diferentes plataformas y cuyos miembros no forman parte de la empresa. Por otra parte, la decisión también tiene relación con la búsqueda de una nueva ronda de financiación que valoraría a OpenAI en más de 150,000 millones de dólares, de acuerdo con fuentes consultadas por CNBC. Entre los posibles fondos de inversión que están alrededor de esta inyección de capital se encuentran Thrive Capital, que planea invertir 1,000 millones de dólares, además de otras empresas, como Tiger Global, Microsoft, Nvidia y Apple, cuyas cifras no han sido reveladas. No obstante, para poder trasladar confianza a los inversionistas, OpenAI no sólo debe mostrar el crecimiento que ha tenido en el último par de años, sino también cumplir con los estándares de seguridad en sus modelos. Algunos de sus empleados han mostrado preocupación por el hecho de que la empresa ha crecido demasiado rápido como para operar de forma segura, mientras que senadores demócratas enviaron una carta a Altman para cuestionar la forma en que abordan las preocupaciones de seguridad. Y es que cabe recordar que este mes, OpenAI disolvió un equipo centrado en riesgos a largo plazo. Jan Leike, uno de los líderes de tal grupo, anunció su salida de la empresa en mayo y posteriormente escribió que “la cultura y los procesos de seguridad de OpenAI han quedado en segundo plano frente a los productos brillantes”.

]]>

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *