El director ejecutivo de OpenAI, Sam Altman, ha manifestado su preocupación por el nuevo modelo de lenguaje GPT-4 que su compañía ha desarrollado recientemente. Aunque admite que es una tecnología impresionante, Altman está «un poco asustado» por el posible mal uso que las personas puedan hacer de ella.
Según informes de OpenAI, el modelo GPT-4 ha demostrado un desempeño a nivel humano en varios puntos de referencia académicos y profesionales, pero Altman teme que este tipo de tecnología pueda ser utilizada para la desinformación a gran escala o incluso para ataques cibernéticos ofensivos.
«Creo que la gente debería estar feliz de que estemos un poco asustados por esto», dijo Altman. «Estamos trabajando en límites de seguridad para controlar su uso y garantizar que no se utilice con fines maliciosos».
Altman también mencionó que OpenAI está en contacto regular con funcionarios del gobierno, pero no proporcionó detalles sobre si estos funcionarios desempeñaron algún papel en la configuración de las preferencias políticas de ChatGPT. La compañía tiene un equipo de formuladores de políticas que deciden «lo que creemos que es seguro y bueno» para compartir con los usuarios.
Aunque GPT-4 aún no está disponible para el público en general, los primeros informes sugieren que el modelo es significativamente más poderoso que su predecesor y potencialmente más peligroso. OpenAI ha implementado medidas de seguridad para controlar su uso y minimizar el riesgo de desinformación y ataques cibernéticos.