Microsoft ha lanzado una versión secreta de ChatGPT basada en la tecnología GPT-4, dirigida exclusivamente a las agencias de inteligencia de Estados Unidos, según informa Bloomberg. Esta iniciativa coloca a Microsoft en el centro de la controversia debido al uso de inteligencia artificial en operaciones de seguridad.
El desarrollo de este chatbot, que ha sido adaptado para operar completamente desconectado de la red, es una respuesta a las necesidades de manejar información sensible sin el riesgo de filtraciones. William Chappell, director del área de Misiones Estratégicas y Tecnología en Microsoft, explicó que el modelo de lenguaje de gran tamaño (LLM) fue especialmente diseñado para funcionar en un superordenador en Iowa, aislado del acceso público.
Aunque esta herramienta ya está operativa y capaz de realizar tareas como la escritura de código, no puede aprender de los datos que procesa, una característica diseñada para proteger la integridad de la información clasificada. Este sistema está destinado principalmente para clasificar y ordenar datos, y podría extenderse a funciones administrativas y de recursos humanos dentro de las agencias de inteligencia.
El proyecto aún espera la aprobación del Pentágono para un uso más extendido, incluido el manejo de archivos altamente sensibles. La adopción de esta tecnología también levanta cuestiones éticas, sobre todo después de una reciente investigación que acusó a Microsoft de violar los principios de OpenAI al entregar su IA al Departamento de Defensa de EE. UU. para análisis de fotos y vídeos de vigilancia.
La discusión sobre el equilibrio entre la seguridad nacional y la ética en el uso de la IA generativa continúa, mientras Microsoft explora nuevas fronteras en el campo de la inteligencia artificial.