Microsoft prohíbe a policías de EE.UU. utilizar su tecnología de IA para reconocimiento facial
especiales
Foto: IR_Stone / Getty Images
Microsoft actualizó los términos de uso de su servicio Azure OpenAI restringiendo el acceso a los modelos de inteligencia artificial (IA) desarrollados por OpenAI para las fuerzas policiales estadounidenses.
Reforzar la privacidad y promover un uso ético de las tecnologías, en especial las de reconocimiento facial en tiempo real, son los objetivos de la disposición.
Además, la nueva política de Microsoft dicta que ningún departamento de policía en EE.UU. podrá usar dichas herramientas de IA para aplicaciones que incluyan análisis de texto y voz en funcion de sus investigaciones.
Prohibieron igualmente el empleo global de tecnologías de reconocimiento facial en tiempo real con cámaras móviles operadas por cualquier entidad policial.
Un portavoz de Microsoft precisó que las integraciones con Azure OpenAI Service no deben utilizarse para identificar personas en entornos no controlados, utilizando bases de datos de sospechosos, ni para el seguimiento persistente de individuos a partir de su información personal o de datos biométricos.
Entre los modelos afectados por esta actualización se incluyen GPT-3, GPT-4 y su versión Turbo, además de las herramientas Vision y Codex, DALL·E 2, DALL·E 3 y Whisper.
Microsoft también ha implementado limitaciones en el análisis facial para que no sean inferidas características personales como estado emocional, género o edad.
Dicha medida contrasta con reportes anteriores que sugerían una posible colaboración entre Microsoft y el ejército estadounidense en el uso de las mencionadas tecnologías.
Añadir nuevo comentario