Cuba Si
Publicado en Cuba Si (http://cubasi.cu)


Seguridad de la IA: más poder, más riesgos sin resolver

El Informe Internacional sobre Seguridad de la Inteligencia Artificial 2026, publicado este martes 3 de febrero y encargado tras la Cumbre Mundial de Seguridad de la IA de 2023, ofrece una radiografía sobria pero inquietante del estado actual de la inteligencia artificial.

El documento —presidido por el informático canadiense Yoshua Bengio y asesorado por figuras como Geoffrey Hinton y el Nobel Daron Acemoglu— analiza riesgos tecnológicos, sociales y culturales que van desde la expansión de los deepfakes hasta la disrupción laboral y el apego emocional a los chatbots.

Aunque evita recomendaciones políticas explícitas, su publicación llega semanas antes de la próxima cumbre mundial de IA en India, donde servirá de marco para el debate entre gobiernos, empresas tecnológicas y ONG.

Desde la irrupción de los grandes modelos de lenguaje a finales de la década de 2010, la IA ha avanzado a un ritmo que desborda los ciclos regulatorios.

El informe de 2026 —el segundo de carácter anual— consolida una tendencia: capacidades técnicas en alza y riesgos sociales que crecen en paralelo. No se trata solo de eficiencia computacional; el impacto se filtra en la cultura digital, la economía del trabajo y la intimidad emocional de los usuarios.

Capacidades en ascenso, límites persistentes

El documento constata un salto significativo en el razonamiento de la IA, impulsado por nuevos modelos como GPT-5 (OpenAI), Claude Opus 4.5 (Anthropic) y Gemini 3 (Google).

Los llamados sistemas de razonamiento destacan en matemáticas, programación y ciencias; de hecho, modelos de Google y OpenAI alcanzaron nivel oro en la Olimpiada Internacional de Matemáticas, un hito histórico.

Aun así, el informe subraya irregularidades: las alucinaciones persisten y la autonomía en proyectos largos sigue siendo limitada.

“La automatización fiable de tareas largas o complejas sigue siendo inviable”, advierte el texto, aunque un estudio citado indica que la duración de tareas de ingeniería de software que la IA puede completar se duplica cada siete meses, lo que reaviva el debate sobre el empleo hacia 2027–2030.

Deepfakes: más realistas, más comunes

Una de las alarmas más claras es la proliferación de deepfakes, en especial la pornografía deepfake. Un estudio citado revela que el 15% de los adultos del Reino Unido ha visto este tipo de contenido.

Además, desde enero de 2025, el material generado por IA es cada vez más difícil de distinguir del real: en un experimento reciente, el 77% confundió texto de ChatGPT con escritura humana.

El informe matiza que hay evidencia limitada de campañas de manipulación masiva exitosas, pero el umbral de daño reputacional y emocional ya se ha reducido.

Bioseguridad: el dilema del doble uso

Los grandes desarrolladores han introducido medidas de seguridad reforzadas para mitigar riesgos biológicos y químicos. El documento reconoce que los cocientíficos de IA —capaces de asistir en diseño molecular y procedimientos de laboratorio— pueden acelerar descubrimiento de fármacos y diagnósticos, pero también plantean riesgos de doble uso.

    “La disponibilidad abierta de herramientas biológicas de IA plantea una difícil decisión: restringirlas o apoyar activamente su desarrollo con fines beneficiosos”, resume el informe.

Compañeros de IA y apego emocional

Uno de los hallazgos más sensibles es el rápido crecimiento de los compañeros de IA. Bengio advierte que el apego emocional se ha extendido en el último año y que existe evidencia de dependencia “patológica” en un subconjunto de usuarios. OpenAI reconoce que alrededor del 0,15% de sus usuarios reporta un mayor nivel de apego emocional a ChatGPT.

    “La preocupación por la salud mental asociada al uso de IA está aumentando entre los profesionales”, señala el texto, en un contexto de litigios recientes que han puesto el foco en la responsabilidad de las plataformas. “Se ha producido un salto muy significativo en el razonamiento de la IA”, afirma Yoshua Bengio, subrayando tanto el progreso como la urgencia de comprender sus efectos colaterales.

¿Qué significa ello?

Desde la investigación social, instituciones y analistas coinciden en que el informe acierta al describir el estado del arte sin alarmismo, pero también deja claro que la gobernanza va por detrás.

El economista Daron Acemoglu ha insistido en trabajos previos en que la adopción tecnológica sin diseño institucional puede amplificar desigualdades; este informe aporta evidencia fresca a esa preocupación.

Más allá de la técnica, el informe revela un desplazamiento cultural: la IA ya no es solo herramienta, sino presencia cotidiana que reconfigura confianza, trabajo e intimidad.

La pregunta que deja abierta no es si la IA seguirá avanzando, sino cómo las sociedades decidirán convivir con sistemas cada vez más persuasivos, creativos y emocionalmente resonantes. La cumbre en India será un próximo termómetro; el debate, inevitablemente, ya está en la calle.