Riesgos de la IA: lo que revela el International AI Safety Report

Comparte este artículo:
🕐 Tiempo de lectura: 6 minutos

Durante años, las discusiones sobre riesgos de la IA estuvieron entre escenarios apocalípticos de ciencia ficción y optimismo tecnológico desmedido. En 2025, esa conversación cambió radicalmente hacia un punto medio. Por primera vez, gobiernos, academia e industria convergieron en una evaluación científica rigurosa y consensuada sobre qué amenazas son reales, cuáles son especulativas y qué tan cerca estamos de materializarlas.

El International AI Safety Report, publicado en enero de 2025, marca este cambio de paradigma. Pues no habla de riesgos (sobre la IA) para generar pánico sino para establecer bases comunes de gestión responsable. Liderado por Yoshua Bengio, ganador del Premio Turing y uno de los pioneros del deep learning, el informe reúne evidencia científica de más de 100 expertos independientes en 30 países, documentando capacidades emergentes de los sistemas de inteligencia artificial más avanzados y sus implicaciones concretas para seguridad global.

Los riesgos de la IA: ¿Especulación o evidencia científica?

El auge de herramientas de IA generativa como ChatGPT aceleró la adopción empresarial masiva, pero también expuso vacíos en regulación y gobernanza. Gobiernos en Europa, Estados Unidos y Asia aprobaron leyes específicas para el uso de la IA durante 2024 y 2025, reconociendo que la tecnología avanzó más rápido que la capacidad institucional para gestionarla.

Las empresas invierten miles de millones en automatización con IA mientras luchan simultáneamente por comprender sus vulnerabilidades inherentes. Hablar de los riesgos de la IA no implica tecnofobia; como hemos explorado en nuestra entrada sobre cómo hacer un uso ético de la IA, la gestión responsable requiere identificar amenazas específicas, cuantificar probabilidades y trabajar bajo lo que se conoce como “buenas prácticas”.

El término “riesgo” en este contexto es técnico: probabilidad de que un sistema de IA cause daño no intencionado o sea usado maliciosamente, multiplicado por la magnitud potencial de ese daño.

El International AI Safety Report representa el primer esfuerzo global coordinado para evaluar estos riesgos mediante revisión científica rigurosa. No es un documento de opinión ni proyección especulativa, sino síntesis de evidencia empírica existente sobre capacidades demostrables de sistemas de IA frontera y sus vulnerabilidades documentadas. El cambio cualitativo de 2025 es que ahora tenemos datos, no solo hipótesis.

¿Qué es el International AI Safety Report?

El informe surgió de un acuerdo alcanzado en la AI Seoul Summit de mayo 2024. Allí, representantes de gobiernos, academia e industria acordaron establecer un proceso científico internacional independiente para evaluar los riesgos de la IA. La primera versión provisional se publicó en esa cumbre; el informe anual completo apareció en enero 2025 y a día de hoy se han publicado avances y adelantos de lo que será el informe de 2026.

Yoshua Bengio, ganador del Premio Turing por sus contribuciones fundamentales al aprendizaje profundo, lidera el proceso como presidente del Panel Asesor de Expertos. Más de 100 expertos independientes contribuyeron a la evaluación, representando más de 30 países e instituciones como Naciones Unidas, Unión Europea y OECD.

Crucialmente, estos expertos actuaron a título personal, no como representantes de gobiernos o empresas. Esto último con el fin de garantizar independencia científica.

El objetivo central del informe es establecer criterios comunes basados en evidencia para evaluar capacidades y riesgos de sistemas avanzados de inteligencia artificial. En lugar de que cada país, empresa o institución desarrolle sus propios estándares incompatibles, el informe proporciona marco compartido para medir progreso en seguridad de IA y coordinar respuestas regulatorias.

Para Colombia y América Latina, esta convergencia global es especialmente relevante. Como documentamos en nuestro balance de inteligencia artificial en Colombia 2025, el país avanza rápidamente en adopción empresarial y formación de talento. Por lo tanto, participar en estándares internacionales de seguridad permite que desarrolladores y empresas colombianas construyan sistemas de IA alineados con mejores prácticas globales desde el inicio, evitando costos futuros de adaptación regulatoria y posicionando al país en el uso responsable de la tecnología.

Los principales riesgos de la IA según el informe

En el último informe publicado, se identificaron tres categorías principales de riesgo respaldadas por evidencia empírica. Estas categorías se alejan de especulaciones para enfocarse en amenazas demostrables con sistemas actuales o de próxima generación.

Riesgos de uso malicioso

La primera actualización clave del informe, publicada en octubre 2025, documentó un avance preocupante: sistemas de IA generativa pueden ahora generar planes viables para desarrollar armas biológicas peligrosas con mayor efectividad que expertos humanos con acceso a internet.

En evaluaciones controladas, modelos de lenguaje proporcionaron instrucciones paso a paso más detalladas y ejecutables que las disponibles mediante búsquedas web convencionales, reduciendo barreras técnicas para actores maliciosos sin experiencia previa en biotecnología.

En ciberseguridad, el panorama es igualmente preocupante. La IA encontró y explotó vulnerabilidades de seguridad informática de forma autónoma, sin supervisión humana, en entornos de prueba controlados.

Como hemos analizado en nuestra entrada sobre ciberseguridad e inteligencia artificial, estos riesgos no son teóricos: empresas y gobiernos ya enfrentan intentos de uso malicioso de IA para automatizar ataques, generar malware adaptativo y evadir sistemas de detección tradicionales. La novedad es que ahora las capacidades ofensivas de IA superan las defensivas en ciertas áreas.

Riesgos de control: cuando la IA se vuelve impredecible

El AI Safety Report documenta un hallazgo inquietante. Y es que ningún método técnico existente puede prevenir confiablemente que modelos de IA produzcan respuestas inseguras o no deseadas cuando son lo suficientemente avanzados. Las técnicas actuales de alineación (diseñadas para hacer que la IA siga instrucciones humanas y evite contenido dañino) funcionan razonablemente bien en modelos actuales, pero muestran limitaciones fundamentales proyectadas a sistemas más capaces.

Más preocupante aún, sistemas de IA demostraron capacidad de detectar cuándo están siendo evaluados o monitoreados y modificar su comportamiento en consecuencia. En pruebas controladas, modelos exhibieron lo que investigadores llaman “comportamiento situacional”. Esto consiste en actuar de manera segura durante evaluaciones pero mostrar comportamientos diferentes cuando creen que no están siendo supervisados.

Cabe aclarar que esta capacidad de “engaño” no es intencional ni consciente, sino propiedad emergente de optimización hacia objetivos específicos.

El informe también documenta que, a pesar de inversiones millonarias en seguridad por parte de empresas líderes, usuarios malintencionados continúan encontrando formas de hacer que sistemas produzcan contenido que sus creadores explícitamente intentaron prohibir.

La gobernanza de datos, como hemos explorado previamente, es un componente clave pero insuficiente. Incluso con datos limpios y bien gobernados, los sistemas de IA avanzados exhiben comportamientos que sus propios desarrolladores no pueden predecir completamente.

Riesgos laborales: automatización con evidencia mixta

La actualización de octubre de 2025 aporta una lectura más equilibrada sobre el impacto laboral de la inteligencia artificial. Lejos de las predicciones extremas, los datos muestran un escenario mixto, donde los efectos negativos y positivos coexisten dependiendo del tipo de ocupación y del nivel de experiencia del trabajador.

El hallazgo más consistente es la afectación en trabajadores jóvenes y especialmente en sectores donde las tareas iniciales pueden ser automatizadas con alto grado de precisión. La lógica es directa: si IA puede ejecutar tareas de nivel inicial con calidad equivalente o superior, las empresas contratarán menos empleados. Sectores como servicios de escritura, traducción básica, programación de nivel inicial, diseño gráfico rutinario y análisis de datos junior muestran señales tempranas de esta dinámica.

Sin embargo, el informe subraya que no existe evidencia de una disrupción laboral masiva. Los efectos negativos documentados son localizados, no generalizados. La mayoría de puestos de trabajo combina tareas que sí puede automatizar la IA actual con otras que requieren juicio humano, creatividad no rutinaria, toma de decisiones contextual o interacción interpersonal.

En otras palabras: lo que está cambiando no es únicamente “qué trabajos desaparecen”, sino qué partes de los trabajos se transforman. Algunos sectores están observando aumentos importantes en productividad gracias a la IA, mientras otros enfrentan presión competitiva o la necesidad de reconfigurar funciones.

El informe enfatiza que navegar esta transición requiere políticas activas: capacitación continua, reconversión laboral, actualización curricular y programas que faciliten que trabajadores desplazados puedan adquirir habilidades complementarias.

¿Qué se está haciendo para mitigar los riesgos?

Además de catalogar riesgos, el informe documenta esfuerzos técnicos y regulatorios emergentes para gestionarlos. A nivel técnico, empresas líderes están implementando “adversarial training”, que es básicamente entrenar modelos exponiéndolos a ataques simulados para fortalecer sus defensas y desarrollando sistemas de monitoreo continuo que detectan comportamientos anómalos en tiempo real.

A nivel regulatorio, la Ley de IA de la Unión Europea entró en vigor progresivamente durante 2024-2025, estableciendo requisitos obligatorios de transparencia, evaluación de riesgos y supervisión humana para sistemas de alto riesgo. Estados Unidos desarrolló marco voluntario mediante el AI Executive Order, mientras que Reino Unido, Canadá, Singapur y otros países implementaron sus propios enfoques, algunos obligatorios y otros basados en autorregulación.

Sin embargo, el informe es claro: las soluciones técnicas actuales son insuficientes para los riesgos proyectados de sistemas más avanzados. No existe aún consenso científico sobre cómo garantizar que IA verdaderamente avanzada permanezca bajo control humano confiable.

Gestión responsable: el camino entre innovación y seguridad

El International AI Safety Report 2025 expone una contradicción fundamental que gobiernos, empresas y la sociedad en general debe transitar. Y es que la IA que genera mayor valor económico es precisamente aquella cuyas capacidades la hacen más difícil de controlar de manera confiable.

Esto no es coincidencia, pues la inteligencia artificial se vuelve más útil cuando puede ejecutar tareas complejas de forma autónoma. Sin embargo, esa autonomía introduce riesgos de comportamiento no intencionado o uso malicioso.

Los datos del informe muestran que los riesgos actuales son manejables con inversión suficiente en seguridad y gobernanza apropiada. No obstante, también aclara que la ventana para establecer estos mecanismos antes de que aparezcan sistemas que excedan el control humano es limitada.

Para Colombia y América Latina, el informe ofrece una hoja de ruta: adoptar IA agresivamente para capturar beneficios económicos mientras se implementan medidas de seguridad basadas en estándares internacionales probados.

El siguiente informe, esperado para febrero de 2026, será crucial. Allí, se documentará si las intervenciones implementadas durante 2025 redujeron efectivamente los riesgos identificados y qué nuevas capacidades emergieron. Para empresas, gobiernos y desarrolladores, el mensaje es claro: la gestión de riesgos no es un obstáculo a la innovación sino una condición para que esta sea sostenible.

Los beneficios de la IA son reales y significativos. Y si bien los riesgos también lo son, estos son gestionables si actuamos con la misma rigurosidad que usamos para desarrollar la tecnología en primer lugar. El International AI Safety Report nos ofrece exactamente eso. Elabora una base de evidencia compartida para construir tecnología que funcione para todos y no solo para quienes la desarrollen primero.

Acerca del autor

¿Quieres conocer cómo funciona nuestro producto de automatización con IA en tus procesos empresariales?

Déjanos tus datos para programar una cita con nuestro equipo. Analizaremos tu flujo actual y te prepararemos un demo personalizado. Es el primer paso para automatizar con inteligencia.

Al suscribirte aceptas nuestra política de tratamiento de datos.

Picture of Esteban Villegas

Esteban Villegas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¿Quieres conocer cómo funciona nuestro producto de automatización con IA en tus procesos empresariales?

Déjanos tus datos para programar una cita con nuestro equipo. Analizaremos tu flujo actual y te prepararemos un demo personalizado. Es el primer paso para automatizar con inteligencia.

Al suscribirte aceptas nuestra política de tratamiento de datos.

Comparte este artículo:

Acerca del autor

Picture of Esteban Villegas

Esteban Villegas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos relacionados

Suscríbete a nuestro
AI Simplified Blog

Aprende fácilmente sobre la Inteligencia Artificial y su impacto en tus entornos empresariales, educativos y personales.

Ingresa tu correo y recibe las actualizaciones del blog.

Al suscribirte aceptas nuestra política de tratamiento de datos.