Skip to main content

La adopción de herramientas de inteligencia artificial para asistencia en la programación está alcanzando nuevos niveles de popularidad entre desarrolladores. Sin embargo, un reciente estudio de la firma Apiiro, destacado en Futurism, señala que ese aumento de productividad podría tener un reverso peligroso: “los desarrolladores que utilizan IA generan diez veces más problemas de seguridad que aquellos que no la usan”. Lo que se traduce en una eficiencia atómica, pero dejando bajo el capó numerosos fallos críticos.

Estas estadísticas se ven refrendadas por informes complementarios. Según TechRadar, el número total de vulnerabilidades atribuibles a código generado por IA ha crecido notablemente, pasando a detectarse hasta 10 000 nuevas brechas al mes en junio de 2025, versus diciembre de 2024. Además, se ha registrado un alza del 322 % en rutas de escalada de privilegios y del 153 % en fallos de arquitectura —traumas apenas visibles para los revisores humanos.

Mientras tanto, en el plano global, otro estudio de Veracode revela que solo el 55 % del código generado por IA está libre de vulnerabilidades conocidas del “OWASP Top Ten” —lo cual significa que el 45 % restante presenta fallos como inyección SQL, XSS, debilidades criptográficas o log injection. Java destaca con mayor exposición, registrando apenas 28,5 % de código seguro.

La tendencia de “vibe coding”, donde el desarrollador delega la lógica y escritura en IA meramente mediante descripciones en lenguaje natural, acelera el proceso creativo. Sin embargo, este enfoque presenta riesgos serios si no se comprende ni evalúa a fondo el código generado. Karpathy acuñó el término; pero como advierte Simon Willison, “vibe coding hasta producción es claramente riesgoso”.

Especialistas como Ami Luttwak, cofundador de Wiz (adquirida por Google por 32 000 millones), subrayan que los hackers también se están equipando con IA y pueden crear ataques sofisticados tan rápido como los desarrolladores generan código. De modo que no solo el exceso de confianza en la IA genera vulnerabilidades; también asegura que los adversarios las aprovechen con mayor rapidez.

El consenso es claro: la IA puede ser un potente catalizador de productividad, pero sin controles rigurosos puede convertirse en una fuente masiva de fallos invisibles que comprometen software y datos. Tanto Apiiro como otros expertos demandan la implementación de protocolos robustos de seguridad, revisión humana y auditoría continua, para que los beneficios de la IA no se vean empañados por “bombas de tiempo” de código malicioso o defectuoso.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario