A finales de los noventa, la web comercial era casi inocente. Las grandes marcas empezaban a invertir en presencia online, pero la mayoría de sitios eran poco más que folletos digitales: páginas HTML subidas a un servidor y punto. En ese contexto, un desarrollador podía trabajar para compañías del tamaño de Ford, MasterCard o Coca-Cola sin que la seguridad fuese un tema de conversación real. No por negligencia, sino porque, sencillamente, el riesgo parecía lejano y el stack era minimalista: sin bases de datos, sin aplicaciones complejas, sin superficies de ataque evidentes.
Esa sensación duró poco.
El cambio llegó con la web dinámica y, sobre todo, con la entrada de las bases de datos en el día a día de los proyectos. De pronto, ya no se trataba únicamente de “mostrar información”, sino de almacenarla, consultarla y modificarla: usuarios, formularios, contenidos, pedidos, donaciones. Y cuando un sitio empieza a escribir y leer datos, aparecen nuevas preguntas: quién puede tocar qué, cómo se valida lo que entra, qué ocurre si alguien manipula una URL o un parámetro.
En paralelo, los avisos técnicos ya existían. En 1998, el investigador Jeff Forristal (conocido como “rain forest puppy”) documentó vulnerabilidades relacionadas con consultas a bases de datos, en una época en la que todavía había fabricantes que minimizaban el problema y la industria aún no interiorizaba el impacto real de la inyección SQL. Aquello no era un fallo “exótico”: era el anticipo de un patrón que, años después, se convertiría en rutina para administradores y desarrolladores.
Cuando los gusanos hicieron evidente lo que nadie quería mirar
El inicio de los 2000 aceleró el aprendizaje a golpe de incidentes masivos. En julio de 2001, Code Red se convirtió en uno de los casos más citados por su capacidad de propagación: investigaciones académicas y análisis de tráfico de la época describen cientos de miles de sistemas comprometidos en muy poco tiempo, aprovechando fallos en servidores ampliamente desplegados. El mensaje para el sector fue brutal: no hacía falta ser un objetivo “importante” para caer; bastaba con estar expuesto y sin parchear.
Poco después, Nimda reforzó la idea de que el malware ya no jugaba a una sola carta: combinaba varios vectores de propagación y complicaba la defensa porque convertía a cada sistema vulnerable en un amplificador del problema. CERT documentó entonces cómo el gusano explotaba diferentes vías y afectaba tanto a servidores como a estaciones de trabajo, en un momento en el que la gestión de parches era, en demasiadas organizaciones, un proceso lento o directamente inexistente.
Para muchos profesionales, esos años fueron la ruptura definitiva con la web “ingenua”: se podía tener un sitio funcional y, aun así, estar peligrosamente expuesto.
La inyección SQL dejó de ser teoría cuando empezó a doler
Con el crecimiento de la web dinámica, llegó la “epifanía” para toda una generación: bastaba con entender que una URL podía ser una puerta a la base de datos si se concatenaban consultas sin control. En los sistemas antiguos era habitual ver parámetros visibles (por ejemplo, page?id=123) que acababan convertidos en consultas directas. El problema no era que existieran parámetros, sino que muchas aplicaciones confiaban demasiado en lo que recibían.
A partir de ahí se popularizaron prácticas hoy básicas: validación y saneado de entradas, consultas parametrizadas, mínimos privilegios, y una disciplina más seria en el desarrollo. Pero incluso aplicando “buenas prácticas”, había otra realidad: la seguridad perimetral profesional era cara. Durante años, un firewall o un WAF (Web Application Firewall) era una inversión pensada para presupuestos corporativos, no para pequeñas agencias o desarrolladores que alojaban proyectos de clientes con márgenes ajustados.
Pagos online: cuando el riesgo dejó de ser abstracto
La web no solo se hizo dinámica: se hizo económica. Entre finales de los 2000 y principios de la década siguiente, muchos equipos empezaron a construir sistemas de pago cuando todavía no existían (o no estaban generalizadas) soluciones “plug and play” para recaudar, cobrar o tokenizar tarjetas con facilidad. Y, aunque hoy parezca impensable, el uso universal de HTTPS no era un hecho: durante años, los certificados podían ser costosos y la cultura del “todo cifrado por defecto” tardó en asentarse. La llegada de Let’s Encrypt y la automatización de certificados marcó un antes y un después en esa normalización del cifrado.
En ese periodo, el peligro ya no era “que tumben la web”: era que el negocio se rompiera. Fraude con tarjetas, bots automatizados, intentos de saturación del sistema de pagos, y ataques con motivaciones más complejas que el simple vandalismo.
Cuando la seguridad se volvió una emergencia… y llamó la policía
En el relato de Shane Larrabee, fundador de FatLab Web Support (una empresa centrada en hosting y mantenimiento WordPress), el punto de inflexión personal llegó en 2012: un ataque dirigido contra un sistema de donaciones de un comité político, en plena recta final electoral. La mecánica era tan simple como dañina: probar tarjetas robadas con cargos mínimos para validar cuáles seguían activas y, al mismo tiempo, saturar el sistema de transacciones para impedir donaciones legítimas.
Ese tipo de ataque tiene dos capas: la criminal (fraude financiero) y la estratégica (interferir en la operativa y la recaudación en un momento crítico). En contextos así, la respuesta ya no es “reiniciar el servidor y seguir”, y la escalada institucional —según cuenta el propio Larrabee— llegó al punto de mantener conversaciones con agentes federales.
La paradoja de aquella era es que muchas defensas hoy baratas o estándar entonces eran improvisación: CAPTCHAs, honeypots, rate limiting artesanal, bloqueo de IPs que rotaban sin descanso. La sensación era la de jugar a la defensiva con herramientas incompletas.
El gran giro: la seguridad por fin se hizo accesible
A partir de mediados de la década de 2010, el mercado empezó a ofrecer algo que durante mucho tiempo no cuadraba: seguridad gestionada a precios compatibles con el modelo de pequeñas empresas y agencias. El WAF dejó de ser una caja física cara y pasó a ser un servicio en el borde, con reglas actualizadas, telemetría, mitigación DDoS y capacidad de absorber picos.
En los últimos años, además, parte de esa “seguridad de nivel enterprise” se ha empaquetado en integraciones cada vez más sencillas. En el ecosistema WordPress, por ejemplo, se popularizó que plataformas de hosting gestionado incorporasen protección y aceleración en el borde mediante acuerdos con grandes redes; Cloudways, por ejemplo, promociona su complemento de Cloudflare Enterprise con una tarifa mensual por dominio que, comparada con los costes históricos, evidencia lo mucho que ha cambiado la economía de la protección.
El resultado es un nuevo estándar: ataques que en 2010 eran una crisis semanal hoy suelen frenarse automáticamente antes de tocar el servidor.
El precio oculto: depender de pocos gigantes
La contrapartida es clara: la web actual funciona sobre una capa de proveedores masivos. Cuando fallan, el impacto es sistémico. En 2025, Reuters documentó incidencias en las que problemas asociados a Cloudflare afectaron a servicios muy populares, recordando que la resiliencia ya no depende solo del servidor del cliente, sino de una cadena completa de terceros.
En otras palabras: se ganó eficacia, pero se perdió “control tangible”. Antes, un administrador podía señalar una máquina concreta. Hoy, muchas veces solo puede mirar páginas de estado y esperar.
Un aprendizaje que no termina
El balance de estos 25 años no es pesimista, pero sí realista. La curva de seguridad “se democratizó”: herramientas que antes eran inaccesibles hoy están al alcance de casi cualquiera. Sin embargo, los atacantes también evolucionan: automatización, botnets, fraude industrial, y un futuro donde la Inteligencia Artificial puede amplificar tanto la defensa como el ataque.
La web se volvió peligrosa, sí. Pero también se volvió más profesional. Y, para quienes la han vivido desde sus inicios, el mensaje final es casi una regla de oficio: la seguridad no es un proyecto que se “termina”, es una disciplina que se mantiene.
Preguntas frecuentes
¿Qué es un WAF y por qué se considera clave para proteger sitios web y WordPress?
Un WAF filtra tráfico malicioso antes de que llegue al servidor, bloqueando patrones típicos como inyección SQL, bots de fuerza bruta y explotación de vulnerabilidades comunes.
¿Por qué la inyección SQL sigue siendo relevante si existen prácticas modernas de desarrollo?
Porque sigue habiendo aplicaciones heredadas, plugins vulnerables y errores de implementación. Además, muchos ataques automatizados prueban miles de variantes contra objetivos indiscriminados.
¿Qué cambió para que HTTPS se volviera “lo normal” en casi toda la web?
La automatización y gratuidad de certificados y el empuje de navegadores y buscadores, que penalizaron entornos no cifrados, aceleraron la adopción masiva.
¿Cuál es el riesgo de depender de proveedores como Cloudflare para la seguridad y el rendimiento?
La gran ventaja es la protección a escala; el riesgo es que una incidencia en un proveedor muy extendido puede provocar caídas simultáneas en múltiples servicios.
Fuente: medium.com

