El problema: el auge del texto generado por IA
Desde la llegada de ChatGPT en 2022, la cantidad de texto generado por modelos de lenguaje ha crecido exponencialmente. Profesores reciben trabajos escritos por IA, empresas de contenido publican artículos generados en masa, y editores reciben manuscritos parcialmente artificiales.
Esta realidad ha creado la necesidad de herramientas que detecten qué fue escrito por una máquina y qué por un humano. Pero la detección está lejos de ser una ciencia exacta — y entender sus limitaciones es tan importante como saber usarla.
Cómo funcionan los detectores de IA
Los detectores de IA se basan principalmente en dos métricas estadísticas:
📊 Perplexity (Perplejidad)
Mide cuán "predecible" es cada palabra. Los modelos de IA eligen palabras estadísticamente esperadas → perplexity baja. Los humanos son más impredecibles → perplexity más alta.
📈 Burstiness (Explosividad)
Mide la variación en la longitud y complejidad de las frases. Los humanos alternan frases cortas y largas. La IA tiende a frases de longitud más uniforme.
Un detector analiza estas métricas sobre el texto y produce una puntuación de probabilidad. No "sabe" con certeza si fue escrito por IA — solo estima qué tan probable es en función de patrones estadísticos.
Señales que los humanos identifican visualmente
Además del análisis estadístico, hay patrones reconocibles a ojo:
- Frases con estructura "A, B, C" muy regulares: listas implícitas, siempre tres elementos, siempre el mismo ritmo
- Ausencia de errores menores: los humanos cometen pequeños errores de coherencia o repetición que la IA evita
- Opiniones vacías: la IA "equilibra" siempre: "por un lado... por otro..." sin posicionarse
- Vocabulario grandilocuente: "es fundamental destacar que", "en el contexto actual", "cabe señalar que"
- Sin experiencias personales: no hay anécdotas concretas, solo generalidades
- Conclusiones circulares: la conclusión repite la introducción en otras palabras
Limitaciones reales de los detectores
⚠️ Lo que los detectores NO pueden garantizar
- Falsos positivos frecuentes: texto técnico, traducciones automáticas, o autores con estilo directo y preciso son marcados como IA.
- Fácilmente eludibles: basta con editar el texto ligeramente (sinónimos, reordenación) para bajar la puntuación de IA drásticamente.
- Idiomas distintos al inglés: la mayoría de detectores fueron entrenados principalmente con inglés y son menos precisos en español.
- Textos cortos: con menos de 250-300 palabras, los resultados son poco fiables.
Comparativa de detectores
| Herramienta | Gratis | Privacidad | Español |
|---|---|---|---|
| Subnexo | ✓ Siempre | ✓ Sin registro | ✓ |
| GPTZero | Freemium | Cuenta opcional | Limitado |
| Originality.ai | De pago | Cuenta requerida | Parcial |
| Turnitin | Institucional | Almacena texto | ✓ |
La postura de Google en 2025
Google ha dejado claro en sus guías de calidad para webmasters que no penaliza el contenido por ser generado por IA, sino por ser de baja calidad. El criterio sigue siendo E-E-A-T: Experiencia, Especialización, Autoridad y Confianza.
El contenido IA que puede posicionar bien debe:
- Ser útil, preciso y responder la intención del usuario
- Estar revisado por un experto humano
- Aportar perspectiva o análisis que el usuario no puede obtener en otro lugar
- No ser generado en masa con el único propósito de manipular rankings
El contenido IA que sí recibe penalizaciones es el generado masivamente, sin revisión, sin valor añadido — lo que Google llama "spam de contenido a escala".