La inteligencia artificial se ha integrado de forma creciente en sistemas de análisis, procesamiento de datos y toma de decisiones automatizadas en múltiples sectores. Crédito foto: Freepik.
¿Los detectores de Inteligencia Artificial son realmente confiables como prueba para sancionar a un estudiante o a un trabajador?
CAMBIO consultó a especialistas en tecnología y riesgos digitales que analizaron qué tan fiables son realmente los detectores de IA. Sus opiniones dejan al descubierto el debate técnico y las implicaciones detrás de tomar decisiones críticas a partir de los resultados de estas plataformas de identificación.
Por: Juan David Cano
La adopción masiva de modelos generativos de Inteligencia Artificial ha provocado un aumento paralelo de herramientas creadas para intentar distinguir lo que escribe una máquina y lo que escribe una persona. Los también llamados detectores de IA han tenido un crecimiento tan acelerado como polémico. Instituciones educativas como colegios o universidades, empresas y hasta algunos gobiernos han los han usado como si fueran pruebas científicas, pero parte de la comunidad insiste en que su fiabilidad sigue lejos de ser concluyente.
Pero, ¿quién tiene la razón? ¿Son confiables los detectores de Inteligencia Artificial? CAMBIO conversó con especialistas en infraestructura tecnológica, riesgos digitales y operación de centros de datos, quienes mostraron un panorama más complejo del que suelen mostrar las plataformas que prometen “detectar IA en segundos”.
%%imagen%%1
La precisión: una promesa que aún no se cumple
Antes de entrar en el debate ético, es necesario entender la base técnica. Juan David Barrera, DataCenter Sales manager de Dell Technologies, reconoce que la precisión actual de los detectores está lejos de ser uniforme. Lo explica al señalar que “la precisión de los detectores de contenido generados por IA es variable y depende de los algoritmos y datos utilizados en su desarrollo”. Cuando habla de ‘falsos positivos’ y ‘falsos negativos’, introduce un punto de choque: herramientas que deberían servir para dar certeza acaban generando dudas nuevas.
Barrera subraya que incluso los textos escritos por humanos pueden ser marcados como artificiales ('falsos positivos'), y se debe a patrones lingüísticos que los sistemas interpretan como señales de automatización. Su frase “los textos escritos por humanos pueden ser erróneamente marcados como generados por IA” resume uno de los grandes temores de quienes confían ciegamente en detectores.
%%imagen%%2
Para Luis Sánchez Urrego, gerente de Operaciones TI en Sonda, la explicación técnica es todavía más contundente. Urrego afirma que “la precisión de los detectores actuales es limitada” porque la IA generativa avanza a un ritmo imposible de igualar por los detectores y añade una idea que desestabiliza la lógica misma de estas herramientas: los textos de IA se han vuelto tan humanos que ya no encajan en los patrones matemáticos que los detectores intentan rastrear.
La mirada de Control Risks, representada por Adalberto José García, también apunta en la misma dirección al considerar que la precisión depende del idioma, del contexto y del nivel de sofisticación del modelo analizado. García describe estas herramientas de forma más prudente, asegurando que “ofrecen indicadores útiles, pero no pruebas definitivas” y que operan sobre conjuntos de datos estáticos que no se adaptan al ritmo al que evolucionan los modelos.
¿Por qué confunden textos humanos y pasan por alto textos de IA?
Cuando se les pregunta por el fenómeno más polémico —marcar como artificial un texto que no lo es y dejar pasar como humano uno generado por IA— los expertos describen un problema que es tanto técnico como cultural.
Barrera insiste en que todo se reduce a los patrones estadísticos. Los detectores buscan regularidades, repeticiones y estructuras muy alineadas con lo que producen los modelos. Por eso explica que “si un texto escrito por humanos contiene patrones similares a los generados por la IA, puede estar mal clasificado”. Lo que significa que la escritura humana estandarizada, académica o demasiado correcta puede ser penalizada por parecer “demasiado IA”.
%%imagen%%3
Sánchez introduce una visión más amplia, casi sociológica. El experto asegura que en el mundo tecnológico se está consolidando un estándar llamado ‘Integración Invisible’, donde la IA no solo genera contenido, sino que perfecciona el producido por humanos. En ese escenario, aclara que los ‘falsos negativos’ emergen porque los modelos actuales producen resultados “optimizados, limpios y de alta eficiencia que, irónicamente, superan en naturalidad técnica a muchos humanos”, lo que los vuelve indetectables para los filtros. En otras palabras: la IA escribe cada vez mejor, y el detector no está diseñado para distinguir excelencia de artificialidad.
El otro extremo aparece cuando se analiza por qué un humano puede ser confundido con una IA. Sánchez lo resume con una observación dura pero reveladora. Según él, algunos profesionales entregan textos sin diferenciación personal, casi como un “commodity”, y que eso activa las alertas porque “su producción se vuelve un ‘commodity’: predecible, plana y estructuralmente idéntica a lo que generaría un algoritmo básico”. La paradoja entonces es evidente: escribir “demasiado correcto” o “demasiado genérico” te hace sospechoso, incluso si no usaste IA.
García, desde la perspectiva investigativa, complementa esta visión afirmando que el problema también se origina en la falta de contexto. Los detectores no entienden intención, no conocen al autor, no evalúan estilo previo. Ese vacío provoca que elementos genuinos —como una redacción muy clara o muy técnica— se lean como señales de automatización.
Entre todos dibujan un escenario donde el error no es un accidente, sino una consecuencia natural de la tecnología utilizada.
¿Es responsable usar detectores como pruebas contra personas?
Si en la parte técnica hay matices, en la parte ética hay consenso absoluto. Los tres expertos coinciden en que basar decisiones académicas, laborales o legales en un detector de IA es irresponsable.
Barrera afirma sin rodeos que los detectores deben considerarse “herramientas complementarias que proporcionan indicadores, pero no pruebas concluyentes”, y que cualquier decisión crítica debe pasar por un análisis humano capaz de reconocer matices que un algoritmo no podría identificar. También introduce un punto esencial: la evaluación de autoría solo tiene sentido cuando se conoce el estilo previo de la persona, porque de lo contrario el detector analiza en vacío.
García es incluso más categórico. Él explica que “no es responsable utilizar detectores de IA como única evidencia en decisiones críticas” porque los falsos positivos o negativos pueden desencadenar daños reputacionales y conclusiones equivocadas. Lo ejemplifica al recordar que, en educación, el uso permitido de IA para mejorar un texto podría generar falsos positivos si el detector decide que esa edición automática equivale a fraude.
%%imagen%%4
Sánchez, por su parte, lleva la reflexión a un nivel institucional. El experto afirma que castigar el uso de IA es incoherente con la realidad del mercado laboral, donde los copilotos de desarrollo y las herramientas de asistencia ya son parte del ecosistema productivo. En su visión, “la IA es un insumo, no el resultado final”, y el foco debería estar en la capacidad de la persona para agregar valor crítico, no en la detección del uso de herramientas digitales. Su conclusión es contundente: las organizaciones deben replantear cómo enseñan y evalúan, en lugar de tratar los detectores como oráculos.
¿Entonces qué hacer al enfrentarse a los textos de internet?
El debate sobre los detectores de IA es, al final, un debate sobre confianza, según los expertos. Confiar en que los textos que leen las personas reflejen una intención humana y confiar en que las herramientas que usen para verificarlo sean confiables. Pero, por ahora, los expertos coinciden en que esa confianza está lejos de estar garantizada.
Tecnológicamente, la IA generativa corre más rápido que los sistemas que intentan detectarla. Éticamente, usar estas herramientas como arma disciplinaria puede terminar castigando tanto la creatividad humana como el fraude y, culturalmente, la frontera entre escribir con ayuda y escribir desde cero es cada vez más difusa.