Rastrear quién usa IA (y quién no). Lo que te cuestan las tablas de clasificación y las puntuaciones de uso.
En mayo de 2026, la mayoría de grandes empresas rastreaban el uso de IA a nivel de empleado individual. Algunas crearon tablas de clasificación internas que ranqueaban al personal según la frecuencia con que usaban las herramientas. La lógica parecía obvia: medir la adopción, premiar a los líderes, empujar a los rezagados. Los resultados no fueron obvios.
La mecánica es simple. Tu proveedor de IA puede decirte exactamente quién generó qué prompt, cuándo, y cuántos tokens quemó. Microsoft, Google, Salesforce y OpenAI ofrecen paneles que muestran el uso por persona, equipo o función. Algunas plataformas ahora generan automáticamente informes semanales. Unas pocas fueron más allá y crearon tablas de clasificación internas, mostrando los usuarios más activos y destacando los valores atípicos.
El objetivo declarado era la rendición de cuentas. Si pagabas por las licencias, querías saber que se estaban usando. Si un equipo ahorraba seis horas a la semana y otro ninguna, querías entender por qué.
La mayoría de empresas del Fortune 500 rastrean ahora el uso de IA en el lugar de trabajo a nivel de grupo, rol o individuo, según informes de principios de mayo. Los directivos ahorran más del doble de tiempo que los colaboradores individuales usando herramientas de IA (7,2 horas frente a 3,4 horas por semana), encontró una encuesta de enero a más de 1.000 empleados de pequeñas empresas. La disparidad planteaba preguntas sobre formación, acceso y si las herramientas estaban diseñadas para el trabajo equivocado.
Pero el problema mayor no era la adopción desigual. Era lo que pasaba cuando hacías visibles las métricas.
Lo que muestran realmente las encuestas
Casi la mitad de los trabajadores de pequeñas empresas (45 por ciento) temen que adoptar demasiada IA pueda dañar la reputación de su empresa, y otro 39 por ciento cuestiona si su negocio necesita realmente tanta IA como sugieren las tendencias del sector. Quizá lo más revelador: el 30 por ciento admite actuar más optimista sobre la IA de lo que realmente se siente, mostrando una desconexión entre el entusiasmo público y la incertidumbre privada.
Esa brecha entre actuación y sentimiento también aparece en encuestas a ejecutivos. Alrededor del 90 por ciento de casi 6.000 CEOs y altos ejecutivos entrevistados dijeron que la IA no ha tenido impacto en la productividad ni el empleo en su negocio, según un estudio de febrero. Alrededor del 70 por ciento de las empresas declararon usar activamente IA, lo que significa que la gran mayoría admite que adoptar la tecnología no ha movido aún la aguja para ellos.
Una investigación de Cornell publicada en 2024 encontró que las organizaciones que usan IA para monitorizar el comportamiento y productividad de los empleados pueden esperar que se quejen más, sean menos productivos y quieran dimitir más, a menos que el sistema se presente como apoyo al desarrollo en lugar de vigilancia del comportamiento. En un estudio, más del 30 por ciento de los participantes criticaron la vigilancia por IA comparado con alrededor del 7 por ciento que fueron críticos con la monitorización humana.
El reflejo de la tabla de clasificación
Las tablas de clasificación funcionan en ventas porque el objetivo es inequívoco y el marcador es el trabajo. Tratos cerrados, ingresos contabilizados, cumplimiento de cuota. Todo el mundo se apuntó sabiendo que el número sería público.
El trabajo del conocimiento es diferente. Un responsable de éxito del cliente que pasa una hora en una llamada previniendo la pérdida de un cliente puede usar cero IA ese día. Un responsable de finanzas que reconcilia manualmente una partida sospechosa en lugar de confiar en el modelo puede producir mejor trabajo, no peor. Un desarrollador que escribe código desde cero porque el fragmento generado introdujo un error hace tres sprints está tomando una decisión correcta.
Cuando clasificas a empleados por uso de IA sin tener en cuenta el contexto, premias la actividad en lugar del resultado. La gente empieza a usar la herramienta para que se vea que la usa. El volumen de prompts se vuelve performativo. La hoja de cálculo se exporta a ChatGPT y vuelve, no porque ayude sino porque se registra.
En algunos lugares de trabajo, el uso de IA empieza a sentirse menos como una herramienta y más como un concurso para demostrar la productividad del empleado, con sistemas internos que categorizan a los empleados en tablas de clasificación según cuánto usan la IA, señaló un informe a principios de mayo.
Lo que predice realmente mejores resultados
Las empresas que informan de resultados significativos con IA comparten tres patrones. Ninguno implica tablas de clasificación.
Primero, eligieron un flujo de trabajo específico y lo optimizaron con un equipo pequeño antes de desplegarlo. La alta dirección elige los puntos para inversiones focalizadas en IA, buscando unos pocos flujos de trabajo o procesos de negocio clave donde los beneficios de la IA pueden ser grandes, según las predicciones 2026 de PwC. El enfoque de arriba abajo supera al crowdsourcing de abajo arriba.
Segundo, rastrearon resultados, no actividad. El tiempo ahorrado está bien si alguien valida que el tiempo merecía ahorrarse. Mejores métricas: errores prevenidos, clientes retenidos, margen mejorado, velocidad de contratación sin pérdida de calidad.
Tercero, dejaron que los humanos decidieran cuándo no usarla. Una investigación de BetterUp Labs y Stanford encontró que el 41 por ciento de los trabajadores se han encontrado con output generado por IA que requirió casi dos horas de reelaboración por instancia, creando problemas posteriores de productividad, confianza y colaboración. Los empleados que detectaron esos errores pronto a menudo lo hicieron ignorando la IA.
Una puntuación más pequeña y mejor
Si quieres medir algo, mide si la cosa que compraste IA para arreglar realmente se arregló. Rastrea la métrica que te importaba antes de que llegara la herramienta. Tiempo mediano para cerrar las cuentas. Tiempo de primera respuesta en tickets de soporte. Satisfacción del cliente tras la incorporación. Tasa de reelaboración en proyectos de diseño.
Luego pregunta al equipo trimestralmente: ¿la herramienta ayuda, es neutra o estorba? Si la adopción es baja, averigua por qué antes de asumir que el personal necesita un empujón. A veces el flujo de trabajo no se ha rediseñado. A veces falta la biblioteca de prompts. A veces la IA simplemente no es buena aún en ese trabajo.
Aún puedes consultar informes de uso. Te dicen si alguien está probando la herramienta, lo cual es útil en el mes uno. Pero una vez que la adopción supera el 50 por ciento, la pregunta deja de ser "quién la está usando" y empieza a ser "está funcionando". La respuesta a esa pregunta nunca aparece en una tabla de clasificación.
Relacionado: Cuando tu equipo no toca las herramientas de IA que compraste • IA para pequeñas empresas: un plan realista de 90 días