¿La IA es una quimera? Altos costos y desafíos complejos revelados
La promesa de la inteligencia artificial de revolucionar la productividad en el lugar de trabajo ha sido una narrativa dominante, promovida activamente por las principales empresas tecnológicas, gigantes de la consultoría e incluso gobiernos ansiosos por estimular el crecimiento económico. De hecho, el gobierno federal australiano está a punto de celebrar una mesa redonda sobre la reforma económica, con la IA ocupando un lugar destacado en la agenda. Sin embargo, una mirada más profunda al impacto real de la IA sugiere que el camino hacia las ganancias de productividad está lejos de ser claro, a menudo resultando complejo, costoso y plagado de desafíos imprevistos.
Una investigación en curso, que extrae ideas de altos funcionarios del Servicio Público Victoriano directamente involucrados en la adquisición, utilización y administración de servicios de IA, revela un conjunto consistente de preocupaciones. Sus experiencias indican que la integración de herramientas de IA en los flujos de trabajo existentes exige una importante preparación organizacional, lo cual es difícil y costoso. Además, la medición de los beneficios reales sigue siendo elusiva, mientras que la adopción de la IA a menudo introduce nuevos riesgos y problemas para la fuerza laboral.
La implementación de herramientas de IA es frecuentemente un esfuerzo lento y que consume muchos recursos. Las organizaciones enfrentan considerables obstáculos para asignar el tiempo y el presupuesto necesarios para investigar productos adecuados y capacitar al personal. Esta barrera financiera afecta desproporcionadamente a las entidades más pequeñas; mientras que las organizaciones bien financiadas podrían permitirse realizar proyectos piloto y probar varias aplicaciones de IA, aquellas con recursos limitados a menudo luchan con los costos sustanciales asociados con la implementación y el mantenimiento de los sistemas de IA. Como lo describió acertadamente un participante, intentar implementar una IA sofisticada con un presupuesto limitado puede sentirse “como conducir un Ferrari con un presupuesto más reducido”, lo que a menudo lleva a soluciones que son prohibitivamente caras de operar y difíciles de mantener, a pesar de ser inadecuadas para operaciones más pequeñas.
Más allá de la inversión inicial, hacer que la IA sea verdaderamente útil requiere un extenso trabajo fundamental, particularmente en lo que respecta a los datos. Si bien las aplicaciones de IA listas para usar como Copilot o ChatGPT pueden agilizar tareas relativamente sencillas —como extraer información de grandes conjuntos de datos o transcribir y resumir reuniones— las aplicaciones más complejas, como los chatbots avanzados de centros de llamadas o los sistemas internos de recuperación de conocimientos, dependen del entrenamiento de modelos de IA con los datos internos de una organización. La calidad de los resultados depende completamente de datos de alta calidad y bien estructurados, y las organizaciones asumen la responsabilidad por cualquier error. Sin embargo, muchas organizaciones aún no han realizado las inversiones necesarias en calidad de datos para garantizar que los productos de IA comerciales funcionen según lo anunciado. Sin este trabajo fundamental crucial, las herramientas de IA simplemente no cumplirán su promesa, lo que subraya el sentimiento de que “los datos son el trabajo duro”.
La adopción de la IA también introduce importantes riesgos de privacidad y ciberseguridad. Los sistemas de IA crean flujos de datos intrincados entre una organización y los servidores de empresas tecnológicas multinacionales. Si bien los grandes proveedores de IA suelen asegurar el cumplimiento de las leyes de residencia de datos y se comprometen a no usar los datos del cliente para el entrenamiento de modelos, los usuarios a menudo expresan escepticismo sobre la fiabilidad de estas promesas. También existe una considerable aprehensión sobre cómo los proveedores podrían introducir nuevas funcionalidades de IA sin una notificación transparente, creando potencialmente nuevos flujos de datos que eluden las evaluaciones de riesgos y los controles de cumplimiento esenciales. Para las organizaciones que manejan información sensible o datos que, si se filtran, podrían representar riesgos de seguridad, la supervisión diligente de los proveedores y productos es primordial para garantizar el cumplimiento de las regulaciones existentes. Además, los empleados que utilizan herramientas de IA disponibles públicamente como ChatGPT corren el riesgo de comprometer la confidencialidad, ya que estas plataformas no ofrecen tales garantías.
En la práctica, la IA ha mostrado cierto éxito en el aumento de la productividad para tareas de “baja cualificación”, como la toma de notas durante las reuniones o el servicio al cliente básico, particularmente para el personal junior o aquellos que aún están desarrollando su competencia lingüística. Sin embargo, mantener la calidad y la rendición de cuentas requiere invariablemente la supervisión humana de los resultados de la IA. Esto crea una paradoja: los mismos trabajadores que más se beneficiarían de las herramientas de IA —aquellos con menos habilidades y experiencia— son a menudo los menos equipados para supervisar y verificar eficazmente el contenido generado por la IA. En entornos de alto riesgo, el grado de supervisión humana requerido puede anular por completo cualquier ganancia potencial de productividad. Además, cuando los trabajos se reducen principalmente a supervisar un sistema de IA, los trabajadores pueden experimentar alienación y una reducción de la satisfacción laboral.
De manera inquietante, la investigación también descubrió casos en los que la IA se utiliza con fines cuestionables, con trabajadores que potencialmente la aprovechan para tomar atajos sin comprender completamente los matices del cumplimiento organizacional. Más allá de las preocupaciones sobre la seguridad y privacidad de los datos, el uso de la IA para la revisión y extracción de información puede introducir riesgos éticos, incluida la amplificación de los sesgos humanos existentes. Esta dinámica incluso puede llevar a las organizaciones a implementar más IA para mejorar la vigilancia y el control en el lugar de trabajo, una práctica que una reciente investigación del gobierno victoriano reconoció como potencialmente dañina para los trabajadores.
En última instancia, medir el verdadero impacto de la IA en la productividad sigue siendo un desafío complejo. Las organizaciones a menudo confían en comentarios anecdóticos de un puñado de usuarios de IA capacitados o en afirmaciones audaces de los proveedores, en lugar de métricas sólidas y objetivas. Un entrevistado señaló su sorpresa ante las altas ganancias de productividad reportadas por Microsoft para su herramienta Copilot, sugiriendo un posible sesgo en los datos proporcionados por el proveedor. Si bien las organizaciones pueden estar impulsadas por el deseo de reducir personal o aumentar el rendimiento, estas métricas a menudo no tienen en cuenta los cambios en la calidad de los servicios o productos entregados a los clientes. Crucialmente, también pasan por alto los profundos cambios en la experiencia laboral de los empleados restantes, así como los costos sustanciales que fluyen principalmente hacia las empresas multinacionales de consultoría y tecnología.