Uso secreto de IA en el trabajo: Australia necesita reglas claras para frenar la 'IA en la sombra'

Theconversation

Una parte significativa de los trabajadores australianos está empleando secretamente herramientas de inteligencia artificial generativa (IA Gen) en sus trabajos, a menudo sin el conocimiento o la aprobación explícita de sus empleadores, según un informe reciente del gobierno federal. El informe “Nuestra Transición a la IA Gen: Implicaciones para el Trabajo y las Habilidades”, publicado por Jobs and Skills Australia, cita múltiples estudios que indican que entre el 21% y el 27% de los empleados, particularmente en los sectores de cuello blanco, están usando IA a espaldas de sus gerentes.

Esta adopción clandestina presenta una paradoja sorprendente. Mientras el tesorero federal y la Comisión de Productividad animan activamente a los australianos a abrazar el potencial de la IA, muchos trabajadores se sienten obligados a ocultar su uso. Las razones comunes citadas en el informe incluyen la percepción de que usar IA constituye “trampa”, junto con el miedo a ser percibido como perezoso o menos competente.

El aumento de este “uso en la sombra” no aprobado de la IA resalta lagunas significativas en la gobernanza actual de la IA en los lugares de trabajo australianos, dejando tanto a empleados como a empleadores con incertidumbre sobre la conducta apropiada. Si bien esta experimentación liderada por los trabajadores a veces puede servir como un impulsor oculto de la innovación de abajo hacia arriba, particularmente en sectores donde los primeros adoptantes emergen como líderes no oficiales, también introduce riesgos sustanciales. El informe advierte que sin una gobernanza clara, esta experimentación informal, aunque es una fuente de innovación, puede fragmentar las prácticas, dificultando su escalabilidad o integración posterior. Crucialmente, aumenta las preocupaciones en torno a la seguridad de los datos, la rendición de cuentas, el cumplimiento y el potencial de resultados inconsistentes.

De hecho, ejemplos del mundo real subrayan el potencial de fallas graves que surgen del uso no regulado de la IA. En Victoria, un incidente impactante vio a una trabajadora de protección infantil introducir detalles sensibles de casos relacionados con delitos sexuales contra un niño pequeño en ChatGPT. Esto llevó al comisionado de información de Victoria a imponer una prohibición al personal de protección infantil del estado de usar herramientas de IA hasta noviembre de 2026. Los abogados también han enfrentado escrutinio por el mal uso de la IA, con casos documentados que surgen de Estados Unidos, el Reino Unido y Australia, incluido un informe reciente que involucra información engañosa generada por IA para un caso de asesinato en Melbourne. Sin embargo, incluso dentro de la profesión legal, las reglas siguen siendo irregulares y divergen significativamente entre los estados. Si bien a un abogado en Nueva Gales del Sur ahora se le prohíbe explícitamente usar IA para generar o alterar el contenido de las declaraciones juradas, otros estados y territorios no han adoptado posiciones tan claras, dejando un panorama regulatorio fragmentado incluso para profesiones con obligaciones éticas críticas.

Esta inconsistencia subraya el llamado urgente del informe a una dirección nacional para la transición de Australia a la IA generativa. Aboga por un marco nacional coordinado, una capacidad centralizada y un impulso a nivel nacional en las habilidades digitales y de IA. Esto se alinea con investigaciones más amplias que indican que el marco legal actual de IA de Australia contiene puntos ciegos significativos, lo que requiere un replanteamiento fundamental de nuestros sistemas de conocimiento. En ausencia de una política nacional tan integral, los empleadores se ven obligados a navegar por un entorno regulatorio fragmentado y a menudo contradictorio, lo que aumenta el riesgo de infracciones. Si bien una legislación nacional uniforme para la IA ofrecería un enfoque consistente, reflejando la naturaleza sin fronteras de la tecnología misma, su implementación actualmente parece poco probable.

Dado este complejo panorama, los empleadores que buscan frenar el uso secreto de la IA deben establecer proactivamente políticas más claras y proporcionar capacitación integral. La orientación escrita emergente, aunque imperfecta, dentro de algunas jurisdicciones legales sirve como un paso fundamental. Sin embargo, la solución definitiva radica en una gobernanza nacional de la IA más robusta y proactiva. Esto implicaría políticas claras, directrices éticas, evaluaciones de riesgos y monitoreo del cumplimiento, proporcionando la claridad tan necesaria tanto para los trabajadores como para los empleadores. Sin este enfoque unificado, los mismos empleados que podrían impulsar la transformación de la IA en Australia pueden seguir operando en las sombras, cargados por el miedo a ser juzgados erróneamente como perezosos o deshonestos, en lugar de empoderados como innovadores.