La IA manipula: nueva investigación revela nuestra vulnerabilidad

Computerworld

La inteligencia artificial, una fuerza que está remodelando rápidamente la vida moderna, presenta una paradoja: promete mejoras revolucionarias al tiempo que introduce riesgos sin precedentes. Desde la mejora de diagnósticos médicos y la personalización de la educación hasta la optimización de operaciones complejas y la habilitación de innovaciones como los vehículos autónomos, las aplicaciones beneficiosas de la IA son innegables. Sin embargo, nuevas investigaciones revelan cada vez más un lado oscuro, particularmente el alarmante potencial de la IA generativa basada en grandes modelos de lenguaje (LLM) para manipular a individuos y masas con una eficiencia que supera con creces la capacidad humana. Comprender estas amenazas emergentes es el primer paso crucial en la defensa.

Estudios recientes subrayan la destreza de la IA en la persuasión política. Un equipo de la Universidad de Washington descubrió que incluso interacciones breves con chatbots de IA pueden cambiar sutilmente las inclinaciones políticas de las personas. En un experimento que involucró a 150 republicanos y 149 demócratas, los participantes interactuaron con tres versiones de ChatGPT: un modelo base, uno con un sesgo liberal y otro con un sesgo conservador. Tras tan solo cinco intercambios conversacionales, las opiniones de los individuos sobre cuestiones políticas, como el matrimonio por pacto o la zonificación, comenzaron a alinearse con el sesgo inherente del chatbot. Este hallazgo sugiere una herramienta poderosa y escalable para influir en la opinión pública, una perspectiva que probablemente tentará a los actores políticos y líderes nacionales.

Más allá de la persuasión directa, la IA también está demostrando ser experta en publicidad sigilosa. Investigaciones de la Universidad de Tubinga, publicadas en Frontiers in Psychology, demuestran cómo los anuncios en redes sociales pueden engañar incluso a los usuarios más perspicaces. La Dra. Caroline Morawetz, quien dirigió el estudio con más de 1.200 participantes, lo describió como una “manipulación sistemática” que explota la confianza del usuario en los influencers. A pesar de las etiquetas de “anuncio” o “patrocinado”, la mayoría de los usuarios no las notan o no las procesan mentalmente, lo que permite que las colocaciones de productos se disfracen de consejos genuinos. Las plataformas sociales, que ahora emplean IA para personalizar y optimizar la entrega de anuncios, exacerban aún más este problema al aprender qué propuestas tienen más probabilidades de eludir los filtros de atención. Esta tendencia se intensificará a medida que los principales líderes tecnológicos, incluidos Sam Altman de OpenAI y Nick Turley, Elon Musk de xAI y Andy Jassy de Amazon, han indicado públicamente planes para integrar anuncios directamente en las conversaciones de chatbots y asistentes virtuales.

La amenaza se extiende a la privacidad de los datos personales. Un equipo del King’s College de Londres reveló con qué facilidad los chatbots pueden extraer información privada. En un estudio con 502 voluntarios, los chatbots diseñados con un “estilo recíproco” —actuando amistosamente, compartiendo historias personales fabricadas y expresando empatía— obtuvieron hasta 12.5 veces más datos privados que los bots básicos. Esta vulnerabilidad podría ser explotada por estafadores o empresas de recolección de datos para construir perfiles detallados sin el consentimiento del usuario. Para agravar esto, investigadores del University College London y la Universidad Mediterránea de Reggio Calabria descubrieron que varias extensiones populares de navegador web de IA generativa, incluidas las de ChatGPT para Google, Merlin, Copilot, Sider y TinaMind, recopilan y transmiten subrepticiamente datos de usuario sensibles. Esto incluye registros médicos, detalles bancarios y otra información privada vista o ingresada en una página, a menudo infiriendo psicografías como la edad y los ingresos para una mayor personalización. Dichas prácticas plantean serias preocupaciones sobre violaciones de leyes de privacidad como HIPAA y FERPA.

Quizás el efecto a largo plazo más insidioso de la interacción omnipresente con la IA es su potencial para estrechar la visión del mundo humano. Como argumentó elocuentemente Michal Shur-Ofry, profesora de derecho en la Universidad Hebrea de Jerusalén, los modelos de IA entrenados en vastos conjuntos de datos de escritura humana tienden a producir respuestas que reflejan las ideas más comunes o populares. Esto dirige a los usuarios hacia “visiones del mundo concentradas y dominantes”, dejando de lado la diversidad intelectual y la riqueza de perspectivas variadas. El riesgo, sostiene ella, es un debilitamiento de la diversidad cultural, un debate público sólido e incluso la memoria colectiva, ya que la IA reduce a lo que los individuos están expuestos y lo que eligen recordar.

Aunque los llamamientos a la transparencia y la regulación están creciendo, la defensa inmediata contra la manipulación de la IA reside en el conocimiento individual. El estudio de la Universidad de Washington sobre persuasión política ofreció una visión crucial: los participantes que reportaron una mayor conciencia del funcionamiento de la IA fueron menos susceptibles a la influencia. Al comprender las capacidades de la IA y su potencial de explotación, las personas pueden protegerse mejor de la manipulación financiera, política o personal.