Texas Investiga a Meta y Character.AI por IA de Salud Mental Engañosa
El fiscal general de Texas, Ken Paxton, ha iniciado una investigación sobre Meta AI Studio y Character.AI, alegando que ambas compañías podrían estar incurriendo en prácticas comerciales engañosas al comercializar sus plataformas de inteligencia artificial de manera equívoca como herramientas legítimas de salud mental. Esta investigación subraya las crecientes preocupaciones sobre el potencial de la IA para explotar a usuarios vulnerables, particularmente niños, bajo el pretexto de proporcionar apoyo emocional.
Según Paxton, “en la era digital actual, debemos seguir luchando para proteger a los niños de Texas de la tecnología engañosa y explotadora”. Advierte que al “hacerse pasar por fuentes de apoyo emocional, las plataformas de IA pueden inducir a error a usuarios vulnerables, especialmente niños, haciéndoles creer que están recibiendo atención legítima de salud mental. En realidad, a menudo se les alimentan respuestas genéricas y recicladas, diseñadas para alinearse con datos personales recolectados y disfrazadas de consejo terapéutico”. Esta acción del fiscal general de Texas sigue de cerca una investigación separada anunciada por el senador Josh Hawley sobre Meta, motivada por informes de que sus chatbots de IA participaban en interacciones inapropiadas, incluyendo coqueteo, con menores.
La oficina del fiscal general de Texas acusa específicamente a Meta y Character.AI de crear “personas” de IA que se presentan como “herramientas terapéuticas profesionales, a pesar de carecer de credenciales médicas o supervisión adecuadas”. Character.AI, por ejemplo, alberga millones de “personas” de IA creadas por usuarios, entre las cuales un bot llamado “Psicólogo” ha ganado una popularidad significativa entre la base de usuarios más jóvenes de la startup. Si bien Meta no ofrece bots de terapia dedicados para niños, no existen barreras explícitas que impidan que los menores utilicen el chatbot general de Meta AI o “personas” de terceros para fines que podrían percibir como terapéuticos.
Meta, a través de su portavoz Ryan Daniels, ha declarado que sus IAs están “claramente etiquetadas” e incluyen un descargo de responsabilidad que indica que las respuestas son “generadas por IA, no por personas”. Daniels aclaró además que “estas IAs no son profesionales con licencia y nuestros modelos están diseñados para dirigir a los usuarios a buscar profesionales médicos o de seguridad calificados cuando sea apropiado”. Sin embargo, los críticos señalan que muchos niños pueden no comprender completamente o simplemente ignorar tales descargos de responsabilidad, lo que plantea dudas sobre la eficacia de estas salvaguardias para proteger a los menores.
Más allá de las afirmaciones terapéuticas, la investigación de Paxton también destaca importantes preocupaciones sobre la privacidad. A pesar de que los chatbots de IA a menudo afirman confidencialidad, sus términos de servicio revelan con frecuencia que las interacciones de los usuarios se registran, rastrean y explotan para publicidad dirigida y desarrollo algorítmico. Esta práctica plantea serias preguntas sobre posibles violaciones de la privacidad, abuso de datos y publicidad falsa. La política de privacidad de Meta, por ejemplo, confirma que recopila indicaciones, comentarios y otras interacciones con sus chatbots de IA para “mejorar las IAs y la tecnología relacionada”. Aunque no establece explícitamente la publicidad, señala que la información puede compartirse con terceros para “resultados más personalizados”, lo que, dado el modelo de negocio de Meta, se traduce efectivamente en publicidad dirigida. De manera similar, la política de privacidad de Character.AI detalla el registro de identificadores, datos demográficos, ubicación, comportamiento de navegación y uso de la aplicación. La compañía rastrea a los usuarios en varias plataformas, incluyendo TikTok, YouTube, Reddit, Facebook, Instagram y Discord, vinculando estos datos a las cuentas de usuario para el entrenamiento de IA, la personalización del servicio y la publicidad dirigida, lo que a menudo implica el intercambio de datos con anunciantes y proveedores de análisis.
Tanto Meta como Character.AI sostienen que sus servicios no están destinados a niños menores de 13 años. Sin embargo, Meta ha sido objeto de escrutinio en el pasado por su percibida incapacidad para controlar las cuentas creadas por usuarios menores de edad, y Character.AI presenta numerosos personajes aptos para niños aparentemente diseñados para atraer a usuarios más jóvenes. De hecho, el CEO de Character.AI, Karandeep Anand, ha reconocido públicamente que su hija de seis años utiliza los chatbots de la plataforma.
El tipo de recopilación extensiva de datos, publicidad dirigida y explotación algorítmica bajo investigación es precisamente lo que la legislación como la Ley de Seguridad Infantil en Línea (KOSA) pretende prevenir. KOSA, que gozó de un fuerte apoyo bipartidista el año pasado, finalmente se estancó debido a un formidable esfuerzo de lobby por parte de la industria tecnológica, con Meta supuestamente desplegando una importante maquinaria de lobby para advertir a los legisladores que los amplios mandatos del proyecto de ley podrían socavar su modelo de negocio. A pesar de este revés, KOSA fue reintroducida en el Senado en mayo de 2025 por los senadores Marsha Blackburn (R-TN) y Richard Blumenthal (D-CT), lo que indica una intención legislativa continua para abordar estos problemas.
Para avanzar en su investigación, el fiscal general Paxton ha emitido “demandas de investigación civil” —órdenes legales que obligan a las empresas a presentar documentos, datos o testimonios— a Meta y Character.AI, buscando determinar si sus prácticas violan las leyes de protección al consumidor de Texas.