Silicon Valley: La Era de la 'Hard Tech' y la Polémica del Avatar IA
Según los informes, Silicon Valley está experimentando una transformación significativa, dejando atrás su pasado reciente de lujos y una ética contracultural para una era de "hard tech" más sobria y centrada en el hardware. Este cambio, destacado por The New York Times, marca una notable desviación del período de la Web 2.0 que dominó el centro tecnológico hace apenas una década.
La era anterior se caracterizaba por negocios de internet de consumo como la transmisión de música y el intercambio de fotos, fomentando un ambiente conocido por sus coloridos pufs, comidas gratuitas y arreglos de trabajo flexibles. El veterano reportero de tecnología Mike Isaac describe este período como en gran parte "historia antigua". Hoy, el enfoque ha girado bruscamente hacia el hardware y proyectos más serios. Los beneficios para los empleados se han vuelto más escasos, el ritmo de contratación ha disminuido considerablemente y el personal ahora opera bajo un escrutinio más estricto. Este panorama en evolución también está influenciado por un clima político cambiante, que ha visto un giro hacia puntos de vista socialmente conservadores combinados con una postura antigubernamental sobre la regulación empresarial.
En un desarrollo separado que está generando debates éticos dentro de las esferas tecnológica y mediática, el ex periodista de CNN Jim Acosta ha publicado una entrevista con un avatar de IA de Joaquín Oliver, un joven asesinado en el tiroteo escolar de Marjory Stoneman Douglas en 2018.
El video, publicado por Acosta en su cuenta de X, fue creado animando una fotografía real de Oliver utilizando inteligencia artificial generativa. El avatar, representado con un gorro, parece responder preguntas sobre su muerte, aunque sus movimientos son notablemente antinaturales y bruscos. Concebido por los padres afligidos de Oliver para conmemorar lo que habría sido su 25º cumpleaños y para concienciar sobre la violencia armada, el proyecto ha recibido considerables críticas. Según informó The Guardian, gran parte de la controversia se debe a la decisión de presentar una representación de IA de la víctima en lugar de interactuar con supervivientes vivos de la violencia armada.